Refine
Document Type
- Bachelor Thesis (100) (remove)
Is part of the Bibliography
- no (100)
Keywords
- Classification (1)
- Energieeinsparung (1)
- Hocheffizienzpumpentechnik (1)
- Machine Learning (1)
- Natural Language Processing (1)
- Ressourcenschonung (1)
- Sentiment Analysis (1)
- Supervised Learning (1)
Institute
Diese Arbeit konzentriert sich auf die Erstellung einer umfassenden technischen Dokumentation für ein Medizinprodukt der Klasse IIa gemäß den Anforderungen der Medical Device Regulation (MDR) 2017/745. Das Hauptziel besteht darin, eine konforme Dokumentation zu entwickeln, die alle wesentlichen Aspekte der Produktentwicklung, Herstellung und Verwendung abdeckt. Besonderes Augenmerk wird darauf gelegt, die regulatorischen Anforderungen der MDR zu erfüllen, um die Sicherheit und Wirksamkeit des Produkts zu gewährleisten und eine Zulassung für den europäischen Markt zu ermöglichen. Die verschiedenen Bestandteile der technischen Dokumentation, einschließlich klinischer Bewertungen, Risikomanagement, Validierungstests, Konformitätsbewertungen und Kennzeichnung, werden gründlich untersucht. Es wird eine systematische und strukturierte Herangehensweise präsentiert, um eine erfolgreiche Konformitätsbewertung für das hier beschriebene Medizinprodukt der Klasse IIa zu erreichen. Die Ergebnisse dieser Arbeit tragen dazu bei, die Qualität und Sicherheit des hier bearbeiteten Medizinproduktes der Klasse IIa zu verbessern und somit die Patientensicherheit zu gewährleisten.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
This work aims to generate synthetic electromyographic (EMG) signals using Generative Adversarial Network (GAN). GANs are considered as one of the most exciting and promising approaches in deep learning [6], offering the possibility to generate artificial data based on real data. GAN consists of two main parts, a discriminator that attempts to differentiate between the generated data and the original data, and a generator that tries to fool the discriminator by generating data which looks like real data, the GAN works by staging a two-player
minimax game between generator and discriminator networks. To achieve the objective of generating realistic artificial electromyographic signals, two different architectures are considered for the generator and the discriminator networks of the GAN model: Long short-term memory (LSTM), which can avoid the long-term dependency problem and remembers information over a long period of time, and convolutional neural network (CNN), which is a powerful tool at automatic feature extraction. Different combinations of CNN and LSTM including hybrid model are experimented within the GAN using the same training data-set. The results and performances of each combination are compared and reviewed. The generated artificial EMG signals can be used to
simulate real muscle activity situations to for example improve muscle signal controlled prostheses using artificial data that may include conditions that does not exist in real data. This method of artificial data generation is not limited to EMG signals, the network can also be used to generate other synthetic biomedical signals such as electroencephalogram (EEG) or electrocardiogram (ECG) that can be practically used for testing algorithms and classifiers.
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Die vorliegende Arbeit untersucht die Eigenschaft Authentizität auf der Video-Plattform TikTok als möglichen Erfolgsfaktor zur Steigerung der Markenbekanntheit. Sie beantwortet drei Forschungsfragen, welche zunächst mithilfe einer Sekundärforschung untersucht werden. Dabei wird der Begriff Markenauthentizität in Bezug auf TikTok erörtert und die Grundlagen des Social Media Marketings erforscht. Die erarbeiteten Erkenntnisse und Methoden bilden die Grundlage für die Formulierung von vier Hypothesen.
Zur Überprüfung der Hypothesen folgt im Anschluss eine empirische Forschung in Form einer Online-Umfrage, bei welchem das Unternehmen Abihome GmbH als Fallbeispiel dient. Das Unternehmen eignet sich aufgrund seiner noch ausbaufähigen Präsenz auf der Plattform TikTok für dieses Vorhaben. Die gewonnenen Daten der empirischen Studie werden mit denen der Sekundärforschung kombiniert und ausgewertet, um Handlungsempfehlungen für Unternehmen abzuleiten, welche ihre Brand Awareness mithilfe eines authentischen Auftrittes auf TikTok optimieren wollen.
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
Motivation beschreibt das Bestreben nach Wirksamkeit und der Organisation seine Ziele zu erreichen oder sich von diesen zurückzuziehen (vgl. 3.1). Das Ziel des Arbeitenden im Einzelhandel ist es, Geld zu verdienen (vgl. 5.3.3). Das Geld wird benötigt, um andere Motive zu befriedigen (vgl. 3.2.3 und 3.2.4). Das Ziel ist es also, die unterschiedlichen Mangelempfinden mithilfe des Geldes zu befriedigen. Das Motiv erklärt dabei die Beweggründe menschlichen Handelns, um seine Ziele zu erreichen. Diese sind anhand von sichtbaren Handlungen erkennbar, lassen allerdings nicht so leicht auf die Handlungsabsicht schließen (vgl. 3.2 und 3.5). Auch externe Anreize sind in der Lage, ein Mangelempfinden auszulösen (vgl. 3.4). Dies ist anhand der Umfrageauswertung aus Kapitel 5.3.10 erkennbar, in der die Befragten allein durch das Wissen, dass ihre Arbeitskollegen
mehr verdienen, ihr Gehalt als gering empfinden. Ein Mangel führt nicht zwangsläufig zu einer sofortigen Handlung, stößt aber zumindest einen Denkprozess an, in dem die Situation mit den Handlungsoptionen verglichen wird, um dieses Mangelempfinden zu beheben (vgl. 3.2.6 und 4.3).
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
In this document a reliable data streaming mechanism for a TDMA LPWAN application is developed by adapting a link layer solution for power line communication, published at the International Symposium on Power Line Communications and its Applications (ISPLC) 2015. A C++ implementation of the services link layer is provided and demonstrated
working at a packet error rate of 50%.
In this scientific research, an innovative sensor system is developed to prevent child heatstrokes in vehicles. The system incorporates a 24 GHz Continuous-Wave (CW) radar system, which identifies vital signs of an infant through a 4-by-1 patch antenna array embedded in a specifically designed circuit board. Intelligent signal processing algorithms analyze data generated by the radar chip and execute processing tasks on a robust microcontroller. The child’s respiration
rate can be extracted qualitatively from the data in nearly real-time, enabling the system to differentiate between a child and a mere shopping bag on the seat. In the event of identifying a critical condition, the system transmits this information via a data bus to a central ECU within the vehicle. This ECU is integrated with GSM and GPS connections, allowing communication with the driver or emergency services. The development of the sensor system adheres to existing
automotive industry standards, featuring a cost-effective design intended as a prototype for large-scale production. Through rigorous evaluation across various scenarios, including realworld
situations with children, the sensor system is refined. The continuously reliable function of the developed radar-based sensor system holds the potential to save children’s lives, making
a major contribution to automotive safety.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
Die Nutzung von Robotern hat stark zugenommen und die Wirkung auf Menschen grundlegend
verändert. Roboter wurden in unsere Gesellschaft eingeführt, jedoch berichten Studien darüber,
dass ihre soziale Rolle immer noch unklar ist (Bartneck & Hu, 2008).
Es gibt es immer mehr Filme, die das Bild von Robotern prägen, zudem gibt es immer mehr
Roboter, die in verschiedenen Kontexten eingesetzt werden, zum Beispiel die Robbe Paro, die Patient:innen in Altenheimen hilft (Schneider, 2021). Auch in Einkaufszentren können Roboter
eingesetzt werden. Hierbei konnte eine Studie in Japan in einer Shopping-Mall zeigen, dass Menschen einen Roboter missbrauchen, vor allem wenn sie sich unbeobachtet fühlen (Nomura et al., 2014). Durch die zunehmende Präsenz von Robotern geriet dieses Phänomen des Robot-
Abuse zunehmend in den wissenschaftlichen Fokus.
Thematisch lässt sich der Gegenstand dieser Abschlussarbeit in ebendiesen Bereich von Robot-
Abuse einordnen, denn sie bezieht sich explizit auf das Empathieverhalten der
Teilnehmer:innen der in dieser Arbeit durchgeführten Studie während eines beobachteten
Robotermissbrauchs. Dabei wird zusätzlich betrachtet, wie sich der Grad der
Anthropomorphisierung auswirkt und wie er wahrgenommen wird. Zudem werden die
unterschiedlichen Wahrnehmungen der Geschlechter betrachtet. Vor diesem Hintergrund soll folgende Forschungsfrage beantwortet werden: Gibt es einen Unterschied im Empathieempfinden in Bezug auf das Geschlecht? Das Ziel der vorliegenden Arbeit ist es dabei,
die Unterschiede im Empathieverhalten bei Robotern mit verschiedenen Graden der
Anthropomorphisierung während eines nonverbalen Robotermissbrauchs zu untersuchen und
einen Überblick über die vorhandene Literatur zu schaffen.
Dafür wird eine Onlinestudie mit einem 2x3-Between-Subjects-Design durchgeführt. In der
Studie werden drei Roboter verwendet: NAO, MiRo-E und der Staubsaugroboter Kobold. Die Teilnehmer:innen sehen eines von drei selbst erstellten Videos, in denen der jeweilige Roboter
getreten wird. Zudem wurde eine Literaturrecherche zu den Themen Anthropomorphismus,
Robot-Abuse, Geschlechterunterschiede und Empathie durchgeführt, um die theoretische Herleitung zu erläutern und aufzuarbeiten.
In dieser Bachelorarbeit werden dafür zunächst die relevanten theoretischen Grundlagen
betrachtet. Diesbezüglich werden in Kapitel 2 die Begriffe Anthropomorphismus, Robot-Abuse,
Geschlechterunterschiede und Empathie erläutert. Anschließend werden die Ergebnisse ausführlich aufgezeigt und diskutiert. Zum Schluss wird in einem Fazit die Eingrenzung dieser
Studie und ein Ausblick auf eine weitere Studie aufgezeigt.
Im Rahmen der vorliegenden Bachelorarbeit in Kooperation mit der Hospitaltechnik Planungsgesellschaft mbH wurden die möglichen Effekte eines verteilten Alarmsystems von Dräger und tetronik auf die Arbeitsqualität der Pflegekräfte auf Intensivstationen untersucht.
Dazu wurde eine Online-Befragung via Microsoft Forms mit den Intensivpflegekräften der Karl-Hansen-Klinik in Bad Lippspringe und der Spezialklinik Jugenheim in Jugenheim durchgeführt. Hierbei besitzt die Intensivstation Bad Lippspringe das verteilte Alarmsystem der
Unternehmen Dräger und tetronik, wohingegen die Intensivstation Jugenheim keins besitzt. Mit Hilfe selbstständig durchgeführter Interviews wurden sowohl die befragten Intensivstationen in
ihrem Aufbau dargestellt als auch das verteilte Alarmsystem in seiner Beschaffenheit und Funktion vollständig erläutert. Die Daten aus der Online-Befragung wurden mit Hilfe eines einseitigen Zweistichproben t-Tests ungleicher Varianzen ausgewertet.
Die Auswertung der Online-Befragung ergab acht signifikante Ergebnisse, die auf eine bessere Arbeitsqualität in der Intensivstation mit dem verteilten Alarmsystems von Dräger und tetronik hinweisen. Jedoch fiel die Mehrheit der 25 Mittelwertsunterschiede nicht signifikant aus.
Schlussfolgernd ist davon auszugehen, dass der positive Effekt eines verteilten Alarmsystems auf Intensivstationen noch nicht zu genüge erreicht ist. Es ist daher anzustreben, dass das verteilte Alarmsystem weiterhin verbessert wird, sodass auch die restlichen untersuchten
Effekte signifikant werden.
In recent years, the healthcare industry has increasingly relied on modern technologies.
Conventional methods are supported by Big Data methods or are being
investigated in the research. Has Big Data become more relevant in medicine in recent years? What does the future look like? In which medical subject area is Big Data being applied? These questions will be clarified during the thesis. In the first part, the usage of Big Data in medicine is shown and then, by using a bibliometric analysis, the importance and development of Big Data in medicine is presented.
Afterwards, there is a discussion of the results followed with a summary and the future perspective. This thesis gives an overview about the currently technological possibilities and the potentials of Big Data in healthcare and medicine.
Vor dem Hintergrund der Energieknappheit, des Preisanstiegs und aus Gründen des
Umweltschutzes ist die Energieeffizienz zu einem allgemeinen Anliegen geworden. Ein erheblicher Teil des Energieverbrauchs in den Fertigungsverfahren entfällt auf
Materialabtragungsverfahren. Im Mittelpunkt dieser Arbeit stehen verschiedene Maßnahmen zur Verbesserung der Energieeffizienz von Werkzeugmaschinen, darunter die Optimierung der Hauptaggregate der Maschine, wie z. B. Antriebssysteme und der Nebenaggregate, wie z. B. die Kühlungssysteme und Kühlschmierstoffsysteme, die
Optimierung der Parameter zur Minimierung des Energieverbrauchs mithilfe der Response-Surface-Methode sowie der Leichtbau von Werkzeugmaschinen.
Entwicklung einer Simulationsumgebung zur Ermittlung der Verluste Moderner Leistungstransistoren
(2023)
In dieser Bachelorarbeit liegt der Fokus auf der Simulation von Leistungselektronikkomponenten, wobei insbesondere MOSFETs und IGBTs im Mittelpunkt stehen. Der Verwendung von modernen Leistungshalbleiterbauteilen in elektrischen Schaltungen kommt eine immer größere Bedeutung zu, da sie die Effizienz und Leistungsfähigkeit von Energiewandlern und Invertern maßgeblich beeinflussen. Um ihre Funktionalität und Leistung unter verschiedenen Bedingungen zu verstehen und optimieren zu können, ist die Simulation ein unverzichtbares Werkzeug.
Ein wesentlicher Schwerpunkt liegt auf dem Vergleich zwischen Silizium (SI) und Siliziumkarbid (SiC) MOSFETs in einem Halbbrücken-Inverter. Hierbei werden Simulationen unter verschiedenen Temperaturen durchgeführt, um die Auswirkungen von Temperaturschwankungen auf das Verhalten dieser Transistoren zu untersuchen. Die Ergebnisse ermöglichen Einblicke in die Leistungsfähigkeit und Vor- und Nachteile der beiden Materialien in unterschiedlichen Anwendungen.
Des Weiteren wird die Simulation eines IGBTs (Insulated Gate Bipolar Transistor) eingehend untersucht. Dies umfasst die Analyse seiner elektrischen Eigenschaften sowie die Simulation und Darstellung der Einschaltverluste (EON) und Ausschaltverluste (EOFF). Die Simulationen werden mithilfe von LTspice durchgeführt, und die Verluste werden numerisch in MATLAB integriert. Diese Untersuchungen tragen dazu bei, das Verhalten von IGBTs in Schaltungen besser zu verstehen und tragen zur Optimierung von Leistungselektroniksystemen bei.
Die vorliegende Arbeit bietet somit einen umfassenden Einblick in die Simulation und Analyse von Leistungselektronikkomponenten unter verschiedenen Bedingungen und trägt zur Entwicklung effizienterer und zuverlässigerer elektrischer Schaltungen bei.
Energieeinsparung und Ressourcenschonung werden gerade vor dem Hintergrund der aktuellen politischen, wirtschaftlichen und klimakritischen Situation auch global betrachtet immer wichtiger. In diesem Zusammenhang bietet besonders der Bestandsgebäudebereich ein großes Einsparpotential. Neben der Reduzierung der Heizwärmeverluste
durch eine gute thermische Gebäudehülle und effizienter Anlagentechnik, kann auch durch Einregulierung der Heizungsanlage durch einen hydraulischen Abgleich einiges an Wärmeenergie eingespart werden. Durch eine raumweise Heizlastberechnung aus der sich exakt die zur Raumerwärmung erforderlichen Durchflussmengen ermitteln lassen, können durch geeignete Thermostate in Kombination mit geregelter Hocheffizienzpumpentechnik die erforderlichen Wärmemengen optimiert und dadurch Wärmeverluste reduziert werden.
Das Vorgehen bei der Durchführung eines hydraulischen Abgleichs soll anhand einer geeigneten Lernsituation mittels eines Schulungsstandes (Wilo-Brain-Box) den Studierenden praktisch nahegebracht werden.
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Ziel dieser Arbeit ist es, ein grundlegendes Verständnis eines elektrisch betriebenen Lenksystems zu schaffen und dessen zugehörige Anforderungen und Analysen seitens der funktionalen Sicherheit darzustellen. Beginnend mit der theoretischen Darstellung des Lenksystems und den Normen wird im praktischen Teil der Arbeit diese Theorie angewandt. Zudem werden Autonomiestufen und deren rechtliche Grundlage in Deutschland aufgeführt und diskutiert.
Hierbei wird auf die Norm für die funktionale Sicherheit, die ISO 26262 und auf die Norm für die Sicherheit der Funktion, die ISO 21448 eingegangen. Es wird erläutert, welchen Zweck die Anwendung der ISO 26262 hat und wie sie aufgrund der zunehmenden Komplexität in der Automobilbranche durch die ISO 21448 (SOTIF) ergänzt wird. Dazu wird herausgearbeitet, wann die ISO 26262 an ihre Grenzen stößt und wie unabdingbar die Anwendung von SOTIF wird.
Einhergehend mit der technologischen Entwicklung und der zunehmenden Komplexität treten nämlich vermehrt Aspekte auf, die mit der ISO 26262 allein nicht abgedeckt werden können. Sicherheitsaspekte nehmen zu und verändern sich mit neuen Komfort- und Assistenzsystemen kontinuierlich. Daher ist es auf-grund der sich ändernden Technologien und derer Komplexität unabdingbar, bestehende Ansätze zu verbessern und zusätzliche neue Methoden für die Sicherheit des Endproduktes zu entwickeln und neben den etablierten Methoden anzuwenden.
Welchen Einfluss dies auf ein modernes Lenksystem hat und wie in diesem Zusammenhang das Zusammenspiel der ISO 26262 und ISO 21448 mit klassischen Methoden wie der Fehlermöglichkeits- und Einflussanalyse (FMEA) betrachtet werden muss, wird in dieser Arbeit dargestellt. Automobilhersteller sind heute bereits in der Lage Fahrzeuge automatisiert in bestimmten Betriebsgrenzen und Bereichen fahren zu lassen. Doch was muss getan werden, um sämtliche Betriebsgrenzen aufzuheben und ein Fahrzeug „autonom“ zu gestalten? Regulatorien, Standards und Richtlinien sind bereits heute auf dem besten Weg dorthin, doch ist es in der Praxis tatsächlich realisierbar?
Mit dem wachsenden Konsum elektronischer Mobilgeräte steigen auch die Gefahrenpotenziale, welche aus den in ihnen enthaltenen Lithium-Ionen-Batterien resultieren. Ob bei der Sortierung von Batterien in Recyclinghöfen, oder bei Sicherheitskontrollen an Flughäfen: Die Nachfrage der autonomen Erkennung von Batterien in elektronischem Müll oder Gepäck der Passagiere steigt.
In der vorliegenden Bachelorarbeit wird deshalb der aktuelle Stand der Technik folgender Thematik dargelegt: Erkennung und Klassifizierung elektronischer Mobilgeräte sowie der darin enthaltenen Batterien auf X-Ray-Aufnahmen mittels Transfer Learning. Zunächst wird dabei auf die aktuellen Möglichkeiten im Bereich Machine Learning, sowie letzte Veröffentlichungen bzgl. ähnlicher Thematik eingegangen. Um den Stand der Technik zu verbessern, werden daraufhin mehrere Versuche mit dem aktuell präzisesten Machine-Learning-Modell zur Echtzeit-Objekterkennung „YOLOv5“ und einem umfassenden Datensatz namens „HiXray“ durchgeführt. Der Gebrauch vom Konzept Transfer Learning und dessen Effekt auf die Versuchsreihe wird im Laufe der Arbeit immer wieder angeschnitten. Die Ergebnisse des Experiments zeigen: Mit YOLOv5 ist zwar noch keine vollständig autonome Erkennung elektronischer Mobilgeräte und derer Batterien auf X-Ray-Aufnahmen möglich, jedoch konnte unter Nutzung von Transfer Learning der Stand der Technik verbessert werden. Weitere Forschung in diesem Bereich könnten diese aber bereits in naher Zukunft ermöglichen, wodurch Sicherheitsrisiken minimiert und diverse Prozesse an Sicherheitskontrollen oder Recyclinghöfen automatisiert werden könnten.
Schlagwörter: Objekterkennung, X-Ray, Mobilgeräte, Lithium-Ionen-Batterie, Transfer Learning, Recycling, Sicherheit, YOLOv5
Die Corona-Pandemie veränderte auch nach der zweijährigen Dauer viele Aspekte des alttäglichen Lebens. Hand in Hand mit gesellschaftlichen Einschränkungen, die in der Allgemeinheit für Unmut sorgte und die Wirtschaft erschütterte, stellt sie auch einen Meilenstein in der Sammlung und Auswertung medizinischer Daten weltweit dar. Die umfassende Dokumentation und Bekanntgabe täglicher Daten wie Infektionszahlen, Hospitalisierungs- und Sterberate durch weltbekannte Organisationen wie das Robert-Koch-Institut oder die World Health Organisation bieten eine noch nie gebotene Forschungsgrundlage. So riefen diverse Organisationen und Regierungen dazu auf, diese Datenmenge zu nutzen, um Zusammenhänge zu erschließen, die dabei helfen können, diese Pandemie und auch zukünftige Notstände schneller und effizienter bewältigen zu können.
Zu diesem Zweck bietet sich eine Untersuchung und Auswertung mit Hilfe von maschinellem Lernen an. So können Klassifikationsmodelle verwendetet werden, um zuverlässige Diagnosen zu stellen und Clustering Algorithmen, um neue Zusammenhänge aus den Daten zu erschließen. Allerdings bleibt ein Problem bei der Nutzung von maschinellem Lernen: Die Modelle müssen nicht nur funktionieren und akkurate Vorhersagen treffen, sondern allen voran, verständlich und erklärbar sein. Denn gerade im Gesundheitswesen ist es von höchster Wichtigkeit, die Ergebnisse und Diagnosen auch belegen zu können, denn dies schafft Vertrauen in die Technik.
Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterstützen als auch verhindern können. Diese Arbeit beschäftigt sich mit der Frage, wie und ob die Akzeptanz und darüber hinaus auch die Erklärbarkeit von Kategorisierungsmodellen erreicht werden können. Durch die Erklärbarkeit erlangt der Nutzer ein verbessertes Verständnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden dafür zunächst das zuvor angefertigte Modell erläu-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschließend für die Erklärung von Kategorie Vorhersagen eingesetzt werden. Außerdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalität des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um über 90% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6%. Um abschließend die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgeführt, um einerseits die Auswirkungen von Erklärungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erklärungen erreicht werden konnte. Die benötigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden.
Schlagwörter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
In dieser Arbeit wird die Thematik Datenvisualisierung von Wissensgraphen behandelt. Durch den massiven Datenbestand in der heutigen Zeit und der immer stärker werdenden Digitalisierung ist die Notwendigkeit gestiegen, aus Daten effizient Wissen generieren zu können. Folglich wurde repräsentativ eine Graphbibliothek ausgewählt, um die Daten zu visualisieren. Umgesetzt wurde die Programmierung durch ein JavaScript Framework. Die Daten einer Wissensdatenbank wurden vom Betreuer bereitgestellt. Das übergeordnete Ziel der Arbeit ist eine verbesserte Darstellung von Wissensdaten in Form eines Wissensgraphen. Sinn und Zweck dahinter ist es, Beziehungen zwischen Daten verbessert erkennen zu können und gleichzeitig Informationen zu gewinnen, die auf den ersten Blick nicht sofort erkennbar sind.
Der Stahlbau und Bauteile aus Stahl sind in der heutigen Welt unentbehrlich. Neben
der Verwendung von Stahl und Stahlträgern im Brückenbau, werden zum Beispiel
Stahlträger, in unterschiedlichen Formen und Variationen für die Bereiche Beton-,
Anlagen-, Industrie-, aber auch Maschinenbau verwendet.
Die Verbindung dieser Erzeugnisse aus Stahl, die in verschiedenen Profilen vorlie-
gen, wird unter Einsatz diverser Möglichkeiten realisiert. Dabei wird in der DIN 8580
zwischen folgenden Verbindungsmöglichkeiten unterschieden:
▪ unlösbare Verbindungen, wie z.B. Schweißverbindungen,
▪ lösbare Verbindungen, wie z.B. Schraubverbindungen,
▪ bedingt lösbare Verbindungen, wie z.B. Nietverbindungen.[1]
Im Stahlbau werden Verbindungen hauptsächlich geschweißt, wobei hier zwischen
Schweißen in der Vorfertigung und Schweißen auf der Baustelle bzw. der Montage
unterschieden wird. In der Regel werden die Bauteile, bevor diese auf die Baustelle
gelangen, in der Vorfertigung oder der Werkstatt hergestellt. Während der Montage
wiederum werden in der Regel die gering beanspruchten Verbindungen, oder wenn
Baustellennähte unvermeidbar sind [2], geschweißt.
Gemäß der DIN 1910-100 [3] wird das Schweißen bei dem zwei oder mehr Teile
unter Anwendung von Wärme und/oder Druck sowie mit oder ohne Schweißzusatz
miteinander verbunden werden als Fügeprozess definiert.
Durch den schweißtechnisch bedingten Wärmeeinfluss auf den Werkstoff, entstehen Imperfektionen. Diese Imperfektionen beschreiben unerwünschte Abweichun-
gen der Bauteile und werden unterschieden zwischen [4]:
▪ geometrische Imperfektionen
▪ strukturelle Imperfektionen
▪ geometrische Ersatzimperfektionen
Im Prozess der Nachweisführung von stabilitätsgefährdeten Bauteilen sind diese
Imperfektionen zwingend zu berücksichtigen, da diese einen maßgebenden Einflussfaktor auf das Tragverhalten von Bauteilen darstellen können.
Im Rahmen dieser Studienarbeit sollen Kleinteilversuche an längsausgesteiften
Beulfeldern durchgeführt werden. Der Fokus dieser Arbeit liegt hierbei auf der Her-
stellung der geschweißten Plattenbauteile und der Messung der entstehenden geometrischen Imperfektionen.