Refine
Document Type
- Bachelor Thesis (101) (remove)
Is part of the Bibliography
- no (101)
Keywords
- Classification (1)
- Energieeinsparung (1)
- Hocheffizienzpumpentechnik (1)
- Machine Learning (1)
- Natural Language Processing (1)
- Ressourcenschonung (1)
- Sentiment Analysis (1)
- Supervised Learning (1)
Institute
In einer Zeit rasanter technologischer Entwicklungen steht die Automobilindustrie, besonders in Deutschland, vor einem Paradigmenwechsel. Die Digitalisierung beeinflusst alle Bereiche des Lebens, und ihre Integration in die Geschäftsprozesse ist unerlässlich geworden, um wettbewerbsfähig zu bleiben. Innerhalb dieses Kontextes untersucht die vorliegende Arbeit die Möglichkeiten zur Optimierung von Einkaufsprozessen in der Automobilindustrie durch den Einsatz von Industrie 4.0 Technologien. Anhand einer umfassenden Analyse des aktuellen Stands der Technologieintegration wird eruiert, inwiefern diese Technologien bereits Bestandteil der Einkaufsprozesse sind und welches Potenzial sie noch bieten könnten. Ein zentraler Bestandteil der Arbeit ist die Durchführung einer Nutzwertanalyse. Hierbei werden Technologien basierend auf verschiedenen Kriterien, darunter Wirtschaftlichkeit, technologischer Reifegrad, Qualität, Integrationsfähigkeit und sozialen Aspekten, bewertet. Das Ergebnis liefert nicht nur eine klare Bewertung der Eignung jeder Technologie für den Einkaufsprozess, sondern bietet auch konkrete Empfehlungen für deren Implementierung. Abschließend skizziert die Arbeit einen zukunftsfähigen Entwicklungspfad für die Einkaufsprozesse in der Automobilindustrie, der sowohl aktuelle technologische Entwicklungen als auch voraussichtliche Marktveränderungen berücksichtigt. Insgesamt soll diese Arbeit als Leitfaden für Unternehmen der Automobilindustrie dienen, die bestrebt sind, ihre Einkaufsprozesse in der Ära der Digitalisierung zu optimieren.
Inverter auf Basis der Pulsweitenmodulation dominieren in dem heutigen Stand der Technik. Wie bei den meisten elektronischen Einrichtungen entstehen während ihres Betriebs mehr oder weniger ungewollte Störungen, welche zur Beeinträchtigung der Funktion von anderen Geräten oder elektronischen Schaltungen führen. Die dafür angewandten technischen Gegenmaßnahmen scheinen meist aufwandmäßig hoch zu sein insbesondere bei kritischen elektrischen Einrichtungen. Dank der Resonanzinvertertopologie wird dieser Aufwand zum größten Teil erspart. Der Aufbau und die Funktionsweise der beiden Invertertopologien werden einzeln erläutert. Nach einigen Simulationsdurchführungen, welche unter verschiedenen Betriebsfrequenzen nacheinander erfolgen, werden die beiden Inverter gegenübergestellt und Mithilfe der Simulationsergebnisse verglichen. Aus den allgemeinen Vergleichen stellt sich heraus, dass die Resonanzinvertertopologie insbesondere bei niedrigen Frequenzen im EMV-Aspekt sowie unter Betrachtung der Leistungsfähigkeit den SVPWM-Inverter gewinnt. Während der Resonanzinverter in den niedrigen Frequenzen mehr Störaussendungen als der SVPWM-Inverter produziert, ist das Phänomen bei höheren Frequenzen eher invers.
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.
Um die Ziele der Bachelorarbeit schrittweise zu erreichen, wird im Folgenden eine Einführung in die DIN EN 80001-1 gegeben. Danach wird die Methode zur Einführung der Norm im AGAPLESION DIAKONIEKLINIKUM ROTENBURG präsentiert, wobei auf die Struktur der Dokumentation und die Einführung der Prozesse eingegangen wird. Im letzten Schritt wird die Implementierung anhand eines Beispiels durchgeführt. Hierbei wird geprüft, wie gut die Norm umsetzbar ist und welche Probleme dabei auftreten. In der Zusammenfassung werden alle Informationen verknüpft und die daraus resultierenden Probleme vorgestellt und anschließend diskutiert.
In this scientific research, an innovative sensor system is developed to prevent child heatstrokes in vehicles. The system incorporates a 24 GHz Continuous-Wave (CW) radar system, which identifies vital signs of an infant through a 4-by-1 patch antenna array embedded in a specifically designed circuit board. Intelligent signal processing algorithms analyze data generated by the radar chip and execute processing tasks on a robust microcontroller. The child’s respiration
rate can be extracted qualitatively from the data in nearly real-time, enabling the system to differentiate between a child and a mere shopping bag on the seat. In the event of identifying a critical condition, the system transmits this information via a data bus to a central ECU within the vehicle. This ECU is integrated with GSM and GPS connections, allowing communication with the driver or emergency services. The development of the sensor system adheres to existing
automotive industry standards, featuring a cost-effective design intended as a prototype for large-scale production. Through rigorous evaluation across various scenarios, including realworld
situations with children, the sensor system is refined. The continuously reliable function of the developed radar-based sensor system holds the potential to save children’s lives, making
a major contribution to automotive safety.
Diese Arbeit konzentriert sich auf die Erstellung einer umfassenden technischen Dokumentation für ein Medizinprodukt der Klasse IIa gemäß den Anforderungen der Medical Device Regulation (MDR) 2017/745. Das Hauptziel besteht darin, eine konforme Dokumentation zu entwickeln, die alle wesentlichen Aspekte der Produktentwicklung, Herstellung und Verwendung abdeckt. Besonderes Augenmerk wird darauf gelegt, die regulatorischen Anforderungen der MDR zu erfüllen, um die Sicherheit und Wirksamkeit des Produkts zu gewährleisten und eine Zulassung für den europäischen Markt zu ermöglichen. Die verschiedenen Bestandteile der technischen Dokumentation, einschließlich klinischer Bewertungen, Risikomanagement, Validierungstests, Konformitätsbewertungen und Kennzeichnung, werden gründlich untersucht. Es wird eine systematische und strukturierte Herangehensweise präsentiert, um eine erfolgreiche Konformitätsbewertung für das hier beschriebene Medizinprodukt der Klasse IIa zu erreichen. Die Ergebnisse dieser Arbeit tragen dazu bei, die Qualität und Sicherheit des hier bearbeiteten Medizinproduktes der Klasse IIa zu verbessern und somit die Patientensicherheit zu gewährleisten.
Im Rahmen der vorliegenden Bachelorarbeit in Kooperation mit der Hospitaltechnik Planungsgesellschaft mbH wurden die möglichen Effekte eines verteilten Alarmsystems von Dräger und tetronik auf die Arbeitsqualität der Pflegekräfte auf Intensivstationen untersucht.
Dazu wurde eine Online-Befragung via Microsoft Forms mit den Intensivpflegekräften der Karl-Hansen-Klinik in Bad Lippspringe und der Spezialklinik Jugenheim in Jugenheim durchgeführt. Hierbei besitzt die Intensivstation Bad Lippspringe das verteilte Alarmsystem der
Unternehmen Dräger und tetronik, wohingegen die Intensivstation Jugenheim keins besitzt. Mit Hilfe selbstständig durchgeführter Interviews wurden sowohl die befragten Intensivstationen in
ihrem Aufbau dargestellt als auch das verteilte Alarmsystem in seiner Beschaffenheit und Funktion vollständig erläutert. Die Daten aus der Online-Befragung wurden mit Hilfe eines einseitigen Zweistichproben t-Tests ungleicher Varianzen ausgewertet.
Die Auswertung der Online-Befragung ergab acht signifikante Ergebnisse, die auf eine bessere Arbeitsqualität in der Intensivstation mit dem verteilten Alarmsystems von Dräger und tetronik hinweisen. Jedoch fiel die Mehrheit der 25 Mittelwertsunterschiede nicht signifikant aus.
Schlussfolgernd ist davon auszugehen, dass der positive Effekt eines verteilten Alarmsystems auf Intensivstationen noch nicht zu genüge erreicht ist. Es ist daher anzustreben, dass das verteilte Alarmsystem weiterhin verbessert wird, sodass auch die restlichen untersuchten
Effekte signifikant werden.
Entwicklung einer Simulationsumgebung zur Ermittlung der Verluste Moderner Leistungstransistoren
(2023)
In dieser Bachelorarbeit liegt der Fokus auf der Simulation von Leistungselektronikkomponenten, wobei insbesondere MOSFETs und IGBTs im Mittelpunkt stehen. Der Verwendung von modernen Leistungshalbleiterbauteilen in elektrischen Schaltungen kommt eine immer größere Bedeutung zu, da sie die Effizienz und Leistungsfähigkeit von Energiewandlern und Invertern maßgeblich beeinflussen. Um ihre Funktionalität und Leistung unter verschiedenen Bedingungen zu verstehen und optimieren zu können, ist die Simulation ein unverzichtbares Werkzeug.
Ein wesentlicher Schwerpunkt liegt auf dem Vergleich zwischen Silizium (SI) und Siliziumkarbid (SiC) MOSFETs in einem Halbbrücken-Inverter. Hierbei werden Simulationen unter verschiedenen Temperaturen durchgeführt, um die Auswirkungen von Temperaturschwankungen auf das Verhalten dieser Transistoren zu untersuchen. Die Ergebnisse ermöglichen Einblicke in die Leistungsfähigkeit und Vor- und Nachteile der beiden Materialien in unterschiedlichen Anwendungen.
Des Weiteren wird die Simulation eines IGBTs (Insulated Gate Bipolar Transistor) eingehend untersucht. Dies umfasst die Analyse seiner elektrischen Eigenschaften sowie die Simulation und Darstellung der Einschaltverluste (EON) und Ausschaltverluste (EOFF). Die Simulationen werden mithilfe von LTspice durchgeführt, und die Verluste werden numerisch in MATLAB integriert. Diese Untersuchungen tragen dazu bei, das Verhalten von IGBTs in Schaltungen besser zu verstehen und tragen zur Optimierung von Leistungselektroniksystemen bei.
Die vorliegende Arbeit bietet somit einen umfassenden Einblick in die Simulation und Analyse von Leistungselektronikkomponenten unter verschiedenen Bedingungen und trägt zur Entwicklung effizienterer und zuverlässigerer elektrischer Schaltungen bei.
In dieser Arbeit wird das Problem der "Kontrolle mehrerer Quadrokopter zur Durchführung einer kooperativen Aktion"diskutiert. Das Hauptproblem dieses Themas ergibt sich aus der Komplexität der Positionsbestimmung und Identifizierung von Quadrokopter, insbesondere in komplexen Umgebungen bei der Durchführung kooperativer Aktionen.
Ziel ist durch Python die Entwicklung eines Verfolgungs- und Steuerungssystems, bei dem einer der Haupt-Quadrokopter (grüne Farbe) von einer Handy-App gesteuert wird und jede beliebige Position anfliegen kann, während die anderen Quadrokopter (rot markiert) ihm automatisch folgen und eine bestimmte Formation einhalten, so
dass eine Zusammenarbeit möglich ist. Diese automatische Verfolgung basiert auf der Positionserfassung des Quadrokopters durch zwei feste Kameras im Raum und der Ausführung der zugehörigen Algorithmen.
Die in diesem Beitrag vorgeschlagene Methode basiert auf der Farbsegmentierung zur Erkennung von Quadrokoptern und zur Bestimmung ihrer Weltkoordinaten mit Hilfe eines konvergenten binokularen Kamerasystems. Durch Anwendung der Stereo-Vision- Matching-Methode, die auf dem Global-Optimum-Algorithmus basiert, wird der Abgleich
der Bilder abgeschlossen und die Weltkoordinaten aller Quadrokoptern werden bestimmt. Schließlich folgt der rote Quadrokopter der Bewegung des Hauptquadrokoptern und arbeitet mit ihm zusammen, um die vorgegebene Aufgabe zu erfüllen. Am Ende dieses Artikels wird deutlich, wie das System entworfen, entwickelt und getestet wurde.
Sensor-/Aktorsystem zur Überwachung und Unterstützung der Thermoregulation von Intensivpatienten
(2023)
Diese Bachelorarbeit ist dem Thema Sensor-/Aktorsystem zur Überwachung und Unterstützung von Intensivpatienten gewidmet, einem Bereich, der durch schnelle Fortschritte in der Technologie und der Biomedizin beeinflusst wird. Hier bildet die Körperkerntemperatur einen entscheidenden Bestandteil und einen bedeutenden physiologischen Parameter, der nicht nur für die Funktion des menschlichen Körpers wesentlich ist, sondern auch wertvolle Informationen über den Gesundheitszustand eines Patienten liefert. Im Rahmen dieser Arbeit werden sowohl die physiologische Bedeutung als auch die technologischen Methoden zur Messung der Körperkerntemperatur behandelt. Das Ziel ist, ein Verständnis für die Notwendigkeit einer präzisen Überwachung dieser Parameter bei Intensivpatienten zu entwickeln, indem die Grundlagen der Körperkerntemperatur und ihre Bedeutung für den Organismus im Fokus stehen. Die Einbeziehung von Sensor- und Aktorsystemen in die Intensivmedizin verspricht eine bessere Pflege und klinische Entscheidungsfindung, was zu optimierten Behandlungsergebnissen führen kann. Das Thema der vorliegenden Arbeit hat eine Relevanz für die moderne Gesundheitsversorgung und intendiert wird, Einblicke in innovative Ansätze zur Verbesserung der Pflege von Intensivpatienten zu bieten. Zudem soll die Gesundheitsversorgung der allgemeinen Gesellschaft weiter vorangebracht werden.
Magnesium ist das leichteste Metall, das im konstruktiven Leichtbau Anwendung findet. Zusätzlich ist Magnesium ein wichtiges Element in Aluminiumlegierungen, was den derzeit bedeutendsten Einsatzbereich darstellt. Die Gewinnung von primären Magnesiummetall aus verschiedenen Rohstoffen ist ein sehr energieintensiver Prozess, der vorwiegend in China stattfindet. Die für die Herstellung von einem Kilogramm metallischen Magnesium benötigte Endenergie beträgt zwischen 18 und 80 kWh, je nach eingesetztem Energieträger und Prozess.
Das Umschmelzen von sauberen Neuschrotten erfordert lediglich rund 1 kWh je kg Magnesiumlegierung. Dies verdeutlicht bereits, dass sich durch ein Recycling, im Vergleich zur Primärproduktion, erhebliche Energieeinsparungen erzielen lassen. Altschrotte aus Produkten am Ende ihres Nutzungszyklus werden gegenwärtig kaum innerhalb des Kreislaufs von Magnesiumlegierungen recycelt. Meist werden Magnesiumlegierungen gemeinsam mit der Aluminiumfraktion dem Recycling zugeführt und so im besten Fall als Legierungselement genutzt.
Im Rahmen dieser Arbeit werden die theoretischen Potenziale von Energie- und Treibhausgasemissionseinsparungen durch das Recycling von Magnesium-Altschrotten im Vergleich zum Primärmarkt einer AZ91D-Legierung untersucht. Mittels einer modellierten Ökobilanz werden die Einsparpotenziale für die Wirkungskategorien Treibhausgasemissionen (Global Warming Potential) sowie den kumulierten Energieaufwand (KEA) ermittelt.
Über die Modellierung und Ermittlung der Potenziale hinaus wurden mehrere Expert:inneninterviews geführt. Schlussfolgerungen aus diesen Gesprächen sind, dass die für ein geschlossenes Recycling nötige Technik zur Verfügung steht und gegenwärtig nicht gehobene Potenziale durch das Recycling bestehen. Hinsichtlich der wirtschaftlichen Rah-menbedingungen des Recyclings von Altschrotten wurden divergierende Einschätzungen festgestellt, wonach die geringen Mengen der Altschrotte hemmend, das gestiegene Preisniveau hingegen als fördernd für ein geschlossenes Recycling identifiziert wurden.
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
Ziel dieser Arbeit ist es, ein grundlegendes Verständnis eines elektrisch betriebenen Lenksystems zu schaffen und dessen zugehörige Anforderungen und Analysen seitens der funktionalen Sicherheit darzustellen. Beginnend mit der theoretischen Darstellung des Lenksystems und den Normen wird im praktischen Teil der Arbeit diese Theorie angewandt. Zudem werden Autonomiestufen und deren rechtliche Grundlage in Deutschland aufgeführt und diskutiert.
Hierbei wird auf die Norm für die funktionale Sicherheit, die ISO 26262 und auf die Norm für die Sicherheit der Funktion, die ISO 21448 eingegangen. Es wird erläutert, welchen Zweck die Anwendung der ISO 26262 hat und wie sie aufgrund der zunehmenden Komplexität in der Automobilbranche durch die ISO 21448 (SOTIF) ergänzt wird. Dazu wird herausgearbeitet, wann die ISO 26262 an ihre Grenzen stößt und wie unabdingbar die Anwendung von SOTIF wird.
Einhergehend mit der technologischen Entwicklung und der zunehmenden Komplexität treten nämlich vermehrt Aspekte auf, die mit der ISO 26262 allein nicht abgedeckt werden können. Sicherheitsaspekte nehmen zu und verändern sich mit neuen Komfort- und Assistenzsystemen kontinuierlich. Daher ist es auf-grund der sich ändernden Technologien und derer Komplexität unabdingbar, bestehende Ansätze zu verbessern und zusätzliche neue Methoden für die Sicherheit des Endproduktes zu entwickeln und neben den etablierten Methoden anzuwenden.
Welchen Einfluss dies auf ein modernes Lenksystem hat und wie in diesem Zusammenhang das Zusammenspiel der ISO 26262 und ISO 21448 mit klassischen Methoden wie der Fehlermöglichkeits- und Einflussanalyse (FMEA) betrachtet werden muss, wird in dieser Arbeit dargestellt. Automobilhersteller sind heute bereits in der Lage Fahrzeuge automatisiert in bestimmten Betriebsgrenzen und Bereichen fahren zu lassen. Doch was muss getan werden, um sämtliche Betriebsgrenzen aufzuheben und ein Fahrzeug „autonom“ zu gestalten? Regulatorien, Standards und Richtlinien sind bereits heute auf dem besten Weg dorthin, doch ist es in der Praxis tatsächlich realisierbar?
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Längsschnittuntersuchung des Konsumentenverhaltens im Online- Lebensmittelhandel in Deutschland
(2022)
Kurzfassung
Das Ziel in der vorliegenden Arbeit ist es zu untersuchen, inwiefern sich das
Konsumentenverhalten im Online-Lebensmittelhandel seit 2016 gewandelt
hat. Dazu wird folgende Forschungsfrage gestellt: Hat sich das Interesse
daran, Lebensmittel online zu bestellen, im Vergleich von 2016 zu 2022
verändert? Ferner soll zusätzlich untersucht werden, wie hoch das
Interesse der zu dieser Arbeit Befragten ist, Lebensmittel online zu
erwerben und ob es auch einen Zusammenhang zur Covid-19-Pandemie
gibt. Um diese Forschungsfragen zu untersuchen, wurde eine quantitative
Untersuchung durchgeführt. Es wurde unter anderem mit den hier
gewonnenen Daten eine Längsschnittuntersuchung durchgeführt, die zur
Grundlage die Daten aus einer Masterarbeit aus dem Jahr 2016 hat. Die
Ergebnisse dieser Untersuchung sind, dass das Interesse im Allgemeinen
gestiegen ist, Lebensmittel online zu bestellen und auch schon deutlich
mehr Menschen Erfahrungen mit den Dienstleistungen aus diesem Bereich
gesammelt haben.
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Mit dem wachsenden Konsum elektronischer Mobilgeräte steigen auch die Gefahrenpotenziale, welche aus den in ihnen enthaltenen Lithium-Ionen-Batterien resultieren. Ob bei der Sortierung von Batterien in Recyclinghöfen, oder bei Sicherheitskontrollen an Flughäfen: Die Nachfrage der autonomen Erkennung von Batterien in elektronischem Müll oder Gepäck der Passagiere steigt.
In der vorliegenden Bachelorarbeit wird deshalb der aktuelle Stand der Technik folgender Thematik dargelegt: Erkennung und Klassifizierung elektronischer Mobilgeräte sowie der darin enthaltenen Batterien auf X-Ray-Aufnahmen mittels Transfer Learning. Zunächst wird dabei auf die aktuellen Möglichkeiten im Bereich Machine Learning, sowie letzte Veröffentlichungen bzgl. ähnlicher Thematik eingegangen. Um den Stand der Technik zu verbessern, werden daraufhin mehrere Versuche mit dem aktuell präzisesten Machine-Learning-Modell zur Echtzeit-Objekterkennung „YOLOv5“ und einem umfassenden Datensatz namens „HiXray“ durchgeführt. Der Gebrauch vom Konzept Transfer Learning und dessen Effekt auf die Versuchsreihe wird im Laufe der Arbeit immer wieder angeschnitten. Die Ergebnisse des Experiments zeigen: Mit YOLOv5 ist zwar noch keine vollständig autonome Erkennung elektronischer Mobilgeräte und derer Batterien auf X-Ray-Aufnahmen möglich, jedoch konnte unter Nutzung von Transfer Learning der Stand der Technik verbessert werden. Weitere Forschung in diesem Bereich könnten diese aber bereits in naher Zukunft ermöglichen, wodurch Sicherheitsrisiken minimiert und diverse Prozesse an Sicherheitskontrollen oder Recyclinghöfen automatisiert werden könnten.
Schlagwörter: Objekterkennung, X-Ray, Mobilgeräte, Lithium-Ionen-Batterie, Transfer Learning, Recycling, Sicherheit, YOLOv5
Die folgende Bachelorarbeit analysiert und wertet die Messdaten eines Niederschlagsensors aus, der auf dem induktiven Wirbelstromprinzip aufbaut. Der Sensor wird an der Hochschule Ruhr West im Institut für Mess- und Sensortechnik entwickelt. Er soll nach erfolgreicher Konfiguration die Niederschlagsintensität und die Tropfengröße über die Resonanzfrequenz der Spule ausgeben können. Um dieses Ziel zu erreichen, gibt die Bachelorarbeit eine Einschätzung, inwieweit das System für eine Niederschlagserfassung geeignet ist und welche Verbesserungen vorgenommen werden können. Dazu wurden die Messdaten in einer Regenkammer der Firma Lambrecht meteo GmbH erfasst. Für die Versuche wurden zwei Flachspulen mit Resonanzfrequenzen von 1,7 MHz und 8 MHz nacheinander ausgewertet. Die resultierenden Messdaten werden sowohl im Zeit- als auch im Frequenzbereich auf Verhaltensmuster und Kennwerte untersucht. Aus den Ergebnissen geht hervor, dass der Sensor aufgrund von äußeren Einflüssen und inneren Verhaltensweisen keine signifikante Antwort auf den Niederschlag ausgibt, um die Niederschlagsintensität und die Tropfengröße zu ermitteln. Dennoch zeigt sich, dass die Resonanzfrequenz der Spulen gegensätzliche Reaktionen hervorruft. Die Spule mit der Resonanzfrequenz von 1,7 MHz reagiert deutlich unempfindlicher auf äußere Einflüsse wie parasitäre Kapazitäten. Allerdings werden nur Regentropfeneinschläge bei hohen Niederschlagsmengen deutlich erkannt. Die Spule mit der Resonanzfrequenz von 8 MHz hingegen zeigt ein empfindlicheres Verhalten auf äußere Einflüsse. Zur Optimierung des Niederschlagssensors, muss dieser konfiguriert werden, damit er äußeren Einflüssen robust entgegenwirkt und den Niederschlag sensibel genug detektiert. Zudem müssen Ausreißer, die in der Frequenzanalyse entdeckt wurden und von den inneren Verhaltensweisen stammen, entfernt werden.
Es konnte in dieser Arbeit festgestellt werden, das Relationship Marketing eher eine Akzentuierung
des traditionellen Marketing darstellt und aufgrund der Inkonsistenzen in den einzelnen Ansätzen
kein neues Marketing Paradigma darstellt. Wenn Relationship Marketing sich zu einem neuem
Marketing Paradigma entwickeln soll, dann muss vor allen Dingen die Erschaffung von Werten, der
Verlauf von Beziehungen und deren Entstehung im Vordergrund stehen. Um den evolutorischen
Weg des Relationship Marketing voranzutreiben und im Vertrauensmanagement Kundenbindungen
zu beschreiben, wurde eine im E-Commerce gültige Typologie erstellt, welche qualitative
Ausprägung der Kundenbindung durch die Antezedenz Variable Vertrauen beschreibt. Den Beleg
der Existenz einer solchen Typologie brachte das im Verlauf dieser Abschlussarbeit entwickelte
Messinstrumentes einer qualitativen Ausprägung mittels Vertrauen. In der folgenden Diskussion
konnte zudem gezeigt werden, dass die Typologie in die drei wichtigsten Denkrichtungen des
Relationship Marketing integriert werden kann und somit eine Methode zur Ermittlung qualitativer
Ausprägungen der Kundenbindung im jetzigen Verständnis von Relationship Marketing darstellt.
Vergleich von Logistischer Regression und Deep Learning bei der Vorhersage von Schlaganfällen
(2022)
Die Bachelorarbeit befasst sich mit dem Vergleich von Logistischer
Regression und Deep Learning bei der Vorhersage von Schlaganfällen
hinsichtlich der Frage, ob in einer binären Klassifikationsaufgabe die
komplexe und aufwändige Methode des Deep Learnings sich bei
Anwendung auf kleine tabellarische Datensätze bewährt oder ob
Logistische Regression als Basismodell des Maschinellen Lernens
effizienter ist. Methodisch werden folgende Schritte ausgeführt:
Beschreibung beider Modelle, Durchführung der Datenvorbereitung unter
Verwendung des „Stroke Prediction Dataset“ von Kaggle, Implementierung
beider Methoden mit dem gleichen angepassten Datensatz. Der
abschließende Vergleich benennt als Fazit die Unterschiede in den
Ergebnissen und Voraussetzungen für den sinnvollen Einsatz beider
Methoden. Eine Schlussfolgerung angesichts der geringen
Ergebnisunterschiede hinsichtlich der Prognosegenauigkeit der
Schlaganfallrisikos dürfte sein, dass Deep Learning, um ökonomisch
sinnvoll bei tabellarischen in kleineren Datensätzen eingesetzt zu werden, aktuell noch nicht genügend bessere Ergebnisse vorweist.
Mit dieser Arbeit sollen unterschiedliche Einflussfaktoren und deren Auswirkung auf die Zuverlassigkeit
der mechanischen und elektrischen Bauteile eines Bohrmoduls aufgezeigt und miteinander verglichen werden.
Dazu werden zwei Zuverlassigkeitsanalysen mit je zwei verschiedenen Szenarien durchgeführt und
ausgewertet.
Das Szenario basiert auf der von der National Aeronautics and Space Administration (NASA) geplanten
Mission die Mondoberfläche und ihre oberen Gesteinsschichten zu analysieren. Zur Bewältigung dieser
Aufgabe soll ein mobiler Roboter mit einem Bohrmodul ausgestattet werden, um an unterschiedlichen Orten
auf der Mondoberfläche Bodenproben zu analysieren. Es sollen die Bohrungen bis zu einem Meter Tiefe durchgeführt werden. Ziel der Mission soll sein, die Geologie des Mondes zu erforschen [1].
Dieses Szenario dient als Grundlage die Zuverlässigkeit des Bohrmoduls unter extremen Bedingungen
zu ermitteln. Dabei stellt sich die Frage danach, welchen Einfluss verschiedene Temperaturen und
weitere Faktoren auf die Zuverlässigkeit des Bohrmoduls haben.
Das Ziel dieser Arbeit ist die Durchfuhrung einer Zuverlässigkeitsanalyse eines Bohrmoduls unter Hinzunahme
zwei verschiedener Standards unterschiedlicher Herangehensweisen. Dabei gibt jeder Standard eine
andere Art der Durchführung vor. Dabei ist das NSWC-10 stark abhängig von den konstruktiven Eigenschaften,
der FIDES von den vorherrschenden Umweltgegebenheiten. Die Analysen der Zuverlässigkeit
des Bohrmoduls werden sowohl für ein Erdszenario als auch für ein Mondszenario mit ihren jeweiligen
unterschiedlichen Gegebenheiten durchgeführt. Während der Analysen werden weitere Einflussfaktoren in
den Berechnungen berücksichtigt, die in den Standards als solche nicht aufgeführt werden. Zu diesen zählen
unter anderen die Temperaturschwankung auf dem Mond und das dort vorherrschende Vakuum. Diese
finden Berücksichtigung, um die extremen Bedingungen des Mondszenarios besser repräsentieren zu können.
Letztlich werden die beiden Standards hinsichtlich ihrer Anwendbarkeit auf jene Szenarien bewertet,
die ermittelten Ausfallraten erläutert und die Einflussfaktoren miteinander verglichen.
Zur Ermittlung der Zuverlässigkeit des Moduls werden vorab die Szenarien definiert und die konstruktiven
Eigenschaften der Bauteile ermittelt. Anschliesend wird die erste Zuverlässigkeitsanalyse mit
Hilfe des NSWC-10 durchgeführt. Dazu werden die einzelnen Ausfallraten der Bauteile bestimmt und verglichen.
Neben den vorgegeben Einflussfaktoren werden, falls möglich, spezifische Gegebenheiten des
Szenarios auf dem Mond einbezogen und diskutiert. Die zweite Zuverlässigkeitsanalyse erfolgt auf der
Grundlage des FIDES. Vorab werden dazu die einzelnen Betriebszustände eines Tages definiert, welche
als Grundlage für die weiteren Berechnungen dienen. Es wird versucht, den Tagesablauf des Roboters so
präzise wie möglich zu simulieren. Anschliesend kann die Ausfallrate des Bohrmoduls in Abhängigkeit
der vom FIDES vorgegebenen Einflussfaktoren ermittelt werden. Letztlich werden die ermittelten Werte
6 1 Einleitung
der beiden Standards miteinander verglichen, sowie mögliche Grenzen und Problematiken der Standards
aufgezeigt.
In recent years, the healthcare industry has increasingly relied on modern technologies.
Conventional methods are supported by Big Data methods or are being
investigated in the research. Has Big Data become more relevant in medicine in recent years? What does the future look like? In which medical subject area is Big Data being applied? These questions will be clarified during the thesis. In the first part, the usage of Big Data in medicine is shown and then, by using a bibliometric analysis, the importance and development of Big Data in medicine is presented.
Afterwards, there is a discussion of the results followed with a summary and the future perspective. This thesis gives an overview about the currently technological possibilities and the potentials of Big Data in healthcare and medicine.
Kurzfassung
In dieser Arbeit geht es darum ein Vorgehen vorzustellen, welches ermöglicht, Ist-Prozesse in einem Unternehmen effektiv zu erheben und zu modellieren, wenn ein Großteil oder auch alle Beschäftigten im Home Office arbeiten. Die Bedingungen von zuhause arbeitendem Personal, dort die geschäftlichen Ist-Prozesse zu dokumentieren, unterscheiden sich erheblich von den Gegebenheiten in stationär arbeitenden Unternehmen. Der entwickelte Ansatz kompensiert beispielsweise die nicht vorhandenen Beobachtungsmöglichkeiten am Heimarbeitsplatz und schlägt Alternativen vor. Die Methodik wurde anhand eines Fallbereichs im Online-Reseller-Geschäft getestet und untersucht.
Schlagwörter: Effizienz, Erhebung, Geschäftsprozess, Home Office, Ist-Prozess, Modellierung, Vorgehen
Abstract
This work is about presenting a procedure that enables actual processes in a company to be effectively collected and modeled when a large part or even all employees work in the home office. The conditions for staff working from home to document the as-is business processes differ significantly from the conditions in companies working in the office. The developed approach compensates, for example, the lack of observation options at the home office and suggests alternatives. The methodology was tested and examined using a case area in the online reseller business.
Keywords: efficiency, documentation, business process, home office, as-is process, process modelling, procedure
Gegenstand der hier vorgestellten Arbeit ist die Optimierung der Soft- und Hardware eines induktiven Niederschlagssensors im Rahmen des Verbundforschungsprojektes KIWaSuS (KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten). Auf Grundlage von Testergebnissen in einem Testlabor für Niederschläge ergeben sich Optimierungsansätze zur softwareseitigen Behebung von fehlerhaften Daten, eine hardwareseitige Steigerung der Qualität und der Empfindlichkeit des verwendeten induktiven Wirbelstromsensors und der Verbesserung des Wasserablaufes auf der Oberfläche des Sensorgehäuses. Zur Durchführung der Optimierung wurde empirisch das Ausführen des zugrunde liegenden Programmes auf mögliche Konflikte analysiert und angepasst, die Hardware des Sensors modifiziert und auf seine Empfindlichkeit überprüft sowie die Neigung und das Abdichtungskonzept des Gehäuses verändert und bewertet. Die Ergebnisse zeigen, dass kapazitive Anpassungen der Spule zu einer starken Stabilität des Sensors führen und eine hohe Resonanzfrequenz eine Steigerung der Empfindlichkeit hervorruft. Zusätzlich verhindert die Ausführung des Programmes auf zwei getrennten Mikrocontrollern das Auftreten fälschlicher Daten. Anpassungen des Sensorgehäuses durch die Erhöhung der Neigung und die Verwendung eines randlosen Abdichtungskonzeptes führen zu einem höheren Abfluss, aber zu keiner Eliminierung der Frequenzänderung aufgrund der Masse des aufliegenden Wassers. Die Ergebnisse zeigen, dass vor allem die Anpassungen der Software und der Spulenkonfiguration die Stabilität und Empfindlichkeit des Messsystems steigert.
Der Stahlbau und Bauteile aus Stahl sind in der heutigen Welt unentbehrlich. Neben
der Verwendung von Stahl und Stahlträgern im Brückenbau, werden zum Beispiel
Stahlträger, in unterschiedlichen Formen und Variationen für die Bereiche Beton-,
Anlagen-, Industrie-, aber auch Maschinenbau verwendet.
Die Verbindung dieser Erzeugnisse aus Stahl, die in verschiedenen Profilen vorlie-
gen, wird unter Einsatz diverser Möglichkeiten realisiert. Dabei wird in der DIN 8580
zwischen folgenden Verbindungsmöglichkeiten unterschieden:
▪ unlösbare Verbindungen, wie z.B. Schweißverbindungen,
▪ lösbare Verbindungen, wie z.B. Schraubverbindungen,
▪ bedingt lösbare Verbindungen, wie z.B. Nietverbindungen.[1]
Im Stahlbau werden Verbindungen hauptsächlich geschweißt, wobei hier zwischen
Schweißen in der Vorfertigung und Schweißen auf der Baustelle bzw. der Montage
unterschieden wird. In der Regel werden die Bauteile, bevor diese auf die Baustelle
gelangen, in der Vorfertigung oder der Werkstatt hergestellt. Während der Montage
wiederum werden in der Regel die gering beanspruchten Verbindungen, oder wenn
Baustellennähte unvermeidbar sind [2], geschweißt.
Gemäß der DIN 1910-100 [3] wird das Schweißen bei dem zwei oder mehr Teile
unter Anwendung von Wärme und/oder Druck sowie mit oder ohne Schweißzusatz
miteinander verbunden werden als Fügeprozess definiert.
Durch den schweißtechnisch bedingten Wärmeeinfluss auf den Werkstoff, entstehen Imperfektionen. Diese Imperfektionen beschreiben unerwünschte Abweichun-
gen der Bauteile und werden unterschieden zwischen [4]:
▪ geometrische Imperfektionen
▪ strukturelle Imperfektionen
▪ geometrische Ersatzimperfektionen
Im Prozess der Nachweisführung von stabilitätsgefährdeten Bauteilen sind diese
Imperfektionen zwingend zu berücksichtigen, da diese einen maßgebenden Einflussfaktor auf das Tragverhalten von Bauteilen darstellen können.
Im Rahmen dieser Studienarbeit sollen Kleinteilversuche an längsausgesteiften
Beulfeldern durchgeführt werden. Der Fokus dieser Arbeit liegt hierbei auf der Her-
stellung der geschweißten Plattenbauteile und der Messung der entstehenden geometrischen Imperfektionen.
In dieser Arbeit wird die Thematik Datenvisualisierung von Wissensgraphen behandelt. Durch den massiven Datenbestand in der heutigen Zeit und der immer stärker werdenden Digitalisierung ist die Notwendigkeit gestiegen, aus Daten effizient Wissen generieren zu können. Folglich wurde repräsentativ eine Graphbibliothek ausgewählt, um die Daten zu visualisieren. Umgesetzt wurde die Programmierung durch ein JavaScript Framework. Die Daten einer Wissensdatenbank wurden vom Betreuer bereitgestellt. Das übergeordnete Ziel der Arbeit ist eine verbesserte Darstellung von Wissensdaten in Form eines Wissensgraphen. Sinn und Zweck dahinter ist es, Beziehungen zwischen Daten verbessert erkennen zu können und gleichzeitig Informationen zu gewinnen, die auf den ersten Blick nicht sofort erkennbar sind.