Refine
Document Type
- Bachelor Thesis (100) (remove)
Is part of the Bibliography
- no (100)
Keywords
- Classification (1)
- Energieeinsparung (1)
- Hocheffizienzpumpentechnik (1)
- Machine Learning (1)
- Natural Language Processing (1)
- Ressourcenschonung (1)
- Sentiment Analysis (1)
- Supervised Learning (1)
Institute
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Es konnte in dieser Arbeit festgestellt werden, das Relationship Marketing eher eine Akzentuierung
des traditionellen Marketing darstellt und aufgrund der Inkonsistenzen in den einzelnen Ansätzen
kein neues Marketing Paradigma darstellt. Wenn Relationship Marketing sich zu einem neuem
Marketing Paradigma entwickeln soll, dann muss vor allen Dingen die Erschaffung von Werten, der
Verlauf von Beziehungen und deren Entstehung im Vordergrund stehen. Um den evolutorischen
Weg des Relationship Marketing voranzutreiben und im Vertrauensmanagement Kundenbindungen
zu beschreiben, wurde eine im E-Commerce gültige Typologie erstellt, welche qualitative
Ausprägung der Kundenbindung durch die Antezedenz Variable Vertrauen beschreibt. Den Beleg
der Existenz einer solchen Typologie brachte das im Verlauf dieser Abschlussarbeit entwickelte
Messinstrumentes einer qualitativen Ausprägung mittels Vertrauen. In der folgenden Diskussion
konnte zudem gezeigt werden, dass die Typologie in die drei wichtigsten Denkrichtungen des
Relationship Marketing integriert werden kann und somit eine Methode zur Ermittlung qualitativer
Ausprägungen der Kundenbindung im jetzigen Verständnis von Relationship Marketing darstellt.
Vergleich von Logistischer Regression und Deep Learning bei der Vorhersage von Schlaganfällen
(2022)
Die Bachelorarbeit befasst sich mit dem Vergleich von Logistischer
Regression und Deep Learning bei der Vorhersage von Schlaganfällen
hinsichtlich der Frage, ob in einer binären Klassifikationsaufgabe die
komplexe und aufwändige Methode des Deep Learnings sich bei
Anwendung auf kleine tabellarische Datensätze bewährt oder ob
Logistische Regression als Basismodell des Maschinellen Lernens
effizienter ist. Methodisch werden folgende Schritte ausgeführt:
Beschreibung beider Modelle, Durchführung der Datenvorbereitung unter
Verwendung des „Stroke Prediction Dataset“ von Kaggle, Implementierung
beider Methoden mit dem gleichen angepassten Datensatz. Der
abschließende Vergleich benennt als Fazit die Unterschiede in den
Ergebnissen und Voraussetzungen für den sinnvollen Einsatz beider
Methoden. Eine Schlussfolgerung angesichts der geringen
Ergebnisunterschiede hinsichtlich der Prognosegenauigkeit der
Schlaganfallrisikos dürfte sein, dass Deep Learning, um ökonomisch
sinnvoll bei tabellarischen in kleineren Datensätzen eingesetzt zu werden, aktuell noch nicht genügend bessere Ergebnisse vorweist.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
In recent years, the healthcare industry has increasingly relied on modern technologies.
Conventional methods are supported by Big Data methods or are being
investigated in the research. Has Big Data become more relevant in medicine in recent years? What does the future look like? In which medical subject area is Big Data being applied? These questions will be clarified during the thesis. In the first part, the usage of Big Data in medicine is shown and then, by using a bibliometric analysis, the importance and development of Big Data in medicine is presented.
Afterwards, there is a discussion of the results followed with a summary and the future perspective. This thesis gives an overview about the currently technological possibilities and the potentials of Big Data in healthcare and medicine.
Kurzfassung
In dieser Arbeit geht es darum ein Vorgehen vorzustellen, welches ermöglicht, Ist-Prozesse in einem Unternehmen effektiv zu erheben und zu modellieren, wenn ein Großteil oder auch alle Beschäftigten im Home Office arbeiten. Die Bedingungen von zuhause arbeitendem Personal, dort die geschäftlichen Ist-Prozesse zu dokumentieren, unterscheiden sich erheblich von den Gegebenheiten in stationär arbeitenden Unternehmen. Der entwickelte Ansatz kompensiert beispielsweise die nicht vorhandenen Beobachtungsmöglichkeiten am Heimarbeitsplatz und schlägt Alternativen vor. Die Methodik wurde anhand eines Fallbereichs im Online-Reseller-Geschäft getestet und untersucht.
Schlagwörter: Effizienz, Erhebung, Geschäftsprozess, Home Office, Ist-Prozess, Modellierung, Vorgehen
Abstract
This work is about presenting a procedure that enables actual processes in a company to be effectively collected and modeled when a large part or even all employees work in the home office. The conditions for staff working from home to document the as-is business processes differ significantly from the conditions in companies working in the office. The developed approach compensates, for example, the lack of observation options at the home office and suggests alternatives. The methodology was tested and examined using a case area in the online reseller business.
Keywords: efficiency, documentation, business process, home office, as-is process, process modelling, procedure
Mit dieser Arbeit sollen unterschiedliche Einflussfaktoren und deren Auswirkung auf die Zuverlassigkeit
der mechanischen und elektrischen Bauteile eines Bohrmoduls aufgezeigt und miteinander verglichen werden.
Dazu werden zwei Zuverlassigkeitsanalysen mit je zwei verschiedenen Szenarien durchgeführt und
ausgewertet.
Das Szenario basiert auf der von der National Aeronautics and Space Administration (NASA) geplanten
Mission die Mondoberfläche und ihre oberen Gesteinsschichten zu analysieren. Zur Bewältigung dieser
Aufgabe soll ein mobiler Roboter mit einem Bohrmodul ausgestattet werden, um an unterschiedlichen Orten
auf der Mondoberfläche Bodenproben zu analysieren. Es sollen die Bohrungen bis zu einem Meter Tiefe durchgeführt werden. Ziel der Mission soll sein, die Geologie des Mondes zu erforschen [1].
Dieses Szenario dient als Grundlage die Zuverlässigkeit des Bohrmoduls unter extremen Bedingungen
zu ermitteln. Dabei stellt sich die Frage danach, welchen Einfluss verschiedene Temperaturen und
weitere Faktoren auf die Zuverlässigkeit des Bohrmoduls haben.
Das Ziel dieser Arbeit ist die Durchfuhrung einer Zuverlässigkeitsanalyse eines Bohrmoduls unter Hinzunahme
zwei verschiedener Standards unterschiedlicher Herangehensweisen. Dabei gibt jeder Standard eine
andere Art der Durchführung vor. Dabei ist das NSWC-10 stark abhängig von den konstruktiven Eigenschaften,
der FIDES von den vorherrschenden Umweltgegebenheiten. Die Analysen der Zuverlässigkeit
des Bohrmoduls werden sowohl für ein Erdszenario als auch für ein Mondszenario mit ihren jeweiligen
unterschiedlichen Gegebenheiten durchgeführt. Während der Analysen werden weitere Einflussfaktoren in
den Berechnungen berücksichtigt, die in den Standards als solche nicht aufgeführt werden. Zu diesen zählen
unter anderen die Temperaturschwankung auf dem Mond und das dort vorherrschende Vakuum. Diese
finden Berücksichtigung, um die extremen Bedingungen des Mondszenarios besser repräsentieren zu können.
Letztlich werden die beiden Standards hinsichtlich ihrer Anwendbarkeit auf jene Szenarien bewertet,
die ermittelten Ausfallraten erläutert und die Einflussfaktoren miteinander verglichen.
Zur Ermittlung der Zuverlässigkeit des Moduls werden vorab die Szenarien definiert und die konstruktiven
Eigenschaften der Bauteile ermittelt. Anschliesend wird die erste Zuverlässigkeitsanalyse mit
Hilfe des NSWC-10 durchgeführt. Dazu werden die einzelnen Ausfallraten der Bauteile bestimmt und verglichen.
Neben den vorgegeben Einflussfaktoren werden, falls möglich, spezifische Gegebenheiten des
Szenarios auf dem Mond einbezogen und diskutiert. Die zweite Zuverlässigkeitsanalyse erfolgt auf der
Grundlage des FIDES. Vorab werden dazu die einzelnen Betriebszustände eines Tages definiert, welche
als Grundlage für die weiteren Berechnungen dienen. Es wird versucht, den Tagesablauf des Roboters so
präzise wie möglich zu simulieren. Anschliesend kann die Ausfallrate des Bohrmoduls in Abhängigkeit
der vom FIDES vorgegebenen Einflussfaktoren ermittelt werden. Letztlich werden die ermittelten Werte
6 1 Einleitung
der beiden Standards miteinander verglichen, sowie mögliche Grenzen und Problematiken der Standards
aufgezeigt.
Die folgende Bachelorarbeit analysiert und wertet die Messdaten eines Niederschlagsensors aus, der auf dem induktiven Wirbelstromprinzip aufbaut. Der Sensor wird an der Hochschule Ruhr West im Institut für Mess- und Sensortechnik entwickelt. Er soll nach erfolgreicher Konfiguration die Niederschlagsintensität und die Tropfengröße über die Resonanzfrequenz der Spule ausgeben können. Um dieses Ziel zu erreichen, gibt die Bachelorarbeit eine Einschätzung, inwieweit das System für eine Niederschlagserfassung geeignet ist und welche Verbesserungen vorgenommen werden können. Dazu wurden die Messdaten in einer Regenkammer der Firma Lambrecht meteo GmbH erfasst. Für die Versuche wurden zwei Flachspulen mit Resonanzfrequenzen von 1,7 MHz und 8 MHz nacheinander ausgewertet. Die resultierenden Messdaten werden sowohl im Zeit- als auch im Frequenzbereich auf Verhaltensmuster und Kennwerte untersucht. Aus den Ergebnissen geht hervor, dass der Sensor aufgrund von äußeren Einflüssen und inneren Verhaltensweisen keine signifikante Antwort auf den Niederschlag ausgibt, um die Niederschlagsintensität und die Tropfengröße zu ermitteln. Dennoch zeigt sich, dass die Resonanzfrequenz der Spulen gegensätzliche Reaktionen hervorruft. Die Spule mit der Resonanzfrequenz von 1,7 MHz reagiert deutlich unempfindlicher auf äußere Einflüsse wie parasitäre Kapazitäten. Allerdings werden nur Regentropfeneinschläge bei hohen Niederschlagsmengen deutlich erkannt. Die Spule mit der Resonanzfrequenz von 8 MHz hingegen zeigt ein empfindlicheres Verhalten auf äußere Einflüsse. Zur Optimierung des Niederschlagssensors, muss dieser konfiguriert werden, damit er äußeren Einflüssen robust entgegenwirkt und den Niederschlag sensibel genug detektiert. Zudem müssen Ausreißer, die in der Frequenzanalyse entdeckt wurden und von den inneren Verhaltensweisen stammen, entfernt werden.
Gegenstand der hier vorgestellten Arbeit ist die Optimierung der Soft- und Hardware eines induktiven Niederschlagssensors im Rahmen des Verbundforschungsprojektes KIWaSuS (KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten). Auf Grundlage von Testergebnissen in einem Testlabor für Niederschläge ergeben sich Optimierungsansätze zur softwareseitigen Behebung von fehlerhaften Daten, eine hardwareseitige Steigerung der Qualität und der Empfindlichkeit des verwendeten induktiven Wirbelstromsensors und der Verbesserung des Wasserablaufes auf der Oberfläche des Sensorgehäuses. Zur Durchführung der Optimierung wurde empirisch das Ausführen des zugrunde liegenden Programmes auf mögliche Konflikte analysiert und angepasst, die Hardware des Sensors modifiziert und auf seine Empfindlichkeit überprüft sowie die Neigung und das Abdichtungskonzept des Gehäuses verändert und bewertet. Die Ergebnisse zeigen, dass kapazitive Anpassungen der Spule zu einer starken Stabilität des Sensors führen und eine hohe Resonanzfrequenz eine Steigerung der Empfindlichkeit hervorruft. Zusätzlich verhindert die Ausführung des Programmes auf zwei getrennten Mikrocontrollern das Auftreten fälschlicher Daten. Anpassungen des Sensorgehäuses durch die Erhöhung der Neigung und die Verwendung eines randlosen Abdichtungskonzeptes führen zu einem höheren Abfluss, aber zu keiner Eliminierung der Frequenzänderung aufgrund der Masse des aufliegenden Wassers. Die Ergebnisse zeigen, dass vor allem die Anpassungen der Software und der Spulenkonfiguration die Stabilität und Empfindlichkeit des Messsystems steigert.
According to various studies, a strong market penetration of electric mobility is expected in the next few years. On the one hand, electric vehicles can contribute to achieve climate targets, but on the other hand, they can place a heavy burden on the power grid and have serious consequences, such as component overload and voltage instabilities, if they are charged in an uncoordinated manner.
Proper grid integration of electric vehicles with a coordinated charging approach can minimize these negative impacts and brings about positive aspects, such as improving grid quality and integrating larger amounts of renewable energy.
Taking into consideration the legal framework and the different requirements of network operators, vehicle manufacturers and owners, this paper compares different network integration techniques.
It is concluded that a decentralized charging management approach, in which the vehicle owners themselves make the charging decisions, is a good compromise between the different parties and consequently the best alternative for the grid integration of electric vehicles in Ger-many.
One aspect that needs further investigation is which is the best way to motivate vehicle owners to actively participate in a flexible charging management.
In this document a reliable data streaming mechanism for a TDMA LPWAN application is developed by adapting a link layer solution for power line communication, published at the International Symposium on Power Line Communications and its Applications (ISPLC) 2015. A C++ implementation of the services link layer is provided and demonstrated
working at a packet error rate of 50%.
This work aims to generate synthetic electromyographic (EMG) signals using Generative Adversarial Network (GAN). GANs are considered as one of the most exciting and promising approaches in deep learning [6], offering the possibility to generate artificial data based on real data. GAN consists of two main parts, a discriminator that attempts to differentiate between the generated data and the original data, and a generator that tries to fool the discriminator by generating data which looks like real data, the GAN works by staging a two-player
minimax game between generator and discriminator networks. To achieve the objective of generating realistic artificial electromyographic signals, two different architectures are considered for the generator and the discriminator networks of the GAN model: Long short-term memory (LSTM), which can avoid the long-term dependency problem and remembers information over a long period of time, and convolutional neural network (CNN), which is a powerful tool at automatic feature extraction. Different combinations of CNN and LSTM including hybrid model are experimented within the GAN using the same training data-set. The results and performances of each combination are compared and reviewed. The generated artificial EMG signals can be used to
simulate real muscle activity situations to for example improve muscle signal controlled prostheses using artificial data that may include conditions that does not exist in real data. This method of artificial data generation is not limited to EMG signals, the network can also be used to generate other synthetic biomedical signals such as electroencephalogram (EEG) or electrocardiogram (ECG) that can be practically used for testing algorithms and classifiers.
Prediction of movement onset and direction based on muscle activity during reaching movements
(2021)
Electromyography as a technology allows one to be able to measure muscle activity, which in turn can be used to detect movement direction and onset. The process for this classification problem often involves a multitude of various extracted features and classification techniques, that differ a lot across different scientific papers. This thesis analyzed different features and classifiers and tackled a center out reaching task to determine a good workflow for classifying
arm movement direction. The data was recorded with 6 sEMG electrodes
placed on the upper arm of 5 healthy participants.
The different experiments show good classification accuracy of over 96 % in a reaching task with 16 targets placed in a circle within reaching distance. The results also show that the classification accuracy did not differ a lot between features. The individual EMG channels also display high correlation, which suggests a possible reduction in necessary electrodes. Classification accuracy
before movement onset also only dropped by 2 % compared to the accuracy of the whole time window of a reaching motion. This seems especially vital to ensure proper support via prosthesis or orthesis for people with heavily impaired movement.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.