Refine
Document Type
- Bachelor Thesis (92) (remove)
Language
- German (92) (remove)
Has Fulltext
- yes (92) (remove)
Is part of the Bibliography
- no (92)
Keywords
- Classification (1)
- Energieeinsparung (1)
- Hocheffizienzpumpentechnik (1)
- Machine Learning (1)
- Natural Language Processing (1)
- Ressourcenschonung (1)
- Sentiment Analysis (1)
- Supervised Learning (1)
Institute
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
Prediction of movement onset and direction based on muscle activity during reaching movements
(2021)
Electromyography as a technology allows one to be able to measure muscle activity, which in turn can be used to detect movement direction and onset. The process for this classification problem often involves a multitude of various extracted features and classification techniques, that differ a lot across different scientific papers. This thesis analyzed different features and classifiers and tackled a center out reaching task to determine a good workflow for classifying
arm movement direction. The data was recorded with 6 sEMG electrodes
placed on the upper arm of 5 healthy participants.
The different experiments show good classification accuracy of over 96 % in a reaching task with 16 targets placed in a circle within reaching distance. The results also show that the classification accuracy did not differ a lot between features. The individual EMG channels also display high correlation, which suggests a possible reduction in necessary electrodes. Classification accuracy
before movement onset also only dropped by 2 % compared to the accuracy of the whole time window of a reaching motion. This seems especially vital to ensure proper support via prosthesis or orthesis for people with heavily impaired movement.
According to various studies, a strong market penetration of electric mobility is expected in the next few years. On the one hand, electric vehicles can contribute to achieve climate targets, but on the other hand, they can place a heavy burden on the power grid and have serious consequences, such as component overload and voltage instabilities, if they are charged in an uncoordinated manner.
Proper grid integration of electric vehicles with a coordinated charging approach can minimize these negative impacts and brings about positive aspects, such as improving grid quality and integrating larger amounts of renewable energy.
Taking into consideration the legal framework and the different requirements of network operators, vehicle manufacturers and owners, this paper compares different network integration techniques.
It is concluded that a decentralized charging management approach, in which the vehicle owners themselves make the charging decisions, is a good compromise between the different parties and consequently the best alternative for the grid integration of electric vehicles in Ger-many.
One aspect that needs further investigation is which is the best way to motivate vehicle owners to actively participate in a flexible charging management.
Magnesium ist das leichteste Metall, das im konstruktiven Leichtbau Anwendung findet. Zusätzlich ist Magnesium ein wichtiges Element in Aluminiumlegierungen, was den derzeit bedeutendsten Einsatzbereich darstellt. Die Gewinnung von primären Magnesiummetall aus verschiedenen Rohstoffen ist ein sehr energieintensiver Prozess, der vorwiegend in China stattfindet. Die für die Herstellung von einem Kilogramm metallischen Magnesium benötigte Endenergie beträgt zwischen 18 und 80 kWh, je nach eingesetztem Energieträger und Prozess.
Das Umschmelzen von sauberen Neuschrotten erfordert lediglich rund 1 kWh je kg Magnesiumlegierung. Dies verdeutlicht bereits, dass sich durch ein Recycling, im Vergleich zur Primärproduktion, erhebliche Energieeinsparungen erzielen lassen. Altschrotte aus Produkten am Ende ihres Nutzungszyklus werden gegenwärtig kaum innerhalb des Kreislaufs von Magnesiumlegierungen recycelt. Meist werden Magnesiumlegierungen gemeinsam mit der Aluminiumfraktion dem Recycling zugeführt und so im besten Fall als Legierungselement genutzt.
Im Rahmen dieser Arbeit werden die theoretischen Potenziale von Energie- und Treibhausgasemissionseinsparungen durch das Recycling von Magnesium-Altschrotten im Vergleich zum Primärmarkt einer AZ91D-Legierung untersucht. Mittels einer modellierten Ökobilanz werden die Einsparpotenziale für die Wirkungskategorien Treibhausgasemissionen (Global Warming Potential) sowie den kumulierten Energieaufwand (KEA) ermittelt.
Über die Modellierung und Ermittlung der Potenziale hinaus wurden mehrere Expert:inneninterviews geführt. Schlussfolgerungen aus diesen Gesprächen sind, dass die für ein geschlossenes Recycling nötige Technik zur Verfügung steht und gegenwärtig nicht gehobene Potenziale durch das Recycling bestehen. Hinsichtlich der wirtschaftlichen Rah-menbedingungen des Recyclings von Altschrotten wurden divergierende Einschätzungen festgestellt, wonach die geringen Mengen der Altschrotte hemmend, das gestiegene Preisniveau hingegen als fördernd für ein geschlossenes Recycling identifiziert wurden.
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt