Refine
Year of publication
- 2022 (76) (remove)
Document Type
- Bachelor Thesis (59)
- Master's Thesis (15)
- Article (1)
- Doctoral Thesis (1)
Is part of the Bibliography
- no (76)
Keywords
Institute
Es konnte in dieser Arbeit festgestellt werden, das Relationship Marketing eher eine Akzentuierung
des traditionellen Marketing darstellt und aufgrund der Inkonsistenzen in den einzelnen Ansätzen
kein neues Marketing Paradigma darstellt. Wenn Relationship Marketing sich zu einem neuem
Marketing Paradigma entwickeln soll, dann muss vor allen Dingen die Erschaffung von Werten, der
Verlauf von Beziehungen und deren Entstehung im Vordergrund stehen. Um den evolutorischen
Weg des Relationship Marketing voranzutreiben und im Vertrauensmanagement Kundenbindungen
zu beschreiben, wurde eine im E-Commerce gültige Typologie erstellt, welche qualitative
Ausprägung der Kundenbindung durch die Antezedenz Variable Vertrauen beschreibt. Den Beleg
der Existenz einer solchen Typologie brachte das im Verlauf dieser Abschlussarbeit entwickelte
Messinstrumentes einer qualitativen Ausprägung mittels Vertrauen. In der folgenden Diskussion
konnte zudem gezeigt werden, dass die Typologie in die drei wichtigsten Denkrichtungen des
Relationship Marketing integriert werden kann und somit eine Methode zur Ermittlung qualitativer
Ausprägungen der Kundenbindung im jetzigen Verständnis von Relationship Marketing darstellt.
Vergleich von Logistischer Regression und Deep Learning bei der Vorhersage von Schlaganfällen
(2022)
Die Bachelorarbeit befasst sich mit dem Vergleich von Logistischer
Regression und Deep Learning bei der Vorhersage von Schlaganfällen
hinsichtlich der Frage, ob in einer binären Klassifikationsaufgabe die
komplexe und aufwändige Methode des Deep Learnings sich bei
Anwendung auf kleine tabellarische Datensätze bewährt oder ob
Logistische Regression als Basismodell des Maschinellen Lernens
effizienter ist. Methodisch werden folgende Schritte ausgeführt:
Beschreibung beider Modelle, Durchführung der Datenvorbereitung unter
Verwendung des „Stroke Prediction Dataset“ von Kaggle, Implementierung
beider Methoden mit dem gleichen angepassten Datensatz. Der
abschließende Vergleich benennt als Fazit die Unterschiede in den
Ergebnissen und Voraussetzungen für den sinnvollen Einsatz beider
Methoden. Eine Schlussfolgerung angesichts der geringen
Ergebnisunterschiede hinsichtlich der Prognosegenauigkeit der
Schlaganfallrisikos dürfte sein, dass Deep Learning, um ökonomisch
sinnvoll bei tabellarischen in kleineren Datensätzen eingesetzt zu werden, aktuell noch nicht genügend bessere Ergebnisse vorweist.
Gegenstand der hier vorgestellten Arbeit ist die Optimierung der Soft- und Hardware eines induktiven Niederschlagssensors im Rahmen des Verbundforschungsprojektes KIWaSuS (KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten). Auf Grundlage von Testergebnissen in einem Testlabor für Niederschläge ergeben sich Optimierungsansätze zur softwareseitigen Behebung von fehlerhaften Daten, eine hardwareseitige Steigerung der Qualität und der Empfindlichkeit des verwendeten induktiven Wirbelstromsensors und der Verbesserung des Wasserablaufes auf der Oberfläche des Sensorgehäuses. Zur Durchführung der Optimierung wurde empirisch das Ausführen des zugrunde liegenden Programmes auf mögliche Konflikte analysiert und angepasst, die Hardware des Sensors modifiziert und auf seine Empfindlichkeit überprüft sowie die Neigung und das Abdichtungskonzept des Gehäuses verändert und bewertet. Die Ergebnisse zeigen, dass kapazitive Anpassungen der Spule zu einer starken Stabilität des Sensors führen und eine hohe Resonanzfrequenz eine Steigerung der Empfindlichkeit hervorruft. Zusätzlich verhindert die Ausführung des Programmes auf zwei getrennten Mikrocontrollern das Auftreten fälschlicher Daten. Anpassungen des Sensorgehäuses durch die Erhöhung der Neigung und die Verwendung eines randlosen Abdichtungskonzeptes führen zu einem höheren Abfluss, aber zu keiner Eliminierung der Frequenzänderung aufgrund der Masse des aufliegenden Wassers. Die Ergebnisse zeigen, dass vor allem die Anpassungen der Software und der Spulenkonfiguration die Stabilität und Empfindlichkeit des Messsystems steigert.
Efficient and reliable onsite inspection methods are gaining importance as the construc-tion of PV power plants is expanding. For large PV installations, time- and cost-efficient failure detection is essential for optimized operation and maintenance. For this purpose, various optical methods as Infrared thermography (IR), Electroluminescence (EL), Pho-toluminescence (PL) and Ultraviolet Fluorescence (UVF) are employed and under con-stant development. For each method, the camera, and eventually the light source, can be handheld, or mounted on a drone, also called unmanned aircraft vehicle (UAV), to achieve higher throughputs.
IR is the most widely used optical onsite PV inspection method, as many defects can be detected by the thermal radiation (heating) of the defect component. EL and PL reveal further information on the electrical behaviour of the Si-waver. They are also widely used and take the role of a complement to IR, showing electrically active/inactive areas of the semiconductor. On the other hand, UVF focuses on the degradation of the polymeric encapsulant of the Si-cell, most commonly consisting of EVA (ethylene-vinyl acetate). The degradation of the encapsulant can lead to its discoloration, also called yellow-ing/browning, which decreases the transmittance of visual light. UVF patterns can show this yellowing as well as humidity and oxygen entrances, which can lead to effects of corrosion. Both mechanisms (discoloration and corrosion) decrease the performance of the PV cell. The discoloration cannot be directly observed on IR or EL images, as the encapsulant is neither a heat source nor electroconductive. Using IR imagery, severe discoloration might be observed indirectly, as the reduced optical transmittance leads to changes in heat transfer mechanisms concerning the cell and the encapsulant.
Similarly, as long as corrosion does not lead to inactive cell areas or heating, it most likely will not be spotted using EL, PL or IR. So, UVF can fill the niche of inspecting the state of the encapsulant and detecting its defects due to climate impacts in early stages.
While a high number of studies on IR, EL, PL and some on UVF were performed in Europe and the USA, there are not yet many studies about the application of these tech-niques in South America (i.e., in Brazil). UVF mainly depends on climate factors (irradi-ation, temperature, humidity) and the operation time/”age” of the module. The UVF im-agery method has not yet been tested in climate and system conditions of Brazil. Fur-thermore, systems in Brazil are more recently installed. All this can affect differences in the results of UVF imagery applied in Europe, the USA and Brazil.
The present work focuses on the application of UVF imaging on PV power plants in Bra-zil, the creation of an experimental setup and the proposal of proceedings for the data analysis of the acquired images. The aim is to propose a method that is suitable for large-scale inspection.
Motivation beschreibt das Bestreben nach Wirksamkeit und der Organisation seine Ziele zu erreichen oder sich von diesen zurückzuziehen (vgl. 3.1). Das Ziel des Arbeitenden im Einzelhandel ist es, Geld zu verdienen (vgl. 5.3.3). Das Geld wird benötigt, um andere Motive zu befriedigen (vgl. 3.2.3 und 3.2.4). Das Ziel ist es also, die unterschiedlichen Mangelempfinden mithilfe des Geldes zu befriedigen. Das Motiv erklärt dabei die Beweggründe menschlichen Handelns, um seine Ziele zu erreichen. Diese sind anhand von sichtbaren Handlungen erkennbar, lassen allerdings nicht so leicht auf die Handlungsabsicht schließen (vgl. 3.2 und 3.5). Auch externe Anreize sind in der Lage, ein Mangelempfinden auszulösen (vgl. 3.4). Dies ist anhand der Umfrageauswertung aus Kapitel 5.3.10 erkennbar, in der die Befragten allein durch das Wissen, dass ihre Arbeitskollegen
mehr verdienen, ihr Gehalt als gering empfinden. Ein Mangel führt nicht zwangsläufig zu einer sofortigen Handlung, stößt aber zumindest einen Denkprozess an, in dem die Situation mit den Handlungsoptionen verglichen wird, um dieses Mangelempfinden zu beheben (vgl. 3.2.6 und 4.3).
Analyse von Unsicherheiten künstlicher neuronaler Netze und Integration in die Objektverfolgung
(2022)
Over the last few years, the development of assistance systems for motor vehicles has shifted from comfort functions to control tasks. Increasingly, these control tasks are also being transferred to semi-autonomous systems. One safety-critical aspect is the correct and reliable observation of the immediate environment by the vehicle. These observations can be used, among other things, to set up models for tracking objects. Due to recent research, topics such as uncertainties for object detections and the calibration of artificial neural networks are now emerging.
The goal of this work is to investigate the possibility of processing positional uncertainties of a detector in a multiple object tracking approach and the eects on the tracking of objects. Additionally, the calibration of the used detector will be evaluated and corrected if necessary. The eects of the calibration on the tracking results will also be investigated in this context. After an investigation of the procedure used to generate the position uncertainties of the detector, a connection to the multiple object tracking was made and an approach to process the uncertainties based on a Kalman filter was developed. The confidence of the detections was also remodeled. For this purpose, the confidence was interpreted as the existence probability and processed using a Bayes Filter to reflect the existence of the tracks. In addition, appropriate calibration methods for the position uncertainties and confidence were selected and incorporated into the tracking procedure. The validation of the presented approaches was performed on a data set for driving situations.
The evaluation of the results showed that a processing of the position uncertainties generated by a detector is feasible in the presented tracking approach. The interpretation of the confidence as existence probability leads to good results. Calibration of the confidence further improves the results. However, the calibration of the position uncertainties led to worse results. Further inves-tigation of other calibration methods for the position uncertainties is needed.
Keywords: Multiple Object Tracking, Kalman Filter, Neural Network Calibration
Die folgende Bachelorarbeit analysiert und wertet die Messdaten eines Niederschlagsensors aus, der auf dem induktiven Wirbelstromprinzip aufbaut. Der Sensor wird an der Hochschule Ruhr West im Institut für Mess- und Sensortechnik entwickelt. Er soll nach erfolgreicher Konfiguration die Niederschlagsintensität und die Tropfengröße über die Resonanzfrequenz der Spule ausgeben können. Um dieses Ziel zu erreichen, gibt die Bachelorarbeit eine Einschätzung, inwieweit das System für eine Niederschlagserfassung geeignet ist und welche Verbesserungen vorgenommen werden können. Dazu wurden die Messdaten in einer Regenkammer der Firma Lambrecht meteo GmbH erfasst. Für die Versuche wurden zwei Flachspulen mit Resonanzfrequenzen von 1,7 MHz und 8 MHz nacheinander ausgewertet. Die resultierenden Messdaten werden sowohl im Zeit- als auch im Frequenzbereich auf Verhaltensmuster und Kennwerte untersucht. Aus den Ergebnissen geht hervor, dass der Sensor aufgrund von äußeren Einflüssen und inneren Verhaltensweisen keine signifikante Antwort auf den Niederschlag ausgibt, um die Niederschlagsintensität und die Tropfengröße zu ermitteln. Dennoch zeigt sich, dass die Resonanzfrequenz der Spulen gegensätzliche Reaktionen hervorruft. Die Spule mit der Resonanzfrequenz von 1,7 MHz reagiert deutlich unempfindlicher auf äußere Einflüsse wie parasitäre Kapazitäten. Allerdings werden nur Regentropfeneinschläge bei hohen Niederschlagsmengen deutlich erkannt. Die Spule mit der Resonanzfrequenz von 8 MHz hingegen zeigt ein empfindlicheres Verhalten auf äußere Einflüsse. Zur Optimierung des Niederschlagssensors, muss dieser konfiguriert werden, damit er äußeren Einflüssen robust entgegenwirkt und den Niederschlag sensibel genug detektiert. Zudem müssen Ausreißer, die in der Frequenzanalyse entdeckt wurden und von den inneren Verhaltensweisen stammen, entfernt werden.
Längsschnittuntersuchung des Konsumentenverhaltens im Online- Lebensmittelhandel in Deutschland
(2022)
Kurzfassung
Das Ziel in der vorliegenden Arbeit ist es zu untersuchen, inwiefern sich das
Konsumentenverhalten im Online-Lebensmittelhandel seit 2016 gewandelt
hat. Dazu wird folgende Forschungsfrage gestellt: Hat sich das Interesse
daran, Lebensmittel online zu bestellen, im Vergleich von 2016 zu 2022
verändert? Ferner soll zusätzlich untersucht werden, wie hoch das
Interesse der zu dieser Arbeit Befragten ist, Lebensmittel online zu
erwerben und ob es auch einen Zusammenhang zur Covid-19-Pandemie
gibt. Um diese Forschungsfragen zu untersuchen, wurde eine quantitative
Untersuchung durchgeführt. Es wurde unter anderem mit den hier
gewonnenen Daten eine Längsschnittuntersuchung durchgeführt, die zur
Grundlage die Daten aus einer Masterarbeit aus dem Jahr 2016 hat. Die
Ergebnisse dieser Untersuchung sind, dass das Interesse im Allgemeinen
gestiegen ist, Lebensmittel online zu bestellen und auch schon deutlich
mehr Menschen Erfahrungen mit den Dienstleistungen aus diesem Bereich
gesammelt haben.
Vor dem Hintergrund der Energieknappheit, des Preisanstiegs und aus Gründen des
Umweltschutzes ist die Energieeffizienz zu einem allgemeinen Anliegen geworden. Ein erheblicher Teil des Energieverbrauchs in den Fertigungsverfahren entfällt auf
Materialabtragungsverfahren. Im Mittelpunkt dieser Arbeit stehen verschiedene Maßnahmen zur Verbesserung der Energieeffizienz von Werkzeugmaschinen, darunter die Optimierung der Hauptaggregate der Maschine, wie z. B. Antriebssysteme und der Nebenaggregate, wie z. B. die Kühlungssysteme und Kühlschmierstoffsysteme, die
Optimierung der Parameter zur Minimierung des Energieverbrauchs mithilfe der Response-Surface-Methode sowie der Leichtbau von Werkzeugmaschinen.
Developing an intelligent chatbot that can imitate human-to-human interaction has become important in recent years. For this reason, many studies have been conducted to evaluate the quality of chatbots. Furthermore, various approaches and tools, such as sentiment analysis, have been created to improve the performance of chatbots.
This study examines previous research to identify the quality dimensions used to measure chatbots performance in order to develop a general chatbot assessment model that evaluates and compares chatbots quality. The developed evaluation model measures ten chatbot quality dimensions. This model is based on user experience. It requires human testers to interact with the chatbot to test its functioning and then a quantitative approach is used to collect data from user testing by conducting a survey with these testers. In this survey, they are instructed to evaluate the quality of the chatbot using a questionnaire that contains the items needed to evaluate each dimension.
This study also investigates whether sentiment analysis can improve the quality of chatbots and, if so, to identify the dimensions improved with sentiment analysis. For this reason, two chatbot versions are implemented using the Rasa framework (one that cannot detect sentiment and the other that analyzes sentiment and responds accordingly).
Following that, we used our evaluation model to evaluate and compare the two chatbot versions with two groups of participants by conducting a survey. In this survey, each group tested the functioning of one version. Then, both groups were instructed to use the items of the evaluation model to evaluate the version they tested. The goal of this survey was to evaluate the validity and reliability of the items used in the evaluation model to evaluate chatbots, and also to determine if sentiment analysis improved the chatbot quality by comparing survey results between the two groups. The results show that items used in the assessment model to evaluate chatbots are valid and reliable. The findings also indicate that sentiment analysis improves the chatbot’s quality. However, it improves the quality of some dimensions but not the majority of them.
Das Themenfeld Industrie 4.0 gewinnt mit der fortschreitenden Digitalisierung und neuen Technologien immer mehr an Bedeutung. Während LEAN Manufacturing in vielen Unternehmen bereits im Einsatz ist, sind die eingesetzten Methoden nicht an das aktuelle digitale Zeitalter angepasst. LEAN 4.0, die Kombination von Industrie 4.0 und Lean Manufacturing, wird für Unternehmen daher immer wichtiger.
Während im Bereich Industrie 4.0 bereits mehrere Reifegradmodelle existieren und etabliert sind, gibt es für LEAN 4.0 wenige Konzepte. Im Rahmen dieser Arbeit wird ein konzeptionelles Reifegradmodell im Themenfeld LEAN 4.0 entwickelt, welches auf etablierten Reifegradmodellen im Kontext Industrie 4.0 aufbaut, jedoch Aspekte des LEAN Manufacturing miteinbezieht.
Nach Erläuterung der relevanten Theorie, wird ein Reifegradmodell aufgebaut und in den Zusammenhang mit realen Fallbeispielen in einem sonst fiktiven Unternehmen getestet.
Basierend auf den Stufen des Modells werden Handlungsempfehlungen für die verschiedenen Fallbeispiele aufgestellt, sodass exemplarisch die reale Anwendung gezeigt wird. Das konzeptionelle Reifegradmodell soll für Unternehmen eine Richtlinie darstellen und dabei helfen einen Überblick in der Produktion zu schaffen, sowie Ideen für weitere Schritte zu erhalten.
Die Corona-Pandemie veränderte auch nach der zweijährigen Dauer viele Aspekte des alttäglichen Lebens. Hand in Hand mit gesellschaftlichen Einschränkungen, die in der Allgemeinheit für Unmut sorgte und die Wirtschaft erschütterte, stellt sie auch einen Meilenstein in der Sammlung und Auswertung medizinischer Daten weltweit dar. Die umfassende Dokumentation und Bekanntgabe täglicher Daten wie Infektionszahlen, Hospitalisierungs- und Sterberate durch weltbekannte Organisationen wie das Robert-Koch-Institut oder die World Health Organisation bieten eine noch nie gebotene Forschungsgrundlage. So riefen diverse Organisationen und Regierungen dazu auf, diese Datenmenge zu nutzen, um Zusammenhänge zu erschließen, die dabei helfen können, diese Pandemie und auch zukünftige Notstände schneller und effizienter bewältigen zu können.
Zu diesem Zweck bietet sich eine Untersuchung und Auswertung mit Hilfe von maschinellem Lernen an. So können Klassifikationsmodelle verwendetet werden, um zuverlässige Diagnosen zu stellen und Clustering Algorithmen, um neue Zusammenhänge aus den Daten zu erschließen. Allerdings bleibt ein Problem bei der Nutzung von maschinellem Lernen: Die Modelle müssen nicht nur funktionieren und akkurate Vorhersagen treffen, sondern allen voran, verständlich und erklärbar sein. Denn gerade im Gesundheitswesen ist es von höchster Wichtigkeit, die Ergebnisse und Diagnosen auch belegen zu können, denn dies schafft Vertrauen in die Technik.
Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterstützen als auch verhindern können. Diese Arbeit beschäftigt sich mit der Frage, wie und ob die Akzeptanz und darüber hinaus auch die Erklärbarkeit von Kategorisierungsmodellen erreicht werden können. Durch die Erklärbarkeit erlangt der Nutzer ein verbessertes Verständnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden dafür zunächst das zuvor angefertigte Modell erläu-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschließend für die Erklärung von Kategorie Vorhersagen eingesetzt werden. Außerdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalität des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um über 90% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6%. Um abschließend die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgeführt, um einerseits die Auswirkungen von Erklärungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erklärungen erreicht werden konnte. Die benötigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden.
Schlagwörter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion
Ziel dieser Arbeit ist es, ein grundlegendes Verständnis eines elektrisch betriebenen Lenksystems zu schaffen und dessen zugehörige Anforderungen und Analysen seitens der funktionalen Sicherheit darzustellen. Beginnend mit der theoretischen Darstellung des Lenksystems und den Normen wird im praktischen Teil der Arbeit diese Theorie angewandt. Zudem werden Autonomiestufen und deren rechtliche Grundlage in Deutschland aufgeführt und diskutiert.
Hierbei wird auf die Norm für die funktionale Sicherheit, die ISO 26262 und auf die Norm für die Sicherheit der Funktion, die ISO 21448 eingegangen. Es wird erläutert, welchen Zweck die Anwendung der ISO 26262 hat und wie sie aufgrund der zunehmenden Komplexität in der Automobilbranche durch die ISO 21448 (SOTIF) ergänzt wird. Dazu wird herausgearbeitet, wann die ISO 26262 an ihre Grenzen stößt und wie unabdingbar die Anwendung von SOTIF wird.
Einhergehend mit der technologischen Entwicklung und der zunehmenden Komplexität treten nämlich vermehrt Aspekte auf, die mit der ISO 26262 allein nicht abgedeckt werden können. Sicherheitsaspekte nehmen zu und verändern sich mit neuen Komfort- und Assistenzsystemen kontinuierlich. Daher ist es auf-grund der sich ändernden Technologien und derer Komplexität unabdingbar, bestehende Ansätze zu verbessern und zusätzliche neue Methoden für die Sicherheit des Endproduktes zu entwickeln und neben den etablierten Methoden anzuwenden.
Welchen Einfluss dies auf ein modernes Lenksystem hat und wie in diesem Zusammenhang das Zusammenspiel der ISO 26262 und ISO 21448 mit klassischen Methoden wie der Fehlermöglichkeits- und Einflussanalyse (FMEA) betrachtet werden muss, wird in dieser Arbeit dargestellt. Automobilhersteller sind heute bereits in der Lage Fahrzeuge automatisiert in bestimmten Betriebsgrenzen und Bereichen fahren zu lassen. Doch was muss getan werden, um sämtliche Betriebsgrenzen aufzuheben und ein Fahrzeug „autonom“ zu gestalten? Regulatorien, Standards und Richtlinien sind bereits heute auf dem besten Weg dorthin, doch ist es in der Praxis tatsächlich realisierbar?
Ziel der vorliegenden Arbeit ist die Klarstellung, ob Marketing im E-Sport ein gutes Konzept darstellt und die abschließende Erstellung eines Handlungskataloges, die es Unternehmen, die im E-Sport Marketing betreiben möchten, ermöglicht dieses zu planen
und strategisch umzusetzen. Hierfür wird zunächst eine SWOT-Analyse erstellt, die einen systematischen Überblick über die gegenwärtige Marktsituation im E-Sport verschaffen soll. Anschließend erfolgt eine quantitative Studie in Form einer Umfrage, die die Demografie, das Verhalten und die Interessen der Zuschauer/innen im E-Sport aufdecken soll, sodass relevante Inhalte für den Handlungskatalog erkannt und sortiert werden können. Die SWOT-Analyse deckt dabei auf, dass der E-Sport-Markt einen hochtechnologischen Sektor mitsamt einer großen Auswahl an Werbeplattformen darstellt, die gewinnbringend eingesetzt werden können. Die empirische Forschung zeigt, dass Zuschauer/innen im E-Sport nicht nur Werbeinhalte aller Unternehmen akzeptieren, sondern diese auch verstärkt wahrnehmen, da ein hohes Interesse besteht,
den E-Sport über verschiedene Wege zu verfolgen.
Durch die immer weiter voranschreitende Digitalisierung sind, nicht nur Nutzer:innen
sozialer Medien, kaum noch Grenzen gesetzt. Hier stehen erhebliche Nutzungspotenziale
digitaler Technologien, nahezu unerforschten Auswirkungen, auf die Anwender:innen,
gegenüber (Netzwerk Stiftungen und Bildung, 2021).
Die Zahlen der Social Media Nutzer:innen steigen. Derweil verzeichnet sich, unter den
beliebtesten Social Media Plattformen, zu meist in der jüngeren Altersgruppe, der Großteil
der Anwender:innen (ARD & ZDF, zitiert nach de.statista.com, 2021). Während die
Methoden der Designer:innen immer weiter ausgereift werden und sich dabei neuester
Erkenntnisse der Psychologie und Verhaltensforschung bedienen. So wird unter dem
Begriff Dark Patterns beschrieben, dass sich Designer:innen Wissen über menschliches
Verhalten und die Wünsche der Anwender:innen zu Nutze machen, um dezeptive Funktionalitäten
zu implementieren, die nicht im Interesse der Anwender:innen liegen (Gray,
Kou, Battles, Hoggatt & Toombs, 2018).
In den Bildungsbereichen fehlt es jedoch bisher, vor Allem in Bezug auf Selbstbestimmung
im digitalen Anwendungskontext, an Konzepten zur Auseinandersetzung mit den
Auswirkungen von Dark Patterns auf die persönliche bzw. selbstbestimmte Nutzung.
In diesem Zusammenhang ist das Ziel der vorliegenden Arbeit die Erarbeitung eines
Workshop Konzepts, zur problemorientierten Diskussion von Dark Patterns, unter adoleszenten
Anwender:innen und deren Förderung im selbstbestimmten Umgang mit Social
Media.
Zudem folgt in diesem Rahmen eine qualitative Erhebung, um zu erfassen, ob die Teilnehmer:
innen fähig sind sich mit der Thematik Dark Patterns auseinanderzusetzen und
in der Lage sind Lösungsansätze zu entwickeln, um den Auswirkungen von Dark Patterns
entgegenzuwirken und die eigene selbstbestimmte Social Media Nutzung zu fördern.
Stichworte des Autors:
Dark Patterns, Social Media, digitale Selbsbestimmung, Workshop Konzept, Qualitative
Erhebung
Im Rahmen dieser Bachelorarbeit werden Dehnungsmessstreifen (DMS)
mittels Faktor kalibriert, da die DMS unterschiedlich positioniert sind. Auf
Grund der manuellen Applikation stellen die DMS unterschiedliche Dehnungen
dar, dies soll mit Hilfe einer Kalibrierung der DMS verhindert werden. Damit
die DMS kalibriert werden können, werden die DMS in einer Viertelbrücke
gemessen und anschließend mit Hilfe einer Messkarte in Matlab eingelesen.
Im Matlab werden die Daten anschließend weiterverarbeitet, so dass jeder
DMS seinen eigenen Faktor bekommt. Anschließend werden die DMS in eine
Vollbrücke und Zweiviertelbrücke verrechnet, damit die reine Biegedehnung
sowie reine Zugdehnung berechnet werden kann.
Der Stahlbau und Bauteile aus Stahl sind in der heutigen Welt unentbehrlich. Neben
der Verwendung von Stahl und Stahlträgern im Brückenbau, werden zum Beispiel
Stahlträger, in unterschiedlichen Formen und Variationen für die Bereiche Beton-,
Anlagen-, Industrie-, aber auch Maschinenbau verwendet.
Die Verbindung dieser Erzeugnisse aus Stahl, die in verschiedenen Profilen vorlie-
gen, wird unter Einsatz diverser Möglichkeiten realisiert. Dabei wird in der DIN 8580
zwischen folgenden Verbindungsmöglichkeiten unterschieden:
▪ unlösbare Verbindungen, wie z.B. Schweißverbindungen,
▪ lösbare Verbindungen, wie z.B. Schraubverbindungen,
▪ bedingt lösbare Verbindungen, wie z.B. Nietverbindungen.[1]
Im Stahlbau werden Verbindungen hauptsächlich geschweißt, wobei hier zwischen
Schweißen in der Vorfertigung und Schweißen auf der Baustelle bzw. der Montage
unterschieden wird. In der Regel werden die Bauteile, bevor diese auf die Baustelle
gelangen, in der Vorfertigung oder der Werkstatt hergestellt. Während der Montage
wiederum werden in der Regel die gering beanspruchten Verbindungen, oder wenn
Baustellennähte unvermeidbar sind [2], geschweißt.
Gemäß der DIN 1910-100 [3] wird das Schweißen bei dem zwei oder mehr Teile
unter Anwendung von Wärme und/oder Druck sowie mit oder ohne Schweißzusatz
miteinander verbunden werden als Fügeprozess definiert.
Durch den schweißtechnisch bedingten Wärmeeinfluss auf den Werkstoff, entstehen Imperfektionen. Diese Imperfektionen beschreiben unerwünschte Abweichun-
gen der Bauteile und werden unterschieden zwischen [4]:
▪ geometrische Imperfektionen
▪ strukturelle Imperfektionen
▪ geometrische Ersatzimperfektionen
Im Prozess der Nachweisführung von stabilitätsgefährdeten Bauteilen sind diese
Imperfektionen zwingend zu berücksichtigen, da diese einen maßgebenden Einflussfaktor auf das Tragverhalten von Bauteilen darstellen können.
Im Rahmen dieser Studienarbeit sollen Kleinteilversuche an längsausgesteiften
Beulfeldern durchgeführt werden. Der Fokus dieser Arbeit liegt hierbei auf der Her-
stellung der geschweißten Plattenbauteile und der Messung der entstehenden geometrischen Imperfektionen.
Die vorliegende Bachelorarbeit im Fachbereich Bauingenieurwesen beschäftigt sich mit der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlhochbau. In der Praxis und Literatur des Stahlbaus treten verschiedene gelenkige Anschlusskonstruktionen in Erscheinung, die ohne ausreichende Nachweise als gelenkig bezeichnet werden. Ein
Grund für die Annahme einer gelenkigen Verbindung ist, dass in der Literatur zu Anschlüssen im Stahlbau und in der DIN EN 1993-1-8: Bemessung von Anschlüssen die Nachweise der Gelenkeigenschaften und somit der Verdrehbarkeit von vermeintlich gelenkigen Anschlüssen nicht eindeutig anwendbar sind. Das Ziel dieser Bachelorarbeit ist es zu ermitteln, ob verschiedene, vorgeblich gelenkige Anschlüsse, tatsächlich Gelenkeigenschaften aufzeigen. In einem weiteren Schritt werden vereinfachte Methoden entwickelt, um eine Verdrehbarkeit und Gelenkwirkung der Anschlussvarianten nachzuweisen.
Zunächst werden Beispielaufgaben aus Literaturquellen von verschiedenen Autoren zusammengestellt und im Hinblick auf die Qualität und Vollständigkeit ausgewertet.
Dazu werden eigenständig Kriterien ausgewählt. Die Bewertung anhand der Kriterien erfolgt zuerst je einzelnem Beispiel, um anschließend in einem zweiten Schritt alle Beispielaufgaben zu vergleichen, sodass Vor- und Nachteile erkennbar sind. Die Beispiele umfassen Anschlüsse mit Stirnplatte, Fahnenblech, Doppelwinkel und Knaggen sowie Trägerstöße.
Ein weiterer Teil der Literaturrecherche ist die Erfassung der vorhandenen Nachweismethoden der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlbau. Für die Erfassung liegen zwei Herausgaben der European Convention for Constructional Steelwork (ECCS) über die Ausführung von Anschlüssen im Stahl- und Verbundbau und Konstruktionsempfehlungen von gelenkigen Stahlanschlüssen vor. Zudem werden die Nachweise der Verdrehbarkeit aus diesen Veröffentlichungen in der Stahlbaufibel aufgegriffen und erweitert. Die Unklarheiten und Anwendungsgrenzen der vorhandenen Methoden aus [4, 5, 6] werden hervorgehoben. Weiterhin wird die Klassifizierung von Anschlüssen nach untersucht.
Die Literaturrecherche und Auswertung wird abgeschlossen, indem eine Überprüfung der ausreichenden Gelenkeigenschaften der zusammengestellten Beispielaufgaben erfolgt. Hierzu werden die vorhandenen Nachweismethoden der Verdrehbarkeit auf die jeweiligen Anschlusskonstruktionen angewendet.
Die Analyse der vorhandenen und die Entwicklung von vereinfachten Methoden zum Nachweis der ausreichenden Verdrehbarkeit von gelenkigen Anschlüssen bilden den Hauptteil dieser Bachelorarbeit. Die Untersuchung der Prinzipien und Mechanismen, auf denen die existierenden Nachweismethoden aufbauen, dient als Grundbaustein für
die Entwicklung neuer vereinfachter Methoden, um ausreichende Gelenkeigenschaften und Verdrehbarkeit überprüfen zu können.
In recent years, the healthcare industry has increasingly relied on modern technologies.
Conventional methods are supported by Big Data methods or are being
investigated in the research. Has Big Data become more relevant in medicine in recent years? What does the future look like? In which medical subject area is Big Data being applied? These questions will be clarified during the thesis. In the first part, the usage of Big Data in medicine is shown and then, by using a bibliometric analysis, the importance and development of Big Data in medicine is presented.
Afterwards, there is a discussion of the results followed with a summary and the future perspective. This thesis gives an overview about the currently technological possibilities and the potentials of Big Data in healthcare and medicine.
Die vorliegende Arbeit untersucht die Eigenschaft Authentizität auf der Video-Plattform TikTok als möglichen Erfolgsfaktor zur Steigerung der Markenbekanntheit. Sie beantwortet drei Forschungsfragen, welche zunächst mithilfe einer Sekundärforschung untersucht werden. Dabei wird der Begriff Markenauthentizität in Bezug auf TikTok erörtert und die Grundlagen des Social Media Marketings erforscht. Die erarbeiteten Erkenntnisse und Methoden bilden die Grundlage für die Formulierung von vier Hypothesen.
Zur Überprüfung der Hypothesen folgt im Anschluss eine empirische Forschung in Form einer Online-Umfrage, bei welchem das Unternehmen Abihome GmbH als Fallbeispiel dient. Das Unternehmen eignet sich aufgrund seiner noch ausbaufähigen Präsenz auf der Plattform TikTok für dieses Vorhaben. Die gewonnenen Daten der empirischen Studie werden mit denen der Sekundärforschung kombiniert und ausgewertet, um Handlungsempfehlungen für Unternehmen abzuleiten, welche ihre Brand Awareness mithilfe eines authentischen Auftrittes auf TikTok optimieren wollen.
Die fortgeschrittene Entwicklung von AR, VR und MR ermöglichen ein
breites Anwendungsspektrum der Technologie. Das Ziel der vorliegenden
Bachelorarbeit ist es herauszufinden ob der Einsatz von AR, VR und MR
Potenzial in der innerbetrieblichen Weiterbildung in nicht produzierenden Branchen hat. Dazu wurden folgenden Forschungsfragen aufgestellt: Wird AR, VR oder MR bereits in nicht technischen Bereichen für die innerbetriebliche Weiterbildung angewendet? Welche Anforderungen müssen erfüllt sein, um MR in der innerbetrieblichen Weiterbildung einzusetzen? Unterscheiden sich die Meinungen hinsichtlich des Potenzials von MR in der innerbetrieblichen Weiterbildung von Führungskräften zu nicht Führungskräften?
Um die Forschungsfragen zu beantworten, wurde eine Literaturrecherche
und eine quantitative Befragung durchgeführt. AR, VR und MR in der
innerbetrieblichen Weiterbildung in nicht produzierenden Branchen sind
bereits Bestandteil in unterschiedlichen Studien. Die Literaturrecherche und die Befragung ergaben zudem, dass die Technologie bereits in unterschiedlichen nicht produzierenden Branchen angewendet wird.
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Gegenstand der hier vorgestellten Arbeit ist die Analyse des Status Quo von Pinkwashing und der Ableitung von Handlungsempfehlungen für die Marketing-Kommunikation. Dabei wird die Positionierung von Marken in der LGBTQ-Community aus einer ethischen Perspektive betrachtet. Im Rahmen dieser Masterarbeit werden teilstandardisierte Interviews mit Expert*innen aus Agenturen, dem Marketing- und
Brandmanagement und schließlich aus Diversitäts- und Inklusionsbereichen von Unternehmen geführt. Durch diese Interviews konnten Kriterien zur Identifikation von Pinkwashing sowie Handlungsempfehlungen für die authentische Positionierung in der
Kommunikation mit der LGBTQ-Community aufgestellt werden.
Schlagwörter: Pinkwashing, Marketingethik, LGBTQ-Community, Positionierung, Marke
Die Nutzung von Robotern hat stark zugenommen und die Wirkung auf Menschen grundlegend
verändert. Roboter wurden in unsere Gesellschaft eingeführt, jedoch berichten Studien darüber,
dass ihre soziale Rolle immer noch unklar ist (Bartneck & Hu, 2008).
Es gibt es immer mehr Filme, die das Bild von Robotern prägen, zudem gibt es immer mehr
Roboter, die in verschiedenen Kontexten eingesetzt werden, zum Beispiel die Robbe Paro, die Patient:innen in Altenheimen hilft (Schneider, 2021). Auch in Einkaufszentren können Roboter
eingesetzt werden. Hierbei konnte eine Studie in Japan in einer Shopping-Mall zeigen, dass Menschen einen Roboter missbrauchen, vor allem wenn sie sich unbeobachtet fühlen (Nomura et al., 2014). Durch die zunehmende Präsenz von Robotern geriet dieses Phänomen des Robot-
Abuse zunehmend in den wissenschaftlichen Fokus.
Thematisch lässt sich der Gegenstand dieser Abschlussarbeit in ebendiesen Bereich von Robot-
Abuse einordnen, denn sie bezieht sich explizit auf das Empathieverhalten der
Teilnehmer:innen der in dieser Arbeit durchgeführten Studie während eines beobachteten
Robotermissbrauchs. Dabei wird zusätzlich betrachtet, wie sich der Grad der
Anthropomorphisierung auswirkt und wie er wahrgenommen wird. Zudem werden die
unterschiedlichen Wahrnehmungen der Geschlechter betrachtet. Vor diesem Hintergrund soll folgende Forschungsfrage beantwortet werden: Gibt es einen Unterschied im Empathieempfinden in Bezug auf das Geschlecht? Das Ziel der vorliegenden Arbeit ist es dabei,
die Unterschiede im Empathieverhalten bei Robotern mit verschiedenen Graden der
Anthropomorphisierung während eines nonverbalen Robotermissbrauchs zu untersuchen und
einen Überblick über die vorhandene Literatur zu schaffen.
Dafür wird eine Onlinestudie mit einem 2x3-Between-Subjects-Design durchgeführt. In der
Studie werden drei Roboter verwendet: NAO, MiRo-E und der Staubsaugroboter Kobold. Die Teilnehmer:innen sehen eines von drei selbst erstellten Videos, in denen der jeweilige Roboter
getreten wird. Zudem wurde eine Literaturrecherche zu den Themen Anthropomorphismus,
Robot-Abuse, Geschlechterunterschiede und Empathie durchgeführt, um die theoretische Herleitung zu erläutern und aufzuarbeiten.
In dieser Bachelorarbeit werden dafür zunächst die relevanten theoretischen Grundlagen
betrachtet. Diesbezüglich werden in Kapitel 2 die Begriffe Anthropomorphismus, Robot-Abuse,
Geschlechterunterschiede und Empathie erläutert. Anschließend werden die Ergebnisse ausführlich aufgezeigt und diskutiert. Zum Schluss wird in einem Fazit die Eingrenzung dieser
Studie und ein Ausblick auf eine weitere Studie aufgezeigt.
Gegenstand der hier vorgestellten Arbeit ist die Umsetzung und die Analyse des Vorgehens
einer gezielten Steigerung der Photovoltaik-Quote in ausgewählten Stadtteilen
in Deutschland mit dem Ziel, die von der Bundesregierung angeordneten Klimaziele
sowie die Treibhausneutralität bis zum Jahr 2045 zu erreichen. Die hier vorliegende
Arbeit unfasst sowohl die Vorbereitung für die Umsetzung ausgewählter Kommunikationsstrategien
als auch durchgeführte Beratungen sowie Interviews. Auf diese Weise
wird die in der Ausarbeitung vorgestellte theoretische Vielfalt der Umweltpsychologie
und der theoretische Hintergrund praktisch angewendet und die Verhaltensweisen der
befragten Bürgerinnen und Bürger analysiert und ausgewertet. Darauf aufbauend wird
der gegenwärtige Wissensstand bezüglich der Photovoltaik und die Signifikanz des
Umweltschutzes transparent. Es ist auffällig, das der Begriff „Photovoltaik“ noch nicht
im Volksmund angekommen ist und somit Aufklärungsbedarf herrscht. Durch eine Analyse
und Bewertung der üblichen Verhaltens- sowie Vermeidungsmuster von Bürger*innen bezüglich einer alternativen Stromversorgung, kann eine zielorientiertere sowie Verhaltensangepasste Strategie entwickelt werden. Sowohl die des Einflusses des eigenen Handelns auf die Umwelt als auch die Art der Umweltwahrnehmung werden
unterschätzt. Die Nachfrage nach Photovoltaik steigt vor dem Hintergrund der
Energiekrise in Verbindung mit der erfolgreichen Beratungsstrategie rasant.
Mit dieser Arbeit sollen unterschiedliche Einflussfaktoren und deren Auswirkung auf die Zuverlassigkeit
der mechanischen und elektrischen Bauteile eines Bohrmoduls aufgezeigt und miteinander verglichen werden.
Dazu werden zwei Zuverlassigkeitsanalysen mit je zwei verschiedenen Szenarien durchgeführt und
ausgewertet.
Das Szenario basiert auf der von der National Aeronautics and Space Administration (NASA) geplanten
Mission die Mondoberfläche und ihre oberen Gesteinsschichten zu analysieren. Zur Bewältigung dieser
Aufgabe soll ein mobiler Roboter mit einem Bohrmodul ausgestattet werden, um an unterschiedlichen Orten
auf der Mondoberfläche Bodenproben zu analysieren. Es sollen die Bohrungen bis zu einem Meter Tiefe durchgeführt werden. Ziel der Mission soll sein, die Geologie des Mondes zu erforschen [1].
Dieses Szenario dient als Grundlage die Zuverlässigkeit des Bohrmoduls unter extremen Bedingungen
zu ermitteln. Dabei stellt sich die Frage danach, welchen Einfluss verschiedene Temperaturen und
weitere Faktoren auf die Zuverlässigkeit des Bohrmoduls haben.
Das Ziel dieser Arbeit ist die Durchfuhrung einer Zuverlässigkeitsanalyse eines Bohrmoduls unter Hinzunahme
zwei verschiedener Standards unterschiedlicher Herangehensweisen. Dabei gibt jeder Standard eine
andere Art der Durchführung vor. Dabei ist das NSWC-10 stark abhängig von den konstruktiven Eigenschaften,
der FIDES von den vorherrschenden Umweltgegebenheiten. Die Analysen der Zuverlässigkeit
des Bohrmoduls werden sowohl für ein Erdszenario als auch für ein Mondszenario mit ihren jeweiligen
unterschiedlichen Gegebenheiten durchgeführt. Während der Analysen werden weitere Einflussfaktoren in
den Berechnungen berücksichtigt, die in den Standards als solche nicht aufgeführt werden. Zu diesen zählen
unter anderen die Temperaturschwankung auf dem Mond und das dort vorherrschende Vakuum. Diese
finden Berücksichtigung, um die extremen Bedingungen des Mondszenarios besser repräsentieren zu können.
Letztlich werden die beiden Standards hinsichtlich ihrer Anwendbarkeit auf jene Szenarien bewertet,
die ermittelten Ausfallraten erläutert und die Einflussfaktoren miteinander verglichen.
Zur Ermittlung der Zuverlässigkeit des Moduls werden vorab die Szenarien definiert und die konstruktiven
Eigenschaften der Bauteile ermittelt. Anschliesend wird die erste Zuverlässigkeitsanalyse mit
Hilfe des NSWC-10 durchgeführt. Dazu werden die einzelnen Ausfallraten der Bauteile bestimmt und verglichen.
Neben den vorgegeben Einflussfaktoren werden, falls möglich, spezifische Gegebenheiten des
Szenarios auf dem Mond einbezogen und diskutiert. Die zweite Zuverlässigkeitsanalyse erfolgt auf der
Grundlage des FIDES. Vorab werden dazu die einzelnen Betriebszustände eines Tages definiert, welche
als Grundlage für die weiteren Berechnungen dienen. Es wird versucht, den Tagesablauf des Roboters so
präzise wie möglich zu simulieren. Anschliesend kann die Ausfallrate des Bohrmoduls in Abhängigkeit
der vom FIDES vorgegebenen Einflussfaktoren ermittelt werden. Letztlich werden die ermittelten Werte
6 1 Einleitung
der beiden Standards miteinander verglichen, sowie mögliche Grenzen und Problematiken der Standards
aufgezeigt.
Kurzfassung
In dieser Arbeit geht es darum ein Vorgehen vorzustellen, welches ermöglicht, Ist-Prozesse in einem Unternehmen effektiv zu erheben und zu modellieren, wenn ein Großteil oder auch alle Beschäftigten im Home Office arbeiten. Die Bedingungen von zuhause arbeitendem Personal, dort die geschäftlichen Ist-Prozesse zu dokumentieren, unterscheiden sich erheblich von den Gegebenheiten in stationär arbeitenden Unternehmen. Der entwickelte Ansatz kompensiert beispielsweise die nicht vorhandenen Beobachtungsmöglichkeiten am Heimarbeitsplatz und schlägt Alternativen vor. Die Methodik wurde anhand eines Fallbereichs im Online-Reseller-Geschäft getestet und untersucht.
Schlagwörter: Effizienz, Erhebung, Geschäftsprozess, Home Office, Ist-Prozess, Modellierung, Vorgehen
Abstract
This work is about presenting a procedure that enables actual processes in a company to be effectively collected and modeled when a large part or even all employees work in the home office. The conditions for staff working from home to document the as-is business processes differ significantly from the conditions in companies working in the office. The developed approach compensates, for example, the lack of observation options at the home office and suggests alternatives. The methodology was tested and examined using a case area in the online reseller business.
Keywords: efficiency, documentation, business process, home office, as-is process, process modelling, procedure
Die vorliegende Arbeit befasst sich mit der Ausarbeitung einer Handlungsempfehlung zur Implementierung von Business Intelligence (BI) Software. ,,BITools sind Werkzeuge, die Auswertungsverfahren von internen und externen Unternehmensdaten, sowie quantitative Verfahren für Planungs-, Entscheidungs- und Controllingzwecke softwaremäßig für Manager bereitstellen, um Geschäftslagen, -entwicklungen und -prozesse im Unternehmen zu analysieren.“1 Zu Beginn wird ein grundlegendes Verständnis der Materie aus dem aktuellen Stand der Wissenschaft definiert. Anschließend wird eine vom Autor umgesetzte Implementierung retrospektiv bewertet. Auf Grundlage dieser Bewertung, den gesammelten Erfahrungen des Autors und der Theorie findet eine gezielte Handlungsempfehlung zur Implementierung von BI statt. Die Anfänge von Auswertungsverfahren begann in den 60er Jahren. Lenz berichtet in seinem Buch Business Intelligence von persönlichen Erfahrungen wie Daten 1964 ausgewertet wurden. Hierbei wurde durch Tabellierungen seitenlange Papierbahnen gedruckt. Papierstapel von guten 25cm Höhe wurden händisch komprimiert und dem Vorgesetzten zur Verfügung gestellt. Bis in die 90er Jahre war dies kein unübliches Vorgehen in der deutschen Wirtschaft.2 Damals wurden erste Computeranwendungen entwickelt, mit der Funktion, eine Entscheidung zu stützen. Im Jahr 1980 wurde festgestellt, dass hierfür das Wasserfallmodell als Vorgehensweise zu statisch ist, um auf die wechselnden Anforderungen an Auswertungssystemen zu reagieren. Somit wurde damals auf agiles Vorgehen und Design wie beispielsweise Scrum3 gesetzt. Ende der 80er wurden die ersten Dashboards, Scorecards und OLAP als Werkzeuge eingesetzt. Im Jahr 1990 wurden die ersten BI-Infrastrukturen entwickelt. Diese wurden bis 2006 für einzelne Abteilungen und nicht abteilungsübergreifend eingesetzt.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
Das Ziel der Arbeit ist die Weiterentwicklung der bestehenden Webapplikation WirHelfen. Basierend auf dem aktuellen Konzept wird eine mobile Applikation in Form einer Nachbarschaftshilfe erstellt. Das Ziel der Bachelorarbeit ist es ein Konzept so wie
ein Grobentwurf einer mobilen Applikation zu schaffen.
Die bestehende Webapplikation WirHelfen wurde erstmals 2021 veröffentlicht. Als ehrenamtlicher Mitarbeiter und Mitglied der gemeinnützigen Organisation WirHelfen, war ich verantwortlich für die erste Konzeptionierung der aktuellen Webapplikation.
Sowohl bei der Konzeption als auch bei der Entwicklung und Umsetzung war ich beteiligt.
Für die Bachelorarbeit wurde eine eigene Architektur entwickelt, um den neuen Anforderungen gerecht zu werden.
Die mobile Applikation wurde anhand der klassischen sechs Schritten der Softwarearchitektur umgesetzt.
Mit der gemeinnützigen Organisationen WirHelfen wurden zu Anfang die
Anforderungen an die mobile Applikation festgelegt.
Während der Konzept- und Designphase wurden zwei Tests Sessions an den Prototypen durchgeführt. Der erste Test ist eine heuristische Evaluation und wurde zusammen mit Expert*innen durchgeführt. Der zweite Test war ein Usability-Test und wurde mit
Nutzer*innen durchgeführt. Anhand des Expertentestes wurde der Prototyp verbessert und die Mobile Applikation umgesetzt. Weitere Verbesserungen an der mobilen Applikation wurden nach dem Usability-Test durchgeführt.
Die bestehende mobile Applikation wird in Zukunft auf dem Android Marktplatz sowie dem Apple Store zur Verfügung stehen.
In the course of this thesis, an overview will be given on which way developers can guide
users into acting environmentally friendly without the users realizing they are being
nudged. In the last couple of years, our private and work-life have been more and more
shifted away from reality into a digital context. Since the start of the Covid – 19 pandemic
in 2019, even more aspects of everyday life have been shifted to an online context, one
of them being groceries shopping. Even though online groceries shopping is not yet
common in Germany, there is a trend toward the online purchase of groceries visible.
This can be seen as a possibility to tackle another challenge the world is facing, the
climate crisis. One reason for the climate crisis is mindless consumption and purchasing
of too much food. This paper aims to combine the need for more aware consumption
with the newly rising trend of online supermarkets. Furthermore, a supermarket will be
provided to show if the implementation of environmentally–friendly nudges is technically
possible. To eventually prove the effectiveness of a nudge, it needs to be tested.
Keywords: Nudging, Environment, Online supermarkets
Digital technology is increasingly becoming a part of life and culture in society, and it must be consciously designed for the long-term benefit of humanity. Today, information systems are designed to do more than fulfill human duties or complete tasks. A widely adopted approach is a system design that focuses on the positive aspects of human-technology interaction. Positive computing is a design paradigm gaining traction because it emphasizes the importance of well-being as a bold goal to be implemented in system design. In this dissertation, technology design is part of an intergenerational environment aiming to facilitate information sharing regarding global startup innovation. Nevertheless, much of the research focuses on how technology can be used to facilitate intergenerational collaboration. On the other hand, very little is known about how technology can be "positively" designed to promote intergenerational innovation. Therefore, this dissertation applied Design Science Research (DSR) to inform and guide the creation of design principles through the lens of positive computing. The study results provide a holistic picture of the numerous barriers, well-being factors, competing concerns, and competencies that have been encountered in the context of intergenerational innovation and their implications. This dissertation is presented as a cumulative dissertation, answering three research questions divided into seven studies, consisting of nine articles.
In this study, we looked at the competencies and changes in the competency spectrum required for global start-ups in the digital age. Specifically, we explored intergenerational collaboration as an intervention in which experienced business-people from senior adult groups support young entrepreneurs. We conducted a Delphi study with 20 experts from different disciplines, considering the study context. The results of this study shed light on understanding the necessary competencies of entrepreneurs for intergenerationally supported start-up innovation by providing 27 competencies categorized as follows: intergenerational safety facilitation, cultural awareness, virtues for growth, effectual creativity, technical expertise, responsive teamwork, values-based organization, and sustainable network development. In addition, the study results also reveal the competency priorities and the minimum requirements for each competency group based on the global innovation process and can be used to develop a readiness assessment for start-up entrepreneurs.
Die Energiewende schreitet in Deutschland weiter voran und die im Jahr 2021 neu gewählte Bundesregierung setzt dafür deutliche Zeichen in ihrem Koalitionsvertrag. Bis 2030 sollen 80 Prozent des antizipierten Strombedarfs von 680-750 Terawattstunden (TWh) aus erneuerbaren Energien (EE) stammen.1 Insbesondere Windkraft und Solarenergie sollen in Deutschland ihre bereits sehr relevante Rolle weiterentwickeln und einen Großteil dieses Strombedarfs erzeugen. So gibt die Bundesregierung ein neues Ausbauziel von 200 Gigawatt (GW) installierter Leistung für Photovoltaik (PV) vor und möchte zwei Prozent der Landesfläche für Windenergie ausweisen. Außerdem sollen bürokratische Hürden und langwierige Genehmigungsprozess vereinfacht und reduziert werden.2
Der Ausbau der EE führt aufgrund der zunehmenden volatilen Einspeisung zu einer höheren Netzbelastung. Dadurch wiederum wird das Potenzial der regenerativen Energiequellen nicht optimal genutzt, wenn beispielsweise Windkraftanlagen (WKA) abgeregelt werden müssen.3
Ein weiterer Baustein der Energiewende und vor allem auch der Mobilitätswende stellt die Elektromobilität dar. Deutschland erlebt seit wenigen Jahren einen Markthochlauf, der sich in rasant steigenden Zulassungszahlen von Elektrofahrzeugen (eletric vehicle: EV) und dem Ausbau der deutschlandweiten Ladeinfrastruktur darstellt.4 Abbildung 1 (siehe S. 8) zeigt ein nahezu exponentielles Wachstum für neuzugelassene vollelektrische Fahrzeuge (battery electric vehicle: BEV) sowie für Plug-In-Hybride (PHEV).
Energieeinsparung und Ressourcenschonung werden gerade vor dem Hintergrund der aktuellen politischen, wirtschaftlichen und klimakritischen Situation auch global betrachtet immer wichtiger. In diesem Zusammenhang bietet besonders der Bestandsgebäudebereich ein großes Einsparpotential. Neben der Reduzierung der Heizwärmeverluste
durch eine gute thermische Gebäudehülle und effizienter Anlagentechnik, kann auch durch Einregulierung der Heizungsanlage durch einen hydraulischen Abgleich einiges an Wärmeenergie eingespart werden. Durch eine raumweise Heizlastberechnung aus der sich exakt die zur Raumerwärmung erforderlichen Durchflussmengen ermitteln lassen, können durch geeignete Thermostate in Kombination mit geregelter Hocheffizienzpumpentechnik die erforderlichen Wärmemengen optimiert und dadurch Wärmeverluste reduziert werden.
Das Vorgehen bei der Durchführung eines hydraulischen Abgleichs soll anhand einer geeigneten Lernsituation mittels eines Schulungsstandes (Wilo-Brain-Box) den Studierenden praktisch nahegebracht werden.
Ziel der hier vorgestellten Arbeit ist es, Handlungsempfehlungen für einen forcierten Photovoltaik-Ausbau zu nennen. Dazu wird die folgende Forschungsfrage gestellt: Welche Handlungen sind notwendig, um das PV-Ziel der Bundesregierung - 215 GW installierte PV Leistung bis zum Jahr 2030 - zu erreichen? Um die Frage zu beantworten, wird auf die aktuelle gesetzliche Grundlage eingegangen und Rahmenbedingungen identifiziert, die dem Photovoltaik-Ausbau entgegenstehen und entsprechende Handlungsempfehlungen genannt. Das Osterpaket steht hierbei im Vordergrund, da dieses die gesetzliche Grundlage für das Erneuerbare-Energien-Gesetz 2023 bilden soll. Auch wird vor dem Hintergrund des Ukraine-Krieges und der damit angespannten Lage der Energieversorgung auf das Thema Bezug genommen. Zur Bearbeitung des Themas wird speziell auf Photovoltaik-Dachanlagen, Freiflächenanlagen und Anlagen, die nicht über das Erneuerbare-Energien-Gesetz gefördert werden, eingegangen. Es zeigt sich, dass am Osterpaket noch Handlungsempfehlung besteht, weshalb am Ende spezifische Änderungs-vorschläge für Paragraphen genannt werden.