Refine
Year of publication
Document Type
- Bachelor Thesis (92)
- Master's Thesis (29)
- Part of Periodical (10)
- Conference Proceeding (4)
- Report (3)
- Article (2)
- Working Paper (2)
- Book (1)
- Doctoral Thesis (1)
Language
- German (144) (remove)
Has Fulltext
- yes (144) (remove)
Is part of the Bibliography
- no (144)
Keywords
- Hochschule Ruhr West (9)
- Zeitschrift (9)
- Fachhochschule (8)
- Mülheim an der Ruhr (8)
- Künstliche Intelligenz (2)
- Academic-stress (1)
- Augmented Reality (1)
- Classification (1)
- Controlling (1)
- DamokleS (1)
Institute
- Fachbereich 2 - Wirtschaftsinstitut (50)
- Fachbereich 1 - Institut Informatik (31)
- Fachbereich 4 - Institut Mess- und Senstortechnik (30)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (8)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
Fahrerassistenzsysteme werden eingesetzt, um dem Fahrer
eines Kraftfahrzeugs Handlungsabläufe abzunehmen. Diese Handlungsabläufe
werden definiert durch eine Aufgabenstellung, die vom Fahrer an das Fahrerassi-
stenzsystem übergeben oder systembedingt gelöst wird. Bei komplexen Fahreras-
sistenzsystemen ist an eine autonome Navigation im Straßenverkehr gedacht. Es
wird ein neues Verfahren vorgestellt, welches eine Bewegungssteuerung eines
autonomen Fahrzeugs durchführen kann. Es werden der Lenkwinkel und die Ge-
schwindigkeit beeinflußt. Für diese Aufgabe wird ein dynamischer Ansatz aus
dem Bereich der neuronalen Felder gewählt. Relevante Attribute für den Fahrt-
verlauf auf unterschiedlichem Abstraktionsniveau können dabei einfach (additiv)
verarbeitet werden.
MeHRWert Ausgabe 3 Juni 2013
(2013)
MeHRWert Ausgabe 5 Juni 2014
(2014)
Electro-magnetic acoustic transducers (EMATs) are intended as non-contact and non-destructive ultrasound transducers for metallic material. The transmitted intensities from EMATS are modest, particularly at notable lift off distances. Some time ago a concept for a “coil only EMAT” was presented, without static magnetic field. In this contribution, such compact “coil only EMATs” with effective areas of 1–5 cm2 were driven to excessive power levels at MHz frequencies, using pulsed power technologies. RF induction currents of 10 kA and tens of Megawatts are applied. With increasing power the electroacoustic conversion efficiency also increases. The total effect is of second order or quadratic, therefore non-linear and progressive, and yields strong ultrasound signals up to kW/cm2 at MHz frequencies in the metal. Even at considerable lift off distances (cm) the ultrasound can be readily detected. Test materials are aluminum, ferromagnetic steel and stainless steel (non-ferromagnetic). Thereby, most metal types are represented. The technique is compared experimentally with other non-contact methods: laser pulse induced ultrasound and spark induced ultrasound, both damaging to the test object’s surface. At small lift off distances, the intensity from this EMAT concept clearly outperforms the laser pulses or heavy spark impacts.
Efficient photoluminescence (PL) spectra from GaN and InGaN layers at temperatures up to 1100 K are observed with low noise floor and high dynamic resolution. A number of detailed spectral features in the PL can be directly linked to physical properties of the epitaxial grown layer. The method is suggested as an in situ monitoring tool during epitaxy of nitride LED and laser structures. Layer properties like thickness, band gap or film temperature distribution are feasible.
MeHRWert Ausgabe 6 März 2015
(2015)
Immer mehr ältere Menschen leben von ihren Angehörigen getrennt und können über Kommunikationsmedien wie Telefon und Skype nur eingeschränkt gemeinsame Erlebnisse erzeugen. In diesem Paper wird die technische Umsetzung eines Konzeptes vorgestellt, das es Familienmitgliedern ermöglicht über das Internet gemeinsam „Mensch-ärgere-dich-nicht“ zu spielen. Durch Videotelefonie und eine besondere Anordnung der Hardware werden die Spieler trotz räumlicher Trennung virtuell an einen Tisch gebracht und dadurch ein gemeinsames Erlebnis erzeugt. Die Clientanwendung wird dabei als plattformunabhängiger Webservice und die Videotelefonie mittels verschiedener Standards und Server realisiert.
Der Bedarf an feuerverzinkten Stahlbändern ist besonders in der Automobilindustrie sehr groß und es werden zugleich immer höhere Qualitäten gefordert. Hierbei bildet vor allem die Homogenität der Zinkschichtdicke ein entscheidendes Qualitätsmerkmal. Um das Stahlband ausreichend vor Umwelteinflüssen zu schützen, muss eine, vom Kunden spezifizierte, Mindestzinkschichtdicke aufgetragen werden. Beim hier angewandten Verzinkungsverfahren durchläuft das Band ein Zinkbad und anschließend wird das überschüssige Zink berührungs-los mittels sogenannten Abblasdüse so abgetragen, sodass eine möglichst homogene Zinkschicht erhalten bleibt. Hierzu ist es notwendig den Abstand zwischen Band und Airknife konstant zu halten. Störende Bandbewegungen führen zu inhomogene Zinkschichtdicken, welche die Qualität der Verzinkung vermindern. Diese Qualitätsverminderung und der erhöhte Zinkeinsatz soll durch geeignete Maßnahmen verringert werden. Bisher eingesetzte berührungslose Bandstabilisatoren können die Bandbewegung im Allge-meinen dämpfen, jedoch treten noch Betriebszustände auf, in denen eine inhomogene Zinkschicht sichtbar ist. Die Ursache dieser Inhomogenitäten liegt in anlagenbedingten dominanten Schwingungen des Bandes, deren Ursache zu klären ist. Im vorliegenden Beitrag wird ein Modell der Bandbewegung vorgestellt, das durch die theore-tische Modellbildung und experimentelle Identifikation erstellt worden ist. Das Modell beschreibt die Bewegung des Bandes bezüglich ausgewählter Freiheitsgrade und ermöglicht die Analyse der kritischen Betriebszustände. Darüber hinaus soll dieses Modell zur Stabilisierung des Bandes in einer modellgestützten Reglung verwendet werden.
MeHRWert Ausgabe 8 März 2016
(2016)
Photolumineszenz (PL) aus Halbleiterstrukturen liefert Informationen bezüglich verschiedener Materialparameter wie z.B. Bandlücke, Schichtdicke sowie Temperatur. PL-Messungen werden klassischerweise erst ex situ und somit nach dem Produktionsprozess vorgenommen. Wird eine derartige PL-Messung während der Epitaxie einer Halbleiterstruktur und den damit verbundenen hohen Wachstumstemperaturen durchgeführt, erlaubt dies eine quasi-kontinuierliche In-situ-Charakterisierung der optoelektronischen Eigenschaften dieser Struktur zum frühestmöglichen Zeitpunkt, also noch in der Produktionsphase. Hierdurch wird eine In-situ-Optimierung der Prozessparameter ermöglicht, welche bei einer Ex-situ-Messung nicht gegeben ist. Die vorliegende Arbeit beschreibt zunächst theoretisch und dann anhand praktischer Messungen an industrienahen Epitaxie-Anlagen erstmals eine quasi-kontinuierliche In-situ-PL-Messung am Beispiel von wachsenden Nitrid-Halbleiterstrukturen. Über zeitaufgelöste PL-Messungen wird ein temperaturabhängiger Quenching-Mechanismus bei Gallium-Nitrid (GaN) und Indium-Gallium-Nitrid (InGaN) aufgezeigt, welcher den Einsatz von gepulsten Lasern als PL-Anregungsquelle bei hohen Wachstumstemperaturen einer Epitaxie erforderlich macht. Mit In-situ-PL-Messungen können hierdurch erstmals verschiedene Parameter einer gerade wachsenden Halbleiterschicht charakterisiert werden. Neben der Bestimmung der Temperatur und der Schichtdicke einer wachsenden, auf InGaN basierten LED-Struktur wird auch die Möglichkeit demonstriert, in einem frühen Stadium des Wachstums einer LED-Struktur ihre spätere Emissionswellenlänge bei Raumtemperatur vorherzusagen, und dies mit einer Genauigkeit von ± 1,3 nm (2σ). Diese Arbeit zeigt somit neben den industriell etablierten Messtechniken, wie z.B. pyrometrische Verfahren, eine weitere Möglichkeit zur Prozessüberwachung einer Epitaxie auf.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
Vor dem Hintergrund globaler Vernetzung, Digitalisierung und Big Data geht das Excel-Zeitalter seinem Ende entgegen. Neue Technologien versprechen eine höhere Effizienz und Effektivität des Controllings. Die Veränderungen umfassen dabei alle Aufgabenbereiche des Controllings – allerdings mit unterschiedlicher Geschwindigkeit und differenzierten Lösungsansätzen. Der vorliegende Beitrag untersucht drei Technologien, die im Controlling derzeit besonders stark diskutiert werden: Robotic Process Automation, Predictive Analytics und Künstliche Intelligenz. Im Rahmen eines Forschungsseminars an der Hochschule Ruhr West in Mülheim a.d.R. wurden dazu 57 Führungskräfte aus Controlling und Rechnungswesen befragt. Über 75% der befragten Unternehmen halten die Digitalisierung für wichtig, mehr als die Hälfte (52%) beabsichtigen, eine oder mehrere der drei untersuchten Technologien in den nächsten drei Jahren neu einzusetzen. In den Aufgabenbereichen ist bislang vor allem das Reporting digital unterstützt, in der Strategischen Planung und im Risikomanagement ist dagegen die Digitalisierung gering. Wesentliche Hindernisse sehen die Befragten im fehlenden Know-How und mangelnder Veränderungsbereitschaft.
Stress im Informatikstudium
(2020)
Einführung
Ziel der vorliegenden Thesis ist es, die Eu- und Disstressoren der Infomatikstudierenden an der Hochschule Ruhr West zu untersuchen. Hierzu sollen nach den Wünschen der neuen Beratungsstelle für den Studienstress die Studierenden befragt werden. Nachfolgend werden in der Thesis die bekannten Problematiken im Informatikstudium eingebunden. Zusätzlich sollen die Informatikstudierenden auf den Stress mit einem Cartoon-Video aufmerksam gemacht werden. Mithilfe des Videos sollen die zukünftigen Eu- und Disstressoren rechtzeitig erkannt und Hilfe an der Hochschule Ruhr West abgeholt werden.
Methode
Die Untersuchung der Stressoren wird mit einem Fokusgruppeninterview (N = 4) und mit einer Online-Fragebogenerhebung (N = 120) durchgeführt. Die Signifikanzprüfungen sind varianzanalytisch und die Abweichungen der Gruppen werden mit t-Tests und einfaktorieller ANOVA berechnet.
Ergebnisse
Die Ergebnisse zeigen Unterschiede zwischen den Stressoren in unterschiedlichen Gruppen. Vor allem in den Gruppen mit davor erworbenen Vorkenntnissen und mit verschieden bewerteten Fachkompetenzen. Insbesondere ist der Stresslevel zwischen den Geschlechtern und bei den Informatikstudierenden, die mehrmals im Studium erkrankt waren, unterschiedlich.
Schlussfolgerung
Die Ergebnisse sind für die aktuellen Stresssituationen im Informatikstudium und für die nächsten Studien relevant. Außerdem wird mit dieser Studie auch auf die Problematiken in der Informatik, wie z. B. dem Frauenmangel in der Informatik, die den Informatikstudierenden den Stress verursachen könnten, aufmerksam
gemacht.
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
Die Möglichkeiten der Wissensvermittlung über eingebettete Systeme haben sich durch das erforderliche distance learning stark verändert. Die bekannten didaktischen Konzepte, welche bis dahin angewandt wurden, werden durch den Wegfall von Präsenz-Praktika und den fehlenden Zugang zu einem IoT- Labor ausgehebelt.
Diese Master-Thesis beschäftigt sich daher mit der Idee, wie eine Überholung des Eingebettete Systeme-Moduls an der Hochschule Ruhr West sowohl die Modulziele weiter erfüllen kann als auch darüber hinaus einen Mehrwert erschaffen wird. Vor diesem Hintergrund wird untersucht wie durch die Einführung eines Remote-Labs in Kombination mit einer kollaborativen Entwicklungssoftware für Lerngruppen, Anreize für die Studierenden geschaffen werden können, die ihnen praxisnäheres und fundiertes Wissen in der Entwicklung eingebetteter Systeme vermitteln.
Dieses neue Vorgehen verwendet einen Peer-Group-Code-Bearbeitung- Ansatz in Echtzeit und Peer-to-Peer-Videokonferenzen und verteilt über den MQTT-Server die Interaktion der Hardwareentwicklung als integralen Bestandteil eines Kurskonzepts. Ziel ist es, die Motivation und die Lernleistung der Schüler zu verbessern.
Das Vorgehen wird anhand begleitender Umfragen während des Moduls weiterentwickelt und die Semesterergebnisse werden unter Zuhilfenahme von Bewertungskriterien mit denen vergangener Jahre verglichen. Darüber hinaus wird das neue Kurskonzept durch eine Expertenbefragung in Form von Studierenden evaluiert, welche den Kurs in seiner alten Form durchlaufen haben.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
The goal of this empirical study is to answer whether predictions about stock price movements can be made with the use of machine learning in the energy sector and what influence contributions from social media have on its development. To answer the research
question, the social media platforms Twitter and Reddit, in terms of the suitability of the information, were studied and evaluated. Then, the sentiments of the posts from social media were collected and used in machine learning models. The models include the Gradient Boosted Regression Tree, Multilayer Perceptron, and Long Short-Term
i Memory, which predict a subsequent day's closing stock price. The study showed that deviations from predictions of stock price movements of 1.05 % are possible and further sentiment values do not show significant positive effect on reducing the error value. The
result shows that the collected sentiments from the social media platform Twitter have no positive effect on the stock price movements within the energy industry.
Keywords: stock market, stock prediction, artificial neural networks, machine learning,
energy market, sentiment analysis
Prediction of movement onset and direction based on muscle activity during reaching movements
(2021)
Electromyography as a technology allows one to be able to measure muscle activity, which in turn can be used to detect movement direction and onset. The process for this classification problem often involves a multitude of various extracted features and classification techniques, that differ a lot across different scientific papers. This thesis analyzed different features and classifiers and tackled a center out reaching task to determine a good workflow for classifying
arm movement direction. The data was recorded with 6 sEMG electrodes
placed on the upper arm of 5 healthy participants.
The different experiments show good classification accuracy of over 96 % in a reaching task with 16 targets placed in a circle within reaching distance. The results also show that the classification accuracy did not differ a lot between features. The individual EMG channels also display high correlation, which suggests a possible reduction in necessary electrodes. Classification accuracy
before movement onset also only dropped by 2 % compared to the accuracy of the whole time window of a reaching motion. This seems especially vital to ensure proper support via prosthesis or orthesis for people with heavily impaired movement.
Within this thesis the impacts of “Made in China 2025” on business relationships between Germany and China are analysed and evaluated. The author shows up how the export business from Germany has developed since “Made in China 2025” was published officially in 2015. It is presented in which way the export business was affected until now (changes of product categories, development of export volume, growth rates…). The data are being provided by the German Bureau of National Statistics.
Based on the data analysis the strategy is being evaluated from German perspective. Furthermore the author takes a look at the development of Foreign Direct Investments (FDI) flows from China to Germany since the beginning of Made in China 2025. It is being analysed if China indeed invests more into their so-called “key-industries” since 2015. The chances that might be created by FDI as well as the threats are inspected and evaluated by experts from various institutions. In addition to that a scenario analysis from the German Frauenhofer Institut presents different scenarios that show up what might happen to Germany in case China succeeds, as well as what might happen in case the strategy is a failure.
Furthermore various trade theories are presented within this thesis, such as theories from Adam Smith, David Ricardo, Raymond Vernon or Bertil Ohlin. It is presented how useful the theories are for modern intra-industrial trade inquiries and if their assumptions are realistic.
Der deutsche stationäre Einzelhandel gerät immer mehr unter Druck. Seit nunmehr fast einem Jahr bestimmt die Covid-19-Pandemie weltweit das menschliche Leben. Unter den Maßnahmen zum Schutz der deutschen Bevölkerung leidet auch die deutsche Wirtschaft. Vor allem den stationären Einzelhandel trifft es in dieser Zeit sehr. Leere Städte und geschlossene Läden sind schon fast zur Normalität geworden. Doch nicht erst seit Covid-19 erlebt der deutsche stationäre Einzelhandel finanzielle Einbußen. Fortschritte auf Gebieten der modernen Technologien wie „Big Data“ und die voranschreitende Digitalisierung kommen vor allem dem Onlinehandel, der auch von der Covid-19-Pandemie profitiert, zugute. Verbunden mit den sich verändernden Bedürfnissen der deutschen Bevölkerung an den Handel, greift der Online-Handel
den stationären Einzelhandel durch den Ausbau seiner Marktanteile an. Jedoch verspricht ein modernes, aber nicht neues Technologiegebiet dem stationären Einzelhandel Besserung. Die Nutzung von Künstlicher Intelligenz könnte dem Einzelhandel dazu verhelfen, selber Gewinne
aus den anderen modernen Technologiegebieten zu erzielen, sich den veränderten Bedürfnissen des Kunden anzupassen und dem Druck des Onlinehandels stand zu halten. Die vorliegende Arbeit setzt sich mit der Bewertung des Chancenpotenzials Künstlicher Intelligenz für die Zukunft des deutschen stationären Einzelhandels auseinander. Damit wird versucht die Frage, ob der Einsatz von KI-Anwendungen dem deutschen stationären Einzelhandel dazu verhelfen wird, die oben beschriebenen Herausforderungen zu bewältigen, zu beantworten.
Um dem Leser ein fundiertes Verständnis zu vermitteln, basiert die Ermittlung des Potenzials auf einer detaillierten Erläuterung der Künstlichen Intelligenz sowie deren Fähigkeiten und Chancen, aber auch ihrer Risiken und Hürden auf dem zukünftigen Weg der Implementierung.
Auf diesem Fundament wird dann mit Hilfe einer literarischen Analyse die Bewertung vorgenommen. Bisher von der Literatur wenig berücksichtigt sind Veränderungen der Situation des deutschen stationären Einzelhandels durch die Auswirkungen der noch immer anhaltenden Covid-19-Pandemie. Die Ergebnisse der Literaturanalyse werden daher durch die Durchführung und Auswertung von Experteninterviews, als Methode der qualitativen Primärforschung,
auf Aktualität und Übereinstimmung mit Erkenntnissen aus der Praxis überprüft.
Mit Dara Kossok-Spieß, Referentin des Handelsverbands Deutschland, Niels Will und Frederic Kerber, beide im Einsatz für praxisnahe Forschungsprojekte des deutschen Forschungsinstituts für Künstliche Intelligenz, sind sowohl Vertreter beider Interessengruppen – der Anwendung sowie der Forschung – vertreten. Hierdurch konnten neue Erkenntnisse über die zukünftigen Auswirkungen der Covid-19-Pandemie auf den deutschen stationären Einzelhandelsmarkt gewonnen werden. Außerdem konnten Barrieren, die in naher Zukunft durch die Zusammenarbeit der Anwender mit der Forschung, gelöst werden müssen, damit Künstliche Intelligenz flächenübergreifend in den deutschen stationären Einzelhandel einziehen kann, ermittelt werden. Die vorliegende Arbeit richtet sich daher an alle Personen, die ein Interesse an der Bewertung des Technologiegebiets Künstlicher Intelligenz besitzen und/oder sich für die Zukunft des deutschen stationären Einzelhandels interessieren.
According to various studies, a strong market penetration of electric mobility is expected in the next few years. On the one hand, electric vehicles can contribute to achieve climate targets, but on the other hand, they can place a heavy burden on the power grid and have serious consequences, such as component overload and voltage instabilities, if they are charged in an uncoordinated manner.
Proper grid integration of electric vehicles with a coordinated charging approach can minimize these negative impacts and brings about positive aspects, such as improving grid quality and integrating larger amounts of renewable energy.
Taking into consideration the legal framework and the different requirements of network operators, vehicle manufacturers and owners, this paper compares different network integration techniques.
It is concluded that a decentralized charging management approach, in which the vehicle owners themselves make the charging decisions, is a good compromise between the different parties and consequently the best alternative for the grid integration of electric vehicles in Ger-many.
One aspect that needs further investigation is which is the best way to motivate vehicle owners to actively participate in a flexible charging management.
Packaging, as a communication tool between the end consumer and the product, influences the purchase decision process and ultimately the purchase decision of the consumer (cf. Butkeviciene et al. 2008, p.59; Mishra/Jain 2012, p.49f). Since the influence of the type of
packaging on the purchase intention has not yet been investigated, this connection will be examined more closely in this paper using the example of strained tomatoes and the corresponding target group. In addition, possible influencing factors (moderators) are to be identified and investigated, which show an additional effect on the relationship. The target group, on which the two aspects of the research question are to be examined, is defined as buyers of strained tomatoes, in the age of 20 to 35 years, who are living in Germany. An experiment was used to investigate this topic. For this purpose, an online survey was conducted using a standardized questionnaire. Three groups were formed according to the different types of packaging, to
which the subjects were assigned by a randomization function in the questionnaire. The test persons were randomly selected from the private and professional network of the researcher.
The survey period lasted approximately two weeks (11/03 – 11/14/2020). The analysis of the usable data was carried out with the analysis of variance (ANOVA) in order to check the influence of the packaging type on the purchase intention. This showed that there was no significant
correlation, but the significance level was very close to the threshold for a significant value.
The covariance analysis (ANCOVA), which was used to take into account possible further moderators(covariates), showed that the information on the packaging material have an additional effect. The other moderators could not be examined because at least one of the conditions for the calculation was not fulfilled.
Magnesium ist das leichteste Metall, das im konstruktiven Leichtbau Anwendung findet. Zusätzlich ist Magnesium ein wichtiges Element in Aluminiumlegierungen, was den derzeit bedeutendsten Einsatzbereich darstellt. Die Gewinnung von primären Magnesiummetall aus verschiedenen Rohstoffen ist ein sehr energieintensiver Prozess, der vorwiegend in China stattfindet. Die für die Herstellung von einem Kilogramm metallischen Magnesium benötigte Endenergie beträgt zwischen 18 und 80 kWh, je nach eingesetztem Energieträger und Prozess.
Das Umschmelzen von sauberen Neuschrotten erfordert lediglich rund 1 kWh je kg Magnesiumlegierung. Dies verdeutlicht bereits, dass sich durch ein Recycling, im Vergleich zur Primärproduktion, erhebliche Energieeinsparungen erzielen lassen. Altschrotte aus Produkten am Ende ihres Nutzungszyklus werden gegenwärtig kaum innerhalb des Kreislaufs von Magnesiumlegierungen recycelt. Meist werden Magnesiumlegierungen gemeinsam mit der Aluminiumfraktion dem Recycling zugeführt und so im besten Fall als Legierungselement genutzt.
Im Rahmen dieser Arbeit werden die theoretischen Potenziale von Energie- und Treibhausgasemissionseinsparungen durch das Recycling von Magnesium-Altschrotten im Vergleich zum Primärmarkt einer AZ91D-Legierung untersucht. Mittels einer modellierten Ökobilanz werden die Einsparpotenziale für die Wirkungskategorien Treibhausgasemissionen (Global Warming Potential) sowie den kumulierten Energieaufwand (KEA) ermittelt.
Über die Modellierung und Ermittlung der Potenziale hinaus wurden mehrere Expert:inneninterviews geführt. Schlussfolgerungen aus diesen Gesprächen sind, dass die für ein geschlossenes Recycling nötige Technik zur Verfügung steht und gegenwärtig nicht gehobene Potenziale durch das Recycling bestehen. Hinsichtlich der wirtschaftlichen Rah-menbedingungen des Recyclings von Altschrotten wurden divergierende Einschätzungen festgestellt, wonach die geringen Mengen der Altschrotte hemmend, das gestiegene Preisniveau hingegen als fördernd für ein geschlossenes Recycling identifiziert wurden.
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
Die Energiewende schreitet in Deutschland weiter voran und die im Jahr 2021 neu gewählte Bundesregierung setzt dafür deutliche Zeichen in ihrem Koalitionsvertrag. Bis 2030 sollen 80 Prozent des antizipierten Strombedarfs von 680-750 Terawattstunden (TWh) aus erneuerbaren Energien (EE) stammen.1 Insbesondere Windkraft und Solarenergie sollen in Deutschland ihre bereits sehr relevante Rolle weiterentwickeln und einen Großteil dieses Strombedarfs erzeugen. So gibt die Bundesregierung ein neues Ausbauziel von 200 Gigawatt (GW) installierter Leistung für Photovoltaik (PV) vor und möchte zwei Prozent der Landesfläche für Windenergie ausweisen. Außerdem sollen bürokratische Hürden und langwierige Genehmigungsprozess vereinfacht und reduziert werden.2
Der Ausbau der EE führt aufgrund der zunehmenden volatilen Einspeisung zu einer höheren Netzbelastung. Dadurch wiederum wird das Potenzial der regenerativen Energiequellen nicht optimal genutzt, wenn beispielsweise Windkraftanlagen (WKA) abgeregelt werden müssen.3
Ein weiterer Baustein der Energiewende und vor allem auch der Mobilitätswende stellt die Elektromobilität dar. Deutschland erlebt seit wenigen Jahren einen Markthochlauf, der sich in rasant steigenden Zulassungszahlen von Elektrofahrzeugen (eletric vehicle: EV) und dem Ausbau der deutschlandweiten Ladeinfrastruktur darstellt.4 Abbildung 1 (siehe S. 8) zeigt ein nahezu exponentielles Wachstum für neuzugelassene vollelektrische Fahrzeuge (battery electric vehicle: BEV) sowie für Plug-In-Hybride (PHEV).
Ziel dieser Arbeit ist es, ein grundlegendes Verständnis eines elektrisch betriebenen Lenksystems zu schaffen und dessen zugehörige Anforderungen und Analysen seitens der funktionalen Sicherheit darzustellen. Beginnend mit der theoretischen Darstellung des Lenksystems und den Normen wird im praktischen Teil der Arbeit diese Theorie angewandt. Zudem werden Autonomiestufen und deren rechtliche Grundlage in Deutschland aufgeführt und diskutiert.
Hierbei wird auf die Norm für die funktionale Sicherheit, die ISO 26262 und auf die Norm für die Sicherheit der Funktion, die ISO 21448 eingegangen. Es wird erläutert, welchen Zweck die Anwendung der ISO 26262 hat und wie sie aufgrund der zunehmenden Komplexität in der Automobilbranche durch die ISO 21448 (SOTIF) ergänzt wird. Dazu wird herausgearbeitet, wann die ISO 26262 an ihre Grenzen stößt und wie unabdingbar die Anwendung von SOTIF wird.
Einhergehend mit der technologischen Entwicklung und der zunehmenden Komplexität treten nämlich vermehrt Aspekte auf, die mit der ISO 26262 allein nicht abgedeckt werden können. Sicherheitsaspekte nehmen zu und verändern sich mit neuen Komfort- und Assistenzsystemen kontinuierlich. Daher ist es auf-grund der sich ändernden Technologien und derer Komplexität unabdingbar, bestehende Ansätze zu verbessern und zusätzliche neue Methoden für die Sicherheit des Endproduktes zu entwickeln und neben den etablierten Methoden anzuwenden.
Welchen Einfluss dies auf ein modernes Lenksystem hat und wie in diesem Zusammenhang das Zusammenspiel der ISO 26262 und ISO 21448 mit klassischen Methoden wie der Fehlermöglichkeits- und Einflussanalyse (FMEA) betrachtet werden muss, wird in dieser Arbeit dargestellt. Automobilhersteller sind heute bereits in der Lage Fahrzeuge automatisiert in bestimmten Betriebsgrenzen und Bereichen fahren zu lassen. Doch was muss getan werden, um sämtliche Betriebsgrenzen aufzuheben und ein Fahrzeug „autonom“ zu gestalten? Regulatorien, Standards und Richtlinien sind bereits heute auf dem besten Weg dorthin, doch ist es in der Praxis tatsächlich realisierbar?
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Die vorliegende Masterarbeit befasst sich mit dem Thema Influencer-Marketing in der politischen
Kommunikation auf TikTok. Die Arbeit gibt einen Überblick über die theoretischen Hintergründe
von sozialen Netzwerken, Influencer-Marketing, TikTok und politischer Kommunikation.
Zuerst wurde überprüft, inwieweit sich Influencer-Marketing für die politische Kommunikation
auf TikTok eignet und welche Potentiale damit für politische Akteur:innen verbunden
sind. Im empirischen Teil sind Experteninterviews durchgeführt worden, mit dem Ziel,
Erkenntnisse zur Beantwortung der folgenden Forschungsfragen zu erhalten:
Wird TikTok als Marketing- und Kommunikationskanal für die politische Kommunikation
mit Erst- und Jungwähler:innen im Landtagswahlkampf in NRW und generell in der politischen
Kommunikation genutzt?
und:
In wie weit spielen Influencer:innen in der politischen Kommunikation von Parteien und
politischen Organisationen eine Rolle?
Um das Kommunikationsverhalten der Parteien auch von außen zu bewerten und im Anschluss
Handlungsempfehlungen geben zu können, wurden auch Interviews mit Experten für politische
Kommunikation durchgeführt.
Zusammenfassend konnte festgestellt werden, dass TikTok sich sowohl für die politische Kommunikation
als auch das Influencer-Marketing eignet. Allerdings haben in der politischen
(Wahlkampf-)Kommunikation weder TikTok noch Influencer:innen eine Relevanz. Die Parteivertreter:
innen hatten sich zwar alle mit TikTok als „neuem“ Social-Media-Kanal auseinandergesetzt,
jedoch haben die meisten die TikTok-Nutzung aus unterschiedlichen Gründen abgelehnt.
Auch die Möglichkeit, durch Kooperationen mit Influencer:innen auf TikTok vertreten
zu sein, wurde von den Parteivertreter:innen abgelehnt oder gar nicht in Betracht gezogen.
Da sich das Kommunikationsverhalten der Öffentlichkeit und vor allem zukünftiger, wahlentscheidender
Generationen maßgeblich geändert hat und ändern wird, wiesen die befragten Experten
ausdrücklich darauf hin, dass Politiker:innen auf TikTok präsent sein sollten, um junge
Menschen zu erreichen. Durch die beschriebenen Erkenntnisse erscheint es sinnvoll, den Themenkomplex
„Influencer-Marketing in der politischen Kommunikation auf TikTok“ weiterhin
zu beobachten und zu sehen, wie das Thema sich weiter entwickeln wird.
Längsschnittuntersuchung des Konsumentenverhaltens im Online- Lebensmittelhandel in Deutschland
(2022)
Kurzfassung
Das Ziel in der vorliegenden Arbeit ist es zu untersuchen, inwiefern sich das
Konsumentenverhalten im Online-Lebensmittelhandel seit 2016 gewandelt
hat. Dazu wird folgende Forschungsfrage gestellt: Hat sich das Interesse
daran, Lebensmittel online zu bestellen, im Vergleich von 2016 zu 2022
verändert? Ferner soll zusätzlich untersucht werden, wie hoch das
Interesse der zu dieser Arbeit Befragten ist, Lebensmittel online zu
erwerben und ob es auch einen Zusammenhang zur Covid-19-Pandemie
gibt. Um diese Forschungsfragen zu untersuchen, wurde eine quantitative
Untersuchung durchgeführt. Es wurde unter anderem mit den hier
gewonnenen Daten eine Längsschnittuntersuchung durchgeführt, die zur
Grundlage die Daten aus einer Masterarbeit aus dem Jahr 2016 hat. Die
Ergebnisse dieser Untersuchung sind, dass das Interesse im Allgemeinen
gestiegen ist, Lebensmittel online zu bestellen und auch schon deutlich
mehr Menschen Erfahrungen mit den Dienstleistungen aus diesem Bereich
gesammelt haben.
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Mit dem wachsenden Konsum elektronischer Mobilgeräte steigen auch die Gefahrenpotenziale, welche aus den in ihnen enthaltenen Lithium-Ionen-Batterien resultieren. Ob bei der Sortierung von Batterien in Recyclinghöfen, oder bei Sicherheitskontrollen an Flughäfen: Die Nachfrage der autonomen Erkennung von Batterien in elektronischem Müll oder Gepäck der Passagiere steigt.
In der vorliegenden Bachelorarbeit wird deshalb der aktuelle Stand der Technik folgender Thematik dargelegt: Erkennung und Klassifizierung elektronischer Mobilgeräte sowie der darin enthaltenen Batterien auf X-Ray-Aufnahmen mittels Transfer Learning. Zunächst wird dabei auf die aktuellen Möglichkeiten im Bereich Machine Learning, sowie letzte Veröffentlichungen bzgl. ähnlicher Thematik eingegangen. Um den Stand der Technik zu verbessern, werden daraufhin mehrere Versuche mit dem aktuell präzisesten Machine-Learning-Modell zur Echtzeit-Objekterkennung „YOLOv5“ und einem umfassenden Datensatz namens „HiXray“ durchgeführt. Der Gebrauch vom Konzept Transfer Learning und dessen Effekt auf die Versuchsreihe wird im Laufe der Arbeit immer wieder angeschnitten. Die Ergebnisse des Experiments zeigen: Mit YOLOv5 ist zwar noch keine vollständig autonome Erkennung elektronischer Mobilgeräte und derer Batterien auf X-Ray-Aufnahmen möglich, jedoch konnte unter Nutzung von Transfer Learning der Stand der Technik verbessert werden. Weitere Forschung in diesem Bereich könnten diese aber bereits in naher Zukunft ermöglichen, wodurch Sicherheitsrisiken minimiert und diverse Prozesse an Sicherheitskontrollen oder Recyclinghöfen automatisiert werden könnten.
Schlagwörter: Objekterkennung, X-Ray, Mobilgeräte, Lithium-Ionen-Batterie, Transfer Learning, Recycling, Sicherheit, YOLOv5
Die folgende Bachelorarbeit analysiert und wertet die Messdaten eines Niederschlagsensors aus, der auf dem induktiven Wirbelstromprinzip aufbaut. Der Sensor wird an der Hochschule Ruhr West im Institut für Mess- und Sensortechnik entwickelt. Er soll nach erfolgreicher Konfiguration die Niederschlagsintensität und die Tropfengröße über die Resonanzfrequenz der Spule ausgeben können. Um dieses Ziel zu erreichen, gibt die Bachelorarbeit eine Einschätzung, inwieweit das System für eine Niederschlagserfassung geeignet ist und welche Verbesserungen vorgenommen werden können. Dazu wurden die Messdaten in einer Regenkammer der Firma Lambrecht meteo GmbH erfasst. Für die Versuche wurden zwei Flachspulen mit Resonanzfrequenzen von 1,7 MHz und 8 MHz nacheinander ausgewertet. Die resultierenden Messdaten werden sowohl im Zeit- als auch im Frequenzbereich auf Verhaltensmuster und Kennwerte untersucht. Aus den Ergebnissen geht hervor, dass der Sensor aufgrund von äußeren Einflüssen und inneren Verhaltensweisen keine signifikante Antwort auf den Niederschlag ausgibt, um die Niederschlagsintensität und die Tropfengröße zu ermitteln. Dennoch zeigt sich, dass die Resonanzfrequenz der Spulen gegensätzliche Reaktionen hervorruft. Die Spule mit der Resonanzfrequenz von 1,7 MHz reagiert deutlich unempfindlicher auf äußere Einflüsse wie parasitäre Kapazitäten. Allerdings werden nur Regentropfeneinschläge bei hohen Niederschlagsmengen deutlich erkannt. Die Spule mit der Resonanzfrequenz von 8 MHz hingegen zeigt ein empfindlicheres Verhalten auf äußere Einflüsse. Zur Optimierung des Niederschlagssensors, muss dieser konfiguriert werden, damit er äußeren Einflüssen robust entgegenwirkt und den Niederschlag sensibel genug detektiert. Zudem müssen Ausreißer, die in der Frequenzanalyse entdeckt wurden und von den inneren Verhaltensweisen stammen, entfernt werden.
Gegenstand der hier vorgestellten Arbeit ist die Analyse des Status Quo von Pinkwashing und der Ableitung von Handlungsempfehlungen für die Marketing-Kommunikation. Dabei wird die Positionierung von Marken in der LGBTQ-Community aus einer ethischen Perspektive betrachtet. Im Rahmen dieser Masterarbeit werden teilstandardisierte Interviews mit Expert*innen aus Agenturen, dem Marketing- und
Brandmanagement und schließlich aus Diversitäts- und Inklusionsbereichen von Unternehmen geführt. Durch diese Interviews konnten Kriterien zur Identifikation von Pinkwashing sowie Handlungsempfehlungen für die authentische Positionierung in der
Kommunikation mit der LGBTQ-Community aufgestellt werden.
Schlagwörter: Pinkwashing, Marketingethik, LGBTQ-Community, Positionierung, Marke
Es konnte in dieser Arbeit festgestellt werden, das Relationship Marketing eher eine Akzentuierung
des traditionellen Marketing darstellt und aufgrund der Inkonsistenzen in den einzelnen Ansätzen
kein neues Marketing Paradigma darstellt. Wenn Relationship Marketing sich zu einem neuem
Marketing Paradigma entwickeln soll, dann muss vor allen Dingen die Erschaffung von Werten, der
Verlauf von Beziehungen und deren Entstehung im Vordergrund stehen. Um den evolutorischen
Weg des Relationship Marketing voranzutreiben und im Vertrauensmanagement Kundenbindungen
zu beschreiben, wurde eine im E-Commerce gültige Typologie erstellt, welche qualitative
Ausprägung der Kundenbindung durch die Antezedenz Variable Vertrauen beschreibt. Den Beleg
der Existenz einer solchen Typologie brachte das im Verlauf dieser Abschlussarbeit entwickelte
Messinstrumentes einer qualitativen Ausprägung mittels Vertrauen. In der folgenden Diskussion
konnte zudem gezeigt werden, dass die Typologie in die drei wichtigsten Denkrichtungen des
Relationship Marketing integriert werden kann und somit eine Methode zur Ermittlung qualitativer
Ausprägungen der Kundenbindung im jetzigen Verständnis von Relationship Marketing darstellt.
Vergleich von Logistischer Regression und Deep Learning bei der Vorhersage von Schlaganfällen
(2022)
Die Bachelorarbeit befasst sich mit dem Vergleich von Logistischer
Regression und Deep Learning bei der Vorhersage von Schlaganfällen
hinsichtlich der Frage, ob in einer binären Klassifikationsaufgabe die
komplexe und aufwändige Methode des Deep Learnings sich bei
Anwendung auf kleine tabellarische Datensätze bewährt oder ob
Logistische Regression als Basismodell des Maschinellen Lernens
effizienter ist. Methodisch werden folgende Schritte ausgeführt:
Beschreibung beider Modelle, Durchführung der Datenvorbereitung unter
Verwendung des „Stroke Prediction Dataset“ von Kaggle, Implementierung
beider Methoden mit dem gleichen angepassten Datensatz. Der
abschließende Vergleich benennt als Fazit die Unterschiede in den
Ergebnissen und Voraussetzungen für den sinnvollen Einsatz beider
Methoden. Eine Schlussfolgerung angesichts der geringen
Ergebnisunterschiede hinsichtlich der Prognosegenauigkeit der
Schlaganfallrisikos dürfte sein, dass Deep Learning, um ökonomisch
sinnvoll bei tabellarischen in kleineren Datensätzen eingesetzt zu werden, aktuell noch nicht genügend bessere Ergebnisse vorweist.
Der Konsum von Secondhand-Kleidung in Deutschland gewinnt stetig an Beliebtheit. Dabei verlagert sich der Trend mit dem Handel von gebrauchter Bekleidung immer weiter ins Internet, weshalb immer mehr Unternehmen in den florierenden Online-Markt eintreten und so den Konkurrenzdruck unter den Reseller-Plattformen erhöhen. Daher ist es notwendig zu verstehen, wie sich Unternehmen dieser Branche eine langfristige Wettbewerbsfähigkeit in einem stark umkämpften Markt aufbauen können.
Das Ziel der Forschung dieser Arbeit richtet sich dazu auf die Analyse der entscheidenden Faktoren aus, welche Kunden beim Kaufvorgang von gebrauchter Bekleidung beeinflussen. Aus den anschließenden Ergebnissen werden Handlungsempfehlungen für die Praxis abgeleitet. Dazu wird folgende Forschungsfrage gestellt: Welche Faktoren beein-flussen deutsche Kunden, Secondhand-Bekleidung auf Onlineplattformen einzukaufen?
Um die Forschungsfrage zu beatworten, wird ein Hypothesenmodell aufgestellt, welches mittels quantitativer Forschung überprüft wird. Mit Hilfe eines Fragebogens durch eine Onlineumfrage, werden konkrete Fragen über das Kaufverhalten, die Intentionen und Einflüsse beim Onlineshopping von Secondhand-Kleidung von ca. 300 Probanden erhoben und danach ausgewertet. Die Ergebnisse zeigen auf, dass die Hauptzielgruppe zwischen 20 und 31 Jahre alt ist und in einem Abstand von drei bis zwölf Monaten regelmäßig online gebrauchte Kleidung kauft. Dabei ergibt die Studie zum Teil sehr überraschende Ergebnisse der Einflussfaktoren. So haben die wahrgenommene Nützlichkeit, die hedonistische Motivation und die äußeren sozialen Einflüsse von Kunden einen starken bis mittleren Effekt auf die Kaufabsicht, während die Faktoren Nachhaltigkeit (ökologische Motivation), die wahrgenommene Einfachheit der Nutzung von Onlineplattformen und die ökonomische Motivation, keinen Einfluss auf die Kaufabsicht ausüben. In der Praxis sollten Unternehmen daher darauf achten die Vorteile des Onlineshoppings wie z.B. den Kauf unabhängig von Öffnungszeiten und eine vielfältige Produktauswahl gezielt auszuspielen. Um sich die Vorteile der sozialen Beeinflussung von Käufern zu Nutzen zu machen, werden Influencer Kooperationen oder Aktionen, bei denen Kunden ihre Freunde werben, empfohlen. Eine weiterführende Forschung in dem Bereich, kann durch die Erweiterung des Modells mit weiteren Einflussfaktoren wie z.B. dem Vertrauen erfolgen. Des Weiteren kann eine differenzierte Prüfung von Einflussfaktoren verschiedener Re-Commerce Konzepte erfolgen, um Gemeinsamkeiten und Unterschiede zu erarbeiten und somit noch spezifischere Hand-lungsempfehlungen für Stakeholder zu erarbeiten.
Mit dieser Arbeit sollen unterschiedliche Einflussfaktoren und deren Auswirkung auf die Zuverlassigkeit
der mechanischen und elektrischen Bauteile eines Bohrmoduls aufgezeigt und miteinander verglichen werden.
Dazu werden zwei Zuverlassigkeitsanalysen mit je zwei verschiedenen Szenarien durchgeführt und
ausgewertet.
Das Szenario basiert auf der von der National Aeronautics and Space Administration (NASA) geplanten
Mission die Mondoberfläche und ihre oberen Gesteinsschichten zu analysieren. Zur Bewältigung dieser
Aufgabe soll ein mobiler Roboter mit einem Bohrmodul ausgestattet werden, um an unterschiedlichen Orten
auf der Mondoberfläche Bodenproben zu analysieren. Es sollen die Bohrungen bis zu einem Meter Tiefe durchgeführt werden. Ziel der Mission soll sein, die Geologie des Mondes zu erforschen [1].
Dieses Szenario dient als Grundlage die Zuverlässigkeit des Bohrmoduls unter extremen Bedingungen
zu ermitteln. Dabei stellt sich die Frage danach, welchen Einfluss verschiedene Temperaturen und
weitere Faktoren auf die Zuverlässigkeit des Bohrmoduls haben.
Das Ziel dieser Arbeit ist die Durchfuhrung einer Zuverlässigkeitsanalyse eines Bohrmoduls unter Hinzunahme
zwei verschiedener Standards unterschiedlicher Herangehensweisen. Dabei gibt jeder Standard eine
andere Art der Durchführung vor. Dabei ist das NSWC-10 stark abhängig von den konstruktiven Eigenschaften,
der FIDES von den vorherrschenden Umweltgegebenheiten. Die Analysen der Zuverlässigkeit
des Bohrmoduls werden sowohl für ein Erdszenario als auch für ein Mondszenario mit ihren jeweiligen
unterschiedlichen Gegebenheiten durchgeführt. Während der Analysen werden weitere Einflussfaktoren in
den Berechnungen berücksichtigt, die in den Standards als solche nicht aufgeführt werden. Zu diesen zählen
unter anderen die Temperaturschwankung auf dem Mond und das dort vorherrschende Vakuum. Diese
finden Berücksichtigung, um die extremen Bedingungen des Mondszenarios besser repräsentieren zu können.
Letztlich werden die beiden Standards hinsichtlich ihrer Anwendbarkeit auf jene Szenarien bewertet,
die ermittelten Ausfallraten erläutert und die Einflussfaktoren miteinander verglichen.
Zur Ermittlung der Zuverlässigkeit des Moduls werden vorab die Szenarien definiert und die konstruktiven
Eigenschaften der Bauteile ermittelt. Anschliesend wird die erste Zuverlässigkeitsanalyse mit
Hilfe des NSWC-10 durchgeführt. Dazu werden die einzelnen Ausfallraten der Bauteile bestimmt und verglichen.
Neben den vorgegeben Einflussfaktoren werden, falls möglich, spezifische Gegebenheiten des
Szenarios auf dem Mond einbezogen und diskutiert. Die zweite Zuverlässigkeitsanalyse erfolgt auf der
Grundlage des FIDES. Vorab werden dazu die einzelnen Betriebszustände eines Tages definiert, welche
als Grundlage für die weiteren Berechnungen dienen. Es wird versucht, den Tagesablauf des Roboters so
präzise wie möglich zu simulieren. Anschliesend kann die Ausfallrate des Bohrmoduls in Abhängigkeit
der vom FIDES vorgegebenen Einflussfaktoren ermittelt werden. Letztlich werden die ermittelten Werte
6 1 Einleitung
der beiden Standards miteinander verglichen, sowie mögliche Grenzen und Problematiken der Standards
aufgezeigt.
In recent years, the healthcare industry has increasingly relied on modern technologies.
Conventional methods are supported by Big Data methods or are being
investigated in the research. Has Big Data become more relevant in medicine in recent years? What does the future look like? In which medical subject area is Big Data being applied? These questions will be clarified during the thesis. In the first part, the usage of Big Data in medicine is shown and then, by using a bibliometric analysis, the importance and development of Big Data in medicine is presented.
Afterwards, there is a discussion of the results followed with a summary and the future perspective. This thesis gives an overview about the currently technological possibilities and the potentials of Big Data in healthcare and medicine.
Analyse von Unsicherheiten künstlicher neuronaler Netze und Integration in die Objektverfolgung
(2022)
Over the last few years, the development of assistance systems for motor vehicles has shifted from comfort functions to control tasks. Increasingly, these control tasks are also being transferred to semi-autonomous systems. One safety-critical aspect is the correct and reliable observation of the immediate environment by the vehicle. These observations can be used, among other things, to set up models for tracking objects. Due to recent research, topics such as uncertainties for object detections and the calibration of artificial neural networks are now emerging.
The goal of this work is to investigate the possibility of processing positional uncertainties of a detector in a multiple object tracking approach and the eects on the tracking of objects. Additionally, the calibration of the used detector will be evaluated and corrected if necessary. The eects of the calibration on the tracking results will also be investigated in this context. After an investigation of the procedure used to generate the position uncertainties of the detector, a connection to the multiple object tracking was made and an approach to process the uncertainties based on a Kalman filter was developed. The confidence of the detections was also remodeled. For this purpose, the confidence was interpreted as the existence probability and processed using a Bayes Filter to reflect the existence of the tracks. In addition, appropriate calibration methods for the position uncertainties and confidence were selected and incorporated into the tracking procedure. The validation of the presented approaches was performed on a data set for driving situations.
The evaluation of the results showed that a processing of the position uncertainties generated by a detector is feasible in the presented tracking approach. The interpretation of the confidence as existence probability leads to good results. Calibration of the confidence further improves the results. However, the calibration of the position uncertainties led to worse results. Further inves-tigation of other calibration methods for the position uncertainties is needed.
Keywords: Multiple Object Tracking, Kalman Filter, Neural Network Calibration
Gegenstand der hier vorgestellten Arbeit ist die Optimierung der Soft- und Hardware eines induktiven Niederschlagssensors im Rahmen des Verbundforschungsprojektes KIWaSuS (KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten). Auf Grundlage von Testergebnissen in einem Testlabor für Niederschläge ergeben sich Optimierungsansätze zur softwareseitigen Behebung von fehlerhaften Daten, eine hardwareseitige Steigerung der Qualität und der Empfindlichkeit des verwendeten induktiven Wirbelstromsensors und der Verbesserung des Wasserablaufes auf der Oberfläche des Sensorgehäuses. Zur Durchführung der Optimierung wurde empirisch das Ausführen des zugrunde liegenden Programmes auf mögliche Konflikte analysiert und angepasst, die Hardware des Sensors modifiziert und auf seine Empfindlichkeit überprüft sowie die Neigung und das Abdichtungskonzept des Gehäuses verändert und bewertet. Die Ergebnisse zeigen, dass kapazitive Anpassungen der Spule zu einer starken Stabilität des Sensors führen und eine hohe Resonanzfrequenz eine Steigerung der Empfindlichkeit hervorruft. Zusätzlich verhindert die Ausführung des Programmes auf zwei getrennten Mikrocontrollern das Auftreten fälschlicher Daten. Anpassungen des Sensorgehäuses durch die Erhöhung der Neigung und die Verwendung eines randlosen Abdichtungskonzeptes führen zu einem höheren Abfluss, aber zu keiner Eliminierung der Frequenzänderung aufgrund der Masse des aufliegenden Wassers. Die Ergebnisse zeigen, dass vor allem die Anpassungen der Software und der Spulenkonfiguration die Stabilität und Empfindlichkeit des Messsystems steigert.
In dieser Arbeit wurde eine Motorsteuerung für mikrofluidische Peristaltikpumpen in Lab-on-a-Chip Systemen entwickelt. Neben der dafür notwendigen elektrischen Schaltung wurde viel Wert auf die softwareseitige Umsetzung gelegt. Zusätzlich zu der reinen Vorgabe von essentiellen Größen, wie beispielsweise der Drehzahl und dem damit geförderten Volumen, wird ein vielseitiges und zuverlässiges Steuerungssystem vorgestellt, das versucht Schwankungen im geförderten Flüssigkeitsstrom zu reduzieren. Um schon vor dem ersten Betrieb, des parallel zu dieser Arbeit gefertigten mechanischen Aufbau, die Leistung sowie Ausmaße der Schwankungen abzuschätzen, wurde der zu erwartende Volumenstrom auf Basis der geometrischen Ausmaße modelliert. Dadurch können Algorithmen zur Glättung des Flusses bereits in einer frühen Phase der Softwareentwicklung berücksichtigt werden. Für eine bessere Charakterisierung des mechanischen Aufbaus und Überwachung des Betriebs wurde das System um eine sensorlose Erkennung von Bewegungen des Motors ergänzt. Somit kann unter anderem die Zuverlässigkeit und Dimensionierung der verwendeten Motoren überprüft werden. Zusätzlich wurde der Prozess zum Verschweißen von thermoplastischer Elastomer Folie mit dem mikrofluidischen Chip optimiert.
Der Stahlbau und Bauteile aus Stahl sind in der heutigen Welt unentbehrlich. Neben
der Verwendung von Stahl und Stahlträgern im Brückenbau, werden zum Beispiel
Stahlträger, in unterschiedlichen Formen und Variationen für die Bereiche Beton-,
Anlagen-, Industrie-, aber auch Maschinenbau verwendet.
Die Verbindung dieser Erzeugnisse aus Stahl, die in verschiedenen Profilen vorlie-
gen, wird unter Einsatz diverser Möglichkeiten realisiert. Dabei wird in der DIN 8580
zwischen folgenden Verbindungsmöglichkeiten unterschieden:
▪ unlösbare Verbindungen, wie z.B. Schweißverbindungen,
▪ lösbare Verbindungen, wie z.B. Schraubverbindungen,
▪ bedingt lösbare Verbindungen, wie z.B. Nietverbindungen.[1]
Im Stahlbau werden Verbindungen hauptsächlich geschweißt, wobei hier zwischen
Schweißen in der Vorfertigung und Schweißen auf der Baustelle bzw. der Montage
unterschieden wird. In der Regel werden die Bauteile, bevor diese auf die Baustelle
gelangen, in der Vorfertigung oder der Werkstatt hergestellt. Während der Montage
wiederum werden in der Regel die gering beanspruchten Verbindungen, oder wenn
Baustellennähte unvermeidbar sind [2], geschweißt.
Gemäß der DIN 1910-100 [3] wird das Schweißen bei dem zwei oder mehr Teile
unter Anwendung von Wärme und/oder Druck sowie mit oder ohne Schweißzusatz
miteinander verbunden werden als Fügeprozess definiert.
Durch den schweißtechnisch bedingten Wärmeeinfluss auf den Werkstoff, entstehen Imperfektionen. Diese Imperfektionen beschreiben unerwünschte Abweichun-
gen der Bauteile und werden unterschieden zwischen [4]:
▪ geometrische Imperfektionen
▪ strukturelle Imperfektionen
▪ geometrische Ersatzimperfektionen
Im Prozess der Nachweisführung von stabilitätsgefährdeten Bauteilen sind diese
Imperfektionen zwingend zu berücksichtigen, da diese einen maßgebenden Einflussfaktor auf das Tragverhalten von Bauteilen darstellen können.
Im Rahmen dieser Studienarbeit sollen Kleinteilversuche an längsausgesteiften
Beulfeldern durchgeführt werden. Der Fokus dieser Arbeit liegt hierbei auf der Her-
stellung der geschweißten Plattenbauteile und der Messung der entstehenden geometrischen Imperfektionen.
In dieser Arbeit wird die Thematik Datenvisualisierung von Wissensgraphen behandelt. Durch den massiven Datenbestand in der heutigen Zeit und der immer stärker werdenden Digitalisierung ist die Notwendigkeit gestiegen, aus Daten effizient Wissen generieren zu können. Folglich wurde repräsentativ eine Graphbibliothek ausgewählt, um die Daten zu visualisieren. Umgesetzt wurde die Programmierung durch ein JavaScript Framework. Die Daten einer Wissensdatenbank wurden vom Betreuer bereitgestellt. Das übergeordnete Ziel der Arbeit ist eine verbesserte Darstellung von Wissensdaten in Form eines Wissensgraphen. Sinn und Zweck dahinter ist es, Beziehungen zwischen Daten verbessert erkennen zu können und gleichzeitig Informationen zu gewinnen, die auf den ersten Blick nicht sofort erkennbar sind.
Im Rahmen dieser Bachelorarbeit werden Dehnungsmessstreifen (DMS)
mittels Faktor kalibriert, da die DMS unterschiedlich positioniert sind. Auf
Grund der manuellen Applikation stellen die DMS unterschiedliche Dehnungen
dar, dies soll mit Hilfe einer Kalibrierung der DMS verhindert werden. Damit
die DMS kalibriert werden können, werden die DMS in einer Viertelbrücke
gemessen und anschließend mit Hilfe einer Messkarte in Matlab eingelesen.
Im Matlab werden die Daten anschließend weiterverarbeitet, so dass jeder
DMS seinen eigenen Faktor bekommt. Anschließend werden die DMS in eine
Vollbrücke und Zweiviertelbrücke verrechnet, damit die reine Biegedehnung
sowie reine Zugdehnung berechnet werden kann.
1. Einleitung
1.1 Hintergrund
„Der Klimawandel und der Umgang mit dessen Folgen ist eine der zentralen Herausforderungen der Menschheit im 21. Jahrhundert“ (S.Weller et al., 2016).
Seit Beginn der Industrialisierung kommt es zu einem starken Anstieg der Treibhauskonzentration in der Atmosphäre, welcher durch die erhöhte Nutzung fossiler Brennstoffe, die Ausweitung der industriellen Produktion sowie der Viehzucht und die damit einhergehende Abholzung
vieler Wälder geschuldet ist (Umweltbundesamt, 2021). Durch den Klimawandel kommt es neben der Zunahme von Hitzewellen und Trockenphasen ebenfalls zu einem Anstieg von extremen Starkregenereignissen, bei denen intensive Niederschläge in kürzester Zeit auftreten. Der Grund für die Zunahme an Starkregenereignissen ist die globale Erwärmung, da diese eine stärkere Verdunstung und einen höheren Feuchtigkeitsgehalt in der Luft bewirkt. Seit Beginn der
flächendeckenden Wetteraufzeichnungen im Jahre 1881 ist ein stetiger Anstieg der Temperatur zu verzeichnen. Im Vergleich zum Zeitraum 1881-1920 war die vergangene Dekade (2011-2020) 2 Grad Celsius wärmer (Kasper et al. September, 2021). Während Dürren als Konsequenz von längeren Trockenzeiten zu erwarten sind, kommt es durch die Starkniederschläge und einhergehende Überlastung der Kanalnetzte häufiger und intensiver zu flussbedingten
Überschwemmungen und Sturzfluten (Brasseur et al., 2016). Charakteristisch für Sturzfluten ist das Auftreten in urbanen und gebirgigen Gebieten, sowie kurze Vorlaufzeit und hohe Fließgeschwindigkeiten. Auf Grund der kurzen Vorlaufzeit ist es problematisch die Bevölkerung rechtzeitig vor den Gefahren zu warnen und präventive Maßnahmen einzuleiten (Brasseur et
al. 2016, 97–98). Es ist notwendig realitätsnahe und kurzfristige Niederschlags- und Überflutungsvorhersagen treffen zu können. Dies ermöglicht es, die Bevölkerung rechtzeitig vor drohenden Gefahren durch Sturzfluten oder Überschwemmungen zu warnen und zu schützen.
Durch die immer weiter voranschreitende Digitalisierung sind, nicht nur Nutzer:innen
sozialer Medien, kaum noch Grenzen gesetzt. Hier stehen erhebliche Nutzungspotenziale
digitaler Technologien, nahezu unerforschten Auswirkungen, auf die Anwender:innen,
gegenüber (Netzwerk Stiftungen und Bildung, 2021).
Die Zahlen der Social Media Nutzer:innen steigen. Derweil verzeichnet sich, unter den
beliebtesten Social Media Plattformen, zu meist in der jüngeren Altersgruppe, der Großteil
der Anwender:innen (ARD & ZDF, zitiert nach de.statista.com, 2021). Während die
Methoden der Designer:innen immer weiter ausgereift werden und sich dabei neuester
Erkenntnisse der Psychologie und Verhaltensforschung bedienen. So wird unter dem
Begriff Dark Patterns beschrieben, dass sich Designer:innen Wissen über menschliches
Verhalten und die Wünsche der Anwender:innen zu Nutze machen, um dezeptive Funktionalitäten
zu implementieren, die nicht im Interesse der Anwender:innen liegen (Gray,
Kou, Battles, Hoggatt & Toombs, 2018).
In den Bildungsbereichen fehlt es jedoch bisher, vor Allem in Bezug auf Selbstbestimmung
im digitalen Anwendungskontext, an Konzepten zur Auseinandersetzung mit den
Auswirkungen von Dark Patterns auf die persönliche bzw. selbstbestimmte Nutzung.
In diesem Zusammenhang ist das Ziel der vorliegenden Arbeit die Erarbeitung eines
Workshop Konzepts, zur problemorientierten Diskussion von Dark Patterns, unter adoleszenten
Anwender:innen und deren Förderung im selbstbestimmten Umgang mit Social
Media.
Zudem folgt in diesem Rahmen eine qualitative Erhebung, um zu erfassen, ob die Teilnehmer:
innen fähig sind sich mit der Thematik Dark Patterns auseinanderzusetzen und
in der Lage sind Lösungsansätze zu entwickeln, um den Auswirkungen von Dark Patterns
entgegenzuwirken und die eigene selbstbestimmte Social Media Nutzung zu fördern.
Stichworte des Autors:
Dark Patterns, Social Media, digitale Selbsbestimmung, Workshop Konzept, Qualitative
Erhebung
Die Corona-Pandemie veränderte auch nach der zweijährigen Dauer viele Aspekte des alttäglichen Lebens. Hand in Hand mit gesellschaftlichen Einschränkungen, die in der Allgemeinheit für Unmut sorgte und die Wirtschaft erschütterte, stellt sie auch einen Meilenstein in der Sammlung und Auswertung medizinischer Daten weltweit dar. Die umfassende Dokumentation und Bekanntgabe täglicher Daten wie Infektionszahlen, Hospitalisierungs- und Sterberate durch weltbekannte Organisationen wie das Robert-Koch-Institut oder die World Health Organisation bieten eine noch nie gebotene Forschungsgrundlage. So riefen diverse Organisationen und Regierungen dazu auf, diese Datenmenge zu nutzen, um Zusammenhänge zu erschließen, die dabei helfen können, diese Pandemie und auch zukünftige Notstände schneller und effizienter bewältigen zu können.
Zu diesem Zweck bietet sich eine Untersuchung und Auswertung mit Hilfe von maschinellem Lernen an. So können Klassifikationsmodelle verwendetet werden, um zuverlässige Diagnosen zu stellen und Clustering Algorithmen, um neue Zusammenhänge aus den Daten zu erschließen. Allerdings bleibt ein Problem bei der Nutzung von maschinellem Lernen: Die Modelle müssen nicht nur funktionieren und akkurate Vorhersagen treffen, sondern allen voran, verständlich und erklärbar sein. Denn gerade im Gesundheitswesen ist es von höchster Wichtigkeit, die Ergebnisse und Diagnosen auch belegen zu können, denn dies schafft Vertrauen in die Technik.
Die Nutzung von Robotern hat stark zugenommen und die Wirkung auf Menschen grundlegend
verändert. Roboter wurden in unsere Gesellschaft eingeführt, jedoch berichten Studien darüber,
dass ihre soziale Rolle immer noch unklar ist (Bartneck & Hu, 2008).
Es gibt es immer mehr Filme, die das Bild von Robotern prägen, zudem gibt es immer mehr
Roboter, die in verschiedenen Kontexten eingesetzt werden, zum Beispiel die Robbe Paro, die Patient:innen in Altenheimen hilft (Schneider, 2021). Auch in Einkaufszentren können Roboter
eingesetzt werden. Hierbei konnte eine Studie in Japan in einer Shopping-Mall zeigen, dass Menschen einen Roboter missbrauchen, vor allem wenn sie sich unbeobachtet fühlen (Nomura et al., 2014). Durch die zunehmende Präsenz von Robotern geriet dieses Phänomen des Robot-
Abuse zunehmend in den wissenschaftlichen Fokus.
Thematisch lässt sich der Gegenstand dieser Abschlussarbeit in ebendiesen Bereich von Robot-
Abuse einordnen, denn sie bezieht sich explizit auf das Empathieverhalten der
Teilnehmer:innen der in dieser Arbeit durchgeführten Studie während eines beobachteten
Robotermissbrauchs. Dabei wird zusätzlich betrachtet, wie sich der Grad der
Anthropomorphisierung auswirkt und wie er wahrgenommen wird. Zudem werden die
unterschiedlichen Wahrnehmungen der Geschlechter betrachtet. Vor diesem Hintergrund soll folgende Forschungsfrage beantwortet werden: Gibt es einen Unterschied im Empathieempfinden in Bezug auf das Geschlecht? Das Ziel der vorliegenden Arbeit ist es dabei,
die Unterschiede im Empathieverhalten bei Robotern mit verschiedenen Graden der
Anthropomorphisierung während eines nonverbalen Robotermissbrauchs zu untersuchen und
einen Überblick über die vorhandene Literatur zu schaffen.
Dafür wird eine Onlinestudie mit einem 2x3-Between-Subjects-Design durchgeführt. In der
Studie werden drei Roboter verwendet: NAO, MiRo-E und der Staubsaugroboter Kobold. Die Teilnehmer:innen sehen eines von drei selbst erstellten Videos, in denen der jeweilige Roboter
getreten wird. Zudem wurde eine Literaturrecherche zu den Themen Anthropomorphismus,
Robot-Abuse, Geschlechterunterschiede und Empathie durchgeführt, um die theoretische Herleitung zu erläutern und aufzuarbeiten.
In dieser Bachelorarbeit werden dafür zunächst die relevanten theoretischen Grundlagen
betrachtet. Diesbezüglich werden in Kapitel 2 die Begriffe Anthropomorphismus, Robot-Abuse,
Geschlechterunterschiede und Empathie erläutert. Anschließend werden die Ergebnisse ausführlich aufgezeigt und diskutiert. Zum Schluss wird in einem Fazit die Eingrenzung dieser
Studie und ein Ausblick auf eine weitere Studie aufgezeigt.
Vor dem Hintergrund der Energieknappheit, des Preisanstiegs und aus Gründen des
Umweltschutzes ist die Energieeffizienz zu einem allgemeinen Anliegen geworden. Ein erheblicher Teil des Energieverbrauchs in den Fertigungsverfahren entfällt auf
Materialabtragungsverfahren. Im Mittelpunkt dieser Arbeit stehen verschiedene Maßnahmen zur Verbesserung der Energieeffizienz von Werkzeugmaschinen, darunter die Optimierung der Hauptaggregate der Maschine, wie z. B. Antriebssysteme und der Nebenaggregate, wie z. B. die Kühlungssysteme und Kühlschmierstoffsysteme, die
Optimierung der Parameter zur Minimierung des Energieverbrauchs mithilfe der Response-Surface-Methode sowie der Leichtbau von Werkzeugmaschinen.
Das Ziel der Arbeit ist die Weiterentwicklung der bestehenden Webapplikation WirHelfen. Basierend auf dem aktuellen Konzept wird eine mobile Applikation in Form einer Nachbarschaftshilfe erstellt. Das Ziel der Bachelorarbeit ist es ein Konzept so wie
ein Grobentwurf einer mobilen Applikation zu schaffen.
Die bestehende Webapplikation WirHelfen wurde erstmals 2021 veröffentlicht. Als ehrenamtlicher Mitarbeiter und Mitglied der gemeinnützigen Organisation WirHelfen, war ich verantwortlich für die erste Konzeptionierung der aktuellen Webapplikation.
Sowohl bei der Konzeption als auch bei der Entwicklung und Umsetzung war ich beteiligt.
Für die Bachelorarbeit wurde eine eigene Architektur entwickelt, um den neuen Anforderungen gerecht zu werden.
Die mobile Applikation wurde anhand der klassischen sechs Schritten der Softwarearchitektur umgesetzt.
Mit der gemeinnützigen Organisationen WirHelfen wurden zu Anfang die
Anforderungen an die mobile Applikation festgelegt.
Während der Konzept- und Designphase wurden zwei Tests Sessions an den Prototypen durchgeführt. Der erste Test ist eine heuristische Evaluation und wurde zusammen mit Expert*innen durchgeführt. Der zweite Test war ein Usability-Test und wurde mit
Nutzer*innen durchgeführt. Anhand des Expertentestes wurde der Prototyp verbessert und die Mobile Applikation umgesetzt. Weitere Verbesserungen an der mobilen Applikation wurden nach dem Usability-Test durchgeführt.
Die bestehende mobile Applikation wird in Zukunft auf dem Android Marktplatz sowie dem Apple Store zur Verfügung stehen.
Ziel der vorliegenden Arbeit ist die Klarstellung, ob Marketing im E-Sport ein gutes Konzept darstellt und die abschließende Erstellung eines Handlungskataloges, die es Unternehmen, die im E-Sport Marketing betreiben möchten, ermöglicht dieses zu planen
und strategisch umzusetzen. Hierfür wird zunächst eine SWOT-Analyse erstellt, die einen systematischen Überblick über die gegenwärtige Marktsituation im E-Sport verschaffen soll. Anschließend erfolgt eine quantitative Studie in Form einer Umfrage, die die Demografie, das Verhalten und die Interessen der Zuschauer/innen im E-Sport aufdecken soll, sodass relevante Inhalte für den Handlungskatalog erkannt und sortiert werden können. Die SWOT-Analyse deckt dabei auf, dass der E-Sport-Markt einen hochtechnologischen Sektor mitsamt einer großen Auswahl an Werbeplattformen darstellt, die gewinnbringend eingesetzt werden können. Die empirische Forschung zeigt, dass Zuschauer/innen im E-Sport nicht nur Werbeinhalte aller Unternehmen akzeptieren, sondern diese auch verstärkt wahrnehmen, da ein hohes Interesse besteht,
den E-Sport über verschiedene Wege zu verfolgen.
Die Digitalisierung des deutschen Gesundheitswesens ist im direkten Vergleich zu anderen Branchen und Gesundheitswesen deutlich im Rückstand. Ursachen für diesen Rückstand sollten identifiziert werden, um aus den gefundenen Faktoren Handlungsempfehlungen zu entwickeln, die dabei helfen sollen künftige Digitalisierungsprojekte effizienter zu gestalten. Zur Identifizierung wurde zunächst eine unstrukturierte Literaturrecherche durchgeführt, gefolgt von Experteninterviews, die den eigentlichen Kern der Arbeit darstellen. Die ausgewählten Probanden stellen Beteiligten des Projektes elektronische Arbeitsunfähigkeitsbescheinigung dar, dessen Projektverlauf evaluiert wurde, um aus den Herausforderungen zu lernen.
Diese Arbeit beschäftigt sich mit der Erstellung einer Administratoroberfläche für die Lehre bei Photovoltaik (PV)-Praktika in der virtuellen Realität (VR). Die erstellte Umgebung bietet, mittels Bildschirmspiegelungen, Möglichkeiten zur didaktischen Anleitung und Unterstützung der Studierenden. Das Thema wurde aufgrund einer bestehenden Lehranwendung in der VR bedeutungsvoll und zeigt deutliches Potenzial. Diese Lehranwendung wird bereits umfassend und verpflichtend in den Praktika eingesetzt. Sie bietet einen praxisnahen Aufbau von Solaranlagen und erhöht gefahrlos die Experimentierfreudigkeit. Mit ihr lassen sich die aufgebauten Anlagen technisch prüfen, simulieren und bewerten. Zudem werden die beiden Möglichkeiten zur Unterstützung der Studierenden beurteilt. Als Ergebnis wird die Umsetzung der nahezu automatisierten Administratorober-fläche verdeutlicht und ein Usability-Test aus den Praktika evaluiert.
Schlagwörter: Administratoroberfläche, Bildschirmspiegelung, C, Didaktik, im-mersiv, Oculus Quest 2, Photovoltaik, Python, Tkinter, virtuelle Realität
Energieeinsparung und Ressourcenschonung werden gerade vor dem Hintergrund der aktuellen politischen, wirtschaftlichen und klimakritischen Situation auch global betrachtet immer wichtiger. In diesem Zusammenhang bietet besonders der Bestandsgebäudebereich ein großes Einsparpotential. Neben der Reduzierung der Heizwärmeverluste
durch eine gute thermische Gebäudehülle und effizienter Anlagentechnik, kann auch durch Einregulierung der Heizungsanlage durch einen hydraulischen Abgleich einiges an Wärmeenergie eingespart werden. Durch eine raumweise Heizlastberechnung aus der sich exakt die zur Raumerwärmung erforderlichen Durchflussmengen ermitteln lassen, können durch geeignete Thermostate in Kombination mit geregelter Hocheffizienzpumpentechnik die erforderlichen Wärmemengen optimiert und dadurch Wärmeverluste reduziert werden.
Das Vorgehen bei der Durchführung eines hydraulischen Abgleichs soll anhand einer geeigneten Lernsituation mittels eines Schulungsstandes (Wilo-Brain-Box) den Studierenden praktisch nahegebracht werden.
Die vorliegende Arbeit untersucht die Eigenschaft Authentizität auf der Video-Plattform TikTok als möglichen Erfolgsfaktor zur Steigerung der Markenbekanntheit. Sie beantwortet drei Forschungsfragen, welche zunächst mithilfe einer Sekundärforschung untersucht werden. Dabei wird der Begriff Markenauthentizität in Bezug auf TikTok erörtert und die Grundlagen des Social Media Marketings erforscht. Die erarbeiteten Erkenntnisse und Methoden bilden die Grundlage für die Formulierung von vier Hypothesen.
Zur Überprüfung der Hypothesen folgt im Anschluss eine empirische Forschung in Form einer Online-Umfrage, bei welchem das Unternehmen Abihome GmbH als Fallbeispiel dient. Das Unternehmen eignet sich aufgrund seiner noch ausbaufähigen Präsenz auf der Plattform TikTok für dieses Vorhaben. Die gewonnenen Daten der empirischen Studie werden mit denen der Sekundärforschung kombiniert und ausgewertet, um Handlungsempfehlungen für Unternehmen abzuleiten, welche ihre Brand Awareness mithilfe eines authentischen Auftrittes auf TikTok optimieren wollen.
Die fortgeschrittene Entwicklung von AR, VR und MR ermöglichen ein
breites Anwendungsspektrum der Technologie. Das Ziel der vorliegenden
Bachelorarbeit ist es herauszufinden ob der Einsatz von AR, VR und MR
Potenzial in der innerbetrieblichen Weiterbildung in nicht produzierenden Branchen hat. Dazu wurden folgenden Forschungsfragen aufgestellt: Wird AR, VR oder MR bereits in nicht technischen Bereichen für die innerbetriebliche Weiterbildung angewendet? Welche Anforderungen müssen erfüllt sein, um MR in der innerbetrieblichen Weiterbildung einzusetzen? Unterscheiden sich die Meinungen hinsichtlich des Potenzials von MR in der innerbetrieblichen Weiterbildung von Führungskräften zu nicht Führungskräften?
Um die Forschungsfragen zu beantworten, wurde eine Literaturrecherche
und eine quantitative Befragung durchgeführt. AR, VR und MR in der
innerbetrieblichen Weiterbildung in nicht produzierenden Branchen sind
bereits Bestandteil in unterschiedlichen Studien. Die Literaturrecherche und die Befragung ergaben zudem, dass die Technologie bereits in unterschiedlichen nicht produzierenden Branchen angewendet wird.
Ziel der hier vorgestellten Arbeit ist es, Handlungsempfehlungen für einen forcierten Photovoltaik-Ausbau zu nennen. Dazu wird die folgende Forschungsfrage gestellt: Welche Handlungen sind notwendig, um das PV-Ziel der Bundesregierung - 215 GW installierte PV Leistung bis zum Jahr 2030 - zu erreichen? Um die Frage zu beantworten, wird auf die aktuelle gesetzliche Grundlage eingegangen und Rahmenbedingungen identifiziert, die dem Photovoltaik-Ausbau entgegenstehen und entsprechende Handlungsempfehlungen genannt. Das Osterpaket steht hierbei im Vordergrund, da dieses die gesetzliche Grundlage für das Erneuerbare-Energien-Gesetz 2023 bilden soll. Auch wird vor dem Hintergrund des Ukraine-Krieges und der damit angespannten Lage der Energieversorgung auf das Thema Bezug genommen. Zur Bearbeitung des Themas wird speziell auf Photovoltaik-Dachanlagen, Freiflächenanlagen und Anlagen, die nicht über das Erneuerbare-Energien-Gesetz gefördert werden, eingegangen. Es zeigt sich, dass am Osterpaket noch Handlungsempfehlung besteht, weshalb am Ende spezifische Änderungs-vorschläge für Paragraphen genannt werden.
Gegenstand der hier vorgestellten Arbeit ist die Umsetzung und die Analyse des Vorgehens
einer gezielten Steigerung der Photovoltaik-Quote in ausgewählten Stadtteilen
in Deutschland mit dem Ziel, die von der Bundesregierung angeordneten Klimaziele
sowie die Treibhausneutralität bis zum Jahr 2045 zu erreichen. Die hier vorliegende
Arbeit unfasst sowohl die Vorbereitung für die Umsetzung ausgewählter Kommunikationsstrategien
als auch durchgeführte Beratungen sowie Interviews. Auf diese Weise
wird die in der Ausarbeitung vorgestellte theoretische Vielfalt der Umweltpsychologie
und der theoretische Hintergrund praktisch angewendet und die Verhaltensweisen der
befragten Bürgerinnen und Bürger analysiert und ausgewertet. Darauf aufbauend wird
der gegenwärtige Wissensstand bezüglich der Photovoltaik und die Signifikanz des
Umweltschutzes transparent. Es ist auffällig, das der Begriff „Photovoltaik“ noch nicht
im Volksmund angekommen ist und somit Aufklärungsbedarf herrscht. Durch eine Analyse
und Bewertung der üblichen Verhaltens- sowie Vermeidungsmuster von Bürger*innen bezüglich einer alternativen Stromversorgung, kann eine zielorientiertere sowie Verhaltensangepasste Strategie entwickelt werden. Sowohl die des Einflusses des eigenen Handelns auf die Umwelt als auch die Art der Umweltwahrnehmung werden
unterschätzt. Die Nachfrage nach Photovoltaik steigt vor dem Hintergrund der
Energiekrise in Verbindung mit der erfolgreichen Beratungsstrategie rasant.
Motivation beschreibt das Bestreben nach Wirksamkeit und der Organisation seine Ziele zu erreichen oder sich von diesen zurückzuziehen (vgl. 3.1). Das Ziel des Arbeitenden im Einzelhandel ist es, Geld zu verdienen (vgl. 5.3.3). Das Geld wird benötigt, um andere Motive zu befriedigen (vgl. 3.2.3 und 3.2.4). Das Ziel ist es also, die unterschiedlichen Mangelempfinden mithilfe des Geldes zu befriedigen. Das Motiv erklärt dabei die Beweggründe menschlichen Handelns, um seine Ziele zu erreichen. Diese sind anhand von sichtbaren Handlungen erkennbar, lassen allerdings nicht so leicht auf die Handlungsabsicht schließen (vgl. 3.2 und 3.5). Auch externe Anreize sind in der Lage, ein Mangelempfinden auszulösen (vgl. 3.4). Dies ist anhand der Umfrageauswertung aus Kapitel 5.3.10 erkennbar, in der die Befragten allein durch das Wissen, dass ihre Arbeitskollegen
mehr verdienen, ihr Gehalt als gering empfinden. Ein Mangel führt nicht zwangsläufig zu einer sofortigen Handlung, stößt aber zumindest einen Denkprozess an, in dem die Situation mit den Handlungsoptionen verglichen wird, um dieses Mangelempfinden zu beheben (vgl. 3.2.6 und 4.3).
Kurzfassung
Gegenstand der hier vorgestellten Arbeit ist die Untersuchung des Einflusses der Modellbildung auf die rechnerischen Ermüdungsnachweise orthotroper Fahrbahnplatten. Dazu wurde eine orthotrope Fahrbahnplatte, die den geltenden Konstruktionsempfehlungen entspricht, mit der Software SOFiSTiK als Stabwerksmodell, Stabwerksmodell mit Schalendeckblech (kombiniertes Modell) und FE-Modell modelliert. Anschließend wurden Ermüdungsnachweise mit den Ermüdungslastmodellen (ELM) 3 und 4 für zwei Konstruktionsbereiche berechnet.
Die Ergebnisse zeigen eindeutig, dass die Modellbildung Einfluss auf die Ergebnisse der Ermüdungsnachweise für die in dieser Arbeit ausgewählte Konstruktion hat. Für möglichst genaue und plausible Nachweisergebnisse ist die Anwendung des FE-Modells in Kombination mit dem ELM 4 zu empfehlen. Ein erster grober Überblick über die Ermüdung orthotroper Fahrbahnplatten kann jedoch mit allen Berechnungsmodelle und unter Anwendung von ELM 3 erzielt werden. Entgegen den normativen Vorgaben wird in An-betracht der Ergebnisse die Durchführung von Ermüdungsnachweisen auch für Neubauprojekte empfohlen.
Schlagwörter: Modellbildung, Ermüdungsnachweis, orthotrope Fahrbahnplatten, Brü-ckenbau
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
Die vorliegende Arbeit befasst sich mit der Ausarbeitung einer Handlungsempfehlung zur Implementierung von Business Intelligence (BI) Software. ,,BITools sind Werkzeuge, die Auswertungsverfahren von internen und externen Unternehmensdaten, sowie quantitative Verfahren für Planungs-, Entscheidungs- und Controllingzwecke softwaremäßig für Manager bereitstellen, um Geschäftslagen, -entwicklungen und -prozesse im Unternehmen zu analysieren.“1 Zu Beginn wird ein grundlegendes Verständnis der Materie aus dem aktuellen Stand der Wissenschaft definiert. Anschließend wird eine vom Autor umgesetzte Implementierung retrospektiv bewertet. Auf Grundlage dieser Bewertung, den gesammelten Erfahrungen des Autors und der Theorie findet eine gezielte Handlungsempfehlung zur Implementierung von BI statt. Die Anfänge von Auswertungsverfahren begann in den 60er Jahren. Lenz berichtet in seinem Buch Business Intelligence von persönlichen Erfahrungen wie Daten 1964 ausgewertet wurden. Hierbei wurde durch Tabellierungen seitenlange Papierbahnen gedruckt. Papierstapel von guten 25cm Höhe wurden händisch komprimiert und dem Vorgesetzten zur Verfügung gestellt. Bis in die 90er Jahre war dies kein unübliches Vorgehen in der deutschen Wirtschaft.2 Damals wurden erste Computeranwendungen entwickelt, mit der Funktion, eine Entscheidung zu stützen. Im Jahr 1980 wurde festgestellt, dass hierfür das Wasserfallmodell als Vorgehensweise zu statisch ist, um auf die wechselnden Anforderungen an Auswertungssystemen zu reagieren. Somit wurde damals auf agiles Vorgehen und Design wie beispielsweise Scrum3 gesetzt. Ende der 80er wurden die ersten Dashboards, Scorecards und OLAP als Werkzeuge eingesetzt. Im Jahr 1990 wurden die ersten BI-Infrastrukturen entwickelt. Diese wurden bis 2006 für einzelne Abteilungen und nicht abteilungsübergreifend eingesetzt.