Refine
Year of publication
Document Type
- Bachelor Thesis (98)
- Master's Thesis (31)
- Conference Proceeding (23)
- Article (12)
- Part of Periodical (10)
- Book (3)
- Report (3)
- Part of a Book (2)
- Doctoral Thesis (2)
- Working Paper (2)
Language
- German (144)
- English (41)
- Multiple languages (1)
Has Fulltext
- yes (186) (remove)
Is part of the Bibliography
- no (186)
Keywords
Institute
- Fachbereich 1 - Institut Informatik (59)
- Fachbereich 2 - Wirtschaftsinstitut (51)
- Fachbereich 4 - Institut Mess- und Senstortechnik (41)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (10)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
Die Masterarbeit untersucht die Rolle des Chief Digital Officers (CDO) im Kontext der digitalen Transformation von Unternehmen, mit einem Fokus auf die Variation dieser Rolle in Abhängigkeit vom digitalen Reifegrad des Unternehmens. Sie bietet eine umfassende theoretische Grundlage und erläutert Konzepte wie Leadership im digitalen Zeitalter, digitale Transformation und die digitale Reife eines Unternehmens.
Durch die Integration empirischer Forschung analysiert die Arbeit die Rolle des CDO in Unternehmen verschiedener digitaler Reifegrade und untersucht, wie sich Verantwortlichkeiten, Aufgaben und erforderliche Fähigkeiten je nach Reifegrad unterscheiden. Mittels einer quantitativen Forschungsmethode wurden Daten gesammelt, um Einblicke in die Gestaltung und Wahrnehmung der CDO-Rolle zu gewinnen.
Die Ergebnisse verdeutlichen, dass die Rolle des CDOs entscheidend für die Leitung und den Erfolg der digitalen Transformation ist. Diese Rolle passt sich dynamisch an den digitalen Reifegrad des Unternehmens an und vereint strategische, technologische sowie Führungskompetenzen. Obwohl die Kernverantwortlichkeiten und -aufgaben des CDOs weitestgehend unabhängig vom digitalen Entwicklungsstand des Unternehmens sind, zeigen sich deutliche Unterschiede in den benötigten Fähigkeiten und Kompetenzen, insbesondere in Unternehmen mit fortgeschrittener digitaler Maturität, die ein breiteres Spektrum an Kenntnissen erfordern.
Die Studie betont, wie essenziell eine maßgeschneiderte Besetzung der CDO-Position basierend auf den individuellen Bedürfnissen, Zielen und der digitalen Reifephase des Unternehmens ist. Sie liefert nicht nur Einblicke in die praktische Umsetzung dieser Führungsrolle, sondern auch konkrete Vorschläge zur Optimierung der CDO-Rolle für eine erfolgreiche digitale Transformation.
Abschließend werden aus den gewonnenen Erkenntnissen handlungsorientierte Empfehlungen für das Management von Unternehmen mit unterschiedlichem digitalen Entwicklungsstand abgeleitet. Diese bieten Perspektiven für künftige Entwicklungen in der digitalen Ära und unterstreichen die zentrale Bedeutung der individuellen Anpassung an die digitale Reifephase des Unternehmens.
Stationäre Rohrströmungen
(2024)
Am 19.03.2023 wurde die Credit Suisse an einem Wochenende als Ultima Ratio mit der UBS fusioniert. Vorausgegangen waren einige Managementfehler, Fehler bei der Auswahl der Kunden sowie ungünstige Entwicklungen am Gesamtmarkt, die diesen Schritt ausweglos erscheinen lassen. In dieser Arbeit werden die Grundlagen zur Identifizierung der Probleme und eine Einordnung des historischen Hintergrunds vorgenommen.
Bereits bei der Einführung des Basel III Regelwerkes im Jahr 2019 wurden Stimmen laut, welche das neue „Allheilmittel“ für Banken im Bereich des zusätzlichen Eigenkapitals, die Contingent Convertible Bonds als durchaus problematisch ansahen. Insbesondere der Fall eines tatsächlichen Ausfalls der Zinszahlung und/oder Ausfall der Rückzahlung und deren Auswirkungen auf den Gesamtmarkt wurden kontrovers diskutiert. Es gab Positionen, welche davon ausgingen, dass der Markt für Emissionen solcher Finanzinstrumente im Falle eines Triggers einer einzigen Anleihe durch einen erheblichen Vertrauensverlust temporär oder sogar endgültig zum Erliegen käme.
Der Autor der Arbeit erarbeitet anhand der Betrachtung von Option-Adjusted-Spreads eine Grundlage zur Analyse des Vertrauensverlustes, welcher im Jahr 2023 durch den ersten Trigger einiger CoCos bei der Credit Suisse ausgelöst worden ist.
OA-Spreads sind in diesem Zusammenhang das Mittel der Wahl da:
1.
Die Ausgestaltung der betrachteten Finanzierungsmittel sehr heterogen ist und daher schwer vergleichbar sind
2.
Zur Zeit der Betrachtung auch die Entwicklung der globalen Leitzinsen an Fahrt aufgenommen hatte. Um diese Effekte weitestgehend ausblenden zu können empfiehlt sich hier eine möglichst unabhängige Betrachtung, eben in Form der OA-Spreads.
Anhand der Analyse ist festzustellen, dass der Vertrauensverlust zu diesem Zeitpunkt durchaus mess- und spürbar war, allerdings nicht in einem Ausmaß, wie dies zuvor befürchtet worden war.
War im Vorfeld mit möglichen Wertverlusten über alle Ausstehenden CoCos hinweg in Größenordnungen von um die 15% die Rede, Lassen sich in der Auswertung lediglich 6% Wertverlust durch den Zeitlichen Bezug belegen.
Zudem ist der Emissionsmarkt im Anschluss an die Credit Suisse Übernahme zwar zum Erliegen gekommen, von längerfristigem Vertrauensverlust oder gar einem vollständigen Zusammenbrechen des Marktes kann, der Beobachtung nach, nicht die Rede sein. Ganz im Gegenteil, bereits 3 Monate nach den Geschehnissen um die Credit Suisse konnte der erste CoCo in Benchmark-Größe (1 Milliarde EUR) begeben werden und innerhalb des Emissionsablaufs sogar ein so hohes Investoreninteresse registriert werden, dass der Kupon im Verlauf der Emission um 0,375% gesenkt werden konnte.
Zusammenfassend ist zu sagen, dass die Auswirkungen der Wandlung der Credit Suisse CoCos spürbar, aber nicht dauerhaft einschränkend für den Markt war. CoCos scheinen sich also als widerstandsfähig gegen negative Einflüsse der Wandlung zu präsentieren.
This thesis examines the role of economy in the transformation of Japanese energy supply. In 2021, following the Paris Agreement example, the Japanese Government formulates their “6th Energy plan” to realize the country's national energy policy aims to reduce CO2 emissions and secure energy supplies while increasing economic efficiency. This entails an emission reduction target of nearly 50 % compared to 2013 by 2030 and a complete greenhouse gas emission neutrality target by 2050. In order to achieve these Japan plans to reduce traditional combustibles fuels and introduce renewables as main sources, while nuclear energy will be used as support and safety load. The Japanese Government ensures of the necessity of the nuclear technology in spite of the critical effects the Fukushima accident had on the nation.
Japans energy supply depends by majority on fuel imports. The rising prices of fossil fuels, which are due to the Russian aggression, are causing economic hardships in Japan, which the Government is attempting to contain. These hardships are one of the assumed reasons of the sudden changes in the energy policies. Two hypotheses are established. The first one is that the METI is the main contributor of policy making and main force of the energy transfor-mation, therefore economic reasons guide the energy plan. The second one is that the nuclear energy is preferred because of complex external factors, like stakeholder and historical pecu-liarities of the energy sector. Most importantly, climate protection is only of secondary im-portance in the energy transformation. Asserting that economical motives are the main drivers of energy transformation, the Japanese 6th energy strategy is therefore analyzed. The Rational Choice theorem is chosen to be the academic foundation of this thesis. The theory describes a decision-making process which compares alternative paths of action and identifies the most suitable choice. Main elements are the “decision-making rule” and an “environmental-factor”. In the analysis of this thesis a "cost reducing" decision rule is adopted. The analysis consists of two parts in which these elements are analyzed.
The analysis is resulting in the recognition of METI as the most influential political organ. Ad-ditionally, the transformation of Japanese energy supply is heavily influenced by extern parties, especially the industry and businesses. The Keidanren and members of the “nuclear village” are found to be influencers and driving forces for nuclear energy. Furthermore, the analyze underlines the clear preference of METI for nuclear energy. Although different opinions in the midst of Japanese government (first and foremost the MOE) exist, there are no real competitor against METIs policy making. The thesis concludes that as long as METI and its beneficiaries are not willing to change the energy mix, nothing is changing. The academic research has demonstrated that even a more ambitious plan and a greater commitment to renewable ener-gies can achieve base load capability, but the government does not welcome such plans.
Im Rahmen der vorliegenden Bachelorarbeit in Kooperation mit der Hospitaltechnik Planungsgesellschaft mbH wurden die möglichen Effekte eines verteilten Alarmsystems von Dräger und tetronik auf die Arbeitsqualität der Pflegekräfte auf Intensivstationen untersucht.
Dazu wurde eine Online-Befragung via Microsoft Forms mit den Intensivpflegekräften der Karl-Hansen-Klinik in Bad Lippspringe und der Spezialklinik Jugenheim in Jugenheim durchgeführt. Hierbei besitzt die Intensivstation Bad Lippspringe das verteilte Alarmsystem der
Unternehmen Dräger und tetronik, wohingegen die Intensivstation Jugenheim keins besitzt. Mit Hilfe selbstständig durchgeführter Interviews wurden sowohl die befragten Intensivstationen in
ihrem Aufbau dargestellt als auch das verteilte Alarmsystem in seiner Beschaffenheit und Funktion vollständig erläutert. Die Daten aus der Online-Befragung wurden mit Hilfe eines einseitigen Zweistichproben t-Tests ungleicher Varianzen ausgewertet.
Die Auswertung der Online-Befragung ergab acht signifikante Ergebnisse, die auf eine bessere Arbeitsqualität in der Intensivstation mit dem verteilten Alarmsystems von Dräger und tetronik hinweisen. Jedoch fiel die Mehrheit der 25 Mittelwertsunterschiede nicht signifikant aus.
Schlussfolgernd ist davon auszugehen, dass der positive Effekt eines verteilten Alarmsystems auf Intensivstationen noch nicht zu genüge erreicht ist. Es ist daher anzustreben, dass das verteilte Alarmsystem weiterhin verbessert wird, sodass auch die restlichen untersuchten
Effekte signifikant werden.
In dieser Arbeit wird das Problem der "Kontrolle mehrerer Quadrokopter zur Durchführung einer kooperativen Aktion"diskutiert. Das Hauptproblem dieses Themas ergibt sich aus der Komplexität der Positionsbestimmung und Identifizierung von Quadrokopter, insbesondere in komplexen Umgebungen bei der Durchführung kooperativer Aktionen.
Ziel ist durch Python die Entwicklung eines Verfolgungs- und Steuerungssystems, bei dem einer der Haupt-Quadrokopter (grüne Farbe) von einer Handy-App gesteuert wird und jede beliebige Position anfliegen kann, während die anderen Quadrokopter (rot markiert) ihm automatisch folgen und eine bestimmte Formation einhalten, so
dass eine Zusammenarbeit möglich ist. Diese automatische Verfolgung basiert auf der Positionserfassung des Quadrokopters durch zwei feste Kameras im Raum und der Ausführung der zugehörigen Algorithmen.
Die in diesem Beitrag vorgeschlagene Methode basiert auf der Farbsegmentierung zur Erkennung von Quadrokoptern und zur Bestimmung ihrer Weltkoordinaten mit Hilfe eines konvergenten binokularen Kamerasystems. Durch Anwendung der Stereo-Vision- Matching-Methode, die auf dem Global-Optimum-Algorithmus basiert, wird der Abgleich
der Bilder abgeschlossen und die Weltkoordinaten aller Quadrokoptern werden bestimmt. Schließlich folgt der rote Quadrokopter der Bewegung des Hauptquadrokoptern und arbeitet mit ihm zusammen, um die vorgegebene Aufgabe zu erfüllen. Am Ende dieses Artikels wird deutlich, wie das System entworfen, entwickelt und getestet wurde.
Im Rahmen dieser Arbeit wird zunächst ein Überblick über die Grundlagen des maschinellen Lernens und über verschiedene Methoden der digitalen Bildqualitätsbewertung gegeben.
Eine dieser Methoden wird näher betrachtet und es werden mögliche Probleme für das Training von neuronalen Netzwerken, insbesondere von Netzwerken zur Bildqualitätsbewertung herausgearbeitet.
Dieses Problem wird quantifiziert und es werden zwei grundlegende Verfahren zur Lösung entworfen. Dabei wird jeweils ein separates Konzept entwickelt und ausgewertet.
Die beiden Ansätze werden in einem direkten Vergleich unter verschiedenen Gesichtspunkten gegenübergestellt und es wird der vielversprechendere davon ausgewählt.
Der ausgewählte Lösungsansatz wird implementiert und in ein bereits existierendes Netzwerk zur Bildqualitätsbewertung integriert. Die Leistung des modifizierten Netzwerkes wird mit dem Original verglichen.
Sensor-/Aktorsystem zur Überwachung und Unterstützung der Thermoregulation von Intensivpatienten
(2023)
Diese Bachelorarbeit ist dem Thema Sensor-/Aktorsystem zur Überwachung und Unterstützung von Intensivpatienten gewidmet, einem Bereich, der durch schnelle Fortschritte in der Technologie und der Biomedizin beeinflusst wird. Hier bildet die Körperkerntemperatur einen entscheidenden Bestandteil und einen bedeutenden physiologischen Parameter, der nicht nur für die Funktion des menschlichen Körpers wesentlich ist, sondern auch wertvolle Informationen über den Gesundheitszustand eines Patienten liefert. Im Rahmen dieser Arbeit werden sowohl die physiologische Bedeutung als auch die technologischen Methoden zur Messung der Körperkerntemperatur behandelt. Das Ziel ist, ein Verständnis für die Notwendigkeit einer präzisen Überwachung dieser Parameter bei Intensivpatienten zu entwickeln, indem die Grundlagen der Körperkerntemperatur und ihre Bedeutung für den Organismus im Fokus stehen. Die Einbeziehung von Sensor- und Aktorsystemen in die Intensivmedizin verspricht eine bessere Pflege und klinische Entscheidungsfindung, was zu optimierten Behandlungsergebnissen führen kann. Das Thema der vorliegenden Arbeit hat eine Relevanz für die moderne Gesundheitsversorgung und intendiert wird, Einblicke in innovative Ansätze zur Verbesserung der Pflege von Intensivpatienten zu bieten. Zudem soll die Gesundheitsversorgung der allgemeinen Gesellschaft weiter vorangebracht werden.
In this scientific research, an innovative sensor system is developed to prevent child heatstrokes in vehicles. The system incorporates a 24 GHz Continuous-Wave (CW) radar system, which identifies vital signs of an infant through a 4-by-1 patch antenna array embedded in a specifically designed circuit board. Intelligent signal processing algorithms analyze data generated by the radar chip and execute processing tasks on a robust microcontroller. The child’s respiration
rate can be extracted qualitatively from the data in nearly real-time, enabling the system to differentiate between a child and a mere shopping bag on the seat. In the event of identifying a critical condition, the system transmits this information via a data bus to a central ECU within the vehicle. This ECU is integrated with GSM and GPS connections, allowing communication with the driver or emergency services. The development of the sensor system adheres to existing
automotive industry standards, featuring a cost-effective design intended as a prototype for large-scale production. Through rigorous evaluation across various scenarios, including realworld
situations with children, the sensor system is refined. The continuously reliable function of the developed radar-based sensor system holds the potential to save children’s lives, making
a major contribution to automotive safety.
Entwicklung einer Simulationsumgebung zur Ermittlung der Verluste Moderner Leistungstransistoren
(2023)
In dieser Bachelorarbeit liegt der Fokus auf der Simulation von Leistungselektronikkomponenten, wobei insbesondere MOSFETs und IGBTs im Mittelpunkt stehen. Der Verwendung von modernen Leistungshalbleiterbauteilen in elektrischen Schaltungen kommt eine immer größere Bedeutung zu, da sie die Effizienz und Leistungsfähigkeit von Energiewandlern und Invertern maßgeblich beeinflussen. Um ihre Funktionalität und Leistung unter verschiedenen Bedingungen zu verstehen und optimieren zu können, ist die Simulation ein unverzichtbares Werkzeug.
Ein wesentlicher Schwerpunkt liegt auf dem Vergleich zwischen Silizium (SI) und Siliziumkarbid (SiC) MOSFETs in einem Halbbrücken-Inverter. Hierbei werden Simulationen unter verschiedenen Temperaturen durchgeführt, um die Auswirkungen von Temperaturschwankungen auf das Verhalten dieser Transistoren zu untersuchen. Die Ergebnisse ermöglichen Einblicke in die Leistungsfähigkeit und Vor- und Nachteile der beiden Materialien in unterschiedlichen Anwendungen.
Des Weiteren wird die Simulation eines IGBTs (Insulated Gate Bipolar Transistor) eingehend untersucht. Dies umfasst die Analyse seiner elektrischen Eigenschaften sowie die Simulation und Darstellung der Einschaltverluste (EON) und Ausschaltverluste (EOFF). Die Simulationen werden mithilfe von LTspice durchgeführt, und die Verluste werden numerisch in MATLAB integriert. Diese Untersuchungen tragen dazu bei, das Verhalten von IGBTs in Schaltungen besser zu verstehen und tragen zur Optimierung von Leistungselektroniksystemen bei.
Die vorliegende Arbeit bietet somit einen umfassenden Einblick in die Simulation und Analyse von Leistungselektronikkomponenten unter verschiedenen Bedingungen und trägt zur Entwicklung effizienterer und zuverlässigerer elektrischer Schaltungen bei.
Diese Arbeit konzentriert sich auf die Erstellung einer umfassenden technischen Dokumentation für ein Medizinprodukt der Klasse IIa gemäß den Anforderungen der Medical Device Regulation (MDR) 2017/745. Das Hauptziel besteht darin, eine konforme Dokumentation zu entwickeln, die alle wesentlichen Aspekte der Produktentwicklung, Herstellung und Verwendung abdeckt. Besonderes Augenmerk wird darauf gelegt, die regulatorischen Anforderungen der MDR zu erfüllen, um die Sicherheit und Wirksamkeit des Produkts zu gewährleisten und eine Zulassung für den europäischen Markt zu ermöglichen. Die verschiedenen Bestandteile der technischen Dokumentation, einschließlich klinischer Bewertungen, Risikomanagement, Validierungstests, Konformitätsbewertungen und Kennzeichnung, werden gründlich untersucht. Es wird eine systematische und strukturierte Herangehensweise präsentiert, um eine erfolgreiche Konformitätsbewertung für das hier beschriebene Medizinprodukt der Klasse IIa zu erreichen. Die Ergebnisse dieser Arbeit tragen dazu bei, die Qualität und Sicherheit des hier bearbeiteten Medizinproduktes der Klasse IIa zu verbessern und somit die Patientensicherheit zu gewährleisten.
In einer Zeit rasanter technologischer Entwicklungen steht die Automobilindustrie, besonders in Deutschland, vor einem Paradigmenwechsel. Die Digitalisierung beeinflusst alle Bereiche des Lebens, und ihre Integration in die Geschäftsprozesse ist unerlässlich geworden, um wettbewerbsfähig zu bleiben. Innerhalb dieses Kontextes untersucht die vorliegende Arbeit die Möglichkeiten zur Optimierung von Einkaufsprozessen in der Automobilindustrie durch den Einsatz von Industrie 4.0 Technologien. Anhand einer umfassenden Analyse des aktuellen Stands der Technologieintegration wird eruiert, inwiefern diese Technologien bereits Bestandteil der Einkaufsprozesse sind und welches Potenzial sie noch bieten könnten. Ein zentraler Bestandteil der Arbeit ist die Durchführung einer Nutzwertanalyse. Hierbei werden Technologien basierend auf verschiedenen Kriterien, darunter Wirtschaftlichkeit, technologischer Reifegrad, Qualität, Integrationsfähigkeit und sozialen Aspekten, bewertet. Das Ergebnis liefert nicht nur eine klare Bewertung der Eignung jeder Technologie für den Einkaufsprozess, sondern bietet auch konkrete Empfehlungen für deren Implementierung. Abschließend skizziert die Arbeit einen zukunftsfähigen Entwicklungspfad für die Einkaufsprozesse in der Automobilindustrie, der sowohl aktuelle technologische Entwicklungen als auch voraussichtliche Marktveränderungen berücksichtigt. Insgesamt soll diese Arbeit als Leitfaden für Unternehmen der Automobilindustrie dienen, die bestrebt sind, ihre Einkaufsprozesse in der Ära der Digitalisierung zu optimieren.
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.
Um die Ziele der Bachelorarbeit schrittweise zu erreichen, wird im Folgenden eine Einführung in die DIN EN 80001-1 gegeben. Danach wird die Methode zur Einführung der Norm im AGAPLESION DIAKONIEKLINIKUM ROTENBURG präsentiert, wobei auf die Struktur der Dokumentation und die Einführung der Prozesse eingegangen wird. Im letzten Schritt wird die Implementierung anhand eines Beispiels durchgeführt. Hierbei wird geprüft, wie gut die Norm umsetzbar ist und welche Probleme dabei auftreten. In der Zusammenfassung werden alle Informationen verknüpft und die daraus resultierenden Probleme vorgestellt und anschließend diskutiert.
Inverter auf Basis der Pulsweitenmodulation dominieren in dem heutigen Stand der Technik. Wie bei den meisten elektronischen Einrichtungen entstehen während ihres Betriebs mehr oder weniger ungewollte Störungen, welche zur Beeinträchtigung der Funktion von anderen Geräten oder elektronischen Schaltungen führen. Die dafür angewandten technischen Gegenmaßnahmen scheinen meist aufwandmäßig hoch zu sein insbesondere bei kritischen elektrischen Einrichtungen. Dank der Resonanzinvertertopologie wird dieser Aufwand zum größten Teil erspart. Der Aufbau und die Funktionsweise der beiden Invertertopologien werden einzeln erläutert. Nach einigen Simulationsdurchführungen, welche unter verschiedenen Betriebsfrequenzen nacheinander erfolgen, werden die beiden Inverter gegenübergestellt und Mithilfe der Simulationsergebnisse verglichen. Aus den allgemeinen Vergleichen stellt sich heraus, dass die Resonanzinvertertopologie insbesondere bei niedrigen Frequenzen im EMV-Aspekt sowie unter Betrachtung der Leistungsfähigkeit den SVPWM-Inverter gewinnt. Während der Resonanzinverter in den niedrigen Frequenzen mehr Störaussendungen als der SVPWM-Inverter produziert, ist das Phänomen bei höheren Frequenzen eher invers.
Für eine Automatisierung des Walzvorgangs von rundem Walzgut muss die Geschwindigkeit bekannt sein. Wegen der gekrümmten Oberfläche von rundem Walzgut können nicht die gleichen Verfahren wie bei flachem Walzgut verwendet werden, ohne negativen Einfluss auf die Toleranz und Sicherheit zu nehmen. Unter Berücksichtigung der Umgebung des Walzwerks wurden zwei Kantendetektoren entwickelt, die einen Puls erzeugen, dessen Dauer der Zeit entspricht, die der Anfang oder das Ende des Walzguts vom ersten bis zum zweiten Kantendetektor benötigt. Durch den bekannten Abstand zwischen der Sensoren kann auf diese Weise über die Zeit die Geschwindigkeit berechnet werden. In dieser Arbeit wurde eine Auswerteelektronik entwickelt, die diese Zeit Intervalle mit einer Auflösung von 5 ns und einer maximalen Abweichung unter 0,002 % messen kann. Sie verwendet einen Synchrongleichrichter, wodurch verrauschte Signale gemessen werden können und einen 32-Bit Timer, der mit einer 200 MHz Taktquelle betrieben wird. Um die Kantendetektoren anzuregen wurde ein DDS implementiert, der 10V Sinussignale bis zu 20 MHz generieren kann. Alle digitalen Schaltungen wurden in einem FPGA implementiert.
Mit einer Angebotspflicht für Mehrwegverpackungen in der Gastronomie schafft der Gesetzgeber eine rechtliche Grundlage dafür, dass Konsument:innen grundsätzlich eine Wahlfreiheit zwischen Mehrweg und Einweg haben. Diese am 01.01.2023 in Kraft getretene Pflicht gilt für Einwegverpackungen mit Kunststoffanteil. Gleichzeitig gibt es Ausnahmen und Erleichterungen für kleine Betriebe. Sowohl gegenwärtig als auch bei einer Revision der Mehrweg-Angebotspflicht, gilt es auf die Anforderungen der Konsument:innen zu reagieren.
Der vorliegende Abschlussbericht soll hierzu einen Baustein darstellen. Mittels einer Online-Befragung mit einem standardisierten Fragebogen wurde untersucht, welchen Einfluss die Eigenschaften Pfandhöhe, Pfandvaluta, Rückgabemöglichkeiten, zeitlicher Mehraufwand sowie das Material der Mehrwegverpackung auf die Bereitschaft zur Nutzung der Konsument:innen haben.
Im Rahmen der Befragung entschieden sich die Teilnehmer:innen in 85% der Fälle für eine Mehrwegverpackung. Für die befragten Personen war dabei die Recyclingfähigkeit sowie eine Vielzahl an Rückgabemöglichkeiten besonders wichtig. Die Pfandhöhe und der zeitliche Mehraufwand sind dem nachgeordnet. Beide Eigenschaften weisen eine ähnliche Bedeutung für die Befragten auf. Relativ unbedeutend ist hingegen der Zeitpunkt, an dem das Pfand fällig wird. Hier wird eine sofortige Zahlung präferiert. Die Bereitschaft zur Nutzung hängt zudem davon ab, ob die Speisen und Getränke zuhause oder unterwegs verzehrt werden und ob sie abgeholt oder geliefert werden.
Einen zweiten Baustein der Untersuchung bilden die Expert:innen-Interviews. Hierbei wurden Verbraucherschützer:innen, Vertreter:innen der Gastronomie sowie Anbietende von Mehrwegverpackungssystemen zu ihrer Einschätzung hinsichtlich der Mehrweg-Angebotspflicht befragt.
Die Analyse der Expert:innen-Interviews zeigt einen wesentlich pessimistischeren Blick auf die Bereitschaft der Verbraucher:innen Mehrwegverpackungen zu nutzen. Die Verfügbarkeit eines übergeordneten Mehrwegsystems mit einer Vielzahl von Rückgabestellen wird als erstrebenswert und notwendig für eine massentaugliche Mehrweganwendung gesehen. Gleichzeitig werden Verbraucher:innen heute noch nicht im zufrieden-stellendem Maß auf die Entscheidungsmöglichkeit für Mehrweg aufmerksam gemacht. Die recht großzügigen Ausnahmen von der Mehrweg-Angebotspflicht sollten aus Sicht der Expert:innen möglichst abgeschafft werden. Dies dient zum einen dem Entgegenwirken einer Wettbewerbsverzerrung zugunsten von Einweg, zum anderen betreffen die Ausnahmen sehr viele Betriebe, sodass die Wirkung des VerpackG erheblich gesenkt wird.
Das Themenfeld Industrie 4.0 gewinnt mit der fortschreitenden Digitalisierung und neuen Technologien immer mehr an Bedeutung. Während LEAN Manufacturing in vielen Unternehmen bereits im Einsatz ist, sind die eingesetzten Methoden nicht an das aktuelle digitale Zeitalter angepasst. LEAN 4.0, die Kombination von Industrie 4.0 und Lean Manufacturing, wird für Unternehmen daher immer wichtiger.
Während im Bereich Industrie 4.0 bereits mehrere Reifegradmodelle existieren und etabliert sind, gibt es für LEAN 4.0 wenige Konzepte. Im Rahmen dieser Arbeit wird ein konzeptionelles Reifegradmodell im Themenfeld LEAN 4.0 entwickelt, welches auf etablierten Reifegradmodellen im Kontext Industrie 4.0 aufbaut, jedoch Aspekte des LEAN Manufacturing miteinbezieht.
Nach Erläuterung der relevanten Theorie, wird ein Reifegradmodell aufgebaut und in den Zusammenhang mit realen Fallbeispielen in einem sonst fiktiven Unternehmen getestet.
Basierend auf den Stufen des Modells werden Handlungsempfehlungen für die verschiedenen Fallbeispiele aufgestellt, sodass exemplarisch die reale Anwendung gezeigt wird. Das konzeptionelle Reifegradmodell soll für Unternehmen eine Richtlinie darstellen und dabei helfen einen Überblick in der Produktion zu schaffen, sowie Ideen für weitere Schritte zu erhalten.
Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterstützen als auch verhindern können. Diese Arbeit beschäftigt sich mit der Frage, wie und ob die Akzeptanz und darüber hinaus auch die Erklärbarkeit von Kategorisierungsmodellen erreicht werden können. Durch die Erklärbarkeit erlangt der Nutzer ein verbessertes Verständnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden dafür zunächst das zuvor angefertigte Modell erläu-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschließend für die Erklärung von Kategorie Vorhersagen eingesetzt werden. Außerdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalität des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um über 90% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6%. Um abschließend die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgeführt, um einerseits die Auswirkungen von Erklärungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erklärungen erreicht werden konnte. Die benötigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden.
Schlagwörter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion
Die vorliegende Bachelorarbeit im Fachbereich Bauingenieurwesen beschäftigt sich mit der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlhochbau. In der Praxis und Literatur des Stahlbaus treten verschiedene gelenkige Anschlusskonstruktionen in Erscheinung, die ohne ausreichende Nachweise als gelenkig bezeichnet werden. Ein
Grund für die Annahme einer gelenkigen Verbindung ist, dass in der Literatur zu Anschlüssen im Stahlbau und in der DIN EN 1993-1-8: Bemessung von Anschlüssen die Nachweise der Gelenkeigenschaften und somit der Verdrehbarkeit von vermeintlich gelenkigen Anschlüssen nicht eindeutig anwendbar sind. Das Ziel dieser Bachelorarbeit ist es zu ermitteln, ob verschiedene, vorgeblich gelenkige Anschlüsse, tatsächlich Gelenkeigenschaften aufzeigen. In einem weiteren Schritt werden vereinfachte Methoden entwickelt, um eine Verdrehbarkeit und Gelenkwirkung der Anschlussvarianten nachzuweisen.
Zunächst werden Beispielaufgaben aus Literaturquellen von verschiedenen Autoren zusammengestellt und im Hinblick auf die Qualität und Vollständigkeit ausgewertet.
Dazu werden eigenständig Kriterien ausgewählt. Die Bewertung anhand der Kriterien erfolgt zuerst je einzelnem Beispiel, um anschließend in einem zweiten Schritt alle Beispielaufgaben zu vergleichen, sodass Vor- und Nachteile erkennbar sind. Die Beispiele umfassen Anschlüsse mit Stirnplatte, Fahnenblech, Doppelwinkel und Knaggen sowie Trägerstöße.
Ein weiterer Teil der Literaturrecherche ist die Erfassung der vorhandenen Nachweismethoden der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlbau. Für die Erfassung liegen zwei Herausgaben der European Convention for Constructional Steelwork (ECCS) über die Ausführung von Anschlüssen im Stahl- und Verbundbau und Konstruktionsempfehlungen von gelenkigen Stahlanschlüssen vor. Zudem werden die Nachweise der Verdrehbarkeit aus diesen Veröffentlichungen in der Stahlbaufibel aufgegriffen und erweitert. Die Unklarheiten und Anwendungsgrenzen der vorhandenen Methoden aus [4, 5, 6] werden hervorgehoben. Weiterhin wird die Klassifizierung von Anschlüssen nach untersucht.
Die Literaturrecherche und Auswertung wird abgeschlossen, indem eine Überprüfung der ausreichenden Gelenkeigenschaften der zusammengestellten Beispielaufgaben erfolgt. Hierzu werden die vorhandenen Nachweismethoden der Verdrehbarkeit auf die jeweiligen Anschlusskonstruktionen angewendet.
Die Analyse der vorhandenen und die Entwicklung von vereinfachten Methoden zum Nachweis der ausreichenden Verdrehbarkeit von gelenkigen Anschlüssen bilden den Hauptteil dieser Bachelorarbeit. Die Untersuchung der Prinzipien und Mechanismen, auf denen die existierenden Nachweismethoden aufbauen, dient als Grundbaustein für
die Entwicklung neuer vereinfachter Methoden, um ausreichende Gelenkeigenschaften und Verdrehbarkeit überprüfen zu können.
Ziel dieser Arbeit ist es, anhand des Lastgangs eines Produktionsbetriebs in der Stahlverarbeitung eine PV-Anlage optimal auszulegen. Anhand genauer Analysen für den Beispielbetrieb H. Janssen GmbH & Co. Maschinen- und Stahlbau KG soll der Auslegungsprozess für vergleichbare Betriebe vereinfacht werden. Hierfür sollen Auslegungsgrenzen herausgearbeitet werden, die auf ähnliche Projekte übertragen werden können. Um die PV-Anlage optimal für den Lastgang auszulegen, werden mithilfe der Simulationssoftware PV-SOL mehrere verschiedene Anlagen- und Speichergrößen simuliert und analysiert. Diese Analysen haben gezeigt, dass es bei der Dimensionierung der Anlagengröße sowie bei der Speichergröße Grenzen gibt, ab denen eine Vergrößerung der Anlagen oder des Speichers zur Optimierung der Anlagen nicht mehr sinnvoll ist. Für die Anlagengröße stellte sich heraus, dass die Grenzen der Anlagengröße bei 1,00 kWp/MWh und für die Speichergröße bei 1,00 kWh/kWp liegt. Außerdem hat sich gezeigt, dass die Nutzung eines Speichers erst ab einer gewissen Anlagengröße (0,50 kWp/MWh) zur Optimierung einer PV-Anlage führt. Neben der technischen Optimierung wurde auch die wirtschaftliche Sicht genauer betrachtet. Hierbei wurde mithilfe der Simulationsergebnisse aus PV-SOL eine Amortisationsrechnung durchgeführt. Es wurden drei verschiedene Anlagentypen untersucht die Volleinspeisung, die Eigenverbrauchsdeckung ohne Speicher und die Eigenverbrauchsdeckung mit Speicher. Diese Wirtschaftlichkeitsbetrachtung hat ergeben, dass der Anlagentyp „Eigenverbrauchsdeckung ohne Speicher“ die wirtschaftlichste Option ist. Die Auslegungsgrenzen, die sich in der technischen Analyse herausgestellt haben, lassen sich auf ähnliche Projekte übertragen.
Roboter und Arbeitsplätze
(2022)
Das Ziel dieser Bachelorarbeit ist es, einen Zusammenhang zwischen den Roboterzahlen und der Arbeitslosigkeit herauszuarbeiten. Zunächst werden die Beschäftigungseffekte durch den Einsatz von Robotern beschrieben. Anschließend werden unterschiedliche Daten von mehreren
Ländern aus dem Jahr 2020 anhand einer empirischen Regression analysiert, sodass schlussfolgernd interpretiert werden kann, ob Beziehungen zwischen der Anzahl an Robotern und der Arbeitslosenquote bestehen.
In den letzten Jahren sind unzweifelhaft technologische Durchbrüche gelungen, es entstanden Innovationen von selbstfahrenden Autos bis hin zu Künstlichen Intelligenzen. Die Auswirkungen der technischen Neuerungen lassen auf der einen Seite Hoffnungen und auf der
anderen Seite Ängste und Befürchtungen entstehen. Während die Hoffnungen darauf beruhen, dass das menschliche Leben durch die Hilfe von Robotern erleichtert wird, richtet sich der Kern
der Befürchtungen auf die Ambivalenz des technischen Fortschritts bei seinen Auswirkungen auf Produktion und Beschäftigung.
In dieser Arbeit stehen die Roboter im Mittelpunkt. Aufgrund der vielseitigen Einsatzmöglichkeiten, die diese Roboter vorweisen, entsteht die Besorgnis, dass dies bald zu einem „Ende der Arbeit“ führen könnte.
Die vorliegende Arbeit befasst sich mit der Ausarbeitung einer Handlungsempfehlung zur Implementierung von Business Intelligence (BI) Software. ,,BITools sind Werkzeuge, die Auswertungsverfahren von internen und externen Unternehmensdaten, sowie quantitative Verfahren für Planungs-, Entscheidungs- und Controllingzwecke softwaremäßig für Manager bereitstellen, um Geschäftslagen, -entwicklungen und -prozesse im Unternehmen zu analysieren.“1 Zu Beginn wird ein grundlegendes Verständnis der Materie aus dem aktuellen Stand der Wissenschaft definiert. Anschließend wird eine vom Autor umgesetzte Implementierung retrospektiv bewertet. Auf Grundlage dieser Bewertung, den gesammelten Erfahrungen des Autors und der Theorie findet eine gezielte Handlungsempfehlung zur Implementierung von BI statt. Die Anfänge von Auswertungsverfahren begann in den 60er Jahren. Lenz berichtet in seinem Buch Business Intelligence von persönlichen Erfahrungen wie Daten 1964 ausgewertet wurden. Hierbei wurde durch Tabellierungen seitenlange Papierbahnen gedruckt. Papierstapel von guten 25cm Höhe wurden händisch komprimiert und dem Vorgesetzten zur Verfügung gestellt. Bis in die 90er Jahre war dies kein unübliches Vorgehen in der deutschen Wirtschaft.2 Damals wurden erste Computeranwendungen entwickelt, mit der Funktion, eine Entscheidung zu stützen. Im Jahr 1980 wurde festgestellt, dass hierfür das Wasserfallmodell als Vorgehensweise zu statisch ist, um auf die wechselnden Anforderungen an Auswertungssystemen zu reagieren. Somit wurde damals auf agiles Vorgehen und Design wie beispielsweise Scrum3 gesetzt. Ende der 80er wurden die ersten Dashboards, Scorecards und OLAP als Werkzeuge eingesetzt. Im Jahr 1990 wurden die ersten BI-Infrastrukturen entwickelt. Diese wurden bis 2006 für einzelne Abteilungen und nicht abteilungsübergreifend eingesetzt.
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
Kurzfassung
Gegenstand der hier vorgestellten Arbeit ist die Untersuchung des Einflusses der Modellbildung auf die rechnerischen Ermüdungsnachweise orthotroper Fahrbahnplatten. Dazu wurde eine orthotrope Fahrbahnplatte, die den geltenden Konstruktionsempfehlungen entspricht, mit der Software SOFiSTiK als Stabwerksmodell, Stabwerksmodell mit Schalendeckblech (kombiniertes Modell) und FE-Modell modelliert. Anschließend wurden Ermüdungsnachweise mit den Ermüdungslastmodellen (ELM) 3 und 4 für zwei Konstruktionsbereiche berechnet.
Die Ergebnisse zeigen eindeutig, dass die Modellbildung Einfluss auf die Ergebnisse der Ermüdungsnachweise für die in dieser Arbeit ausgewählte Konstruktion hat. Für möglichst genaue und plausible Nachweisergebnisse ist die Anwendung des FE-Modells in Kombination mit dem ELM 4 zu empfehlen. Ein erster grober Überblick über die Ermüdung orthotroper Fahrbahnplatten kann jedoch mit allen Berechnungsmodelle und unter Anwendung von ELM 3 erzielt werden. Entgegen den normativen Vorgaben wird in An-betracht der Ergebnisse die Durchführung von Ermüdungsnachweisen auch für Neubauprojekte empfohlen.
Schlagwörter: Modellbildung, Ermüdungsnachweis, orthotrope Fahrbahnplatten, Brü-ckenbau
Ziel der hier vorgestellten Arbeit ist es, Handlungsempfehlungen für einen forcierten Photovoltaik-Ausbau zu nennen. Dazu wird die folgende Forschungsfrage gestellt: Welche Handlungen sind notwendig, um das PV-Ziel der Bundesregierung - 215 GW installierte PV Leistung bis zum Jahr 2030 - zu erreichen? Um die Frage zu beantworten, wird auf die aktuelle gesetzliche Grundlage eingegangen und Rahmenbedingungen identifiziert, die dem Photovoltaik-Ausbau entgegenstehen und entsprechende Handlungsempfehlungen genannt. Das Osterpaket steht hierbei im Vordergrund, da dieses die gesetzliche Grundlage für das Erneuerbare-Energien-Gesetz 2023 bilden soll. Auch wird vor dem Hintergrund des Ukraine-Krieges und der damit angespannten Lage der Energieversorgung auf das Thema Bezug genommen. Zur Bearbeitung des Themas wird speziell auf Photovoltaik-Dachanlagen, Freiflächenanlagen und Anlagen, die nicht über das Erneuerbare-Energien-Gesetz gefördert werden, eingegangen. Es zeigt sich, dass am Osterpaket noch Handlungsempfehlung besteht, weshalb am Ende spezifische Änderungs-vorschläge für Paragraphen genannt werden.
Gegenstand der hier vorgestellten Arbeit ist die Umsetzung und die Analyse des Vorgehens
einer gezielten Steigerung der Photovoltaik-Quote in ausgewählten Stadtteilen
in Deutschland mit dem Ziel, die von der Bundesregierung angeordneten Klimaziele
sowie die Treibhausneutralität bis zum Jahr 2045 zu erreichen. Die hier vorliegende
Arbeit unfasst sowohl die Vorbereitung für die Umsetzung ausgewählter Kommunikationsstrategien
als auch durchgeführte Beratungen sowie Interviews. Auf diese Weise
wird die in der Ausarbeitung vorgestellte theoretische Vielfalt der Umweltpsychologie
und der theoretische Hintergrund praktisch angewendet und die Verhaltensweisen der
befragten Bürgerinnen und Bürger analysiert und ausgewertet. Darauf aufbauend wird
der gegenwärtige Wissensstand bezüglich der Photovoltaik und die Signifikanz des
Umweltschutzes transparent. Es ist auffällig, das der Begriff „Photovoltaik“ noch nicht
im Volksmund angekommen ist und somit Aufklärungsbedarf herrscht. Durch eine Analyse
und Bewertung der üblichen Verhaltens- sowie Vermeidungsmuster von Bürger*innen bezüglich einer alternativen Stromversorgung, kann eine zielorientiertere sowie Verhaltensangepasste Strategie entwickelt werden. Sowohl die des Einflusses des eigenen Handelns auf die Umwelt als auch die Art der Umweltwahrnehmung werden
unterschätzt. Die Nachfrage nach Photovoltaik steigt vor dem Hintergrund der
Energiekrise in Verbindung mit der erfolgreichen Beratungsstrategie rasant.
Motivation beschreibt das Bestreben nach Wirksamkeit und der Organisation seine Ziele zu erreichen oder sich von diesen zurückzuziehen (vgl. 3.1). Das Ziel des Arbeitenden im Einzelhandel ist es, Geld zu verdienen (vgl. 5.3.3). Das Geld wird benötigt, um andere Motive zu befriedigen (vgl. 3.2.3 und 3.2.4). Das Ziel ist es also, die unterschiedlichen Mangelempfinden mithilfe des Geldes zu befriedigen. Das Motiv erklärt dabei die Beweggründe menschlichen Handelns, um seine Ziele zu erreichen. Diese sind anhand von sichtbaren Handlungen erkennbar, lassen allerdings nicht so leicht auf die Handlungsabsicht schließen (vgl. 3.2 und 3.5). Auch externe Anreize sind in der Lage, ein Mangelempfinden auszulösen (vgl. 3.4). Dies ist anhand der Umfrageauswertung aus Kapitel 5.3.10 erkennbar, in der die Befragten allein durch das Wissen, dass ihre Arbeitskollegen
mehr verdienen, ihr Gehalt als gering empfinden. Ein Mangel führt nicht zwangsläufig zu einer sofortigen Handlung, stößt aber zumindest einen Denkprozess an, in dem die Situation mit den Handlungsoptionen verglichen wird, um dieses Mangelempfinden zu beheben (vgl. 3.2.6 und 4.3).
Diese Arbeit beschäftigt sich mit der Erstellung einer Administratoroberfläche für die Lehre bei Photovoltaik (PV)-Praktika in der virtuellen Realität (VR). Die erstellte Umgebung bietet, mittels Bildschirmspiegelungen, Möglichkeiten zur didaktischen Anleitung und Unterstützung der Studierenden. Das Thema wurde aufgrund einer bestehenden Lehranwendung in der VR bedeutungsvoll und zeigt deutliches Potenzial. Diese Lehranwendung wird bereits umfassend und verpflichtend in den Praktika eingesetzt. Sie bietet einen praxisnahen Aufbau von Solaranlagen und erhöht gefahrlos die Experimentierfreudigkeit. Mit ihr lassen sich die aufgebauten Anlagen technisch prüfen, simulieren und bewerten. Zudem werden die beiden Möglichkeiten zur Unterstützung der Studierenden beurteilt. Als Ergebnis wird die Umsetzung der nahezu automatisierten Administratorober-fläche verdeutlicht und ein Usability-Test aus den Praktika evaluiert.
Schlagwörter: Administratoroberfläche, Bildschirmspiegelung, C, Didaktik, im-mersiv, Oculus Quest 2, Photovoltaik, Python, Tkinter, virtuelle Realität
Efficient and reliable onsite inspection methods are gaining importance as the construc-tion of PV power plants is expanding. For large PV installations, time- and cost-efficient failure detection is essential for optimized operation and maintenance. For this purpose, various optical methods as Infrared thermography (IR), Electroluminescence (EL), Pho-toluminescence (PL) and Ultraviolet Fluorescence (UVF) are employed and under con-stant development. For each method, the camera, and eventually the light source, can be handheld, or mounted on a drone, also called unmanned aircraft vehicle (UAV), to achieve higher throughputs.
IR is the most widely used optical onsite PV inspection method, as many defects can be detected by the thermal radiation (heating) of the defect component. EL and PL reveal further information on the electrical behaviour of the Si-waver. They are also widely used and take the role of a complement to IR, showing electrically active/inactive areas of the semiconductor. On the other hand, UVF focuses on the degradation of the polymeric encapsulant of the Si-cell, most commonly consisting of EVA (ethylene-vinyl acetate). The degradation of the encapsulant can lead to its discoloration, also called yellow-ing/browning, which decreases the transmittance of visual light. UVF patterns can show this yellowing as well as humidity and oxygen entrances, which can lead to effects of corrosion. Both mechanisms (discoloration and corrosion) decrease the performance of the PV cell. The discoloration cannot be directly observed on IR or EL images, as the encapsulant is neither a heat source nor electroconductive. Using IR imagery, severe discoloration might be observed indirectly, as the reduced optical transmittance leads to changes in heat transfer mechanisms concerning the cell and the encapsulant.
Similarly, as long as corrosion does not lead to inactive cell areas or heating, it most likely will not be spotted using EL, PL or IR. So, UVF can fill the niche of inspecting the state of the encapsulant and detecting its defects due to climate impacts in early stages.
While a high number of studies on IR, EL, PL and some on UVF were performed in Europe and the USA, there are not yet many studies about the application of these tech-niques in South America (i.e., in Brazil). UVF mainly depends on climate factors (irradi-ation, temperature, humidity) and the operation time/”age” of the module. The UVF im-agery method has not yet been tested in climate and system conditions of Brazil. Fur-thermore, systems in Brazil are more recently installed. All this can affect differences in the results of UVF imagery applied in Europe, the USA and Brazil.
The present work focuses on the application of UVF imaging on PV power plants in Bra-zil, the creation of an experimental setup and the proposal of proceedings for the data analysis of the acquired images. The aim is to propose a method that is suitable for large-scale inspection.
Energieeinsparung und Ressourcenschonung werden gerade vor dem Hintergrund der aktuellen politischen, wirtschaftlichen und klimakritischen Situation auch global betrachtet immer wichtiger. In diesem Zusammenhang bietet besonders der Bestandsgebäudebereich ein großes Einsparpotential. Neben der Reduzierung der Heizwärmeverluste
durch eine gute thermische Gebäudehülle und effizienter Anlagentechnik, kann auch durch Einregulierung der Heizungsanlage durch einen hydraulischen Abgleich einiges an Wärmeenergie eingespart werden. Durch eine raumweise Heizlastberechnung aus der sich exakt die zur Raumerwärmung erforderlichen Durchflussmengen ermitteln lassen, können durch geeignete Thermostate in Kombination mit geregelter Hocheffizienzpumpentechnik die erforderlichen Wärmemengen optimiert und dadurch Wärmeverluste reduziert werden.
Das Vorgehen bei der Durchführung eines hydraulischen Abgleichs soll anhand einer geeigneten Lernsituation mittels eines Schulungsstandes (Wilo-Brain-Box) den Studierenden praktisch nahegebracht werden.
Die vorliegende Arbeit untersucht die Eigenschaft Authentizität auf der Video-Plattform TikTok als möglichen Erfolgsfaktor zur Steigerung der Markenbekanntheit. Sie beantwortet drei Forschungsfragen, welche zunächst mithilfe einer Sekundärforschung untersucht werden. Dabei wird der Begriff Markenauthentizität in Bezug auf TikTok erörtert und die Grundlagen des Social Media Marketings erforscht. Die erarbeiteten Erkenntnisse und Methoden bilden die Grundlage für die Formulierung von vier Hypothesen.
Zur Überprüfung der Hypothesen folgt im Anschluss eine empirische Forschung in Form einer Online-Umfrage, bei welchem das Unternehmen Abihome GmbH als Fallbeispiel dient. Das Unternehmen eignet sich aufgrund seiner noch ausbaufähigen Präsenz auf der Plattform TikTok für dieses Vorhaben. Die gewonnenen Daten der empirischen Studie werden mit denen der Sekundärforschung kombiniert und ausgewertet, um Handlungsempfehlungen für Unternehmen abzuleiten, welche ihre Brand Awareness mithilfe eines authentischen Auftrittes auf TikTok optimieren wollen.
Die fortgeschrittene Entwicklung von AR, VR und MR ermöglichen ein
breites Anwendungsspektrum der Technologie. Das Ziel der vorliegenden
Bachelorarbeit ist es herauszufinden ob der Einsatz von AR, VR und MR
Potenzial in der innerbetrieblichen Weiterbildung in nicht produzierenden Branchen hat. Dazu wurden folgenden Forschungsfragen aufgestellt: Wird AR, VR oder MR bereits in nicht technischen Bereichen für die innerbetriebliche Weiterbildung angewendet? Welche Anforderungen müssen erfüllt sein, um MR in der innerbetrieblichen Weiterbildung einzusetzen? Unterscheiden sich die Meinungen hinsichtlich des Potenzials von MR in der innerbetrieblichen Weiterbildung von Führungskräften zu nicht Führungskräften?
Um die Forschungsfragen zu beantworten, wurde eine Literaturrecherche
und eine quantitative Befragung durchgeführt. AR, VR und MR in der
innerbetrieblichen Weiterbildung in nicht produzierenden Branchen sind
bereits Bestandteil in unterschiedlichen Studien. Die Literaturrecherche und die Befragung ergaben zudem, dass die Technologie bereits in unterschiedlichen nicht produzierenden Branchen angewendet wird.
Ziel der vorliegenden Arbeit ist die Klarstellung, ob Marketing im E-Sport ein gutes Konzept darstellt und die abschließende Erstellung eines Handlungskataloges, die es Unternehmen, die im E-Sport Marketing betreiben möchten, ermöglicht dieses zu planen
und strategisch umzusetzen. Hierfür wird zunächst eine SWOT-Analyse erstellt, die einen systematischen Überblick über die gegenwärtige Marktsituation im E-Sport verschaffen soll. Anschließend erfolgt eine quantitative Studie in Form einer Umfrage, die die Demografie, das Verhalten und die Interessen der Zuschauer/innen im E-Sport aufdecken soll, sodass relevante Inhalte für den Handlungskatalog erkannt und sortiert werden können. Die SWOT-Analyse deckt dabei auf, dass der E-Sport-Markt einen hochtechnologischen Sektor mitsamt einer großen Auswahl an Werbeplattformen darstellt, die gewinnbringend eingesetzt werden können. Die empirische Forschung zeigt, dass Zuschauer/innen im E-Sport nicht nur Werbeinhalte aller Unternehmen akzeptieren, sondern diese auch verstärkt wahrnehmen, da ein hohes Interesse besteht,
den E-Sport über verschiedene Wege zu verfolgen.
Developing an intelligent chatbot that can imitate human-to-human interaction has become important in recent years. For this reason, many studies have been conducted to evaluate the quality of chatbots. Furthermore, various approaches and tools, such as sentiment analysis, have been created to improve the performance of chatbots.
This study examines previous research to identify the quality dimensions used to measure chatbots performance in order to develop a general chatbot assessment model that evaluates and compares chatbots quality. The developed evaluation model measures ten chatbot quality dimensions. This model is based on user experience. It requires human testers to interact with the chatbot to test its functioning and then a quantitative approach is used to collect data from user testing by conducting a survey with these testers. In this survey, they are instructed to evaluate the quality of the chatbot using a questionnaire that contains the items needed to evaluate each dimension.
This study also investigates whether sentiment analysis can improve the quality of chatbots and, if so, to identify the dimensions improved with sentiment analysis. For this reason, two chatbot versions are implemented using the Rasa framework (one that cannot detect sentiment and the other that analyzes sentiment and responds accordingly).
Following that, we used our evaluation model to evaluate and compare the two chatbot versions with two groups of participants by conducting a survey. In this survey, each group tested the functioning of one version. Then, both groups were instructed to use the items of the evaluation model to evaluate the version they tested. The goal of this survey was to evaluate the validity and reliability of the items used in the evaluation model to evaluate chatbots, and also to determine if sentiment analysis improved the chatbot quality by comparing survey results between the two groups. The results show that items used in the assessment model to evaluate chatbots are valid and reliable. The findings also indicate that sentiment analysis improves the chatbot’s quality. However, it improves the quality of some dimensions but not the majority of them.
Die Nutzung von Robotern hat stark zugenommen und die Wirkung auf Menschen grundlegend
verändert. Roboter wurden in unsere Gesellschaft eingeführt, jedoch berichten Studien darüber,
dass ihre soziale Rolle immer noch unklar ist (Bartneck & Hu, 2008).
Es gibt es immer mehr Filme, die das Bild von Robotern prägen, zudem gibt es immer mehr
Roboter, die in verschiedenen Kontexten eingesetzt werden, zum Beispiel die Robbe Paro, die Patient:innen in Altenheimen hilft (Schneider, 2021). Auch in Einkaufszentren können Roboter
eingesetzt werden. Hierbei konnte eine Studie in Japan in einer Shopping-Mall zeigen, dass Menschen einen Roboter missbrauchen, vor allem wenn sie sich unbeobachtet fühlen (Nomura et al., 2014). Durch die zunehmende Präsenz von Robotern geriet dieses Phänomen des Robot-
Abuse zunehmend in den wissenschaftlichen Fokus.
Thematisch lässt sich der Gegenstand dieser Abschlussarbeit in ebendiesen Bereich von Robot-
Abuse einordnen, denn sie bezieht sich explizit auf das Empathieverhalten der
Teilnehmer:innen der in dieser Arbeit durchgeführten Studie während eines beobachteten
Robotermissbrauchs. Dabei wird zusätzlich betrachtet, wie sich der Grad der
Anthropomorphisierung auswirkt und wie er wahrgenommen wird. Zudem werden die
unterschiedlichen Wahrnehmungen der Geschlechter betrachtet. Vor diesem Hintergrund soll folgende Forschungsfrage beantwortet werden: Gibt es einen Unterschied im Empathieempfinden in Bezug auf das Geschlecht? Das Ziel der vorliegenden Arbeit ist es dabei,
die Unterschiede im Empathieverhalten bei Robotern mit verschiedenen Graden der
Anthropomorphisierung während eines nonverbalen Robotermissbrauchs zu untersuchen und
einen Überblick über die vorhandene Literatur zu schaffen.
Dafür wird eine Onlinestudie mit einem 2x3-Between-Subjects-Design durchgeführt. In der
Studie werden drei Roboter verwendet: NAO, MiRo-E und der Staubsaugroboter Kobold. Die Teilnehmer:innen sehen eines von drei selbst erstellten Videos, in denen der jeweilige Roboter
getreten wird. Zudem wurde eine Literaturrecherche zu den Themen Anthropomorphismus,
Robot-Abuse, Geschlechterunterschiede und Empathie durchgeführt, um die theoretische Herleitung zu erläutern und aufzuarbeiten.
In dieser Bachelorarbeit werden dafür zunächst die relevanten theoretischen Grundlagen
betrachtet. Diesbezüglich werden in Kapitel 2 die Begriffe Anthropomorphismus, Robot-Abuse,
Geschlechterunterschiede und Empathie erläutert. Anschließend werden die Ergebnisse ausführlich aufgezeigt und diskutiert. Zum Schluss wird in einem Fazit die Eingrenzung dieser
Studie und ein Ausblick auf eine weitere Studie aufgezeigt.
Das Ziel der Arbeit ist die Weiterentwicklung der bestehenden Webapplikation WirHelfen. Basierend auf dem aktuellen Konzept wird eine mobile Applikation in Form einer Nachbarschaftshilfe erstellt. Das Ziel der Bachelorarbeit ist es ein Konzept so wie
ein Grobentwurf einer mobilen Applikation zu schaffen.
Die bestehende Webapplikation WirHelfen wurde erstmals 2021 veröffentlicht. Als ehrenamtlicher Mitarbeiter und Mitglied der gemeinnützigen Organisation WirHelfen, war ich verantwortlich für die erste Konzeptionierung der aktuellen Webapplikation.
Sowohl bei der Konzeption als auch bei der Entwicklung und Umsetzung war ich beteiligt.
Für die Bachelorarbeit wurde eine eigene Architektur entwickelt, um den neuen Anforderungen gerecht zu werden.
Die mobile Applikation wurde anhand der klassischen sechs Schritten der Softwarearchitektur umgesetzt.
Mit der gemeinnützigen Organisationen WirHelfen wurden zu Anfang die
Anforderungen an die mobile Applikation festgelegt.
Während der Konzept- und Designphase wurden zwei Tests Sessions an den Prototypen durchgeführt. Der erste Test ist eine heuristische Evaluation und wurde zusammen mit Expert*innen durchgeführt. Der zweite Test war ein Usability-Test und wurde mit
Nutzer*innen durchgeführt. Anhand des Expertentestes wurde der Prototyp verbessert und die Mobile Applikation umgesetzt. Weitere Verbesserungen an der mobilen Applikation wurden nach dem Usability-Test durchgeführt.
Die bestehende mobile Applikation wird in Zukunft auf dem Android Marktplatz sowie dem Apple Store zur Verfügung stehen.
Die Digitalisierung des deutschen Gesundheitswesens ist im direkten Vergleich zu anderen Branchen und Gesundheitswesen deutlich im Rückstand. Ursachen für diesen Rückstand sollten identifiziert werden, um aus den gefundenen Faktoren Handlungsempfehlungen zu entwickeln, die dabei helfen sollen künftige Digitalisierungsprojekte effizienter zu gestalten. Zur Identifizierung wurde zunächst eine unstrukturierte Literaturrecherche durchgeführt, gefolgt von Experteninterviews, die den eigentlichen Kern der Arbeit darstellen. Die ausgewählten Probanden stellen Beteiligten des Projektes elektronische Arbeitsunfähigkeitsbescheinigung dar, dessen Projektverlauf evaluiert wurde, um aus den Herausforderungen zu lernen.
Vor dem Hintergrund der Energieknappheit, des Preisanstiegs und aus Gründen des
Umweltschutzes ist die Energieeffizienz zu einem allgemeinen Anliegen geworden. Ein erheblicher Teil des Energieverbrauchs in den Fertigungsverfahren entfällt auf
Materialabtragungsverfahren. Im Mittelpunkt dieser Arbeit stehen verschiedene Maßnahmen zur Verbesserung der Energieeffizienz von Werkzeugmaschinen, darunter die Optimierung der Hauptaggregate der Maschine, wie z. B. Antriebssysteme und der Nebenaggregate, wie z. B. die Kühlungssysteme und Kühlschmierstoffsysteme, die
Optimierung der Parameter zur Minimierung des Energieverbrauchs mithilfe der Response-Surface-Methode sowie der Leichtbau von Werkzeugmaschinen.
1. Einleitung
1.1 Hintergrund
„Der Klimawandel und der Umgang mit dessen Folgen ist eine der zentralen Herausforderungen der Menschheit im 21. Jahrhundert“ (S.Weller et al., 2016).
Seit Beginn der Industrialisierung kommt es zu einem starken Anstieg der Treibhauskonzentration in der Atmosphäre, welcher durch die erhöhte Nutzung fossiler Brennstoffe, die Ausweitung der industriellen Produktion sowie der Viehzucht und die damit einhergehende Abholzung
vieler Wälder geschuldet ist (Umweltbundesamt, 2021). Durch den Klimawandel kommt es neben der Zunahme von Hitzewellen und Trockenphasen ebenfalls zu einem Anstieg von extremen Starkregenereignissen, bei denen intensive Niederschläge in kürzester Zeit auftreten. Der Grund für die Zunahme an Starkregenereignissen ist die globale Erwärmung, da diese eine stärkere Verdunstung und einen höheren Feuchtigkeitsgehalt in der Luft bewirkt. Seit Beginn der
flächendeckenden Wetteraufzeichnungen im Jahre 1881 ist ein stetiger Anstieg der Temperatur zu verzeichnen. Im Vergleich zum Zeitraum 1881-1920 war die vergangene Dekade (2011-2020) 2 Grad Celsius wärmer (Kasper et al. September, 2021). Während Dürren als Konsequenz von längeren Trockenzeiten zu erwarten sind, kommt es durch die Starkniederschläge und einhergehende Überlastung der Kanalnetzte häufiger und intensiver zu flussbedingten
Überschwemmungen und Sturzfluten (Brasseur et al., 2016). Charakteristisch für Sturzfluten ist das Auftreten in urbanen und gebirgigen Gebieten, sowie kurze Vorlaufzeit und hohe Fließgeschwindigkeiten. Auf Grund der kurzen Vorlaufzeit ist es problematisch die Bevölkerung rechtzeitig vor den Gefahren zu warnen und präventive Maßnahmen einzuleiten (Brasseur et
al. 2016, 97–98). Es ist notwendig realitätsnahe und kurzfristige Niederschlags- und Überflutungsvorhersagen treffen zu können. Dies ermöglicht es, die Bevölkerung rechtzeitig vor drohenden Gefahren durch Sturzfluten oder Überschwemmungen zu warnen und zu schützen.
Durch die immer weiter voranschreitende Digitalisierung sind, nicht nur Nutzer:innen
sozialer Medien, kaum noch Grenzen gesetzt. Hier stehen erhebliche Nutzungspotenziale
digitaler Technologien, nahezu unerforschten Auswirkungen, auf die Anwender:innen,
gegenüber (Netzwerk Stiftungen und Bildung, 2021).
Die Zahlen der Social Media Nutzer:innen steigen. Derweil verzeichnet sich, unter den
beliebtesten Social Media Plattformen, zu meist in der jüngeren Altersgruppe, der Großteil
der Anwender:innen (ARD & ZDF, zitiert nach de.statista.com, 2021). Während die
Methoden der Designer:innen immer weiter ausgereift werden und sich dabei neuester
Erkenntnisse der Psychologie und Verhaltensforschung bedienen. So wird unter dem
Begriff Dark Patterns beschrieben, dass sich Designer:innen Wissen über menschliches
Verhalten und die Wünsche der Anwender:innen zu Nutze machen, um dezeptive Funktionalitäten
zu implementieren, die nicht im Interesse der Anwender:innen liegen (Gray,
Kou, Battles, Hoggatt & Toombs, 2018).
In den Bildungsbereichen fehlt es jedoch bisher, vor Allem in Bezug auf Selbstbestimmung
im digitalen Anwendungskontext, an Konzepten zur Auseinandersetzung mit den
Auswirkungen von Dark Patterns auf die persönliche bzw. selbstbestimmte Nutzung.
In diesem Zusammenhang ist das Ziel der vorliegenden Arbeit die Erarbeitung eines
Workshop Konzepts, zur problemorientierten Diskussion von Dark Patterns, unter adoleszenten
Anwender:innen und deren Förderung im selbstbestimmten Umgang mit Social
Media.
Zudem folgt in diesem Rahmen eine qualitative Erhebung, um zu erfassen, ob die Teilnehmer:
innen fähig sind sich mit der Thematik Dark Patterns auseinanderzusetzen und
in der Lage sind Lösungsansätze zu entwickeln, um den Auswirkungen von Dark Patterns
entgegenzuwirken und die eigene selbstbestimmte Social Media Nutzung zu fördern.
Stichworte des Autors:
Dark Patterns, Social Media, digitale Selbsbestimmung, Workshop Konzept, Qualitative
Erhebung
In the course of this thesis, an overview will be given on which way developers can guide
users into acting environmentally friendly without the users realizing they are being
nudged. In the last couple of years, our private and work-life have been more and more
shifted away from reality into a digital context. Since the start of the Covid – 19 pandemic
in 2019, even more aspects of everyday life have been shifted to an online context, one
of them being groceries shopping. Even though online groceries shopping is not yet
common in Germany, there is a trend toward the online purchase of groceries visible.
This can be seen as a possibility to tackle another challenge the world is facing, the
climate crisis. One reason for the climate crisis is mindless consumption and purchasing
of too much food. This paper aims to combine the need for more aware consumption
with the newly rising trend of online supermarkets. Furthermore, a supermarket will be
provided to show if the implementation of environmentally–friendly nudges is technically
possible. To eventually prove the effectiveness of a nudge, it needs to be tested.
Keywords: Nudging, Environment, Online supermarkets
Die Corona-Pandemie veränderte auch nach der zweijährigen Dauer viele Aspekte des alttäglichen Lebens. Hand in Hand mit gesellschaftlichen Einschränkungen, die in der Allgemeinheit für Unmut sorgte und die Wirtschaft erschütterte, stellt sie auch einen Meilenstein in der Sammlung und Auswertung medizinischer Daten weltweit dar. Die umfassende Dokumentation und Bekanntgabe täglicher Daten wie Infektionszahlen, Hospitalisierungs- und Sterberate durch weltbekannte Organisationen wie das Robert-Koch-Institut oder die World Health Organisation bieten eine noch nie gebotene Forschungsgrundlage. So riefen diverse Organisationen und Regierungen dazu auf, diese Datenmenge zu nutzen, um Zusammenhänge zu erschließen, die dabei helfen können, diese Pandemie und auch zukünftige Notstände schneller und effizienter bewältigen zu können.
Zu diesem Zweck bietet sich eine Untersuchung und Auswertung mit Hilfe von maschinellem Lernen an. So können Klassifikationsmodelle verwendetet werden, um zuverlässige Diagnosen zu stellen und Clustering Algorithmen, um neue Zusammenhänge aus den Daten zu erschließen. Allerdings bleibt ein Problem bei der Nutzung von maschinellem Lernen: Die Modelle müssen nicht nur funktionieren und akkurate Vorhersagen treffen, sondern allen voran, verständlich und erklärbar sein. Denn gerade im Gesundheitswesen ist es von höchster Wichtigkeit, die Ergebnisse und Diagnosen auch belegen zu können, denn dies schafft Vertrauen in die Technik.
Der Stahlbau und Bauteile aus Stahl sind in der heutigen Welt unentbehrlich. Neben
der Verwendung von Stahl und Stahlträgern im Brückenbau, werden zum Beispiel
Stahlträger, in unterschiedlichen Formen und Variationen für die Bereiche Beton-,
Anlagen-, Industrie-, aber auch Maschinenbau verwendet.
Die Verbindung dieser Erzeugnisse aus Stahl, die in verschiedenen Profilen vorlie-
gen, wird unter Einsatz diverser Möglichkeiten realisiert. Dabei wird in der DIN 8580
zwischen folgenden Verbindungsmöglichkeiten unterschieden:
▪ unlösbare Verbindungen, wie z.B. Schweißverbindungen,
▪ lösbare Verbindungen, wie z.B. Schraubverbindungen,
▪ bedingt lösbare Verbindungen, wie z.B. Nietverbindungen.[1]
Im Stahlbau werden Verbindungen hauptsächlich geschweißt, wobei hier zwischen
Schweißen in der Vorfertigung und Schweißen auf der Baustelle bzw. der Montage
unterschieden wird. In der Regel werden die Bauteile, bevor diese auf die Baustelle
gelangen, in der Vorfertigung oder der Werkstatt hergestellt. Während der Montage
wiederum werden in der Regel die gering beanspruchten Verbindungen, oder wenn
Baustellennähte unvermeidbar sind [2], geschweißt.
Gemäß der DIN 1910-100 [3] wird das Schweißen bei dem zwei oder mehr Teile
unter Anwendung von Wärme und/oder Druck sowie mit oder ohne Schweißzusatz
miteinander verbunden werden als Fügeprozess definiert.
Durch den schweißtechnisch bedingten Wärmeeinfluss auf den Werkstoff, entstehen Imperfektionen. Diese Imperfektionen beschreiben unerwünschte Abweichun-
gen der Bauteile und werden unterschieden zwischen [4]:
▪ geometrische Imperfektionen
▪ strukturelle Imperfektionen
▪ geometrische Ersatzimperfektionen
Im Prozess der Nachweisführung von stabilitätsgefährdeten Bauteilen sind diese
Imperfektionen zwingend zu berücksichtigen, da diese einen maßgebenden Einflussfaktor auf das Tragverhalten von Bauteilen darstellen können.
Im Rahmen dieser Studienarbeit sollen Kleinteilversuche an längsausgesteiften
Beulfeldern durchgeführt werden. Der Fokus dieser Arbeit liegt hierbei auf der Her-
stellung der geschweißten Plattenbauteile und der Messung der entstehenden geometrischen Imperfektionen.
Im Rahmen dieser Bachelorarbeit werden Dehnungsmessstreifen (DMS)
mittels Faktor kalibriert, da die DMS unterschiedlich positioniert sind. Auf
Grund der manuellen Applikation stellen die DMS unterschiedliche Dehnungen
dar, dies soll mit Hilfe einer Kalibrierung der DMS verhindert werden. Damit
die DMS kalibriert werden können, werden die DMS in einer Viertelbrücke
gemessen und anschließend mit Hilfe einer Messkarte in Matlab eingelesen.
Im Matlab werden die Daten anschließend weiterverarbeitet, so dass jeder
DMS seinen eigenen Faktor bekommt. Anschließend werden die DMS in eine
Vollbrücke und Zweiviertelbrücke verrechnet, damit die reine Biegedehnung
sowie reine Zugdehnung berechnet werden kann.
In dieser Arbeit wird die Thematik Datenvisualisierung von Wissensgraphen behandelt. Durch den massiven Datenbestand in der heutigen Zeit und der immer stärker werdenden Digitalisierung ist die Notwendigkeit gestiegen, aus Daten effizient Wissen generieren zu können. Folglich wurde repräsentativ eine Graphbibliothek ausgewählt, um die Daten zu visualisieren. Umgesetzt wurde die Programmierung durch ein JavaScript Framework. Die Daten einer Wissensdatenbank wurden vom Betreuer bereitgestellt. Das übergeordnete Ziel der Arbeit ist eine verbesserte Darstellung von Wissensdaten in Form eines Wissensgraphen. Sinn und Zweck dahinter ist es, Beziehungen zwischen Daten verbessert erkennen zu können und gleichzeitig Informationen zu gewinnen, die auf den ersten Blick nicht sofort erkennbar sind.
Mit dem wachsenden Konsum elektronischer Mobilgeräte steigen auch die Gefahrenpotenziale, welche aus den in ihnen enthaltenen Lithium-Ionen-Batterien resultieren. Ob bei der Sortierung von Batterien in Recyclinghöfen, oder bei Sicherheitskontrollen an Flughäfen: Die Nachfrage der autonomen Erkennung von Batterien in elektronischem Müll oder Gepäck der Passagiere steigt.
In der vorliegenden Bachelorarbeit wird deshalb der aktuelle Stand der Technik folgender Thematik dargelegt: Erkennung und Klassifizierung elektronischer Mobilgeräte sowie der darin enthaltenen Batterien auf X-Ray-Aufnahmen mittels Transfer Learning. Zunächst wird dabei auf die aktuellen Möglichkeiten im Bereich Machine Learning, sowie letzte Veröffentlichungen bzgl. ähnlicher Thematik eingegangen. Um den Stand der Technik zu verbessern, werden daraufhin mehrere Versuche mit dem aktuell präzisesten Machine-Learning-Modell zur Echtzeit-Objekterkennung „YOLOv5“ und einem umfassenden Datensatz namens „HiXray“ durchgeführt. Der Gebrauch vom Konzept Transfer Learning und dessen Effekt auf die Versuchsreihe wird im Laufe der Arbeit immer wieder angeschnitten. Die Ergebnisse des Experiments zeigen: Mit YOLOv5 ist zwar noch keine vollständig autonome Erkennung elektronischer Mobilgeräte und derer Batterien auf X-Ray-Aufnahmen möglich, jedoch konnte unter Nutzung von Transfer Learning der Stand der Technik verbessert werden. Weitere Forschung in diesem Bereich könnten diese aber bereits in naher Zukunft ermöglichen, wodurch Sicherheitsrisiken minimiert und diverse Prozesse an Sicherheitskontrollen oder Recyclinghöfen automatisiert werden könnten.
Schlagwörter: Objekterkennung, X-Ray, Mobilgeräte, Lithium-Ionen-Batterie, Transfer Learning, Recycling, Sicherheit, YOLOv5
Längsschnittuntersuchung des Konsumentenverhaltens im Online- Lebensmittelhandel in Deutschland
(2022)
Kurzfassung
Das Ziel in der vorliegenden Arbeit ist es zu untersuchen, inwiefern sich das
Konsumentenverhalten im Online-Lebensmittelhandel seit 2016 gewandelt
hat. Dazu wird folgende Forschungsfrage gestellt: Hat sich das Interesse
daran, Lebensmittel online zu bestellen, im Vergleich von 2016 zu 2022
verändert? Ferner soll zusätzlich untersucht werden, wie hoch das
Interesse der zu dieser Arbeit Befragten ist, Lebensmittel online zu
erwerben und ob es auch einen Zusammenhang zur Covid-19-Pandemie
gibt. Um diese Forschungsfragen zu untersuchen, wurde eine quantitative
Untersuchung durchgeführt. Es wurde unter anderem mit den hier
gewonnenen Daten eine Längsschnittuntersuchung durchgeführt, die zur
Grundlage die Daten aus einer Masterarbeit aus dem Jahr 2016 hat. Die
Ergebnisse dieser Untersuchung sind, dass das Interesse im Allgemeinen
gestiegen ist, Lebensmittel online zu bestellen und auch schon deutlich
mehr Menschen Erfahrungen mit den Dienstleistungen aus diesem Bereich
gesammelt haben.
Die Energiewende schreitet in Deutschland weiter voran und die im Jahr 2021 neu gewählte Bundesregierung setzt dafür deutliche Zeichen in ihrem Koalitionsvertrag. Bis 2030 sollen 80 Prozent des antizipierten Strombedarfs von 680-750 Terawattstunden (TWh) aus erneuerbaren Energien (EE) stammen.1 Insbesondere Windkraft und Solarenergie sollen in Deutschland ihre bereits sehr relevante Rolle weiterentwickeln und einen Großteil dieses Strombedarfs erzeugen. So gibt die Bundesregierung ein neues Ausbauziel von 200 Gigawatt (GW) installierter Leistung für Photovoltaik (PV) vor und möchte zwei Prozent der Landesfläche für Windenergie ausweisen. Außerdem sollen bürokratische Hürden und langwierige Genehmigungsprozess vereinfacht und reduziert werden.2
Der Ausbau der EE führt aufgrund der zunehmenden volatilen Einspeisung zu einer höheren Netzbelastung. Dadurch wiederum wird das Potenzial der regenerativen Energiequellen nicht optimal genutzt, wenn beispielsweise Windkraftanlagen (WKA) abgeregelt werden müssen.3
Ein weiterer Baustein der Energiewende und vor allem auch der Mobilitätswende stellt die Elektromobilität dar. Deutschland erlebt seit wenigen Jahren einen Markthochlauf, der sich in rasant steigenden Zulassungszahlen von Elektrofahrzeugen (eletric vehicle: EV) und dem Ausbau der deutschlandweiten Ladeinfrastruktur darstellt.4 Abbildung 1 (siehe S. 8) zeigt ein nahezu exponentielles Wachstum für neuzugelassene vollelektrische Fahrzeuge (battery electric vehicle: BEV) sowie für Plug-In-Hybride (PHEV).
Artificial intelligence (AI) is one of the most auspicious yet controversial technologies with virtually unlimited potential to solve almost all of the existential problems humanity is facing today.1 Huge resources are poured into the development, testing and application of AI that is supposed to be utilized in almost all areas of everyday life.2 It may be used to combat genetically inherited diseases, to revolutionize the economy, to bring prosperity and equality to everyone and to counter the effects of climate change.3 With AI as the enabling technology humanity may experience a better future. Today, AI capabilities can already drastically improve analytic processing tasks and algorithmic systems and have beaten humans in games such as chess.4 Yet, AI and all of its applications bring about a myriad of ethical challenges. Revolutionary weapon systems that achieve autonomy via AI and genome-editing powered by AI are just some specific examples.5 An omnipotent AI will be either the greatest or the vilest thing that has happened to humanity in its brief existence.6 However, even today more and more computational devices are connected to each other, spurring a huge increase in global data streams that can be used to further train and enhance AI systems.
The prowess of AI for executing analytic tasks paves the way for the use of AI in more and more applications. One of these applications, that shows great promise, is the use of AI in surveillance applications.7 AI surveillance applications are proliferating at a fast rate, with a number of appli-cations already being in use today.8 These applications are aimed at accomplishing a number of policy objectives, some are in accordance with basic human laws, some are definitely not and some
1 Cf. Hawking (2018). P. 183ff
2 Cf. Hawking (2018). P. 183ff.
3 Cf. Hawking (2018). P. 183ff.
4 Cf. Burton (2015). P. 1ff.
5 Cf. Hawking (2018). P. 183ff.
6 Cf. Hawking (2018). P. 183ff.
7 Cf. Feldstein (2019). P. 1.
8 Cf. Feldstein (2019). P. 1.
2
belong in the nebulous area in between lawful and unlawful.9 But what are lawful and unlawful uses of AI surveillance systems and what are their ethical implications?
This thesis will examine the ethical implications of AI based mass surveillance systems and try to answer the first central question, if it is possible to use AI based mass surveillance applica-tions in an ethical way. Furthermore, the thesis will attempt to answer the second central ques-tion and find out how the ethical use of AI based mass surveillance systems, if this ethical use is possible, materialize. Governmental agencies will be in the focus of this discussion, as their use of the technology may have bigger ethical challenges. Yet private companies will play a part as well. In an attempt to accomplish these two aims, the thesis will inspect the basics of ethics and possible ethical theories that can be utilized to answer the questions. Normative ethics will be stud-ied first with a focus on consequentialism and utilitarianism. To gain a deeper understanding of utilitarianism, act and rule utilitarianism will be compared. Afterwards, deontological theories will be the focus of the discussion with a concentration on deontological pluralism. Next, the mentioned theories will be evaluated, discussing advantages and weak spots of the theories, to assess which theory may serve as the ethical framework of this thesis and the subsequent answer to the two main questions.
The next step will be the establishment of the AI framework. This contains the definition of AI and a distinction of terms that are commonly used in the its environment such as automation and au-tonomy. The importance of data for AI will be discussed. Afterwards, the technological basis of AI will be outlined, discussing key concepts such as machine learning and deep learning. Addi-tionally, it will be examined how an AI learns. The possible uses of AI in general will be outlined in a brief fashion, blazing the trail to discussing the moral challenges of AI. Afterwards, the current pace of AI development will be studied.
In the chapter that follows, the use of AI in surveillance technology is going to be highlighted. The possible ways of how AI can be used for surveillance purposes are reviewed here, discussing facial
9 Cf. Feldstein (2019). P. 1.
3
and behavioral recognition systems, smart cities, smart policing, communications/data driven sur-veillance and their enabling technologies. Then, the global proliferation of AI surveillance systems is going to be outlined.
Subsequently, the accordance of AI surveillance with basic human laws and rights, such as the right to privacy, will be checked to find out if the law and the international framework of human rights allow for AI surveillance or at least have restrictions that would greenlight the use of AI surveillance technology. All the aspects of the thesis, especially including the selected ethical framework, will be combined in this last section in order to enable the adaptation of a framework that allows to find out, if AI surveillance systems can be ethically permissible while also creating insights how this ethical AI surveillance system must be engineered. To finish, the thesis will end with a conclusion.
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
Ziel dieser Arbeit ist es, ein grundlegendes Verständnis eines elektrisch betriebenen Lenksystems zu schaffen und dessen zugehörige Anforderungen und Analysen seitens der funktionalen Sicherheit darzustellen. Beginnend mit der theoretischen Darstellung des Lenksystems und den Normen wird im praktischen Teil der Arbeit diese Theorie angewandt. Zudem werden Autonomiestufen und deren rechtliche Grundlage in Deutschland aufgeführt und diskutiert.
Hierbei wird auf die Norm für die funktionale Sicherheit, die ISO 26262 und auf die Norm für die Sicherheit der Funktion, die ISO 21448 eingegangen. Es wird erläutert, welchen Zweck die Anwendung der ISO 26262 hat und wie sie aufgrund der zunehmenden Komplexität in der Automobilbranche durch die ISO 21448 (SOTIF) ergänzt wird. Dazu wird herausgearbeitet, wann die ISO 26262 an ihre Grenzen stößt und wie unabdingbar die Anwendung von SOTIF wird.
Einhergehend mit der technologischen Entwicklung und der zunehmenden Komplexität treten nämlich vermehrt Aspekte auf, die mit der ISO 26262 allein nicht abgedeckt werden können. Sicherheitsaspekte nehmen zu und verändern sich mit neuen Komfort- und Assistenzsystemen kontinuierlich. Daher ist es auf-grund der sich ändernden Technologien und derer Komplexität unabdingbar, bestehende Ansätze zu verbessern und zusätzliche neue Methoden für die Sicherheit des Endproduktes zu entwickeln und neben den etablierten Methoden anzuwenden.
Welchen Einfluss dies auf ein modernes Lenksystem hat und wie in diesem Zusammenhang das Zusammenspiel der ISO 26262 und ISO 21448 mit klassischen Methoden wie der Fehlermöglichkeits- und Einflussanalyse (FMEA) betrachtet werden muss, wird in dieser Arbeit dargestellt. Automobilhersteller sind heute bereits in der Lage Fahrzeuge automatisiert in bestimmten Betriebsgrenzen und Bereichen fahren zu lassen. Doch was muss getan werden, um sämtliche Betriebsgrenzen aufzuheben und ein Fahrzeug „autonom“ zu gestalten? Regulatorien, Standards und Richtlinien sind bereits heute auf dem besten Weg dorthin, doch ist es in der Praxis tatsächlich realisierbar?
Magnesium ist das leichteste Metall, das im konstruktiven Leichtbau Anwendung findet. Zusätzlich ist Magnesium ein wichtiges Element in Aluminiumlegierungen, was den derzeit bedeutendsten Einsatzbereich darstellt. Die Gewinnung von primären Magnesiummetall aus verschiedenen Rohstoffen ist ein sehr energieintensiver Prozess, der vorwiegend in China stattfindet. Die für die Herstellung von einem Kilogramm metallischen Magnesium benötigte Endenergie beträgt zwischen 18 und 80 kWh, je nach eingesetztem Energieträger und Prozess.
Das Umschmelzen von sauberen Neuschrotten erfordert lediglich rund 1 kWh je kg Magnesiumlegierung. Dies verdeutlicht bereits, dass sich durch ein Recycling, im Vergleich zur Primärproduktion, erhebliche Energieeinsparungen erzielen lassen. Altschrotte aus Produkten am Ende ihres Nutzungszyklus werden gegenwärtig kaum innerhalb des Kreislaufs von Magnesiumlegierungen recycelt. Meist werden Magnesiumlegierungen gemeinsam mit der Aluminiumfraktion dem Recycling zugeführt und so im besten Fall als Legierungselement genutzt.
Im Rahmen dieser Arbeit werden die theoretischen Potenziale von Energie- und Treibhausgasemissionseinsparungen durch das Recycling von Magnesium-Altschrotten im Vergleich zum Primärmarkt einer AZ91D-Legierung untersucht. Mittels einer modellierten Ökobilanz werden die Einsparpotenziale für die Wirkungskategorien Treibhausgasemissionen (Global Warming Potential) sowie den kumulierten Energieaufwand (KEA) ermittelt.
Über die Modellierung und Ermittlung der Potenziale hinaus wurden mehrere Expert:inneninterviews geführt. Schlussfolgerungen aus diesen Gesprächen sind, dass die für ein geschlossenes Recycling nötige Technik zur Verfügung steht und gegenwärtig nicht gehobene Potenziale durch das Recycling bestehen. Hinsichtlich der wirtschaftlichen Rah-menbedingungen des Recyclings von Altschrotten wurden divergierende Einschätzungen festgestellt, wonach die geringen Mengen der Altschrotte hemmend, das gestiegene Preisniveau hingegen als fördernd für ein geschlossenes Recycling identifiziert wurden.
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Die vorliegende Masterarbeit befasst sich mit dem Thema Influencer-Marketing in der politischen
Kommunikation auf TikTok. Die Arbeit gibt einen Überblick über die theoretischen Hintergründe
von sozialen Netzwerken, Influencer-Marketing, TikTok und politischer Kommunikation.
Zuerst wurde überprüft, inwieweit sich Influencer-Marketing für die politische Kommunikation
auf TikTok eignet und welche Potentiale damit für politische Akteur:innen verbunden
sind. Im empirischen Teil sind Experteninterviews durchgeführt worden, mit dem Ziel,
Erkenntnisse zur Beantwortung der folgenden Forschungsfragen zu erhalten:
Wird TikTok als Marketing- und Kommunikationskanal für die politische Kommunikation
mit Erst- und Jungwähler:innen im Landtagswahlkampf in NRW und generell in der politischen
Kommunikation genutzt?
und:
In wie weit spielen Influencer:innen in der politischen Kommunikation von Parteien und
politischen Organisationen eine Rolle?
Um das Kommunikationsverhalten der Parteien auch von außen zu bewerten und im Anschluss
Handlungsempfehlungen geben zu können, wurden auch Interviews mit Experten für politische
Kommunikation durchgeführt.
Zusammenfassend konnte festgestellt werden, dass TikTok sich sowohl für die politische Kommunikation
als auch das Influencer-Marketing eignet. Allerdings haben in der politischen
(Wahlkampf-)Kommunikation weder TikTok noch Influencer:innen eine Relevanz. Die Parteivertreter:
innen hatten sich zwar alle mit TikTok als „neuem“ Social-Media-Kanal auseinandergesetzt,
jedoch haben die meisten die TikTok-Nutzung aus unterschiedlichen Gründen abgelehnt.
Auch die Möglichkeit, durch Kooperationen mit Influencer:innen auf TikTok vertreten
zu sein, wurde von den Parteivertreter:innen abgelehnt oder gar nicht in Betracht gezogen.
Da sich das Kommunikationsverhalten der Öffentlichkeit und vor allem zukünftiger, wahlentscheidender
Generationen maßgeblich geändert hat und ändern wird, wiesen die befragten Experten
ausdrücklich darauf hin, dass Politiker:innen auf TikTok präsent sein sollten, um junge
Menschen zu erreichen. Durch die beschriebenen Erkenntnisse erscheint es sinnvoll, den Themenkomplex
„Influencer-Marketing in der politischen Kommunikation auf TikTok“ weiterhin
zu beobachten und zu sehen, wie das Thema sich weiter entwickeln wird.