Refine
Year of publication
Document Type
- Bachelor Thesis (98)
- Master's Thesis (31)
- Conference Proceeding (23)
- Article (12)
- Part of Periodical (10)
- Book (3)
- Report (3)
- Part of a Book (2)
- Doctoral Thesis (2)
- Working Paper (2)
Language
- German (144)
- English (41)
- Multiple languages (1)
Has Fulltext
- yes (186) (remove)
Is part of the Bibliography
- no (186)
Keywords
Institute
- Fachbereich 1 - Institut Informatik (59)
- Fachbereich 2 - Wirtschaftsinstitut (51)
- Fachbereich 4 - Institut Mess- und Senstortechnik (41)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (10)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
A Large and Quick Induction Field Scanner for Examining the Interior of Extended Objects or Humans
(2017)
This study describes the techniques and signal properties of a large, powerful, and linear-scanning 1.5 MHz induction field scanner. The mechanical system is capable of quickly reading the volume of relative large objects, e.g., a test person. The general approach mirrors Magnetic Induction Tomography (MIT), but the details differ considerably from currently-described MIT systems: the setup is asymmetrical, and it operates in gradiometric modalities, either with coaxial excitation with destructive interference or with a single excitation loop and tilted receivers. Following this approach, the primary signals were almost completely nulled, and test objects' real or imaginary imprint was obtained directly. The coaxial gradiometer appeared advantageous: exposure to strong fields was reduced due to destructive interference. Meanwhile, the signals included enhanced components at higher spatial frequencies, thereby obtaining a gradually improved capability for localization. For robust signals, the excitation field can be powered towards the rated limits of human exposure to time-varying magnetic fields. Repeated measurements assessed the important signal integrity, which is affected by the scanner´s imperfections, particularly any motions or respiratory changes in living beings during or between repeated scans. The currently achieved and overall figure of merit for artifacts was 58 dB for inanimate test objects and 44 dB for a test person. Both numbers should be understood as worst case levels: a repeated scan with intermediate breathing and drift/dislocations requires 50 seconds, whereas a single measurement (with respiratory arrest) takes only about 5 seconds.
In this study, we looked at the competencies and changes in the competency spectrum required for global start-ups in the digital age. Specifically, we explored intergenerational collaboration as an intervention in which experienced business-people from senior adult groups support young entrepreneurs. We conducted a Delphi study with 20 experts from different disciplines, considering the study context. The results of this study shed light on understanding the necessary competencies of entrepreneurs for intergenerationally supported start-up innovation by providing 27 competencies categorized as follows: intergenerational safety facilitation, cultural awareness, virtues for growth, effectual creativity, technical expertise, responsive teamwork, values-based organization, and sustainable network development. In addition, the study results also reveal the competency priorities and the minimum requirements for each competency group based on the global innovation process and can be used to develop a readiness assessment for start-up entrepreneurs.
Diese Arbeit konzentriert sich auf die Erstellung einer umfassenden technischen Dokumentation für ein Medizinprodukt der Klasse IIa gemäß den Anforderungen der Medical Device Regulation (MDR) 2017/745. Das Hauptziel besteht darin, eine konforme Dokumentation zu entwickeln, die alle wesentlichen Aspekte der Produktentwicklung, Herstellung und Verwendung abdeckt. Besonderes Augenmerk wird darauf gelegt, die regulatorischen Anforderungen der MDR zu erfüllen, um die Sicherheit und Wirksamkeit des Produkts zu gewährleisten und eine Zulassung für den europäischen Markt zu ermöglichen. Die verschiedenen Bestandteile der technischen Dokumentation, einschließlich klinischer Bewertungen, Risikomanagement, Validierungstests, Konformitätsbewertungen und Kennzeichnung, werden gründlich untersucht. Es wird eine systematische und strukturierte Herangehensweise präsentiert, um eine erfolgreiche Konformitätsbewertung für das hier beschriebene Medizinprodukt der Klasse IIa zu erreichen. Die Ergebnisse dieser Arbeit tragen dazu bei, die Qualität und Sicherheit des hier bearbeiteten Medizinproduktes der Klasse IIa zu verbessern und somit die Patientensicherheit zu gewährleisten.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Der deutsche stationäre Einzelhandel gerät immer mehr unter Druck. Seit nunmehr fast einem Jahr bestimmt die Covid-19-Pandemie weltweit das menschliche Leben. Unter den Maßnahmen zum Schutz der deutschen Bevölkerung leidet auch die deutsche Wirtschaft. Vor allem den stationären Einzelhandel trifft es in dieser Zeit sehr. Leere Städte und geschlossene Läden sind schon fast zur Normalität geworden. Doch nicht erst seit Covid-19 erlebt der deutsche stationäre Einzelhandel finanzielle Einbußen. Fortschritte auf Gebieten der modernen Technologien wie „Big Data“ und die voranschreitende Digitalisierung kommen vor allem dem Onlinehandel, der auch von der Covid-19-Pandemie profitiert, zugute. Verbunden mit den sich verändernden Bedürfnissen der deutschen Bevölkerung an den Handel, greift der Online-Handel
den stationären Einzelhandel durch den Ausbau seiner Marktanteile an. Jedoch verspricht ein modernes, aber nicht neues Technologiegebiet dem stationären Einzelhandel Besserung. Die Nutzung von Künstlicher Intelligenz könnte dem Einzelhandel dazu verhelfen, selber Gewinne
aus den anderen modernen Technologiegebieten zu erzielen, sich den veränderten Bedürfnissen des Kunden anzupassen und dem Druck des Onlinehandels stand zu halten. Die vorliegende Arbeit setzt sich mit der Bewertung des Chancenpotenzials Künstlicher Intelligenz für die Zukunft des deutschen stationären Einzelhandels auseinander. Damit wird versucht die Frage, ob der Einsatz von KI-Anwendungen dem deutschen stationären Einzelhandel dazu verhelfen wird, die oben beschriebenen Herausforderungen zu bewältigen, zu beantworten.
Um dem Leser ein fundiertes Verständnis zu vermitteln, basiert die Ermittlung des Potenzials auf einer detaillierten Erläuterung der Künstlichen Intelligenz sowie deren Fähigkeiten und Chancen, aber auch ihrer Risiken und Hürden auf dem zukünftigen Weg der Implementierung.
Auf diesem Fundament wird dann mit Hilfe einer literarischen Analyse die Bewertung vorgenommen. Bisher von der Literatur wenig berücksichtigt sind Veränderungen der Situation des deutschen stationären Einzelhandels durch die Auswirkungen der noch immer anhaltenden Covid-19-Pandemie. Die Ergebnisse der Literaturanalyse werden daher durch die Durchführung und Auswertung von Experteninterviews, als Methode der qualitativen Primärforschung,
auf Aktualität und Übereinstimmung mit Erkenntnissen aus der Praxis überprüft.
Mit Dara Kossok-Spieß, Referentin des Handelsverbands Deutschland, Niels Will und Frederic Kerber, beide im Einsatz für praxisnahe Forschungsprojekte des deutschen Forschungsinstituts für Künstliche Intelligenz, sind sowohl Vertreter beider Interessengruppen – der Anwendung sowie der Forschung – vertreten. Hierdurch konnten neue Erkenntnisse über die zukünftigen Auswirkungen der Covid-19-Pandemie auf den deutschen stationären Einzelhandelsmarkt gewonnen werden. Außerdem konnten Barrieren, die in naher Zukunft durch die Zusammenarbeit der Anwender mit der Forschung, gelöst werden müssen, damit Künstliche Intelligenz flächenübergreifend in den deutschen stationären Einzelhandel einziehen kann, ermittelt werden. Die vorliegende Arbeit richtet sich daher an alle Personen, die ein Interesse an der Bewertung des Technologiegebiets Künstlicher Intelligenz besitzen und/oder sich für die Zukunft des deutschen stationären Einzelhandels interessieren.
Analyse von Unsicherheiten künstlicher neuronaler Netze und Integration in die Objektverfolgung
(2022)
Over the last few years, the development of assistance systems for motor vehicles has shifted from comfort functions to control tasks. Increasingly, these control tasks are also being transferred to semi-autonomous systems. One safety-critical aspect is the correct and reliable observation of the immediate environment by the vehicle. These observations can be used, among other things, to set up models for tracking objects. Due to recent research, topics such as uncertainties for object detections and the calibration of artificial neural networks are now emerging.
The goal of this work is to investigate the possibility of processing positional uncertainties of a detector in a multiple object tracking approach and the eects on the tracking of objects. Additionally, the calibration of the used detector will be evaluated and corrected if necessary. The eects of the calibration on the tracking results will also be investigated in this context. After an investigation of the procedure used to generate the position uncertainties of the detector, a connection to the multiple object tracking was made and an approach to process the uncertainties based on a Kalman filter was developed. The confidence of the detections was also remodeled. For this purpose, the confidence was interpreted as the existence probability and processed using a Bayes Filter to reflect the existence of the tracks. In addition, appropriate calibration methods for the position uncertainties and confidence were selected and incorporated into the tracking procedure. The validation of the presented approaches was performed on a data set for driving situations.
The evaluation of the results showed that a processing of the position uncertainties generated by a detector is feasible in the presented tracking approach. The interpretation of the confidence as existence probability leads to good results. Calibration of the confidence further improves the results. However, the calibration of the position uncertainties led to worse results. Further inves-tigation of other calibration methods for the position uncertainties is needed.
Keywords: Multiple Object Tracking, Kalman Filter, Neural Network Calibration
Photoluminescence (PL) in GaN or InGaN layers monitored during epitaxial growth at high temperatures permits a quasi-continuous in situ characterization of opto-electronic properties. Therefore, epitaxial parameters can now be optimized at the earliest possible stage. A pulsed and high-power UV laser was required for PL excitation at high temperatures. Herein, the underlying nonlinear mechanism was studied via time-resolved PL experiments and rate equation-based modeling. A temperature-activated and saturable path for quenching over defects was identified. Beyond the saturation threshold, reasonably-intensive PL sets in. At high temperatures not only is the near band gap-PL present, but also—as a new observation—a defect-assisted PL emerges. Apart from these specific electronic transitions in high-temperature PL of GaN, a simple, but reasonably predictive model of the luminescent thin film has been set up to track down interference fringes in the PL spectra. It is worth mentioning that the spectral PL modulation (aiming at the Purcell effect) is often mixed up with ordinary Fabry–Pérot interference. A distinction has become key to properly analyze the spectral signatures of high-temperature PL in order to provide a reliable in situ characterization of GaN layers during epitaxial growth
In dieser Arbeit wurde eine Motorsteuerung für mikrofluidische Peristaltikpumpen in Lab-on-a-Chip Systemen entwickelt. Neben der dafür notwendigen elektrischen Schaltung wurde viel Wert auf die softwareseitige Umsetzung gelegt. Zusätzlich zu der reinen Vorgabe von essentiellen Größen, wie beispielsweise der Drehzahl und dem damit geförderten Volumen, wird ein vielseitiges und zuverlässiges Steuerungssystem vorgestellt, das versucht Schwankungen im geförderten Flüssigkeitsstrom zu reduzieren. Um schon vor dem ersten Betrieb, des parallel zu dieser Arbeit gefertigten mechanischen Aufbau, die Leistung sowie Ausmaße der Schwankungen abzuschätzen, wurde der zu erwartende Volumenstrom auf Basis der geometrischen Ausmaße modelliert. Dadurch können Algorithmen zur Glättung des Flusses bereits in einer frühen Phase der Softwareentwicklung berücksichtigt werden. Für eine bessere Charakterisierung des mechanischen Aufbaus und Überwachung des Betriebs wurde das System um eine sensorlose Erkennung von Bewegungen des Motors ergänzt. Somit kann unter anderem die Zuverlässigkeit und Dimensionierung der verwendeten Motoren überprüft werden. Zusätzlich wurde der Prozess zum Verschweißen von thermoplastischer Elastomer Folie mit dem mikrofluidischen Chip optimiert.
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
This work aims to generate synthetic electromyographic (EMG) signals using Generative Adversarial Network (GAN). GANs are considered as one of the most exciting and promising approaches in deep learning [6], offering the possibility to generate artificial data based on real data. GAN consists of two main parts, a discriminator that attempts to differentiate between the generated data and the original data, and a generator that tries to fool the discriminator by generating data which looks like real data, the GAN works by staging a two-player
minimax game between generator and discriminator networks. To achieve the objective of generating realistic artificial electromyographic signals, two different architectures are considered for the generator and the discriminator networks of the GAN model: Long short-term memory (LSTM), which can avoid the long-term dependency problem and remembers information over a long period of time, and convolutional neural network (CNN), which is a powerful tool at automatic feature extraction. Different combinations of CNN and LSTM including hybrid model are experimented within the GAN using the same training data-set. The results and performances of each combination are compared and reviewed. The generated artificial EMG signals can be used to
simulate real muscle activity situations to for example improve muscle signal controlled prostheses using artificial data that may include conditions that does not exist in real data. This method of artificial data generation is not limited to EMG signals, the network can also be used to generate other synthetic biomedical signals such as electroencephalogram (EEG) or electrocardiogram (ECG) that can be practically used for testing algorithms and classifiers.
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Public transportation will become highly automated in the future, and at some point, human drivers are no longer necessary. Today many people are skeptical about such scenarios of autonomous public transport (abbr.: APT). In this paper, we assess users’ subjective priority of different factors that lead to personal acceptance or rejection of APT using an adapted online version of the Q-Methodology with 44 participants. We found four prototypical attitudes to which subgroups of participants relate: 1) technical enthusiasts, 2) social skeptics, 3) service-oriented non-enthusiasts, and 4) technology-oriented non-enthusiasts. We provide an unconventional perspective on APT acceptance that helps practitioners prioritize design requirements and communicate, targeting users’ specific attitudes.
Die vorliegende Arbeit untersucht die Eigenschaft Authentizität auf der Video-Plattform TikTok als möglichen Erfolgsfaktor zur Steigerung der Markenbekanntheit. Sie beantwortet drei Forschungsfragen, welche zunächst mithilfe einer Sekundärforschung untersucht werden. Dabei wird der Begriff Markenauthentizität in Bezug auf TikTok erörtert und die Grundlagen des Social Media Marketings erforscht. Die erarbeiteten Erkenntnisse und Methoden bilden die Grundlage für die Formulierung von vier Hypothesen.
Zur Überprüfung der Hypothesen folgt im Anschluss eine empirische Forschung in Form einer Online-Umfrage, bei welchem das Unternehmen Abihome GmbH als Fallbeispiel dient. Das Unternehmen eignet sich aufgrund seiner noch ausbaufähigen Präsenz auf der Plattform TikTok für dieses Vorhaben. Die gewonnenen Daten der empirischen Studie werden mit denen der Sekundärforschung kombiniert und ausgewertet, um Handlungsempfehlungen für Unternehmen abzuleiten, welche ihre Brand Awareness mithilfe eines authentischen Auftrittes auf TikTok optimieren wollen.
So far, researchers have used a wellbeing-centered approach to catalyze successful intergenerational collaboration (IGC) in innovative activities. However, due to the subject’s multidisciplinary nature, there is still a dearth of comprehensive research devoted to constructing the IGC system. Thus, the purpose of this study is to fill a research void by providing a conceptual framework for information technology (IT) system designers to use as a jumping-off point for designing an IGC system with a wellbeing-oriented design. A systematic literature study was conducted to identify relevant terms and develop a conceptual framework based on a review of 75 selected scientific papers. The result consists of prominent thematic linkages and a conceptual framework related to design technology for IGC systems. The conceptual framework provides a comprehensive overview of IGC systems in the innovation process by identifying five barrier dimensions and using six wellbeing determinants as IGC catalysts. Moreover, this study discusses future directions for research on IGC systems. This study offers a novel contribution by shifting the technology design process from an age-based design approach to wellbeing-driven IGC systems. Additional avenues for investigation were revealed through the analysis of the study’s findings.
Fahrerassistenzsysteme werden eingesetzt, um dem Fahrer
eines Kraftfahrzeugs Handlungsabläufe abzunehmen. Diese Handlungsabläufe
werden definiert durch eine Aufgabenstellung, die vom Fahrer an das Fahrerassi-
stenzsystem übergeben oder systembedingt gelöst wird. Bei komplexen Fahreras-
sistenzsystemen ist an eine autonome Navigation im Straßenverkehr gedacht. Es
wird ein neues Verfahren vorgestellt, welches eine Bewegungssteuerung eines
autonomen Fahrzeugs durchführen kann. Es werden der Lenkwinkel und die Ge-
schwindigkeit beeinflußt. Für diese Aufgabe wird ein dynamischer Ansatz aus
dem Bereich der neuronalen Felder gewählt. Relevante Attribute für den Fahrt-
verlauf auf unterschiedlichem Abstraktionsniveau können dabei einfach (additiv)
verarbeitet werden.
Within this thesis the impacts of “Made in China 2025” on business relationships between Germany and China are analysed and evaluated. The author shows up how the export business from Germany has developed since “Made in China 2025” was published officially in 2015. It is presented in which way the export business was affected until now (changes of product categories, development of export volume, growth rates…). The data are being provided by the German Bureau of National Statistics.
Based on the data analysis the strategy is being evaluated from German perspective. Furthermore the author takes a look at the development of Foreign Direct Investments (FDI) flows from China to Germany since the beginning of Made in China 2025. It is being analysed if China indeed invests more into their so-called “key-industries” since 2015. The chances that might be created by FDI as well as the threats are inspected and evaluated by experts from various institutions. In addition to that a scenario analysis from the German Frauenhofer Institut presents different scenarios that show up what might happen to Germany in case China succeeds, as well as what might happen in case the strategy is a failure.
Furthermore various trade theories are presented within this thesis, such as theories from Adam Smith, David Ricardo, Raymond Vernon or Bertil Ohlin. It is presented how useful the theories are for modern intra-industrial trade inquiries and if their assumptions are realistic.
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
Am 19.03.2023 wurde die Credit Suisse an einem Wochenende als Ultima Ratio mit der UBS fusioniert. Vorausgegangen waren einige Managementfehler, Fehler bei der Auswahl der Kunden sowie ungünstige Entwicklungen am Gesamtmarkt, die diesen Schritt ausweglos erscheinen lassen. In dieser Arbeit werden die Grundlagen zur Identifizierung der Probleme und eine Einordnung des historischen Hintergrunds vorgenommen.
Bereits bei der Einführung des Basel III Regelwerkes im Jahr 2019 wurden Stimmen laut, welche das neue „Allheilmittel“ für Banken im Bereich des zusätzlichen Eigenkapitals, die Contingent Convertible Bonds als durchaus problematisch ansahen. Insbesondere der Fall eines tatsächlichen Ausfalls der Zinszahlung und/oder Ausfall der Rückzahlung und deren Auswirkungen auf den Gesamtmarkt wurden kontrovers diskutiert. Es gab Positionen, welche davon ausgingen, dass der Markt für Emissionen solcher Finanzinstrumente im Falle eines Triggers einer einzigen Anleihe durch einen erheblichen Vertrauensverlust temporär oder sogar endgültig zum Erliegen käme.
Der Autor der Arbeit erarbeitet anhand der Betrachtung von Option-Adjusted-Spreads eine Grundlage zur Analyse des Vertrauensverlustes, welcher im Jahr 2023 durch den ersten Trigger einiger CoCos bei der Credit Suisse ausgelöst worden ist.
OA-Spreads sind in diesem Zusammenhang das Mittel der Wahl da:
1.
Die Ausgestaltung der betrachteten Finanzierungsmittel sehr heterogen ist und daher schwer vergleichbar sind
2.
Zur Zeit der Betrachtung auch die Entwicklung der globalen Leitzinsen an Fahrt aufgenommen hatte. Um diese Effekte weitestgehend ausblenden zu können empfiehlt sich hier eine möglichst unabhängige Betrachtung, eben in Form der OA-Spreads.
Anhand der Analyse ist festzustellen, dass der Vertrauensverlust zu diesem Zeitpunkt durchaus mess- und spürbar war, allerdings nicht in einem Ausmaß, wie dies zuvor befürchtet worden war.
War im Vorfeld mit möglichen Wertverlusten über alle Ausstehenden CoCos hinweg in Größenordnungen von um die 15% die Rede, Lassen sich in der Auswertung lediglich 6% Wertverlust durch den Zeitlichen Bezug belegen.
Zudem ist der Emissionsmarkt im Anschluss an die Credit Suisse Übernahme zwar zum Erliegen gekommen, von längerfristigem Vertrauensverlust oder gar einem vollständigen Zusammenbrechen des Marktes kann, der Beobachtung nach, nicht die Rede sein. Ganz im Gegenteil, bereits 3 Monate nach den Geschehnissen um die Credit Suisse konnte der erste CoCo in Benchmark-Größe (1 Milliarde EUR) begeben werden und innerhalb des Emissionsablaufs sogar ein so hohes Investoreninteresse registriert werden, dass der Kupon im Verlauf der Emission um 0,375% gesenkt werden konnte.
Zusammenfassend ist zu sagen, dass die Auswirkungen der Wandlung der Credit Suisse CoCos spürbar, aber nicht dauerhaft einschränkend für den Markt war. CoCos scheinen sich also als widerstandsfähig gegen negative Einflüsse der Wandlung zu präsentieren.
We describe the general concept, system architecture, hardware, and the behavioral abilities of Cora (Cooperative Robot Assistant, see Fig. 1), an autonomous non mobile robot assistant. Outgoing from our basic assumption that the behavior to perform determines the internal and external structure of the behaving system, we have designed Cora anthropomorphic to allow for humanlike behavioral strategies in solving complex tasks. Although Cora was built as a prototype of a service robot system to assist a human partner in industrial assembly tasks, we will show that Cora’s behavioral abilities are also conferrable in a household environment. After the description of the hardware platform and the basic concepts of our approach, we present some experimental results by means of an assembly task.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
Motivation beschreibt das Bestreben nach Wirksamkeit und der Organisation seine Ziele zu erreichen oder sich von diesen zurückzuziehen (vgl. 3.1). Das Ziel des Arbeitenden im Einzelhandel ist es, Geld zu verdienen (vgl. 5.3.3). Das Geld wird benötigt, um andere Motive zu befriedigen (vgl. 3.2.3 und 3.2.4). Das Ziel ist es also, die unterschiedlichen Mangelempfinden mithilfe des Geldes zu befriedigen. Das Motiv erklärt dabei die Beweggründe menschlichen Handelns, um seine Ziele zu erreichen. Diese sind anhand von sichtbaren Handlungen erkennbar, lassen allerdings nicht so leicht auf die Handlungsabsicht schließen (vgl. 3.2 und 3.5). Auch externe Anreize sind in der Lage, ein Mangelempfinden auszulösen (vgl. 3.4). Dies ist anhand der Umfrageauswertung aus Kapitel 5.3.10 erkennbar, in der die Befragten allein durch das Wissen, dass ihre Arbeitskollegen
mehr verdienen, ihr Gehalt als gering empfinden. Ein Mangel führt nicht zwangsläufig zu einer sofortigen Handlung, stößt aber zumindest einen Denkprozess an, in dem die Situation mit den Handlungsoptionen verglichen wird, um dieses Mangelempfinden zu beheben (vgl. 3.2.6 und 4.3).
Der Konsum von Secondhand-Kleidung in Deutschland gewinnt stetig an Beliebtheit. Dabei verlagert sich der Trend mit dem Handel von gebrauchter Bekleidung immer weiter ins Internet, weshalb immer mehr Unternehmen in den florierenden Online-Markt eintreten und so den Konkurrenzdruck unter den Reseller-Plattformen erhöhen. Daher ist es notwendig zu verstehen, wie sich Unternehmen dieser Branche eine langfristige Wettbewerbsfähigkeit in einem stark umkämpften Markt aufbauen können.
Das Ziel der Forschung dieser Arbeit richtet sich dazu auf die Analyse der entscheidenden Faktoren aus, welche Kunden beim Kaufvorgang von gebrauchter Bekleidung beeinflussen. Aus den anschließenden Ergebnissen werden Handlungsempfehlungen für die Praxis abgeleitet. Dazu wird folgende Forschungsfrage gestellt: Welche Faktoren beein-flussen deutsche Kunden, Secondhand-Bekleidung auf Onlineplattformen einzukaufen?
Um die Forschungsfrage zu beatworten, wird ein Hypothesenmodell aufgestellt, welches mittels quantitativer Forschung überprüft wird. Mit Hilfe eines Fragebogens durch eine Onlineumfrage, werden konkrete Fragen über das Kaufverhalten, die Intentionen und Einflüsse beim Onlineshopping von Secondhand-Kleidung von ca. 300 Probanden erhoben und danach ausgewertet. Die Ergebnisse zeigen auf, dass die Hauptzielgruppe zwischen 20 und 31 Jahre alt ist und in einem Abstand von drei bis zwölf Monaten regelmäßig online gebrauchte Kleidung kauft. Dabei ergibt die Studie zum Teil sehr überraschende Ergebnisse der Einflussfaktoren. So haben die wahrgenommene Nützlichkeit, die hedonistische Motivation und die äußeren sozialen Einflüsse von Kunden einen starken bis mittleren Effekt auf die Kaufabsicht, während die Faktoren Nachhaltigkeit (ökologische Motivation), die wahrgenommene Einfachheit der Nutzung von Onlineplattformen und die ökonomische Motivation, keinen Einfluss auf die Kaufabsicht ausüben. In der Praxis sollten Unternehmen daher darauf achten die Vorteile des Onlineshoppings wie z.B. den Kauf unabhängig von Öffnungszeiten und eine vielfältige Produktauswahl gezielt auszuspielen. Um sich die Vorteile der sozialen Beeinflussung von Käufern zu Nutzen zu machen, werden Influencer Kooperationen oder Aktionen, bei denen Kunden ihre Freunde werben, empfohlen. Eine weiterführende Forschung in dem Bereich, kann durch die Erweiterung des Modells mit weiteren Einflussfaktoren wie z.B. dem Vertrauen erfolgen. Des Weiteren kann eine differenzierte Prüfung von Einflussfaktoren verschiedener Re-Commerce Konzepte erfolgen, um Gemeinsamkeiten und Unterschiede zu erarbeiten und somit noch spezifischere Hand-lungsempfehlungen für Stakeholder zu erarbeiten.
Learning the German language is one of the most critical challenges for refugee children in Germany. It is a prerequisite to allow communication and integration into the educational system. To solve the underlying problem, we conceptualized a set of principles for the design of language learning systems to support collaboration between teachers and refugee children, using a Design Science Research approach. The proposed design principles offer functional and non-functional requirements of systems, including the integration of open educational resources, different media types to develop visual and audio narratives that can be linked to the cultural and social background. This study also illustrates the use of the proposed design principles by providing a working prototype of a learning system. In this, refugee children can learn the language collaboratively and with freely accessible learning resources. Furthermore, we discuss the proposed design principles with various socio-technical aspects of the well-being determinants to promote a positive system design for different cultural and generational settings. Overall, despite some limitations, the implemented design principles can optimize the potential of open educational resources for the research context and derive further recommendations for further research.
Detection of air trapping in chronic obstructive pulmonary disease by low frequency ultrasound
(2012)
Background: Spirometry is regarded as the gold standard for the diagnosis of COPD, yet the condition is widely underdiagnosed. Therefore, additional screening methods that are easy to perform and to interpret are needed. Recently, we demonstrated that low frequency ultrasound (LFU) may be helpful for monitoring lung diseases. The objective of this study was to evaluate whether LFU can be used to detect air trapping in COPD. In addition, we evaluated the ability of LFU to detect the effects of short-acting bronchodilator medication.Methods: Seventeen patients with COPD and 9 healthy subjects were examined by body plethysmography and LFU. Ultrasound frequencies ranging from 1 to 40 kHz were transmitted to the sternum and received at the back during inspiration and expiration. The high pass frequency was determined from the inspiratory and the expiratory signals and their difference termed F. Measurements were repeated after inhalation of salbutamol.Results: We found signi ficant differences in F between COPD subjects and healthy subjects. These differences were already significant at GOLD stage 1 and increased with the severity of COPD. Sensitivity for detection of GOLD stage 1 was 83% and for GOLD stages worse than 1 it was 91%. Bronchodilator effects could not be detected reliably.Conclusions: We conclude that low frequency ultrasound is cost-effective, easy to perform and suitable for detecting air trapping. It might be useful in screening for COPD
Background:
Detection of influential actors in social media such as Twitter or Facebook plays an important role for improving the quality and efficiency of work and services in many fields such as education and marketing.
Methods:
The work described here aims to introduce a new approach that characterizes the influence of actors by the strength of attracting new active members into a networked community. We present a model of influence of an actor that is based on the attractiveness of the actor in terms of the number of other new actors with which he or she has established relations over time.
Results:
We have used this concept and measure of influence to determine optimal seeds in a simulation of influence maximization using two empirically collected social networks for the underlying graphs.
Conclusions:
Our empirical results on the datasets demonstrate that our measure stands out as a useful measure to define the attractors comparing to the other influence measures.
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
This study proposes a framework for the collaborative development of global start-up innovators in a multigenerational digital environment. Intergenerational collaboration has been identified as a strategy to support entrepreneurs during their formative years. However, integrating and fostering intergenerational collaboration remains elusive. Therefore, this study aims to identify competencies for successful global start- ups through intergenerational knowledge transfer. We used a systematic literature review to identify a competency set consisting of growth virtues, effectual creativity, technical domain, responsive teamwork, values-based organization, sustainable networking, cultural awareness, and facilitating intergenerational safety. The competency framework serves as a foundation for knowledge management research on the global innovation readiness of people to collaborate across generations in the digital age.
In this document a reliable data streaming mechanism for a TDMA LPWAN application is developed by adapting a link layer solution for power line communication, published at the International Symposium on Power Line Communications and its Applications (ISPLC) 2015. A C++ implementation of the services link layer is provided and demonstrated
working at a packet error rate of 50%.
In this scientific research, an innovative sensor system is developed to prevent child heatstrokes in vehicles. The system incorporates a 24 GHz Continuous-Wave (CW) radar system, which identifies vital signs of an infant through a 4-by-1 patch antenna array embedded in a specifically designed circuit board. Intelligent signal processing algorithms analyze data generated by the radar chip and execute processing tasks on a robust microcontroller. The child’s respiration
rate can be extracted qualitatively from the data in nearly real-time, enabling the system to differentiate between a child and a mere shopping bag on the seat. In the event of identifying a critical condition, the system transmits this information via a data bus to a central ECU within the vehicle. This ECU is integrated with GSM and GPS connections, allowing communication with the driver or emergency services. The development of the sensor system adheres to existing
automotive industry standards, featuring a cost-effective design intended as a prototype for large-scale production. Through rigorous evaluation across various scenarios, including realworld
situations with children, the sensor system is refined. The continuously reliable function of the developed radar-based sensor system holds the potential to save children’s lives, making
a major contribution to automotive safety.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
Gegenstand der hier vorgestellten Arbeit ist die Analyse des Status Quo von Pinkwashing und der Ableitung von Handlungsempfehlungen für die Marketing-Kommunikation. Dabei wird die Positionierung von Marken in der LGBTQ-Community aus einer ethischen Perspektive betrachtet. Im Rahmen dieser Masterarbeit werden teilstandardisierte Interviews mit Expert*innen aus Agenturen, dem Marketing- und
Brandmanagement und schließlich aus Diversitäts- und Inklusionsbereichen von Unternehmen geführt. Durch diese Interviews konnten Kriterien zur Identifikation von Pinkwashing sowie Handlungsempfehlungen für die authentische Positionierung in der
Kommunikation mit der LGBTQ-Community aufgestellt werden.
Schlagwörter: Pinkwashing, Marketingethik, LGBTQ-Community, Positionierung, Marke