Refine
Year of publication
Document Type
- Bachelor Thesis (98)
- Master's Thesis (31)
- Conference Proceeding (23)
- Article (12)
- Part of Periodical (10)
- Book (3)
- Report (3)
- Part of a Book (2)
- Doctoral Thesis (2)
- Working Paper (2)
Language
- German (144)
- English (41)
- Multiple languages (1)
Has Fulltext
- yes (186) (remove)
Is part of the Bibliography
- no (186)
Keywords
Institute
- Fachbereich 1 - Institut Informatik (59)
- Fachbereich 2 - Wirtschaftsinstitut (51)
- Fachbereich 4 - Institut Mess- und Senstortechnik (41)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (10)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
In this paper we discuss how group processes can be influenced by designing specific tools in computer supported collaborative leaning. We present the design of a shared workspace application for co-constructive tasks that is enriched by certain functions that are able to track, analyze and feed back parameters of collaboration to group members. Thereby our interdisciplinary approach is mainly based on an integrative methodology for analyzing collaboration behavior and patterns in an implicit manner combined with explicit surveyed data of group members’ attitudes and its immediate feedback to the groups. In an exploratory study we examined the influence of this feedback function. Although we could only analyze ad-hoc groups in this study, we detected some benefits of our methodology which might enrich real life Learning Communities’ collaboration processes. The data analysis in our study showed advantages of this feedback on processes of a group’s well-being as well as parameters of participation. These results provide a basis for further empirical work on problem solving groups that are supported by means of parallel interaction analysis as well as its re-use as information resource.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
1. Einleitung
1.1 Hintergrund
„Der Klimawandel und der Umgang mit dessen Folgen ist eine der zentralen Herausforderungen der Menschheit im 21. Jahrhundert“ (S.Weller et al., 2016).
Seit Beginn der Industrialisierung kommt es zu einem starken Anstieg der Treibhauskonzentration in der Atmosphäre, welcher durch die erhöhte Nutzung fossiler Brennstoffe, die Ausweitung der industriellen Produktion sowie der Viehzucht und die damit einhergehende Abholzung
vieler Wälder geschuldet ist (Umweltbundesamt, 2021). Durch den Klimawandel kommt es neben der Zunahme von Hitzewellen und Trockenphasen ebenfalls zu einem Anstieg von extremen Starkregenereignissen, bei denen intensive Niederschläge in kürzester Zeit auftreten. Der Grund für die Zunahme an Starkregenereignissen ist die globale Erwärmung, da diese eine stärkere Verdunstung und einen höheren Feuchtigkeitsgehalt in der Luft bewirkt. Seit Beginn der
flächendeckenden Wetteraufzeichnungen im Jahre 1881 ist ein stetiger Anstieg der Temperatur zu verzeichnen. Im Vergleich zum Zeitraum 1881-1920 war die vergangene Dekade (2011-2020) 2 Grad Celsius wärmer (Kasper et al. September, 2021). Während Dürren als Konsequenz von längeren Trockenzeiten zu erwarten sind, kommt es durch die Starkniederschläge und einhergehende Überlastung der Kanalnetzte häufiger und intensiver zu flussbedingten
Überschwemmungen und Sturzfluten (Brasseur et al., 2016). Charakteristisch für Sturzfluten ist das Auftreten in urbanen und gebirgigen Gebieten, sowie kurze Vorlaufzeit und hohe Fließgeschwindigkeiten. Auf Grund der kurzen Vorlaufzeit ist es problematisch die Bevölkerung rechtzeitig vor den Gefahren zu warnen und präventive Maßnahmen einzuleiten (Brasseur et
al. 2016, 97–98). Es ist notwendig realitätsnahe und kurzfristige Niederschlags- und Überflutungsvorhersagen treffen zu können. Dies ermöglicht es, die Bevölkerung rechtzeitig vor drohenden Gefahren durch Sturzfluten oder Überschwemmungen zu warnen und zu schützen.
Artificial intelligence (AI) is one of the most auspicious yet controversial technologies with virtually unlimited potential to solve almost all of the existential problems humanity is facing today.1 Huge resources are poured into the development, testing and application of AI that is supposed to be utilized in almost all areas of everyday life.2 It may be used to combat genetically inherited diseases, to revolutionize the economy, to bring prosperity and equality to everyone and to counter the effects of climate change.3 With AI as the enabling technology humanity may experience a better future. Today, AI capabilities can already drastically improve analytic processing tasks and algorithmic systems and have beaten humans in games such as chess.4 Yet, AI and all of its applications bring about a myriad of ethical challenges. Revolutionary weapon systems that achieve autonomy via AI and genome-editing powered by AI are just some specific examples.5 An omnipotent AI will be either the greatest or the vilest thing that has happened to humanity in its brief existence.6 However, even today more and more computational devices are connected to each other, spurring a huge increase in global data streams that can be used to further train and enhance AI systems.
The prowess of AI for executing analytic tasks paves the way for the use of AI in more and more applications. One of these applications, that shows great promise, is the use of AI in surveillance applications.7 AI surveillance applications are proliferating at a fast rate, with a number of appli-cations already being in use today.8 These applications are aimed at accomplishing a number of policy objectives, some are in accordance with basic human laws, some are definitely not and some
1 Cf. Hawking (2018). P. 183ff
2 Cf. Hawking (2018). P. 183ff.
3 Cf. Hawking (2018). P. 183ff.
4 Cf. Burton (2015). P. 1ff.
5 Cf. Hawking (2018). P. 183ff.
6 Cf. Hawking (2018). P. 183ff.
7 Cf. Feldstein (2019). P. 1.
8 Cf. Feldstein (2019). P. 1.
2
belong in the nebulous area in between lawful and unlawful.9 But what are lawful and unlawful uses of AI surveillance systems and what are their ethical implications?
This thesis will examine the ethical implications of AI based mass surveillance systems and try to answer the first central question, if it is possible to use AI based mass surveillance applica-tions in an ethical way. Furthermore, the thesis will attempt to answer the second central ques-tion and find out how the ethical use of AI based mass surveillance systems, if this ethical use is possible, materialize. Governmental agencies will be in the focus of this discussion, as their use of the technology may have bigger ethical challenges. Yet private companies will play a part as well. In an attempt to accomplish these two aims, the thesis will inspect the basics of ethics and possible ethical theories that can be utilized to answer the questions. Normative ethics will be stud-ied first with a focus on consequentialism and utilitarianism. To gain a deeper understanding of utilitarianism, act and rule utilitarianism will be compared. Afterwards, deontological theories will be the focus of the discussion with a concentration on deontological pluralism. Next, the mentioned theories will be evaluated, discussing advantages and weak spots of the theories, to assess which theory may serve as the ethical framework of this thesis and the subsequent answer to the two main questions.
The next step will be the establishment of the AI framework. This contains the definition of AI and a distinction of terms that are commonly used in the its environment such as automation and au-tonomy. The importance of data for AI will be discussed. Afterwards, the technological basis of AI will be outlined, discussing key concepts such as machine learning and deep learning. Addi-tionally, it will be examined how an AI learns. The possible uses of AI in general will be outlined in a brief fashion, blazing the trail to discussing the moral challenges of AI. Afterwards, the current pace of AI development will be studied.
In the chapter that follows, the use of AI in surveillance technology is going to be highlighted. The possible ways of how AI can be used for surveillance purposes are reviewed here, discussing facial
9 Cf. Feldstein (2019). P. 1.
3
and behavioral recognition systems, smart cities, smart policing, communications/data driven sur-veillance and their enabling technologies. Then, the global proliferation of AI surveillance systems is going to be outlined.
Subsequently, the accordance of AI surveillance with basic human laws and rights, such as the right to privacy, will be checked to find out if the law and the international framework of human rights allow for AI surveillance or at least have restrictions that would greenlight the use of AI surveillance technology. All the aspects of the thesis, especially including the selected ethical framework, will be combined in this last section in order to enable the adaptation of a framework that allows to find out, if AI surveillance systems can be ethically permissible while also creating insights how this ethical AI surveillance system must be engineered. To finish, the thesis will end with a conclusion.
Diese Arbeit beschäftigt sich mit der Erstellung einer Administratoroberfläche für die Lehre bei Photovoltaik (PV)-Praktika in der virtuellen Realität (VR). Die erstellte Umgebung bietet, mittels Bildschirmspiegelungen, Möglichkeiten zur didaktischen Anleitung und Unterstützung der Studierenden. Das Thema wurde aufgrund einer bestehenden Lehranwendung in der VR bedeutungsvoll und zeigt deutliches Potenzial. Diese Lehranwendung wird bereits umfassend und verpflichtend in den Praktika eingesetzt. Sie bietet einen praxisnahen Aufbau von Solaranlagen und erhöht gefahrlos die Experimentierfreudigkeit. Mit ihr lassen sich die aufgebauten Anlagen technisch prüfen, simulieren und bewerten. Zudem werden die beiden Möglichkeiten zur Unterstützung der Studierenden beurteilt. Als Ergebnis wird die Umsetzung der nahezu automatisierten Administratorober-fläche verdeutlicht und ein Usability-Test aus den Praktika evaluiert.
Schlagwörter: Administratoroberfläche, Bildschirmspiegelung, C, Didaktik, im-mersiv, Oculus Quest 2, Photovoltaik, Python, Tkinter, virtuelle Realität
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Stationäre Rohrströmungen
(2024)
The goal of this empirical study is to answer whether predictions about stock price movements can be made with the use of machine learning in the energy sector and what influence contributions from social media have on its development. To answer the research
question, the social media platforms Twitter and Reddit, in terms of the suitability of the information, were studied and evaluated. Then, the sentiments of the posts from social media were collected and used in machine learning models. The models include the Gradient Boosted Regression Tree, Multilayer Perceptron, and Long Short-Term
i Memory, which predict a subsequent day's closing stock price. The study showed that deviations from predictions of stock price movements of 1.05 % are possible and further sentiment values do not show significant positive effect on reducing the error value. The
result shows that the collected sentiments from the social media platform Twitter have no positive effect on the stock price movements within the energy industry.
Keywords: stock market, stock prediction, artificial neural networks, machine learning,
energy market, sentiment analysis
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
In dieser Arbeit wurde eine Motorsteuerung für mikrofluidische Peristaltikpumpen in Lab-on-a-Chip Systemen entwickelt. Neben der dafür notwendigen elektrischen Schaltung wurde viel Wert auf die softwareseitige Umsetzung gelegt. Zusätzlich zu der reinen Vorgabe von essentiellen Größen, wie beispielsweise der Drehzahl und dem damit geförderten Volumen, wird ein vielseitiges und zuverlässiges Steuerungssystem vorgestellt, das versucht Schwankungen im geförderten Flüssigkeitsstrom zu reduzieren. Um schon vor dem ersten Betrieb, des parallel zu dieser Arbeit gefertigten mechanischen Aufbau, die Leistung sowie Ausmaße der Schwankungen abzuschätzen, wurde der zu erwartende Volumenstrom auf Basis der geometrischen Ausmaße modelliert. Dadurch können Algorithmen zur Glättung des Flusses bereits in einer frühen Phase der Softwareentwicklung berücksichtigt werden. Für eine bessere Charakterisierung des mechanischen Aufbaus und Überwachung des Betriebs wurde das System um eine sensorlose Erkennung von Bewegungen des Motors ergänzt. Somit kann unter anderem die Zuverlässigkeit und Dimensionierung der verwendeten Motoren überprüft werden. Zusätzlich wurde der Prozess zum Verschweißen von thermoplastischer Elastomer Folie mit dem mikrofluidischen Chip optimiert.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
Diese Arbeit konzentriert sich auf die Erstellung einer umfassenden technischen Dokumentation für ein Medizinprodukt der Klasse IIa gemäß den Anforderungen der Medical Device Regulation (MDR) 2017/745. Das Hauptziel besteht darin, eine konforme Dokumentation zu entwickeln, die alle wesentlichen Aspekte der Produktentwicklung, Herstellung und Verwendung abdeckt. Besonderes Augenmerk wird darauf gelegt, die regulatorischen Anforderungen der MDR zu erfüllen, um die Sicherheit und Wirksamkeit des Produkts zu gewährleisten und eine Zulassung für den europäischen Markt zu ermöglichen. Die verschiedenen Bestandteile der technischen Dokumentation, einschließlich klinischer Bewertungen, Risikomanagement, Validierungstests, Konformitätsbewertungen und Kennzeichnung, werden gründlich untersucht. Es wird eine systematische und strukturierte Herangehensweise präsentiert, um eine erfolgreiche Konformitätsbewertung für das hier beschriebene Medizinprodukt der Klasse IIa zu erreichen. Die Ergebnisse dieser Arbeit tragen dazu bei, die Qualität und Sicherheit des hier bearbeiteten Medizinproduktes der Klasse IIa zu verbessern und somit die Patientensicherheit zu gewährleisten.
Kurzfassung
Gegenstand der hier vorgestellten Arbeit ist die Untersuchung des Einflusses der Modellbildung auf die rechnerischen Ermüdungsnachweise orthotroper Fahrbahnplatten. Dazu wurde eine orthotrope Fahrbahnplatte, die den geltenden Konstruktionsempfehlungen entspricht, mit der Software SOFiSTiK als Stabwerksmodell, Stabwerksmodell mit Schalendeckblech (kombiniertes Modell) und FE-Modell modelliert. Anschließend wurden Ermüdungsnachweise mit den Ermüdungslastmodellen (ELM) 3 und 4 für zwei Konstruktionsbereiche berechnet.
Die Ergebnisse zeigen eindeutig, dass die Modellbildung Einfluss auf die Ergebnisse der Ermüdungsnachweise für die in dieser Arbeit ausgewählte Konstruktion hat. Für möglichst genaue und plausible Nachweisergebnisse ist die Anwendung des FE-Modells in Kombination mit dem ELM 4 zu empfehlen. Ein erster grober Überblick über die Ermüdung orthotroper Fahrbahnplatten kann jedoch mit allen Berechnungsmodelle und unter Anwendung von ELM 3 erzielt werden. Entgegen den normativen Vorgaben wird in An-betracht der Ergebnisse die Durchführung von Ermüdungsnachweisen auch für Neubauprojekte empfohlen.
Schlagwörter: Modellbildung, Ermüdungsnachweis, orthotrope Fahrbahnplatten, Brü-ckenbau
Die vorliegende Masterarbeit befasst sich mit dem Thema Influencer-Marketing in der politischen
Kommunikation auf TikTok. Die Arbeit gibt einen Überblick über die theoretischen Hintergründe
von sozialen Netzwerken, Influencer-Marketing, TikTok und politischer Kommunikation.
Zuerst wurde überprüft, inwieweit sich Influencer-Marketing für die politische Kommunikation
auf TikTok eignet und welche Potentiale damit für politische Akteur:innen verbunden
sind. Im empirischen Teil sind Experteninterviews durchgeführt worden, mit dem Ziel,
Erkenntnisse zur Beantwortung der folgenden Forschungsfragen zu erhalten:
Wird TikTok als Marketing- und Kommunikationskanal für die politische Kommunikation
mit Erst- und Jungwähler:innen im Landtagswahlkampf in NRW und generell in der politischen
Kommunikation genutzt?
und:
In wie weit spielen Influencer:innen in der politischen Kommunikation von Parteien und
politischen Organisationen eine Rolle?
Um das Kommunikationsverhalten der Parteien auch von außen zu bewerten und im Anschluss
Handlungsempfehlungen geben zu können, wurden auch Interviews mit Experten für politische
Kommunikation durchgeführt.
Zusammenfassend konnte festgestellt werden, dass TikTok sich sowohl für die politische Kommunikation
als auch das Influencer-Marketing eignet. Allerdings haben in der politischen
(Wahlkampf-)Kommunikation weder TikTok noch Influencer:innen eine Relevanz. Die Parteivertreter:
innen hatten sich zwar alle mit TikTok als „neuem“ Social-Media-Kanal auseinandergesetzt,
jedoch haben die meisten die TikTok-Nutzung aus unterschiedlichen Gründen abgelehnt.
Auch die Möglichkeit, durch Kooperationen mit Influencer:innen auf TikTok vertreten
zu sein, wurde von den Parteivertreter:innen abgelehnt oder gar nicht in Betracht gezogen.
Da sich das Kommunikationsverhalten der Öffentlichkeit und vor allem zukünftiger, wahlentscheidender
Generationen maßgeblich geändert hat und ändern wird, wiesen die befragten Experten
ausdrücklich darauf hin, dass Politiker:innen auf TikTok präsent sein sollten, um junge
Menschen zu erreichen. Durch die beschriebenen Erkenntnisse erscheint es sinnvoll, den Themenkomplex
„Influencer-Marketing in der politischen Kommunikation auf TikTok“ weiterhin
zu beobachten und zu sehen, wie das Thema sich weiter entwickeln wird.
Der deutsche stationäre Einzelhandel gerät immer mehr unter Druck. Seit nunmehr fast einem Jahr bestimmt die Covid-19-Pandemie weltweit das menschliche Leben. Unter den Maßnahmen zum Schutz der deutschen Bevölkerung leidet auch die deutsche Wirtschaft. Vor allem den stationären Einzelhandel trifft es in dieser Zeit sehr. Leere Städte und geschlossene Läden sind schon fast zur Normalität geworden. Doch nicht erst seit Covid-19 erlebt der deutsche stationäre Einzelhandel finanzielle Einbußen. Fortschritte auf Gebieten der modernen Technologien wie „Big Data“ und die voranschreitende Digitalisierung kommen vor allem dem Onlinehandel, der auch von der Covid-19-Pandemie profitiert, zugute. Verbunden mit den sich verändernden Bedürfnissen der deutschen Bevölkerung an den Handel, greift der Online-Handel
den stationären Einzelhandel durch den Ausbau seiner Marktanteile an. Jedoch verspricht ein modernes, aber nicht neues Technologiegebiet dem stationären Einzelhandel Besserung. Die Nutzung von Künstlicher Intelligenz könnte dem Einzelhandel dazu verhelfen, selber Gewinne
aus den anderen modernen Technologiegebieten zu erzielen, sich den veränderten Bedürfnissen des Kunden anzupassen und dem Druck des Onlinehandels stand zu halten. Die vorliegende Arbeit setzt sich mit der Bewertung des Chancenpotenzials Künstlicher Intelligenz für die Zukunft des deutschen stationären Einzelhandels auseinander. Damit wird versucht die Frage, ob der Einsatz von KI-Anwendungen dem deutschen stationären Einzelhandel dazu verhelfen wird, die oben beschriebenen Herausforderungen zu bewältigen, zu beantworten.
Um dem Leser ein fundiertes Verständnis zu vermitteln, basiert die Ermittlung des Potenzials auf einer detaillierten Erläuterung der Künstlichen Intelligenz sowie deren Fähigkeiten und Chancen, aber auch ihrer Risiken und Hürden auf dem zukünftigen Weg der Implementierung.
Auf diesem Fundament wird dann mit Hilfe einer literarischen Analyse die Bewertung vorgenommen. Bisher von der Literatur wenig berücksichtigt sind Veränderungen der Situation des deutschen stationären Einzelhandels durch die Auswirkungen der noch immer anhaltenden Covid-19-Pandemie. Die Ergebnisse der Literaturanalyse werden daher durch die Durchführung und Auswertung von Experteninterviews, als Methode der qualitativen Primärforschung,
auf Aktualität und Übereinstimmung mit Erkenntnissen aus der Praxis überprüft.
Mit Dara Kossok-Spieß, Referentin des Handelsverbands Deutschland, Niels Will und Frederic Kerber, beide im Einsatz für praxisnahe Forschungsprojekte des deutschen Forschungsinstituts für Künstliche Intelligenz, sind sowohl Vertreter beider Interessengruppen – der Anwendung sowie der Forschung – vertreten. Hierdurch konnten neue Erkenntnisse über die zukünftigen Auswirkungen der Covid-19-Pandemie auf den deutschen stationären Einzelhandelsmarkt gewonnen werden. Außerdem konnten Barrieren, die in naher Zukunft durch die Zusammenarbeit der Anwender mit der Forschung, gelöst werden müssen, damit Künstliche Intelligenz flächenübergreifend in den deutschen stationären Einzelhandel einziehen kann, ermittelt werden. Die vorliegende Arbeit richtet sich daher an alle Personen, die ein Interesse an der Bewertung des Technologiegebiets Künstlicher Intelligenz besitzen und/oder sich für die Zukunft des deutschen stationären Einzelhandels interessieren.
Ziel dieser Arbeit ist es, anhand des Lastgangs eines Produktionsbetriebs in der Stahlverarbeitung eine PV-Anlage optimal auszulegen. Anhand genauer Analysen für den Beispielbetrieb H. Janssen GmbH & Co. Maschinen- und Stahlbau KG soll der Auslegungsprozess für vergleichbare Betriebe vereinfacht werden. Hierfür sollen Auslegungsgrenzen herausgearbeitet werden, die auf ähnliche Projekte übertragen werden können. Um die PV-Anlage optimal für den Lastgang auszulegen, werden mithilfe der Simulationssoftware PV-SOL mehrere verschiedene Anlagen- und Speichergrößen simuliert und analysiert. Diese Analysen haben gezeigt, dass es bei der Dimensionierung der Anlagengröße sowie bei der Speichergröße Grenzen gibt, ab denen eine Vergrößerung der Anlagen oder des Speichers zur Optimierung der Anlagen nicht mehr sinnvoll ist. Für die Anlagengröße stellte sich heraus, dass die Grenzen der Anlagengröße bei 1,00 kWp/MWh und für die Speichergröße bei 1,00 kWh/kWp liegt. Außerdem hat sich gezeigt, dass die Nutzung eines Speichers erst ab einer gewissen Anlagengröße (0,50 kWp/MWh) zur Optimierung einer PV-Anlage führt. Neben der technischen Optimierung wurde auch die wirtschaftliche Sicht genauer betrachtet. Hierbei wurde mithilfe der Simulationsergebnisse aus PV-SOL eine Amortisationsrechnung durchgeführt. Es wurden drei verschiedene Anlagentypen untersucht die Volleinspeisung, die Eigenverbrauchsdeckung ohne Speicher und die Eigenverbrauchsdeckung mit Speicher. Diese Wirtschaftlichkeitsbetrachtung hat ergeben, dass der Anlagentyp „Eigenverbrauchsdeckung ohne Speicher“ die wirtschaftlichste Option ist. Die Auslegungsgrenzen, die sich in der technischen Analyse herausgestellt haben, lassen sich auf ähnliche Projekte übertragen.
Magnesium ist das leichteste Metall, das im konstruktiven Leichtbau Anwendung findet. Zusätzlich ist Magnesium ein wichtiges Element in Aluminiumlegierungen, was den derzeit bedeutendsten Einsatzbereich darstellt. Die Gewinnung von primären Magnesiummetall aus verschiedenen Rohstoffen ist ein sehr energieintensiver Prozess, der vorwiegend in China stattfindet. Die für die Herstellung von einem Kilogramm metallischen Magnesium benötigte Endenergie beträgt zwischen 18 und 80 kWh, je nach eingesetztem Energieträger und Prozess.
Das Umschmelzen von sauberen Neuschrotten erfordert lediglich rund 1 kWh je kg Magnesiumlegierung. Dies verdeutlicht bereits, dass sich durch ein Recycling, im Vergleich zur Primärproduktion, erhebliche Energieeinsparungen erzielen lassen. Altschrotte aus Produkten am Ende ihres Nutzungszyklus werden gegenwärtig kaum innerhalb des Kreislaufs von Magnesiumlegierungen recycelt. Meist werden Magnesiumlegierungen gemeinsam mit der Aluminiumfraktion dem Recycling zugeführt und so im besten Fall als Legierungselement genutzt.
Im Rahmen dieser Arbeit werden die theoretischen Potenziale von Energie- und Treibhausgasemissionseinsparungen durch das Recycling von Magnesium-Altschrotten im Vergleich zum Primärmarkt einer AZ91D-Legierung untersucht. Mittels einer modellierten Ökobilanz werden die Einsparpotenziale für die Wirkungskategorien Treibhausgasemissionen (Global Warming Potential) sowie den kumulierten Energieaufwand (KEA) ermittelt.
Über die Modellierung und Ermittlung der Potenziale hinaus wurden mehrere Expert:inneninterviews geführt. Schlussfolgerungen aus diesen Gesprächen sind, dass die für ein geschlossenes Recycling nötige Technik zur Verfügung steht und gegenwärtig nicht gehobene Potenziale durch das Recycling bestehen. Hinsichtlich der wirtschaftlichen Rah-menbedingungen des Recyclings von Altschrotten wurden divergierende Einschätzungen festgestellt, wonach die geringen Mengen der Altschrotte hemmend, das gestiegene Preisniveau hingegen als fördernd für ein geschlossenes Recycling identifiziert wurden.
Packaging, as a communication tool between the end consumer and the product, influences the purchase decision process and ultimately the purchase decision of the consumer (cf. Butkeviciene et al. 2008, p.59; Mishra/Jain 2012, p.49f). Since the influence of the type of
packaging on the purchase intention has not yet been investigated, this connection will be examined more closely in this paper using the example of strained tomatoes and the corresponding target group. In addition, possible influencing factors (moderators) are to be identified and investigated, which show an additional effect on the relationship. The target group, on which the two aspects of the research question are to be examined, is defined as buyers of strained tomatoes, in the age of 20 to 35 years, who are living in Germany. An experiment was used to investigate this topic. For this purpose, an online survey was conducted using a standardized questionnaire. Three groups were formed according to the different types of packaging, to
which the subjects were assigned by a randomization function in the questionnaire. The test persons were randomly selected from the private and professional network of the researcher.
The survey period lasted approximately two weeks (11/03 – 11/14/2020). The analysis of the usable data was carried out with the analysis of variance (ANOVA) in order to check the influence of the packaging type on the purchase intention. This showed that there was no significant
correlation, but the significance level was very close to the threshold for a significant value.
The covariance analysis (ANCOVA), which was used to take into account possible further moderators(covariates), showed that the information on the packaging material have an additional effect. The other moderators could not be examined because at least one of the conditions for the calculation was not fulfilled.
Die Digitalisierung des deutschen Gesundheitswesens ist im direkten Vergleich zu anderen Branchen und Gesundheitswesen deutlich im Rückstand. Ursachen für diesen Rückstand sollten identifiziert werden, um aus den gefundenen Faktoren Handlungsempfehlungen zu entwickeln, die dabei helfen sollen künftige Digitalisierungsprojekte effizienter zu gestalten. Zur Identifizierung wurde zunächst eine unstrukturierte Literaturrecherche durchgeführt, gefolgt von Experteninterviews, die den eigentlichen Kern der Arbeit darstellen. Die ausgewählten Probanden stellen Beteiligten des Projektes elektronische Arbeitsunfähigkeitsbescheinigung dar, dessen Projektverlauf evaluiert wurde, um aus den Herausforderungen zu lernen.
This thesis examines the role of economy in the transformation of Japanese energy supply. In 2021, following the Paris Agreement example, the Japanese Government formulates their “6th Energy plan” to realize the country's national energy policy aims to reduce CO2 emissions and secure energy supplies while increasing economic efficiency. This entails an emission reduction target of nearly 50 % compared to 2013 by 2030 and a complete greenhouse gas emission neutrality target by 2050. In order to achieve these Japan plans to reduce traditional combustibles fuels and introduce renewables as main sources, while nuclear energy will be used as support and safety load. The Japanese Government ensures of the necessity of the nuclear technology in spite of the critical effects the Fukushima accident had on the nation.
Japans energy supply depends by majority on fuel imports. The rising prices of fossil fuels, which are due to the Russian aggression, are causing economic hardships in Japan, which the Government is attempting to contain. These hardships are one of the assumed reasons of the sudden changes in the energy policies. Two hypotheses are established. The first one is that the METI is the main contributor of policy making and main force of the energy transfor-mation, therefore economic reasons guide the energy plan. The second one is that the nuclear energy is preferred because of complex external factors, like stakeholder and historical pecu-liarities of the energy sector. Most importantly, climate protection is only of secondary im-portance in the energy transformation. Asserting that economical motives are the main drivers of energy transformation, the Japanese 6th energy strategy is therefore analyzed. The Rational Choice theorem is chosen to be the academic foundation of this thesis. The theory describes a decision-making process which compares alternative paths of action and identifies the most suitable choice. Main elements are the “decision-making rule” and an “environmental-factor”. In the analysis of this thesis a "cost reducing" decision rule is adopted. The analysis consists of two parts in which these elements are analyzed.
The analysis is resulting in the recognition of METI as the most influential political organ. Ad-ditionally, the transformation of Japanese energy supply is heavily influenced by extern parties, especially the industry and businesses. The Keidanren and members of the “nuclear village” are found to be influencers and driving forces for nuclear energy. Furthermore, the analyze underlines the clear preference of METI for nuclear energy. Although different opinions in the midst of Japanese government (first and foremost the MOE) exist, there are no real competitor against METIs policy making. The thesis concludes that as long as METI and its beneficiaries are not willing to change the energy mix, nothing is changing. The academic research has demonstrated that even a more ambitious plan and a greater commitment to renewable ener-gies can achieve base load capability, but the government does not welcome such plans.
Inverter auf Basis der Pulsweitenmodulation dominieren in dem heutigen Stand der Technik. Wie bei den meisten elektronischen Einrichtungen entstehen während ihres Betriebs mehr oder weniger ungewollte Störungen, welche zur Beeinträchtigung der Funktion von anderen Geräten oder elektronischen Schaltungen führen. Die dafür angewandten technischen Gegenmaßnahmen scheinen meist aufwandmäßig hoch zu sein insbesondere bei kritischen elektrischen Einrichtungen. Dank der Resonanzinvertertopologie wird dieser Aufwand zum größten Teil erspart. Der Aufbau und die Funktionsweise der beiden Invertertopologien werden einzeln erläutert. Nach einigen Simulationsdurchführungen, welche unter verschiedenen Betriebsfrequenzen nacheinander erfolgen, werden die beiden Inverter gegenübergestellt und Mithilfe der Simulationsergebnisse verglichen. Aus den allgemeinen Vergleichen stellt sich heraus, dass die Resonanzinvertertopologie insbesondere bei niedrigen Frequenzen im EMV-Aspekt sowie unter Betrachtung der Leistungsfähigkeit den SVPWM-Inverter gewinnt. Während der Resonanzinverter in den niedrigen Frequenzen mehr Störaussendungen als der SVPWM-Inverter produziert, ist das Phänomen bei höheren Frequenzen eher invers.
Electro-magnetic acoustic transducers (EMATs) are intended as non-contact and non-destructive ultrasound transducers for metallic material. The transmitted intensities from EMATS are modest, particularly at notable lift off distances. Some time ago a concept for a “coil only EMAT” was presented, without static magnetic field. In this contribution, such compact “coil only EMATs” with effective areas of 1–5 cm2 were driven to excessive power levels at MHz frequencies, using pulsed power technologies. RF induction currents of 10 kA and tens of Megawatts are applied. With increasing power the electroacoustic conversion efficiency also increases. The total effect is of second order or quadratic, therefore non-linear and progressive, and yields strong ultrasound signals up to kW/cm2 at MHz frequencies in the metal. Even at considerable lift off distances (cm) the ultrasound can be readily detected. Test materials are aluminum, ferromagnetic steel and stainless steel (non-ferromagnetic). Thereby, most metal types are represented. The technique is compared experimentally with other non-contact methods: laser pulse induced ultrasound and spark induced ultrasound, both damaging to the test object’s surface. At small lift off distances, the intensity from this EMAT concept clearly outperforms the laser pulses or heavy spark impacts.
A simple copper coil without a voluminous stationary magnet can be utilized as a non-contacting transmitter and as a detector for ultrasonic vibrations in metals. Advantages of such compact EMATs without (electro-)magnet might be: applications in critical environments (hot, narrow, presence of iron filings…), potentially superior fields (then improved ultrasound transmission and more sensitive ultrasound detection).
The induction field of an EMAT strongly influences ultrasound transduction in the nearby metal. Herein, a simplified analytical method for field description at high liftoff is presented. Within certain limitations this method reasonably describes magnetic fields (and resulting eddy currents, inductances, Lorentz forces, acoustic pressures) of even complex coil arrangements. The methods can be adapted to conventional EMATS with a separate stationary magnet.
Increased distances (liftoff) are challenging and technically relevant, and this practical question is addressed: with limited electrical power and given free space between transducer and target metal, what would be the most efficient geometry of a circular coil? Furthermore, more complex coil geometries (“butterfly coil”) with a concentrated field and relatively higher reach are briefly investigated.
This experimental study demonstrates for the first time a solid-state circuitry and design for a simple compact copper coil (without an additional bulky permanent magnet or bulky electromagnet) as a contactless electromagnetic acoustic transducer (EMAT) for pulse echo operation at MHz frequencies. A pulsed ultrasound emission into a metallic test object is electromagnetically excited by
an intense MHz burst at up to 500 A through the 0.15 mm filaments of the transducer. Immediately thereafter, a smoother and quasi “DC-like” current of 100 A is applied for about 1 ms and allows an
echo detection. The ultrasonic pulse echo operation for a simple, compact, non-contacting copper coil is new. Application scenarios for compact transducer techniques include very narrow and
hostile environments, in which, e.g., quickly moving metal parts must be tested with only one, non-contacting ultrasound shot. The small transducer coil can be operated remotely with a cable
connection, separate from the much bulkier supply circuitry. Several options for more technical and fundamental progress are discussed.
Roboter und Arbeitsplätze
(2022)
Das Ziel dieser Bachelorarbeit ist es, einen Zusammenhang zwischen den Roboterzahlen und der Arbeitslosigkeit herauszuarbeiten. Zunächst werden die Beschäftigungseffekte durch den Einsatz von Robotern beschrieben. Anschließend werden unterschiedliche Daten von mehreren
Ländern aus dem Jahr 2020 anhand einer empirischen Regression analysiert, sodass schlussfolgernd interpretiert werden kann, ob Beziehungen zwischen der Anzahl an Robotern und der Arbeitslosenquote bestehen.
In den letzten Jahren sind unzweifelhaft technologische Durchbrüche gelungen, es entstanden Innovationen von selbstfahrenden Autos bis hin zu Künstlichen Intelligenzen. Die Auswirkungen der technischen Neuerungen lassen auf der einen Seite Hoffnungen und auf der
anderen Seite Ängste und Befürchtungen entstehen. Während die Hoffnungen darauf beruhen, dass das menschliche Leben durch die Hilfe von Robotern erleichtert wird, richtet sich der Kern
der Befürchtungen auf die Ambivalenz des technischen Fortschritts bei seinen Auswirkungen auf Produktion und Beschäftigung.
In dieser Arbeit stehen die Roboter im Mittelpunkt. Aufgrund der vielseitigen Einsatzmöglichkeiten, die diese Roboter vorweisen, entsteht die Besorgnis, dass dies bald zu einem „Ende der Arbeit“ führen könnte.
Mit dem wachsenden Konsum elektronischer Mobilgeräte steigen auch die Gefahrenpotenziale, welche aus den in ihnen enthaltenen Lithium-Ionen-Batterien resultieren. Ob bei der Sortierung von Batterien in Recyclinghöfen, oder bei Sicherheitskontrollen an Flughäfen: Die Nachfrage der autonomen Erkennung von Batterien in elektronischem Müll oder Gepäck der Passagiere steigt.
In der vorliegenden Bachelorarbeit wird deshalb der aktuelle Stand der Technik folgender Thematik dargelegt: Erkennung und Klassifizierung elektronischer Mobilgeräte sowie der darin enthaltenen Batterien auf X-Ray-Aufnahmen mittels Transfer Learning. Zunächst wird dabei auf die aktuellen Möglichkeiten im Bereich Machine Learning, sowie letzte Veröffentlichungen bzgl. ähnlicher Thematik eingegangen. Um den Stand der Technik zu verbessern, werden daraufhin mehrere Versuche mit dem aktuell präzisesten Machine-Learning-Modell zur Echtzeit-Objekterkennung „YOLOv5“ und einem umfassenden Datensatz namens „HiXray“ durchgeführt. Der Gebrauch vom Konzept Transfer Learning und dessen Effekt auf die Versuchsreihe wird im Laufe der Arbeit immer wieder angeschnitten. Die Ergebnisse des Experiments zeigen: Mit YOLOv5 ist zwar noch keine vollständig autonome Erkennung elektronischer Mobilgeräte und derer Batterien auf X-Ray-Aufnahmen möglich, jedoch konnte unter Nutzung von Transfer Learning der Stand der Technik verbessert werden. Weitere Forschung in diesem Bereich könnten diese aber bereits in naher Zukunft ermöglichen, wodurch Sicherheitsrisiken minimiert und diverse Prozesse an Sicherheitskontrollen oder Recyclinghöfen automatisiert werden könnten.
Schlagwörter: Objekterkennung, X-Ray, Mobilgeräte, Lithium-Ionen-Batterie, Transfer Learning, Recycling, Sicherheit, YOLOv5
Ziel der hier vorgestellten Arbeit ist es, Handlungsempfehlungen für einen forcierten Photovoltaik-Ausbau zu nennen. Dazu wird die folgende Forschungsfrage gestellt: Welche Handlungen sind notwendig, um das PV-Ziel der Bundesregierung - 215 GW installierte PV Leistung bis zum Jahr 2030 - zu erreichen? Um die Frage zu beantworten, wird auf die aktuelle gesetzliche Grundlage eingegangen und Rahmenbedingungen identifiziert, die dem Photovoltaik-Ausbau entgegenstehen und entsprechende Handlungsempfehlungen genannt. Das Osterpaket steht hierbei im Vordergrund, da dieses die gesetzliche Grundlage für das Erneuerbare-Energien-Gesetz 2023 bilden soll. Auch wird vor dem Hintergrund des Ukraine-Krieges und der damit angespannten Lage der Energieversorgung auf das Thema Bezug genommen. Zur Bearbeitung des Themas wird speziell auf Photovoltaik-Dachanlagen, Freiflächenanlagen und Anlagen, die nicht über das Erneuerbare-Energien-Gesetz gefördert werden, eingegangen. Es zeigt sich, dass am Osterpaket noch Handlungsempfehlung besteht, weshalb am Ende spezifische Änderungs-vorschläge für Paragraphen genannt werden.
Entwicklung einer Simulationsumgebung zur Ermittlung der Verluste Moderner Leistungstransistoren
(2023)
In dieser Bachelorarbeit liegt der Fokus auf der Simulation von Leistungselektronikkomponenten, wobei insbesondere MOSFETs und IGBTs im Mittelpunkt stehen. Der Verwendung von modernen Leistungshalbleiterbauteilen in elektrischen Schaltungen kommt eine immer größere Bedeutung zu, da sie die Effizienz und Leistungsfähigkeit von Energiewandlern und Invertern maßgeblich beeinflussen. Um ihre Funktionalität und Leistung unter verschiedenen Bedingungen zu verstehen und optimieren zu können, ist die Simulation ein unverzichtbares Werkzeug.
Ein wesentlicher Schwerpunkt liegt auf dem Vergleich zwischen Silizium (SI) und Siliziumkarbid (SiC) MOSFETs in einem Halbbrücken-Inverter. Hierbei werden Simulationen unter verschiedenen Temperaturen durchgeführt, um die Auswirkungen von Temperaturschwankungen auf das Verhalten dieser Transistoren zu untersuchen. Die Ergebnisse ermöglichen Einblicke in die Leistungsfähigkeit und Vor- und Nachteile der beiden Materialien in unterschiedlichen Anwendungen.
Des Weiteren wird die Simulation eines IGBTs (Insulated Gate Bipolar Transistor) eingehend untersucht. Dies umfasst die Analyse seiner elektrischen Eigenschaften sowie die Simulation und Darstellung der Einschaltverluste (EON) und Ausschaltverluste (EOFF). Die Simulationen werden mithilfe von LTspice durchgeführt, und die Verluste werden numerisch in MATLAB integriert. Diese Untersuchungen tragen dazu bei, das Verhalten von IGBTs in Schaltungen besser zu verstehen und tragen zur Optimierung von Leistungselektroniksystemen bei.
Die vorliegende Arbeit bietet somit einen umfassenden Einblick in die Simulation und Analyse von Leistungselektronikkomponenten unter verschiedenen Bedingungen und trägt zur Entwicklung effizienterer und zuverlässigerer elektrischer Schaltungen bei.
Background:
Detection of influential actors in social media such as Twitter or Facebook plays an important role for improving the quality and efficiency of work and services in many fields such as education and marketing.
Methods:
The work described here aims to introduce a new approach that characterizes the influence of actors by the strength of attracting new active members into a networked community. We present a model of influence of an actor that is based on the attractiveness of the actor in terms of the number of other new actors with which he or she has established relations over time.
Results:
We have used this concept and measure of influence to determine optimal seeds in a simulation of influence maximization using two empirically collected social networks for the underlying graphs.
Conclusions:
Our empirical results on the datasets demonstrate that our measure stands out as a useful measure to define the attractors comparing to the other influence measures.
Background:
Influential actors detection in social media such as twitter or Facebook can play a major role in gathering opinions on particular topics, improving the market
-
ing efficiency, predicting the trends, etc.
Proposed methods:
This work aims to extend our formally defined
T
measure to
present a new measure aiming to recognize the actor’s influence by the strength of
attracting new important actors into a networked community. Therefore, we propose a
model of the actor’s influence based on the attractiveness of the actor in relation to the
number of other attractors with whom he/she has established connections over time.
Results and conclusions:
Using an empirically collected social network for the
underlying graph, we have applied the above-mentioned measure of influence in
order to determine optimal seeds in a simulation of influence maximization. We study
our extended measure in the context of information diffusion because this measure is
based on a model of actors who attract others to be active members in a community.
This corresponds to the idea of the IC simulation model which is used to identify the
most important spreaders in a set of actors.
Keywords: Actor influence, Social media networks, Twitter, IC model, Information
diffusion, Independent cascade model, T measure
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
Efficient photoluminescence (PL) spectra from GaN and InGaN layers at temperatures up to 1100 K are observed with low noise floor and high dynamic resolution. A number of detailed spectral features in the PL can be directly linked to physical properties of the epitaxial grown layer. The method is suggested as an in situ monitoring tool during epitaxy of nitride LED and laser structures. Layer properties like thickness, band gap or film temperature distribution are feasible.
In this work we report the first quasi-continuous in-situ photoluminescence study of growing InGaN LED structures inside an industrial-grade metal-organic vapor phase epitaxy (MOVPE) reactor at growth temperature. The photoluminescence spectra contain information about temperature, thickness and composition of the epitaxial layers. Furthermore, the in-situ spectra – even at an early stage of the growth of the active region – can be used to predict the photoluminescence emission wavelength of the structure at room temperature. In this study an accuracy of this predicted wavelength in the range of ± 1.3 nm (2σ) is demonstrated. This technique thus appears suitable for closed-loop control of the emission wavelength of InGaN LEDs already during growth.
Photoluminescence (PL) in GaN or InGaN layers monitored during epitaxial growth at high temperatures permits a quasi-continuous in situ characterization of opto-electronic properties. Therefore, epitaxial parameters can now be optimized at the earliest possible stage. A pulsed and high-power UV laser was required for PL excitation at high temperatures. Herein, the underlying nonlinear mechanism was studied via time-resolved PL experiments and rate equation-based modeling. A temperature-activated and saturable path for quenching over defects was identified. Beyond the saturation threshold, reasonably-intensive PL sets in. At high temperatures not only is the near band gap-PL present, but also—as a new observation—a defect-assisted PL emerges. Apart from these specific electronic transitions in high-temperature PL of GaN, a simple, but reasonably predictive model of the luminescent thin film has been set up to track down interference fringes in the PL spectra. It is worth mentioning that the spectral PL modulation (aiming at the Purcell effect) is often mixed up with ordinary Fabry–Pérot interference. A distinction has become key to properly analyze the spectral signatures of high-temperature PL in order to provide a reliable in situ characterization of GaN layers during epitaxial growth
Photolumineszenz (PL) aus Halbleiterstrukturen liefert Informationen bezüglich verschiedener Materialparameter wie z.B. Bandlücke, Schichtdicke sowie Temperatur. PL-Messungen werden klassischerweise erst ex situ und somit nach dem Produktionsprozess vorgenommen. Wird eine derartige PL-Messung während der Epitaxie einer Halbleiterstruktur und den damit verbundenen hohen Wachstumstemperaturen durchgeführt, erlaubt dies eine quasi-kontinuierliche In-situ-Charakterisierung der optoelektronischen Eigenschaften dieser Struktur zum frühestmöglichen Zeitpunkt, also noch in der Produktionsphase. Hierdurch wird eine In-situ-Optimierung der Prozessparameter ermöglicht, welche bei einer Ex-situ-Messung nicht gegeben ist. Die vorliegende Arbeit beschreibt zunächst theoretisch und dann anhand praktischer Messungen an industrienahen Epitaxie-Anlagen erstmals eine quasi-kontinuierliche In-situ-PL-Messung am Beispiel von wachsenden Nitrid-Halbleiterstrukturen. Über zeitaufgelöste PL-Messungen wird ein temperaturabhängiger Quenching-Mechanismus bei Gallium-Nitrid (GaN) und Indium-Gallium-Nitrid (InGaN) aufgezeigt, welcher den Einsatz von gepulsten Lasern als PL-Anregungsquelle bei hohen Wachstumstemperaturen einer Epitaxie erforderlich macht. Mit In-situ-PL-Messungen können hierdurch erstmals verschiedene Parameter einer gerade wachsenden Halbleiterschicht charakterisiert werden. Neben der Bestimmung der Temperatur und der Schichtdicke einer wachsenden, auf InGaN basierten LED-Struktur wird auch die Möglichkeit demonstriert, in einem frühen Stadium des Wachstums einer LED-Struktur ihre spätere Emissionswellenlänge bei Raumtemperatur vorherzusagen, und dies mit einer Genauigkeit von ± 1,3 nm (2σ). Diese Arbeit zeigt somit neben den industriell etablierten Messtechniken, wie z.B. pyrometrische Verfahren, eine weitere Möglichkeit zur Prozessüberwachung einer Epitaxie auf.
Energieeinsparung und Ressourcenschonung werden gerade vor dem Hintergrund der aktuellen politischen, wirtschaftlichen und klimakritischen Situation auch global betrachtet immer wichtiger. In diesem Zusammenhang bietet besonders der Bestandsgebäudebereich ein großes Einsparpotential. Neben der Reduzierung der Heizwärmeverluste
durch eine gute thermische Gebäudehülle und effizienter Anlagentechnik, kann auch durch Einregulierung der Heizungsanlage durch einen hydraulischen Abgleich einiges an Wärmeenergie eingespart werden. Durch eine raumweise Heizlastberechnung aus der sich exakt die zur Raumerwärmung erforderlichen Durchflussmengen ermitteln lassen, können durch geeignete Thermostate in Kombination mit geregelter Hocheffizienzpumpentechnik die erforderlichen Wärmemengen optimiert und dadurch Wärmeverluste reduziert werden.
Das Vorgehen bei der Durchführung eines hydraulischen Abgleichs soll anhand einer geeigneten Lernsituation mittels eines Schulungsstandes (Wilo-Brain-Box) den Studierenden praktisch nahegebracht werden.
Digital transformation is a process of digitizing the working and living environment in which people are at the center of digitization. In this paper, we present a personas-based guideline for system developers on how the humanization of digital transformation integrates into the design process. The proposed guideline uses the positive personas from the beginning as a basis for the transformation of the working environment into the digital form. We used the literature research as a preliminary study for the process of wellbeing-driven digital transformation design, consisting of questions for structuring the required information in the positive personas as well as a potential method that could be integrated into the wellbeing-based design process.
Die Möglichkeiten der Wissensvermittlung über eingebettete Systeme haben sich durch das erforderliche distance learning stark verändert. Die bekannten didaktischen Konzepte, welche bis dahin angewandt wurden, werden durch den Wegfall von Präsenz-Praktika und den fehlenden Zugang zu einem IoT- Labor ausgehebelt.
Diese Master-Thesis beschäftigt sich daher mit der Idee, wie eine Überholung des Eingebettete Systeme-Moduls an der Hochschule Ruhr West sowohl die Modulziele weiter erfüllen kann als auch darüber hinaus einen Mehrwert erschaffen wird. Vor diesem Hintergrund wird untersucht wie durch die Einführung eines Remote-Labs in Kombination mit einer kollaborativen Entwicklungssoftware für Lerngruppen, Anreize für die Studierenden geschaffen werden können, die ihnen praxisnäheres und fundiertes Wissen in der Entwicklung eingebetteter Systeme vermitteln.
Dieses neue Vorgehen verwendet einen Peer-Group-Code-Bearbeitung- Ansatz in Echtzeit und Peer-to-Peer-Videokonferenzen und verteilt über den MQTT-Server die Interaktion der Hardwareentwicklung als integralen Bestandteil eines Kurskonzepts. Ziel ist es, die Motivation und die Lernleistung der Schüler zu verbessern.
Das Vorgehen wird anhand begleitender Umfragen während des Moduls weiterentwickelt und die Semesterergebnisse werden unter Zuhilfenahme von Bewertungskriterien mit denen vergangener Jahre verglichen. Darüber hinaus wird das neue Kurskonzept durch eine Expertenbefragung in Form von Studierenden evaluiert, welche den Kurs in seiner alten Form durchlaufen haben.
Die Energiewende schreitet in Deutschland weiter voran und die im Jahr 2021 neu gewählte Bundesregierung setzt dafür deutliche Zeichen in ihrem Koalitionsvertrag. Bis 2030 sollen 80 Prozent des antizipierten Strombedarfs von 680-750 Terawattstunden (TWh) aus erneuerbaren Energien (EE) stammen.1 Insbesondere Windkraft und Solarenergie sollen in Deutschland ihre bereits sehr relevante Rolle weiterentwickeln und einen Großteil dieses Strombedarfs erzeugen. So gibt die Bundesregierung ein neues Ausbauziel von 200 Gigawatt (GW) installierter Leistung für Photovoltaik (PV) vor und möchte zwei Prozent der Landesfläche für Windenergie ausweisen. Außerdem sollen bürokratische Hürden und langwierige Genehmigungsprozess vereinfacht und reduziert werden.2
Der Ausbau der EE führt aufgrund der zunehmenden volatilen Einspeisung zu einer höheren Netzbelastung. Dadurch wiederum wird das Potenzial der regenerativen Energiequellen nicht optimal genutzt, wenn beispielsweise Windkraftanlagen (WKA) abgeregelt werden müssen.3
Ein weiterer Baustein der Energiewende und vor allem auch der Mobilitätswende stellt die Elektromobilität dar. Deutschland erlebt seit wenigen Jahren einen Markthochlauf, der sich in rasant steigenden Zulassungszahlen von Elektrofahrzeugen (eletric vehicle: EV) und dem Ausbau der deutschlandweiten Ladeinfrastruktur darstellt.4 Abbildung 1 (siehe S. 8) zeigt ein nahezu exponentielles Wachstum für neuzugelassene vollelektrische Fahrzeuge (battery electric vehicle: BEV) sowie für Plug-In-Hybride (PHEV).
This study aims to determine the competing concerns of people interested in startup development and entrepreneurship by using topic modeling and sentiment analysis on a social question-and-answer (SQA) website. Understanding the underlying concerns of startup entrepreneurs is critical to society and economic growth. Therefore, greater scientific support for entrepreneurship remains necessary, including data mining from virtual social communities. In this study, an SQA platform was used to identify the sentiment of thirty concerns of people interested in startup entrepreneurship. Based on topic modeling and sentiment analysis of 18819 inquiries in various forums on an SQA, we identified additional questions about founder figures, keys to success, and the location of a startup. In addition, we found that general questions were rated more positively, especially when it came to pitching, finding good sources, disruptive innovation, idea generation, and marketing advice. On average, the identified concerns were considered 48.9 percent positive, 41 percent neutral, and 10.1 percent negative. This research establishes a critical foundation for future research and development of digital startups by outlining a variety of different concerns associated with startup development in the digital age.
Open Educational Resources (OER) intend to support access to education for everyone. However, this potential is not fully exploited due to various barriers in the production, distribution and the use of OER. In this paper, we present requirements and recommendations for systems for global OER authoring. These requirements as well as the system itself aim at helping creators of OER to overcome typical obstacles such as lack of technical skills, different types of devices and systems as well as the cultural differences in cross-border-collaboration. The system can be used collaboratively to create OER and supports multi-languages for localization. Our paper contributes to facilitate global, collaborative e-Learning and design of authoring platforms by identifying key requirements for OER authoring in a global context.
Why Should the Q-method Be Integrated Into the Design Science Research? A Systematic Mapping Study
(2019)
The Q-method has been utilized over time in various areas, including information systems. In this study, we used a systematic mapping to illustrate how the Q-method was applied within Information Systems (IS) community and proposing towards integration of Q-method into the Design Sciences Research (DSR) process as a tool for future research DSR-based IS studies. In this mapping study, we collected peer-reviewed journals from Basket-of-Eight journals and the digital library of the Association for Information Systems (AIS). Then we grouped the publications according to the process of DSR, and different variables for preparing Q-method from IS publications. We found that the potential of the Q-methodology can be used to support each main research stage of DSR processes and can serve as the useful tool to evaluate a system in the IS topic of system analysis and design
This study proposes a framework for the collaborative development of global start-up innovators in a multigenerational digital environment. Intergenerational collaboration has been identified as a strategy to support entrepreneurs during their formative years. However, integrating and fostering intergenerational collaboration remains elusive. Therefore, this study aims to identify competencies for successful global start- ups through intergenerational knowledge transfer. We used a systematic literature review to identify a competency set consisting of growth virtues, effectual creativity, technical domain, responsive teamwork, values-based organization, sustainable networking, cultural awareness, and facilitating intergenerational safety. The competency framework serves as a foundation for knowledge management research on the global innovation readiness of people to collaborate across generations in the digital age.
In this study, we looked at the competencies and changes in the competency spectrum required for global start-ups in the digital age. Specifically, we explored intergenerational collaboration as an intervention in which experienced business-people from senior adult groups support young entrepreneurs. We conducted a Delphi study with 20 experts from different disciplines, considering the study context. The results of this study shed light on understanding the necessary competencies of entrepreneurs for intergenerationally supported start-up innovation by providing 27 competencies categorized as follows: intergenerational safety facilitation, cultural awareness, virtues for growth, effectual creativity, technical expertise, responsive teamwork, values-based organization, and sustainable network development. In addition, the study results also reveal the competency priorities and the minimum requirements for each competency group based on the global innovation process and can be used to develop a readiness assessment for start-up entrepreneurs.
Researchers have previously utilized the advantages of a design driven by well-being and intergenerational collaboration (IGC) for successful innovation. Unfortunately, scant information exists regarding barrier dimensions and correlated design solutions in the information systems (IS) domain, which can serve as a starting point for a design oriented toward well-being in an IGC system. Therefore, in this study, we applied the positive computing approach to guide our analysis in a systematic literature review and developed a framework oriented toward well-being for a system with a multi-generational team. Our study contributes to the IS community by providing five dimensions of barriers to IGC and the corresponding well-being determinants for positive system design. In addition, we propose further research directions to close the research gap based on the review outcomes.
So far, researchers have used a wellbeing-centered approach to catalyze successful intergenerational collaboration (IGC) in innovative activities. However, due to the subject’s multidisciplinary nature, there is still a dearth of comprehensive research devoted to constructing the IGC system. Thus, the purpose of this study is to fill a research void by providing a conceptual framework for information technology (IT) system designers to use as a jumping-off point for designing an IGC system with a wellbeing-oriented design. A systematic literature study was conducted to identify relevant terms and develop a conceptual framework based on a review of 75 selected scientific papers. The result consists of prominent thematic linkages and a conceptual framework related to design technology for IGC systems. The conceptual framework provides a comprehensive overview of IGC systems in the innovation process by identifying five barrier dimensions and using six wellbeing determinants as IGC catalysts. Moreover, this study discusses future directions for research on IGC systems. This study offers a novel contribution by shifting the technology design process from an age-based design approach to wellbeing-driven IGC systems. Additional avenues for investigation were revealed through the analysis of the study’s findings.
The adoption of Open Educational Resources (OER) can support collaboration and knowledge sharing. One of the main areas of the usage OER is the internationalization, i.e., the use in a global context. However, the globally distributed co-creation of digital materials is still low. Therefore, we identify essential barriers, in particular for co-authoring of OER in global environments. We use a design science research method to introduce a barrier framework for co-authoring OER in global settings and propose a wellbeing-based system design constructed from the barrier framework for OER co-authoring tool. We describe how positive computing concepts can be used to overcome barriers, emphasizing design that promotes the author's sense of competence, relatedness, and autonomy.
Learning the German language is one of the most critical challenges for refugee children in Germany. It is a prerequisite to allow communication and integration into the educational system. To solve the underlying problem, we conceptualized a set of principles for the design of language learning systems to support collaboration between teachers and refugee children, using a Design Science Research approach. The proposed design principles offer functional and non-functional requirements of systems, including the integration of open educational resources, different media types to develop visual and audio narratives that can be linked to the cultural and social background. This study also illustrates the use of the proposed design principles by providing a working prototype of a learning system. In this, refugee children can learn the language collaboratively and with freely accessible learning resources. Furthermore, we discuss the proposed design principles with various socio-technical aspects of the well-being determinants to promote a positive system design for different cultural and generational settings. Overall, despite some limitations, the implemented design principles can optimize the potential of open educational resources for the research context and derive further recommendations for further research.
We are “not” too (young/old) to collaborate: Prominent Key Barriers to Intergenerational Innovation
(2019)
In this study, we analyzed the barriers to technology-supported intergenerational innovation to understand better how young and old can collaborate towards global innovations. Researchers in different disciplines have already identified various barriers to intergenerational collaboration. However, barriers are changing depending on the context of collaboration, and difficulties still exist to support intergenerational innovation in global settings. Therefore, we investigated the barriers that emerge when people work with someone decades older or younger. The results of our study have shown what barriers are influenced by age, what barriers exist only for senior and younger adults. The study theoretically contributes to deepening the Information Systems (IS) community's understanding of the barriers to intergenerational innovation that need to be considered when developing systems for global innovation
Globalization and information technology enable people to join the movement of global citizenship and work without borders. However, different type of barriers existed that could affect collaboration in today’s work environment, in which different generations are involved. Although researchers have identified several technical barriers to intergenerational collaboration (iGOAL), the influence of cultural diversity on iGOAL has rarely been studied. Therefore, using a quantitative study approach, this paper investigates the impact of differences in cultural background on perceived technical and operational barriers to iGOAL. Our study reveals six barriers to IGC that are perceived differently by culturally diverse people (CDP) and non-CDP. Furthermore, CDP can foster IGC because CDP consider the barriers to be of less of a reason to avoid working with different generations than do non-CDP.
Digital technology is increasingly becoming a part of life and culture in society, and it must be consciously designed for the long-term benefit of humanity. Today, information systems are designed to do more than fulfill human duties or complete tasks. A widely adopted approach is a system design that focuses on the positive aspects of human-technology interaction. Positive computing is a design paradigm gaining traction because it emphasizes the importance of well-being as a bold goal to be implemented in system design. In this dissertation, technology design is part of an intergenerational environment aiming to facilitate information sharing regarding global startup innovation. Nevertheless, much of the research focuses on how technology can be used to facilitate intergenerational collaboration. On the other hand, very little is known about how technology can be "positively" designed to promote intergenerational innovation. Therefore, this dissertation applied Design Science Research (DSR) to inform and guide the creation of design principles through the lens of positive computing. The study results provide a holistic picture of the numerous barriers, well-being factors, competing concerns, and competencies that have been encountered in the context of intergenerational innovation and their implications. This dissertation is presented as a cumulative dissertation, answering three research questions divided into seven studies, consisting of nine articles.
Für eine Automatisierung des Walzvorgangs von rundem Walzgut muss die Geschwindigkeit bekannt sein. Wegen der gekrümmten Oberfläche von rundem Walzgut können nicht die gleichen Verfahren wie bei flachem Walzgut verwendet werden, ohne negativen Einfluss auf die Toleranz und Sicherheit zu nehmen. Unter Berücksichtigung der Umgebung des Walzwerks wurden zwei Kantendetektoren entwickelt, die einen Puls erzeugen, dessen Dauer der Zeit entspricht, die der Anfang oder das Ende des Walzguts vom ersten bis zum zweiten Kantendetektor benötigt. Durch den bekannten Abstand zwischen der Sensoren kann auf diese Weise über die Zeit die Geschwindigkeit berechnet werden. In dieser Arbeit wurde eine Auswerteelektronik entwickelt, die diese Zeit Intervalle mit einer Auflösung von 5 ns und einer maximalen Abweichung unter 0,002 % messen kann. Sie verwendet einen Synchrongleichrichter, wodurch verrauschte Signale gemessen werden können und einen 32-Bit Timer, der mit einer 200 MHz Taktquelle betrieben wird. Um die Kantendetektoren anzuregen wurde ein DDS implementiert, der 10V Sinussignale bis zu 20 MHz generieren kann. Alle digitalen Schaltungen wurden in einem FPGA implementiert.
In the course of this thesis, an overview will be given on which way developers can guide
users into acting environmentally friendly without the users realizing they are being
nudged. In the last couple of years, our private and work-life have been more and more
shifted away from reality into a digital context. Since the start of the Covid – 19 pandemic
in 2019, even more aspects of everyday life have been shifted to an online context, one
of them being groceries shopping. Even though online groceries shopping is not yet
common in Germany, there is a trend toward the online purchase of groceries visible.
This can be seen as a possibility to tackle another challenge the world is facing, the
climate crisis. One reason for the climate crisis is mindless consumption and purchasing
of too much food. This paper aims to combine the need for more aware consumption
with the newly rising trend of online supermarkets. Furthermore, a supermarket will be
provided to show if the implementation of environmentally–friendly nudges is technically
possible. To eventually prove the effectiveness of a nudge, it needs to be tested.
Keywords: Nudging, Environment, Online supermarkets
Immer mehr ältere Menschen leben von ihren Angehörigen getrennt und können über Kommunikationsmedien wie Telefon und Skype nur eingeschränkt gemeinsame Erlebnisse erzeugen. In diesem Paper wird die technische Umsetzung eines Konzeptes vorgestellt, das es Familienmitgliedern ermöglicht über das Internet gemeinsam „Mensch-ärgere-dich-nicht“ zu spielen. Durch Videotelefonie und eine besondere Anordnung der Hardware werden die Spieler trotz räumlicher Trennung virtuell an einen Tisch gebracht und dadurch ein gemeinsames Erlebnis erzeugt. Die Clientanwendung wird dabei als plattformunabhängiger Webservice und die Videotelefonie mittels verschiedener Standards und Server realisiert.
Detection of air trapping in chronic obstructive pulmonary disease by low frequency ultrasound
(2012)
Background: Spirometry is regarded as the gold standard for the diagnosis of COPD, yet the condition is widely underdiagnosed. Therefore, additional screening methods that are easy to perform and to interpret are needed. Recently, we demonstrated that low frequency ultrasound (LFU) may be helpful for monitoring lung diseases. The objective of this study was to evaluate whether LFU can be used to detect air trapping in COPD. In addition, we evaluated the ability of LFU to detect the effects of short-acting bronchodilator medication.Methods: Seventeen patients with COPD and 9 healthy subjects were examined by body plethysmography and LFU. Ultrasound frequencies ranging from 1 to 40 kHz were transmitted to the sternum and received at the back during inspiration and expiration. The high pass frequency was determined from the inspiratory and the expiratory signals and their difference termed F. Measurements were repeated after inhalation of salbutamol.Results: We found signi ficant differences in F between COPD subjects and healthy subjects. These differences were already significant at GOLD stage 1 and increased with the severity of COPD. Sensitivity for detection of GOLD stage 1 was 83% and for GOLD stages worse than 1 it was 91%. Bronchodilator effects could not be detected reliably.Conclusions: We conclude that low frequency ultrasound is cost-effective, easy to perform and suitable for detecting air trapping. It might be useful in screening for COPD
Das Ziel der Arbeit ist die Weiterentwicklung der bestehenden Webapplikation WirHelfen. Basierend auf dem aktuellen Konzept wird eine mobile Applikation in Form einer Nachbarschaftshilfe erstellt. Das Ziel der Bachelorarbeit ist es ein Konzept so wie
ein Grobentwurf einer mobilen Applikation zu schaffen.
Die bestehende Webapplikation WirHelfen wurde erstmals 2021 veröffentlicht. Als ehrenamtlicher Mitarbeiter und Mitglied der gemeinnützigen Organisation WirHelfen, war ich verantwortlich für die erste Konzeptionierung der aktuellen Webapplikation.
Sowohl bei der Konzeption als auch bei der Entwicklung und Umsetzung war ich beteiligt.
Für die Bachelorarbeit wurde eine eigene Architektur entwickelt, um den neuen Anforderungen gerecht zu werden.
Die mobile Applikation wurde anhand der klassischen sechs Schritten der Softwarearchitektur umgesetzt.
Mit der gemeinnützigen Organisationen WirHelfen wurden zu Anfang die
Anforderungen an die mobile Applikation festgelegt.
Während der Konzept- und Designphase wurden zwei Tests Sessions an den Prototypen durchgeführt. Der erste Test ist eine heuristische Evaluation und wurde zusammen mit Expert*innen durchgeführt. Der zweite Test war ein Usability-Test und wurde mit
Nutzer*innen durchgeführt. Anhand des Expertentestes wurde der Prototyp verbessert und die Mobile Applikation umgesetzt. Weitere Verbesserungen an der mobilen Applikation wurden nach dem Usability-Test durchgeführt.
Die bestehende mobile Applikation wird in Zukunft auf dem Android Marktplatz sowie dem Apple Store zur Verfügung stehen.
In einer Zeit rasanter technologischer Entwicklungen steht die Automobilindustrie, besonders in Deutschland, vor einem Paradigmenwechsel. Die Digitalisierung beeinflusst alle Bereiche des Lebens, und ihre Integration in die Geschäftsprozesse ist unerlässlich geworden, um wettbewerbsfähig zu bleiben. Innerhalb dieses Kontextes untersucht die vorliegende Arbeit die Möglichkeiten zur Optimierung von Einkaufsprozessen in der Automobilindustrie durch den Einsatz von Industrie 4.0 Technologien. Anhand einer umfassenden Analyse des aktuellen Stands der Technologieintegration wird eruiert, inwiefern diese Technologien bereits Bestandteil der Einkaufsprozesse sind und welches Potenzial sie noch bieten könnten. Ein zentraler Bestandteil der Arbeit ist die Durchführung einer Nutzwertanalyse. Hierbei werden Technologien basierend auf verschiedenen Kriterien, darunter Wirtschaftlichkeit, technologischer Reifegrad, Qualität, Integrationsfähigkeit und sozialen Aspekten, bewertet. Das Ergebnis liefert nicht nur eine klare Bewertung der Eignung jeder Technologie für den Einkaufsprozess, sondern bietet auch konkrete Empfehlungen für deren Implementierung. Abschließend skizziert die Arbeit einen zukunftsfähigen Entwicklungspfad für die Einkaufsprozesse in der Automobilindustrie, der sowohl aktuelle technologische Entwicklungen als auch voraussichtliche Marktveränderungen berücksichtigt. Insgesamt soll diese Arbeit als Leitfaden für Unternehmen der Automobilindustrie dienen, die bestrebt sind, ihre Einkaufsprozesse in der Ära der Digitalisierung zu optimieren.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
Die vorliegende Arbeit befasst sich mit der Ausarbeitung einer Handlungsempfehlung zur Implementierung von Business Intelligence (BI) Software. ,,BITools sind Werkzeuge, die Auswertungsverfahren von internen und externen Unternehmensdaten, sowie quantitative Verfahren für Planungs-, Entscheidungs- und Controllingzwecke softwaremäßig für Manager bereitstellen, um Geschäftslagen, -entwicklungen und -prozesse im Unternehmen zu analysieren.“1 Zu Beginn wird ein grundlegendes Verständnis der Materie aus dem aktuellen Stand der Wissenschaft definiert. Anschließend wird eine vom Autor umgesetzte Implementierung retrospektiv bewertet. Auf Grundlage dieser Bewertung, den gesammelten Erfahrungen des Autors und der Theorie findet eine gezielte Handlungsempfehlung zur Implementierung von BI statt. Die Anfänge von Auswertungsverfahren begann in den 60er Jahren. Lenz berichtet in seinem Buch Business Intelligence von persönlichen Erfahrungen wie Daten 1964 ausgewertet wurden. Hierbei wurde durch Tabellierungen seitenlange Papierbahnen gedruckt. Papierstapel von guten 25cm Höhe wurden händisch komprimiert und dem Vorgesetzten zur Verfügung gestellt. Bis in die 90er Jahre war dies kein unübliches Vorgehen in der deutschen Wirtschaft.2 Damals wurden erste Computeranwendungen entwickelt, mit der Funktion, eine Entscheidung zu stützen. Im Jahr 1980 wurde festgestellt, dass hierfür das Wasserfallmodell als Vorgehensweise zu statisch ist, um auf die wechselnden Anforderungen an Auswertungssystemen zu reagieren. Somit wurde damals auf agiles Vorgehen und Design wie beispielsweise Scrum3 gesetzt. Ende der 80er wurden die ersten Dashboards, Scorecards und OLAP als Werkzeuge eingesetzt. Im Jahr 1990 wurden die ersten BI-Infrastrukturen entwickelt. Diese wurden bis 2006 für einzelne Abteilungen und nicht abteilungsübergreifend eingesetzt.
In dieser Arbeit wird das Problem der "Kontrolle mehrerer Quadrokopter zur Durchführung einer kooperativen Aktion"diskutiert. Das Hauptproblem dieses Themas ergibt sich aus der Komplexität der Positionsbestimmung und Identifizierung von Quadrokopter, insbesondere in komplexen Umgebungen bei der Durchführung kooperativer Aktionen.
Ziel ist durch Python die Entwicklung eines Verfolgungs- und Steuerungssystems, bei dem einer der Haupt-Quadrokopter (grüne Farbe) von einer Handy-App gesteuert wird und jede beliebige Position anfliegen kann, während die anderen Quadrokopter (rot markiert) ihm automatisch folgen und eine bestimmte Formation einhalten, so
dass eine Zusammenarbeit möglich ist. Diese automatische Verfolgung basiert auf der Positionserfassung des Quadrokopters durch zwei feste Kameras im Raum und der Ausführung der zugehörigen Algorithmen.
Die in diesem Beitrag vorgeschlagene Methode basiert auf der Farbsegmentierung zur Erkennung von Quadrokoptern und zur Bestimmung ihrer Weltkoordinaten mit Hilfe eines konvergenten binokularen Kamerasystems. Durch Anwendung der Stereo-Vision- Matching-Methode, die auf dem Global-Optimum-Algorithmus basiert, wird der Abgleich
der Bilder abgeschlossen und die Weltkoordinaten aller Quadrokoptern werden bestimmt. Schließlich folgt der rote Quadrokopter der Bewegung des Hauptquadrokoptern und arbeitet mit ihm zusammen, um die vorgegebene Aufgabe zu erfüllen. Am Ende dieses Artikels wird deutlich, wie das System entworfen, entwickelt und getestet wurde.
Vor dem Hintergrund globaler Vernetzung, Digitalisierung und Big Data geht das Excel-Zeitalter seinem Ende entgegen. Neue Technologien versprechen eine höhere Effizienz und Effektivität des Controllings. Die Veränderungen umfassen dabei alle Aufgabenbereiche des Controllings – allerdings mit unterschiedlicher Geschwindigkeit und differenzierten Lösungsansätzen. Der vorliegende Beitrag untersucht drei Technologien, die im Controlling derzeit besonders stark diskutiert werden: Robotic Process Automation, Predictive Analytics und Künstliche Intelligenz. Im Rahmen eines Forschungsseminars an der Hochschule Ruhr West in Mülheim a.d.R. wurden dazu 57 Führungskräfte aus Controlling und Rechnungswesen befragt. Über 75% der befragten Unternehmen halten die Digitalisierung für wichtig, mehr als die Hälfte (52%) beabsichtigen, eine oder mehrere der drei untersuchten Technologien in den nächsten drei Jahren neu einzusetzen. In den Aufgabenbereichen ist bislang vor allem das Reporting digital unterstützt, in der Strategischen Planung und im Risikomanagement ist dagegen die Digitalisierung gering. Wesentliche Hindernisse sehen die Befragten im fehlenden Know-How und mangelnder Veränderungsbereitschaft.
Mit dieser Arbeit sollen unterschiedliche Einflussfaktoren und deren Auswirkung auf die Zuverlassigkeit
der mechanischen und elektrischen Bauteile eines Bohrmoduls aufgezeigt und miteinander verglichen werden.
Dazu werden zwei Zuverlassigkeitsanalysen mit je zwei verschiedenen Szenarien durchgeführt und
ausgewertet.
Das Szenario basiert auf der von der National Aeronautics and Space Administration (NASA) geplanten
Mission die Mondoberfläche und ihre oberen Gesteinsschichten zu analysieren. Zur Bewältigung dieser
Aufgabe soll ein mobiler Roboter mit einem Bohrmodul ausgestattet werden, um an unterschiedlichen Orten
auf der Mondoberfläche Bodenproben zu analysieren. Es sollen die Bohrungen bis zu einem Meter Tiefe durchgeführt werden. Ziel der Mission soll sein, die Geologie des Mondes zu erforschen [1].
Dieses Szenario dient als Grundlage die Zuverlässigkeit des Bohrmoduls unter extremen Bedingungen
zu ermitteln. Dabei stellt sich die Frage danach, welchen Einfluss verschiedene Temperaturen und
weitere Faktoren auf die Zuverlässigkeit des Bohrmoduls haben.
Das Ziel dieser Arbeit ist die Durchfuhrung einer Zuverlässigkeitsanalyse eines Bohrmoduls unter Hinzunahme
zwei verschiedener Standards unterschiedlicher Herangehensweisen. Dabei gibt jeder Standard eine
andere Art der Durchführung vor. Dabei ist das NSWC-10 stark abhängig von den konstruktiven Eigenschaften,
der FIDES von den vorherrschenden Umweltgegebenheiten. Die Analysen der Zuverlässigkeit
des Bohrmoduls werden sowohl für ein Erdszenario als auch für ein Mondszenario mit ihren jeweiligen
unterschiedlichen Gegebenheiten durchgeführt. Während der Analysen werden weitere Einflussfaktoren in
den Berechnungen berücksichtigt, die in den Standards als solche nicht aufgeführt werden. Zu diesen zählen
unter anderen die Temperaturschwankung auf dem Mond und das dort vorherrschende Vakuum. Diese
finden Berücksichtigung, um die extremen Bedingungen des Mondszenarios besser repräsentieren zu können.
Letztlich werden die beiden Standards hinsichtlich ihrer Anwendbarkeit auf jene Szenarien bewertet,
die ermittelten Ausfallraten erläutert und die Einflussfaktoren miteinander verglichen.
Zur Ermittlung der Zuverlässigkeit des Moduls werden vorab die Szenarien definiert und die konstruktiven
Eigenschaften der Bauteile ermittelt. Anschliesend wird die erste Zuverlässigkeitsanalyse mit
Hilfe des NSWC-10 durchgeführt. Dazu werden die einzelnen Ausfallraten der Bauteile bestimmt und verglichen.
Neben den vorgegeben Einflussfaktoren werden, falls möglich, spezifische Gegebenheiten des
Szenarios auf dem Mond einbezogen und diskutiert. Die zweite Zuverlässigkeitsanalyse erfolgt auf der
Grundlage des FIDES. Vorab werden dazu die einzelnen Betriebszustände eines Tages definiert, welche
als Grundlage für die weiteren Berechnungen dienen. Es wird versucht, den Tagesablauf des Roboters so
präzise wie möglich zu simulieren. Anschliesend kann die Ausfallrate des Bohrmoduls in Abhängigkeit
der vom FIDES vorgegebenen Einflussfaktoren ermittelt werden. Letztlich werden die ermittelten Werte
6 1 Einleitung
der beiden Standards miteinander verglichen, sowie mögliche Grenzen und Problematiken der Standards
aufgezeigt.
Gegenstand der hier vorgestellten Arbeit ist die Umsetzung und die Analyse des Vorgehens
einer gezielten Steigerung der Photovoltaik-Quote in ausgewählten Stadtteilen
in Deutschland mit dem Ziel, die von der Bundesregierung angeordneten Klimaziele
sowie die Treibhausneutralität bis zum Jahr 2045 zu erreichen. Die hier vorliegende
Arbeit unfasst sowohl die Vorbereitung für die Umsetzung ausgewählter Kommunikationsstrategien
als auch durchgeführte Beratungen sowie Interviews. Auf diese Weise
wird die in der Ausarbeitung vorgestellte theoretische Vielfalt der Umweltpsychologie
und der theoretische Hintergrund praktisch angewendet und die Verhaltensweisen der
befragten Bürgerinnen und Bürger analysiert und ausgewertet. Darauf aufbauend wird
der gegenwärtige Wissensstand bezüglich der Photovoltaik und die Signifikanz des
Umweltschutzes transparent. Es ist auffällig, das der Begriff „Photovoltaik“ noch nicht
im Volksmund angekommen ist und somit Aufklärungsbedarf herrscht. Durch eine Analyse
und Bewertung der üblichen Verhaltens- sowie Vermeidungsmuster von Bürger*innen bezüglich einer alternativen Stromversorgung, kann eine zielorientiertere sowie Verhaltensangepasste Strategie entwickelt werden. Sowohl die des Einflusses des eigenen Handelns auf die Umwelt als auch die Art der Umweltwahrnehmung werden
unterschätzt. Die Nachfrage nach Photovoltaik steigt vor dem Hintergrund der
Energiekrise in Verbindung mit der erfolgreichen Beratungsstrategie rasant.
Die Nutzung von Robotern hat stark zugenommen und die Wirkung auf Menschen grundlegend
verändert. Roboter wurden in unsere Gesellschaft eingeführt, jedoch berichten Studien darüber,
dass ihre soziale Rolle immer noch unklar ist (Bartneck & Hu, 2008).
Es gibt es immer mehr Filme, die das Bild von Robotern prägen, zudem gibt es immer mehr
Roboter, die in verschiedenen Kontexten eingesetzt werden, zum Beispiel die Robbe Paro, die Patient:innen in Altenheimen hilft (Schneider, 2021). Auch in Einkaufszentren können Roboter
eingesetzt werden. Hierbei konnte eine Studie in Japan in einer Shopping-Mall zeigen, dass Menschen einen Roboter missbrauchen, vor allem wenn sie sich unbeobachtet fühlen (Nomura et al., 2014). Durch die zunehmende Präsenz von Robotern geriet dieses Phänomen des Robot-
Abuse zunehmend in den wissenschaftlichen Fokus.
Thematisch lässt sich der Gegenstand dieser Abschlussarbeit in ebendiesen Bereich von Robot-
Abuse einordnen, denn sie bezieht sich explizit auf das Empathieverhalten der
Teilnehmer:innen der in dieser Arbeit durchgeführten Studie während eines beobachteten
Robotermissbrauchs. Dabei wird zusätzlich betrachtet, wie sich der Grad der
Anthropomorphisierung auswirkt und wie er wahrgenommen wird. Zudem werden die
unterschiedlichen Wahrnehmungen der Geschlechter betrachtet. Vor diesem Hintergrund soll folgende Forschungsfrage beantwortet werden: Gibt es einen Unterschied im Empathieempfinden in Bezug auf das Geschlecht? Das Ziel der vorliegenden Arbeit ist es dabei,
die Unterschiede im Empathieverhalten bei Robotern mit verschiedenen Graden der
Anthropomorphisierung während eines nonverbalen Robotermissbrauchs zu untersuchen und
einen Überblick über die vorhandene Literatur zu schaffen.
Dafür wird eine Onlinestudie mit einem 2x3-Between-Subjects-Design durchgeführt. In der
Studie werden drei Roboter verwendet: NAO, MiRo-E und der Staubsaugroboter Kobold. Die Teilnehmer:innen sehen eines von drei selbst erstellten Videos, in denen der jeweilige Roboter
getreten wird. Zudem wurde eine Literaturrecherche zu den Themen Anthropomorphismus,
Robot-Abuse, Geschlechterunterschiede und Empathie durchgeführt, um die theoretische Herleitung zu erläutern und aufzuarbeiten.
In dieser Bachelorarbeit werden dafür zunächst die relevanten theoretischen Grundlagen
betrachtet. Diesbezüglich werden in Kapitel 2 die Begriffe Anthropomorphismus, Robot-Abuse,
Geschlechterunterschiede und Empathie erläutert. Anschließend werden die Ergebnisse ausführlich aufgezeigt und diskutiert. Zum Schluss wird in einem Fazit die Eingrenzung dieser
Studie und ein Ausblick auf eine weitere Studie aufgezeigt.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
Gegenstand der hier vorgestellten Arbeit ist die Analyse des Status Quo von Pinkwashing und der Ableitung von Handlungsempfehlungen für die Marketing-Kommunikation. Dabei wird die Positionierung von Marken in der LGBTQ-Community aus einer ethischen Perspektive betrachtet. Im Rahmen dieser Masterarbeit werden teilstandardisierte Interviews mit Expert*innen aus Agenturen, dem Marketing- und
Brandmanagement und schließlich aus Diversitäts- und Inklusionsbereichen von Unternehmen geführt. Durch diese Interviews konnten Kriterien zur Identifikation von Pinkwashing sowie Handlungsempfehlungen für die authentische Positionierung in der
Kommunikation mit der LGBTQ-Community aufgestellt werden.
Schlagwörter: Pinkwashing, Marketingethik, LGBTQ-Community, Positionierung, Marke
This Paper presents a new service-learning setting based on the collaboration of engineering students and people with disabilities. The implementation at a German university is described and first results from two years of experience are shown. The objective of this case study is to show a transferable best practice concept with impact.
A Large and Quick Induction Field Scanner for Examining the Interior of Extended Objects or Humans
(2017)
This study describes the techniques and signal properties of a large, powerful, and linear-scanning 1.5 MHz induction field scanner. The mechanical system is capable of quickly reading the volume of relative large objects, e.g., a test person. The general approach mirrors Magnetic Induction Tomography (MIT), but the details differ considerably from currently-described MIT systems: the setup is asymmetrical, and it operates in gradiometric modalities, either with coaxial excitation with destructive interference or with a single excitation loop and tilted receivers. Following this approach, the primary signals were almost completely nulled, and test objects' real or imaginary imprint was obtained directly. The coaxial gradiometer appeared advantageous: exposure to strong fields was reduced due to destructive interference. Meanwhile, the signals included enhanced components at higher spatial frequencies, thereby obtaining a gradually improved capability for localization. For robust signals, the excitation field can be powered towards the rated limits of human exposure to time-varying magnetic fields. Repeated measurements assessed the important signal integrity, which is affected by the scanner´s imperfections, particularly any motions or respiratory changes in living beings during or between repeated scans. The currently achieved and overall figure of merit for artifacts was 58 dB for inanimate test objects and 44 dB for a test person. Both numbers should be understood as worst case levels: a repeated scan with intermediate breathing and drift/dislocations requires 50 seconds, whereas a single measurement (with respiratory arrest) takes only about 5 seconds.
Aspekte der Datensammlung beim Einsatz von Convolutional Neural Network für das autonome Fahren
(2022)
Die vorliegende Bachelorarbeit thematisiert, ob ein Convolutional Neural Network für das autonome Fahren geeignet ist und wie der gesamte Datenprozess für das Convolutional Neural Network Modell aussehen könnte. Dazu wurden mehrere Forschungsfragen gestellt.
Um die Forschungsfragen zu beantworten, wurde eine quantitative Literaturarbeit mit aktuellen wissenschaftlichen Kenntnissen durchgeführt. Die Bachelorarbeit ist in der deutschen Sprache geschrieben, aus diesem Grund orientiert sich die Bachelorarbeit an die deutschsprachige Bevölkerung.
Die quantitative Literaturarbeit zeigte, dass die größten Herausforderungen für das Convolutional Neural Network Training in der Datenspeicherung und der Datenverarbeitung liegen. Ebenfalls zeigte die quantitative Literaturarbeit, dass das Convolutional Neural Network durch die qualifizierte Wahl von Methoden und Daten eine bessere Erfolgsquote als das menschliche Verhalten für das autonome Fahren nachweist.
Dies zeigt, dass der Einsatz von Convolutional Neural Network Modellen mit einem optimalen Datenprozess und der Dateninfrastruktur für das autonome Fahren empfehlens-wert sein kann.
Im Rahmen dieser Arbeit wird zunächst ein Überblick über die Grundlagen des maschinellen Lernens und über verschiedene Methoden der digitalen Bildqualitätsbewertung gegeben.
Eine dieser Methoden wird näher betrachtet und es werden mögliche Probleme für das Training von neuronalen Netzwerken, insbesondere von Netzwerken zur Bildqualitätsbewertung herausgearbeitet.
Dieses Problem wird quantifiziert und es werden zwei grundlegende Verfahren zur Lösung entworfen. Dabei wird jeweils ein separates Konzept entwickelt und ausgewertet.
Die beiden Ansätze werden in einem direkten Vergleich unter verschiedenen Gesichtspunkten gegenübergestellt und es wird der vielversprechendere davon ausgewählt.
Der ausgewählte Lösungsansatz wird implementiert und in ein bereits existierendes Netzwerk zur Bildqualitätsbewertung integriert. Die Leistung des modifizierten Netzwerkes wird mit dem Original verglichen.
Enabling decentral collaborative innovation processes -a web based real time collaboration platform
(2018)
The main goal of this paper is to define a collaborative innovation process as well as a supporting tool. It is motivated through the increasing competition on global markets and the resultant propagation of decentralized projects with a high demand of innovative collaboration in global contexts. It bases on a project accomplished by the author group. A detailed literature review and the action design research methodology of the project led to an enhanced process model for decentral collaborative innovation processes and a basic realization of a browser based real time tool to enable these processes.The initial evaluation in a practical distributed setting has shown that the created tool is a useful way to support collaborative innovation processes.