Refine
Year of publication
Document Type
- Bachelor Thesis (98)
- Master's Thesis (30)
- Conference Proceeding (23)
- Article (12)
- Part of Periodical (10)
- Book (3)
- Report (3)
- Part of a Book (2)
- Doctoral Thesis (2)
- Working Paper (2)
Language
- German (143)
- English (41)
- Multiple languages (1)
Has Fulltext
- yes (185) (remove)
Is part of the Bibliography
- no (185)
Keywords
Institute
- Fachbereich 1 - Institut Informatik (59)
- Fachbereich 2 - Wirtschaftsinstitut (50)
- Fachbereich 4 - Institut Mess- und Senstortechnik (41)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (10)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
In this paper we discuss how group processes can be influenced by designing specific tools in computer supported collaborative leaning. We present the design of a shared workspace application for co-constructive tasks that is enriched by certain functions that are able to track, analyze and feed back parameters of collaboration to group members. Thereby our interdisciplinary approach is mainly based on an integrative methodology for analyzing collaboration behavior and patterns in an implicit manner combined with explicit surveyed data of group members’ attitudes and its immediate feedback to the groups. In an exploratory study we examined the influence of this feedback function. Although we could only analyze ad-hoc groups in this study, we detected some benefits of our methodology which might enrich real life Learning Communities’ collaboration processes. The data analysis in our study showed advantages of this feedback on processes of a group’s well-being as well as parameters of participation. These results provide a basis for further empirical work on problem solving groups that are supported by means of parallel interaction analysis as well as its re-use as information resource.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
1. Einleitung
1.1 Hintergrund
„Der Klimawandel und der Umgang mit dessen Folgen ist eine der zentralen Herausforderungen der Menschheit im 21. Jahrhundert“ (S.Weller et al., 2016).
Seit Beginn der Industrialisierung kommt es zu einem starken Anstieg der Treibhauskonzentration in der Atmosphäre, welcher durch die erhöhte Nutzung fossiler Brennstoffe, die Ausweitung der industriellen Produktion sowie der Viehzucht und die damit einhergehende Abholzung
vieler Wälder geschuldet ist (Umweltbundesamt, 2021). Durch den Klimawandel kommt es neben der Zunahme von Hitzewellen und Trockenphasen ebenfalls zu einem Anstieg von extremen Starkregenereignissen, bei denen intensive Niederschläge in kürzester Zeit auftreten. Der Grund für die Zunahme an Starkregenereignissen ist die globale Erwärmung, da diese eine stärkere Verdunstung und einen höheren Feuchtigkeitsgehalt in der Luft bewirkt. Seit Beginn der
flächendeckenden Wetteraufzeichnungen im Jahre 1881 ist ein stetiger Anstieg der Temperatur zu verzeichnen. Im Vergleich zum Zeitraum 1881-1920 war die vergangene Dekade (2011-2020) 2 Grad Celsius wärmer (Kasper et al. September, 2021). Während Dürren als Konsequenz von längeren Trockenzeiten zu erwarten sind, kommt es durch die Starkniederschläge und einhergehende Überlastung der Kanalnetzte häufiger und intensiver zu flussbedingten
Überschwemmungen und Sturzfluten (Brasseur et al., 2016). Charakteristisch für Sturzfluten ist das Auftreten in urbanen und gebirgigen Gebieten, sowie kurze Vorlaufzeit und hohe Fließgeschwindigkeiten. Auf Grund der kurzen Vorlaufzeit ist es problematisch die Bevölkerung rechtzeitig vor den Gefahren zu warnen und präventive Maßnahmen einzuleiten (Brasseur et
al. 2016, 97–98). Es ist notwendig realitätsnahe und kurzfristige Niederschlags- und Überflutungsvorhersagen treffen zu können. Dies ermöglicht es, die Bevölkerung rechtzeitig vor drohenden Gefahren durch Sturzfluten oder Überschwemmungen zu warnen und zu schützen.
Artificial intelligence (AI) is one of the most auspicious yet controversial technologies with virtually unlimited potential to solve almost all of the existential problems humanity is facing today.1 Huge resources are poured into the development, testing and application of AI that is supposed to be utilized in almost all areas of everyday life.2 It may be used to combat genetically inherited diseases, to revolutionize the economy, to bring prosperity and equality to everyone and to counter the effects of climate change.3 With AI as the enabling technology humanity may experience a better future. Today, AI capabilities can already drastically improve analytic processing tasks and algorithmic systems and have beaten humans in games such as chess.4 Yet, AI and all of its applications bring about a myriad of ethical challenges. Revolutionary weapon systems that achieve autonomy via AI and genome-editing powered by AI are just some specific examples.5 An omnipotent AI will be either the greatest or the vilest thing that has happened to humanity in its brief existence.6 However, even today more and more computational devices are connected to each other, spurring a huge increase in global data streams that can be used to further train and enhance AI systems.
The prowess of AI for executing analytic tasks paves the way for the use of AI in more and more applications. One of these applications, that shows great promise, is the use of AI in surveillance applications.7 AI surveillance applications are proliferating at a fast rate, with a number of appli-cations already being in use today.8 These applications are aimed at accomplishing a number of policy objectives, some are in accordance with basic human laws, some are definitely not and some
1 Cf. Hawking (2018). P. 183ff
2 Cf. Hawking (2018). P. 183ff.
3 Cf. Hawking (2018). P. 183ff.
4 Cf. Burton (2015). P. 1ff.
5 Cf. Hawking (2018). P. 183ff.
6 Cf. Hawking (2018). P. 183ff.
7 Cf. Feldstein (2019). P. 1.
8 Cf. Feldstein (2019). P. 1.
2
belong in the nebulous area in between lawful and unlawful.9 But what are lawful and unlawful uses of AI surveillance systems and what are their ethical implications?
This thesis will examine the ethical implications of AI based mass surveillance systems and try to answer the first central question, if it is possible to use AI based mass surveillance applica-tions in an ethical way. Furthermore, the thesis will attempt to answer the second central ques-tion and find out how the ethical use of AI based mass surveillance systems, if this ethical use is possible, materialize. Governmental agencies will be in the focus of this discussion, as their use of the technology may have bigger ethical challenges. Yet private companies will play a part as well. In an attempt to accomplish these two aims, the thesis will inspect the basics of ethics and possible ethical theories that can be utilized to answer the questions. Normative ethics will be stud-ied first with a focus on consequentialism and utilitarianism. To gain a deeper understanding of utilitarianism, act and rule utilitarianism will be compared. Afterwards, deontological theories will be the focus of the discussion with a concentration on deontological pluralism. Next, the mentioned theories will be evaluated, discussing advantages and weak spots of the theories, to assess which theory may serve as the ethical framework of this thesis and the subsequent answer to the two main questions.
The next step will be the establishment of the AI framework. This contains the definition of AI and a distinction of terms that are commonly used in the its environment such as automation and au-tonomy. The importance of data for AI will be discussed. Afterwards, the technological basis of AI will be outlined, discussing key concepts such as machine learning and deep learning. Addi-tionally, it will be examined how an AI learns. The possible uses of AI in general will be outlined in a brief fashion, blazing the trail to discussing the moral challenges of AI. Afterwards, the current pace of AI development will be studied.
In the chapter that follows, the use of AI in surveillance technology is going to be highlighted. The possible ways of how AI can be used for surveillance purposes are reviewed here, discussing facial
9 Cf. Feldstein (2019). P. 1.
3
and behavioral recognition systems, smart cities, smart policing, communications/data driven sur-veillance and their enabling technologies. Then, the global proliferation of AI surveillance systems is going to be outlined.
Subsequently, the accordance of AI surveillance with basic human laws and rights, such as the right to privacy, will be checked to find out if the law and the international framework of human rights allow for AI surveillance or at least have restrictions that would greenlight the use of AI surveillance technology. All the aspects of the thesis, especially including the selected ethical framework, will be combined in this last section in order to enable the adaptation of a framework that allows to find out, if AI surveillance systems can be ethically permissible while also creating insights how this ethical AI surveillance system must be engineered. To finish, the thesis will end with a conclusion.
Diese Arbeit beschäftigt sich mit der Erstellung einer Administratoroberfläche für die Lehre bei Photovoltaik (PV)-Praktika in der virtuellen Realität (VR). Die erstellte Umgebung bietet, mittels Bildschirmspiegelungen, Möglichkeiten zur didaktischen Anleitung und Unterstützung der Studierenden. Das Thema wurde aufgrund einer bestehenden Lehranwendung in der VR bedeutungsvoll und zeigt deutliches Potenzial. Diese Lehranwendung wird bereits umfassend und verpflichtend in den Praktika eingesetzt. Sie bietet einen praxisnahen Aufbau von Solaranlagen und erhöht gefahrlos die Experimentierfreudigkeit. Mit ihr lassen sich die aufgebauten Anlagen technisch prüfen, simulieren und bewerten. Zudem werden die beiden Möglichkeiten zur Unterstützung der Studierenden beurteilt. Als Ergebnis wird die Umsetzung der nahezu automatisierten Administratorober-fläche verdeutlicht und ein Usability-Test aus den Praktika evaluiert.
Schlagwörter: Administratoroberfläche, Bildschirmspiegelung, C, Didaktik, im-mersiv, Oculus Quest 2, Photovoltaik, Python, Tkinter, virtuelle Realität
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Stationäre Rohrströmungen
(2024)
The goal of this empirical study is to answer whether predictions about stock price movements can be made with the use of machine learning in the energy sector and what influence contributions from social media have on its development. To answer the research
question, the social media platforms Twitter and Reddit, in terms of the suitability of the information, were studied and evaluated. Then, the sentiments of the posts from social media were collected and used in machine learning models. The models include the Gradient Boosted Regression Tree, Multilayer Perceptron, and Long Short-Term
i Memory, which predict a subsequent day's closing stock price. The study showed that deviations from predictions of stock price movements of 1.05 % are possible and further sentiment values do not show significant positive effect on reducing the error value. The
result shows that the collected sentiments from the social media platform Twitter have no positive effect on the stock price movements within the energy industry.
Keywords: stock market, stock prediction, artificial neural networks, machine learning,
energy market, sentiment analysis
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
In dieser Arbeit wurde eine Motorsteuerung für mikrofluidische Peristaltikpumpen in Lab-on-a-Chip Systemen entwickelt. Neben der dafür notwendigen elektrischen Schaltung wurde viel Wert auf die softwareseitige Umsetzung gelegt. Zusätzlich zu der reinen Vorgabe von essentiellen Größen, wie beispielsweise der Drehzahl und dem damit geförderten Volumen, wird ein vielseitiges und zuverlässiges Steuerungssystem vorgestellt, das versucht Schwankungen im geförderten Flüssigkeitsstrom zu reduzieren. Um schon vor dem ersten Betrieb, des parallel zu dieser Arbeit gefertigten mechanischen Aufbau, die Leistung sowie Ausmaße der Schwankungen abzuschätzen, wurde der zu erwartende Volumenstrom auf Basis der geometrischen Ausmaße modelliert. Dadurch können Algorithmen zur Glättung des Flusses bereits in einer frühen Phase der Softwareentwicklung berücksichtigt werden. Für eine bessere Charakterisierung des mechanischen Aufbaus und Überwachung des Betriebs wurde das System um eine sensorlose Erkennung von Bewegungen des Motors ergänzt. Somit kann unter anderem die Zuverlässigkeit und Dimensionierung der verwendeten Motoren überprüft werden. Zusätzlich wurde der Prozess zum Verschweißen von thermoplastischer Elastomer Folie mit dem mikrofluidischen Chip optimiert.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
In der modernen Medizintechnik ist die zuverlässige Funktionsweise von Geräten von entscheidender Bedeutung. Diese Bachelorarbeit befasst sich mit dem Zustandsmonitoring von medizinischen Geräten, um die verschiedenen Zustände von medizinischen Geräte zu erfassen.
Das Monitoring hilft dabei, die tatsächliche Nutzungsfrequenz der Geräte zu ermitteln. Ein verbessertes Verständnis der Gerätenutzung kann dazu beitragen, Kosten zu senken und das Gerätemanagement in Krankenhäusern zu optimieren.
Das primäre Ziel dieser Arbeit war die Entwicklung einer Datenverarbeitungsmethode für das Zustandsmonitoring von Medizingeräten mittels energiesparender Funk-Sensoren. Oftmals werden in Krankenhäusern mehr Geräte angeschafft als benötigt, und dennoch müssen alle Geräte gewartet werden, selbst wenn einige selten in Betrieb sind. Dies resultiert in unnötigen Kosten und Ausfallzeiten.
Für die Untersuchung wurde ein energiesparender Funksensor eingesetzt, der mit einem Stromsensor ausgestattet ist. Dieser erfasst den Stromfluss der angeschlossenen Geräte und kommuniziert online über das IoT. Die erfassten Daten wurden komprimiert und an das TTN (The Things Network) übertragen. Ein KI-Modell wurde mit den gesammelten Daten trainiert, um die verschiedenen Zustände der Geräte zu erkennen.
Die wichtigsten Ergebnisse zeigen, dass die Zustände der Geräte variieren und typischerweise in "AN", "AUS", "Idle-Modus" und "Im Betrieb" kategorisiert werden können. Sobald der Stromfluss einen bestimmten Wert erreicht, kann die KI bestimmen, in welchem Zustand sich das Gerät befindet. Dies bietet eine wertvolle Grundlage für ein verbessertes Management und Wartungssystem in Krankenhäusern.