Refine
Year of publication
Document Type
- Conference Proceeding (229)
- Bachelor Thesis (100)
- Article (99)
- Master's Thesis (32)
- Part of a Book (27)
- Report (20)
- Book (17)
- Part of Periodical (13)
- Contribution to a Periodical (8)
- Doctoral Thesis (7)
Language
- English (287)
- German (273)
- Multiple languages (4)
Keywords
- Hochschule Ruhr West (9)
- Zeitschrift (9)
- Fachhochschule (8)
- Mülheim an der Ruhr (8)
- Intergenerational Collaboration (3)
- Intergenerational Innovation (3)
- Sentiment Analysis (3)
- Usability (3)
- Automotive HMI (2)
- Digitalisierung (2)
Institute
- Fachbereich 1 - Institut Informatik (372)
- Fachbereich 4 - Institut Mess- und Senstortechnik (95)
- Fachbereich 2 - Wirtschaftsinstitut (53)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (16)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (3)
In this paper we discuss how group processes can be influenced by designing specific tools in computer supported collaborative leaning. We present the design of a shared workspace application for co-constructive tasks that is enriched by certain functions that are able to track, analyze and feed back parameters of collaboration to group members. Thereby our interdisciplinary approach is mainly based on an integrative methodology for analyzing collaboration behavior and patterns in an implicit manner combined with explicit surveyed data of group members’ attitudes and its immediate feedback to the groups. In an exploratory study we examined the influence of this feedback function. Although we could only analyze ad-hoc groups in this study, we detected some benefits of our methodology which might enrich real life Learning Communities’ collaboration processes. The data analysis in our study showed advantages of this feedback on processes of a group’s well-being as well as parameters of participation. These results provide a basis for further empirical work on problem solving groups that are supported by means of parallel interaction analysis as well as its re-use as information resource.
Resource Usage in Online Courses: Analyzing Learner’s Active and Passive Participation Patterns
(2015)
The paper analyzes the experience with an open university course for a very heterogeneous target group in which MOOC-like materials and activities were used. The course was conducted in a specifically prepared and extended Moodle environment. The analysis involves questionnaires as well as performance data that reflect the resource access on the learning platform. A special focus is put on the participants’ acceptance and usage of student-generated versus teacher-provided learning content. Network analysis techniques have been used to identify "interest clusters" of students around certain resources.
We present an architecture based on the Dynamic Field Theory for the problem of scene representation. At the core of this architecture are three-dimensional neural fields linking feature to spatial information. These three-dimensional fields are coupled to lower-dimensional fields that provide both a close link to the sensory surface and a close link to motor behavior. We highlight the updating mechanism of this architecture, both when a single object is selected and followed by the robot's head in smooth pursuit and in multi-item tracking when several items move simultaneously
Based on the concepts of dynamic field theory (DFT), we present an architecture that autonomously generates scene representations by controlling gaze and attention, creating visual objects in the foreground, tracking objects, reading them into working memory, and taking into account their visibility. At the core of this architecture are three-dimensional dynamic neural fields (DNFs) that link feature to spatial information. These three-dimensional fields couple into lower dimensional fields, which provide the links to the sensory surface and to the motor systems. We discuss how DNFs can be used as building blocks for cognitive architectures, characterize the critical bifurcations in DNFs, as well as the possible coupling structures among DNFs. In a series of robotic experiments, we demonstrate how the DNF architecture provides the core functionalities of a scene representation.
In this review, we describe current Machine Learning approaches to hand gesture recognition with depth data from time-of-flight sensors. In particular, we summarise the achievements on a line of research at the Computational Neuroscience laboratory at the Ruhr West University of Applied Sciences. Relating our results to the work of others in this field, we confirm that Convolutional Neural Networks and Long Short-Term Memory yield most reliable results. We investigated several sensor data fusion techniques in a deep learning framework and performed user studies to evaluate our system in practice. During our course of research, we gathered and published our data in a novel benchmark dataset (REHAP), containing over a million unique three-dimensional hand posture samples.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
The continuous evolution of learning technologies combined with the changes within ubiquitous learning environments in which they operate result in dynamic and complex requirements that are challenging to meet. The fact that these systems evolve over time makes it difficult to adapt to the constant changing requirements. Existing approaches in the field of Technology Enhanced Learning (TEL) are generally not addressing those issues and they fail to adapt to those dynamic situations. In this chapter, we investigate the notion of an adaptive and adaptable architecture as a possible solution to address these challenges. We conduct a literature survey upon the state of the art and state of practice in this area. The outcomes of those efforts result in an initial model of a Domain-specific architecture to tackle the issues of adaptability and adaptiveness. To illustrate these ideas, we provide a number of scenarios where this architecture can be applied or is already applied. Our proposed approach serves as a foundation for addressing future ubiquitous learning applications where new technologies constantly emerge and new requirements evolve.
This paper discusses the efforts carried out related to the design and development of a web-based framework that allows designing, deploying and executing mobile data collecting applications. Furthermore, it also allows analyzing and presenting the data that is generated during the mentioned process. The fact that the framework is completely web-based provides a platform independent execution of the mobile application on any mobile device with a web-browser. As a result that the whole life-cycle of creating, executing and discussing a mobile learning activity is implemented in pure web-based manner separates this work from similar efforts. In the course of this work, the current state of development of two of the components, the authoring tool and the mobile application is presented. This framework was introduced to teachers in an activity to follow up an initial study. On the basis of a workshop with teachers, we performed an explorative study regarding the technology acceptance and usability of two components of the proposed framework. The results are discussed and analyzed in this paper.
This paper presents a web-based framework that allows the creation and deployment of mobile learning activities. We present an authoring tool that allows not-technically skilled persons to design mobile learning tasks and deploy them as a web-based mobile application. Since the presented approach is based exclusively on web-technologies, the deployed mobile application can be executed via a mobile browser and therefore is platform independent. Despite previous research efforts carried out in this domain, few of the projects have addressed this course of actions from a purely web-based perspective. Through the latest development of web technologies, mobile applications have access to internal sensors like camera, microphone and GPS and therefore allow data collection within web-applications. In order to validate whether the proposed framework can be applied in educational settings, we conducted a pilot study with experienced teachers and present the results of these efforts in this paper.
This paper describes the design and development stages of a web-based framework, aiming to support the creation of mobile applications within the context of mobile learning. The suggested approach offers the opportunity to deploy and execute these applications on mobile devices. This web-based solution additionally offers the possibility to visualize the data collected by the mobile applications in a web-browser. Despite previous research efforts carried out in this domain, few of the projects have addressed these processes from a purely web-based perspective. Currently, a prototype of an authoring tool for creating mobile data collection applications is already implemented. In order to integrate and validate this solution in everyday educational settings, we are collaborating with a network of high schools. On the basis of workshops with teachers we will carry out, refinements and requirements for further enhancements will be collected and will be used to guide our coming efforts.
1. Einleitung
1.1 Hintergrund
„Der Klimawandel und der Umgang mit dessen Folgen ist eine der zentralen Herausforderungen der Menschheit im 21. Jahrhundert“ (S.Weller et al., 2016).
Seit Beginn der Industrialisierung kommt es zu einem starken Anstieg der Treibhauskonzentration in der Atmosphäre, welcher durch die erhöhte Nutzung fossiler Brennstoffe, die Ausweitung der industriellen Produktion sowie der Viehzucht und die damit einhergehende Abholzung
vieler Wälder geschuldet ist (Umweltbundesamt, 2021). Durch den Klimawandel kommt es neben der Zunahme von Hitzewellen und Trockenphasen ebenfalls zu einem Anstieg von extremen Starkregenereignissen, bei denen intensive Niederschläge in kürzester Zeit auftreten. Der Grund für die Zunahme an Starkregenereignissen ist die globale Erwärmung, da diese eine stärkere Verdunstung und einen höheren Feuchtigkeitsgehalt in der Luft bewirkt. Seit Beginn der
flächendeckenden Wetteraufzeichnungen im Jahre 1881 ist ein stetiger Anstieg der Temperatur zu verzeichnen. Im Vergleich zum Zeitraum 1881-1920 war die vergangene Dekade (2011-2020) 2 Grad Celsius wärmer (Kasper et al. September, 2021). Während Dürren als Konsequenz von längeren Trockenzeiten zu erwarten sind, kommt es durch die Starkniederschläge und einhergehende Überlastung der Kanalnetzte häufiger und intensiver zu flussbedingten
Überschwemmungen und Sturzfluten (Brasseur et al., 2016). Charakteristisch für Sturzfluten ist das Auftreten in urbanen und gebirgigen Gebieten, sowie kurze Vorlaufzeit und hohe Fließgeschwindigkeiten. Auf Grund der kurzen Vorlaufzeit ist es problematisch die Bevölkerung rechtzeitig vor den Gefahren zu warnen und präventive Maßnahmen einzuleiten (Brasseur et
al. 2016, 97–98). Es ist notwendig realitätsnahe und kurzfristige Niederschlags- und Überflutungsvorhersagen treffen zu können. Dies ermöglicht es, die Bevölkerung rechtzeitig vor drohenden Gefahren durch Sturzfluten oder Überschwemmungen zu warnen und zu schützen.
Artificial intelligence (AI) is one of the most auspicious yet controversial technologies with virtually unlimited potential to solve almost all of the existential problems humanity is facing today.1 Huge resources are poured into the development, testing and application of AI that is supposed to be utilized in almost all areas of everyday life.2 It may be used to combat genetically inherited diseases, to revolutionize the economy, to bring prosperity and equality to everyone and to counter the effects of climate change.3 With AI as the enabling technology humanity may experience a better future. Today, AI capabilities can already drastically improve analytic processing tasks and algorithmic systems and have beaten humans in games such as chess.4 Yet, AI and all of its applications bring about a myriad of ethical challenges. Revolutionary weapon systems that achieve autonomy via AI and genome-editing powered by AI are just some specific examples.5 An omnipotent AI will be either the greatest or the vilest thing that has happened to humanity in its brief existence.6 However, even today more and more computational devices are connected to each other, spurring a huge increase in global data streams that can be used to further train and enhance AI systems.
The prowess of AI for executing analytic tasks paves the way for the use of AI in more and more applications. One of these applications, that shows great promise, is the use of AI in surveillance applications.7 AI surveillance applications are proliferating at a fast rate, with a number of appli-cations already being in use today.8 These applications are aimed at accomplishing a number of policy objectives, some are in accordance with basic human laws, some are definitely not and some
1 Cf. Hawking (2018). P. 183ff
2 Cf. Hawking (2018). P. 183ff.
3 Cf. Hawking (2018). P. 183ff.
4 Cf. Burton (2015). P. 1ff.
5 Cf. Hawking (2018). P. 183ff.
6 Cf. Hawking (2018). P. 183ff.
7 Cf. Feldstein (2019). P. 1.
8 Cf. Feldstein (2019). P. 1.
2
belong in the nebulous area in between lawful and unlawful.9 But what are lawful and unlawful uses of AI surveillance systems and what are their ethical implications?
This thesis will examine the ethical implications of AI based mass surveillance systems and try to answer the first central question, if it is possible to use AI based mass surveillance applica-tions in an ethical way. Furthermore, the thesis will attempt to answer the second central ques-tion and find out how the ethical use of AI based mass surveillance systems, if this ethical use is possible, materialize. Governmental agencies will be in the focus of this discussion, as their use of the technology may have bigger ethical challenges. Yet private companies will play a part as well. In an attempt to accomplish these two aims, the thesis will inspect the basics of ethics and possible ethical theories that can be utilized to answer the questions. Normative ethics will be stud-ied first with a focus on consequentialism and utilitarianism. To gain a deeper understanding of utilitarianism, act and rule utilitarianism will be compared. Afterwards, deontological theories will be the focus of the discussion with a concentration on deontological pluralism. Next, the mentioned theories will be evaluated, discussing advantages and weak spots of the theories, to assess which theory may serve as the ethical framework of this thesis and the subsequent answer to the two main questions.
The next step will be the establishment of the AI framework. This contains the definition of AI and a distinction of terms that are commonly used in the its environment such as automation and au-tonomy. The importance of data for AI will be discussed. Afterwards, the technological basis of AI will be outlined, discussing key concepts such as machine learning and deep learning. Addi-tionally, it will be examined how an AI learns. The possible uses of AI in general will be outlined in a brief fashion, blazing the trail to discussing the moral challenges of AI. Afterwards, the current pace of AI development will be studied.
In the chapter that follows, the use of AI in surveillance technology is going to be highlighted. The possible ways of how AI can be used for surveillance purposes are reviewed here, discussing facial
9 Cf. Feldstein (2019). P. 1.
3
and behavioral recognition systems, smart cities, smart policing, communications/data driven sur-veillance and their enabling technologies. Then, the global proliferation of AI surveillance systems is going to be outlined.
Subsequently, the accordance of AI surveillance with basic human laws and rights, such as the right to privacy, will be checked to find out if the law and the international framework of human rights allow for AI surveillance or at least have restrictions that would greenlight the use of AI surveillance technology. All the aspects of the thesis, especially including the selected ethical framework, will be combined in this last section in order to enable the adaptation of a framework that allows to find out, if AI surveillance systems can be ethically permissible while also creating insights how this ethical AI surveillance system must be engineered. To finish, the thesis will end with a conclusion.
Diese Arbeit beschäftigt sich mit der Erstellung einer Administratoroberfläche für die Lehre bei Photovoltaik (PV)-Praktika in der virtuellen Realität (VR). Die erstellte Umgebung bietet, mittels Bildschirmspiegelungen, Möglichkeiten zur didaktischen Anleitung und Unterstützung der Studierenden. Das Thema wurde aufgrund einer bestehenden Lehranwendung in der VR bedeutungsvoll und zeigt deutliches Potenzial. Diese Lehranwendung wird bereits umfassend und verpflichtend in den Praktika eingesetzt. Sie bietet einen praxisnahen Aufbau von Solaranlagen und erhöht gefahrlos die Experimentierfreudigkeit. Mit ihr lassen sich die aufgebauten Anlagen technisch prüfen, simulieren und bewerten. Zudem werden die beiden Möglichkeiten zur Unterstützung der Studierenden beurteilt. Als Ergebnis wird die Umsetzung der nahezu automatisierten Administratorober-fläche verdeutlicht und ein Usability-Test aus den Praktika evaluiert.
Schlagwörter: Administratoroberfläche, Bildschirmspiegelung, C, Didaktik, im-mersiv, Oculus Quest 2, Photovoltaik, Python, Tkinter, virtuelle Realität
For face recognition from video streams speed and accuracy are vital aspects. The first decision whether a preprocessed image region represents a human face or not is often made by a feed-forward neural network (NN), e.g. in the Viisage-FaceFINDER® video surveillance system. We describe the optimisation of such a NN by a hybrid algorithm combining evolutionary multi-objective optimisation (EMO) and gradient-based learning. The evolved solutions perform considerably faster than an expert-designed architecture without loss of accuracy. We compare an EMO and a single objective approach, both with online search strategy adaptation. It turns out that EMO is preferable to the single objective approach in several respects.
Im vorliegenden Beitrag wird ein hochsprachenprogrammierbares System zur schritthaltenden Vollbild-Interpretation natürlich beleuchteter Szenenfolgen im Videotakt vorgestellt. Im einzelnen werden folgende Teilmodule und Subsysteme beschrieben: eine hochdynamische, pixellokal autoadaptive CMOS-Kamera mit ca. 120 dB Helligkeitsdynamik (20Bits/Pixel) ein hochsprachenprogrammierbarer Systolic Array Prozessor (für die pixelbezogenen Verarbeitungsmodule) im PCI-Kartenformat, samt optimierendem Compiler, Simulator und Emulator Systemprozeßgerüste unter Linux auf den für die Echtzeit-Anwendungen eingesetzten Hostrechnern (z.B. DEC/Alpha oder Intel/ Pentium)eine prototypische Anwendung zur bildverarbeitungsbasierten Eigenbewegungsbeobachtung (Translationsrichtung, Eotationsraten)eine prototypische, automotive Anwendung zur schritthalt enden Detektion und Kartierung des Straßen- und Spurverlaufs unter partieller monokularer 3D-Rekonstruktion, sowie prototypische Anwendungen zur Klassifikation verkehrsrelevanter Hindernisse (Verkehrsteilnehmer)
Entwicklung von Lernszenarien im schulischen Kontext zur Teilhabe an Citizen Science Projekten
(2022)
Abstract
The following work deals with an approach to solve a frequently cited problem in Citizen Science, the lack of knowledge of citizens for effective participation. A frequently named solution is the targeted promotion of the participants to meet the demands of research. This is also the topic of this work.
The resulting trainings are to be integrated into the school context and are titled as learning scenarios, each of which deals with selected competencies. Thus, a collection of learning scenarios is created, to enable learners without previous experience to develop their own measuring stations and to work on their own research questions.
For this, purpose, a procedure model is used, which was further evaluated with this work, which represents the design phase of the Design Science Research process. The evaluation of a part of the learning scenarios was conducted together with 2 groups of learners and 5 individual teachers. The evaluation with learners consisted of a self-assessment and an evaluation of the learning scenarios. With the teachers, personal interviews took place.
The most important results are the created learning scenarios as well as the evaluation of them and the idea. Furthermore, the evaluation shows that learners can develop an interest in the content by doing it.
From the results, it can be concluded that both schools and science can benefit from the development of joint projects. The process model used was once again confirmed.
Methods of red-hot rod shape testing require a robust non-contact measurement principle as a touch point could lead to damages to the rod and the detection unit. Therefore a new basic approach based on high frequency eddy current (HFEC) has been investigated. Due to the robustness and the ability to determine the rod shape even above the Curie temperature this principle is especially well suited and can be implemented in the production process directly. The first automatic measurement setup was successfully developed with promising results. Hereby a defect of ovality was detected with a parallel RLC-oscillator. The capacity of this RLC-oscillator is constant whereas the inductance is the measurement part that varies due to eddy current interactions with the rod.
For the rod shape measurement of hot rolled round steel bars (rods) the high frequency eddy current method is especially well suited as it requires no contact point and is not limited to below the Curie temperature. Defects of the rod's shape can be detected by measuring the impedance spectrum of the RLC-oscillator. In the first laboratory setup an Agilent impedance analyser was used for initial tests. Nevertheless, this setup cannot be applied in a steel plant due to the difficult environmental conditions. Hence, a vector network analyser for passive impedance measurement that is applicable in these surroundings was developed.
Optimization of Encircling Eddy Current Sensors for Online Monitoring of Hot Rolled Round Steel Bars
(2014)
Modern manufacturing industries are continually working on quality enhancements for the hot rolling process of round products. One method for improving the finalisation of the rods is the implementation of an automatic size control system. As a result of these trends over the last few years, there has been an increasing demand for more accurate online measurements. Thus the reason for the research performed for this thesis. A particular challenge throughout this research was dealing with the temperature changes (up to 1200°C) from the in- and output of the fervent rolling stocks, and the effect this temperature changes had on the sensors. Furthermore, there is also high demand for developing fast and practical electronic measuring equipment, capable of measuring during high transport velocities (up to 120 m/s). The eddy current principle is just one of the very few methods available which can with-stand such harsh industrial environments. In fact, eddy current sensors are already being integrated into online monitoring tasks for hot rolling processes. The measurement uncertainty, however, is still considerably large for process control purposes. One reason for this lies within the ability for eddy current detectors to receive signals influenced by outward forces, i.e. forces dependent on its location, its geometry, the outside temperature and the material properties of a particular target. Thus the current accuracy for a cross-sectional area measurement, for example, is no higher than 1%. As a result, this thesis investigates the magnitude of all individual influential factors on the eddy current detectors, using model-based analysis techniques. The analytical model provides a solution for all rotationally symmetrical targets and the FEA model covers all of the other influencing parameters in a more time consuming manner. This thesis then provides different methods which are developed to separate the cross-sectional area measurement of a rod from all of the other influencing parameters. In addition, a material tracking approach for round products is developed. Two different kinds of prototypes, capable of measuring approximately 466 Tons of red-hot steel rods during the production process, are finally introduced in this thesis. The usefulness of the eddy current principle is validated by the provided field test results. The count accuracy for the identification of 2876 bars was found to be 99.93%, and the average measurement accuracy for the cross-sectional area experiments was reduced to ± 0.29 % when including all of the findings.
Coming out of the labs, the first robots are currently appearing on the consumer market. Initially they target rather simple application scenarios ranging from entertainment to home convenience. However, one can expect, that they will capture more complex areas soon. These robots will have a higher and higher level and a broad range of functional competence, and will collaborate and interactively communicate with their human users. All this requires considerable cognitive abilities on the robot’s side and appropriate man-machine interaction technologies. Apart from further development of individual functions and technologies it is crucial to build and evaluate fully integrated systems. This paper describes our approach to construct a robotic assistance system. We present experience with an integrated technology demonstration and the exposure of the integrated system to the public.
The first robots are currently appearing on the consumer market. Initially they are targeted at rather simple applications such as entertainment and home convenience. For more complex areas, these robots will need to collaborate and interactively communicate with their human users, which requires appropriate man-machine interaction technologies and considerable cognitive abilities on the robot's side. Consumer acceptance will strongly depend on the integrated system. Thus, system integration and evaluation of the integrated system is becoming increasingly important. This paper describes our approach to construct a robotic assistance system. We present experience with an integrated technology demonstration and exposure of the integrated system to the public.
Multimodaler Sensor zur Fahrzeugführung: Teilprojekt: Architektur, Rundumsicht und Objekterkennung
(1997)
Systeme zur automatisierten Bildanalyse sind vielfältig einsetzbar und gewinnen aufgrund technologischer Weiterentwicklungen und gesellschaftlicher Akzeptanz zunehmend an Bedeutung. Schwerpunkt im Bereich der "Technischen Bildverarbeitung dynamischer Szenen" ist die Entwicklung von Methoden, die bei der Interpretation von Bildern aus verschiedenen Sensordaten Verwendung finden. Dies sind neben den herkömmlichen Kamerabildern im wesentlichen Röntgen- und Radarbilder. Unter geeigneter Berücksichtigung der durch die jeweiligen Anwendungen vorgegebenen Randbedingungen werden daraus entsprechende Verfahren abgeleitet. Derzeitige Projekte beschäftigen sich mit der Analyse von Straßenverkehrsszenen, der Detektion von Sprengstoffzündern bei der Durchleuchtung von Fluggepäck, sowie mit der Bestimmung von Art und Ausdehnung von Ölverschmutzungen bei der Meeresüberwachung.
Systems for automated image analysis are useful for a variety of tasks and their importance is still increasing due to technological advances and an increase of social acceptance. The main focus of "Technical Image Processing of Dynamic Scenes" lies
with the development of methods for the interpretation of images derived from various sensors. Apart from conventional visual images, this involves mainly X-ray and radar images. Taking into account the requirements of the various applications, suitable methods are derived. Current projects are dealing with the analysis of traffic scenes, detection of detonators when X-raying luggage and determination of type and expansion of oil pollution in maritime surveillance.
To reduce the number of traffic accidents and to increase the drivers comfort, the thought of designing driver assistance systems arose in the past years. Fully or partly autonomously guided vehicles, particularly for road traffic, pose high demands on the development of reliable algorithms. Principal problems are caused by having a moving observer in predominantly natural environments. At the Institut fur Neuroinformatik methods for analyzing driving relevant scenes by computer vision are developed in cooperation with several partners from the automobile industry. We present a solution for a driver assistance system. We concentrate on the aspects of video-based scene analysis and organization of behavior.
The goal of this empirical study is to answer whether predictions about stock price movements can be made with the use of machine learning in the energy sector and what influence contributions from social media have on its development. To answer the research
question, the social media platforms Twitter and Reddit, in terms of the suitability of the information, were studied and evaluated. Then, the sentiments of the posts from social media were collected and used in machine learning models. The models include the Gradient Boosted Regression Tree, Multilayer Perceptron, and Long Short-Term
i Memory, which predict a subsequent day's closing stock price. The study showed that deviations from predictions of stock price movements of 1.05 % are possible and further sentiment values do not show significant positive effect on reducing the error value. The
result shows that the collected sentiments from the social media platform Twitter have no positive effect on the stock price movements within the energy industry.
Keywords: stock market, stock prediction, artificial neural networks, machine learning,
energy market, sentiment analysis
Aufgrund intelligenter Softwares für die Prozessautomatisierung ist es möglich die regelbasierten
Geschäftsprozesse zwischen den geschäftlichen Anwendungen mit Robotern zu automatisieren.
Ob Amazon Alexa oder Apple Siri – Sprachassistenten in privaten Haushalten in
Deutschland sind keine Seltenheit mehr. Einer Bitkom-Studie zufolge sind derzeit Sprachassistenten
bei Privathaushalten in Deutschland sehr beliebt (vgl. Klöss 2021, S. 23). Aus diesem
Grund ist das Thema der Spracherkennung und -verarbeitung mithilfe von künstlicher Intelligenz
(KI) auch bei den Unternehmen im Bereich des Kundendienstes angekommen. Dazu
zählt der allseits bekannte textbasierte Chatbot, der auf jeglichen Internetseiten eines Unternehmens
implementiert ist. Um diverse Kundenservices erreichen zu können, greift man im
Alltag oft auf die klassischen Chatbots zurück. Aufgrund der ähnlichen Konstruktion stellt dies
im Hinblick auf die Voicebots ein hochrelevantes und zukunftsorientiertes Thema dar. Aktuell
werden im telefonischen Kundenservice häufig „Interactive-voice-response (IVR)“-Systeme
eingesetzt (s. Anhang B). Jedoch erfüllt ein IVR-System nicht die gleichen menschlichen Bedürfnisse
wie der direkte, synchrone und persönliche Kontakt zum Unternehmen, der bei einem
Voicebot der Fall ist. Ein weiterer positiver Aspekt des Voicebot-Systems ist die Fähigkeit,
dass der Kunde1 das Gespräch führen kann und er somit eine kleine Machtposition hat. Durch
den auffallenden Kostenvorteil einer Automatisierung der telefonischen Kundenbetreuung ist
das Thema für eine Investition äußerst interessant und von hoher Bedeutung. Doch wie ist das
alles in der heutigen Zeit möglich? Durch die „Big-Data-Welle“, den Aufschwung des Internets
auf Smartphones und die steigende Rechenleistung, die vor einigen Jahrzehnten noch unrealisierbar
waren, bewirkte die KI einen wiederholten Durchbruch (vgl. Culotta/Hartmann/Ten-
Cate 2020, S. 5). Auf dieser Grundlage folgte auch die Entfaltung der künstlichen neuronalen
Netze (KNN). Anhand derer waren Systeme in der Lage, ohne mathematische Rechnungen
und vordefinierte Regeln selbstständig zu lernen. Dies ermöglichte den Einsatz der automatisierenden
Spracherkennung (vgl. dsb.). Daher untersucht diese Arbeit die Fragestellung, inwiefern
sich der Einsatz eines Voicebots in der Kundenbetreuung aus wirtschaftlicher Perspektive
lohnt. Das Ziel ist herauszuarbeiten, ob sich der Einsatz von Voicebots für Unternehmen
eher lohnt, als dass traditionell ein realer Mitarbeiter im Kundenservice eingesetzt wird.
Ein weiteres Ziel dieser Arbeit ist, falls sich der Einsatz lohnt einen Voicebot zu implementieren,
zu bestimmen inwiefern sich der Einsatz lohnt. Zudem ist die Zielsetzung hier zu ermitteln,
1 Aus Gründen der besseren Lesbarkeit wird in der vorliegenden Arbeit auf die gleichzeitige Verwendung
der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen
gelten gleichermaßen für alle Geschlechter.
2
für welche Unternehmen der Voicebot eine rentable Investition wäre. Dabei wird die Unternehmensgröße
nach dem Kundenvolumen bestimmt. Das erwartete Ergebnis der Analyse ist,
dass eine Einführung eines Voicebot umso eher stattfindet, je größer das Unternehmen ist.
Die Kundenservicestrukturen sind in ihrer Komplexität recht einfach. Somit lässt sich begründen,
dass auf Grundlage von eigenen plausiblen Annahmen eine Investitionsrechnung mithilfe
von fünf „Key-performance-indicator“ (KPI) zu ermitteln ist. Durchgeführt wird eine quantitative
Forschung. Dabei erfolgte zum einen eine Simulationsanalyse und zum anderen eine empirische
Arbeit. Überdies war die Vorgehensweise induktiv, wodurch neue Erkenntnisse in diesem
Forschungsgebiet gewonnen werden konnten. Die erforderlichen Daten für die Simulationsanalyse
wurden anhand von standardisierten Fragebögen erhoben. Dabei wurden drei Voicebot-
Anbieter auf dem deutschen Markt angefragt, die unabhängig voneinander dieselben Fragen
beantwortet haben. Jedem Unternehmen lag der gleiche Fragebogen vor und der Zeitraum
der Umfrage betrug ungefähr einen Monat. Die Daten wurden erhoben, um diese zu einem
späteren Zeitpunkt für die KPI weiterverarbeiten zu können. Abschließend wurde die These im
fünften Kapitel mithilfe einer statistischen Methode überprüft und anschließend mithilfe des
Kontingenzkoeffizienten die Stärke des Zusammenhangs zwischen den zwei nominalen Merkmalen
– Kommunikationskanal und Unternehmensgröße nach Kundenzahl – ermittelt. Die eigene
empirische Analyse wurde mittels telefonischer Anfrage an 99 Unternehmen durchgeführt
und in Form von drei Tabellen in Microsoft Excel erfasst. Die Tabellen veranschaulichen,
welche Unternehmen welchen Kommunikationskanal im Kundenservice derzeit eingesetzt haben.
Dabei wurden die 99 Unternehmen nach Kundenzahl in drei Kategorien – wenige Kunden,
mittelviele Kunden und viele Kunden – unterteilt. Die vorliegende Arbeit ist folgendermaßen
aufgebaut. Sie beginnt mit der Einleitung, in der das Forschungsgebiet und die Fragestellung
eingegrenzt werden, die Motivation der Forschung und die Zielsetzung und die Vorgehensweise
aufgeführt werden. Das zweite Kapitel beginnt mit den Kommunikationskanälen,
die in deutschen Unternehmen speziell im Kundenservicebereich verwendet werden. Im
Hauptteil des zweiten Kapitels ist die Analyse der grundlegenden Literatur zum Thema KI.
Außerdem geht es im letzten Teil des zweiten Kapitels darum wie ein Voicebot aufgebaut ist.
Zudem wird im letzten Teil ein Überblick über den Markt im Hinblick auf den Voicebot verschafft.
Anschließend folgt das dritte Kapitel, das den theoretischen Rahmen beinhaltet und
der Vorgehensweise zur Beantwortung der Forschungsfrage dient. Anschließend wird im vierten
Kapitel die Analyse anhand der fünf KPI durchgeführt. Zuletzt wird ein Indikator, der die
Stärke des Zusammenhangs zwischen den Kommunikationskanälen und der Kundenzahl aufzeigt,
dargelegt. Dabei wird das vierte Kapitel und das fünfte Kapitel mit einer Datengrundlage
eingeleitet, da die erhobenen Daten für die Durchführung der Analyse essenziell sind. Am
Ende des vierten Kapitels wurden die zentralen Ergebnisse der Analyse zusammengefasst. In
3
Kapitel 5 geht es um die aufgestellte These, die anhand von einer eigenen empirischen Analyse
untermauert und überprüft wird. Dabei wird diese entweder verifiziert oder falsifiziert. Anschließend
wird der statistische Zusammenhang der beiden nominalen Variablen bestimmt.
Im Schlussteil dieser Arbeit wird die Forschungsfrage ein wiederholtes Mal aufgestellt, um alle
nennenswerten Informationen auf einem Blick darzustellen. Anschließend werden die wichtigsten
Ergebnisse aus der Arbeit vorgestellt und mittels dieser Ergebnisse wird die Forschungsfrage
beantwortet. Im abschließenden Teil der gesamten Arbeit wird eine kritische
Reflexion der Arbeit und der weitere Forschungsbedarf bestimmt
Temporal stabilization of discrete movement in variable environments: An attractor dynamics approach
(2009)
The ability to generate discrete movement with distinct and stable time courses is important for interaction scenarios both between different robots and with human partners, for catching and interception tasks, and for timed action sequences. In dynamic environments, where trajectories are evolving online, this is not a trivial task. The dynamical systems approach to robotics provides a framework for robust incorporation of fluctuating sensor information, but control of movement time is usually restricted to rhythmic motion and realized through stable limit cycles. The present work uses a Hopf oscillator to produce discrete motion and formulates an online adaptation rule to stabilize total movement time against a wide range of disturbances. This is integrated into a dynamical systems framework for the sequencing of movement phases and for directional navigation, using 2D-planar motion as an example. The approach is demonstrated on a Khepera mobile unit in order to show its reliability even when depending on low-level sensor information.
In dieser Arbeit wurde eine Motorsteuerung für mikrofluidische Peristaltikpumpen in Lab-on-a-Chip Systemen entwickelt. Neben der dafür notwendigen elektrischen Schaltung wurde viel Wert auf die softwareseitige Umsetzung gelegt. Zusätzlich zu der reinen Vorgabe von essentiellen Größen, wie beispielsweise der Drehzahl und dem damit geförderten Volumen, wird ein vielseitiges und zuverlässiges Steuerungssystem vorgestellt, das versucht Schwankungen im geförderten Flüssigkeitsstrom zu reduzieren. Um schon vor dem ersten Betrieb, des parallel zu dieser Arbeit gefertigten mechanischen Aufbau, die Leistung sowie Ausmaße der Schwankungen abzuschätzen, wurde der zu erwartende Volumenstrom auf Basis der geometrischen Ausmaße modelliert. Dadurch können Algorithmen zur Glättung des Flusses bereits in einer frühen Phase der Softwareentwicklung berücksichtigt werden. Für eine bessere Charakterisierung des mechanischen Aufbaus und Überwachung des Betriebs wurde das System um eine sensorlose Erkennung von Bewegungen des Motors ergänzt. Somit kann unter anderem die Zuverlässigkeit und Dimensionierung der verwendeten Motoren überprüft werden. Zusätzlich wurde der Prozess zum Verschweißen von thermoplastischer Elastomer Folie mit dem mikrofluidischen Chip optimiert.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
Das vorliegende Paper gibt einen Überblick über das Verhalten von modernen, autonom navigierenden Fahrzeugen in Baustellen. Dabei werden besondere Herausforderungen für die autonome Navigation im Baustellenbereich benannt. Außerdem wird ein Überblick über die Sensorausstattung und die Fahrerassistenzsysteme von modernen Fahrzeugen gegeben und es werden Technologien vorgestellt, die für eine Verbesserung der autonomen Navigation durch Baustellen genutzt werden können. Es wird ein Versuch durchgeführt, der aufzeigt, wie zuverlässig moderne Fahrzeuge durch Baustellensituationen navigieren können. Dabei werden Schwachstellen, wie bspw. die mangelnde Verfügbarkeit von Fahrerassistenzsystemen bei niedrigen Geschwindigkeiten, aufgedeckt.