Refine
Year of publication
Document Type
- Bachelor Thesis (98)
- Master's Thesis (31)
- Conference Proceeding (23)
- Article (12)
- Part of Periodical (10)
- Book (3)
- Report (3)
- Part of a Book (2)
- Doctoral Thesis (2)
- Working Paper (2)
Language
- German (144)
- English (41)
- Multiple languages (1)
Has Fulltext
- yes (186) (remove)
Is part of the Bibliography
- no (186)
Keywords
Institute
- Fachbereich 1 - Institut Informatik (59)
- Fachbereich 2 - Wirtschaftsinstitut (51)
- Fachbereich 4 - Institut Mess- und Senstortechnik (41)
- Fachbereich 3 - Institut Bauingenieurwesen (11)
- Fachbereich 1 - Institut Energiesysteme und Energiewirtschaft (10)
- Fachbereich 3 - Institut Maschinenbau (5)
- Fachbereich 4 - Institut Naturwissenschaften (1)
So far, electronic data interchange (EDI) has been primarily used by large companies. They increasingly pressure their business partners to participate in or connect to their EDI infrastructure. Companies, which do not use EDI so far, face the challenge of imple-mentation. Questions, such as the choice of the right EDI approach and the right EDI standard, have to be answered. In addition, there are often high investment costs. Small- and medium-sized enterprises (SMEs) are particularly affected due to their limited re-sources and financial means in comparison to those of large enterprises. Based on a structured literature research, information on the state of the art as well as research was consolidated and the opportunities and risks of EDI for small and medium-sized enter-prises were examined. The results show that EDI offers a variety of opportunities ranging from process optimization to competitive advantages, but that these also depend on the degree of integration. The understanding of the own benefits as well as the support of the management plays an important role for the successful adoption, implementation and integration of EDI.
Keywords: EDI, interorganizational systems, SME, system integration, data interchange
Die vorliegende Arbeit befasst sich mit der Ausarbeitung einer Handlungsempfehlung zur Implementierung von Business Intelligence (BI) Software. ,,BITools sind Werkzeuge, die Auswertungsverfahren von internen und externen Unternehmensdaten, sowie quantitative Verfahren für Planungs-, Entscheidungs- und Controllingzwecke softwaremäßig für Manager bereitstellen, um Geschäftslagen, -entwicklungen und -prozesse im Unternehmen zu analysieren.“1 Zu Beginn wird ein grundlegendes Verständnis der Materie aus dem aktuellen Stand der Wissenschaft definiert. Anschließend wird eine vom Autor umgesetzte Implementierung retrospektiv bewertet. Auf Grundlage dieser Bewertung, den gesammelten Erfahrungen des Autors und der Theorie findet eine gezielte Handlungsempfehlung zur Implementierung von BI statt. Die Anfänge von Auswertungsverfahren begann in den 60er Jahren. Lenz berichtet in seinem Buch Business Intelligence von persönlichen Erfahrungen wie Daten 1964 ausgewertet wurden. Hierbei wurde durch Tabellierungen seitenlange Papierbahnen gedruckt. Papierstapel von guten 25cm Höhe wurden händisch komprimiert und dem Vorgesetzten zur Verfügung gestellt. Bis in die 90er Jahre war dies kein unübliches Vorgehen in der deutschen Wirtschaft.2 Damals wurden erste Computeranwendungen entwickelt, mit der Funktion, eine Entscheidung zu stützen. Im Jahr 1980 wurde festgestellt, dass hierfür das Wasserfallmodell als Vorgehensweise zu statisch ist, um auf die wechselnden Anforderungen an Auswertungssystemen zu reagieren. Somit wurde damals auf agiles Vorgehen und Design wie beispielsweise Scrum3 gesetzt. Ende der 80er wurden die ersten Dashboards, Scorecards und OLAP als Werkzeuge eingesetzt. Im Jahr 1990 wurden die ersten BI-Infrastrukturen entwickelt. Diese wurden bis 2006 für einzelne Abteilungen und nicht abteilungsübergreifend eingesetzt.
Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterstützen als auch verhindern können. Diese Arbeit beschäftigt sich mit der Frage, wie und ob die Akzeptanz und darüber hinaus auch die Erklärbarkeit von Kategorisierungsmodellen erreicht werden können. Durch die Erklärbarkeit erlangt der Nutzer ein verbessertes Verständnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden dafür zunächst das zuvor angefertigte Modell erläu-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschließend für die Erklärung von Kategorie Vorhersagen eingesetzt werden. Außerdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalität des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um über 90% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6%. Um abschließend die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgeführt, um einerseits die Auswirkungen von Erklärungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erklärungen erreicht werden konnte. Die benötigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden.
Schlagwörter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion
Das Themenfeld Industrie 4.0 gewinnt mit der fortschreitenden Digitalisierung und neuen Technologien immer mehr an Bedeutung. Während LEAN Manufacturing in vielen Unternehmen bereits im Einsatz ist, sind die eingesetzten Methoden nicht an das aktuelle digitale Zeitalter angepasst. LEAN 4.0, die Kombination von Industrie 4.0 und Lean Manufacturing, wird für Unternehmen daher immer wichtiger.
Während im Bereich Industrie 4.0 bereits mehrere Reifegradmodelle existieren und etabliert sind, gibt es für LEAN 4.0 wenige Konzepte. Im Rahmen dieser Arbeit wird ein konzeptionelles Reifegradmodell im Themenfeld LEAN 4.0 entwickelt, welches auf etablierten Reifegradmodellen im Kontext Industrie 4.0 aufbaut, jedoch Aspekte des LEAN Manufacturing miteinbezieht.
Nach Erläuterung der relevanten Theorie, wird ein Reifegradmodell aufgebaut und in den Zusammenhang mit realen Fallbeispielen in einem sonst fiktiven Unternehmen getestet.
Basierend auf den Stufen des Modells werden Handlungsempfehlungen für die verschiedenen Fallbeispiele aufgestellt, sodass exemplarisch die reale Anwendung gezeigt wird. Das konzeptionelle Reifegradmodell soll für Unternehmen eine Richtlinie darstellen und dabei helfen einen Überblick in der Produktion zu schaffen, sowie Ideen für weitere Schritte zu erhalten.
Roboter und Arbeitsplätze
(2022)
Das Ziel dieser Bachelorarbeit ist es, einen Zusammenhang zwischen den Roboterzahlen und der Arbeitslosigkeit herauszuarbeiten. Zunächst werden die Beschäftigungseffekte durch den Einsatz von Robotern beschrieben. Anschließend werden unterschiedliche Daten von mehreren
Ländern aus dem Jahr 2020 anhand einer empirischen Regression analysiert, sodass schlussfolgernd interpretiert werden kann, ob Beziehungen zwischen der Anzahl an Robotern und der Arbeitslosenquote bestehen.
In den letzten Jahren sind unzweifelhaft technologische Durchbrüche gelungen, es entstanden Innovationen von selbstfahrenden Autos bis hin zu Künstlichen Intelligenzen. Die Auswirkungen der technischen Neuerungen lassen auf der einen Seite Hoffnungen und auf der
anderen Seite Ängste und Befürchtungen entstehen. Während die Hoffnungen darauf beruhen, dass das menschliche Leben durch die Hilfe von Robotern erleichtert wird, richtet sich der Kern
der Befürchtungen auf die Ambivalenz des technischen Fortschritts bei seinen Auswirkungen auf Produktion und Beschäftigung.
In dieser Arbeit stehen die Roboter im Mittelpunkt. Aufgrund der vielseitigen Einsatzmöglichkeiten, die diese Roboter vorweisen, entsteht die Besorgnis, dass dies bald zu einem „Ende der Arbeit“ führen könnte.
Ziel dieser Arbeit ist es, anhand des Lastgangs eines Produktionsbetriebs in der Stahlverarbeitung eine PV-Anlage optimal auszulegen. Anhand genauer Analysen für den Beispielbetrieb H. Janssen GmbH & Co. Maschinen- und Stahlbau KG soll der Auslegungsprozess für vergleichbare Betriebe vereinfacht werden. Hierfür sollen Auslegungsgrenzen herausgearbeitet werden, die auf ähnliche Projekte übertragen werden können. Um die PV-Anlage optimal für den Lastgang auszulegen, werden mithilfe der Simulationssoftware PV-SOL mehrere verschiedene Anlagen- und Speichergrößen simuliert und analysiert. Diese Analysen haben gezeigt, dass es bei der Dimensionierung der Anlagengröße sowie bei der Speichergröße Grenzen gibt, ab denen eine Vergrößerung der Anlagen oder des Speichers zur Optimierung der Anlagen nicht mehr sinnvoll ist. Für die Anlagengröße stellte sich heraus, dass die Grenzen der Anlagengröße bei 1,00 kWp/MWh und für die Speichergröße bei 1,00 kWh/kWp liegt. Außerdem hat sich gezeigt, dass die Nutzung eines Speichers erst ab einer gewissen Anlagengröße (0,50 kWp/MWh) zur Optimierung einer PV-Anlage führt. Neben der technischen Optimierung wurde auch die wirtschaftliche Sicht genauer betrachtet. Hierbei wurde mithilfe der Simulationsergebnisse aus PV-SOL eine Amortisationsrechnung durchgeführt. Es wurden drei verschiedene Anlagentypen untersucht die Volleinspeisung, die Eigenverbrauchsdeckung ohne Speicher und die Eigenverbrauchsdeckung mit Speicher. Diese Wirtschaftlichkeitsbetrachtung hat ergeben, dass der Anlagentyp „Eigenverbrauchsdeckung ohne Speicher“ die wirtschaftlichste Option ist. Die Auslegungsgrenzen, die sich in der technischen Analyse herausgestellt haben, lassen sich auf ähnliche Projekte übertragen.
Die vorliegende Bachelorarbeit im Fachbereich Bauingenieurwesen beschäftigt sich mit der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlhochbau. In der Praxis und Literatur des Stahlbaus treten verschiedene gelenkige Anschlusskonstruktionen in Erscheinung, die ohne ausreichende Nachweise als gelenkig bezeichnet werden. Ein
Grund für die Annahme einer gelenkigen Verbindung ist, dass in der Literatur zu Anschlüssen im Stahlbau und in der DIN EN 1993-1-8: Bemessung von Anschlüssen die Nachweise der Gelenkeigenschaften und somit der Verdrehbarkeit von vermeintlich gelenkigen Anschlüssen nicht eindeutig anwendbar sind. Das Ziel dieser Bachelorarbeit ist es zu ermitteln, ob verschiedene, vorgeblich gelenkige Anschlüsse, tatsächlich Gelenkeigenschaften aufzeigen. In einem weiteren Schritt werden vereinfachte Methoden entwickelt, um eine Verdrehbarkeit und Gelenkwirkung der Anschlussvarianten nachzuweisen.
Zunächst werden Beispielaufgaben aus Literaturquellen von verschiedenen Autoren zusammengestellt und im Hinblick auf die Qualität und Vollständigkeit ausgewertet.
Dazu werden eigenständig Kriterien ausgewählt. Die Bewertung anhand der Kriterien erfolgt zuerst je einzelnem Beispiel, um anschließend in einem zweiten Schritt alle Beispielaufgaben zu vergleichen, sodass Vor- und Nachteile erkennbar sind. Die Beispiele umfassen Anschlüsse mit Stirnplatte, Fahnenblech, Doppelwinkel und Knaggen sowie Trägerstöße.
Ein weiterer Teil der Literaturrecherche ist die Erfassung der vorhandenen Nachweismethoden der Verdrehbarkeit von gelenkigen Anschlüssen im Stahlbau. Für die Erfassung liegen zwei Herausgaben der European Convention for Constructional Steelwork (ECCS) über die Ausführung von Anschlüssen im Stahl- und Verbundbau und Konstruktionsempfehlungen von gelenkigen Stahlanschlüssen vor. Zudem werden die Nachweise der Verdrehbarkeit aus diesen Veröffentlichungen in der Stahlbaufibel aufgegriffen und erweitert. Die Unklarheiten und Anwendungsgrenzen der vorhandenen Methoden aus [4, 5, 6] werden hervorgehoben. Weiterhin wird die Klassifizierung von Anschlüssen nach untersucht.
Die Literaturrecherche und Auswertung wird abgeschlossen, indem eine Überprüfung der ausreichenden Gelenkeigenschaften der zusammengestellten Beispielaufgaben erfolgt. Hierzu werden die vorhandenen Nachweismethoden der Verdrehbarkeit auf die jeweiligen Anschlusskonstruktionen angewendet.
Die Analyse der vorhandenen und die Entwicklung von vereinfachten Methoden zum Nachweis der ausreichenden Verdrehbarkeit von gelenkigen Anschlüssen bilden den Hauptteil dieser Bachelorarbeit. Die Untersuchung der Prinzipien und Mechanismen, auf denen die existierenden Nachweismethoden aufbauen, dient als Grundbaustein für
die Entwicklung neuer vereinfachter Methoden, um ausreichende Gelenkeigenschaften und Verdrehbarkeit überprüfen zu können.
Für Firmen spielt Kundensegmentierung zur Verbesserung ihrer
Absatzmöglichkeiten eine zunehmend größere Rolle. Dabei zeigt sich die Wahl der optimalen Methode zur Datenanalyse und Kundensegmentierung aus vielfältigen Gründen als entscheidende Voraussetzung für den Erfolg.
Das Ziel der vorliegenden Arbeit ist es, am Beispiel des Datensatzes aus dem Bereich des E-Commerce Customer Segmentation zu untersuchen, ob die Anwendung von Deep Learning gegenüber den dort mit klassischem Machine Learning durchgeführten Segmentierungen bessere Ergebnisse erzielt. Die dabei gewonnenen Erkenntnisse ermöglichen es, Kriterien für die optimale Methodenwahl näher zu bestimmen. Dazu ist es erforderlich, beim Datensatz die gleiche Datenvorverarbeitung wie in der Referenzarbeit zu verwenden, um die Ergebnisse des Deep Learning Modells mit jenen des Machine Learning Modells vergleichbar zu machen.
Der Vergleich ergab, dass die Performance beim Deep Learning Verfahren
mittig zwischen den Ergebnissen der anderen Machine Learning Algorithmen liegt. Die Performance ist den klassischen Machine Learning Verfahren bei der
hier vorhandenen Größe des Datensatzes nicht überlegen. Daraus folgt, dass bei ähnlicher Performance die sonstigen Voraussetzungen der Methoden, wie zum Beispiel die Komplexität der Netzwerkarchitektur, die Trainingsgeschwindigkeit und die Hardwarevoraussetzungen, eine
entscheidende Rolle spielen. Die Erörterung verschiedener weiterer Methoden des Deep Learning deutet darauf hin, dass der Aufwand, damit gute Ergebnisse bei heterogenen Daten der Kundensegmentierung zu erreichen, noch nicht überzeugt.
Die Möglichkeiten der Wissensvermittlung über eingebettete Systeme haben sich durch das erforderliche distance learning stark verändert. Die bekannten didaktischen Konzepte, welche bis dahin angewandt wurden, werden durch den Wegfall von Präsenz-Praktika und den fehlenden Zugang zu einem IoT- Labor ausgehebelt.
Diese Master-Thesis beschäftigt sich daher mit der Idee, wie eine Überholung des Eingebettete Systeme-Moduls an der Hochschule Ruhr West sowohl die Modulziele weiter erfüllen kann als auch darüber hinaus einen Mehrwert erschaffen wird. Vor diesem Hintergrund wird untersucht wie durch die Einführung eines Remote-Labs in Kombination mit einer kollaborativen Entwicklungssoftware für Lerngruppen, Anreize für die Studierenden geschaffen werden können, die ihnen praxisnäheres und fundiertes Wissen in der Entwicklung eingebetteter Systeme vermitteln.
Dieses neue Vorgehen verwendet einen Peer-Group-Code-Bearbeitung- Ansatz in Echtzeit und Peer-to-Peer-Videokonferenzen und verteilt über den MQTT-Server die Interaktion der Hardwareentwicklung als integralen Bestandteil eines Kurskonzepts. Ziel ist es, die Motivation und die Lernleistung der Schüler zu verbessern.
Das Vorgehen wird anhand begleitender Umfragen während des Moduls weiterentwickelt und die Semesterergebnisse werden unter Zuhilfenahme von Bewertungskriterien mit denen vergangener Jahre verglichen. Darüber hinaus wird das neue Kurskonzept durch eine Expertenbefragung in Form von Studierenden evaluiert, welche den Kurs in seiner alten Form durchlaufen haben.
Proceedings of DELFI Workshops 2021
13.09.2021
Dortmund (Online), Deutschland
So far, researchers have used a wellbeing-centered approach to catalyze successful intergenerational collaboration (IGC) in innovative activities. However, due to the subject’s multidisciplinary nature, there is still a dearth of comprehensive research devoted to constructing the IGC system. Thus, the purpose of this study is to fill a research void by providing a conceptual framework for information technology (IT) system designers to use as a jumping-off point for designing an IGC system with a wellbeing-oriented design. A systematic literature study was conducted to identify relevant terms and develop a conceptual framework based on a review of 75 selected scientific papers. The result consists of prominent thematic linkages and a conceptual framework related to design technology for IGC systems. The conceptual framework provides a comprehensive overview of IGC systems in the innovation process by identifying five barrier dimensions and using six wellbeing determinants as IGC catalysts. Moreover, this study discusses future directions for research on IGC systems. This study offers a novel contribution by shifting the technology design process from an age-based design approach to wellbeing-driven IGC systems. Additional avenues for investigation were revealed through the analysis of the study’s findings.
This study proposes a framework for the collaborative development of global start-up innovators in a multigenerational digital environment. Intergenerational collaboration has been identified as a strategy to support entrepreneurs during their formative years. However, integrating and fostering intergenerational collaboration remains elusive. Therefore, this study aims to identify competencies for successful global start- ups through intergenerational knowledge transfer. We used a systematic literature review to identify a competency set consisting of growth virtues, effectual creativity, technical domain, responsive teamwork, values-based organization, sustainable networking, cultural awareness, and facilitating intergenerational safety. The competency framework serves as a foundation for knowledge management research on the global innovation readiness of people to collaborate across generations in the digital age.
This study aims to determine the competing concerns of people interested in startup development and entrepreneurship by using topic modeling and sentiment analysis on a social question-and-answer (SQA) website. Understanding the underlying concerns of startup entrepreneurs is critical to society and economic growth. Therefore, greater scientific support for entrepreneurship remains necessary, including data mining from virtual social communities. In this study, an SQA platform was used to identify the sentiment of thirty concerns of people interested in startup entrepreneurship. Based on topic modeling and sentiment analysis of 18819 inquiries in various forums on an SQA, we identified additional questions about founder figures, keys to success, and the location of a startup. In addition, we found that general questions were rated more positively, especially when it came to pitching, finding good sources, disruptive innovation, idea generation, and marketing advice. On average, the identified concerns were considered 48.9 percent positive, 41 percent neutral, and 10.1 percent negative. This research establishes a critical foundation for future research and development of digital startups by outlining a variety of different concerns associated with startup development in the digital age.
Ziel dieser Arbeit ist es, eine deutlich definierte Markenidentität für DigiCerts zu konzipieren. Zu diesem Zweck wird das Markensteuerrad von Esch (2018, S.98) angewandt, um in detaillierten Schritten eine nützliche Markenidentität aufzubauen. Mithilfe dieser soll anschließend folgende Fragestellung beantwortet werden: Wie kann sich DigiCerts in der Hochschullandschaft positionieren? Zur Beantwortung der zugrunde liegenden Frage, wird die Positionierungspyramide von Esch(2009, S. 163)genutzt.
Insgesamt soll mithilfe dieser Arbeit eine für DigiCerts anwendbare Identität aufgebaut werden.
The goal of this empirical study is to answer whether predictions about stock price movements can be made with the use of machine learning in the energy sector and what influence contributions from social media have on its development. To answer the research
question, the social media platforms Twitter and Reddit, in terms of the suitability of the information, were studied and evaluated. Then, the sentiments of the posts from social media were collected and used in machine learning models. The models include the Gradient Boosted Regression Tree, Multilayer Perceptron, and Long Short-Term
i Memory, which predict a subsequent day's closing stock price. The study showed that deviations from predictions of stock price movements of 1.05 % are possible and further sentiment values do not show significant positive effect on reducing the error value. The
result shows that the collected sentiments from the social media platform Twitter have no positive effect on the stock price movements within the energy industry.
Keywords: stock market, stock prediction, artificial neural networks, machine learning,
energy market, sentiment analysis
This work aims to generate synthetic electromyographic (EMG) signals using Generative Adversarial Network (GAN). GANs are considered as one of the most exciting and promising approaches in deep learning [6], offering the possibility to generate artificial data based on real data. GAN consists of two main parts, a discriminator that attempts to differentiate between the generated data and the original data, and a generator that tries to fool the discriminator by generating data which looks like real data, the GAN works by staging a two-player
minimax game between generator and discriminator networks. To achieve the objective of generating realistic artificial electromyographic signals, two different architectures are considered for the generator and the discriminator networks of the GAN model: Long short-term memory (LSTM), which can avoid the long-term dependency problem and remembers information over a long period of time, and convolutional neural network (CNN), which is a powerful tool at automatic feature extraction. Different combinations of CNN and LSTM including hybrid model are experimented within the GAN using the same training data-set. The results and performances of each combination are compared and reviewed. The generated artificial EMG signals can be used to
simulate real muscle activity situations to for example improve muscle signal controlled prostheses using artificial data that may include conditions that does not exist in real data. This method of artificial data generation is not limited to EMG signals, the network can also be used to generate other synthetic biomedical signals such as electroencephalogram (EEG) or electrocardiogram (ECG) that can be practically used for testing algorithms and classifiers.
Prediction of movement onset and direction based on muscle activity during reaching movements
(2021)
Electromyography as a technology allows one to be able to measure muscle activity, which in turn can be used to detect movement direction and onset. The process for this classification problem often involves a multitude of various extracted features and classification techniques, that differ a lot across different scientific papers. This thesis analyzed different features and classifiers and tackled a center out reaching task to determine a good workflow for classifying
arm movement direction. The data was recorded with 6 sEMG electrodes
placed on the upper arm of 5 healthy participants.
The different experiments show good classification accuracy of over 96 % in a reaching task with 16 targets placed in a circle within reaching distance. The results also show that the classification accuracy did not differ a lot between features. The individual EMG channels also display high correlation, which suggests a possible reduction in necessary electrodes. Classification accuracy
before movement onset also only dropped by 2 % compared to the accuracy of the whole time window of a reaching motion. This seems especially vital to ensure proper support via prosthesis or orthesis for people with heavily impaired movement.
In this document a reliable data streaming mechanism for a TDMA LPWAN application is developed by adapting a link layer solution for power line communication, published at the International Symposium on Power Line Communications and its Applications (ISPLC) 2015. A C++ implementation of the services link layer is provided and demonstrated
working at a packet error rate of 50%.
Within this thesis the impacts of “Made in China 2025” on business relationships between Germany and China are analysed and evaluated. The author shows up how the export business from Germany has developed since “Made in China 2025” was published officially in 2015. It is presented in which way the export business was affected until now (changes of product categories, development of export volume, growth rates…). The data are being provided by the German Bureau of National Statistics.
Based on the data analysis the strategy is being evaluated from German perspective. Furthermore the author takes a look at the development of Foreign Direct Investments (FDI) flows from China to Germany since the beginning of Made in China 2025. It is being analysed if China indeed invests more into their so-called “key-industries” since 2015. The chances that might be created by FDI as well as the threats are inspected and evaluated by experts from various institutions. In addition to that a scenario analysis from the German Frauenhofer Institut presents different scenarios that show up what might happen to Germany in case China succeeds, as well as what might happen in case the strategy is a failure.
Furthermore various trade theories are presented within this thesis, such as theories from Adam Smith, David Ricardo, Raymond Vernon or Bertil Ohlin. It is presented how useful the theories are for modern intra-industrial trade inquiries and if their assumptions are realistic.
Der deutsche stationäre Einzelhandel gerät immer mehr unter Druck. Seit nunmehr fast einem Jahr bestimmt die Covid-19-Pandemie weltweit das menschliche Leben. Unter den Maßnahmen zum Schutz der deutschen Bevölkerung leidet auch die deutsche Wirtschaft. Vor allem den stationären Einzelhandel trifft es in dieser Zeit sehr. Leere Städte und geschlossene Läden sind schon fast zur Normalität geworden. Doch nicht erst seit Covid-19 erlebt der deutsche stationäre Einzelhandel finanzielle Einbußen. Fortschritte auf Gebieten der modernen Technologien wie „Big Data“ und die voranschreitende Digitalisierung kommen vor allem dem Onlinehandel, der auch von der Covid-19-Pandemie profitiert, zugute. Verbunden mit den sich verändernden Bedürfnissen der deutschen Bevölkerung an den Handel, greift der Online-Handel
den stationären Einzelhandel durch den Ausbau seiner Marktanteile an. Jedoch verspricht ein modernes, aber nicht neues Technologiegebiet dem stationären Einzelhandel Besserung. Die Nutzung von Künstlicher Intelligenz könnte dem Einzelhandel dazu verhelfen, selber Gewinne
aus den anderen modernen Technologiegebieten zu erzielen, sich den veränderten Bedürfnissen des Kunden anzupassen und dem Druck des Onlinehandels stand zu halten. Die vorliegende Arbeit setzt sich mit der Bewertung des Chancenpotenzials Künstlicher Intelligenz für die Zukunft des deutschen stationären Einzelhandels auseinander. Damit wird versucht die Frage, ob der Einsatz von KI-Anwendungen dem deutschen stationären Einzelhandel dazu verhelfen wird, die oben beschriebenen Herausforderungen zu bewältigen, zu beantworten.
Um dem Leser ein fundiertes Verständnis zu vermitteln, basiert die Ermittlung des Potenzials auf einer detaillierten Erläuterung der Künstlichen Intelligenz sowie deren Fähigkeiten und Chancen, aber auch ihrer Risiken und Hürden auf dem zukünftigen Weg der Implementierung.
Auf diesem Fundament wird dann mit Hilfe einer literarischen Analyse die Bewertung vorgenommen. Bisher von der Literatur wenig berücksichtigt sind Veränderungen der Situation des deutschen stationären Einzelhandels durch die Auswirkungen der noch immer anhaltenden Covid-19-Pandemie. Die Ergebnisse der Literaturanalyse werden daher durch die Durchführung und Auswertung von Experteninterviews, als Methode der qualitativen Primärforschung,
auf Aktualität und Übereinstimmung mit Erkenntnissen aus der Praxis überprüft.
Mit Dara Kossok-Spieß, Referentin des Handelsverbands Deutschland, Niels Will und Frederic Kerber, beide im Einsatz für praxisnahe Forschungsprojekte des deutschen Forschungsinstituts für Künstliche Intelligenz, sind sowohl Vertreter beider Interessengruppen – der Anwendung sowie der Forschung – vertreten. Hierdurch konnten neue Erkenntnisse über die zukünftigen Auswirkungen der Covid-19-Pandemie auf den deutschen stationären Einzelhandelsmarkt gewonnen werden. Außerdem konnten Barrieren, die in naher Zukunft durch die Zusammenarbeit der Anwender mit der Forschung, gelöst werden müssen, damit Künstliche Intelligenz flächenübergreifend in den deutschen stationären Einzelhandel einziehen kann, ermittelt werden. Die vorliegende Arbeit richtet sich daher an alle Personen, die ein Interesse an der Bewertung des Technologiegebiets Künstlicher Intelligenz besitzen und/oder sich für die Zukunft des deutschen stationären Einzelhandels interessieren.
According to various studies, a strong market penetration of electric mobility is expected in the next few years. On the one hand, electric vehicles can contribute to achieve climate targets, but on the other hand, they can place a heavy burden on the power grid and have serious consequences, such as component overload and voltage instabilities, if they are charged in an uncoordinated manner.
Proper grid integration of electric vehicles with a coordinated charging approach can minimize these negative impacts and brings about positive aspects, such as improving grid quality and integrating larger amounts of renewable energy.
Taking into consideration the legal framework and the different requirements of network operators, vehicle manufacturers and owners, this paper compares different network integration techniques.
It is concluded that a decentralized charging management approach, in which the vehicle owners themselves make the charging decisions, is a good compromise between the different parties and consequently the best alternative for the grid integration of electric vehicles in Ger-many.
One aspect that needs further investigation is which is the best way to motivate vehicle owners to actively participate in a flexible charging management.
Packaging, as a communication tool between the end consumer and the product, influences the purchase decision process and ultimately the purchase decision of the consumer (cf. Butkeviciene et al. 2008, p.59; Mishra/Jain 2012, p.49f). Since the influence of the type of
packaging on the purchase intention has not yet been investigated, this connection will be examined more closely in this paper using the example of strained tomatoes and the corresponding target group. In addition, possible influencing factors (moderators) are to be identified and investigated, which show an additional effect on the relationship. The target group, on which the two aspects of the research question are to be examined, is defined as buyers of strained tomatoes, in the age of 20 to 35 years, who are living in Germany. An experiment was used to investigate this topic. For this purpose, an online survey was conducted using a standardized questionnaire. Three groups were formed according to the different types of packaging, to
which the subjects were assigned by a randomization function in the questionnaire. The test persons were randomly selected from the private and professional network of the researcher.
The survey period lasted approximately two weeks (11/03 – 11/14/2020). The analysis of the usable data was carried out with the analysis of variance (ANOVA) in order to check the influence of the packaging type on the purchase intention. This showed that there was no significant
correlation, but the significance level was very close to the threshold for a significant value.
The covariance analysis (ANCOVA), which was used to take into account possible further moderators(covariates), showed that the information on the packaging material have an additional effect. The other moderators could not be examined because at least one of the conditions for the calculation was not fulfilled.
Public transportation will become highly automated in the future, and at some point, human drivers are no longer necessary. Today many people are skeptical about such scenarios of autonomous public transport (abbr.: APT). In this paper, we assess users’ subjective priority of different factors that lead to personal acceptance or rejection of APT using an adapted online version of the Q-Methodology with 44 participants. We found four prototypical attitudes to which subgroups of participants relate: 1) technical enthusiasts, 2) social skeptics, 3) service-oriented non-enthusiasts, and 4) technology-oriented non-enthusiasts. We provide an unconventional perspective on APT acceptance that helps practitioners prioritize design requirements and communicate, targeting users’ specific attitudes.
This Paper presents a new service-learning setting based on the collaboration of engineering students and people with disabilities. The implementation at a German university is described and first results from two years of experience are shown. The objective of this case study is to show a transferable best practice concept with impact.
Researchers have previously utilized the advantages of a design driven by well-being and intergenerational collaboration (IGC) for successful innovation. Unfortunately, scant information exists regarding barrier dimensions and correlated design solutions in the information systems (IS) domain, which can serve as a starting point for a design oriented toward well-being in an IGC system. Therefore, in this study, we applied the positive computing approach to guide our analysis in a systematic literature review and developed a framework oriented toward well-being for a system with a multi-generational team. Our study contributes to the IS community by providing five dimensions of barriers to IGC and the corresponding well-being determinants for positive system design. In addition, we propose further research directions to close the research gap based on the review outcomes.
Stress im Informatikstudium
(2020)
Einführung
Ziel der vorliegenden Thesis ist es, die Eu- und Disstressoren der Infomatikstudierenden an der Hochschule Ruhr West zu untersuchen. Hierzu sollen nach den Wünschen der neuen Beratungsstelle für den Studienstress die Studierenden befragt werden. Nachfolgend werden in der Thesis die bekannten Problematiken im Informatikstudium eingebunden. Zusätzlich sollen die Informatikstudierenden auf den Stress mit einem Cartoon-Video aufmerksam gemacht werden. Mithilfe des Videos sollen die zukünftigen Eu- und Disstressoren rechtzeitig erkannt und Hilfe an der Hochschule Ruhr West abgeholt werden.
Methode
Die Untersuchung der Stressoren wird mit einem Fokusgruppeninterview (N = 4) und mit einer Online-Fragebogenerhebung (N = 120) durchgeführt. Die Signifikanzprüfungen sind varianzanalytisch und die Abweichungen der Gruppen werden mit t-Tests und einfaktorieller ANOVA berechnet.
Ergebnisse
Die Ergebnisse zeigen Unterschiede zwischen den Stressoren in unterschiedlichen Gruppen. Vor allem in den Gruppen mit davor erworbenen Vorkenntnissen und mit verschieden bewerteten Fachkompetenzen. Insbesondere ist der Stresslevel zwischen den Geschlechtern und bei den Informatikstudierenden, die mehrmals im Studium erkrankt waren, unterschiedlich.
Schlussfolgerung
Die Ergebnisse sind für die aktuellen Stresssituationen im Informatikstudium und für die nächsten Studien relevant. Außerdem wird mit dieser Studie auch auf die Problematiken in der Informatik, wie z. B. dem Frauenmangel in der Informatik, die den Informatikstudierenden den Stress verursachen könnten, aufmerksam
gemacht.
The present bachelor theses discusses the creation process of a framework for the sys-tematic analysis of twitter posts regarding their sentiment. The result is an application, which links and uses the covered theoretical approaches for text classification.
Learning the German language is one of the most critical challenges for refugee children in Germany. It is a prerequisite to allow communication and integration into the educational system. To solve the underlying problem, we conceptualized a set of principles for the design of language learning systems to support collaboration between teachers and refugee children, using a Design Science Research approach. The proposed design principles offer functional and non-functional requirements of systems, including the integration of open educational resources, different media types to develop visual and audio narratives that can be linked to the cultural and social background. This study also illustrates the use of the proposed design principles by providing a working prototype of a learning system. In this, refugee children can learn the language collaboratively and with freely accessible learning resources. Furthermore, we discuss the proposed design principles with various socio-technical aspects of the well-being determinants to promote a positive system design for different cultural and generational settings. Overall, despite some limitations, the implemented design principles can optimize the potential of open educational resources for the research context and derive further recommendations for further research.
Das Ziel der vorliegenden Bachelorarbeit ist die Konzeption eines neuen Ansatzes − die Positive Co-Creation −, der die Elemente des Positive Computing in die Co-Creation integriert. Dafür wurden in einer Literaturanalyse die bestehenden Schwachstellen der Co-Creation herausgearbeitet, um anschließend die Vorteile des Positive Computing aufzuzeigen. Nach der Entwicklung eines spezifischen Modells der Positive Co-Creation, inklusive der verwendeten Methoden und deren Auswirkungen auf die Wohlbefindensfaktoren, wurde das Modell anhand von Experteninterviews evaluiert und verbessert. Das Ergebnis dieser Arbeit ist ein theoretisches Modell der Positive Co-Creation, welches den Prozess vollständig abbildet und einen Ansatzpunkt für eine praktische Umsetzung bildet. Dieser Ansatz ist gut geeignet, um bestehende Co-Creation-Prozesse anhand von Technologien um die Aspekte des Wohlbefindens zu erweitern.
The task of object detection in the automotive sector can be performed by evaluating various
sensor data. The evaluation of LiDAR data for the detection of objects is a special challenge for
which systems with neural networks can be used. These neural networks are trained by means of a
data set. If you want to use the net with your own recordings or another data set, it is important
to know how well these systems work in combination with data from another sensor. This allows
the results to be estimated in advance and compared with the results of previous experiments.
In this work the sensor dependence of a LiDAR based object recognition with neural networks
will be analysed. The detector used in this work is PointRCNN [1], which was designed for the
KITTI dataset [2]. To check the sensor dependency, the ’AEV Autonomous Driving Dataset’
(A2D2) dataset [3] was selected as a further dataset. After an introduction to PointRCNN and its
functionality, the data of both datasets are analysed. Then the data of the second dataset will be
ported into the format of the KITTI dataset so that they can be used with PointRCNN. Through
experiments with varying combinations of training and validation data it shall be investigated to
what extent trained models can be transferred to other sensor data or datasets. Therefore, it shall
be investigated how strong the dependence of the detector (PointRCNN) on the used sensors is.
The results show that PointRCNN can be evaluated with a different dataset than the training
dataset while still being able to detect objects. The point density of the datasets plays a decisive
role for the quality of the detection. Therefore it can be said that PointRCNN has a sensor
dependency that varies with the nature of the point cloud and its density.
Keywords: LiDAR data, 3D object recognition, laser scanner, sensor dependency, PointRCNN,
PointNet++, PointNet, KITTI Dataset, AEV Autonomous Driving Dataset, A2D2 Dataset
Das Ziel der vorliegenden Arbeit ist es, die Eignung von MeshLab in einem Reverse-Engineering-Projekt zu überprüfen. Dazu wurden vor Beginn sechs Kriterien aufgestellt, auf die MeshLab untersucht wird. Das Ergebnis zeigt, dass MeshLab fünf von sechs Kriterien erfüllt und somit für einen Einsatz geeignet ist.
MeshLab ist ein Teil der Datenaufbereitung des Reverse Engineering. Es ist ein kostenloses Programm und somit in Kombination mit einem günstigen Scanner für einen Einsatz in Reverse-Engineering-Projekten mit einem geringen Kostenaufwand einsetzbar.
The aim of this bachelor thesis is to verify the suitability of MeshLab in a Reverse-Engineering-Project. Before the beginning six criterias were set up on which MeshLab is examined. The result shows that MeshLab fulfills five of six criterias and is therefore suitable for use.
MeshLab is a part of the data preparation from the Reverse Engineering. It is a free programm and in combination with a cheap scanner, it can be used in a Revere-Engineering-Project with a low Budget.
While more and more nuclear installations facing the end of their lifetime, decommissioning financing issues gain importance in political discussions.
The financing needs are huge along the Uranium value chain. Following the polluter pays principle the operator of a nuclear installation is expected to accumulate all the necessary decommissioning funds during the operating life of its facility. However, since decommissioning experience is still limited,
since the decommissioning process can take several decades and since the time
period between the shutdown of a nuclear installation and the final disposal of radioactive waste can be very long, there are substantial risks that costs will be underestimated and that the liable party and the funds accumulated might
not be available anymore when decommissioning activities have to be paid.
Nevertheless, these financing risks can be reduced by the implementation of transparent, restricted, well-governed decommissioning financing schemes, with a system of checks and balances that aims at avoiding negative effects
stemming from conflicts of interests.
DamokleS 4.0
(2019)
Dieser interne Bericht beschreibt die Zielsetzung, Durchführung und Auswertung des Projektes Damokles 4.0. Das Projekt zielt darauf ab, neue, digitale Technologien in die Schwerindustrie einzuführen um Produktionsprozesse zu modernisieren. Unter Einsatz neuer Technologien, insbesondere mobiler Geräte, soll ein cyberphyiskalisches System (CPS) eine kontextbasierte und künstlich intelligente Unterstützung der Mitarbeiter in den Bereichen der Schwerindustrie ermöglichen. Hierzu werden typische Anwendungsfälle und die damit verbundenen Szenarien zur Unterstützung der Mitarbeiter auf Basis von neuen, flexiblen, adaptiven und mobilen Technologien, wie Augmented Reality und künstlicher Intelligenz, modelliert. Um den Prototypen einer AR-Anwendung und einer kamerabasierte Personenverfolgung zu entwickeln, hat die Hochschule Ruhr West im kleinen Technikum am Campus Bottrop eine entsprechende industrielle Umgebung simuliert. Die Projektergebnisse zeigen die Anwendbarkeit der vorgeschlagenen Softwareansätze und die Ergebnisse einer Untersuchung der psychologischen Einflüsse auf die Mitarbeiter.
Vor dem Hintergrund globaler Vernetzung, Digitalisierung und Big Data geht das Excel-Zeitalter seinem Ende entgegen. Neue Technologien versprechen eine höhere Effizienz und Effektivität des Controllings. Die Veränderungen umfassen dabei alle Aufgabenbereiche des Controllings – allerdings mit unterschiedlicher Geschwindigkeit und differenzierten Lösungsansätzen. Der vorliegende Beitrag untersucht drei Technologien, die im Controlling derzeit besonders stark diskutiert werden: Robotic Process Automation, Predictive Analytics und Künstliche Intelligenz. Im Rahmen eines Forschungsseminars an der Hochschule Ruhr West in Mülheim a.d.R. wurden dazu 57 Führungskräfte aus Controlling und Rechnungswesen befragt. Über 75% der befragten Unternehmen halten die Digitalisierung für wichtig, mehr als die Hälfte (52%) beabsichtigen, eine oder mehrere der drei untersuchten Technologien in den nächsten drei Jahren neu einzusetzen. In den Aufgabenbereichen ist bislang vor allem das Reporting digital unterstützt, in der Strategischen Planung und im Risikomanagement ist dagegen die Digitalisierung gering. Wesentliche Hindernisse sehen die Befragten im fehlenden Know-How und mangelnder Veränderungsbereitschaft.
Globalization and information technology enable people to join the movement of global citizenship and work without borders. However, different type of barriers existed that could affect collaboration in today’s work environment, in which different generations are involved. Although researchers have identified several technical barriers to intergenerational collaboration (iGOAL), the influence of cultural diversity on iGOAL has rarely been studied. Therefore, using a quantitative study approach, this paper investigates the impact of differences in cultural background on perceived technical and operational barriers to iGOAL. Our study reveals six barriers to IGC that are perceived differently by culturally diverse people (CDP) and non-CDP. Furthermore, CDP can foster IGC because CDP consider the barriers to be of less of a reason to avoid working with different generations than do non-CDP.
The virtual classroom continues to grow, but it is becoming more and more the norm, and it is fundamentally different from the vocational students at the Indonesian university. With the promised benefits of the virtual classroom, many challenges and difficulties come in the implementation. Although there are already successful design principles for virtual classrooms that support organizations in overcoming the challenges, the approach to implementing the design principles of virtual classroom at the vocational higher education in Indonesia is still lacking. In this study, we aim to answer the research gap and used the design sciences research by interviewing the lecturers to design the solutions. The proposed design approaches were implemented in a course and evaluated with students from two different groups. Overall, the evaluation of the proposed approaches shows1 significant results as an indicator of the benefits of the implementation of a virtual classroom for vocational students in Indonesia.
Why Should the Q-method Be Integrated Into the Design Science Research? A Systematic Mapping Study
(2019)
The Q-method has been utilized over time in various areas, including information systems. In this study, we used a systematic mapping to illustrate how the Q-method was applied within Information Systems (IS) community and proposing towards integration of Q-method into the Design Sciences Research (DSR) process as a tool for future research DSR-based IS studies. In this mapping study, we collected peer-reviewed journals from Basket-of-Eight journals and the digital library of the Association for Information Systems (AIS). Then we grouped the publications according to the process of DSR, and different variables for preparing Q-method from IS publications. We found that the potential of the Q-methodology can be used to support each main research stage of DSR processes and can serve as the useful tool to evaluate a system in the IS topic of system analysis and design
We are “not” too (young/old) to collaborate: Prominent Key Barriers to Intergenerational Innovation
(2019)
In this study, we analyzed the barriers to technology-supported intergenerational innovation to understand better how young and old can collaborate towards global innovations. Researchers in different disciplines have already identified various barriers to intergenerational collaboration. However, barriers are changing depending on the context of collaboration, and difficulties still exist to support intergenerational innovation in global settings. Therefore, we investigated the barriers that emerge when people work with someone decades older or younger. The results of our study have shown what barriers are influenced by age, what barriers exist only for senior and younger adults. The study theoretically contributes to deepening the Information Systems (IS) community's understanding of the barriers to intergenerational innovation that need to be considered when developing systems for global innovation
Digital transformation is a process of digitizing the working and living environment in which people are at the center of digitization. In this paper, we present a personas-based guideline for system developers on how the humanization of digital transformation integrates into the design process. The proposed guideline uses the positive personas from the beginning as a basis for the transformation of the working environment into the digital form. We used the literature research as a preliminary study for the process of wellbeing-driven digital transformation design, consisting of questions for structuring the required information in the positive personas as well as a potential method that could be integrated into the wellbeing-based design process.
Photolumineszenz (PL) aus Halbleiterstrukturen liefert Informationen bezüglich verschiedener Materialparameter wie z.B. Bandlücke, Schichtdicke sowie Temperatur. PL-Messungen werden klassischerweise erst ex situ und somit nach dem Produktionsprozess vorgenommen. Wird eine derartige PL-Messung während der Epitaxie einer Halbleiterstruktur und den damit verbundenen hohen Wachstumstemperaturen durchgeführt, erlaubt dies eine quasi-kontinuierliche In-situ-Charakterisierung der optoelektronischen Eigenschaften dieser Struktur zum frühestmöglichen Zeitpunkt, also noch in der Produktionsphase. Hierdurch wird eine In-situ-Optimierung der Prozessparameter ermöglicht, welche bei einer Ex-situ-Messung nicht gegeben ist. Die vorliegende Arbeit beschreibt zunächst theoretisch und dann anhand praktischer Messungen an industrienahen Epitaxie-Anlagen erstmals eine quasi-kontinuierliche In-situ-PL-Messung am Beispiel von wachsenden Nitrid-Halbleiterstrukturen. Über zeitaufgelöste PL-Messungen wird ein temperaturabhängiger Quenching-Mechanismus bei Gallium-Nitrid (GaN) und Indium-Gallium-Nitrid (InGaN) aufgezeigt, welcher den Einsatz von gepulsten Lasern als PL-Anregungsquelle bei hohen Wachstumstemperaturen einer Epitaxie erforderlich macht. Mit In-situ-PL-Messungen können hierdurch erstmals verschiedene Parameter einer gerade wachsenden Halbleiterschicht charakterisiert werden. Neben der Bestimmung der Temperatur und der Schichtdicke einer wachsenden, auf InGaN basierten LED-Struktur wird auch die Möglichkeit demonstriert, in einem frühen Stadium des Wachstums einer LED-Struktur ihre spätere Emissionswellenlänge bei Raumtemperatur vorherzusagen, und dies mit einer Genauigkeit von ± 1,3 nm (2σ). Diese Arbeit zeigt somit neben den industriell etablierten Messtechniken, wie z.B. pyrometrische Verfahren, eine weitere Möglichkeit zur Prozessüberwachung einer Epitaxie auf.
Enabling decentral collaborative innovation processes -a web based real time collaboration platform
(2018)
The main goal of this paper is to define a collaborative innovation process as well as a supporting tool. It is motivated through the increasing competition on global markets and the resultant propagation of decentralized projects with a high demand of innovative collaboration in global contexts. It bases on a project accomplished by the author group. A detailed literature review and the action design research methodology of the project led to an enhanced process model for decentral collaborative innovation processes and a basic realization of a browser based real time tool to enable these processes.The initial evaluation in a practical distributed setting has shown that the created tool is a useful way to support collaborative innovation processes.
The adoption of Open Educational Resources (OER) can support collaboration and knowledge sharing. One of the main areas of the usage OER is the internationalization, i.e., the use in a global context. However, the globally distributed co-creation of digital materials is still low. Therefore, we identify essential barriers, in particular for co-authoring of OER in global environments. We use a design science research method to introduce a barrier framework for co-authoring OER in global settings and propose a wellbeing-based system design constructed from the barrier framework for OER co-authoring tool. We describe how positive computing concepts can be used to overcome barriers, emphasizing design that promotes the author's sense of competence, relatedness, and autonomy.
A Large and Quick Induction Field Scanner for Examining the Interior of Extended Objects or Humans
(2017)
This study describes the techniques and signal properties of a large, powerful, and linear-scanning 1.5 MHz induction field scanner. The mechanical system is capable of quickly reading the volume of relative large objects, e.g., a test person. The general approach mirrors Magnetic Induction Tomography (MIT), but the details differ considerably from currently-described MIT systems: the setup is asymmetrical, and it operates in gradiometric modalities, either with coaxial excitation with destructive interference or with a single excitation loop and tilted receivers. Following this approach, the primary signals were almost completely nulled, and test objects' real or imaginary imprint was obtained directly. The coaxial gradiometer appeared advantageous: exposure to strong fields was reduced due to destructive interference. Meanwhile, the signals included enhanced components at higher spatial frequencies, thereby obtaining a gradually improved capability for localization. For robust signals, the excitation field can be powered towards the rated limits of human exposure to time-varying magnetic fields. Repeated measurements assessed the important signal integrity, which is affected by the scanner´s imperfections, particularly any motions or respiratory changes in living beings during or between repeated scans. The currently achieved and overall figure of merit for artifacts was 58 dB for inanimate test objects and 44 dB for a test person. Both numbers should be understood as worst case levels: a repeated scan with intermediate breathing and drift/dislocations requires 50 seconds, whereas a single measurement (with respiratory arrest) takes only about 5 seconds.
This experimental study demonstrates for the first time a solid-state circuitry and design for a simple compact copper coil (without an additional bulky permanent magnet or bulky electromagnet) as a contactless electromagnetic acoustic transducer (EMAT) for pulse echo operation at MHz frequencies. A pulsed ultrasound emission into a metallic test object is electromagnetically excited by
an intense MHz burst at up to 500 A through the 0.15 mm filaments of the transducer. Immediately thereafter, a smoother and quasi “DC-like” current of 100 A is applied for about 1 ms and allows an
echo detection. The ultrasonic pulse echo operation for a simple, compact, non-contacting copper coil is new. Application scenarios for compact transducer techniques include very narrow and
hostile environments, in which, e.g., quickly moving metal parts must be tested with only one, non-contacting ultrasound shot. The small transducer coil can be operated remotely with a cable
connection, separate from the much bulkier supply circuitry. Several options for more technical and fundamental progress are discussed.
Photoluminescence (PL) in GaN or InGaN layers monitored during epitaxial growth at high temperatures permits a quasi-continuous in situ characterization of opto-electronic properties. Therefore, epitaxial parameters can now be optimized at the earliest possible stage. A pulsed and high-power UV laser was required for PL excitation at high temperatures. Herein, the underlying nonlinear mechanism was studied via time-resolved PL experiments and rate equation-based modeling. A temperature-activated and saturable path for quenching over defects was identified. Beyond the saturation threshold, reasonably-intensive PL sets in. At high temperatures not only is the near band gap-PL present, but also—as a new observation—a defect-assisted PL emerges. Apart from these specific electronic transitions in high-temperature PL of GaN, a simple, but reasonably predictive model of the luminescent thin film has been set up to track down interference fringes in the PL spectra. It is worth mentioning that the spectral PL modulation (aiming at the Purcell effect) is often mixed up with ordinary Fabry–Pérot interference. A distinction has become key to properly analyze the spectral signatures of high-temperature PL in order to provide a reliable in situ characterization of GaN layers during epitaxial growth
Background:
Influential actors detection in social media such as twitter or Facebook can play a major role in gathering opinions on particular topics, improving the market
-
ing efficiency, predicting the trends, etc.
Proposed methods:
This work aims to extend our formally defined
T
measure to
present a new measure aiming to recognize the actor’s influence by the strength of
attracting new important actors into a networked community. Therefore, we propose a
model of the actor’s influence based on the attractiveness of the actor in relation to the
number of other attractors with whom he/she has established connections over time.
Results and conclusions:
Using an empirically collected social network for the
underlying graph, we have applied the above-mentioned measure of influence in
order to determine optimal seeds in a simulation of influence maximization. We study
our extended measure in the context of information diffusion because this measure is
based on a model of actors who attract others to be active members in a community.
This corresponds to the idea of the IC simulation model which is used to identify the
most important spreaders in a set of actors.
Keywords: Actor influence, Social media networks, Twitter, IC model, Information
diffusion, Independent cascade model, T measure
MeHRWert Ausgabe 8 März 2016
(2016)
A simple copper coil without a voluminous stationary magnet can be utilized as a non-contacting transmitter and as a detector for ultrasonic vibrations in metals. Advantages of such compact EMATs without (electro-)magnet might be: applications in critical environments (hot, narrow, presence of iron filings…), potentially superior fields (then improved ultrasound transmission and more sensitive ultrasound detection).
The induction field of an EMAT strongly influences ultrasound transduction in the nearby metal. Herein, a simplified analytical method for field description at high liftoff is presented. Within certain limitations this method reasonably describes magnetic fields (and resulting eddy currents, inductances, Lorentz forces, acoustic pressures) of even complex coil arrangements. The methods can be adapted to conventional EMATS with a separate stationary magnet.
Increased distances (liftoff) are challenging and technically relevant, and this practical question is addressed: with limited electrical power and given free space between transducer and target metal, what would be the most efficient geometry of a circular coil? Furthermore, more complex coil geometries (“butterfly coil”) with a concentrated field and relatively higher reach are briefly investigated.
Background:
Detection of influential actors in social media such as Twitter or Facebook plays an important role for improving the quality and efficiency of work and services in many fields such as education and marketing.
Methods:
The work described here aims to introduce a new approach that characterizes the influence of actors by the strength of attracting new active members into a networked community. We present a model of influence of an actor that is based on the attractiveness of the actor in terms of the number of other new actors with which he or she has established relations over time.
Results:
We have used this concept and measure of influence to determine optimal seeds in a simulation of influence maximization using two empirically collected social networks for the underlying graphs.
Conclusions:
Our empirical results on the datasets demonstrate that our measure stands out as a useful measure to define the attractors comparing to the other influence measures.
Open Educational Resources (OER) intend to support access to education for everyone. However, this potential is not fully exploited due to various barriers in the production, distribution and the use of OER. In this paper, we present requirements and recommendations for systems for global OER authoring. These requirements as well as the system itself aim at helping creators of OER to overcome typical obstacles such as lack of technical skills, different types of devices and systems as well as the cultural differences in cross-border-collaboration. The system can be used collaboratively to create OER and supports multi-languages for localization. Our paper contributes to facilitate global, collaborative e-Learning and design of authoring platforms by identifying key requirements for OER authoring in a global context.
The highly successful lecture series on the topic of measurement and sensor technologies as part of the IEEE Workshop at the University of Applied Sciences Ruhr West (HRW) is being continued in collaboration with the University of Siegen, the TU Chemnitz and the ITMO National Research University of Information Technologies, Mechanics and Optics in St. Petersburg. This time the event is featuring an even more international orientation by linking it with the Russian SENSORICA. The topics cover industrial and medical measurement technology as well as sensor technology in vehicles. Our event offers a platform for knowledge transfer between industry and public and commercial research institutions in the area of measurement technology.
This Abstract Book offers the opportunity of contacting speakers even after the event.
In addition we are very pleased to have selected contributions published in a special edition of the journal „tm Technisches Messen“ (De Gruyter Oldenbourg Verlag) again this year.
MeHRWert Ausgabe 6 März 2015
(2015)
In this work we report the first quasi-continuous in-situ photoluminescence study of growing InGaN LED structures inside an industrial-grade metal-organic vapor phase epitaxy (MOVPE) reactor at growth temperature. The photoluminescence spectra contain information about temperature, thickness and composition of the epitaxial layers. Furthermore, the in-situ spectra – even at an early stage of the growth of the active region – can be used to predict the photoluminescence emission wavelength of the structure at room temperature. In this study an accuracy of this predicted wavelength in the range of ± 1.3 nm (2σ) is demonstrated. This technique thus appears suitable for closed-loop control of the emission wavelength of InGaN LEDs already during growth.
Immer mehr ältere Menschen leben von ihren Angehörigen getrennt und können über Kommunikationsmedien wie Telefon und Skype nur eingeschränkt gemeinsame Erlebnisse erzeugen. In diesem Paper wird die technische Umsetzung eines Konzeptes vorgestellt, das es Familienmitgliedern ermöglicht über das Internet gemeinsam „Mensch-ärgere-dich-nicht“ zu spielen. Durch Videotelefonie und eine besondere Anordnung der Hardware werden die Spieler trotz räumlicher Trennung virtuell an einen Tisch gebracht und dadurch ein gemeinsames Erlebnis erzeugt. Die Clientanwendung wird dabei als plattformunabhängiger Webservice und die Videotelefonie mittels verschiedener Standards und Server realisiert.
Der Bedarf an feuerverzinkten Stahlbändern ist besonders in der Automobilindustrie sehr groß und es werden zugleich immer höhere Qualitäten gefordert. Hierbei bildet vor allem die Homogenität der Zinkschichtdicke ein entscheidendes Qualitätsmerkmal. Um das Stahlband ausreichend vor Umwelteinflüssen zu schützen, muss eine, vom Kunden spezifizierte, Mindestzinkschichtdicke aufgetragen werden. Beim hier angewandten Verzinkungsverfahren durchläuft das Band ein Zinkbad und anschließend wird das überschüssige Zink berührungs-los mittels sogenannten Abblasdüse so abgetragen, sodass eine möglichst homogene Zinkschicht erhalten bleibt. Hierzu ist es notwendig den Abstand zwischen Band und Airknife konstant zu halten. Störende Bandbewegungen führen zu inhomogene Zinkschichtdicken, welche die Qualität der Verzinkung vermindern. Diese Qualitätsverminderung und der erhöhte Zinkeinsatz soll durch geeignete Maßnahmen verringert werden. Bisher eingesetzte berührungslose Bandstabilisatoren können die Bandbewegung im Allge-meinen dämpfen, jedoch treten noch Betriebszustände auf, in denen eine inhomogene Zinkschicht sichtbar ist. Die Ursache dieser Inhomogenitäten liegt in anlagenbedingten dominanten Schwingungen des Bandes, deren Ursache zu klären ist. Im vorliegenden Beitrag wird ein Modell der Bandbewegung vorgestellt, das durch die theore-tische Modellbildung und experimentelle Identifikation erstellt worden ist. Das Modell beschreibt die Bewegung des Bandes bezüglich ausgewählter Freiheitsgrade und ermöglicht die Analyse der kritischen Betriebszustände. Darüber hinaus soll dieses Modell zur Stabilisierung des Bandes in einer modellgestützten Reglung verwendet werden.
MeHRWert Ausgabe 5 Juni 2014
(2014)
Electro-magnetic acoustic transducers (EMATs) are intended as non-contact and non-destructive ultrasound transducers for metallic material. The transmitted intensities from EMATS are modest, particularly at notable lift off distances. Some time ago a concept for a “coil only EMAT” was presented, without static magnetic field. In this contribution, such compact “coil only EMATs” with effective areas of 1–5 cm2 were driven to excessive power levels at MHz frequencies, using pulsed power technologies. RF induction currents of 10 kA and tens of Megawatts are applied. With increasing power the electroacoustic conversion efficiency also increases. The total effect is of second order or quadratic, therefore non-linear and progressive, and yields strong ultrasound signals up to kW/cm2 at MHz frequencies in the metal. Even at considerable lift off distances (cm) the ultrasound can be readily detected. Test materials are aluminum, ferromagnetic steel and stainless steel (non-ferromagnetic). Thereby, most metal types are represented. The technique is compared experimentally with other non-contact methods: laser pulse induced ultrasound and spark induced ultrasound, both damaging to the test object’s surface. At small lift off distances, the intensity from this EMAT concept clearly outperforms the laser pulses or heavy spark impacts.
Efficient photoluminescence (PL) spectra from GaN and InGaN layers at temperatures up to 1100 K are observed with low noise floor and high dynamic resolution. A number of detailed spectral features in the PL can be directly linked to physical properties of the epitaxial grown layer. The method is suggested as an in situ monitoring tool during epitaxy of nitride LED and laser structures. Layer properties like thickness, band gap or film temperature distribution are feasible.
MeHRWert Ausgabe 3 Juni 2013
(2013)
Detection of air trapping in chronic obstructive pulmonary disease by low frequency ultrasound
(2012)
Background: Spirometry is regarded as the gold standard for the diagnosis of COPD, yet the condition is widely underdiagnosed. Therefore, additional screening methods that are easy to perform and to interpret are needed. Recently, we demonstrated that low frequency ultrasound (LFU) may be helpful for monitoring lung diseases. The objective of this study was to evaluate whether LFU can be used to detect air trapping in COPD. In addition, we evaluated the ability of LFU to detect the effects of short-acting bronchodilator medication.Methods: Seventeen patients with COPD and 9 healthy subjects were examined by body plethysmography and LFU. Ultrasound frequencies ranging from 1 to 40 kHz were transmitted to the sternum and received at the back during inspiration and expiration. The high pass frequency was determined from the inspiratory and the expiratory signals and their difference termed F. Measurements were repeated after inhalation of salbutamol.Results: We found signi ficant differences in F between COPD subjects and healthy subjects. These differences were already significant at GOLD stage 1 and increased with the severity of COPD. Sensitivity for detection of GOLD stage 1 was 83% and for GOLD stages worse than 1 it was 91%. Bronchodilator effects could not be detected reliably.Conclusions: We conclude that low frequency ultrasound is cost-effective, easy to perform and suitable for detecting air trapping. It might be useful in screening for COPD
In this paper we discuss how group processes can be influenced by designing specific tools in computer supported collaborative leaning. We present the design of a shared workspace application for co-constructive tasks that is enriched by certain functions that are able to track, analyze and feed back parameters of collaboration to group members. Thereby our interdisciplinary approach is mainly based on an integrative methodology for analyzing collaboration behavior and patterns in an implicit manner combined with explicit surveyed data of group members’ attitudes and its immediate feedback to the groups. In an exploratory study we examined the influence of this feedback function. Although we could only analyze ad-hoc groups in this study, we detected some benefits of our methodology which might enrich real life Learning Communities’ collaboration processes. The data analysis in our study showed advantages of this feedback on processes of a group’s well-being as well as parameters of participation. These results provide a basis for further empirical work on problem solving groups that are supported by means of parallel interaction analysis as well as its re-use as information resource.
We describe the general concept, system architecture, hardware, and the behavioral abilities of Cora (Cooperative Robot Assistant, see Fig. 1), an autonomous non mobile robot assistant. Outgoing from our basic assumption that the behavior to perform determines the internal and external structure of the behaving system, we have designed Cora anthropomorphic to allow for humanlike behavioral strategies in solving complex tasks. Although Cora was built as a prototype of a service robot system to assist a human partner in industrial assembly tasks, we will show that Cora’s behavioral abilities are also conferrable in a household environment. After the description of the hardware platform and the basic concepts of our approach, we present some experimental results by means of an assembly task.
Fahrerassistenzsysteme werden eingesetzt, um dem Fahrer
eines Kraftfahrzeugs Handlungsabläufe abzunehmen. Diese Handlungsabläufe
werden definiert durch eine Aufgabenstellung, die vom Fahrer an das Fahrerassi-
stenzsystem übergeben oder systembedingt gelöst wird. Bei komplexen Fahreras-
sistenzsystemen ist an eine autonome Navigation im Straßenverkehr gedacht. Es
wird ein neues Verfahren vorgestellt, welches eine Bewegungssteuerung eines
autonomen Fahrzeugs durchführen kann. Es werden der Lenkwinkel und die Ge-
schwindigkeit beeinflußt. Für diese Aufgabe wird ein dynamischer Ansatz aus
dem Bereich der neuronalen Felder gewählt. Relevante Attribute für den Fahrt-
verlauf auf unterschiedlichem Abstraktionsniveau können dabei einfach (additiv)
verarbeitet werden.
In this article we present a system for coupling different base algorithms and sensors for segmentation. Three different solutions for image segmentation by fusion are described, compared and results are shown. The fusion of base algorithms with colorinformation and a sensor fusion process of an optical and a radar sensor including a feedback over time is realized. A feature-in decision-out fusion process is solved. For the fusion process a multi layer perceptron (MLP) with one hidden layer is used as a coupling net. The activity of the output neuron represents the membership of each pixel to an initial segment.
We propose a new approach to object detection based on data fusion of texture and edge information. A self organizing Kohonen map is used as the coupling element of the different representations. Therefore, an extension of the proposed architecture incorporating other features, even features not derived from vision modules, is straight forward. It simplifies to a redefinition of the local feature vectors and a retraining of the network structure. The resulting hypotheses of object locations generated by the detection process are finally inspected by a neural network classifier based on co-occurence matrices.