Erklärbarkeit und Akzeptanz eines Kategorisierungs-Modells in der ITK Branche durch Techniken der Explainable AI
- Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterstützen als auch verhindern können. Diese Arbeit beschäftigt sich mit der Frage, wie und ob die Akzeptanz und darüber hinaus auch die Erklärbarkeit von Kategorisierungsmodellen erreicht werden können. Durch die Erklärbarkeit erlangt der Nutzer ein verbessertes Verständnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden dafür zunächst das zuvor angefertigte Modell erläu-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschließend für die Erklärung von Kategorie Vorhersagen eingesetzt werden. Außerdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalität des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um über 90% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6%. Um abschließend die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgeführt, um einerseits die Auswirkungen von Erklärungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erklärungen erreicht werden konnte. Die benötigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden. Schlagwörter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion
Author: | Jonas Deterding |
---|---|
URN: | urn:nbn:de:hbz:1393-opus4-8330 |
Document Type: | Bachelor Thesis |
Language: | German |
Year of Completion: | 2022 |
Release Date: | 2023/01/24 |
Institutes: | Fachbereich 1 - Institut Informatik |
DDC class: | 300 Sozialwissenschaften / 330 Wirtschaft |
Licence (German): | ![]() |