@phdthesis{Deterding, type = {Bachelor Thesis}, author = {Jonas Deterding}, title = {Erkl{\"a}rbarkeit und Akzeptanz eines Kategorisierungs-Modells in der ITK Branche durch Techniken der Explainable AI}, url = {https://nbn-resolving.org/urn:nbn:de:hbz:1393-opus4-8330}, abstract = {Akzeptanz und Vertrauen bilden zwei wichtige Aspekte, die den Einsatz eines Kategorisierungsmodells des maschinellen Lernens im Unternehmenskontext sowohl unterst{\"u}tzen als auch verhindern k{\"o}nnen. Diese Arbeit besch{\"a}ftigt sich mit der Frage, wie und ob die Akzeptanz und dar{\"u}ber hinaus auch die Erkl{\"a}rbarkeit von Kategorisierungsmodellen erreicht werden k{\"o}nnen. Durch die Erkl{\"a}rbarkeit erlangt der Nutzer ein verbessertes Verst{\"a}ndnis der Modellvorhersagen, sodass er diesen nicht blind vertrau-en muss. In dieser Arbeit werden daf{\"u}r zun{\"a}chst das zuvor angefertigte Modell erl{\"a}u-tert und zwei Explainable AI Bibliotheken evaluiert, deren Methoden anschlie{\"s}end f{\"u}r die Erkl{\"a}rung von Kategorie Vorhersagen eingesetzt werden. Au{\"s}erdem wird eine Di-mensionsreduktion des eingesetzten Sprachmodells untersucht. Die Dimensionalit{\"a}t des Sprachmodells, welches die Produktbeschreibungen abbildet, konnte um {\"u}ber 90\% verringert werden bei einem gleichzeitigen Performanceverlust von knapp 6\%. Um abschlie{\"s}end die Fragestellung zu beantworten, wurde ein Experten-Versuch durchgef{\"u}hrt, um einerseits die Auswirkungen von Erkl{\"a}rungen aus dem Bereich Ex-plainable AI zu untersuchen und andererseits Feedback der Experten zur Arbeit mit dem Modell zu erhalten. Die Ergebnisse zeigen, dass keine Verbesserung der Kategorisierungsergebnisse durch die Erkl{\"a}rungen erreicht werden konnte. Die ben{\"o}tigte Zeit zur Kategorisierung konnte jedoch als signifikant geringer und das Vertrauen ins Modell als gesteigert nachgewiesen werden. Schlagw{\"o}rter: Bachelorarbeit, ITscope, maschinelles Lernen, Explainable AI, Dimensionsreduktion}, language = {de} }