Die Gestaltung von Erklärungen in einem KI-basierten Empfehlungssystem
- Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. DasDie wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird. Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen. Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.…
Document Type: | Bachelor Thesis |
---|---|
Zitierlink: | https://opus.hs-offenburg.de/8486 | Bibliografische Angaben |
Title (German): | Die Gestaltung von Erklärungen in einem KI-basierten Empfehlungssystem |
Subtitle (German): | Auswirkungen auf Vertrauenswürdigkeit und Akzeptanz |
Author: | Sophia Bucher |
Advisor: | Volker Sänger, Michael Canz |
Year of Publication: | 2024 |
Publishing Institution: | Hochschule Offenburg |
Granting Institution: | Hochschule Offenburg |
Page Number: | XVI, 84 |
Language: | German | Inhaltliche Informationen |
Institutes: | Fakultät Medien (M) (ab 22.04.2021) |
Collections of the Offenburg University: | Abschlussarbeiten / Bachelor-Studiengänge / MI |
DDC classes: | 000 Allgemeines, Informatik, Informationswissenschaft |
GND Keyword: | Akzeptanz; Benutzerorientierung; Empfehlungssystem; Ethik; Künstliche Intelligenz; Moodle; Vertrauenswürdigkeit |
Tag: | Erklärbarkeit von KI Artificial Intelligence; Learning Experience Platform | Formale Angaben |
Open Access: | Closed |
Licence (German): | Urheberrechtlich geschützt |
SWB-ID: | 1885285418 |