Jump to content
Illustration Explainable AI
Illustration Explainable AI

Gebrauchstaugliche Explainable AI für Situationen mensch-KI-basierter Uneinigkeit und Vertrauen

Dissertations-Projekt von Laura Spillner

Wenn Menschen gemeinsam mit KI arbeiten, hängt erfolgreiche Zusammenarbeit in der gemeinsamen Entscheidungsfindung von vielen Faktoren ab – gegenseitigem Verständnis und angemessenem Vertrauen kommt dabei eine besondere Bedeutung zu. Aktuelle Entwicklungen im Bereich der KI basieren weitgehend auf tiefen neuronalen Netzen, deren inneres Funktionieren für Menschen im Allgemeinen nicht nachvollziehbar ist. Das Forschungsfeld der „Explainable AI“ (erklärbaren KI) beschäftigt sich damit, die Ausgaben solcher „Black-Box“-Modelle transparenter zu gestalten. Ein Ziel ist es, Menschen zu erleichtern, Fehler oder verzerrte Entscheidungen der KI zu erkennen und besser einschätzen zu können, ob ein bestimmter Output, eine Vorhersage oder eine Handlung der KI korrekt ist oder nicht.

Das Problem, ob man KI-Output vertrauen sollte oder nicht, tritt in vielen Anwendungsbereichen auf: In KI-gestützten Entscheidungsprozessen müssen Menschen automatisierte Entscheidungsvorschläge überprüfen und entscheiden, ob sie dem Vorschlag folgen oder ihn verwerfen. Wenn alltägliche Aktivitäten durch KI-Agenten unterstützt werden (von Chatbots und Sprachassistenten bis hin zu verkörperten Robotern), müssen Nutzer*innen entscheiden, welche Aufgaben sie an die KI delegieren und wann sie deren Handlungen vertrauen können. Und wenn Menschen mit Chatbots interagieren, um Informationen oder Beratung zu erhalten, müssen sie beurteilen, in welchem Ausmaß sie den generierten Antworten vertrauen können – und wann sie deren Richtigkeit hinterfragen sollten.

In all diesen Fällen ist die Frage, wie Erklärungen für KI-Outputs zugänglich gemacht werden können, nicht nur ein technisches, sondern auch ein Usability-Problem: wie Informationen präsentiert werden, wie Interaktion gestaltet ist, wie das bestehende Nutzerinnenwissen berücksichtigt wird und – im Fall natürlicher Sprache – wie die Sprache selbst ausgestaltet ist.

Diese Dissertation beschäftigt sich mit der Frage, wie nutzbare, verständliche Explainable-AI-Interaktionen gestaltet werden können – insbesondere in Situationen, in denen Mensch und KI unterschiedliche Einschätzungen treffen. Wie kann man einerseits modellieren, welches Wissen und welche Überzeugungen Nutzerinnen und KI wahrscheinlich teilen, und andererseits verstehen, wo Uneinigkeiten typischerweise ihren Ursprung haben? Wie kann die KI ihren Grad an (Un-)Sicherheit kommunizieren? Und welche Faktoren beeinflussen, ob Nutzer*innen der KI genug vertrauen, um ihre eigene Meinung auf Grundlage der KI-Hinweise zu ändern?

Kontakt

Gefördert durch DFG (Deutsche Forschungsgemeinschaft)FWF Österreichischer Wissenschaftsfonds

Fragen beantwortet:

Prof. Dr. Andreas Hepp
ZeMKI, Zentrum für Medien-, Kommunikations- und Informationsforschung
Universität Bremen
Tel: +49 421 218-67620
Assistenz Frau Schober: +49 421 218-67603
E-Mail: andreas.hepp@uni-bremen.de

Uni BremenZeMKI Uni BremenLeibniz Instituts für Medienforschung | Hans Bredow InstitutUni GrazUni GrazUni Wien