Betrachten wir als ein Beispiel ein großes Kreditinstitut, in dem überwiegend viele hohe Kreditverträge abgeschlossen werden. Bei der Entscheidung zur Vergabe ziehen die Mitarbeiter und Mitarbeiterinnen ähnliche Fälle hinzu. Jedoch können sie aufgrund der Vielzahl an Anträgen nur wenige Vergleichsfälle sichten. Die Leitung des Instituts will den Angestellten ihre Arbeit erleichtern, indem Data Scientisten ein KI-Modell zur Kreditvergabe entwickeln. Damit soll der Entscheidungsfindungsprozess der Angestellten vereinfacht werden. Das KI-Modell soll alle bisherigen Kreditvergabefälle berücksichtigen und auf deren Basis eine Prognose erstellen. Zudem sollen die Angestellten mit dem Modell verschiedene (mögliche) Entwicklungen in der Zukunft (wie Zinserhöhungen) simulieren können.
Dieses hypothetische Beispiel, das auf einer realen Studie aus McKinsey’s The State of AI in 2020 basiert, zeigt die herausragende Bedeutung von Erklärbarkeit in der KI-Welt. In einem KI-Modell sind die Ausgangsdaten als Input für das Modell bekannt und das Modell gibt ein Ergebnis aus. Jedoch bleibt das Zustandekommen des Ergebnisses im Verborgenen. Aus diesem Grund stellen KI-Modelle eine Black-Box für die Anwendenden dar, so dass eine Nachvollziehbarkeit der Entscheidungsfindung nicht gegeben ist und Nutzende dem Modell nicht vertrauen. In der McKinsey Studie erhöhte sich die Akzeptanz des KI-Modells, sobald die Erklärbarkeit des Systems verbessert wurde.
Explainable AI schafft diese Erklärbarkeit. Darüber hinaus kann XAI sogar zeigen, wie Algorithmen sich bei geänderten Rahmenbedingungen (wie Änderungen in der Altersverteilung) verhalten können. Diese Fragen stellen sich z. B. in den Bereichen Corporate Governance und Regulationen, und weisen viele rechtliche, soziale und ethische Implikationen auf. Einen bedeutenden rechtlichen Einfluss beinhaltet der EU AI Act, in dem die Europäische Union rechtliche Rahmenbedingungen für die KI-Nutzung setzt. Es ist das erste Gesetz weltweit, mit dem KI in allen Lebensbereichen reguliert werden soll. Nach diesem soll die KI „robust und ethisch“ sein.
XAI erklärt die ML-Ergebnisse in verständlicher Weise für den Nutzenden. Es werden zwei Arten von Erklärungen unterschieden: Lokale Erklärungen liefern spezifische Vorhersagen des KI-Modells, d. h. es wird das Ergebnis für eine einzelne Beobachtung erläutert. Globale Erklärungen geben unter Berücksichtigung aller Beobachtungen Erklärungen für das Verhalten des gesamten KI-Modells.
Damit Nutzende die Ergebnisse des XAI-Prozesses verständlich nachvollziehen können, bietet sich deren Visualisierung in einem User Interface an. Dies ist Gegenstand von Explainable User Interface (XUI). Chromik/ Butz (2021) definieren XUI „as the sum of outputs of an XAI process that the user can directly interact with“.