
Der Hype um KI (Teil 3) – die Rolle des Menschen
In den ersten beiden Beiträgen unserer Reihe haben wir die Relevanz von KI und Maschinelles Lernen als Haupttechnologie beschrieben. Heute nehmen wir den Menschen in den Blick. Denn mit den weitreichenden Aufgaben, die künstliche Intelligenz zunehmend übernimmt, rückt er in eine passivere Rolle mit Fokus auf eine Überwachungsfunktion. Welche Konzeptansätze und gesetzliche Regelungen existieren und welche Compliance-Maßnahmen Sie ergreifen sollten, erfahren Sie in diesem Beitrag.
Die Konzepte Human-in-the-Loop (HITL) bzw. Human-on-the-Loop (HOTL) haben in der deutschen Politik verstärkte Aufmerksamkeit erhalten, insbesondere im Zusammenhang mit sicherheitskritischen und ethisch sensiblen Anwendungen von Künstlicher Intelligenz (KI). Beispielsweise nehmen sowohl Empfehlungen der Datenethikkommission [1], als auch die KI-Strategie der Bundesregierung [2] indirekt Bezug auf HITL und HOTL, wenn sie die Notwendigkeit betonen, dass KI so entwickelt und reguliert werden soll, dass der Mensch in kritischen Prozessen stets eine überwachende Rolle einnehmen kann. Spätestens mit dem EU-AI-ACT wurden relevante HITL- bzw. HOTL-Prinzipien auf gesetzgeberischer Ebene verankert und müssen in den folgenden Monaten umgesetzt werden.
Angesichts der wachsenden politischen und rechtlichen Anforderungen an die verantwortungsvolle Nutzung von KI wird es für Unternehmen und Behörden immer relevanter, sich mit den HITL- und HOTL-Konzepten vertraut zu machen und diese sukzessive in die organisatorischen Leitlinien aufzunehmen. Somit ist die institutionelle Implementierung der Konzepte eine Compliance-Thematik, während ihre strategische Ausgestaltung eine Führungsaufgabe darstellt, die maßgeblich zur Entwicklung einer modernen Arbeits- und Organisationsweise beiträgt und dabei sicherstellt, dass relevante Standards in allen Geschäftsprozessen eingehalten werden.
Erste Schritte haben in diesem Zusammenhang bereits einige Unternehmen und Behörden unternommen, in dem sie etwa KI-Chartas aufgestellt haben, die als eine Art grundsätzlicher Verhaltenskodex zentrale Werte und Prinzipien im Umgang mit KI definieren. Aber auch einige privatwirtschaftliche Unternehmen haben sich selbstverpflichtende KI-Richtlinien gegeben, welche Anweisungen und Empfehlungen für den Umgang mit KI festhalten.
Das Aufstellen einer KI-Charta oder -Richtlinie ist ein wichtiger erster Schritt, um Grundlagen im Umgang mit KI zu schaffen, doch es braucht zusätzlich konkrete Strategien und operative Maßnahmen, um die Konzepte HITL und HOTL tatsächlich umzusetzen und den Menschen nachhaltig in KI-gestützte Prozesse einzubinden.
KI ist für den Menschen da
KI wird etwa eingesetzt, um komplexe Aufgaben zu automatisieren, Entscheidungsprozesse zu unterstützen und Muster in großen Datenmengen zu erkennen, wodurch Effizienz, Genauigkeit und Innovation in verschiedenen Bereichen wie Medizin, Wirtschaft, Bildung, Technologie und Verwaltung gefördert werden. Die Europäische Union macht deutlich, dass die Vorzüge von KI nicht um jeden Preis entfaltet werden sollen, sondern dass sie immer im Sinne des Allgemeinwohls eingesetzt werden sollen:
„Die europäische KI-Strategie und der koordinierte Plan machen deutlich, dass Vertrauen eine Grundvoraussetzung für die Verfolgung eines auf den Menschen ausgerichteten Ansatzes für die KI ist: KI ist kein Selbstzweck, sondern ein Instrument, das den Menschen dienen muss und letztlich das Wohlergehen der Menschen steigern soll.“ [3]
KI ist kein Selbstzweck, sondern ein Instrument, das den Menschen dienen muss und letztlich das Wohlergehen der Menschen steigern soll.
Ebenso enthält der EU-AI-ACT das Ziel, die „Einführung von menschenzentrierter und vertrauenswürdiger künstlicher Intelligenz zu fördern“.[4] Um die Rolle des Menschen zu verstehen, der im Umgang mit KI sicherstellen soll, dass das Gemeinwohl gewahrt bleibt, ist es hilfreich eine kurze historische Herleitung vorzunehmen. Erste HITL-Konzeptideen entstanden in den 1960er Jahren, als Pioniere wie J.C.R. Licklider und Douglas Engelbart die Idee einer symbiotischen Beziehung zwischen Mensch und Maschine skizzierten bei der Maschinen zur Erweiterung des menschlichen Intellekts beitragen.[5] Seit dieser Zeit und etwa bis in die 2010er Jahre wurde Technologie primär als passives Werkzeug verstanden, dass dem Mensch hilft, seine Arbeit schneller zu erledigen.
Mit den zunehmend leistungsstärker und autonomer werdenden KI-Systemen verschiebt sich dieses Technologieverständnis: Die KI-Technologie bekommt eine aktivere Rolle und der Mensch rückt in eine passivere Rolle mit Fokus auf eine Überwachungsfunktion. Wenn also beispielweise die EU gesetzlich vorgibt, dass der Mensch sicherstellen muss, dass KI im Sinne des Gemeinwohls eingesetzt wird, bedeutet dass, das er zunehmend die Rolle eines ‚Supervisor‘ oder einer Art ‚ethischen Wächters‘ wahrnehmen soll, der sicherstellt, dass die Menschenzentrierung in den verschiedenen Phasen eines KI-Lebenszyklus gewährleistet bleibt.
KI wandelt die Arbeitsweise von Menschen
Dieser Paradigmenwechsel vom aktiven zum eher passiven menschlichen Interagieren mit Technologien führt dazu, dass sich auch das Anforderungsprofil und die Arbeitsweise in Organisationen an neue Gegebenheiten anpassen muss. Immer wichtiger werden dadurch Organisationstrukturen, die Mitarbeitenden ermöglichen, eine eher aufsichtliche, fachlich kontrollierende Tätigkeit wahrzunehmen, was die Dynamik und Qualifikationsanforderungen im Arbeitsalltag grundlegend verändert.
Mitarbeitende sollten auf diese Veränderungen durch KI im Arbeitsalltag vorbereitet und begleitet werden. Gerade wegen des beschriebenen Paradigmenwechsels erhalten HITL- / HOTL-Konzepte heute eine neue Relevanz, da sie eine praktikable Heuristik bieten, um den Wandel in der Arbeitswelt strategisch anzugehen. Dabei ist zuerst eine Unterscheidung zwischen den beiden Ansätzen notwendig.
HITL-Organisationssysteme
setzen auf eine kontinuierliche menschliche Interaktion, um das System zu trainieren sowie Entscheidungen der KI zu prüfen bzw. freizugeben und dadurch transparent zu halten. So ist zum Beispiel der HITL-Ansatz bei der Implementierung von E-Government-Plattformen relevant, damit Mitarbeitende der Verwaltung die Möglichkeit haben, automatisch generierte Entscheidungen, wie etwa die Genehmigung von Bauanträgen, nachvollziehen und validieren zu können.
HOTL-Organisationssysteme
sind weitgehend autonom, der Mensch überwacht sie und greift nur bei Bedarf ein, um sicherzustellen, dass ethische und sicherheitsrelevante Standards eingehalten werden. Der HOTL-Ansatz ist daher beispielsweise für Smart-City-Management interessant, wo etwa autonome Systeme zur Überwachung von Verkehrsflüssen eingesetzt werden, die von Mitarbeitenden aus dem Verkehrsmanagement überwacht werden, die aber nur bei Störungen oder anderen unerwarteten Ereignissen intervenieren.
Anders formuliert erfordern HITL-Systeme menschliche Interaktion, insb. obliegt es den Menschen Entscheidungen der KI zu prüfen und freizugeben. Erst nach menschlicher Prüfung der heuristischen Ergebnisse einer KI erfolgt eine systemseitige Aktion. Dagegen sind HOTL-Systeme weitgehend autonom, der Mensch überwacht sie und greift nur bei Bedarf ein, um sicherzustellen, dass ethische und sicherheitsrelevante Standards eingehalten werden. Die Unterscheidung zwischen beiden Konzepten ermöglicht die notwendige Flexibilität, um je nach Risikokategorie gemäß EU-AI-ACT das passende Konzept zur Wahrung von Effizienz, Sicherheit und ethischen Standards zu wählen.
Dabei gilt grundsätzlich: Je höher das Risiko einer KI-Anwendung, desto eher ist der HITL-Ansatz erforderlich, während eine geringere Risikoeinstufung meist durch den HOTL-Ansatz abgedeckt werden kann.
Fazit und Ausblick
Zusammenfassend lässt sich konstatieren, dass HITL- und HOTL-Konzepte Organisationen, die eigene KI-Systeme einführen wollen, eine Orientierung bieten, um den passenden Grad an menschlicher Einbindung zu definieren. Im Sinne des EU-AI-ACT eignen sich HITL-Ansätze besonders für Anwendungen, die fortlaufende menschliche Überprüfung und Anpassungen erfordern, während HOTL-Ansätze eine überwachende Rolle für den Menschen definieren und Autonomie in etablierten Prozessen fördern.
Aus einer Führungsperspektive bieten diese Ansätze eine klare Struktur, um sowohl die Risiken als auch den Nutzen von KI gezielt zu steuern. Gleichzeitig bieten die Konzepte genug Raum, um sowohl den politischen Anforderungen an einen rechtlich einwandfreien und ethisch fundierten Einsatz von KI zu ermöglichen als auch den damit einhergehenden Wandel der Arbeitswelt gerecht zu werden.
Wie einleitend erwähnt, ist die institutionelle Implementierung von HITL- bzw. HOTL-Konzepten eine Compliance-Thematik, während ihre strategische Ausgestaltung eine strategische Führungsaufgabe darstellt. Entsprechend obliegt es Führungskräften sicherzustellen, dass die Organisationsstruktur und die Ressourcen auf die spezifischen Anforderungen der gewählten Konzepte abgestimmt werden. Dazu eigenen sich folgende drei Schritte.
- Eine KI-Charta kann als erster Schritt dienen, da sie den grundlegenden ethischen Rahmen und die zentralen Werte definiert, an denen sich die gesamte Organisation orientiert. Sie schafft ein gemeinsames Verständnis und eine klare Wertebasis, wodurch eine verbindliche Grundlage für die Ausrichtung des Einsatzes von KI geschaffen wird.
- Ausgehend von der KI-Charta kann eine umfassende KI-Strategie entwickelt werden, indem die in der Charta verankerten Grundsätze und Ziele konkret auf Anwendungsbereiche, Prozesse und Verantwortlichkeiten in der Organisation übertragen werden. In diesem Rahmen definiert die Strategie entlang der HITL- bzw. HOTL-Konzepte spezifische Maßnahmen und Ressourcen für die Umsetzung der KI-Grundsätze in der Praxis, einschließlich klarer Vorgaben für die Entwicklung, Nutzung und Überwachung von KI.
- Ausgehend von der KI-Strategie können operative Maßnahmen wie Schulungsprogramme entwickelt werden, indem die in der Strategie festgelegten ethischen Grundsätze und technischen Anforderungen in praxisnahe Lerninhalte übersetzt werden.
[1] Deutscher Ethikrat (2019). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Berlin: Deutscher Ethikrat, verfügbar unter: https://www.ethikrat.org/publikationen/stellungnahmen/mensch-und-maschine/ (Zugriff: 29.10.2024).
[2] Bundesregierung (2018). Strategie Künstliche Intelligenz der Bundesregierung. Berlin: Bundesregierung, verfügbar unter: https://www.bundesregierung.de/resource/blob/997532/1550276/3f7d3c41c6e05695741273e78b8039f2/2018-11-15-ki-strategie-data.pdf; (Zugriff: 29.10.2024).
[3] Deutscher Bundesrat (2019). Drucksache 165/19. Verfügbar unter: https://www.bundesrat.de/SharedDocs/drucksachen/2019/0101-0200/165-19.pdf?__blob=publicationFile&v=1 [Zuletzt aufgerufen am 14. November 2024].
[4] Europäische Union. 2024. Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 über harmonisierte Vorschriften für künstliche Intelligenz und zur Änderung bestimmter unionsrechtlicher Rechtsakte (Verordnung über künstliche Intelligenz). Amtsblatt der Europäischen Union. Verfügbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32024R1689 [Zuletzt aufgerufen am 19. November 2024].
[5] Licklider, J.C.R. (1960). Man-Computer Symbiosis. IRE Transactions on Human Factors in Electronics, 1(1), pp.4-11.; Engelbart, D.C. (1962). Augmenting Human Intellect: A Conceptual Framework. SRI Summary Report. Stanford Research Institute.;