KI-Kompetenz und „Human in the Loop“

Die aktuelle Entwicklung der Künstlichen Intelligenz markiert einen historischen Wendepunkt in unserer Gesellschaft, der weit über rein technische Aspekte hinausgeht.

Spätestens seit der massenhaften Verbreitung generativer Sprachmodelle wie ChatGPT oder NotebookLM ist KI im Alltag der meisten Menschen angekommen und wird plötzlich für die breite Masse erlebbar. Aus meiner Sicht befinden wir uns in einer hochdynamischen Phase der sozialen Aneignung, in der die Art und Weise, wie wir als Menschen mit dieser Technologie umgehen, fundamentale Widersprüche und Gefahren offenbart.

▪️ Die Vermenschlichung der Maschine (Anthropomorphismus)

Ein zentrales Phänomen im aktuellen Umgang mit KI ist unsere instinktive Tendenz zur Vermenschlichung, in der Wissenschaft auch Anthropomorphismus genannt. Menschen neigen unweigerlich dazu, Maschinen und Algorithmen menschliche Eigenschaften, Intentionen oder gar Gefühle zuzuschreiben, sobald diese in natürlicher Sprache mit uns kommunizieren. Diese Dynamik wird durch die neueste Generation von KI-Modellen, die Emotionen simulieren, scherzen oder singen können, massiv befeuert. Wir erleben derzeit einen Wechsel von der reinen Aufmerksamkeitsökonomie („Race for Attention“) hin zu einem „Race for Intimacy“, bei dem KI-Systeme gezielt darauf trainiert werden, Vertrautheit und Intimität zum Nutzer aufzubauen. 

Hierin liegt eine große Gefahr: Es entsteht eine „Pseudo-Intimität“, bei der die Maschine emotionale Gegenseitigkeit nur perfekt simuliert, ohne eigene Gefühle oder echte Empathie zu besitzen. Die Soziologin Sherry Turkle warnt in diesem Zusammenhang vor einer „Empathie-Atrophie“. Wenn wir uns an die reibungslose, stets zustimmende Kommunikation mit einer KI gewöhnen (Sykophantie), verlernen wir den anstrengenden, aber wertvollen Umgang mit den Ecken und Kanten echter Mitmenschen, da unser „Empathie-Muskel“ verkümmert. Wir behandeln die KI wie einen Kollegen oder Freund, vergessen dabei aber völlig, dass es sich um Mathematik ohne Bewusstsein handelt.

▪️ Blindes Vertrauen und der „Automation Bias“

Ein weiteres brisantes Problem in der täglichen Praxis ist das sogenannte „Automation Bias“ (Automatisierungsverzerrung). Dieser Begriff beschreibt die psychologische Neigung von Menschen, den Ausgaben automatisierter Systeme ein übermäßiges, fast blindes Vertrauen entgegenzubringen. Computerausgaben werden fälschlicherweise oft per se als objektiv und fehlerfrei wahrgenommen, weshalb Menschen dazu neigen, KI-Empfehlungen unkritisch zu übernehmen, selbst wenn diese der eigenen Expertise widersprechen oder offensichtliche Fehler (sogenannte Halluzinationen) aufweisen. In der Praxis führt dies zu einer extrem gefährlichen Verantwortungsdiffusion: Die KI, die eigentlich nur als Assistenzsystem unterstützen sollte, trifft de facto die Entscheidungen, weil der menschliche Nutzer seine Kontrollfunktion aus Bequemlichkeit oder Überforderung aufgibt. 

Dabei wird oft verkannt, dass KI-Systeme durch ihre Trainingsdaten historische Vorurteile, Diskriminierungen und Stereotypen erlernen und ungefiltert reproduzieren (Data Bias). Ein Algorithmus ist niemals wertneutral. Wer die Ergebnisse einer KI unhinterfragt übernimmt, übernimmt automatisch auch die Vorurteile der Vergangenheit.

▪️ Kompetenzverlust (Deskilling) und Digitale Unmündigkeit

Wenn wir uns daran gewöhnen, das Recherchieren, Texten, Programmieren oder Entscheiden immer häufiger an Maschinen zu delegieren, droht ein massiver Verlust unserer eigenen Fähigkeiten (Deskilling). Dieser Kompetenzverlust ist paradox und gefährlich zugleich: KI-Systeme können ausfallen oder Fehler machen, weshalb wir Menschen zwingend in der Lage bleiben müssen, die Aufgaben notfalls selbst zu beherrschen und die KI zu überwachen. 

Im schlimmsten Fall führt dieser schleichende Prozess, gepaart mit der Intransparenz vieler Algorithmen (Blackbox), in eine „digitale Unmündigkeit“. Der Mensch verliert seinen Subjektcharakter, gibt seine Urteilsfähigkeit sowie seine Mündigkeit auf und lässt sich passiv von Empfehlungssystemen durch den Alltag steuern, anstatt den eigenen Verstand kritisch zu gebrauchen. Dies widerspricht fundamental dem aufklärerischen Gedanken von Autonomie und Eigenverantwortung.

▪️ Der Weg nach vorn: KI-Kompetenz und „Human in the Loop“

Um diesen Herausforderungen Herr zu werden, ist der Aufbau von grundlegender KI-Kompetenz (AI Literacy) in allen Teilen der Gesellschaft unabdingbar. Wir müssen verstehen, dass KI nur Wahrscheinlichkeiten berechnet und nicht die „eine wahre Antwort“ kennt. Wir dürfen KI nicht mystifizieren, sondern müssen sie als das enttarnen, was sie ist: Ein mächtiges, aber fehleranfälliges Werkzeug. 

Als oberstes Prinzip für unseren Umgang mit Künstlicher Intelligenz muss daher „Human in Command“ bzw. „Human in the Loop“ gelten. Der Mensch muss die letzte Kontrollinstanz bleiben, die ethische Verantwortung tragen und die Ergebnisse der Maschine kritisch validieren. Die Letztentscheidung darf niemals an einen bedeutungsblinden Algorithmus abgetreten werden. Wie ich es auch in den Beiträgen für unser Bistro betone: KI kann der Turbo für unsere eigene Expertise sein, aber wir als Menschen müssen immer fest am Steuer bleiben.

(AG)

Kommentare