Das Ende von „Ich habe es selbst gesehen“ – Wenn Deepfakes unser Vertrauen vergiften

Wir leben in einer Welt, die auf einer einfachen Vereinbarung beruht: Was wir sehen und hören, ist wahr. Ein Video ist ein Beweis. Eine Sprachnachricht ist authentisch. Doch was passiert, wenn diese Grundfeste unserer Wahrnehmung Risse bekommt?

Als ich den aktuellen Bericht des Bundestages zur Technikfolgenabschätzung zu Deepfakes (Drucksache 21/3952 vom 30.01.2026) las, ging es mir nicht um die technische Machbarkeit. Es ging mir um das menschliche Beben, das diese Technologie auslöst.

Der Diebstahl der Identität Der Bericht spricht eine deutliche Sprache. Es geht längst nicht mehr nur um lustige Videos, in denen der Papst in einer Daunenjacke tanzt. Es geht um digitale Gewalt, um Einschüchterung und Erpressung. Stellen Sie sich vor, jemand stiehlt nicht Ihren Geldbeutel, sondern Ihr Gesicht und Ihre Stimme. Täter nutzen Deepfakes, um Menschen Dinge sagen oder tun zu lassen, die sie nie getan haben. Das Ziel ist oft die soziale Vernichtung, Rufmord oder politische Destabilisierung.

Der Verlust des Kompasses. In Armins Bistro würde ich Ihnen jetzt technische Tools zeigen, um Deepfakes zu erkennen. Aber hier, im Kompass, müssen wir eine andere Frage stellen: Wie navigieren wir in einer Welt, in der die Landkarte gefälscht sein könnte?

Wenn wir unseren Augen nicht mehr trauen können, müssen wir etwas anderes schärfen, unseren Verstand und unser Bauchgefühl.

  1. Gesunde Skepsis statt blinder Glaube: Wir müssen lernen, innezuhalten. Löst dieses Video Wut aus? Bestätigt es genau das, was ich ohnehin glauben wollte? Dann ist Vorsicht geboten.
  2. Der Schutz der Würde: Wir müssen uns als Gesellschaft vor diejenigen stellen, die Opfer von „FakeID“-Angriffen werden. Wir dürfen nicht den gefälschten Bildern glauben, sondern müssen den echten Menschen zuhören.
  3. Technik braucht Verantwortung: Wie bei der Weißen Rose, die Flugblätter nutzte, um Wahrheit zu verbreiten, müssen wir heute Technologie nutzen, um Wahrheit zu schützen – nicht um sie zu verschleiern.

Fazit: Der Pilot sind Sie Technologie kann täuschen. Algorithmen können lügen. Aber Ihr moralischer Kompass, Ihre Fähigkeit zu hinterfragen und Empathie zu empfinden – das kann keine KI simulieren. Lassen wir uns das Vertrauen nicht nehmen. Aber schenken wir es nicht mehr blind jedem Pixel.

Ihr

Armin Grünheid.



🔗 Weiterführende Quelle: 

Bericht des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung (Drucksache 21/3952):

URL: https://dserver.bundestag.de/btd/21/039/2103952.pdf

Kommentare