Die Debatte um generative KI und Desinformation krankt an einer Illusion: der Vorstellung, es habe jemals eine Ära objektiver, jederzeit verifizierbarer Information gegeben. GenAI schafft kein neues Problem. Sie intensiviert ein altes – und zwingt zur Verabschiedung von Wunschvorstellungen.
Vorbemerkung: Die Illusion der Authentizität
Bevor über die Risiken generativer KI gesprochen werden kann, ist eine Klarstellung erforderlich. Die gängige Gegenüberstellung von “authentischen” menschlichen Inhalten und “manipulativen” KI-generierten Inhalten führt in die Irre. Sie unterstellt eine Integrität der traditionellen Informationsproduktion, die es so nie gegeben hat.
Texte sind Konstruktionen. Das gilt für wissenschaftliche Publikationen ebenso wie für journalistische Berichte, für Unternehmensmitteilungen wie für politische Kommunikation. Sie verfolgen Interessen, setzen Schwerpunkte, lassen aus, betonen, rahmen. Das ist keine Verfehlung, sondern liegt in der Natur sprachlicher Darstellung. Die Frage war nie, ob Texte manipulativ sind, sondern in welchem Grad und zu welchem Zweck.
Fälschung und Manipulation: Eine historische Konstante
Die Geschichte der Wissenschaften ist auch eine Geschichte der Fälschungen. Gefälschte Daten, erfundene Experimente, Plagiate – die Fälle reichen von Piltdown bis Hwang, von Schön bis Stapel. Der Wissenschaftsbetrieb hat Mechanismen entwickelt, um solche Fälle aufzudecken: Peer Review, Replikationsstudien, institutionelle Prüfverfahren. Doch diese Mechanismen sind fehlbar, langsam und selektiv. Ein erheblicher Teil wissenschaftlichen Fehlverhaltens bleibt unentdeckt.
Im Journalismus zeigt sich ein ähnliches Bild. Der Fall Relotius steht exemplarisch für eine Praxis, die nicht mit ihm begann und nicht mit ihm endete. Erfundene Zitate, konstruierte Szenen, verdichtete Fakten – die Grenzen zwischen legitimer Verdichtung und Fälschung waren immer fließend. Die Kontrollinstrumente – Gegenrecherche, Dokumentationspflichten, redaktionelle Prüfung – existieren, garantieren aber keine Fehlerfreiheit.
Die Vorstellung einer goldenen Ära objektiver Berichterstattung oder unbestechlicher Wissenschaft ist Nostalgie, keine Beschreibung historischer Realität.
Was GenAI tatsächlich verändert
Wenn GenAI kein qualitativ neues Problem schafft, stellt sich die Frage nach der quantitativen Veränderung. Hier liegt der tatsächliche Unterschied.
Erstens: die Skalierung. Was bisher individuellen Aufwand erforderte – das Verfassen eines überzeugenden Textes, die Erstellung eines manipulierten Bildes –, wird industrialisierbar. Die Produktionskosten für Desinformation sinken drastisch. Die Menge potenziell irreführender Inhalte steigt entsprechend.
Zweitens: die Demokratisierung der Fälschung. Bisher erforderten hochwertige Fälschungen Expertise und Ressourcen. GenAI senkt die Einstiegshürden. Die Fähigkeit zur Produktion täuschend echter Inhalte ist nicht länger auf spezialisierte Akteure beschränkt.
Drittens: die Geschwindigkeit. Der Takt der Informationsproduktion beschleunigt sich weiter. Die ohnehin schon überforderten Prüfinstanzen geraten unter zusätzlichen Druck.
Die Grenzen der Verifizierung – alt und neu
Die Mechanismen der Informationsverifizierung waren immer unvollkommen. Sie beruhten auf Annäherungen: Reputation als Proxy für Zuverlässigkeit, institutionelle Zugehörigkeit als Qualitätssignal, Konsistenzprüfungen als Plausibilitätstest. Keine dieser Methoden garantierte Wahrheit; sie reduzierten lediglich die Wahrscheinlichkeit von Fehlern.
GenAI verschärft die bestehenden Defizite, ohne sie grundsätzlich zu verändern. Die Detektionswerkzeuge, die synthetische Inhalte identifizieren sollen, stehen vor demselben Problem wie alle Prüfverfahren: Sie operieren mit Verzögerung, erreichen keine vollständige Abdeckung und produzieren falsch-positive wie falsch-negative Ergebnisse.
Der Unterschied liegt im Ausmaß, nicht im Prinzip.
Vertrauen: Ein knappes Gut wird knapper
Vertrauen in Informationen war immer ein Konstrukt, gestützt auf institutionelle Arrangements und soziale Konventionen. Dieses Konstrukt steht unter Druck – nicht erst seit GenAI, aber durch GenAI verstärkt.
Die paradoxe Reaktion einer generalisierten Skepsis ist dabei kein neues Phänomen. Sie begleitet jede mediale Umwälzung. Die Printmedien galten als manipulationsanfällig gegenüber dem mündlichen Zeugnis; das Fernsehen galt als manipulationsanfällig gegenüber dem gedruckten Wort; das Internet galt als manipulationsanfällig gegenüber den redaktionell geprüften Massenmedien.
Was sich ändert, ist die Intensität. Die Geschwindigkeit der medialen Transformation und die Reichweite der technologischen Möglichkeiten übersteigen die Anpassungsfähigkeit der sozialen Institutionen, die Vertrauen herstellen und stabilisieren.
Wahrheit: Ein pragmatisches Konzept
Die Rede vom “Niedergang der Wahrheit” ist irreführend, sofern sie einen Ausgangszustand voraussetzt, in dem Wahrheit unangefochten galt. Einen solchen Zustand hat es nicht gegeben.
Wahrheit war immer ein pragmatisches Konzept: das, worauf sich eine Gemeinschaft als geteilten Bezugsrahmen verständigt. Dieser Bezugsrahmen war nie vollständig, nie unumstritten, nie statisch. Er wurde in Konflikten ausgehandelt, durch Machtasymmetrien geformt, durch technologische Entwicklungen transformiert.
GenAI verschiebt die Parameter dieser Aushandlung. Sie verändert die Kosten-Nutzen-Kalkulation für verschiedene Akteure, sie modifiziert die technischen Möglichkeiten der Täuschung wie der Aufdeckung, sie beeinflusst die institutionellen Arrangements der Wissensproduktion. Aber sie hebt die grundsätzliche Kontingenz von Wahrheitsansprüchen nicht auf – weil diese Kontingenz keine technologische Ursache hat.
Konsequenzen ohne Illusionen
Die angemessene Reaktion auf GenAI besteht nicht in der Wiederherstellung eines verlorenen Zustands epistemischer Sicherheit. Einen solchen Zustand gab es nicht.
Sie besteht vielmehr in der nüchternen Anpassung an veränderte Bedingungen. Medienkompetenz bedeutet dann nicht das Erlernen von Techniken zur Unterscheidung von “echten” und “falschen” Inhalten. Es bedeutet das Einüben eines grundsätzlich skeptischen, aber nicht zynischen Umgangs mit allen Informationen – unabhängig von ihrer Quelle.
Institutionelle Reformen zielen nicht auf perfekte Verifizierung, sondern auf robustere Verfahren unter Bedingungen prinzipieller Unsicherheit. Transparenz über Entstehungskontexte, Offenlegung von Interessen, Diversifizierung von Quellen: Keine dieser Maßnahmen eliminiert das Problem, aber sie reduzieren seine Auswirkungen.
Technologische Gegenmaßnahmen schließlich sind Teil eines fortlaufenden Wettlaufs, nicht dessen Lösung. Sie verschieben Gleichgewichte, ohne sie dauerhaft zu fixieren.
Schluss
Generative KI zwingt zur Verabschiedung von Illusionen. Die Illusion einer Informationslandschaft, in der Authentizität klar erkennbar und Manipulation sicher identifizierbar war, gehört zu den hartnäckigsten. Sie aufzugeben bedeutet nicht, in Relativismus zu verfallen. Es bedeutet, die Bedingungen der Wissensproduktion realistischer einzuschätzen.
Das Problem der Desinformation ist älter als GenAI. Es wird auch nach GenAI bestehen. Was sich ändert, sind Maßstäbe und Geschwindigkeiten – nicht die grundsätzliche Herausforderung, unter Bedingungen prinzipieller Unsicherheit handlungsfähig zu bleiben.
Quelle / Referenz
