Von Ralf Keuper
Der Bundesverband Digitale Wirtschaft (BVDW) e. V. hat in seinem Whitepaper Deepfakes: Eine Einordnung die Gefahren von digitalen Medieninhalten, die mithilfe von KI und maschinellem Lernen (ML) manipuliert werden, in den Blick genommen.
Deepfakes stellen in zahlreichen persönlichen und gesellschaftlichen Dimensionen eine erhebliche Bedrohung dar. Dazu zählen unter anderem Identitätsdiebstahl, Rufschädigung und die Verbreitung von Desinformationen. Studien zeigen, dass Deepfake-Angriffe um bis zu 3.000% zugenommen haben, insbesondere in Bereichen wie Kryptowährung und Online-Ban- king. Dies unterstreicht die Notwendigkeit von robusten Abwehrmaßnahmen1 und verdeutlicht die dringende Notwendig- keit, die Entwicklung der Deepfake-Technologie sowohl zu verstehen, als auch einen rechtssicheren Rahmen zu schaffen.
Deepfakes verdanken ihre Verbreitung den sog. Generative Adversarial Networks (GANs), die im Jahr 2014 von Ian Goodfellow entwickelt wurden.
Funktionsweise eines GAN
Der Generator versucht, realistische Daten (z.B. Bilder oder Texte) zu erzeugen, während der Diskriminator darauf trainiert ist, zwischen echten und gefälschten Daten zu unterscheiden. Dieser Wettstreit führt zu einem kontinuierlichen Verbesserungsprozess:
- Der Generator erzeugt Daten, die immer überzeugender werden.
- Der Diskriminator wird besser darin, gefälschte Daten zu identifizieren.
- Durch dieses gegenseitige Training erreichen beide Netzwerke einen Gleichgewichtspunkt.
Trainingsablauf
Ein typischer GAN-Trainingsprozess umfasst folgende Schritte:
- Initialisierung der neuronalen Netze
- Training des Diskriminators mit echten und gefälschten Daten
- Training des Generators zur Erzeugung überzeugenderer Daten
- Wiederholung des Prozesses, bis die gewünschte Qualität erreicht ist
Unterschieden werden Video- Deepfakes, Audio-Deepfakes und Bild-Deepfakes.
Wie lassen sich Deepfakes erkennen?
Fortgeschrittene KI-Modelle wie Convolutional Neural Networks (CNNs) werden trainiert, um subtile Anomalien in der Gesichtsbewegung oder Sprachmodulation zu erkennen, die auf eine Fälschung hinweisen könnten. Neuere Techniken verwenden auch die Analyse von Blinzelmustern, da diese oft in Deepfakes fehlen oder unnatürlich erscheinen. Zudem werden fortschrittliche Forensik-Tools entwickelt, die auf die Metadaten von Mediendateien zugreifen, um Hinweise auf Manipulationen zu finden.
Fraunhofer bietet eine Content Verification Toolbox für die Erkennung von Audio-Manipulationen an[1]Fraunhofer IDMT zeigt auf der IBC 2024 Content Verification Tools zur Erkennung von Audio-Manipulationen und Synthese.
Aufgrund der zunehmenden Verbreitung von Deepfakes wie überhaupt von gefälschten digitalen Medien folgt daraus für die Unternehmen, “dass sie möglicherweise mehr Ressourcen in die Verifizierung und Authentifizierung von Informationen investieren müssen, um ihre Reputation zu schützen und das Vertrauen von Kund*innen zu bewahren. Langfristig könnte dies einen Wandel hin zu strengeren Standards und höheren Anforderungen an die digitale Kommunikation und Informationsverbreitung bedeuten”.
References