Gartner prognostiziert, dass bis 2026 Angriffe mit KI-generierten Deepfakes auf biometrische Gesichtsdaten dazu führen werden, dass 30 % der Unternehmen solche Identitätsüberprüfungs- und Authentifizierungslösungen nicht mehr für zuverlässig halten werden. Jüngste Untersuchungen von Ivanti zeigen außerdem, dass mehr als die Hälfte der Büroangestellten (54 %) nicht wissen, dass fortschrittliche KI die Stimme einer Person imitieren kann.

Aufgrund der steigenden Bedrohung hat das Ministerium für Innere Sicherheit der USA einen Leitfaden mit dem Titel Increasing Threats of Deepfake Identities herausgegeben.

Dort heisst es:

Wissenschaft und Technologie entwickeln sich ständig weiter. Deepfakes und automatisierte Techniken zur Erstellung und Veränderung von Inhalten sind lediglich die neuesten Mechanismen, die zur Veränderung oder Erstellung von Bild-, Audio- und Textinhalten entwickelt wurden. Der entscheidende Unterschied ist jedoch die Leichtigkeit, mit der sie gemacht werden können – und zwar gut. In der Vergangenheit konnten gelegentliche Betrachter (oder Zuhörer) betrügerische Inhalte leicht erkennen. Dies ist nun nicht mehr immer der Fall und kann es jedem Gegner, der Fehlinformationen oder Desinformationen verbreiten möchte, ermöglichen, weitaus realistischere Bild-, Video-, Audio- und Textinhalte in seinen Kampagnen einzusetzen als je zuvor.

Was liegt da näher, als Gefahren der KI mit den Mitteln der KI zu begegnen?

So enthält das neue Modell von OpenAI, ChatGPT 4.0, ein autoregressives Omnimodell, das als Eingabe eine beliebige Kombination von Text, Audio, Bild und Video akzeptiert. Dem Modell ist nur die Verwendung bestimmter vorgewählter Stimmen und eines Ausgabeklassifikators erlaubt, um zu erkennen, wenn das Modell davon abweicht.

In der folgenden Tabelle von VentureBeat Analysis wird erläutert, wie die Funktionen des GPT-4o dabei helfen, Audio- und Video-Deefakes zu erkennen und zu stoppen[1]GPT-4o: OpenAI’s shield against $40B deepfake threat to enterprises.

Nach welchen Methoden GPT 4.0 vorgeht wird weiterhin in