Juan M. Lavista Ferres, Vizepräsident und Chief Data Scientist im AI for Good Lab von Microsoft, hat die Veröffentlichung eines groß angelegten, quelloffenen Benchmarks zur Bewertung von Deepfake- und manipulierter Medien-Erkennungssystemen angekündigt. Diese Initiative ist eine Zusammenarbeit zwischen Microsofts AI for Good Lab, dem Security and AI Lab der Northwestern University und der Menschenrechtsorganisation WITNESS.
Der Benchmark umfasst einen sorgfältig kuratierten Datensatz mit über 50.000 Beispielen aus realen, KI-generierten und manipulierten audio-visuellen Inhalten, die mit Daten aus realen Anwendungsfällen annotiert sind. Ziel ist es, Algorithmen zur Erkennung von KI-generierten Inhalten zu bewerten und zu verbessern, mit einem Fokus auf multimodaler Forensik, adversarialer Robustheit und Erkennung in realen Mediensystemen. Der Datensatz ist ausschließlich für Evaluationszwecke lizenziert und nicht für Trainings- oder kommerzielle Zwecke vorgesehen.
Die Northwestern University betont, dass frühere Erkennungsmodelle auf Datensätzen aus der sogenannten GAN-Ära basierten, die nicht die Breite aufwiesen, um den Herausforderungen moderner generativer KI-Technologien wie den neueren Diffusionsmodellen gerecht zu werden. Diese Technologien ermöglichen fortschrittliche Audio-, Bild- und Videogenerierung und bringen Risiken mit sich, wie Betrug, nicht-einvernehmliche Bildgenerierung oder Desinformation.
Das Projekt legt besonderen Wert auf Breite statt Tiefe, indem es einen Evaluationsdatensatz vorschlägt, der kleine Beispiele aus einer Vielzahl von Generatoren und realen Fällen enthält, anstatt Millionen von Beispielen aus wenigen Quellen. Lavista Ferres ruft die Forschungsgemeinschaft dazu auf, den Datensatz zu erkunden und durch neue Daten und Evaluationsprotokolle zu erweitern, um dessen Relevanz langfristig zu sichern.
Quelle:
New Microsoft benchmark for evaluating deepfake detection prioritizes breadth