Von Ralf Keuper
Verfahren, um mediale Identitäten (Video/ Bild, Audio und Text) zu manipulieren, existieren seit vielen Jahren. Durch Methoden aus dem Bereich der Künstlichen Intelligenz können Fälschungen inzwischen mit relativ wenig Aufwand und Expertise in einer hohen Qualität erstellt werden. Da hierbei sog. tiefe neuronalen Netze (englisch: deep neural networks) zum Einsatz kommen, werden die entsprechenden Verfahren umgangssprachlich als „Deepfakes“ bezeichnet[1]Deepfakes – Gefahren und Gegenmaßnahmen.
Mittlerweile hat, wie Europol berichtet, die Verwendung von Deepfakes unter Kriminellen eine neue Dimension erreicht[2]Europol: Deepfakes werden bei Kriminellen ein immer beliebteres Werkzeug. Beliebt ist vor allem die sog. Chef-Masche. Dabei geben sich Kriminelle per Mail oder per Anruf gegenüber arglosen Mitarbeitern als hochrangige Führungskraft aus. Von den Mitarbeitern fordern sie dann, hohe Überweisungen vom Geschäftskonto zu veranlassen[3]“Chef-Masche”: BSI warnt Unternehmen vor akuter Gefahr.
Die Allianz berichtete im Jahr 2019 von dem ersten Schadensfall durch Stimmimitation. Dabei kam “eine Stimmimitations-Software zum Einsatz. Diese Software basiert auf „Machine Learning“: Mithilfe eines selbstlernenden Algorithmus‘ kann sie innerhalb von einig…
References
Kommentare sind geschlossen.