Facebook hat eine künstliche Intelligenz entwickelt, die Deepfake-Bilder identifizieren und dann deren Schöpfer verfolgen will. Ein Deepfake besteht aus einem Video, in dem die Stimme und das Gesicht einer Person durch eine künstliche Intelligenz-Software verändert werden, wodurch das veränderte Video authentisch erscheint. Diese Technik wird hauptsächlich bei Persönlichkeiten des öffentlichen Lebens verwendet. Facebook analysiert die Ähnlichkeiten zwischen einer Sammlung verschiedener Deepfakes, um festzustellen, ob sie einen gemeinsamen Ursprung haben, und sucht nach einzigartigen Mustern wie kleinen Rauschflecken oder kleinen Merkwürdigkeiten im Farbspektrum eines Bildes.
Durch die Identifizierung kleiner Fingerabdrücke in einem Bild, Die künstliche Intelligenz von Facebook können Details darüber erkennen, wie das neuronale Netzwerk, das das Bild erstellt hat, entworfen wurde, wie etwa die Größe des Modells oder wie es trainiert wurde. Wie können wir anhand eines Fotos wissen, wie viele Schichten ein tiefes neuronales Netz hat oder auf welche Verlustfunktion es trainiert wurde? sagt Tal Hassner, Facebooks führendes KI-Unternehmen für angewandte Wissenschaft.
Die Komplexität der künstlichen Intelligenz
Hassner und seine Kollegen testeten künstliche Intelligenz an einer Datenbank mit 100,000 Deepfake-Bildern, die von 100 verschiedenen generativen Modellen generiert wurden, die jeweils 1,000 Bilder erstellen. Einige dieser Bilder wurden verwendet, um das Modell zu trainieren, während andere beibehalten und dem Modell als Bilder unbekannter Herkunft präsentiert wurden.
Das half dabei, die künstliche Intelligenz auf ihr endgültiges Ziel hin zu testen. „Wir schauen uns ein Foto an und versuchen, das Design des generativen Modells abzuschätzen, das es erstellt hat, auch wenn wir dieses Modell noch nie zuvor gesehen haben“, sagt Hassner. Er lehnte es ab zu teilen wie genau die Schätzungen der künstlichen Intelligenz waren, sagt aber: "Wir sind viel besser als zufällig".
Ein Fortschritt für die Technologie
„Es ist ein großer Schritt vorwärts für Fingerabdrücke“, sagt Nina Schick, Autorin des Buches Deep Fakes and the Infocalypse. Sie weist aber, wie Hassner und ihre Kollegen, darauf hin, dass KI nur mit Bildern funktioniert, die schon einmal gemacht wurden total künstlich erzeugt, wohingegen viele Deepfakes Videos sind, die durch das Ankleben eines Gesichts an den Körper einer anderen Person erstellt werden.
Schick fragt sich auch, wie effektiv KI außerhalb von Laborumgebungen wäre und findet Deepfakes in der Natur . „Die Arten von Gesichtserkennungsmodellen, die wir sehen, basieren im Allgemeinen auf akademischen Datensätzen und werden in kontrollierten Umgebungen implementiert“, sagt Schick.
Hassner lehnte es ab, darüber zu sprechen, wie Facebook seine neue KI verwenden würde, sagt aber, dass diese Art von Arbeit ein Katz-und-Maus-Spiel gegen Leute ist, die Deepfakes erstellen. „Wir entwickeln bessere Identifikationsmodelle, während andere immer bessere generative Modelle entwickeln“, sagt Hassner. „Ich habe keinen Zweifel, dass irgendwann es wird eine methode geben das wird uns völlig täuschen.“ Obwohl Facebook manchmal Probleme macht, macht es zweifellos gute Arbeit, Deepfakes zu lokalisieren.