In einem Video aus einem Nachrichtenbericht vom 25. Januar spricht Präsident Joe Biden über Panzer. Aber eine manipulierte Version des Videos hat diese Woche Hunderttausende Aufrufe in den sozialen Medien angehäuft, was den Anschein erweckt, als hätte er eine Rede gehalten, in der Transgender-Personen angegriffen werden.
Experten für digitale Forensik sagen, dass das Video mit einem neuen erstellt wurde Generation von Tools für künstliche Intelligenz, die es jedem ermöglichen, mit wenigen Klicks schnell Audio zu erzeugen, das die Stimme einer Person simuliert. Und während der Biden-Clip in den sozialen Medien diesmal die meisten Benutzer möglicherweise nicht getäuscht hat, zeigt der Clip, wie einfach es für Menschen jetzt ist, hasserfüllte und mit Desinformationen gefüllte „Deepfake“-Videos zu erstellen, die der realen Welt Schaden zufügen könnten.
„Tools wie dieses werden im Grunde mehr Öl ins Feuer gießen“, sagte Hafiz Malik, Professor für Elektro-und Computertechnik an der University of Michigan, der sich auf Multimedia-Forensik konzentriert. „Das Monster ist bereits auf freiem Fuß.“
Es kam letzten Monat mit der Beta-Phase der Sprachsyntheseplattform von ElevenLabs, die es Benutzern ermöglichte, durch Hochladen von ein paar Minuten Audio realistisches Audio der Stimme einer beliebigen Person zu erzeugen Samples und tippen Sie beliebigen Text ein.
Das Startup sagt, dass die Technologie entwickelt wurde, um Audio in verschiedenen Sprachen für Filme, Hörbücher und Spiele zu synchronisieren, um die Stimme und Emotionen des Sprechers zu bewahren.
Social-Media-Nutzer begannen schnell damit, eine KI-generierte Audioprobe von Hillary Clinton zu teilen, die denselben transphobischen Text vorlas, der im Biden-Clip vorkam, zusammen mit gefälschten Audioclips von Bill Gates, der angeblich sagte, dass der COVID-19-Impfstoff AIDS verursacht, und der Schauspielerin Emma Watson soll Hitlers Manifest „Mein Kampf“ vorgelesen haben.
Kurz darauf twitterte ElevenLabs, dass es „eine zunehmende Zahl von Missbrauchsfällen beim Klonen von Stimmen“ sehe, und kündigte an, dass man nun Schutzmaßnahmen suche, um Missbrauch einzudämmen. Einer der ersten Schritte bestand darin, die Funktion nur für diejenigen verfügbar zu machen, die Zahlungsinformationen bereitstellen. Anfänglich konnten anonyme Benutzer kostenlos auf das Tool zum Klonen von Stimmen zugreifen. Das Unternehmen behauptet auch, dass es bei Problemen jedes generierte Audio bis zum Urheber zurückverfolgen kann.
Aber selbst die Möglichkeit, Urheber zu verfolgen, wird den Schaden des Tools nicht mindern, sagte Hany Farid, Professor an der die University of California, Berkeley, die sich auf digitale Forensik und Fehlinformationen konzentriert.
„Der Schaden ist angerichtet“, sagte er.
Als Beispiel sagte Farid, dass schlechte Schauspieler das verschieben könnten Aktienmarkt mit gefälschtem Audio eines Top-CEOs, der sagt, dass die Gewinne gesunken sind. Und es gibt bereits einen Clip auf YouTube, in dem das Tool verwendet wurde, um ein Video so zu ändern, dass es so aussieht, als ob Biden sagte, die USA würden einen Atomangriff auf Russland starten Online entstanden, was bedeutet, dass Paywalls bei kommerziellen Tools kein Hindernis darstellen. Unter Verwendung eines kostenlosen Online-Modells generierte der AP in nur wenigen Minuten Audio-Samples, die wie die Schauspieler Daniel Craig und Jennifer Lawrence klangen.
„Die Frage ist, wohin man mit dem Finger zeigt und wie man den Geist wieder hineinsetzt die Flasche?”sagte Malik. „Wir können das nicht.“
Als Deepfakes vor etwa fünf Jahren zum ersten Mal Schlagzeilen machten, waren sie leicht zu erkennen, da das Subjekt nicht blinzelte und der Ton wie ein Roboter klang. Das ist nicht mehr der Fall, da die Tools immer ausgefeilter werden.
Das veränderte Video von Biden, der beispielsweise abfällige Kommentare über Transgender-Personen abgibt, kombiniert das von der KI generierte Audio mit einem echten Clip des Präsidenten, der entnommen wurde eine CNN-Livesendung vom 25. Januar, in der die Entsendung von US-Panzern in die Ukraine angekündigt wurde. Bidens Mund wurde im Video manipuliert, um dem Ton zu entsprechen. Während die meisten Twitter-Nutzer erkannten, dass der Inhalt nicht etwas war, was Biden wahrscheinlich sagen würde, waren sie dennoch schockiert darüber, wie realistisch er erschien. Andere schienen zu glauben, dass es real sei – oder wussten zumindest nicht, was sie glauben sollten.
Hollywood-Studios waren lange Zeit in der Lage, die Realität zu verzerren, aber der Zugang zu dieser Technologie wurde demokratisiert, ohne die Auswirkungen zu berücksichtigen, sagte er Farid.
„Es ist eine Kombination aus der sehr, sehr leistungsstarken KI-basierten Technologie, der Benutzerfreundlichkeit und der Tatsache, dass das Modell so aussieht: Stellen wir es ins Internet und sehen, was passiert als nächstes“, sagte Farid.
Audio ist nur ein Bereich, in dem KI-generierte Fehlinformationen eine Bedrohung darstellen.
Kostenlose Online-KI-Bildgeneratoren wie Midjourney und DALL-E können fotorealistische Bilder erzeugen über Kriege und Naturkatastrophen im Stil der alten Medien mit einer einfachen Texteingabe. Letzten Monat haben einige Schulbezirke in den USA damit begonnen, ChatGPT zu blockieren, das lesbaren Text – wie Hausarbeiten von Schülern – auf Anfrage erstellen kann.
ElevenLabs hat auf eine Anfrage nach Kommentaren nicht geantwortet.
Affiliate-Links können automatisch generiert werden – Einzelheiten finden Sie in unserer Ethik-Erklärung.