Chatbots, die Unwahrheiten verbreiten, Apps, die Gesichter austauschen, um Pornovideos zu erstellen, und geklonte Stimmen, die Unternehmen um Millionen betrügen – das Gerangel ist im Gange, um KI-Deepfakes zu zügeln, die zu einem Superspreader für Fehlinformationen geworden sind.
Kernpunkte:
- Europol warnt davor, dass gefälschte Videos Gefahr laufen, das Vertrauen der Öffentlichkeit in Informationen zu zerstören und es den Menschen unmöglich zu machen, Fakten von Fiktionen zu unterscheiden
- China hat neue Regeln für Deepfakes eingeführt und die Europäische Union debattiert über einen Gesetzentwurf
- Ein Experte sagt, dass Tools zur Erkennung von Fälschungen niemals die Tools einholen werden, mit denen sie erstellt wurden
Künstliche Intelligenz (KI) definiert das Sprichwort „Sehen heißt glauben“ neu, mit einer Flut von Bildern, die aus dem Nichts entstanden sind, und Menschen, die Dinge sagen, die sie nie gesagt haben, in echt aussehenden Deepfakes, die das Vertrauen im Internet erodiert haben.
“Huch [Definitely] nicht ich“, twitterte der Milliardär Elon Musk letztes Jahr als Antwort auf ein anschauliches Beispiel eines Deepfake-Videos, das ihn zeigte, wie er für einen Kryptowährungsbetrug wirbt.
China hat kürzlich weitreichende Regeln zur Regulierung von Deepfakes verabschiedet, aber die meisten Länder scheinen Schwierigkeiten zu haben, mit der sich schnell entwickelnden Technologie Schritt zu halten, da sie befürchten, dass die Regulierung Innovationen behindern oder zur Einschränkung der Meinungsfreiheit missbraucht werden könnte.
Experten warnen davor, dass Deepfake-Detektoren von Entwicklern weit übertroffen werden, die schwer zu fangen sind, weil sie anonym mit KI-basierter Software arbeiten, die einst als Spezialfähigkeit angepriesen wurde, heute aber zu geringen Kosten erhältlich ist.
Facebook-Besitzer Meta sagte letztes Jahr, er habe ein Deepfake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj entfernt, in dem er die Bürger aufforderte, ihre Waffen niederzulegen und sich Russland zu ergeben.
Und die britische Aktivistin Kate Isaacs, 30, sagte, ihr „das Herz sank“, als ihr Gesicht in einem Deepfake-Pornovideo auftauchte, das eine Flut von Online-Missbrauch auslöste, nachdem ein unbekannter Benutzer es auf Twitter gepostet hatte.
„Ich erinnere mich, dass ich einfach das Gefühl hatte, dieses Video würde überall hingehen – es war entsetzlich“, wurde Frau Isaacs, die sich gegen nicht einvernehmliche Pornografie einsetzt, im Oktober von der BBC zitiert.
Im folgenden Monat äußerte sich die britische Regierung besorgt über Deepfakes und warnte vor einer beliebten Website, die „Frauen praktisch nackt auszieht“.
Europol warnt vor „Informations-Apokalypse“
Da es keine Hindernisse für die Erstellung von KI-synthetisiertem Text, Audio und Video gibt, hat das Potenzial für Missbrauch bei Identitätsdiebstahl, Finanzbetrug und Rufschädigung weltweit Alarm ausgelöst.
Die politische Risikoberatung Eurasia Group nannte die KI-Tools „Waffen der Massenstörung“.
„Technologische Fortschritte in der künstlichen Intelligenz werden das soziale Vertrauen untergraben, Demagogen und Autoritäre stärken und Unternehmen und Märkte stören“, warnte die Gruppe in einem Bericht.
„Fortschritte bei Deepfakes, Gesichtserkennung und Sprachsynthesesoftware werden die Kontrolle über das eigene Abbild zu einem Relikt der Vergangenheit machen.“
Diese Woche gab das KI-Startup ElevenLabs zu, dass sein Tool zum Klonen von Stimmen für „böswillige Zwecke“ missbraucht werden könnte, nachdem Benutzer ein Deepfake-Audio gepostet hatten, das vorgab, die Schauspielerin Emma Watson zu sein, die Adolf Hitlers Biografie „Mein Kampf“ las.
Das wachsende Volumen an Deepfakes kann zu einer „Informationsapokalypse“ führen, wie die europäische Strafverfolgungsbehörde Europol es nennt, ein Szenario, bei dem viele Menschen nicht in der Lage sind, Fakten von Fiktion zu unterscheiden.
„Experten befürchten, dass dies zu einer Situation führen könnte, in der die Bürger keine gemeinsame Realität mehr haben, oder gesellschaftliche Verwirrung darüber stiften könnte, welche Informationsquellen zuverlässig sind“, sagte Europol in einem Bericht.
Das zeigte sich am vergangenen Wochenende, als NFL-Spieler Damar Hamlin zum ersten Mal seit seinem Herzstillstand während eines Spiels in einem Video zu seinen Fans sprach.
Hamlin dankte den Medizinern, die für seine Genesung verantwortlich waren, aber viele, die Verschwörungstheorien glaubten, dass der COVID-19-Impfstoff hinter seinem Zusammenbruch auf dem Spielfeld steckte, bezeichneten sein Video grundlos als Deepfake.
„Eleganter, falscher und irreführender“ Fehlinformations-Superspreader
China hat im vergangenen Monat neue Regeln erlassen, die Unternehmen, die Deepfake-Dienste anbieten, dazu verpflichten, die wahren Identitäten ihrer Benutzer zu ermitteln.
Sie verlangen auch, dass Deepfake-Inhalte angemessen gekennzeichnet werden, um „jede Verwirrung“ zu vermeiden.
Die Regeln kamen, nachdem die chinesische Regierung davor gewarnt hatte, dass Deepfakes eine „Gefahr für die nationale Sicherheit und soziale Stabilität“ darstellen.
In den Vereinigten Staaten, wo Politiker auf eine Task Force zur Überwachung von Deepfakes gedrängt haben, warnen Aktivisten für digitale Rechte vor Gesetzesüberschreitungen, die Innovationen zunichte machen oder auf legitime Inhalte abzielen könnten.
Die Europäische Union ist derweil in hitzige Diskussionen über ihr vorgeschlagenes „KI-Gesetz“ verwickelt.
Das Gesetz, das die EU in diesem Jahr verabschieden will, wird die Benutzer dazu verpflichten, Deepfakes offenzulegen, aber viele befürchten, dass sich die Gesetzgebung als zahnlos erweisen wird, wenn sie kreative oder satirische Inhalte nicht abdeckt.
„Wie stellt man digitales Vertrauen mit Transparenz wieder her? Das ist im Moment die eigentliche Frage“, sagte Jason Davis, Forschungsprofessor an der Syracuse University, gegenüber -.
“Die [detection[ tools are coming and they’re coming relatively quickly. But the technology is moving perhaps even quicker. So, like cybersecurity, we will never solve this, we will only hope to keep up.”
Many are already struggling to comprehend advances such as ChatGPT, a chatbot created by the US-based OpenAI that is capable of generating strikingly cogent texts on almost any topic.
In a study, media watchdog NewsGuard, which called it the “next great misinformation superspreader”, said most of the chatbot’s responses to prompts related to topics such as COVID-19 and school shootings were “eloquent, false and misleading”.
“The results confirm fears … about how the tool can be weaponised in the wrong hands,” NewsGuard said.
–