KI-Fälschungen im israelischen Krieg gegen Hamas – DW – 10.11.2023

Wie funktionieren gefälschte Geschichten, die mit künstlicher Intelligenz (KI) erstellt wurden? Welche Narrative präsentieren sie? Und wie gefährlich sind sie?

DW-Faktenchecker beantworten die kritischsten Fragen zur Rolle von KI im Konflikt zwischen Israel und der Hamas in Gaza.

1) Wie funktionieren KI-generierte Bildfälschungen?

KI ist heutzutage überall – sogar in Kriegen. Anwendungen der künstlichen Intelligenz haben sich in diesem Jahr stark verbessert, und fast jeder kann mittlerweile Standard-KI-Generatoren verwenden, um Bilder zu erstellen, die zumindest auf den ersten Blick echt aussehen.

Dazu müssen Nutzer Tools wie Midjourney oder Dall-E mit Eingabeaufforderungen, einschließlich Spezifikationen und Informationen, „füttern“. Die Tools wandeln dann die geschriebenen Eingabeaufforderungen in Bilder um.

Einige erstellen künstlerischere Illustrationen, während andere fotorealistische Bilder erstellen. Der Generierungsprozess basiert auf dem sogenannten maschinellen Lernen.

Wenn Generatoren beispielsweise gebeten werden, einen 70-jährigen Mann beim Fahrradfahren zu zeigen, durchsuchen sie ihre Datenbank, um die Begriffe mit Bildern zu verknüpfen.

Basierend auf den verfügbaren Informationen erstellen die KI-Generatoren das Bild des älteren Radfahrers. Dank immer mehr Input und technischen Updates haben sich die Tools enorm verbessert und lernen ständig dazu.

All dies gilt für Bilder mit Bezug zum Nahostkonflikt.

Auch hier werden mit solchen Werkzeugen mehr oder weniger realistische Szenen geschaffen, die unseren Beobachtungen zufolge oft dazu dienen, emotionale Momente einzufangen und bestimmte Erzählungen zu verbreiten. Aber dazu später mehr.

In einem Konflikt, in dem „die Emotionen sehr, sehr hoch sind“, sagt KI-Experte Hany Farid, funktioniert Desinformation, einschließlich ihrer Verbreitung durch KI-Bilder, außerordentlich gut.

Verhärtete Fronten seien der perfekte Nährboden für die Erstellung und Verbreitung gefälschter Inhalte und die Intensivierung von Emotionen, sagt Farid, Professor für digitale Forensik an der University of California in Berkeley, im Gespräch mit der DW.

Faktencheck: Wie erkennt man KI-Bilder?

Um dieses Video anzusehen, aktivieren Sie bitte JavaScript und erwägen Sie ein Upgrade auf einen Webbrowser, der HTML5-Videos unterstützt

2) Wie viele KI-Bilder des Israel-Hamas-Krieges sind im Umlauf?

Mit Hilfe künstlicher Intelligenz erstellte Bilder und Videos haben bereits zur Desinformation im Zusammenhang mit dem Krieg in der Ukraine beigetragen – und tun dies auch weiterhin.

Da sich KI-Tools seit der russischen Invasion der Ukraine im Jahr 2022 rasant weiterentwickelt haben, erwarteten viele Beobachter, dass sie im Israel-Hamas-Krieg eine noch größere Rolle spielen würden. Allerdings ist die große Flut an KI-Bildern Experten zufolge bislang ausgeblieben.

Lesen Sie auch  Hedstigen-Ratgeber: Alles über Djurgårdens Weg in die ECL-Gruppenphase

„Im Konflikt zwischen Israel und der Hamas und der damit verbundenen Desinformation sehen wir keinen massiven Einsatz von KI-generierten Bildern“, sagt Tomasso Canetta vom European Digital Media Observatory.

„Es gibt einige Beispiele, aber das ist nicht viel, wenn wir es mit der Menge an Desinformation vergleichen, die tatsächlich aus alten Bildern und alten Videos besteht, die jetzt auf irreführende Weise weitergegeben werden“, fügt er hinzu.

Dies bedeutet jedoch nicht, dass die Technologie keine Rolle spielt. Farid erklärt, dass er die Zahl der KI-Fakes nicht für den relevanten Faktor hält.

„Man kann zwei Bilder haben, die super viral gehen und Hunderte Millionen Menschen sehen. Das kann eine enorme Wirkung haben“, sagt er.

„Es muss also kein Massenspiel sein, aber ich denke, das eigentliche Problem, das wir sehen, ist einfach die Verschmutzung des Informationsökosystems.“

3) Welchen Narrativen dienen die KI-Fälschungen im Israel-Hamas-Krieg?

Die in sozialen Netzwerken kursierenden KI-Bilder können meist starke Emotionen auslösen.

Canetta identifiziert zwei Hauptkategorien. Man bezieht sich auf Bilder, die das Leid der Zivilbevölkerung in den Mittelpunkt stellen und Mitgefühl für die gezeigten Menschen wecken. Das andere sind KI-Fälschungen, die die Unterstützung für Israel, die Hamas oder die Palästinenser übertreiben und patriotische Gefühle ansprechen.

Bestimmte Funktionen helfen dabei, zu erkennen, ob ein Bild von KI erstellt wurde

Zur ersten Kategorie gehört beispielsweise das obige Bild eines Vaters mit seinen fünf Kindern vor einem Trümmerhaufen. Es wurde viele Male auf X geteilt (ehemals Twitter) und Instagram und wurde hunderttausende Male im Zusammenhang mit der israelischen Bombardierung des Gazastreifens gesehen.

Mittlerweile wurde das Bild zumindest auf X mit einem Community-Hinweis versehen, dass es sich um eine Fälschung handelt. Erkennbar ist es an verschiedenen Fehlern und Inkonsistenzen, die für KI-Bilder typisch sind.

Beispielsweise ist die rechte Schulter des Mannes unverhältnismäßig hoch. Seltsam sind auch die beiden Gliedmaßen, die darunter hervorragen – als würden sie aus seinem Pullover wachsen.

Auffällig ist auch, wie die Hände der beiden Jungen, die ihre Arme um den Hals ihres Vaters geschlungen haben, ineinander übergehen. Und an mehreren Händen und Füßen auf dem Bild sind zu viele oder zu wenige Finger und Zehen.

Ähnliche Anomalien sind auch im Folgenden zu erkennen KI-Fälschung, die auf X viral gingdas angeblich eine palästinensische Familie zeigt, die gemeinsam in den Trümmern isst, und so Mitgefühl für die palästinensische Zivilbevölkerung hervorruft.

Lesen Sie auch  Samsung will in den AR/VR-Markt einsteigen, um Apple Konkurrenz zu machen
Ein Bild, das typische anatomische Anomalien in KI-generierten Bildern hervorhebt
Deformierte Gesichter sowie Störungen an Armen und Händen sind typische Unstimmigkeiten in KI-Bildern wie diesem

Das Bild unten, das Soldaten zeigt, die israelische Flaggen schwenken, während sie durch eine Siedlung voller ausgebombter Häuser gehen, fällt in die zweite Kategorie, die Gefühle des Patriotismus wecken soll.

Die Konten, die das Bild teilen auf Instagram und X scheinen in erster Linie pro-israelisch zu sein und die dargestellten Ereignisse zu begrüßen. Die DW fand das Bild auch als Artikelbild in einer bulgarischen Online-Zeitungdie es nicht erkannte oder als KI-generiert bezeichnete.

Was hier falsch aussieht, ist die Art und Weise, wie die israelischen Flaggen wehen. Auch die Straße in der Mitte wirkt zu sauber, während der Schutt sehr gleichmäßig wirkt. Auch die zerstörten Gebäude sehen aus wie Zwillinge und stehen in ziemlich regelmäßigen Abständen.

Insgesamt ist der optische Eindruck zu „sauber“, um realistisch zu wirken. Auch diese Art von Makellosigkeit, die Bilder wie gemalt aussehen lässt, ist typisch für KI.

Ein KI-generiertes Bild von israelischen Panzern und Soldaten, die Flaggen tragen, während sie durch die Straßen des zerbombten Gazastreifens marschieren
KI-Bilder, die in sozialen Netzwerken kursieren, sind meist in der Lage, beim Betrachter starke Emotionen auszulösenBild: X

4) Woher kommen solche KI-Bilder?

Private Accounts in sozialen Medien verbreiten die meisten Bilder, die mithilfe künstlicher Intelligenz erstellt wurden. Sie werden sowohl von authentischen als auch von offensichtlich gefälschten Profilen gepostet.

Allerdings können KI-generierte Bilder auch in journalistischen Produkten verwendet werden. Ob und in welchen Fällen dies sinnvoll bzw. sinnvoll sein kann, wird derzeit in vielen Medienunternehmen diskutiert.

Für Aufsehen sorgte das Softwareunternehmen Adobe, als es Ende 2022 KI-generierte Bilder in sein Stockfotos-Sortiment aufnahm. Diese sind in der Datenbank entsprechend gekennzeichnet.

Ein von der KI generiertes Bild zeigt zwei Kinder, die bei Sonnenuntergang sitzen und auf brennende Gebäude in Gaza starren
Ein KI-generiertes Bild zum Israel-Gaza-Konflikt in Adobe Stock

Adobe bietet jetzt auch KI-Bilder des Nahostkriegs zum Verkauf an – zum Beispiel von Explosionen, protestierenden Menschen oder Rauchwolken hinter der Al-Aqsa-Moschee.

Kritiker halten dies für höchst fragwürdig, und einige Online-Seiten und Medien verwenden die Bilder weiterhin, ohne sie als KI-generiert zu kennzeichnen. Das obige Bild erscheint beispielsweise auf der Seite „Newsbreak“ ohne jeglichen Hinweis darauf, dass es computergeneriert war. Das hat die DW mithilfe einer umgekehrten Bildsuche herausgefunden.

Sogar der European Parliamentary Research Service, der wissenschaftliche Dienst des Europäischen Parlaments, illustrierte einen Online-Text zum Nahostkonflikt mit einer der Fälschungen aus der Adobe-Datenbank – wiederum ohne es als KI-generiertes Bild zu kennzeichnen.

Canetta vom European Digital Media Observatory appelliert an Journalisten und Medienschaffende, bei der Verwendung von KI-Bildern sehr vorsichtig zu sein und rät von deren Verwendung ab, insbesondere wenn es um reale Ereignisse wie den Krieg in Gaza geht.

Lesen Sie auch  Kanada erleidet die erste Niederlage bei den Junioren-Weltmeisterschaften im Shutout gegen Gastgeber Schweden

Anders verhält es sich, wenn es darum geht, abstrakte Themen wie Zukunftstechnologien zu veranschaulichen.

5) Wie viel Schaden verursachen KI-Bilder?

Das Wissen, dass KI-Inhalte im Umlauf sind, verunsichert Nutzer bei allem, was ihnen online begegnet.

Farid, Forscher an der UC Berkeley, erklärt: „Wenn wir diese Welt betreten, in der es möglich ist, Bilder, Audio und Video zu manipulieren, ist alles in Frage. Man sieht also, dass echte Dinge als Fälschung behauptet werden.“

Genau das geschah im folgenden Fall: Ein Bild, das angeblich die verkohlte Leiche eines israelischen Babys zeigen soll, wurde auf X unter anderem von Israels Premierminister Benjamin Netanyahu und dem konservativen US-Kommentator Ben Shapiro geteilt.

Der umstrittene antiisraelische Influencer Jackson Hinkle behauptete daraufhin, das Bild sei mithilfe künstlicher Intelligenz erstellt worden.

Ein Screenshot eines X-Beitrags von Jackson Hinkle, in dem behauptet wird, ein vom israelischen Premierminister Benjamin Netanjahu und dem rechten US-Kommentator Ben Shapiro retweetetes Bild sei gefälscht
Der antiisraelische Agitator Jackson Hinkle präsentiert auf X angebliche Beweise dafür, dass es sich bei dem Foto um eine KI-Fälschung handelt

Als angeblichen Beweis fügte Hinkle seinem Beitrag einen Screenshot des KI-Detektors „KI oder nicht“ bei, der das Bild als KI-generiert einstufte.

Hinkles Anspruch auf X wurde mehr als 20 Millionen Mal aufgerufen und löste hitzige Diskussionen auf der Plattform aus.

Am Ende gaben viele an, dass das Bild aller Wahrscheinlichkeit nach echt sei und dass Hinkle daher falsch lag. Farid sagte gegenüber der DW außerdem, dass er auf dem Bild keine Unstimmigkeiten feststellen könne, die auf einen KI-Fake hindeuten würden.

Wie kann das sein, fragen Sie sich vielleicht? KI-Detektoren, mit denen überprüft werden kann, ob ein Bild oder Text möglicherweise KI-generiert ist, sind immer noch sehr fehleranfällig. Abhängig vom überprüften Bild liegen sie richtig oder falsch und treffen Entscheidungen oft nur als wahrscheinliche Wahrscheinlichkeiten – nicht mit 100-prozentiger Sicherheit.

Daher eignen sie sich höchstens als zusätzliches Tool zur Überprüfung von KI-Fakes, aber definitiv nicht als einziges Tool.

Bild eines Screenshots auf X, in dem die Plattform behauptet, das Bild in einem Tweet von Benjamin Netanyahu und Ben Shapiro sei echt
Als DW X fragte, ob dieses Bild „KI oder nicht“ sei, erklärte die Plattform, es sei „wahrscheinlich menschlich“.

Auch das Faktencheck-Team der DW konnte in dem Bild, das vermutlich die Leiche eines Babys zeigt, keine eindeutigen Anzeichen einer KI-basierten Manipulation erkennen.

Seltsamerweise stufte „KI hin oder her“ das Bild nicht als KI-generiert ein, als wir es selbst ausprobierten – und wies darauf hin, dass die Bildqualität schlecht sei.

Ein weiterer KI-Detektor (Hive-Moderation) kam ebenfalls zu dem Schluss, dass das Bild echt sei.

Mina Kirkowa hat zu diesem Bericht beigetragen, der ursprünglich auf Deutsch verfasst wurde.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.