Die Einmischung Russlands in die US-Wahl zielt nach einem langsamen Start auf die Unterstützung der Ukraine ab

Der schädliche ausländische Einfluss auf die US-Präsidentschaftswahlen begann aufgrund der weniger umkämpften Vorwahlsaison langsamer als 2016 und 2020. Die russischen Bemühungen konzentrieren sich darauf, die Unterstützung der USA für die Ukraine zu untergraben, während China versucht, die gesellschaftliche Polarisierung auszunutzen und das Vertrauen in die demokratischen Systeme der USA zu schwächen. Darüber hinaus haben sich Befürchtungen, dass hochentwickelte KI-Deepfake-Videos bei der Wählermanipulation erfolgreich sein könnten, noch nicht bestätigt, aber einfachere „oberflächliche“ KI-gestützte und KI-Audio-Fake-Inhalte werden wahrscheinlich mehr Erfolg haben. Diese Erkenntnisse und Analysen sind im zweiten heute veröffentlichten Microsoft Threat Intelligence Election Report enthalten.

Russland investierte viel in die Untergrabung der US-Unterstützung für die Ukraine

Die russischen Einflussoperationen (IO) haben in den letzten zwei Monaten an Fahrt gewonnen. Das Microsoft Threat Analysis Center (MTAC) hat mindestens 70 russische Akteure verfolgt, die Desinformation mit Schwerpunkt auf die Ukraine betreiben und dabei traditionelle und soziale Medien sowie eine Mischung aus verdeckten und offenen Kampagnen nutzen.

Beispielsweise hat der Schauspieler, den Microsoft als Storm-1516 verfolgt, erfolgreich Anti-Ukraine-Narrative in das US-Publikum eingeschmuggelt und dabei ein konsistentes Muster in mehreren Sprachen verwendet. Typischerweise folgt diese Gruppe einem dreistufigen Prozess:

  1. Eine Person präsentiert sich als Whistleblower oder Bürgerjournalist und verbreitet eine Geschichte auf einem eigens dafür eingerichteten Videokanal
  2. Das Video wird dann von einem scheinbar unabhängigen globalen Netzwerk verdeckt verwalteter Websites abgedeckt
  3. Russische Expats, Beamte und Mitreisende verstärken diese Berichterstattung dann.

Letztendlich wiederholt und veröffentlicht das US-Publikum die Desinformation, ohne die ursprüngliche Quelle zu kennen.

Abbildung 1: Storm-1516s Verfahren zur Einschleusung von Desinformation in US-amerikanische Zuschauerräume

China versucht, die gesellschaftlichen Spaltungen zu vergrößern und demokratische Systeme zu untergraben

China verfolgt bei seinen wahlorientierten Aktivitäten einen mehrstufigen Ansatz. Sie nutzt bestehende gesellschaftspolitische Spaltungen aus und richtet ihre Angriffe auf parteiische Interessen aus, um die organische Verbreitung zu fördern.

Lesen Sie auch  Dana White über Mike Tysons Box-Rückkehr: „Jake Paul muss gegen Leute kämpfen, die tatsächlich Pay-per-Views verkaufen können“
Mit der KPCh verbundene Sockpuppet-Konten veröffentlichen US-bezogene Wahlinhalte und geben sich dabei als amerikanische Wähler aus
Abbildung 2: Mit der KPCh verbundene Sockpuppet-Konten, die US-bezogene Wahlinhalte posten und sich dabei als amerikanische Wähler ausgeben

Chinas zunehmender Einsatz von KI in wahlbezogenen Einflusskampagnen unterscheidet sich von Russland. Während der Einsatz von KI in Russland an Wirkung gewinnt, nutzen mit der Volksrepublik China (VRC) und der Kommunistischen Partei Chinas (KPCh) verbundene Akteure generative KI-Technologien, um Bilder, Memes und Videos effektiv zu erstellen und zu verbessern.

Bisher nur begrenzte Aktivitäten aus dem Iran, was häufig zu Spielverderbern führt

Das Verhalten des Iran in der Vergangenheit deutet darauf hin, dass das Land wahrscheinlich kurz vor dem US-Wahltag mit akuten Cyber-Einflussoperationen beginnen wird. Teherans Wahleinmischungsstrategie verfolgt einen bestimmten Ansatz: die Kombination von Cyber- und Einflussoperationen für eine größere Wirkung. Der anhaltende Konflikt im Nahen Osten könnte dazu führen, dass Iran seine geplanten Ziele und Bemühungen gegenüber den USA weiterentwickelt

Generative KI im Wahlkampf 2024 – Risiken bleiben bestehen, unterscheiden sich jedoch von den Erwartungen

Seit der Demokratisierung der generativen KI Ende 2022 befürchten viele, dass diese Technologie dazu genutzt wird, den Ausgang von Wahlen zu verändern. MTAC hat mit mehreren Teams bei Microsoft zusammengearbeitet, um den böswilligen Einsatz generativer KI durch Nationalstaaten bei Einflussnahmen zu identifizieren, zu selektieren und zu analysieren.

Kurz gesagt: Die Verwendung hochproduzierter synthetischer Deepfake-Videos von Weltführern und Kandidaten hat bisher nicht zu Massentäuschung und allgemeiner Verwirrung geführt. Tatsächlich haben wir gesehen, dass sich das Publikum eher zu einfachen digitalen Fälschungen hingezogen fühlt und diese teilt, die von Influencern im letzten Jahrzehnt verwendet wurden. Zum Beispiel Falschmeldungen mit eingeprägten Logos echter Nachrichtenagenturen.

Das Publikum fällt gelegentlich auf generative KI-Inhalte herein, obwohl die erfolgreichen Szenarien erhebliche Nuancen aufweisen. Unser heutiger Bericht erklärt, wie die folgenden Faktoren zum Risiko generativer KI für Wahlen im Jahr 2024 beitragen:

  • KI-gestützte Inhalte sind einflussreicher als vollständig KI-generierte Inhalte
  • KI-Audio ist wirkungsvoller als KI-Video
  • Gefälschte Inhalte, die angeblich aus einem privaten Umfeld stammen, beispielsweise aus einem Telefonanruf, sind effektiver als gefälschte Inhalte aus einem öffentlichen Umfeld, beispielsweise ein Deepfake-Video eines Weltführers
  • Desinformationsbotschaften haben in Krisenzeiten und bei Eilmeldungen eine größere Wirkung
  • Nachahmungen von weniger bekannten Personen funktionieren besser als Nachahmungen von sehr bekannten Personen wie Weltführern
Lesen Sie auch  Ein Dschihadist tschetschenischer Herkunft, dem die französische Staatsangehörigkeit entzogen wurde

Im Vorfeld des Wahltages wird MTAC weiterhin den Einsatz böswilliger generativer KI identifizieren und analysieren und unsere Einschätzung schrittweise aktualisieren, da wir davon ausgehen, dass Russland, Iran und China im November das Tempo der Einfluss- und Einmischungsaktivitäten erhöhen werden. Ein kritischer Vorbehalt: Wenn ein raffinierter Deepfake gestartet wird, um die Wahl im November zu beeinflussen, ist das für die Manipulation verwendete Tool wahrscheinlich noch nicht auf dem Markt. Fast täglich kommen immer ausgefeiltere Video-, Audio- und Bild-KI-Tools auf den Markt. Die obige Einschätzung ergibt sich aus den bisherigen Beobachtungen von MTAC, es ist jedoch schwierig zu sagen, was wir bis November von der generativen KI beobachten werden.

Die obige Einschätzung ergibt sich aus den bisherigen Beobachtungen von MTAC. Da sich jedoch zwischen jetzt und November sowohl die generative KI als auch die geopolitischen Ziele Russlands, Irans und Chinas weiterentwickeln, könnten sich die Risiken für die Wahlen 2024 mit der Zeit verschieben.

Schlagworte: KI, China, Cyber-Einfluss, Cybersicherheit, Deepfakes, generative KI, Einflussoperationen, Iran, MTAC, Russland

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.