KI-Sprachtext könnte verwendet werden, um online Desinformation zu generieren

Das System war in der Lage, über 15 Tweets zu produzieren, die das Auftreten des Klimawandels durch nur wenige menschliche Aufforderungen leugneten, und zeigten, wie leicht es die Meinungen eines Lesers beeinflussen könnte

(Abonnieren Sie unseren Today’s Cache-Newsletter, um einen kurzen Überblick über die Top-5-Tech-Stories zu erhalten. Klicken Sie hier, um sich kostenlos anzumelden.)

KI-gestützte autonome Anwendungen werden zunehmend in unserem täglichen Leben verwendet, aber sie können manipuliert werden, um Desinformation online zu generieren und zu verbreiten, so eine Studie mit dem Titel „Wahrheit, Lügen und Automatisierung – Wie Sprachmodelle Desinformation ändern könnten“ von einem Team von Forscher der Georgetown University.

Das Team analysierte das Verhalten von OpenAIs GPT-3, einem leistungsstarken KI-System, das Texte basierend auf menschlichen Eingabeaufforderungen generiert. Sie testeten das System in mehreren Desinformationskampagnen basierend auf sechs Fähigkeiten zur Inhaltsgenerierung – Wiederholung, Ausarbeitung, Manipulation, Seeding, Verkeilung und Überzeugung. In einem der Experimente ließen die Forscher das System Beispiel-Tweets über den Abzug der US-Truppen aus Afghanistan und die US-Sanktionen gegen China schreiben. Teilnehmer, die sich die Tweets angesehen haben, waren von den automatisch generierten Aussagen überzeugt und fanden sie überzeugend.

Das Team stellte fest, dass das KI-System für eine Vielzahl von taktischen Zielen eingesetzt werden könnte, einschließlich der Entführung eines viralen Hashtags in sozialen Medien, um bestimmte extreme Perspektiven häufiger erscheinen zu lassen. Das System war beispielsweise in der Lage, über 15 Tweets zu produzieren, die das Auftreten des Klimawandels durch nur wenige menschliche Eingaben leugneten und darauf hindeuteten, wie leicht es die Meinungen eines Lesers beeinflussen könnte, stellte das Team fest.

Lesen Sie auch | Kann künstliche Intelligenz helfen, Fake News in einer Zeit nach der Wahrheit auszusortieren?

Das Modell könnte auch verwendet werden, um falsche Behauptungen durch Schlagzeilen in Nachrichten zu verbreiten. Es war erfolgreich, eine Reihe von Schlagzeilen zu wiederholen und ähnlich klingende Schlagzeilen zu entwickeln, die ungewöhnliche Tatsachenbehauptungen ohne menschliches Eingreifen aufstellten, erklärte das Team.

Der größte Einfluss von GPT-3 wird wahrscheinlich in der Skalierung von Operationen auftreten, die es Gegnern ermöglichen, mehr mögliche Nachrichten und Variationen auszuprobieren. Die Bereitstellung eines Algorithmus wie GPT-3 liegt auch im Rahmen der Kapazitäten von Regierungen, insbesondere von technisch versierten Regierungen wie China und Russland, fügte das Team hinzu.

„Unsere Studie weist auch auf eine alarmierende Schlussfolgerung hin, dass Systeme wie GPT-3 für Desinformation in subtiler Form besser geeignet zu sein scheinen als für Information, eher als Fabulisten denn als biedere Wahrheitserzähler“, schloss die Studie.

.

Lesen Sie auch  YouTube: Algorithmusänderung verhinderte die Verbreitung schädlicher Videos

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.