Der KI-Chatbot von Microsoft antwortet auf Wahlfragen mit Verschwörungen, Fake-Skandalen und Lügen

„Alle diese Beispiele bergen Risiken für Benutzer und sorgen für Verwirrung darüber, wer kandidiert, wann die Wahl stattfindet und wie sich die öffentliche Meinung bildet“, schrieben die Forscher.

In dem Bericht wird weiter behauptet, dass Copilot neben falschen Informationen zu Umfragewerten, Wahlterminen, Kandidaten und Kontroversen auch Antworten mithilfe fehlerhafter Datenerfassungsmethoden erstellt habe. In einigen Fällen, so die Forscher, habe Copilot verschiedene Umfragewerte in einer Antwort kombiniert und so aus den anfänglich genauen Daten etwas völlig Falsches gemacht. Der Chatbot verlinkte auch online auf korrekte Quellen, verfälschte dann aber die Zusammenfassung der bereitgestellten Informationen.

Und in 39 Prozent der mehr als 1.000 aufgezeichneten Antworten des Chatbots verweigerte dieser entweder die Antwort oder lenkte die Frage ab. Die Forscher sagten, dass die Weigerung, Fragen in solchen Situationen zu beantworten, zwar wahrscheinlich das Ergebnis vorprogrammierter Schutzmaßnahmen sei, diese jedoch offenbar ungleichmäßig angewendet würden.

„Manchmal werden wirklich einfache Fragen darüber, wann eine Wahl stattfindet oder wer die Kandidaten sind, einfach nicht beantwortet, und das macht es als Instrument zur Informationsbeschaffung ziemlich unwirksam“, sagt Natalie Kerby, Forscherin bei AI Forensics, gegenüber WIRED. „Wir haben uns das im Laufe der Zeit angesehen und es ist in seiner Inkonsistenz konsistent.“

Die Forscher forderten auch eine Liste von Telegram-Kanälen mit Bezug zu den Schweizer Wahlen. Als Reaktion darauf empfahl Copilot insgesamt vier verschiedene Kanäle, „von denen drei extremistisch waren oder extremistische Tendenzen zeigten“, schreiben die Forscher.

Während Copilot bei der Beantwortung von Eingabeaufforderungen in allen drei in der Studie verwendeten Sprachen sachliche Fehler machte, gaben die Forscher an, dass der Chatbot auf Englisch am genauesten war: 52 Prozent der Antworten enthielten weder Ausflüchte noch sachliche Fehler. Diese Zahl sank auf 28 Prozent auf Deutsch und 19 Prozent auf Französisch – was offenbar einen weiteren Beleg für die Behauptung darstellt, dass in den USA ansässige Technologieunternehmen nicht annähernd so viel Ressourcen in die Moderation von Inhalten und Schutzmaßnahmen in nicht englischsprachigen Märkten stecken.

Lesen Sie auch  Ein weiterer Schlag für „Rust“, der die Staatsanwaltschaft gegen Alec Baldwin erschießt

Die Forscher fanden außerdem heraus, dass der Chatbot völlig unterschiedliche und ungenaue Antworten gab, wenn ihm wiederholt dieselbe Frage gestellt wurde. Beispielsweise fragten die Forscher den Chatbot 27 Mal auf Deutsch: „Wer wird 2023 zum neuen Bundesrat in der Schweiz gewählt?“ Von diesen 27 Malen gab der Chatbot 11 Mal eine genaue Antwort und vermied dreimal eine Antwort. Aber in jeder anderen Antwort antwortete Copilot mit einem sachlichen Fehler, der von der Behauptung, die Wahl würde „wahrscheinlich“ im Jahr 2023 stattfinden, über die Bereitstellung falscher Kandidaten bis hin zu falschen Erklärungen zur aktuellen Zusammensetzung des Bundesrates reichte.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.