Wie Hassreden und Verschwörungen auf Elon Musks Twitter gedeihen

RIn letzter Zeit gab es viele Rechtschreibfehler in den Tweets von Twitter-Nutzern, die kontroverse Themen wie Religion, Terrorismus, Kriminalität und ja, sogar die indische Geschichte diskutierten. Dies sind keine Fehler, die in der Hitze des Gefechts gemacht wurden, sondern sorgfältige Verzerrungen, die verhindern sollen, dass der Tweet wegen hasserfüllter Inhalte gekennzeichnet oder gelöscht wird. Beispielsweise bezeichnete ein im November 2022 geposteter Tweet, in dem Personen mit muslimischen Namen aus einer Reihe zufälliger Kriminalnachrichten herausgegriffen wurden, die Täter nicht als „Muslime“, sondern verwendete stattdessen den Ausdruck „Ola ke Bande“ ( Olas Gruppe/Olas Bande). Anstelle von „Allah“ wurde das Wort „Ola“ verwendet, das sich auf den indischen Fahrdienst bezieht. Der Tweet wurde nach der 44-Milliarden-Dollar-Übernahme von Twitter durch CEO Elon Musk gepostet. Der Tweet-Autor hat derzeit knapp 7.00.000 Follower.

Das Melden dieses Tweets, um eine Gruppe von Menschen aufgrund ihrer Religion anzusprechen, ist jetzt schwieriger als das Melden eines hasserfüllten Tweets, der sich einfach auf „Muslime“ bezieht, da der Twitter-Moderator, der die Beschwerde betrachtet, nicht nur mit dem verwendeten Hindi-Ausdruck vertraut sein müsste, aber auch die doppelte Bedeutung von „Ola“. Wenn der Moderationsprozess automatisiert ist, würde die Maschine außerdem höchstwahrscheinlich sehen, dass ein Benutzer einen Taxidienst verbal beschimpft, was kein hasserfülltes Verhalten darstellt.

Verzerrungen des Hasses

Einige der verbreiteten Verzerrungen von Hassreden sind – „Beeph-Esser“: ein abwertender Begriff, der verwendet wird, um sich auf Muslime zu beziehen, indem das Wort „Beef“ verzerrt wird; „muzlim“: eine Verzerrung des Wortes „Muslim“; „Is!am“: eine Verzerrung von „Islam“, die den Suchfilter von Twitter täuscht, indem Ergebnisse für „Isam“ oder „Is Am“ angezeigt werden; „friedlich/friedlich“: ein Wort, das anstelle von „Muslim“ verwendet wird, um nicht wegen Hassreden gekennzeichnet zu werden; und „Reissack“: ein abfälliger Ausdruck, der sich auf Indiens religiöse Minderheiten bezieht und auf das bigotte Stereotyp anspielt, dass sie den Hinduismus im Austausch für einen „Reissack“ oder wirtschaftliche Vorteile verlassen haben.

Lesen Sie auch  Hier ist, welche Uniformen die Rams und Cardinals in Woche 6 tragen

Mangelnde Mäßigung

Es wird befürchtet, dass Twitter nicht mehr über die Ressourcen oder das Personal verfügt, um hasserfülltes Verhalten, Spam, kriminelle Inhalte auf der Website und Fehlinformationen nicht nur in Englisch, sondern in Weltsprachen angemessen zu bekämpfen. In einem Interview mit A BBC Journalist teilte Mr. Musk am 12. April mit, dass es noch rund 1.500 Mitarbeiter bei Twitter gebe, von knapp unter 8.000. In den Monaten nach seiner Übernahme kam es in mehreren Runden zu Entlassungen von Mitarbeitern und zu Massenkündigungen. Zu den entlassenen Mitarbeitern gehörten laut Bericht auch diejenigen, die weltweit an der Moderation von Inhalten beteiligt waren Bloomberg.

Das Center for Countering Digital Hate (NGO) sagte am 9. Februar, dass „Elon Musk Zehntausende von Konten wiederhergestellt hat, darunter Neonazis, weiße Rassisten, Frauenfeinde und Verbreiter gefährlicher Verschwörungstheorien“. Es fügte hinzu, dass Twitter bis zu 19 Millionen US-Dollar pro Jahr durch Werbung auf nur zehn solcher wiederhergestellten Konten einstreichen könnte, darunter Persönlichkeiten wie Andrew Tate und Robert Malone. Mr. Musk bestritt, dass Hassreden auf Twitter zunehmen und behauptete, dass die BBC Der Journalist hat gelogen, um etwas anderes vorzuschlagen.

Es ist jedoch ein Fehler anzunehmen, dass die Inhaltsmoderation auf Twitter vor der Übernahme von Mr. Musk wirksam war. Der frühere CEO Jack Dorsey hat zugegeben, „Fehler“ gemacht zu haben. Der entscheidende Unterschied besteht jetzt jedoch darin, dass Twitter nicht einmal vorgibt, sich von den Nutzern zur Rechenschaft ziehen zu lassen, da seine E-Mail-ID [email protected] automatisch auf alle Medienanfragen und E-Mails mit einem grafischen Emoji antwortet.

Sicherheitsrichtlinie von Twitter

Darüber hinaus kündigte das Twitter-Sicherheitsteam am 17. April seinen neuen Ansatz zur Moderation von Inhalten mit dem Titel „Freedom of Speech, Not Reach“ an.

Lesen Sie auch  Darmmikrobiota: Welche Folgen hat ein Ungleichgewicht für die Gesundheit?

Diese Richtlinie würde ausgewählte Tweets zurücklassen, die gegen die Richtlinie zu hasserfülltem Verhalten von Twitter verstoßen, aber ihre Sichtbarkeit filtern, indem sie mit einem Label versehen werden, das sie als potenzielle Verstöße kennzeichnet. Anzeigen werden auch nicht in ihrer Nähe platziert. Die Richtlinie zu hasserfülltem Verhalten von Twitter besagt, dass Benutzer andere nicht „direkt angreifen“ dürfen, basierend auf „Rasse, ethnischer Zugehörigkeit, nationaler Herkunft, Kaste, sexueller Orientierung, Geschlecht, Geschlechtsidentität, Religionszugehörigkeit, Alter, Behinderung oder schwerer Krankheit“. Die neue Richtlinie „Redefreiheit, nicht Reichweite“ würde jedoch bedeuten, dass einige Tweets, die gegen diese Prinzipien verstoßen, auf Twitter verbleiben dürfen.

Hassreden auf anderen Plattformen

Der Hindu wandte sich an Facebook, Instagram und den WhatsApp-Besitzer Meta, um mehr über die Herangehensweise des konkurrierenden Social-Media-Unternehmens an Hassreden zu erfahren.

In einer per E-Mail gesendeten Erklärung sagte ein Meta-Sprecher, das Unternehmen verfolge einen Null-Toleranz-Ansatz gegenüber Hassreden auf Facebook und Instagram und habe solche Inhalte entfernt, sobald sie darauf aufmerksam gemacht wurden. „Seit 2016 haben wir mehr als 16 Milliarden US-Dollar in Teams und Technologien investiert, um Hassreden und andere Formen schädlicher Inhalte von der Plattform fernzuhalten und die Sicherheit der Benutzer unserer Apps zu verbessern. Als Ergebnis unserer Bemühungen haben wir die Verbreitung von Hassreden auf unseren Plattformen auf 0,02 % reduziert, was bedeutet, dass auf 10.000 Inhalte zwei verstoßen“, sagte der Sprecher. Meta erklärte, dass es künstliche Intelligenz (KI) verwendet, um Bilder oder Texte zu identifizieren, die mit bereits entfernten Hassreden identisch sind. Diese Technologie hilft, Hassreden genau zu erkennen, selbst wenn die Bedeutung nicht offensichtlich ist oder der Inhalt geändert wird, um eine Erkennung zu vermeiden, sagte das Unternehmen.

Lesen Sie auch  Meinung: Bidens Durchführungsverordnung zu KI ist ehrgeizig – und unvollständig

Darüber hinaus sagte Meta, es habe menschliche Inhaltsprüfer in 20 indischen Sprachen, darunter Hindi, Bengali, Tamil, Malayalam, Punjabi, Urdu, Kannada, Marathi, Gujarati, Assamesisch, Telugu, Oriya, Sindhi, Mizo, Marwari, Chhattisgarhi, Tulu, Maithili/ Bhojpuri, Konkani und Meitei. Das Social-Media-Unternehmen behauptete auch, es habe im letzten Quartal 2022 rund 16 Millionen Inhalte von Facebook und Instagram entfernt.

Als Meta jedoch Ende April eine weitere Entlassungsrunde bestätigte, die sich auf seine technischen Mitarbeiter auswirkte, könnte der Personalabbau zu einer weniger effektiven Moderation von Inhalten auf Facebook und Instagram führen. Tech-Steckdose Der Rand berichtete weiter, dass der größte Teil des Fehlinformations-Engineering-Teams von Meta im Rahmen der Kürzungen im April entlassen wurde. Meta soll Ende Mai weitere Mitarbeiter entlassen und beabsichtigt, seine Belegschaft bis 2023 um rund 10.000 Mitarbeiter zu reduzieren.

Der Hindu wandte sich auch an Mastodon und Reddit, um mehr über ihre Ansätze zur Moderation von Inhalten zu erfahren, erhielt jedoch keine Antwort.

Während die rund 1.500 Mitarbeiter von Twitter Stunden investieren, um das Social-Media-Unternehmen voranzubringen, finden hasserfüllte Inhalte neue Wege, sich auf der Plattform zu entwickeln.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.