Home » Laut Forschern hatte YouTubes stärkere Fehlinformationspolitik bei Wahlen einen Spillover-Effekt auf Twitter und Facebook.

Laut Forschern hatte YouTubes stärkere Fehlinformationspolitik bei Wahlen einen Spillover-Effekt auf Twitter und Facebook.

by drbyos
0 comment

Auf die strengeren Richtlinien von YouTube gegen Fehlinformationen bei Wahlen folgte ein starker Rückgang der Prävalenz falscher und irreführender Videos auf Facebook und Twitter, so eine am Donnerstag veröffentlichte neue Studie, die die Macht des Videodienstes in den sozialen Medien unterstreicht.

Forscher des Center for Social Media and Politics der New York University stellten unmittelbar nach den Wahlen am 3. November einen deutlichen Anstieg von YouTube-Videos mit Wahlbetrug fest, die auf Twitter geteilt wurden. Im November machten diese Videos durchweg etwa ein Drittel aller wahlbezogenen Videofreigaben auf Twitter aus. Die wichtigsten YouTube-Kanäle über Wahlbetrug, die in diesem Monat auf Twitter geteilt wurden, stammten aus Quellen, die in der Vergangenheit Fehlinformationen zu Wahlen verbreitet hatten, wie Project Veritas, Right Side Broadcasting Network und One America News Network.

Aber der Anteil der auf Twitter verbreiteten Wahlbetrugsvorwürfe ging nach dem 8. Dezember stark zurück. Das war der Tag, an dem YouTube ankündigte, Videos zu entfernen, die die unbegründete Theorie verbreiteten, dass weit verbreitete Fehler und Betrug das Ergebnis der Präsidentschaftswahlen verändert haben. Bis zum 21. Dezember sank der Anteil der auf Twitter geteilten Wahlbetrugsinhalte von YouTube erstmals seit der Wahl unter 20 Prozent.

Der Anteil ging nach dem 7. Januar weiter zurück, als YouTube ankündigte, dass alle Kanäle, die gegen seine Richtlinie zur Fehlinformation zu Wahlen verstoßen, eine „Verwarnung“ erhalten und dass Kanäle, die innerhalb von 90 Tagen drei Verwarnungen erhalten haben, dauerhaft entfernt werden. Bis zum Tag der Einweihung lag der Anteil bei rund 5 Prozent.

Der Trend wurde auf Facebook repliziert. Ein Anstieg des Teilens von Videos mit Betrugstheorien nach den Wahlen erreichte kurz vor dem 8. Dezember mit etwa 18 Prozent aller Videos auf Facebook seinen Höhepunkt. Nachdem YouTube seine strengeren Richtlinien eingeführt hatte, ging der Anteil für einen Großteil des Monats stark zurück, bevor er vor dem 6. Januar leicht anstieg Aufruhr im Kapitol. Der Anteil sank erneut auf 4 Prozent bis zum Tag der Amtseinführung, nachdem die neuen Richtlinien am 7. Januar in Kraft traten.

Lesen Sie auch  Was braucht es, damit Elektrofahrzeuge Arbeitsplätze schaffen und nicht abbauen?

Um zu ihren Ergebnissen zu gelangen, sammelten die Forscher jeden Tag eine zufällige Stichprobe von 10 Prozent aller Tweets. Sie isolierten dann Tweets, die mit YouTube-Videos verlinkt waren. Dasselbe taten sie für YouTube-Links auf Facebook, indem sie ein Facebook-eigenes Social-Media-Analysetool, CrowdTangle, verwendeten.

Aus diesem großen Datensatz filterten die Forscher nach YouTube-Videos über die Wahl im Großen und Ganzen sowie über Wahlbetrug mit einer Reihe von Schlüsselwörtern wie „Stop the Steal“ und „Sharpiegate“. Dies ermöglichte den Forschern, einen Eindruck von der Menge der YouTube-Videos über Wahlbetrug im Laufe der Zeit zu bekommen und wie sich diese Menge Ende 2020 und Anfang 2021 verändert hat.

Fehlinformationen in großen sozialen Netzwerken haben in den letzten Jahren zugenommen. Insbesondere YouTube hinkt anderen Plattformen bei der Bekämpfung verschiedener Arten von Fehlinformationen hinterher und kündigte oft mehrere Wochen oder Monate nach Facebook und Twitter strengere Richtlinien an. In den letzten Wochen hat YouTube jedoch seine Richtlinien verschärft, wie zum Beispiel das Verbot aller Anti-Impfstoff-Fehlinformationen und die Sperrung der Konten prominenter Anti-Impfstoff-Aktivisten, darunter Joseph Mercola und Robert F. Kennedy Jr.

Ivy Choi, eine YouTube-Sprecherin, sagte, YouTube sei die einzige große Online-Plattform mit einer Integritätsrichtlinie für Präsidentschaftswahlen. „Wir haben auch maßgebliche Inhalte für wahlbezogene Suchanfragen erstellt und die Verbreitung schädlicher wahlbezogener Fehlinformationen reduziert“, sagte sie.

Megan Brown, eine Forscherin am NYU Center for Social Media and Politics, sagte, es sei möglich, dass die Leute nach dem Verbot der Inhalte durch YouTube die Videos, die Wahlbetrug förderten, nicht mehr teilen könnten. Es ist auch möglich, dass das Interesse an den Wahlbetrugstheorien deutlich nachgelassen hat, nachdem die Bundesstaaten ihre Wahlergebnisse bestätigt haben.

Lesen Sie auch  Eli Broad, der bei der Umgestaltung von Los Angeles geholfen hat, stirbt im Alter von 87 Jahren

Aber das Fazit, sagte Frau Brown, ist, dass „wir wissen, dass diese Plattformen tief miteinander verbunden sind“. YouTube, wie sie darauf hinwies, wurde auf anderen Plattformen als eine der am häufigsten geteilten Domains identifiziert, einschließlich sowohl in den kürzlich veröffentlichten Inhaltsberichten von Facebook als auch in den eigenen Untersuchungen der NYU.

“Es ist ein großer Teil des Informationsökosystems”, sagte Frau Brown, “also wenn die YouTube-Plattform gesünder wird, tun es andere auch.”

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.