Ich habe zugesehen, wie Elon Musk die Kultur von Twitter von innen zerstört hat

Jeder hat eine Meinung zur Übernahme von Twitter durch Elon Musk. Ich habe es gelebt. Ich habe aus erster Hand die Schäden gesehen, die durch unkontrollierte Macht in der Technologie entstehen können. Aber es ist noch nicht zu spät, das Ruder herumzureißen.

Ich bin 2021 von Parity AI zu Twitter gekommen, einem Unternehmen, das ich gegründet habe, um Verzerrungen in Algorithmen zu identifizieren und zu beheben, die in einer Reihe von Branchen verwendet werden, darunter Banken, Bildung und Pharmazie. Es war schwer, mein Unternehmen hinter sich zu lassen, aber ich glaubte an die Mission: Twitter bot die Möglichkeit, Millionen von Menschen auf der ganzen Welt besser zu sehen und zu hören. Ich würde die Bemühungen des Unternehmens leiten, ethischere und transparentere Ansätze für künstliche Intelligenz als technischer Direktor des Teams für Ethik, Transparenz und Rechenschaftspflicht für maschinelles Lernen (META) zu entwickeln.

Rückblickend ist bemerkenswert, dass es das Team überhaupt gab. Es konzentrierte sich auf Gemeinschaft, öffentliches Engagement und Rechenschaftspflicht. Wir haben das Unternehmen dazu gebracht, besser zu werden, und unseren Führungskräften Möglichkeiten geboten, mehr als den Umsatz zu priorisieren. Es überrascht nicht, dass wir ausgelöscht wurden, als Musk ankam.

Möglicherweise hat er den Wert in der Art der Arbeit, die META geleistet hat, nicht gesehen. Sehen Sie sich unsere Untersuchung der automatischen Bildzuschneidefunktion von Twitter an. Das Tool wurde entwickelt, um automatisch die relevantesten Motive in einem Bild zu identifizieren, wenn nur ein Teil im Feed eines Benutzers sichtbar ist. Wenn Sie ein Gruppenfoto Ihrer Freunde am See posten, würde es sich eher auf Gesichter als auf Füße oder Gebüsch konzentrieren. Es war eine einfache Prämisse, aber fehlerhaft: Benutzer bemerkten, dass das Tool in seinen Ernten weiße Menschen gegenüber farbigen Menschen zu bevorzugen schien. Wir entschieden uns für eine Durchführung vollständige Prüfung, und es gab tatsächlich eine kleine, aber statistisch signifikante Verzerrung. Als Twitter KI verwendete, um zu bestimmen, welcher Teil eines großen Bildes im Feed eines Benutzers angezeigt werden sollte, neigte es leicht dazu, Weiße (und zusätzlich Frauen) zu bevorzugen. Unsere Lösung war einfach: Das Zuschneiden von Bildern war keine Funktion, die automatisiert werden musste, also deaktivierte Twitter den Algorithmus.

Ich fühlte mich gut dabei, Twitter beizutreten, um Benutzer vor algorithmischen Schäden zu schützen, insbesondere Menschen, die bereits einer breiteren Diskriminierung ausgesetzt sind. Aber Monate nach Musks Übernahme – eine neue Ära, die durch fieberhafte Kostensenkungen, laxe Moderation von Inhalten, die Aufgabe von wichtige Funktionen wie Sperrlisten, und eine Vielzahl technischer Probleme, die dazu geführt haben, dass die Seite nicht einmal während des gesamten Super Bowl online bleiben konnte – es scheint, dass niemand Wache hält. Anderthalb Jahre nach unserem Audit entließ Musk Mitarbeiter, die sich dem Schutz der Benutzer verschrieben hatten. (Viele Mitarbeiter, einschließlich mir, streben als Reaktion darauf ein Schiedsverfahren an.) Er hat eine neue Leiterin für Vertrauen und Sicherheit eingesetzt, Ella Irwin, die den Ruf hat, ihn zu besänftigen. Ich mache mir Sorgen, dass Twitter durch das Ignorieren des nuancierten Problems der algorithmischen Aufsicht – in einem solchen Ausmaß, dass Musk angeblich eine Überholung der Twitter-Systeme forderte, um seine Tweets vor allen anderen anzuzeigen – Probleme mit Vorurteilen, Fehlinformationen und Desinformationen in der realen Welt aufrechterhalten und verstärken wird. und zu einem volatilen globalen politischen und sozialen Klima beitragen.

Lesen Sie auch  Warum das Spiel „Mission Natur“ umstritten ist – L’Express

Irwin antwortete nicht auf eine Reihe von Fragen zu Entlassungen, algorithmischer Aufsicht und Inhaltsmoderation. Auch eine Anfrage an die Presse-E-Mail des Unternehmens blieb unbeantwortet.

Zugegeben, Twitter war noch nie perfekt. Jack Dorseys abgelenkte Führung in mehreren Unternehmen hielt ihn davon ab, eine klare strategische Richtung für die Plattform festzulegen. Sein kurzzeitiger Nachfolger, Parag Agrawal, hatte gute Absichten, war aber wirkungslos. Ständiges Chaos und endloses Strukturieren und Umstrukturieren waren ständige interne Witze. Konkurrierende Imperative manifestierten sich manchmal in Meinungsverschiedenheiten zwischen denen von uns, die mit dem Schutz der Benutzer beauftragt sind, und dem Team, das die algorithmische Personalisierung leitet. Unser Auftrag bestand darin, nach Ergebnissen zu suchen, die die Sicherheit der Menschen gewährleisten. Ihr Ziel war es, das Engagement und damit den Umsatz zu steigern. Die große Erkenntnis: Ethik lässt sich nicht immer mit kurzfristigem Engagement skalieren.

Ein Mentor sagte mir einmal, dass meine Rolle darin bestehe, ein Wahrheitsverkünder zu sein. Manchmal bedeutete das, die Führung mit unbequemen Realitäten zu konfrontieren. Bei Twitter bedeutete dies, auf umsatzsteigernde Methoden (z. B. verstärkte Personalisierung) hinzuweisen, die zu ideologischen Filterblasen führen, Methoden der algorithmischen Bot-Manipulation eröffnen oder versehentlich Fehlinformationen populär machen würden. Wir haben an Möglichkeiten gearbeitet, unsere Algorithmen zur Erkennung giftiger Sprache zu verbessern, damit sie afroamerikanisches Umgangssprache-Englisch sowie Formen der zurückgewonnenen Sprache nicht diskriminieren. All dies hing von einfachen Mitarbeitern ab. So chaotisch es auch war, Twitter schien manchmal hauptsächlich auf gutem Willen und dem Engagement seiner Mitarbeiter zu funktionieren. Aber es hat funktioniert.

Diese Zeiten sind vorbei. Von der Bekanntgabe von Musks Angebot bis zu dem Tag, an dem er das Büro mit einem Waschbecken betrat, beobachtete ich entsetzt, wie er langsam die Kultur von Twitter zerstörte. Debatten und konstruktive Meinungsverschiedenheiten wurden auf Slack unterdrückt, Führungskräfte akzeptierten ihr Schicksal oder resignierten stillschweigend, und Twitter wandelte sich langsam von einem Unternehmen, das sich um die Menschen auf der Plattform kümmerte, zu einem Unternehmen, das sich nur um Menschen als monetarisierbare Einheiten kümmert. Die wenigen Tage, die ich bei Musks Twitter verbracht habe, könnte man am besten als eine beschreiben Herr der Fliegen– wie ein Charaktertest, als die bestehende Führung zusammenbrach, Musks Kumpane einzogen und sein willkürliches Management – ​​wenn man das so nennen konnte – ein Gefühl von Angst und Verwirrung auslöste.

Leider kann Musk nicht einfach ignoriert werden. Er hat sich einen weltweit einflussreichen und politisch mächtigen Sitz erkämpft. Wir müssen sicherlich nicht über seine Gedanken zur algorithmischen Ethik spekulieren. Berichten zufolge hat er Anfang dieses Monats einen Top-Ingenieur entlassen, weil er andeutete, dass sein Engagement nachließ, weil die Leute das Interesse an ihm verloren, und nicht wegen einer Art algorithmischer Einmischung. (Musk reagierte zunächst auf die Berichterstattung darüber, wie seine Tweets priorisiert werden, indem er eine Off-Color-Memeund nannte heute die Berichterstattung „FALSCH.“) Und seine Erfolgsbilanz ist alles andere als umfassend: Er hat rechtsextreme Diskussionspunkte angenommen, sich über die „Wake-Mind-Virus“ und ausdrücklich auf sein Los mit Donald Trump und Ye (ehemals Kanye West) geworfen.

Lesen Sie auch  WhatsApp erleidet einen Rückgang seines Messaging-Dienstes um fast eine Stunde | Technologie

Die Abwertung der Arbeit an algorithmischen Vorurteilen könnte katastrophale Folgen haben, insbesondere weil diese Vorurteile so bösartig unsichtbar und doch allgegenwärtig werden können. Als Schiedsrichter des sogenannten Digital Town Square spielen algorithmische Systeme eine bedeutende Rolle im demokratischen Diskurs. 2021, mein Team veröffentlicht eine Studie, die zeigt, dass das Inhaltsempfehlungssystem von Twitter rechtsgerichtete Posts in Kanada, Frankreich, Japan, Spanien, dem Vereinigten Königreich und den Vereinigten Staaten verstärkt. Unsere Analysedaten deckten den Zeitraum unmittelbar vor den US-Präsidentschaftswahlen 2020 ab und identifizierten einen Moment, in dem soziale Medien für Millionen ein entscheidender Kontaktpunkt für politische Informationen waren. Derzeit können rechte Hassreden auf Twitter an Orten wie Indien und Brasilien verbreitet werden, wo radikalisierte Jair Bolsonaro-Anhänger einen Putschversuch im Stil des 6. Januar inszenierten.

Musks Twitter ist einfach ein weiterer Beweis dafür, dass die Selbstregulierung durch Technologieunternehmen niemals funktionieren wird, und es unterstreicht die Notwendigkeit einer echten Aufsicht. Wir müssen ein breites Spektrum von Menschen mit den Werkzeugen ausstatten, um Unternehmen unter Druck zu setzen, unbequeme Wahrheiten über die von ihnen gebaute KI anzuerkennen und anzusprechen. Die Dinge müssen sich ändern.

Meine Erfahrung bei Twitter hat mir ein klares Gefühl dafür gegeben, was helfen kann. KI wird oft als eine Blackbox oder eine Kraft aus einer anderen Welt angesehen, aber es ist Code, wie vieles andere in der Technologie. Die Leute können es überprüfen und ändern. Mein Team hat es bei Twitter für Systeme gemacht, die wir nicht erstellt haben; andere könnten es auch, wenn es ihnen erlaubt wäre. Der Algorithmic Accountability Act, der Platform Accountability and Transparency Act und das New York City Local Law 144 – sowie die Digital Services und AI Acts der Europäischen Union – zeigen alle, wie die Gesetzgebung einen Weg für externe Parteien schaffen könnte, auf Quellcode und Daten zuzugreifen Gewährleistung der Einhaltung der Antibias-Anforderungen. Unternehmen müssten statistisch nachweisen, dass ihre Algorithmen nicht schädlich sind, und in einigen Fällen Personen von außerhalb ihres Unternehmens einen beispiellosen Zugang gewähren, um Quellcode-Audits durchzuführen, ähnlich wie die Arbeit meines Teams bei Twitter.

Lesen Sie auch  Die EU nimmt TikTok offiziell wegen Verstößen gegen das Digital Services Act ins Visier

Nachdem das Audit meines Teams zur Funktion zum Zuschneiden von Bildern veröffentlicht wurde, hat Twitter die Notwendigkeit für konstruktives öffentliches Feedback erkannt, also haben wir unser erstes gehostet Prämie für algorithmische Voreingenommenheit. Wir stellten unseren Code zur Verfügung und ließen externe Datenwissenschaftler eingreifen – sie konnten Geld verdienen, wenn sie Verzerrungen identifizierten, die wir übersehen hatten. Wir hatten einzigartige und kreative Reaktionen aus der ganzen Welt und inspirierten ähnliche Programme bei anderen Organisationen, einschließlich der Stanford University.

Public Bias Bounties könnten ein Standardbestandteil algorithmischer Risikobewertungsprogramme in Unternehmen sein. Das National Institute of Standards and Technology, die US-Regierungsbehörde, die Standards für algorithmische Risiken entwickelt, hat Validierungsübungen wie Prämien als Teil seines empfohlenen algorithmischen Ethikprogramms in sein neuestes AI Risk Management Framework aufgenommen. Bounty-Programme können ein informativer Weg sein, um strukturiertes öffentliches Feedback in die algorithmische Überwachung in Echtzeit einzubeziehen.

Um die Notwendigkeit zu erfüllen, Radikalisierung mit der Geschwindigkeit der Technologie anzugehen, müssen sich auch unsere Ansätze weiterentwickeln. Wir brauchen gut besetzte und gut ausgestattete Teams, die in Technologieunternehmen arbeiten, um sicherzustellen, dass algorithmische Schäden nicht auftreten, aber wir brauchen auch rechtlichen Schutz und Investitionen in externe Prüfungsmethoden. Tech-Unternehmen werden sich nicht selbst überwachen, schon gar nicht mit Leuten wie Musk an der Spitze. Wir können nicht davon ausgehen – noch hätten wir jemals annehmen sollen – dass die Machthaber nicht auch Teil des Problems sind.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.