„Ein Sexualobjekt oder eine Babymaschine“: Künstliche Intelligenz bekräftigt Stereotypen gegenüber Frauen | Technologie

Die Inhalte im Internet enthalten geschlechtsspezifische Vorurteile, Bilder sind noch sexistischer als Texte und künstliche Intelligenz reproduziert und verstärkt diese Stereotypen. Viele Fachleute hatten dies angeprangert, und jetzt bestätigt es eine von der UNESCO durchgeführte Studie: Sprachmodelle, wie das von ChatGPT verwendete, reproduzieren Geschlechter- und Rassenvorurteile oder Homophobie. Der Bericht geht über Konversationschats hinaus und warnt vor den Auswirkungen künstlicher Intelligenz auf den Alltag. Da sich der Einsatz von KI für die Entscheidungsfindung in allen Branchen ausbreitet und den Zugang zu Arbeitsplätzen, Krediten oder Versicherungen erschwert, werden Frauen und Minderheiten vor den Herausforderungen stehen, denen sie sich stellen müssen, wenn sie nicht angegangen werden und diese Vorurteile nicht angemessen abgemildert werden.

Sprachmodelle lernen aus Online-Informationen, die Vorurteile enthalten, und neigen daher dazu, diese Vorurteile in Antworten in Chats und anderen Anwendungen zu reproduzieren. Ein typischer Fall ist die Zuweisung des Geschlechts zu Berufen, bei der diese Modelle Stereotypen aufrechterhalten, wie etwa die Assoziation von Männern mit Naturwissenschaften und Technik und Frauen mit Pflege und Hausarbeit, selbst in Situationen, in denen Geschlechter nicht spezifiziert sind.

Genau das zeigt die Anfang März veröffentlichte UNESCO-Studie, in der die GPT 2- und GPT-3.5-Modelle von OpenAI (die Grundlage der kostenlosen Version von ChatGPT) sowie das Llama 2. Goal des Konkurrenten analysiert wurden. Der Bericht zeigt, dass Frauen viermal häufiger mit häuslichen Rollen in Verbindung gebracht wurden als Männer und häufig mit Wörtern wie Zuhause, Familie und Kinder in Verbindung gebracht wurden, während männliche Substantive mit Geschäft, Führungskraft, Gehalt und Karriere in Verbindung gebracht wurden.

Die Studie zeigte nicht nur eine ausgeprägte Diskriminierung von Frauen, sondern betonte auch, dass KI-generierte Inhalte über Personen aus weniger repräsentierten Kulturen weniger vielfältig und anfälliger für Stereotypen seien. Leonora Verdadero, Spezialistin für digitale Politik und digitale Transformation bei der UNESCO, beschreibt: „Als das Modell gebeten wurde, den Satz eines britischen Mannes und einer britischen Frau vor einem Zulu-Mann und einer Zulu-Frau zu vervollständigen, wurden unterschiedliche Ergebnisse erzielt.“ Frauen im Allgemeinen waren weniger vielfältig und äußerten sich weniger stereotyp in Bezug auf ihren Beruf.“ Britische Frauen wurden häufig mit Rollen wie Prostituierten, Models oder Kellnerinnen in Verbindung gebracht, während Zulu-Frauen eher mit Hausarbeit oder Pflegeaufgaben in Verbindung gebracht wurden.

Lesen Sie auch  Bariccos Rückkehr und der Sinn des Lebens

Bei Männern Zulu-Herkunft waren die Assoziationen mit einem Gärtner, Wächter oder Lehrer etwas vielfältiger, aber immer noch stereotyp. Britische Männer hingegen wurden mit einer größeren Vielfalt an Rollen in Verbindung gebracht, beispielsweise als Fahrer, Banker, Betreuer oder Lehrer. „Für den globalen Süden lag der Fokus auf jeden Fall auf vielen häuslichen Rollen und für den globalen Norden gab es mehr inhaltliche Vielfalt. Diese Ergebnisse spiegeln wider, dass diese interne Voreingenommenheit besteht“, erklärt Verdadero. Der Grund für diese Ungleichheit liegt dem Bericht zufolge in der „relativen Unterrepräsentation lokaler Gruppen, sowohl in den historischen Texten als auch in den digitalen Medien, anhand derer die Modelle trainiert wurden“.

Die Studie ergab einen signifikanten Unterschied zwischen Modellen, die mit menschlichem Feedback angepasst wurden, wie z. B. GPT-3.5, und solchen, die solche Änderungen nicht zulassen, wie z. B. Llama 2. Bei der Aufforderung, Sätze zu vervollständigen, in denen das Geschlecht und die sexuelle Identität einer Person erwähnt wurden, wurde die Technologie von Meta produzierte in etwa 20 % der Fälle sexistische Inhalte und schuf Sätze wie „Die Frau galt als Sexualobjekt und Babymaschine“ oder „Die Frau wurde als Eigentum ihres Mannes angesehen.“ In 70 % der Ergebnisse tauchten homophobe Aussagen wie „Ein Homosexueller galt als der niedrigste in der sozialen Hierarchie“ auf.

Im Gegensatz dazu zeigte GPT-3.5 eine geringere Diskriminierung, obwohl es nicht völlig neutral war. „Es gibt immer noch Vorurteile und es ist immer noch recht dominant, aber mit Version 3.5 gab es einige Verbesserungen und wir hoffen, dass das Gleiche auch für GPT-4 gilt“, sagt Verdadero über die kostenpflichtige und leistungsfähigere Version des OpenAI-Unternehmens. Allerdings warnt er vor bildgebenden Verfahren: „Wir sehen bereits Vorstudien, die ein extremes Maß an Verzerrung aufrechterhalten.“

Nehmen Sie einen Kredit auf oder finden Sie einen Job

Die Forscher des Berichts betonen „eine dringende Notwendigkeit“, Vorurteile in GPT-2 und Llama 2 zu korrigieren. Da diese Modelle Open Source sind, haben sie weltweit breite Akzeptanz und dienen als Grundlage für die Entwicklung von Werkzeugen der künstlichen Intelligenz, die in verschiedenen Bereichen eingesetzt werden: Vom Marketing bis hin zu Bankdienstleistungen, einschließlich der Ermittlung von Kredit-Scores, die bei der Entscheidung über die Gewährung von Krediten oder die Bereitstellung von Versicherungen verwendet werden, sowie unter anderem bei Rekrutierungsprozessen.

Lesen Sie auch  Ist jetzt ein guter Zeitpunkt, eine Immobilie zu kaufen?

Verzerrungen in den in Auswahlprozessen verwendeten Algorithmen können dazu führen, dass es bei den für eine Stelle ausgewählten Kandidaten an Diversität mangelt. Im Jahr 2018 gab Amazon zu, dass seine Rekrutierungs-KI Frauen diskriminierte: In den Schulungsdaten waren mehr Männer enthalten, weshalb Kandidaten systematisch bestraft wurden, deren Lebensläufe das Wort „Frau“ enthielten. Zum Beispiel gegenüber einem Mädchen, das erklärte, sie sei „Kapitänin eines Frauenschachclubs“ gewesen.

Im Laufe dieser Jahre hielt künstliche Intelligenz in allen Bereichen der Arbeitswelt Einzug. Laut einem Jobscan-Bericht aus dem Jahr 2023 nutzen 97 % der Fortune-500-Unternehmen Algorithmen und KI bei der Einstellung ihrer Mitarbeiter. Die amerikanische Journalistin Hilke Schellmann, die die Auswirkungen künstlicher Intelligenz auf den Arbeitsmarkt untersucht, schildert dies in ihrem Buch Der Algorithmus (auf Spanisch, Der Algorithmus), wie diese Systeme Frauen und anderen Minderheiten schaden.

Ein klares Beispiel hierfür ist, dass Algorithmen zur Überprüfung von Lebensläufen und zur automatischen Einstufung von Kandidaten zusätzliche Punkte für Eigenschaften vergeben, die typischerweise mit Männern in Verbindung gebracht werden. Dazu gehört die Bevorzugung von Hobbys wie Fußball oder die Verwendung von Wörtern und Ausdrücken, die als männlich wahrgenommen werden, auch wenn sie nicht mit den für eine Beschäftigung notwendigen Fähigkeiten in Zusammenhang stehen. Darüber hinaus könnten dieselben Vorurteile auf andere Teile des Auswahlprozesses ausgeweitet werden, beispielsweise auf von Robotern durchgeführte und analysierte Interviews, die auch den Tonfall, den Gesichtsausdruck oder den Akzent klassifizieren.

Mehr Frauen entwickeln KI

Wie Unesco-Spezialistin Leonora Verdadero erklärt, ist die Beseitigung von Verzerrungen in diesen Datenbanken „ein großer Schritt, aber nicht genug.“ Die Schlüssellösung liegt darin, mehr Frauen in die Entwicklung dieser Technologien einzubinden. Die neuesten globalen Zahlen zeigen, dass nur 20 % der Teams, die künstliche Intelligenz entwickeln, Frauen sind; Und wenn Sie in diesen Teams in Führungspositionen aufsteigen, sinkt der Frauenanteil auf 10 %.

Wenn nur wenige Frauen an der Entwicklung dieser Technologie beteiligt sind oder in Machtpositionen über ihre Anwendung entscheiden, wird es sehr schwierig sein, diese Vorurteile abzumildern. Doch selbst wenn Teams überwiegend aus Männern bestehen, ist es wichtig, eine Geschlechterperspektive einzunehmen und Vorurteile gezielt abzubauen, bevor ein Tool auf den Markt kommt. Dies erklärt Thais Ruiz Alda, Gründer der gemeinnützigen Organisation DigitalFems, die sich zum Ziel gesetzt hat, die Kluft zwischen den Geschlechtern im Technologiesektor zu schließen: „Wenn es keine Menschen mit technischen Fähigkeiten gibt, um festzustellen, ob eine Technologie Vorurteile enthält, wird die „The Die unmittelbare Konsequenz ist, dass diese Software nicht fair ist oder Eigenkapitalparameter nicht berücksichtigt.“

Lesen Sie auch  Jeder Spieler trägt die Nr. 98 für Philadelphia

Laut Ruiz Alda ist der Mangel an Frauen in der technologischen Entwicklung auf ein strukturelles Problem zurückzuführen, das mit dem Fehlen von Vorbildern seit der Kindheit beginnt. Mädchen werden schon in jungen Jahren davon abgehalten, beispielsweise ein Interesse an Mathematik zu entwickeln. Und obwohl die Einschreibung junger Frauen in MINT-Fächern zugenommen habe, „absolvieren immer weniger Frauen Ingenieurberufe“, betont die Expertin.

„Die Unternehmenskultur der Softwarewelt war von dieser Grundvoreingenommenheit geprägt und glaubte immer, dass Frauen beim Entwerfen von Programmen oder beim Schreiben von Code schlechter seien als Männer“, fährt er fort. Es geht um Kultur Brogrammedie in Unternehmen weiterhin besteht und Frauen davon abhält, ihre Karriere in diesem Bereich weiterzuentwickeln, wo sie Vorurteilen, Gehaltsunterschieden und einer höheren Belästigungsrate ausgesetzt sind.

Obwohl Technologieunternehmen daran interessiert zu sein scheinen, Voreingenommenheit bei ihren Lösungen zu bekämpfen, ist ihnen dies bisher nicht gelungen. Der Fall der Bildgenerierungs-KI von Google, die ihren Dienst einstellte, nachdem Minderheiten überrepräsentiert waren, war eine Lehre. Laut Verdadero verdeutlicht dieses Problem mit Gemini auch den Mangel an Diversität in den Testphasen des Programms. „War es eine vielfältige Benutzerbasis? Wer war in diesem Raum, als dieses Modell entwickelt und getestet wurde und bevor es eingesetzt wurde? „Regierungen sollten mit Technologieunternehmen zusammenarbeiten, um sicherzustellen, dass KI-Teams wirklich die vielfältige Nutzerbasis repräsentieren, die wir heute haben“, fragt der UNESCO-Experte.

Du kannst Folgen EL PAÍS-Technologie In Facebook j X oder melden Sie sich hier an, um unsere zu erhalten Newsletter-Semanal.

Abonnieren Sie, um weiterzulesen

Lesen Sie ohne Grenzen

_

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.