Wer sollte die Regeln für die KI festlegen?

Erkunden

Eine Frage an Laura Weidinger Und Jason Gabrielforschen Wissenschaftler bei Google DeepMind, einem in London ansässigen KI-Unternehmen, wo sie sich beide auf die ethischen, politischen und sozialen Auswirkungen von KI konzentrieren.

Im Körperbild
Linkes Foto mit freundlicher Genehmigung von Laura Weidinger; rechtes Foto mit freundlicher Genehmigung von Iason Gabriel

Wer sollte die Regeln für die KI festlegen?

WWir sind der Meinung, dass jeder, der von diesen Technologien betroffen sein wird, ein Mitspracherecht darüber haben sollte, welche Prinzipien ihnen zugrunde liegen. Dies stellt eine praktische Herausforderung dar: Wie sammeln wir die Ansichten dieser Menschen aus der ganzen Welt? Und wie machen wir das wiederholt, wenn man bedenkt, dass sich Präferenzen und Ansichten zu KI im Laufe der Zeit wahrscheinlich ändern werden? Wir glauben, dass das Sammeln dieser Ansichten auf faire, integrative und partizipatorische Weise ein zentrales ungelöstes Problem für den Aufbau gerechter oder fairer KI-Systeme ist. Und wir versuchen, dieses Problem in unserem neuen Papier zu lösen.

Wir haben ein Team aus Philosophen, Psychologen und KI-Forschern zusammengestellt, um empirische Beweise zu sammeln, die die Debatten darüber ergänzen, welche Mechanismen verwendet werden sollten, um Prinzipien zu identifizieren, die die KI steuern. Wir konzentrieren uns auf einen Proof of Concept für einen Prozess, der es uns ermöglicht, die wohlüberlegten Ansichten der Menschen zu diesen Themen einzuholen. Dazu führten wir fünf Studien mit insgesamt 2.508 Teilnehmern durch und testeten ein Gedankenexperiment aus der politischen Philosophie, das Grundsätze der Gerechtigkeit herausarbeiten soll – Prinzipien, die zu fairen Ergebnissen führen und für alle akzeptabel sein sollten, wenn sie unvoreingenommen darüber nachdenken Weg.

Wie können faire Prinzipien zur Steuerung der KI ermittelt werden?

Dieses Gedankenexperiment ist als „Schleier der Unwissenheit“ bekannt und wurde vom politischen Philosophen John Rawls entwickelt. Es soll dazu beitragen, faire Grundsätze für die Führung der Gesellschaft ans Licht zu bringen. Wir haben diesen Test erweitert, um zu sehen, wie er bei der Ermittlung von Regeln zur Steuerung der KI funktionieren könnte. Die Idee dieses Gedankenexperimentes besteht darin, dass Menschen, die Regeln oder Gesetze wählen, ohne zu wissen, welche Auswirkungen diese Regeln auf sie haben würden, diese nicht auf eine Weise wählen können, die ihren eigenen Interessen dient. Da sich niemand übermäßig begünstigen kann, sollte jeder, der hinter dem Schleier eine Entscheidung trifft, Grundsätze wählen, die für alle fair sind. Wir setzen dieses Gedankenexperiment auf verschiedene Arten um, bei denen Menschen Prinzipien zur Steuerung der KI festlegen.

Lesen Sie auch  Warum sehen wir an sehr heißen Tagen Wasserpfützen auf den Straßen?

Unsere Studie legt nahe, dass Menschen, die ihre eigene soziale Position nicht kennen – ob sie bevorzugt oder benachteiligt sind – eher dazu neigen, Prinzipien zur Steuerung der KI auszuwählen, die diejenigen begünstigen, denen es am schlechtesten geht. Dies spiegelt die Spekulation von Rawls wider – er ging davon aus, dass die Menschen, die hinter dem Schleier argumentieren, sich dafür entscheiden würden, diejenigen zu priorisieren, denen es in einer Gesellschaft am schlechtesten geht.

Unsere Studie wurde von der Beobachtung inspiriert, dass KI-Systeme ohne eine gezielte Ausrichtung wahrscheinlich denjenigen, denen es bereits gut geht, überproportional zugute kommen. Wir haben auch festgestellt, dass Debatten über die „KI-Ausrichtung“ neue Perspektiven und neuartige Ansätze benötigen – solche, die sich direkt mit den unterschiedlichen Überzeugungen und Meinungen verschiedener Gruppen und Einzelpersonen befassen. Deshalb haben wir uns entschieden, einen neuen, interdisziplinären Ansatz auszuprobieren – den Einsatz von Methoden der experimentellen Philosophie –, um der Forschungsfrage nachzugehen: „Wie können faire Prinzipien zur Steuerung der KI identifiziert werden?“

Obwohl dies nur ein Proof of Concept und eine Studie ist, die wir mit einer relativ kleinen Anzahl von Online-Teilnehmern im Vereinigten Königreich durchgeführt haben, ist es ermutigend zu sehen, dass Menschen, wenn sie hinter dem Schleier über KI nachdenken, darüber nachdenken, was fair ist. Darüber hinaus möchten sie in den meisten Fällen, dass die KI einer Regel folgt, die den Schlechtesten Priorität einräumt, und nicht einer Regel, die den Gesamtnutzen maximiert, wenn dies denjenigen zugute kommt, denen es bereits gut geht. Dies hängt mit einer feministischen Sichtweise zusammen, nämlich dass es fair und letztendlich besser für die Gesellschaft insgesamt ist, diejenigen zu zentrieren und zu unterstützen, die am stärksten benachteiligt und ausgegrenzt sind.

Lesen Sie auch  Wer ist Admiral Lisa Franchetti, die erste Frau an der Spitze der US-Marine? - Der Express

Wir behaupten nicht, dass Experimente wie unseres allein der Weg sind, Prinzipien zu bestimmen, die die KI regeln – dafür sind demokratisch legitimierte Wege erforderlich. Wir glauben jedoch, dass wir Prinzipien identifiziert haben, die von Menschen befürwortet werden, die unparteiischer denken und über Gerechtigkeit nachdenken. Wenn wir also darüber nachdenken, welche Prinzipien wir von Anfang an in die KI einbauen müssen, um gerechte Systeme zu schaffen, ist die Priorisierung der am schlechtesten gestellten Systeme ein guter Ausgangspunkt.

Hauptbild: icedmocha / Shutterstock

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.