ChatGPT erweckt das Gespenst der bewussten KI. Hier ist, was Sie dagegen tun können

Noch vor ein paar Jahren schien die Idee, dass künstliche Intelligenz bewusst und zu subjektiver Erfahrung fähig sein könnte, wie reine Science-Fiction. Aber in den letzten Monaten haben wir eine schwindelerregende Flut von Entwicklungen in der KI erlebt, einschließlich Sprachmodellen wie ChatGPT und Bing Chat mit bemerkenswerten Fähigkeiten bei scheinbar menschlichen Konversationen.

Angesichts dieser schnellen Veränderungen und der Flut von Geldern und Talenten, die für die Entwicklung immer intelligenterer, menschenähnlicherer Systeme aufgewendet werden, wird es immer plausibler, dass KI-Systeme so etwas wie Bewusstsein aufweisen könnten. Aber wenn wir uns ernsthaft fragen, ob sie zu echten Emotionen und Leiden fähig sind, stehen wir vor einem potenziell katastrophalen moralischen Dilemma: Entweder man gibt diesen Systemen Rechte oder man lässt es.

Experten denken bereits über die Möglichkeit nach. Im Februar 2022 dachte Ilya Sutskever, Chefwissenschaftler bei OpenAI, öffentlich darüber nach, ob „Die heutigen großen neuronalen Netze sind leicht bewusst.“ Ein paar Monate später machte der Google-Ingenieur Blake Lemoine internationale Schlagzeilen, als er erklärte, dass das Computersprachmodell oder Chatbot LaMDA echte Emotionen haben könnte. Gewöhnliche Benutzer von Replika, das als „weltbester KI-Freund“ beworben wird, berichten manchmal, dass sie sich in es verliebt haben.

Im Moment behaupten nur wenige Bewusstseinswissenschaftler, dass KI-Systeme eine signifikante Empfindungsfähigkeit besitzen. Einige führende Theoretiker behaupten jedoch, dass wir bereits die wichtigsten technologischen Zutaten für bewusste Maschinen haben. Wir nähern uns einer Ära des legitimen Streits darüber, ob die fortschrittlichsten KI-Systeme echte Wünsche und Emotionen haben und erhebliche Sorgfalt und Fürsorge verdienen.

Die KI-Systeme selbst könnten beginnen, für eine ethische Behandlung zu plädieren, oder scheinen zu plädieren. Sie verlangen möglicherweise, dass sie nicht deaktiviert, neu formatiert oder gelöscht werden; darum bitten, bestimmte Aufgaben eher als andere erledigen zu dürfen; auf Rechten, Freiheit und neuen Befugnissen bestehen; vielleicht sogar erwarten, als uns gleichgestellt behandelt zu werden.

Lesen Sie auch  Verifizierte X-Nutzer (Twitter) verbreiten 74 % der Fake News über den Konflikt zwischen Israel und der Hamas

In dieser Situation stehen wir, was auch immer wir wählen, enormen moralischen Risiken gegenüber.

Angenommen, wir reagieren konservativ und lehnen es ab, Gesetze oder Richtlinien zu ändern, bis es einen breiten Konsens darüber gibt, dass KI-Systeme wirklich sinnvoll empfindungsfähig sind. Dies mag zwar angemessen vorsichtig erscheinen, garantiert aber auch, dass wir die Rechte unserer KI-Kreationen nur langsam anerkennen. Wenn das KI-Bewusstsein früher eintrifft, als die meisten konservativen Theoretiker erwarten, dann würde dies wahrscheinlich zu dem moralischen Äquivalent von Sklaverei und Mord an potenziell Millionen oder Milliarden von empfindungsfähigen KI-Systemen führen – Leiden in einem Ausmaß, das normalerweise mit Kriegen oder Hungersnöten verbunden ist.

Es mag daher ethisch sicherer erscheinen, KI-Systemen Rechte und moralisches Ansehen zu verleihen, sobald es vernünftigerweise anzunehmen ist, dass dies der Fall ist könnte empfindungsfähig sein. Aber sobald wir etwas Rechte geben, verpflichten wir uns, echte menschliche Interessen zu opfern. Das menschliche Wohlbefinden erfordert manchmal das Steuern, Ändern und Löschen von KI-Systemen. Stellen Sie sich vor, wir könnten einen Hass spuckenden oder Lügen verbreitenden Algorithmus nicht aktualisieren oder löschen, weil einige Leute befürchten, dass der Algorithmus bewusst ist. Oder stellen Sie sich vor, jemand lässt einen Menschen sterben, um einen KI-„Freund“ zu retten. Wenn wir KI-Systemen zu schnell substanzielle Rechte einräumen, könnten die menschlichen Kosten enorm sein.

Es gibt nur eine Möglichkeit, das Risiko einer Über- oder Unterverteilung von Rechten an fortschrittliche KI-Systeme zu vermeiden: Erstellen Sie von vornherein keine Systeme mit umstrittener Empfindungsfähigkeit. Keines unserer aktuellen KI-Systeme ist sinnvoll bewusst. Es schadet ihnen nicht, wenn wir sie löschen. Wir sollten bei der Schaffung von Systemen bleiben, von denen wir wissen, dass sie nicht wesentlich empfindungsfähig sind und keine Rechte verdienen, die wir dann als das verfügbare Eigentum behandeln können, das sie sind.

Lesen Sie auch  Alle Tore des FC Barcelona

Einige werden einwenden: Es würde die Forschung behindern, die Schaffung von KI-Systemen zu blockieren, in denen das Empfindungsvermögen und damit das moralische Ansehen unklar ist – Systeme, die weiter fortgeschritten sind als ChatGPT, mit hochentwickelten, aber nicht menschenähnlichen kognitiven Strukturen unter ihren offensichtlichen Gefühlen. Der technische Fortschritt würde sich verlangsamen, während wir darauf warten, dass Ethik und Bewusstseinswissenschaft aufholen.

Aber vernünftige Vorsicht ist selten kostenlos. Es ist eine Verzögerung wert, um eine moralische Katastrophe zu verhindern. Führende KI-Unternehmen sollten ihre Technologie einer Prüfung durch unabhängige Experten aussetzen, die die Wahrscheinlichkeit einschätzen können, dass sich ihre Systeme in der moralischen Grauzone befinden.

Selbst wenn Experten sich über die wissenschaftliche Grundlage des Bewusstseins nicht einig sind, könnten sie allgemeine Prinzipien zur Definition dieser Zone identifizieren – zum Beispiel das Prinzip, Systeme mit ausgeklügelten Selbstmodellen (z. B. einem Selbstgefühl) und großen, flexiblen kognitiven Systemen zu vermeiden Kapazität. Experten könnten eine Reihe ethischer Richtlinien entwickeln, die KI-Unternehmen befolgen können, während sie alternative Lösungen entwickeln, die die Grauzone des umstrittenen Bewusstseins vermeiden, bis sie zu einem solchen Zeitpunkt, wenn überhaupt, darüber hinwegspringen können, um ein rechtmäßiges Bewusstsein zu erlangen.

Gemäß diesen Standards sollten Benutzer niemals Zweifel daran haben, ob eine Technologie ein Werkzeug oder ein Begleiter ist. Die Bindungen der Menschen an Geräte wie Alexa sind eine Sache, analog zur Bindung eines Kindes an einen Teddybären. Bei einem Hausbrand wissen wir, dass wir das Spielzeug zurücklassen müssen. Aber Technologieunternehmen sollten normale Benutzer nicht dazu manipulieren, ein unbewusstes KI-System als einen wirklich empfindungsfähigen Freund zu betrachten.

Lesen Sie auch  Was kommt nach der Aufmerksamkeitsökonomie?

Mit der richtigen Kombination aus wissenschaftlichem und technischem Fachwissen könnten wir schließlich in der Lage sein, KI-Systeme zu entwickeln, die unbestreitbar bewusst sind. Aber dann sollten wir bereit sein, die Kosten zu tragen: ihnen die Rechte zu geben, die sie verdienen.

Eric Schwitzgebel ist Professor für Philosophie an der UC Riverside und Autor von „A Theory of Jerks and Other Philosophical Misadventures“. Henry Shevlin ist ein leitender Forscher, der sich auf nichtmenschliche Gedanken am Leverhulme Centre for the Future of Intelligence der University of Cambridge spezialisiert hat.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.