In Sudden Alarm fordern Tech Doyens eine Pause auf ChatGPT

Ein Ein offener Brief, der von Hunderten prominenter Experten für künstliche Intelligenz, Technologieunternehmern und Wissenschaftlern unterzeichnet wurde, fordert eine Pause bei der Entwicklung und Erprobung von KI-Technologien, die leistungsfähiger sind als das Sprachmodell GPT-4 von OpenAI, damit die Risiken, die sie darstellen können, angemessen untersucht werden können.

Es warnt davor, dass Sprachmodelle wie GPT-4 bei einer wachsenden Bandbreite von Aufgaben bereits mit Menschen konkurrieren können und zur Automatisierung von Jobs und zur Verbreitung von Fehlinformationen verwendet werden könnten. Der Brief wirft auch die ferne Aussicht auf KI-Systeme auf, die Menschen ersetzen und die Zivilisation neu gestalten könnten.

„Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind (einschließlich des derzeit trainierten GPT-5), unverzüglich für mindestens 6 Monate zu unterbrechen“, heißt es in dem Schreiben, zu dessen Unterzeichnern Yoshua Bengio gehört. ein Professor an der Universität von Montreal, der als Pionier der modernen KI gilt, der Historiker Yuval Noah Harari, der Skype-Mitbegründer Jaan Tallinn und der Twitter-CEO Elon Musk.

Der Brief, der vom Future of Life Institute verfasst wurde, einer Organisation, die sich auf technologische Risiken für die Menschheit konzentriert, fügt hinzu, dass die Pause „öffentlich und überprüfbar“ sein und alle diejenigen einbeziehen sollte, die an fortschrittlichen KI-Modellen wie GPT-4 arbeiten. Es wird nicht vorgeschlagen, wie ein Entwicklungsstopp überprüft werden könnte, aber es wird hinzugefügt, dass „wenn eine solche Pause nicht schnell erlassen werden kann, die Regierungen eingreifen und ein Moratorium einführen sollten“, was unwahrscheinlich ist innerhalb von sechs Monaten.

Microsoft und Google haben auf Bitten um Stellungnahme zu dem Schreiben nicht geantwortet. Zu den Unterzeichnern gehören offenbar Mitarbeiter zahlreicher Technologieunternehmen, die fortschrittliche Sprachmodelle entwickeln, darunter Microsoft und Google. Laut Hannah Wong, einer Sprecherin von OpenAI, hat das Unternehmen nach dem Training des Modells mehr als sechs Monate an der Sicherheit und Ausrichtung von GPT-4 gearbeitet. Sie fügt hinzu, dass OpenAI GPT-5 derzeit nicht trainiert.

Der Brief kommt, während KI-Systeme immer mutigere und beeindruckendere Sprünge machen. GPT-4 wurde erst vor zwei Wochen angekündigt, aber seine Fähigkeiten haben erhebliche Begeisterung und eine Menge Besorgnis geweckt. Das Sprachmodell, das über ChatGPT, den beliebten Chatbot von OpenAI, verfügbar ist, schneidet bei vielen akademischen Tests gut ab und kann knifflige Fragen korrekt lösen, von denen allgemein angenommen wird, dass sie eine fortgeschrittenere Intelligenz erfordern, als KI-Systeme bisher gezeigt haben. Doch GPT-4 macht auch viele triviale, logische Fehler. Und wie seine Vorgänger „halluziniert“ es manchmal falsche Informationen, verrät tief verwurzelte gesellschaftliche Vorurteile und kann dazu veranlasst werden, hasserfüllte oder potenziell schädliche Dinge zu sagen.

Lesen Sie auch  Ford und United Auto Workers einigen sich auf eine Einigung, die den Streik beenden könnte

Ein Teil der von den Unterzeichnern des Briefes geäußerten Besorgnis besteht darin, dass OpenAI, Microsoft und Google einen gewinnorientierten Wettlauf begonnen haben, um so schnell wie möglich neue KI-Modelle zu entwickeln und zu veröffentlichen. Bei einem solchen Tempo, so argumentiert der Brief, vollziehen sich Entwicklungen schneller, als die Gesellschaft und die Regulierungsbehörden damit fertig werden können.

Das Tempo des Wandels – und das Ausmaß der Investitionen – ist erheblich. Microsoft hat 10 Milliarden US-Dollar in OpenAI gesteckt und nutzt seine KI in seiner Suchmaschine Bing sowie in anderen Anwendungen. Obwohl Google einen Teil der KI entwickelt hat, die zum Erstellen von GPT-4 erforderlich ist, und zuvor eigene leistungsstarke Sprachmodelle erstellt hat, entschied es sich bis zu diesem Jahr, sie aus ethischen Bedenken nicht zu veröffentlichen.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.