Gefährliche KI-Systeme brauchen einen „Rauchmelder“, warnen britische Minister | Künstliche Intelligenz (KI)

Ein „Rauchmelder“ für gefährliche Systeme der künstlichen Intelligenz sei erforderlich, um eine Reihe schwerwiegender Bedrohungen wie Massenverluste an Menschenleben, Cyberangriffe und außer Kontrolle geratene KI-Technologie abzuwehren, warnten britische Minister.

Die Technologieministerin Michelle Donelan sagte, sie hoffe, dass ein bevorstehender Sicherheitsgipfel in Großbritannien dazu beitragen werde, ein Frühwarnsystem einzurichten, mit dem Technologieunternehmen nach Risiken in den von ihnen entwickelten KI-Produkten suchen und wissen, wie sie darauf reagieren sollen.

“Wir brauchen [something] „Es ist fast so, als würde ein Rauchmelder eingerichtet, damit Unternehmen nicht nur nach den Risiken suchen, sondern auch auf das Risiko reagieren“, sagte sie. „Das ist die Art von System, die wir flächendeckend sehen müssen.“

Bei einer Rede im Bletchley Park, wo im November das zweitägige Gipfeltreffen stattfinden wird, sagte Donelan, es gäbe „unglaubliche Chancen“ rund um die KI, aber „wir können diese Chancen nur dann wirklich nutzen, wenn wir die Risiken im Griff haben“.

Die Regierung sagte am Montag, dass sich das Treffen insbesondere auf zwei Bereiche konzentrieren werde: Missbrauch von KI-Systemen zur Herstellung von Biowaffen oder Cyberangriffen; und die Unfähigkeit, die fortschrittlichsten Systeme zu kontrollieren.

Es versteht sich, dass Rishi Sunak davon überzeugt ist, dass die Zeit knapp wird, um einen weltweiten Konsens darüber zu erzielen, was die schwerwiegendsten KI-Risiken darstellt und wie mit ihnen umzugehen ist, da Technologieunternehmen größere Rechenleistung, technologische Durchbrüche und höhere Investitionen nutzen, um immer leistungsfähigere Modelle zu entwickeln .

Es wird nicht erwartet, dass auf dem Gipfel ein internationaler Vertrag über die KI-Entwicklung im Nuklearwaffenstil zustande kommt, sondern vielmehr die Bandbreite der schwerwiegenden Risiken, die KI-Systeme mit sich bringen könnten, und Maßnahmen zu deren Eindämmung dargelegt werden. Der Schwerpunkt liegt auf „Frontier“-KI-Modellen oder hochmodernen Systemen, deren Leistungsfähigkeit den fortschrittlichsten derzeit betriebenen Modellen entspricht oder diese übertrifft – und die eine Gefahr für Menschenleben darstellen könnten.

Die Regierung sagte, der Gipfel wolle herausfinden, wo die Grenzen der KI-Entwicklung jetzt liegen und wohin sie führen könnte. An dem Treffen im Bletchley Park in Buckinghamshire, der Heimat von Codeknackern wie Alan Turing während des Zweiten Weltkriegs, nehmen weltweit führende Persönlichkeiten, KI-Unternehmen, Akademiker und zivilgesellschaftliche Gruppen teil.

Lesen Sie auch  Japans Benchmark Nikkei schließt zum ersten Mal seit 33 Jahren über 33.000

In einer Erklärung vom Montag sagte die Regierung, dass Modelle, die „um ein Vielfaches“ leistungsfähiger sind als die derzeit betriebenen, wie das GPT-4-Modell, das ChatGPT von OpenAI antreibt, bald veröffentlicht werden könnten.

„Die Fähigkeiten dieser Modelle sind sehr schwer vorherzusagen – manchmal sogar für diejenigen, die sie bauen – und standardmäßig könnten sie einem breiten Spektrum von Akteuren zur Verfügung gestellt werden, einschließlich denen, die uns Schaden zufügen könnten.“

KI-Experten befürchten, dass sich fortschrittliche Systeme der menschlichen Kontrolle entziehen könnten. Diese Befürchtungen konzentrieren sich auf die Möglichkeit von Durchbrüchen in der künstlichen allgemeinen Intelligenz, der Bezeichnung für eine KI mit menschlichem oder übermenschlichem Intelligenzniveau, die theoretisch alle ihr auferlegten Leitplanken überwinden könnte.

In der Erklärung der Regierung zur Vorschau auf den Gipfel am Montag hieß es, dass die Umgehung von Systemen ein Schwerpunktthema sein werde. Es verwies auf „Kontrollverlustrisiken“, die sich aus „fortgeschrittenen Systemen ergeben könnten, die wir mit unseren Werten und Absichten in Einklang bringen möchten“.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.