Großbritannien überdenkt die KI-Gesetzgebung, da die Besorgnis über potenzielle Risiken zunimmt

Schalten Sie den Editor’s Digest kostenlos frei

Die britische Regierung beginnt mit der Ausarbeitung neuer Gesetze zur Regulierung der künstlichen Intelligenz, Monate nachdem der Premierminister geschworen hat, „keine Eile“ bei der Festlegung von Regeln für die schnell wachsende Technologie zu haben.

Laut zwei Personen, die über die Pläne informiert wurden, würde eine solche Gesetzgebung wahrscheinlich die Produktion großer Sprachmodelle einschränken, der Allzwecktechnologie, die KI-Produkten wie ChatGPT von OpenAI zugrunde liegt.

Die Leute sagten, es sei nicht in Stein gemeißelt, was diese Gesetzgebung abdecken würde oder wann sie veröffentlicht würde, und stellten fest, dass in Kürze nichts eingeführt würde. Einer von ihnen sagte jedoch, dass es wahrscheinlich darum gehen würde, Unternehmen, die die ausgefeiltesten Modelle entwickeln, vorzuschreiben, ihre Algorithmen mit der Regierung zu teilen und den Nachweis zu erbringen, dass sie Sicherheitstests durchgeführt haben.

Die Pläne kommen zu einem Zeitpunkt, an dem Regulierungsbehörden, darunter auch die britische Wettbewerbsaufsichtsbehörde, zunehmend besorgt über mögliche Schäden sind. Diese reichen von der Möglichkeit, dass Technologie Vorurteile hervorrufen könnte, die sich auf bestimmte Bevölkerungsgruppen auswirken, bis hin zur möglichen Verwendung von Allzweckmodellen zur Herstellung schädlicher Materialien.

„Beamte prüfen, ob die Regulierung der leistungsstärksten KI-Modelle voranschreiten soll“, sagte einer der über die Situation informierten Personen und fügte hinzu, dass das Ministerium für Wissenschaft, Innovation und Technologie „seine Überlegungen darüber entwickelt“, wie die KI-Gesetzgebung aussehen würde.

Eine andere Person sagte, die Regeln würden für die großen Sprachmodelle gelten, die hinter KI-Produkten wie ChatGPT stehen, und nicht für die Anwendungen selbst.

Lesen Sie auch  Gefängnis für den ehemaligen Grapo-Terroristen, der in Vigo einen Mann erschoss, als sie sich wegen einiger Hunde stritten

Sarah Cardell, die Geschäftsführerin der britischen Wettbewerbs- und Marktaufsichtsbehörde, warnte letzte Woche, dass sie „echte Bedenken“ habe, dass eine kleine Anzahl von Technologieunternehmen, die KI-Grundlagenmodelle entwickeln, „sowohl die Fähigkeit als auch den Anreiz haben könnten, diese Märkte in ihrem Umfeld zu gestalten.“ Eigeninteresse“.

Die Regulierungsbehörde identifizierte ein „vernetztes Netz“ von mehr als 90 Partnerschaften und strategischen Investitionen, an denen dieselben Unternehmen beteiligt sind: Google, Apple, Microsoft, Meta, Amazon und Nvidia.

Das Vereinigte Königreich zögert, auf rechtliche Eingriffe in die Entwicklung und Einführung von KI-Modellen zu drängen, aus Angst, eine strenge Regulierung könnte das Branchenwachstum behindern. Stattdessen hat man sich auf freiwillige Vereinbarungen mit Regierungen und Unternehmen verlassen und so eine kurzfristige Gesetzgebung ausgeschlossen.

Im November sagte Viscount Jonathan Camrose, Minister für KI, dass es „kurzfristig“ kein britisches Gesetz zu KI geben werde. Rishi Sunak, der Premierminister, sagte einen Monat zuvor, dass „die Antwort des Vereinigten Königreichs nicht darin besteht, die Regulierung zu überstürzen“.

„Dies ist eine grundsätzliche Frage; Wir glauben an Innovation“, sagte Sunak im Oktober. „Wie können wir Gesetze schreiben, die für etwas Sinn ergeben, das wir noch nicht vollständig verstehen?“

Die EU hat einen härteren Ansatz gewählt. Das Europäische Parlament hat letzten Monat mit dem KI-Gesetz einige der ersten und strengsten Regeln zur Regulierung der Technologie verabschiedet.

KI-Start-ups kritisieren die EU-Vorschriften, die sie als Überregulierung betrachten, die Innovationen behindern könnte. Diese strenge Gesetzgebung hat andere Länder wie Kanada und die Vereinigten Arabischen Emirate dazu veranlasst, einzugreifen und zu versuchen, einige der vielversprechendsten Technologieunternehmen Europas zur Umsiedlung zu bewegen.

Lesen Sie auch  Das düstere Leben und der brutale Tod eines Wagner-Rekruten

Bisher hat das Vereinigte Königreich die Verantwortung für die Klärung, welche aktuellen Rechtsvorschriften für KI gelten, an die bestehenden Regulierungsbehörden delegiert. Diese Aufsichtsbehörden wurden gebeten, bis Ende dieses Monats Papiere einzureichen, in denen dargelegt wird, wie sie die KI in ihren Bereichen regulieren wollen.

Die Medienaufsichtsbehörde Ofcom, die ihren Ansatz veröffentlicht hat, prüft, wie generative KI durch das im Oktober verabschiedete Online Safety Act abgedeckt werden kann, um Kinder und Erwachsene im Internet zu schützen.

Regierungsbeamte haben in einer kürzlich durchgeführten Konsultation sogenannte „Allzweck“-KI-Modelle – solche, die hochintelligent und anpassungsfähig für den Einsatz bei einer Vielzahl von Aufgaben sind – als wahrscheinliche Ziele für weitere rechtliche und regulatorische Eingriffe herausgestellt.

Technologieunternehmen haben diesen Ansatz kritisiert, bei dem Modelle nach Größe ausgerichtet werden, beispielsweise „Allzweck-“ oder „Frontier-Modelle“, die häufig zur Beschreibung des großen Sprachtyps verwendet werden, der Produkten wie ChatGPT oder Googles Gemini zugrunde liegt.

„Im Moment arbeiten die Regulierungsbehörden an einer ziemlich groben Faustregel, die besagt, dass zukünftige Modelle eine bestimmte Größe haben oder eine bestimmte Größe überschreiten. . . Daher sollte es eine größere Offenlegung geben“, sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta, letzten Dienstag.

„Ich glaube nicht, dass irgendjemand glaubt, dass dies im Laufe der Zeit die rationalste Vorgehensweise ist“, fügte er hinzu, „denn in der Zukunft wird es kleinere, fein abgestimmte Modelle geben, die auf bestimmte Zwecke ausgerichtet sind, die wohl sinnvoller sein könnten.“ einer größeren Prüfung als sehr große, massige, große Allzweckmodelle, die vielleicht weniger besorgniserregend sind.“

„Wie wir bereits gesagt haben, müssen irgendwann alle Länder irgendeine Form von KI-Gesetzgebung einführen, aber wir werden dies nicht überstürzen, bis ein klares Verständnis der Risiken besteht“, sagte ein Regierungssprecher.

Lesen Sie auch  Studie legt nahe, dass die Krise der Lebenshaltungskosten für den Anstieg der Cyberkriminalität verantwortlich sein könnte

„Denn es würde letztlich zu Maßnahmen führen, die schnell unwirksam und veraltet wären.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.