Zu gefährlich für KI? EU schlägt risikobasierte Regeln vor

Im Rahmen ihrer aufkommenden Rolle als globaler Regulierungswächter veröffentlichte die Europäische Kommission am 21. April einen Vorschlag für Vorschriften zur Regelung des Einsatzes künstlicher Intelligenz in der Europäischen Union.

Die wirtschaftlichen Einsätze sind hoch: die Kommission sagt voraus Die öffentlichen und privaten Investitionen Europas in KI beliefen sich in diesem Jahrzehnt auf 20 Mrd. EUR pro Jahr. Dies war vor der zusätzlichen Mittelausstattung von bis zu 134 Mrd. EUR für digitale Übergänge im europäischen Covid-19-Pandemie-Wiederherstellungsfonds vorgesehen, von denen einige nach Ansicht der Kommission finanziert werden KI auch. Hinzu kommt, dass Investitionen in KI außerhalb der EU gezählt werden, die sich jedoch an EU-Bürger richten, da diese Regeln für jede Verwendung von KI in der EU gelten, nicht nur für Unternehmen oder Regierungen mit Sitz in der EU.

Die Dinge werden sich nicht über Nacht ändern: Der Vorschlag der EU für KI-Regeln ist das Ergebnis einer dreijährigen Arbeit von Bürokraten, Branchenexperten und öffentlichen Konsultationen und muss das Europäische Parlament – das ihn angefordert hat – durchlaufen, bevor er zum Gesetz werden kann. Die EU-Mitgliedstaaten brauchen dann oft Jahre, um Vorschriften auf EU-Ebene in ihre nationalen Rechtskodizes umzusetzen.

Der Vorschlag definiert vier Ebenen für AI-bezogene Aktivitäten und unterschiedliche Aufsichtsebenen für jede. Die erste Stufe ist inakzeptables Risiko: Einige KI-Anwendungen würden im öffentlichen Raum vollständig verboten, mit bestimmten Ausnahmen, die durch nationale Gesetze gewährt werden und einer zusätzlichen Aufsicht und einer strengeren Protokollierung sowie menschlicher Aufsicht unterliegen. Die zu verbietende KI-Aktivität, die wahrscheinlich die größte Aufmerksamkeit auf sich gezogen hat, ist die biometrische Fernidentifikation in Echtzeit, dh die Gesichtserkennung. Der Vorschlag verbietet auch unterschwellige Verhaltensänderungen und Anwendungen für soziale Bewertungen. Der Vorschlag sieht Geldstrafen von bis zu 6 Prozent des weltweiten Jahresumsatzes von Verstößen gegen das Handelsrecht vor.

Lesen Sie auch  Die Größe der Nord Stream-Explosionen entspricht einer großen Menge Sprengstoff, teilte die UN mit | Pipeline Nord Stream 1

Der Vorschlag definiert als nächstes a hohes Risiko Kategorie, bestimmt durch den Zweck des Systems und das Potenzial und die Wahrscheinlichkeit eines Schadens. Beispiele, die im Vorschlag aufgeführt sind, sind die Einstellung von Arbeitsplätzen, Bonitätsprüfungen und das Justizsystem. Die Regeln würden erfordern, dass solche KI-Anwendungen hochwertige Datensätze verwenden, ihre Rückverfolgbarkeit dokumentieren, Informationen mit Benutzern teilen und die menschliche Kontrolle berücksichtigen. Die EU würde ein zentrales Register solcher Systeme gemäß den vorgeschlagenen Regeln erstellen und vor dem Einsatz eine Genehmigung benötigen.

Begrenztes Risiko Aktivitäten wie die Verwendung von Chatbots oder Deepfakes auf einer Website haben weniger Kontrolle, erfordern jedoch ein Warnschild, damit Benutzer sich anmelden oder abmelden können. Dann gibt es endlich eine Stufe für Bewerbungen, deren Präsentation beurteilt wird minimales Risiko.

Wie so oft, wenn Regierungen dichte neue Regelwerke vorschlagen (dieses umfasst 108 Seiten), scheinen die ersten Reaktionen von Industrie- und Zivilgesellschaftsgruppen mehr auf die Existenz und Reichweite der Industrieaufsicht als auf den spezifischen Inhalt der Regeln zu beruhen. Ein von Technik finanzierter Think Tank sagte dem Wall Street Journal, dass es “unmöglich werden könnte, KI in Europa aufzubauen”. Im Gegenzug sagten datenschutzorientierte zivilgesellschaftliche Gruppen wie European Digital Rights (EDRi) in einer Erklärung, dass die „Regulierung einen zu weiten Spielraum für die Selbstregulierung durch Unternehmen zulässt“.

“Ich denke, eine der Ideen hinter dieser Verordnung war es, das Risiko auszugleichen und die Menschen für KI zu begeistern und das Vertrauen wiederzugewinnen”, sagt er Lisa-Maria Neudert, AI-Governance-Forscherin an der Universität Oxford, England, und am Weizenbaum-Institut in Berlin. Eine Umfrage der Lloyds Register Foundation aus dem Jahr 2019 ergab, dass die globale Öffentlichkeit in etwa gleichmäßig zwischen Angst und Aufregung über KI aufgeteilt ist.

Lesen Sie auch  Das neueste Konzept von VW ist ein selbstfahrender Travel Pod, der Kurzflüge ersetzen kann

“Ich kann mir vorstellen, dass es hilfreich sein könnte, wenn Sie ein erfahrenes großes Rechtsteam haben”, sagt Neudert, um bei der Einhaltung von Vorschriften zu helfen, und es könnte “ein schwieriges Gleichgewicht” zwischen Regeln sein, die Startup-freundlich bleiben und es schaffen, Mega-Regeln einzuhalten. Unternehmen.

Die KI-Forscher Mona Sloane und Andrea Renda schreiben in VentureBeat, dass die Regeln für die Überwachung des KI-Verhaltens nach Genehmigung und Start schwächer sind, und vernachlässigen „ein entscheidendes Merkmal des KI-bezogenen Risikos: dass es allgegenwärtig ist und sich entwickelt und häufig weiterentwickelt auf unvorhersehbare Weise, nachdem es entwickelt und bereitgestellt wurde. “

Europa hat bereits aus den Auswirkungen seiner umfassenden Allgemeinen Datenschutzverordnung (DSGVO) von 2018 auf die globale Technologie und den Datenschutz gelernt. Ja, einige externe Websites bieten den Europäern immer noch eine Seite, auf der ihnen mitgeteilt wird, dass die Websitebesitzer nicht die Mühe haben, die DSGVO einzuhalten, sodass die Europäer keinen Inhalt sehen können. Die meisten haben jedoch einen Weg gefunden, sich anzupassen, um diesen einheitlichen Markt von 448 Millionen Menschen zu erreichen.

„Ich denke nicht, dass wir verallgemeinern sollten [from GDPR to the proposed AI rules]Es ist jedoch fair anzunehmen, dass ein so großes Gesetz Auswirkungen über die EU hinaus haben wird “, sagt Neudert. Es wird für Gesetzgeber an anderen Orten einfacher sein, einer Vorlage zu folgen, als die hohen Investitionen der EU in Forschung, Engagement der Gemeinschaft und Verfassen von Regeln zu wiederholen.

Während Tech-Unternehmen und ihre Branchengruppen möglicherweise über die Notwendigkeit meckern, die beginnenden KI-Regeln einzuhalten, schlägt der Register-Kolumnist Rupert Goodwin vor, sich besser auf die Bildung von Branchengruppen zu konzentrieren, die die Implementierung und Durchsetzung der Regeln in Zukunft gestalten werden : „Möglicherweise sind Sie bereits in einer der Branchenorganisationen für KI-Ethik oder -Bewertung. Wenn nicht, dann betrachten Sie sie als die Samen, aus denen der Einfluss wachsen wird. “

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.