Die Europäische Union hat am Mittwoch strenge Vorschriften für den Einsatz künstlicher Intelligenz erlassen, eine einzigartige Politik, die beschreibt, wie Unternehmen und Regierungen eine Technologie einsetzen können, die als einer der bedeutendsten, aber ethisch belasteten wissenschaftlichen Durchbrüche angesehen wird letzte Erinnerung.
Der Regelungsentwurf würde dem Einsatz künstlicher Intelligenz bei einer Reihe von Aktivitäten Grenzen setzen, von selbstfahrenden Autos über Einstellungsentscheidungen, Bankkredite, Auswahl der Einschulung bis hin zur Bewertung von Prüfungen. Es würde auch den Einsatz künstlicher Intelligenz durch Strafverfolgungs- und Gerichtssysteme abdecken – Bereiche, die als „hohes Risiko“ eingestuft werden, weil sie die Sicherheit oder die Grundrechte der Menschen gefährden könnten.
Einige Verwendungen wären insgesamt verboten, einschließlich der Live-Gesichtserkennung im öffentlichen Raum, obwohl es mehrere Ausnahmen für die nationale Sicherheit und andere Zwecke geben würde.
Die 108-seitige Richtlinie ist ein Versuch, eine aufkommende Technologie zu regulieren, bevor sie zum Mainstream wird. Die Regeln haben weitreichende Auswirkungen auf große Technologieunternehmen, die Ressourcen in die Entwicklung künstlicher Intelligenz gesteckt haben, darunter Amazon, Google, Facebook und Microsoft, aber auch auf zahlreiche andere Unternehmen, die die Software zur Entwicklung von Medikamenten, zum Abschluss von Versicherungspolicen und zur Beurteilung der Kreditwürdigkeit verwenden . Die Regierungen haben Versionen der Technologie in der Strafjustiz und bei der Zuweisung öffentlicher Dienstleistungen wie Einkommensunterstützung eingesetzt.
Unternehmen, die gegen die neuen Vorschriften verstoßen, die mehrere Jahre brauchen könnten, um den politischen Entscheidungsprozess der Europäischen Union zu durchlaufen, könnten mit Bußgeldern von bis zu 6 Prozent des weltweiten Umsatzes rechnen.
“In Bezug auf künstliche Intelligenz ist Vertrauen ein Muss und kein Muss”, sagte Margrethe Vestager, Executive Vice President der Europäischen Kommission, die die digitale Politik für den 27-Nationen-Block überwacht, in einer Erklärung. “Mit diesen wegweisenden Regeln ist die EU Vorreiter bei der Entwicklung neuer globaler Normen, um sicherzustellen, dass der KI vertraut werden kann.”
Nach den Vorschriften der Europäischen Union müssten Unternehmen, die künstliche Intelligenz in Risikogebieten bereitstellen, den Aufsichtsbehörden einen Sicherheitsnachweis vorlegen, einschließlich Risikobewertungen und Unterlagen, in denen erläutert wird, wie die Technologie Entscheidungen trifft. Die Unternehmen müssen auch die menschliche Kontrolle darüber gewährleisten, wie die Systeme erstellt und verwendet werden.
Einige Anwendungen, wie Chatbots, die in Kundendienstsituationen eine menschenähnliche Konversation ermöglichen, und Software, die schwer zu erkennende manipulierte Bilder wie „Deepfakes“ erstellt, müssten den Benutzern klar machen, dass das, was sie sehen, computergeneriert ist.
In den letzten zehn Jahren war die Europäische Union der aggressivste Wachhund der Technologiebranche weltweit, und andere Nationen verwenden ihre Politik häufig als Blaupausen. Der Block hat bereits die weltweit weitreichendsten Datenschutzbestimmungen erlassen und debattiert über zusätzliche Gesetze zum Kartellrecht und zur Moderation von Inhalten.
Aber Europa ist nicht mehr der Einzige, der auf eine strengere Aufsicht drängt. Die größten Technologieunternehmen sehen sich nun einer breiteren Abrechnung von Regierungen auf der ganzen Welt gegenüber, von denen jede ihre eigenen politischen und politischen Motive hat, um die Macht der Branche einzudämmen.
Heute im Geschäft
In den Vereinigten Staaten hat Präsident Biden seine Verwaltung mit Branchenkritikern gefüllt. Großbritannien schafft eine technische Regulierungsbehörde, um die Industrie zu überwachen. Indien verschärft die Aufsicht über soziale Medien. China hat einheimische Technologiegiganten wie Alibaba und Tencent ins Visier genommen.
Die Ergebnisse der kommenden Jahre könnten die Funktionsweise des globalen Internets und den Einsatz neuer Technologien verändern, da die Menschen je nach Standort Zugang zu verschiedenen Inhalten, digitalen Diensten oder Online-Freiheiten haben.
Künstliche Intelligenz – bei der Maschinen geschult werden, um Aufgaben zu erledigen und selbst Entscheidungen zu treffen, indem sie riesige Datenmengen untersuchen – wird von Technologen, Geschäftsführern und Regierungsbeamten als eine der transformativsten Technologien der Welt angesehen, die erhebliche Produktivitätsgewinne verspricht.
Mit zunehmender Komplexität der Systeme kann es jedoch schwieriger sein zu verstehen, warum die Software eine Entscheidung trifft. Dieses Problem könnte sich verschlimmern, wenn Computer leistungsfähiger werden. Forscher haben ethische Fragen zu seiner Verwendung aufgeworfen, die darauf hindeuten, dass es bestehende Vorurteile in der Gesellschaft aufrechterhalten, in die Privatsphäre eindringen oder dazu führen könnte, dass mehr Arbeitsplätze automatisiert werden.
Die Veröffentlichung des Gesetzentwurfs durch die Europäische Kommission, das Exekutivorgan des Blocks, stieß auf gemischte Reaktionen. Viele Branchengruppen äußerten sich erleichtert darüber, dass die Vorschriften nicht strenger waren, während zivilgesellschaftliche Gruppen sagten, sie hätten noch weiter gehen sollen.
“In den letzten Jahren wurde viel darüber diskutiert, was es bedeuten würde, die KI zu regulieren, und die bisherige Ersatzoption bestand darin, nichts zu tun und abzuwarten, was passiert”, sagte Carly Kind, Direktorin der Ada Lovelace Institut in London, das den ethischen Einsatz künstlicher Intelligenz untersucht. “Dies ist das erste Mal, dass ein Land oder ein Regionalblock es versucht hat.”
Frau Kind sagte, viele hätten Bedenken, dass die Politik zu weit gefasst sei und Unternehmen und Technologieentwicklern zu viel Ermessensspielraum gelassen habe, um sich selbst zu regulieren.
“Wenn es keine strengen roten Linien und Richtlinien und sehr feste Grenzen für das setzt, was akzeptabel ist, eröffnet es viel für die Interpretation”, sagte sie.
Die Entwicklung fairer und ethischer künstlicher Intelligenz ist zu einem der umstrittensten Themen im Silicon Valley geworden. Im Dezember sagte eine Co-Leiterin eines Teams bei Google, das die ethische Verwendung der Software untersuchte, sie sei entlassen worden, weil sie die mangelnde Vielfalt des Unternehmens und die Vorurteile kritisiert habe, die in moderne Software für künstliche Intelligenz eingebaut sind. In Google und anderen Unternehmen tobten Debatten über den Verkauf der neuesten Software an Regierungen zur militärischen Nutzung.
In den Vereinigten Staaten werden die Risiken künstlicher Intelligenz auch von Regierungsbehörden berücksichtigt.
Diese Woche warnte die Federal Trade Commission vor dem Verkauf von Systemen mit künstlicher Intelligenz, die rassistisch voreingenommene Algorithmen verwenden oder die „Menschen Beschäftigung, Wohnen, Kredit, Versicherung oder andere Leistungen verweigern“ könnten.
Anderswo in Massachusetts und Städten wie Oakland, Kalifornien; Portland, Ore.; und San Francisco haben die Regierungen Schritte unternommen, um die Verwendung der Gesichtserkennung durch die Polizei einzuschränken.