Generative KI und die Rechtslandschaft: Sich entwickelnde Vorschriften und Auswirkungen

VentureBeat präsentiert: AI Unleashed – eine exklusive Veranstaltung für Führungskräfte im Bereich Unternehmensdaten. Vernetzen Sie sich und lernen Sie mit Branchenkollegen. Erfahren Sie mehr


KI und generative KI verändern die Funktionsweise von Software und schaffen Möglichkeiten, die Produktivität zu steigern, neue Lösungen zu finden und einzigartige und relevante Informationen in großem Maßstab zu produzieren. Mit zunehmender Verbreitung der Gen-KI wird es jedoch neue und wachsende Bedenken hinsichtlich des Datenschutzes und ethischer Probleme geben.

KI kann heute die menschlichen Fähigkeiten erweitern, sollte aber die menschliche Aufsicht noch nicht ersetzen, insbesondere da sich die KI-Vorschriften weltweit immer noch weiterentwickeln. Lassen Sie uns die potenziellen Compliance- und Datenschutzrisiken der unkontrollierten Nutzung von Gen-KI untersuchen, wie sich die Rechtslandschaft entwickelt und welche Best Practices zur Risikobegrenzung und Maximierung der Chancen dieser sehr leistungsstarken Technologie gelten.

Risiken ungebremster generativer KI

Der Reiz von Gen-KI und Large Language Models (LLMs) liegt in ihrer Fähigkeit, Informationen zu konsolidieren und neue Ideen zu generieren, doch diese Fähigkeiten sind auch mit Risiken verbunden. Wenn Gen-KI nicht sorgfältig verwaltet wird, kann sie unbeabsichtigt zu Problemen führen wie:

  • Offenlegung proprietärer Informationen: Unternehmen riskieren die Offenlegung sensibler proprietärer Daten, wenn sie diese in öffentliche KI-Modelle einspeisen. Diese Daten können verwendet werden, um Antworten für eine zukünftige Anfrage eines Dritten oder des Modellbesitzers selbst zu geben. Unternehmen begegnen einem Teil dieses Risikos, indem sie das KI-Modell auf ihrem eigenen System lokalisieren und diese KI-Modelle auf den eigenen Daten ihres Unternehmens trainieren. Um die besten Ergebnisse zu erzielen, ist hierfür jedoch ein gut organisierter Datenstapel erforderlich.
  • Verletzung des Schutzes des geistigen Eigentums: Unternehmen können durch die missbräuchliche Verwendung von KI-generierten Inhalten unabsichtlich die geistigen Eigentumsrechte Dritter verletzen, was zu potenziellen rechtlichen Problemen führen kann. Einige Unternehmen, wie Adobe mit Adobe Firefly, bieten eine Entschädigung für von ihrem LLM generierte Inhalte an, aber die Urheberrechtsfragen müssen in Zukunft geklärt werden, wenn wir weiterhin sehen, dass KI-Systeme geistiges Eigentum Dritter „wiederverwenden“.
  • Offenlegung personenbezogener Daten: Datenschutzverletzungen können auftreten, wenn KI-Systeme personenbezogene Daten, insbesondere sensible Daten oder personenbezogene Daten besonderer Kategorien, falsch verarbeiten. Da Unternehmen mehr Marketing- und Kundendaten in ein LLM einspeisen, erhöht sich das Risiko, dass diese Daten unbeabsichtigt nach außen dringen.
  • Verstoß gegen Kundenverträge: Die Verwendung von Kundendaten in der KI kann gegen vertragliche Vereinbarungen verstoßen – und dies kann rechtliche Konsequenzen nach sich ziehen.
  • Risiko der Kundentäuschung: Aktuelle und potenzielle zukünftige Vorschriften konzentrieren sich häufig auf die ordnungsgemäße Offenlegung von KI-Technologie. Wenn ein Kunde beispielsweise mit einem Chatbot auf einer Support-Website interagiert, muss das Unternehmen deutlich machen, wann eine KI die Interaktion steuert und wann ein echter Mensch die Antworten verfasst.
Lesen Sie auch  Wie schneiden die Scarlet Knights in der XFL ab?

Die rechtlichen Richtlinien rund um KI entwickeln sich schnell weiter, aber nicht so schnell, wie KI-Anbieter neue Funktionen einführen. Wenn ein Unternehmen versucht, alle potenziellen Risiken zu minimieren und darauf zu warten, dass sich der Staub um die KI gelegt hat, könnte es Marktanteile und Kundenvertrauen verlieren, da schneller agierende Konkurrenten mehr Aufmerksamkeit erhalten. Es liegt an den Unternehmen, so schnell wie möglich voranzukommen – sie sollten jedoch bewährte Risikominderungsstrategien anwenden, die auf aktuellen Vorschriften und rechtlichen Präzedenzfällen basieren, um potenzielle Probleme zu minimieren.

Ereignis

KI entfesselt

Ein exklusiver Abend mit Einblicken und Networking, an dem nur geladene Gäste teilnehmen können. Er richtet sich an Führungskräfte in Unternehmen, die Datenstapel und Strategien überwachen.

Erfahren Sie mehr

Bisher haben wir KI-Giganten als Hauptziele mehrerer Klagen gesehen, bei denen es um die Nutzung urheberrechtlich geschützter Daten geht, die sie zum Erstellen und Trainieren ihrer Modelle verwenden. Kürzlich im nördlichen Bezirk von Kalifornien eingereichte Sammelklagen, darunter eine im Namen von Autoren und eine andere im Namen geschädigter Bürger, erheben Vorwürfe wegen Urheberrechtsverletzung, Verbraucherschutz und Verstößen gegen Datenschutzgesetze. Diese Einreichungen unterstreichen die Bedeutung eines verantwortungsvollen Umgangs mit Daten und weisen möglicherweise auf die Notwendigkeit hin, Trainingsdatenquellen in Zukunft offenzulegen.

Allerdings sind KI-Entwickler wie OpenAI nicht die einzigen Unternehmen, die sich mit dem Risiko auseinandersetzen, das die Implementierung von Gen-KI-Modellen mit sich bringt. Wenn Anwendungen stark auf ein Modell angewiesen sind, besteht die Gefahr, dass ein illegal trainiertes Modell das gesamte Produkt verunreinigen kann.

Als die FTC beispielsweise den Besitzer der App Every mit dem Vorwurf beschuldigte, sie habe Verbraucher durch den Einsatz von Gesichtserkennungstechnologie und die Speicherung der Fotos und Videos von Benutzern, die ihre Konten deaktiviert hatten, getäuscht, wurde ihre Muttergesellschaft Everalbum aufgefordert, die App zu löschen unsachgemäß erfasste Daten und alle KI-Modelle/Algorithmen, die sie anhand dieser Daten entwickelt hat. Dadurch wurde im Wesentlichen das gesamte Geschäft des Unternehmens gelöscht, was zu seiner Schließung im Jahr 2020 führte.

Lesen Sie auch  4 intelligente Städte nutzen Technologie, um die Nachhaltigkeit zu verbessern

Gleichzeitig haben Staaten wie New York Gesetze und Vorschläge eingeführt oder führen diese ein, die den Einsatz von KI in Bereichen wie Einstellung und Offenlegung von Chatbots regeln. Das EU-KI-Gesetz, über das derzeit im Trilog verhandelt wird und dessen Verabschiedung bis Ende des Jahres erwartet wird, würde Unternehmen dazu verpflichten, durch KI generierte Inhalte transparent offenzulegen, sicherzustellen, dass die Inhalte nicht illegal sind, und Zusammenfassungen der verwendeten urheberrechtlich geschützten Daten zu veröffentlichen Schulungen und enthalten zusätzliche Anforderungen für Anwendungsfälle mit hohem Risiko.

Best Practices zum Schutz von Daten im Zeitalter der KI

Es ist klar, dass CEOs den Druck verspüren, KI-Tools der Generation zu nutzen, um die Produktivität in ihren Unternehmen zu steigern. Allerdings mangelt es vielen Unternehmen an der organisatorischen Bereitschaft, diese umzusetzen. Während die Vorschriften ausgearbeitet werden und die ersten Fälle auf den Rechtsstreit vorbereitet werden, herrscht große Unsicherheit.

Aber Unternehmen können bestehende Gesetze und Rahmenbedingungen als Leitfaden nutzen, um Best Practices zu etablieren und sich auf zukünftige Vorschriften vorzubereiten. Bestehende Datenschutzgesetze enthalten Bestimmungen, die auf KI-Systeme angewendet werden können, einschließlich Anforderungen an Transparenz, Benachrichtigung und Einhaltung der Rechte auf Privatsphäre. Allerdings dreht sich ein Großteil der Regulierung um die Möglichkeit, sich von der automatisierten Entscheidungsfindung abzumelden, das Recht auf Vergessenwerden oder die Löschung unrichtiger Informationen.

Angesichts des aktuellen Stands der LLMs kann sich die Umsetzung als schwierig erweisen. Zu den Best Practices für Unternehmen, die sich mit der verantwortungsvollen Implementierung von Gen-KI auseinandersetzen, gehören derzeit jedoch:

  • Transparenz und Dokumentation: Kommunizieren Sie den Einsatz von KI bei der Datenverarbeitung klar und dokumentieren Sie die KI-Logik, die beabsichtigten Verwendungszwecke und mögliche Auswirkungen auf betroffene Personen.
  • Lokalisierung von KI-Modellen: Die interne Lokalisierung von KI-Modellen und das Training des Modells mit proprietären Daten kann das Datensicherheitsrisiko von Datenlecks im Vergleich zur Verwendung von Tools wie Chatbots von Drittanbietern erheblich reduzieren. Dieser Ansatz kann auch zu bedeutenden Produktivitätssteigerungen führen, da das Modell anhand hochrelevanter, für das Unternehmen spezifischer Informationen trainiert wird.
  • Fangen Sie klein an und experimentieren Sie: Experimentieren Sie mit internen KI-Modellen, bevor Sie auf Live-Geschäftsdaten aus einer sicheren Cloud- oder lokalen Umgebung umsteigen.
  • Konzentration auf Entdecken und Verbinden: Nutzen Sie Gen-KI, um neue Erkenntnisse zu gewinnen und unerwartete Verbindungen über Abteilungen oder Informationssilos hinweg herzustellen.
  • Bewahrung des menschlichen Elements: Gen AI sollte die menschliche Leistung steigern und sie nicht vollständig beseitigen. Die menschliche Aufsicht, die Überprüfung kritischer Entscheidungen und die Überprüfung von KI-erstellten Inhalten tragen dazu bei, das Risiko zu mindern, das durch Modellverzerrungen oder Datenungenauigkeiten entsteht.
  • Aufrechterhaltung von Transparenz und Protokollen: Das Erfassen von Datenbewegungstransaktionen und das Speichern detaillierter Protokolle der verarbeiteten personenbezogenen Daten können dabei helfen, festzustellen, wie und warum Daten verwendet wurden, wenn ein Unternehmen eine ordnungsgemäße Governance und Datensicherheit nachweisen muss.
Lesen Sie auch  Miami besiegt Boston zum zweiten Mal im Finale der Eastern Conference

Zwischen Claude von Anthropic, ChatGPT von OpenAI, BARD von Google und Llama von Meta werden wir erstaunliche neue Möglichkeiten sehen, wie wir aus den Daten, die Unternehmen seit Jahren sammeln und speichern, Kapital schlagen und neue Ideen und Verbindungen entdecken können, die die Art und Weise verändern können, wie a Das Unternehmen betreibt. Veränderungen sind immer mit Risiken verbunden, und Anwälte haben die Aufgabe, Risiken zu reduzieren.

Aber das transformative Potenzial der KI ist so groß, dass selbst der vorsichtigste Datenschutzexperte sich auf diese Welle vorbereiten muss. Indem sie mit einer robusten Datenverwaltung, klaren Benachrichtigungen und detaillierter Dokumentation beginnen, können Datenschutz- und Compliance-Teams optimal auf neue Vorschriften reagieren und die enormen Geschäftschancen von KI maximieren.

Nick Leone ist Produkt- und Compliance-Management-Berater bei Fivetran, dem Marktführer für automatisierte Datenbewegungen.

Seth Batey ist Datenschutzbeauftragter und leitender Datenschutzberater bei Fivetran.

DataDecisionMakers

Willkommen in der VentureBeat-Community!

Bei DataDecisionMakers können Experten, einschließlich der Techniker, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen.

Wenn Sie mehr über innovative Ideen und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie erfahren möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht erwägen Sie sogar, einen eigenen Artikel beizutragen!

Lesen Sie mehr von DataDecisionMakers

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.