„Romantische“ Chatbots und KI stellen ein Datenschutzrisiko dar: wenig Transparenz und Sicherheit der erfassten personenbezogenen Daten

Mozilla Foundation veröffentlichte in den letzten Tagen den Bericht einer Analyse, die an 11 Apps durchgeführt wurde.Romantik-Chatbot” Ö “Freundin KI„ entdecken a lange Liste von Sicherheits- und Datenschutzproblemen: Insgesamt sammeln diese Apps, die über 100 Millionen Mal auf Android-Geräte heruntergeladen wurden, riesige Mengen an Benutzerdaten und verwenden Tracker, die Informationen an Google, Facebook sowie russische und chinesische Unternehmen senden. Obwohl diese Apps direkt mit den privaten Daten und Details des Nutzers in Berührung kommen, ermöglichen sie auch die Verwendung schwacher Passwörter und bieten nicht die nötige Transparenz über die ihnen zugrunde liegenden Modelle der künstlichen Intelligenz.

Jen Caltrider, Teamprojektmanagerin Datenschutz nicht inbegriffen von Mozilla, erklärt, dass diese Apps speziell dafür konzipiert sind, viele persönliche Informationen zu sammeln, und zwar auf der Grundlage eines Mechanismus, der darin besteht, eine Art Rollenspiel mit dem Benutzer zu etablieren, bei dem ein künstliches Gefühl der Intimität und des Teilens gefördert wird.

Das Problem ist jedoch, dass viele dieser Apps funktionieren Unklarheit über die erhobenen Daten(und wenn ja, welche), an Dritte weitergegeben, verkauft werden oder wie sie tatsächlich genutzt werden. Es mangelt an Transparenz darüber, wer die Entwickler bzw. Eigentümer der Apps wirklich sind und zu welcher Gerichtsbarkeit sie gehören, und oft werden nur generische Support-E-Mail-Adressen als einzige Kontaktmöglichkeit angegeben. Einige dieser Apps verschickten bereits in der ersten Minute der Nutzung Zehntausende Werbe-Tracker ohne Wissen des Nutzers.


Ein Beispiel für einen Romantik-Chatbot – Quelle: Mozilla

Wie oben erwähnt, betont Mozilla, dass die mangelnde Transparenz auch die diesen Apps zugrunde liegenden Technologien und insbesondere die Funktionsweise der KI-Modelle betrifft. In vielen Apps fehlen Steuerelemente, mit denen Benutzer ausgetauschte Nachrichten löschen können, z. B Einige Apps erklären nicht, welches generative Modell sie verwenden noch ob Gespräche mit dem Benutzer zum Trainieren anderer KI-Modelle verwendet werden (oder verwendet werden können).

Angesichts der Mechanismen, auch psychologischer Art, auf denen diese Anwendungen basieren, ist es unwahrscheinlich, dass diejenigen, die sie nutzen, sorgfältig darüber nachdenken, welche Informationen sie weitergeben und preisgeben. Dabei handelt es sich häufig um Informationen und Details, die zum privaten und intimen Bereich des Einzelnen gehören, mit der Folge Es besteht die Gefahr eines Reputations- oder Imageschadens sollten diese Daten bei einem Cyberangriff versehentlich preisgegeben oder gestohlen werden, geschweige denn Risiken im Zusammenhang mit Identitätsdiebstahl und die daraus resultierende Möglichkeit, höchst glaubwürdige Betrügereien und Phishing-Angriffe zu begehen.

Lesen Sie auch  Unbezahlte Praktika stehen schon lange in der Kritik. Warum gibt es sie noch?

Risiken, letzteres mit hoher Wahrscheinlichkeit, da viele dieser Apps, wie bereits zuvor erwähnt,
Erlauben Sie die Verwendung schwacher Passwörter
teilweise sogar besonders schwach: Aus dem Mozilla-Bericht geht hervor, dass in einem Fall die Verwendung eines Passworts mit einer Länge von einem Zeichen möglich war.

Mozillas Bericht kommt zu dem Schluss, dass sogar a Seien Sie besonders vorsichtig, wenn Sie diese Apps verwenden (z. B. die Wahl komplexer Passwörter, das regelmäßige Löschen von Nachrichten, die mit dem Chatbot ausgetauscht werden, das Deaktivieren der Datenerfassung, wo möglich, die Einschränkung der Weitergabe personenbezogener Daten) es kann sein, dass es nicht ausreicht um den Grad des Risikos wie gewünscht zu reduzieren.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.