Die vorgeschlagene Datenschutz- und KI-Gesetzgebung schränkt die geschäftliche Nutzung der Gesichtserkennung nicht ein, beschweren sich Rechtegruppen

Nach Ansicht von Bürgerrechtsgruppen ist eine neue Gesetzgebung erforderlich, die den Einsatz der Gesichtserkennung in Kanada einschränkt. Sie halten die vorgeschlagenen Gesetze zum Datenschutz und zur künstlichen Intelligenz, die jetzt dem Parlament vorliegen, für unzureichend.

Der Aufruf der Right2YourFace Coalition erfolgt im Vorfeld der Aussage eines Mitglieds, der Canadian Civil Liberties Association, am Donnerstag vor dem Industrieausschuss des Unterhauses zum Gesetzentwurf C-27, der den Consumer Privacy Protection Act (CPPA) und die künstliche Intelligenz umfasst und Datengesetz (AIDA).

Das CPPA würde staatlich regulierte Unternehmen und Firmen in Provinzen und Territorien abdecken, die über keine eigene Datenschutzgesetzgebung für den privaten Sektor verfügen. AIDA würde den Einsatz automatisierter Entscheidungssoftware mit „hoher Wirkung“ regulieren.

C-27 hat unter anderem keine klaren Definitionen und enthält zu viele Ausnahmen, die dazu führen können, dass die Gesichtserkennung nicht reguliert wird, erklärte die Koalition am Mittwoch in einer Erklärung.

Gesichtserkennungstechnologie ist ein leistungsstarkes und invasives Werkzeug, das von Akteuren im gesamten öffentlichen und privaten Sektor eingesetzt wird, von der Strafverfolgung bis hin zu Einkaufszentren – und dortEs gibt kaum Leitplanken, die uns davor schützen könnten“, sagte Daniel Konikoff von der Civil Liberties Association.

Der Drucktest für ein neues Gesetz besteht darin, herauszufinden, ob es die Menschen in ganz Kanada besser schützt als das alte. Ausnahmen im Consumer Privacy Protection Act und Ausschlüsse im öffentlichen Sektor im Artificial Intelligence and Data Act führen dazu, dass Bill C-27 diesen Test nicht besteht, und das zu einer Zeit, in der invasive Gesichtserkennungstechnologie sowohl bei Anwendungen im privaten als auch im öffentlichen Sektor an Bedeutung gewinnt“, sagte Brenda McPhail , Mitglied des Right2YourFace-Lenkungsausschusses.

Lesen Sie auch  PikkoPay, ein neu erfundenes Kundenerlebnis mit einfacherer und schnellerer Zahlung

In einem Brief an Innovationsminister François-Philippe Champagne, dessen Abteilung für C-27 zuständig ist, nennt die Koalition fünf Probleme mit dem Gesetzesvorschlag:

– Das CPPA kennzeichnet biometrische Informationen nicht als vertrauliche Informationen und definiert „sensible Informationen“ überhaupt nicht. „Durch diese Unterlassung bleiben einige unserer wertvollsten und gefährdetsten Informationen – einschließlich der Gesichter, auf die wir ein Recht haben müssen – ohne angemessenen Schutz“, heißt es in der Koalition.

Das CPPA sollte besondere Bestimmungen für sensible Informationen enthalten und seine Definition sollte ausdrücklich einen verbesserten Schutz biometrischer Daten, einschließlich Gesichtserkennungsbildern, vorsehen. Die sichersten biometrischen Daten, fügt der Brief hinzu, seien biometrische Daten, die nicht existieren;

– Die Ausnahmeregelung des CPPA für Unternehmen, Personen darüber zu informieren, dass ihre personenbezogenen Daten gesammelt werden, wenn dies für „legitime Geschäftszwecke“ erfolgt, ist zu weit gefasst und schützt Verbraucher nicht vor privaten Unternehmen, die Gesichtserkennungstechnologien (FRTs) verwenden möchten.

– Während AIDA „Systeme mit hoher Auswirkung“ abdeckt, ist die Definition dessen, was dazu gehört, in AIDA nicht definiert. „Wenn dieses entscheidende Konzept später in den Vorschriften definiert wird, fehlt den Kanadiern eine sinnvolle Grundlage, um die Auswirkungen des Gesetzes zu beurteilen, und FRT muss einbezogen werden“, sagt die Koalition.

Beachten Sie, dass Champagne dem Ausschuss mitgeteilt hat, dass die endgültige Version von AIDA eine Definition von „hoher Auswirkung“ enthalten würde, um die Verarbeitung biometrischer Informationen zur Identifizierung ohne Zustimmung einzuschließen.

In dem Schreiben wird bestätigt, dass Champagne einige mögliche Änderungen an C-27 vorgenommen hat. Allerdings mangelt es vielen an einer konkreten Gesetzgebungssprache, beklagt sie.

– AIDA gilt nicht für staatliche Institutionen, einschließlich nationaler Sicherheitsbehörden, die KI zur Überwachung einsetzen, und nimmt die KI-Technologie des Privatsektors aus, die für die Verwendung durch diese nationalen Sicherheitsbehörden entwickelt wurde. Das schaffe „ein beispielloses Machtungleichgewicht“, sagt die Koalition;

Lesen Sie auch  So kopieren Sie gedruckten Text sofort und fügen ihn auf Android-Geräten wie Google Pixel ein. Perfekt zum Lesen von WLAN und Telefonnummern | Business Insider Japan

— AIDA konzentriert sich auf das Konzept des individuellen Schadens, das die Auswirkungen von FRT auf Gemeinschaften als Ganzes ausschließt.

In seinem jetzigen Zustand, so heißt es in dem Brief, sei das CPPA „nicht in der Lage, Einzelpersonen und Gemeinschaften vor den Risiken von FRT zu schützen.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.