Die Generalstaatsanwaltschaft von Arizona sagt, dass Sie auf alle Anrufe achten müssen, die scheinbar von Ihren Lieben kommen – weil es sich dabei möglicherweise nicht um diejenigen handelt, die Sie vermuten.
Möglicherweise handelt es sich um Bots.
Betrüger hätten durch künstliche Intelligenz generierte Stimmklone eingesetzt, um Verbraucher zu betrügen, schrieb Generalstaatsanwalt Kris Mayes am Montag in einer Pressemitteilung.
Mit der rasanten Entwicklung der künstlichen Intelligenz seien Betrüger nun in der Lage, Verbraucher zu der Annahme zu verleiten, dass ein geliebter Mensch in Schwierigkeiten sei und Geld oder Geschenkkarten benötige, heißt es in der Pressemitteilung. Einige Betrüger haben sogar die Möglichkeit, die KI-Technologie mit Spoofing-Geräten zu kombinieren, sodass Anrufe möglicherweise so aussehen, als kämen sie von einem Freund oder Familienmitglied.
„Betrüger nutzen KI-Technologie, um Betrügereien zu personalisieren und die Stimme eines geliebten Menschen nachzuahmen – oder um ähnliche personalisierte Textnachrichten zu versenden –, um Menschen auszutricksen“, schrieb Mayes real, kann einen Verbraucher leicht dazu verleiten, überstürzt Geld zu senden oder andere Zahlungsarten zu nutzen.“
Es sei nicht immer sofort ersichtlich, dass KI bei einem Betrugsanruf eingesetzt wurde, sagte Richie Taylor, Kommunikationsdirektor des Generalstaatsanwalts von Arizona, in einer E-Mail. Aber das Büro verzeichnet einen Anstieg der Anrufe von Verbrauchern, die glauben, von dieser Technologie angegriffen worden zu sein, und erhalten weiterhin Beschwerden über Geldforderungen und Betrug mit Geschenkkarten, schrieb Taylor.
KI bei der Arbeit:Neues künstliches Intelligenzsystem nimmt Drive-Through-Bestellungen bei Carl’s Jr. in Buckeye entgegen
„Die Generalstaatsanwaltschaft von Arizona nutzt diese Gelegenheit, um Verbraucher proaktiv zu besonderer Wachsamkeit zu erinnern, da Betrüger die Möglichkeit haben, diese sich schnell entwickelnde Technologie auszunutzen, um Menschen auszutricksen“, schrieb Taylor. Taylor gab an, dass das Büro derzeit keine Daten über die Anzahl der bei dem Büro eingegangenen Beschwerden und die Anzahl der Personen habe, die derzeit wegen dieser Angelegenheit strafrechtlich verfolgt werden.
Die Generalstaatsanwaltschaft von Arizona gibt die folgenden Tipps, um sich vor Voice-Clone-KI-Betrügereien zu schützen:
- Hüten Sie sich vor Notrufen, in denen Sie aufgefordert werden, sofort Geld zu überweisen.
- Vertrauen Sie nicht der Stimme oder Nachricht, da Stimmen mit KI nachgeahmt werden können.
- Legen Sie auf und rufen Sie Ihren Liebsten über eine vertrauenswürdige Nummer an, um den Anruf oder die SMS zu bestätigen.
- Erwägen Sie die Festlegung eines Wortes oder Satzes, den nur Ihr geliebter Mensch kennt, um seine Identität zu überprüfen.
- Hüten Sie sich vor aggressiven Panikmache.
- Seien Sie vorsichtig bei Zahlungsaufforderungen über Geschenkkarten, Personen-zu-Person-Zahlungs-Apps usw.
Meinungen:Ist KI eine Bedrohung für die Menschheit? Warum es Grund zur Sorge gibt
Wenn Sie glauben, Opfer eines Betrugs geworden zu sein, können Sie unter www.azag.gov/consumer eine Beschwerde einreichen.