Diese Woche kursierten auf X (ehemals Twitter) sexuell eindeutige, KI-generierte Bilder von Taylor Swift, die verdeutlichen, wie schwierig es ist, die Erstellung und Verbreitung von KI-generierten Deepfakes zu verhindern.
Die gefälschten Bilder des berühmtesten Popstars der Welt waren am Mittwoch fast den ganzen Tag im Umlauf und erreichten zig Millionen Aufrufe, bevor sie entfernt wurden, berichtet germanic.
Wie die meisten anderen Social-Media-Plattformen verfügt X über Richtlinien, die das Teilen von „synthetischen, manipulierten oder aus dem Kontext gerissenen Medien, die Menschen täuschen oder verwirren und zu Schaden führen können“ verbieten.
Ohne Swift explizit zu nennen, sagte X in einer Erklärung: „Unsere Teams sind es.“ Aktives Entfernen aller identifizierten Bilder und geeignete Maßnahmen gegen die Konten zu ergreifen, die für die Veröffentlichung verantwortlich sind.“
Das Posten von Bildern mit nicht einvernehmlicher Nacktheit (NCN) ist auf X strengstens untersagt und wir haben eine Null-Toleranz-Richtlinie gegenüber solchen Inhalten. Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen entsprechende Maßnahmen gegen die Konten, die für die Veröffentlichung dieser Bilder verantwortlich sind. Wir sind eng miteinander verbunden …
– Sicherheit (@Safety) 26. Januar 2024
Die Geschichte wird unter der Werbung fortgesetzt
In einem Bericht von 404 Media wurde behauptet, dass die Bilder möglicherweise von einer Gruppe auf Telegram stammen, wo Benutzer explizite KI-generierte Bilder von Frauen teilen, die oft mit Microsoft Designer erstellt wurden. Berichten zufolge scherzten die Benutzer der Gruppe darüber, wie die Bilder von Swift auf X viral gingen.
Auch der Begriff „Taylor Swift AI“ war damals auf der Plattform im Trend, wodurch die Bilder noch weiter beworben und vor mehr Augen gerückt wurden. Fans von Swift taten ihr Bestes, um die Bilder zu verbergen, indem sie die Plattform mit positiven Nachrichten über Swift überschwemmten und dabei verwandte Schlüsselwörter verwendeten. Auch der Satz „Protect Taylor Swift“ war damals im Trend.
Es spielt keine Rolle, wie berühmt jemand ist: „Sie ist eine weiße Milliardärin, also wird es ihr gut gehen“ gibt dir nicht die Autorität, ihre ekelhaften KI-Bilder von Taylor Swift zu erstellen.
Frauen sollten respektiert werden‼️
RESPEKTIEREN SIE TAYLOR SWIFT
SCHÜTZEN SIE TAYLOR SWIFT#TaylorSwiftAI pic.twitter.com/uXcdd7Speb
— Mahendar❤️🔥❤️🔥 (@akhandlonda4940) 26. Januar 2024
Und während Swifties auf der ganzen Welt ihre Wut und Frustration darüber zum Ausdruck brachten, dass
Die Geschichte wird unter der Werbung fortgesetzt
„Es war schon immer eine dunkle Unterströmung des Internets, nicht einvernehmliche Pornografie verschiedener Art“, sagte Oren Etzioni, Informatikprofessor an der University of Washington, der an der Erkennung von Deepfakes arbeitet, gegenüber der New York Times. „Jetzt ist es eine neue Sorte davon, die besonders schädlich ist.“
Erhalten Sie die neuesten nationalen Nachrichten. Wird täglich an Ihre E-Mail-Adresse gesendet.
„Wir werden einen Tsunami dieser KI-generierten expliziten Bilder erleben. Die Menschen, die das geschaffen haben, sehen darin einen Erfolg“, sagte Etzioni.
Carrie Goldberg, eine Anwältin, die Opfer von Deepfakes und anderen Formen von nicht einvernehmlichem sexuell eindeutigem Material vertreten hat, sagte gegenüber NBC News, dass Regeln für Deepfakes auf Social-Media-Plattformen nicht ausreichen und Unternehmen bessere Maßnahmen ergreifen müssen, um zu verhindern, dass sie überhaupt veröffentlicht werden .
„Die meisten Menschen haben nicht Millionen von Fans, die für sie kämpfen würden, wenn sie Opfer geworden sind“, sagte Goldberg der Verkaufsstelle und verwies auf die Unterstützung von Swifts Fans. „Selbst die Plattformen, die über Deepfake-Richtlinien verfügen, sind nicht gut darin, diese durchzusetzen, und vor allem, wenn sich Inhalte sehr schnell verbreiten, kommt es zum typischen Schlagabtausch.“
„So wie die Technologie das Problem schafft, ist sie auch die offensichtliche Lösung“, fuhr sie fort.
Die Geschichte wird unter der Werbung fortgesetzt
„KI auf diesen Plattformen kann diese Bilder identifizieren und entfernen. Wenn sich ein einzelnes Bild vermehrt, kann dieses Bild ebenfalls mit einem Wasserzeichen versehen und identifiziert werden. Es gibt also keine Entschuldigung.“
Bei der Erkennung gefälschter und schädlicher Bilder und Fehlinformationen könnte X jedoch mit zusätzlichen Komplikationen zu kämpfen haben. Als Elon Musk den Dienst im Jahr 2022 kaufte, traf er eine Reihe dreigleisiger Entscheidungen, die weithin dafür kritisiert wurden, dass sie problematische Inhalte gedeihen ließen – er lockerte nicht nur die Inhaltsregeln der Website, sondern entkernte auch das Moderationsteam von Twitter und setzte es wieder ein Konten, die zuvor wegen Regelverstößen gesperrt wurden.
Gerade angesagt
-
Mutter muss 12 Stunden in der Notaufnahme mit krankem Neugeborenen warten: „Wieso gibt es nur einen Arzt?“
-
Mann wegen Mordes an der 20-jährigen Kaylin Gillis verurteilt, die in die falsche Auffahrt gefahren war
Ben Decker, der Memetica, eine Agentur für digitale Ermittlungen, leitet, sagte gegenüber germanic, dass es zwar bedauerlich und falsch sei, dass Swift ins Visier genommen wurde, dies aber der nötige Anstoß sein könnte, um die Diskussion über KI-Deepfakes in den Vordergrund zu rücken.
Prominente warnen Fans davor, sich von Deepfakes täuschen zu lassen
Vorheriges Video
Die Geschichte wird unter der Werbung fortgesetzt
„Ich würde behaupten, dass sie dafür sorgen müssen, dass sie sich besser fühlt, denn sie hat wahrscheinlich mehr Einfluss als fast jeder andere im Internet.“
Und es sind nicht nur ultraberühmte Personen, die von dieser besonderen Form heimtückischer Fehlinformationen betroffen sind; Viele alltägliche Menschen waren Gegenstand von Deepfakes, manchmal auch das Ziel von „Rachepornos“, wenn jemand ohne ihre Zustimmung explizite Bilder von ihnen erstellte.
Im Dezember warnte Kanadas Aufsichtsbehörde für Cybersicherheit, dass Wähler nach KI-generierten Bildern und Videos Ausschau halten sollten, die „sehr wahrscheinlich“ dazu verwendet würden, den Glauben der Kanadier an die Demokratie bei bevorstehenden Wahlen zu untergraben.
In ihrem neuen Bericht sagte das Communications Security Establishment (CSE), dass politische Deepfakes „mit ziemlicher Sicherheit schwieriger zu erkennen sein werden, was es für Kanadier schwieriger macht, Online-Informationen über Politiker oder Wahlen zu vertrauen.“
„Trotz der potenziellen kreativen Vorteile generativer KI bedroht ihre Fähigkeit, das Informationsökosystem mit Desinformation zu verschmutzen, demokratische Prozesse weltweit“, schrieb die Agentur.
„Um es klarzustellen: Wir gehen davon aus, dass Cyber-Bedrohungsaktivitäten bei den nächsten Bundestagswahlen in Kanada wahrscheinlicher sind als in der Vergangenheit“, sagte CSE-Chefin Caroline Xavier.
Die Geschichte wird unter der Werbung fortgesetzt
— Mit Dateien von Nathaniel Dove von Global News
Erster kanadischer Gerichtsprozess wegen KI-generierter Gerichtsakten
Vorheriges Video
© 2024 Global News, ein Geschäftsbereich von Corus Entertainment Inc.