Der Aufstieg der KI Taylor Swift

AI Taylor Swift ist verrückt. Sie ruft Kim Kardashian an, um sich über ihre „lahme Entschuldigung eines Ehemanns“, Kanye West, zu beschweren. (Kardashian und West sind in Wirklichkeit geschieden.) Sie droht, Europa auf ihrer Eras Tour zu überspringen, wenn ihre Fans nicht aufhören, sie nach internationalen Terminen zu fragen. Sie beleidigt Menschen, die sich keine Tickets für ihre Konzerte leisten können, und benutzt ungewöhnlich viele Obszönitäten. Sie ist irgendwie unhöflich.

Sie kann aber auch sehr süß sein. Sie hält einen aufmunternden Spruch: „Wenn du einen schlechten Tag hast, dann sei dir einfach bewusst, dass du geliebt wirst. Gib nicht auf!“ Und sie einfach liebt das Outfit, das du zu ihrem Konzert trägst.

Sie ist auch eine Fan-Kreation. Basierend auf Tutorials, die auf TikTok gepostet wurden, verwenden viele Swifities ein Programm, um hyperrealistische Soundbites mit Swifts Stimme zu erstellen und sie dann in sozialen Medien zu verbreiten. Das Tool, dessen Beta Ende Januar von ElevenLabs gestartet wurde, bietet „Instant Voice Cloning“. Tatsächlich erlaubt es Ihnen, ein Audio-Sample der Stimme einer Person hochzuladen und es sagen zu lassen, was Sie wollen. Es ist nicht perfekt, aber es ist ziemlich gut. Das Audio hat hier und da einige tonale Fehler, aber es klingt ziemlich natürlich – nah genug, um Sie zu täuschen, wenn Sie nicht genug aufpassen. Dunkle Ecken des Internets nutzten es sofort, um Prominente dazu zu bringen, beleidigende oder rassistische Dinge zu sagen; ElevenLabs sagte als Antwort, dass es „jedes generierte Audio zum Benutzer zurückverfolgen kann“ und würde erwägen, weitere Leitplanken hinzuzufügen– wie die manuelle Überprüfung jeder Einreichung.

Ob dies geschehen ist, ist unklar. Nachdem ich über 1 US-Dollar geforkt hatte, um die Technologie selbst auszuprobieren – ein ermäßigter Preis für den ersten Monat – wurde mein Upload fast sofort genehmigt. Der langsamste Teil des Prozesses bestand darin, einen klaren einminütigen Audioclip von Swift zu finden, den ich als Quelle für meine benutzerdefinierte KI-Stimme verwenden konnte. Sobald das genehmigt war, konnte ich es sofort verwenden, um falsches Audio zu erstellen. Der gesamte Vorgang dauerte weniger als fünf Minuten. ElevenLabs lehnte es ab, sich zu seinen Richtlinien oder der Möglichkeit zu äußern, mit seiner Technologie Taylor Swifts Stimme zu fälschen, stellte jedoch einen Link zu seinen Richtlinien zum Klonen von Stimmen zur Verfügung. Das teilte das Unternehmen mit Die New York Times Anfang dieses Monats, dass es in Zusammenarbeit mit anderen KI-Entwicklern ein „universelles Erkennungssystem“ schaffen will.

Lesen Sie auch  „Kritisch“: Kollegen werfen der Regierung Untätigkeit bei der langfristigen Energiespeicherung vor

Die Ankunft von AI Taylor Swift fühlt sich an wie ein Teaser für das, was in einer seltsamen neuen Ära kommen wird, die von synthetischen Medien bestimmt wird und in der die Grenzen zwischen echt und falsch in der Bedeutungslosigkeit verschwimmen könnten. Seit Jahren warnen Experten davor, dass KI uns in eine Zukunft unendlicher Fehlinformationen führen würde. Jetzt ist diese Welt hier. Aber trotz apokalyptischer Erwartungen geht es dem Swift-Fandom (vorerst) gut. AI Taylor zeigt uns, wie sich die menschliche Kultur neben immer komplexerer Technologie weiterentwickeln kann. Swifties scheinen das Tool größtenteils nicht böswillig zu verwenden: Sie verwenden es zum Spielen und um untereinander Witze zu machen. Den Fans dieses Tool zu geben, ist „wie ihnen eine neue Art Bleistift oder Pinsel zu geben“, erklärt Andrea Acosta, Ph.D. Kandidat an der UCLA, der K-Pop und sein Fandom studiert. Sie erforschen kreative Anwendungen der Technologie, und wenn jemand zu weit zu gehen scheint, haben andere in der Community keine Angst, dies zu sagen.

In gewisser Weise sind Fans vielleicht einzigartig gut auf die fabrizierte Zukunft vorbereitet: Sie führen seit Jahren Gespräche über die Ethik der Verwendung echter Menschen in Fanfiction. Und obwohl jedes Fandom anders ist, sagen Forscher, dass diese Gemeinschaften dazu neigen, ihre eigenen Normen zu haben und sich in gewisser Weise selbst regulieren. Sie können einige der fleißigsten Ermittler des Internets sein. K-Pop-Fans, sagte mir Acosta, sind so gut darin, zu analysieren, was echt und was falsch ist, dass sie es manchmal schaffen, die Verbreitung von Fehlinformationen über ihren Lieblingskünstler zu verhindern. BTS-Fans zum Beispiel sind dafür bekannt, sachliche Ungenauigkeiten in veröffentlichten Artikeln auf Twitter anzuprangern.

Lesen Sie auch  „Bauchschlag“ im Nordosten der USA fordert mindestens sechs Todesopfer | US-Wetter

Die Möglichkeiten für Fans deuten auf eine leichtere Seite von Audio und Video hin, die von generativer KI produziert werden. “Dort [are] viele Befürchtungen – und viele von ihnen sind sehr berechtigt – über Deepfakes und die Art und Weise, wie KI mit unserer Wahrnehmung der Realität spielen wird“, sagt Paul Booth, Professor an der DePaul University, der Fandoms und Technologie studiert hat seit zwei Jahrzehnten, erzählte mir. „Diese Fans veranschaulichen verschiedene Elemente davon, nämlich die Verspieltheit von Technologie und die Art und Weise, wie sie immer auf unterhaltsame und vielleicht ansprechendere Weise eingesetzt werden kann.“

Aber die virale Verbreitung von AI Taylor Swift auf TikTok fügt dieser Dynamik eine Falte hinzu. Es ist eine Sache, unter Fans in einer isolierten Ecke des Internets über die Ethik der sogenannten Real-Person-Fiction zu diskutieren, aber auf einer so großen und algorithmisch konstruierten Plattform können die Inhalte sofort ein riesiges Publikum erreichen. Die Swifties, die mit dieser Technologie spielen, teilen eine Wissensbasis, andere Zuschauer jedoch möglicherweise nicht. „Sie wissen, was sie gesagt hat und was sie nicht gesagt hat, richtig? Sie sind fast sofort in der Lage zu takten, Okay, das ist eine KI; das hat sie nie gesagt“, sagte mir Lesley Willard, die Programmdirektorin des Center for Entertainment and Media Industries an der University of Texas in Austin. „Wenn sie diesen Raum verlassen, wird es besorgniserregender.“

Swifties auf TikTok legen bereits Normen in Bezug auf die Sprach-KI fest, die zumindest teilweise darauf basieren, wie Swift selbst darüber denken könnte. „Wenn ein Haufen Leute anfangen zu sagen: ‚Vielleicht ist das keine gute Idee. Es könnte sich negativ auf sie auswirken’“, sagte mir ein 17-jähriger TikTok-Swiftie namens Riley, „die meisten Leute nehmen sich das wirklich zu Herzen.“ Maggie Rossman, eine Professorin an der Bellarmine University, die das Swift-Fandom studiert, glaubt, dass, wenn Taylor sich gegen bestimmte Soundbits oder bestimmte Verwendungen der KI-Stimme aussprechen würde, „wir sehen würden, dass sie von einem Großteil des Fandoms geschlossen wird .“

Lesen Sie auch  Auf den Kanarischen Inseln kommt es zu einem Anstieg der Ankünfte von Migranten über die westafrikanische Route

Aber dies ist ein herausforderndes Gebiet für Künstler. Sie wollen nicht unbedingt die Kreativität ihrer Fans und das dadurch entstehende Gemeinschaftsgefühl unterdrücken – Fankultur ist gut fürs Geschäft. In der neuen Welt müssen sie die Spannung zwischen dem Zulassen von Remixen und dem Erhalt ihrer Stimme und ihres Rufs bewältigen.

Eine Vertreterin von Swift antwortete nicht auf eine Bitte um Stellungnahme, wie sie und ihr Team über diese Technologie denken, aber die Fans sind überzeugt, dass sie zuhört. Nachdem ihr offizieller TikTok-Account ein Video mit der KI-Stimme „geliked“ hatte, rief eine Kommentatorin aus: „SIE HÖRT DAS AUDIO“, gefolgt von drei weinenden Emojis.

TikTok seinerseits hat gerade neue Community-Richtlinien für synthetische Medien veröffentlicht. „Wir begrüßen die Kreativität, die neue künstliche Intelligenz (KI) und andere digitale Technologien freisetzen können“, heißt es in den Leitlinien. „KI kann es jedoch erschweren, zwischen Fakten und Fiktionen zu unterscheiden, was sowohl gesellschaftliche als auch individuelle Risiken birgt.“ Die Plattform erlaubt keine KI-Nachbildungen von Privatpersonen, gibt aber „mehr Spielraum“ für Persönlichkeiten des öffentlichen Lebens – solange die Medien als KI-generiert identifiziert werden und sich an die anderen Inhaltsrichtlinien des Unternehmens halten, einschließlich derer zu Fehlinformationen.

Aber Grenzen überschreitende Swift-Fans können wahrscheinlich nur so viel Schaden anrichten. Sie könnten Ticketmaster zerstören, sicher, aber es ist unwahrscheinlich, dass sie ein Armageddon der KI herbeiführen. Booth denkt über all dies in Begriffen von „Graden der Sorge“ nach.

„Meine Sorge um das Fandom ist, wie, Oh, die Leute werden verwirrt und verärgert sein, und es kann Stress verursachen,” er sagte. „Meine Sorge mit [an AI fabrication of President Joe] Biden ist, wie, Es könnte eine nukleare Apokalypse auslösen.“

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.