Der Videokünstler mit künstlicher Intelligenz, Sora, wird als Spitzentechnologie gefeiert

Eine Frau geht nachts in einem roten Kleid und einer schwarzen Lederjacke eine Straße in Tokio entlang.

Doch wenn man sich das Video genau ansieht, wird das rechte Bein der Frau plötzlich zu ihrem linken Bein – ein verräterischer Fehler, der darauf hindeutet, dass der Clip mit künstlicher Intelligenz erstellt wurde.

Es heißt Sora, ein neues Programm von OpenAI, dem gleichen Unternehmen, das hinter ChatGPT steht. Es funktioniert, indem es eine Benutzeraufforderung, wie zum Beispiel „Rundgang durch eine Kunstgalerie mit vielen schönen Kunstwerken in verschiedenen Stilrichtungen“, schnell in eine vollständig fotorealistische Szene umwandelt. Die Sora-Clips können realistisch oder fantastisch bizarr sein.

„Es ist eindeutig das mit Abstand beste Videogenerierungsmodell, das jemals entwickelt wurde“, sagte Ed Newton-Rex, CEO der gemeinnützigen Organisation Fairly Trained.

Aber was einige KI-Experten wie Newton-Rex beunruhigt, ist nicht die Qualität: Es ist die Sorge, dass Sora und andere KI-Programme nur dann besser werden, wenn sie das Internet nach urheberrechtlich geschütztem Material durchsuchen, um etwas Neues zu schaffen.

„Diese Technologien, viele von ihnen – nicht alle, aber viele von ihnen – nutzen die Arbeit menschlicher Schöpfer aus, ohne deren Erlaubnis und ohne sie zu bezahlen“, sagte Newton-Rex gegenüber Scripps News.

OpenAI verrät nicht, wie es Sora trainiert, demonstriert aber auf seiner Website, wie sich das Programm im Laufe der Zeit verbessert und beispielsweise die Videodarstellung eines Hundes erheblich verbessert.

Sora ist noch nicht für die Öffentlichkeit zugänglich. Das Unternehmen bittet ausgewählte, sogenannte „rote Teams“, nach potenziellen Schäden oder Risiken zu suchen. „Wir gewähren außerdem Zugang zu einer Reihe von bildenden Künstlern, Designern und Filmemachern, um Feedback zu erhalten“, heißt es auf der Website des Unternehmens.

Die Besorgnis darüber, dass KI Künstlern die Jobs wegnimmt, ist einer der Hauptgründe für den jüngsten Streik von Hollywood-Autoren und -Schauspielern.

Lesen Sie auch  Nach seinem Rücktritt vom FFF wird Le Graët das Pariser Fifa-Büro leiten

„Diese Tools werden Entwicklern helfen“, sagt Newton-Rex. „Es wird Leute geben, die diese Tools verwenden, um erstaunliche Dinge zu tun, aber gleichzeitig wird das gleiche Modell, das, wie Sie wissen, einem Videokünstler helfen kann, zehn weitere arbeitslos machen.“

Und es wächst die Besorgnis, dass KI zur Generierung von Deepfakes eingesetzt werden könnte, um Wahlen zu beeinflussen, wie kürzlich bei einem Robocall vor den Vorwahlen in New Hampshire mit einem falschen Präsidenten Joe Biden.

Newton-Rex ist der Ansicht, dass neue Gesetze von KI-Programmen verlangen sollten, offenzulegen, wie sie trainiert werden. Sein neues gemeinnütziges Unternehmen, Fairly Trained, arbeitet mit Unternehmen zusammen, die sich verpflichten, Inhalte zu kaufen – und nicht nur zu übernehmen.

„Wir zertifizieren Unternehmen, die nicht behaupten, dass sie verwenden können, was sie wollen, und dies fällt unter die Fair-Use-Ausnahme des Urheberrechts“, sagt Newton-Rex.

OpenAI sagt, dass es sich auf Sicherheit und Möglichkeiten zur Erkennung von KI-generierten Videos konzentriert, da man weiß, dass Ethik, Legalität und Potenzial von KI Mammutprobleme sind, die nicht verschwinden werden.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.