Eilmeldung: Adobe Premier Pro integriert im Mai generative KI für Videos. Ersetzen Sie Objekte, erweitern Sie Videos über Firefly, unterstützt die Drittanbieter-Engines Sora, Runway und Pika von OpenAI

Die Welt ist fassungslos darüber, was mit generativer KI passiert, und während Unternehmen wie OpenAI Sora als Videovorschau präsentieren, ist die Welt von den Möglichkeiten begeistert. Obwohl Sora noch nicht der Öffentlichkeit zugänglich gemacht wurde, sehen wir viele veröffentlichte Teaser-Clips und die Technologie ist revolutionär.

Viele haben sich gefragt, wie sich diese Technologie auf Videoeditoren wie Adobe auswirken wird, und heute haben wir unsere Antwort.

Adobe hat eine Vorschau der generativen KI in Adobe Premiere Pro gezeigt, das später in diesem Jahr veröffentlicht wird. Dies ermöglicht neue Möglichkeiten bei der Videoerstellung und den Produktionsabläufen und bietet neue kreative Möglichkeiten, die jeder professionelle Redakteur benötigt, um mit der hohen Geschwindigkeit der Videoproduktion Schritt zu halten.

Neue generative KI-Tools, die dieses Jahr in Premiere Pro verfügbar sind, ermöglichen es Benutzern, die Bearbeitung aller Videos zu optimieren, einschließlich des Hinzufügens oder Entfernens von Objekten in einer Szene oder der Erweiterung eines vorhandenen Clips. Diese neuen Bearbeitungsworkflows werden durch ein neues Videomodell unterstützt, das die Familie der Firefly-Modelle einschließlich Bild-, Vektor-, Design- und Texteffekten ergänzt.

Adobe entwickelt weiterhin Firefly-KI-Modelle in den Kategorien, in denen es über umfassende Fachkenntnisse verfügt, wie Bildgebung, Video, Audio und 3D, und wird diese Modelle umfassend in Creative Cloud und Adobe Express integrieren.

Adobe gab außerdem eine Vorschau auf seine Vision, generative KI-Modelle von Drittanbietern direkt in Adobe-Anwendungen wie Premiere Pro zu integrieren. Creative Cloud verfügt seit jeher über ein reichhaltiges Partner- und Plugin-Ökosystem, und diese Entwicklung erweitert Premiere Pro zum flexibelsten und erweiterbarsten professionellen Videotool, das zu jedem Workflow passt. Adobe-Kunden wünschen sich beim Erstellen und Bearbeiten der nächsten Generation von Unterhaltungs- und Medienangeboten Auswahl und endlose Möglichkeiten.

Lesen Sie auch  Gold-, Silberpreis heute, 31. März 2023: Edelmetalle erleben Anstieg am MCX | Prüfen Sie hier die aktuellen Preise

Alle Arbeitsabläufe, die Sie in diesem Video sehen, sind echte Pixel generiert aus dem kommenden Firefly-Modell von Adobe für Videos sowie Workflows, die auf dem Sora-Modell von Open AI, dem Gen-2-Modell von Runway und dem Modell von Pika Labs basieren.

Erste Untersuchungen zeigen, wie professionelle Videoeditoren in Zukunft die in Premiere Pro integrierten Videogenerierungsmodelle von OpenAI und Runway nutzen könnten, um B-Rolls für die Bearbeitung in ihrem Projekt zu generieren. Es zeigt auch, wie Pika Labs mit dem Generative Extend-Tool verwendet werden kann, um am Ende einer Aufnahme ein paar Sekunden hinzuzufügen.

Durch die Bereitstellung neuer generativer KI-Funktionen, die auf Adobe Firefly und verschiedenen Modellen von Drittanbietern basieren, bietet Adobe seinen Kunden Zugriff auf eine Reihe neuer Funktionen, ohne die Arbeitsabläufe, die sie täglich in Premiere Pro verwenden, verlassen zu müssen.

Adobe überdenkt jeden Schritt der Videoerstellung und des Produktionsworkflows neu, um den Erstellern neue Möglichkeiten und Flexibilität bei der Verwirklichung ihrer Vision zu bieten. Indem wir generative KI-Innovationen tief in die Kernabläufe von Premiere Pro integrieren, lösen wir echte Probleme, mit denen Videoeditoren jeden Tag konfrontiert sind, und geben ihnen gleichzeitig mehr Raum, sich auf ihr Handwerk zu konzentrieren.

Ashley Still, Senior Vice President, Creative Product Group bei Adobe.

Adobe kündigte außerdem die bevorstehende allgemeine Verfügbarkeit von KI-gestützten Audio-Workflows in Premiere Pro an, darunter neue Fade-Handles, Clip-Badges, dynamische Wellenformen, KI-basiertes Kategorie-Tagging und mehr.

Die Zukunft der generativen KI in Premiere Pro

Adobe präsentierte eine Technologievorschau auf generative KI-Workflows, die später in diesem Jahr in Premiere Pro verfügbar sein werden und auf einem neuen Videomodell für Firefly basieren. Darüber hinaus zeigt ein früher „Sneak“, wie professionelle Redakteure in Zukunft Videogenerierungsmodelle von Open AI und Runway nutzen könnten, um B-Rolls zu generieren, oder wie sie Pika Labs mit dem Generative Extend-Tool nutzen könnten, um dem Video ein paar Sekunden hinzuzufügen Ende einer Aufnahme.

Generative Erweiterung

Fügen Sie nahtlos Frames hinzu, um Clips länger zu machen, sodass Sie Bearbeitungen einfacher zeitlich perfekt planen und sanfte Übergänge hinzufügen können. Diese bahnbrechende Technologie löst ein häufiges Problem, mit dem professionelle Redakteure täglich konfrontiert sind, und ermöglicht ihnen die Erstellung zusätzlicher Medien zur Feinabstimmung von Bearbeitungen, zum Festhalten einer Aufnahme für einen zusätzlichen Takt oder zur besseren Abdeckung eines Übergangs.

Lesen Sie auch  was Sie tun sollten, damit es wie am ersten Tag funktioniert

Hinzufügen und Entfernen von Objekten

Wählen Sie einfach Objekte aus, verfolgen Sie sie und ersetzen Sie sie. Entfernen Sie unerwünschte Gegenstände, ändern Sie die Garderobe eines Schauspielers oder fügen Sie schnell Dekorationen wie ein Gemälde oder fotorealistische Blumen auf einem Schreibtisch hinzu.

Text zu Video

Generieren Sie völlig neues Filmmaterial direkt in Premiere Pro. Geben Sie einfach Text in eine Eingabeaufforderung ein oder laden Sie Referenzbilder hoch. Diese Clips können zur Ideenfindung und Erstellung von Storyboards oder zur Erstellung von B-Rolls zur Ergänzung von Live-Action-Filmmaterial verwendet werden.

Während sich ein Großteil der frühen Gespräche über generative KI auf den Wettbewerb zwischen Unternehmen um die Produktion des „besten“ KI-Modells konzentrierte, sieht Adobe eine viel vielfältigere Zukunft. Die jahrzehntelange Erfahrung von Adobe mit KI zeigt, dass KI-generierte Inhalte dann am nützlichsten sind, wenn sie ein natürlicher Teil Ihrer täglichen Arbeit sind. Für die meisten Adobe-Kunden ist generative KI lediglich ein Ausgangspunkt und eine Inspirationsquelle für die Erkundung kreativer Richtungen.

Ziel von Adobe ist es, branchenübliche Tools und nahtlose Arbeitsabläufe bereitzustellen, mit denen Benutzer beliebige Materialien aus beliebigen Quellen und auf allen Plattformen verwenden können, um in der Geschwindigkeit ihrer Fantasie zu erstellen. Ob Adobe Firefly oder andere spezialisierte KI-Modelle: Adobe arbeitet daran, den Integrationsprozess innerhalb von Adobe-Anwendungen so nahtlos wie möglich zu gestalten.

Adobe hat seine eigenen KI-Modelle mit dem Bekenntnis zu verantwortungsvoller Innovation entwickelt und plant, das Gelernte anzuwenden, um sicherzustellen, dass die Integration von Modellen von Drittanbietern in seine Anwendungen den Sicherheitsstandards des Unternehmens entspricht.

Als einer der Gründer der Content Authenticity Initiative verpflichtet sich Adobe, Content Credentials – kostenlose Open-Source-Technologie, die als Nährwertkennzeichnung für Online-Inhalte dient – ​​mit den in seinen Anwendungen erstellten Assets zu verknüpfen, damit Benutzer sehen können, wie und was Inhalte erstellt wurden Zur Generierung der auf Adobe-Plattformen erstellten Inhalte wurden KI-Modelle eingesetzt.

Lesen Sie auch  Neuer Schlag für Meta: Die EU verbietet es, persönliche Daten der Nutzer zu verfolgen und für Werbung zu nutzen

KI-gestützte Audio-Workflows kommen in Premiere Pro

Zusätzlich zu den neuen generativen KI-Videotools von Adobe werden im Mai neue Audio-Workflows in Premiere Pro allgemein für Kunden verfügbar sein und Redakteuren alles bieten, was sie zur präzisen Steuerung und Verbesserung der Tonqualität benötigen. Zu den neuesten Funktionen gehören:

Interaktive Fade-Griffe
Editoren können benutzerdefinierte Audioübergänge schneller als je zuvor erstellen, indem sie einfach die Clip-Griffe ziehen, um Audio-Überblendungen zu erstellen.

Neues Essential Sound-Abzeichen mit Audiokategorie-Tagging
KI markiert Audioclips automatisch als Dialog, Musik, Soundeffekte oder Ambiente und fügt ein neues Symbol hinzu, sodass Redakteure mit einem Klick sofortigen Zugriff auf die richtigen Steuerelemente für den Job erhalten.

Effektabzeichen
Neue visuelle Indikatoren machen es einfach, zu erkennen, welche Clips über Effekte verfügen, schnell neue hinzuzufügen und automatisch Effektparameter direkt in der Sequenz zu öffnen.

Neu gestaltete Wellenformen in der Timeline
Die Größe von Wellenformen passt sich intelligent an, wenn sich die Spurhöhe in Clips ändert, während wunderschöne neue Farben die Lesbarkeit von Sequenzen erleichtern.

Darüber hinaus ist das KI-gestützte Enhance Speech-Tool, das unerwünschte Geräusche sofort entfernt und schlecht aufgezeichnete Dialoge verbessert, seit Februar allgemein verfügbar.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.