Adobe hat auf der Adobe Max-Konferenz eine Vorschau auf experimentelle generative KI-Werkzeuge für die Bearbeitung von Video und Audio vorgestellt.
Adobe nutzt seine "Sneaks"-Präsentationen, um die neuesten Technologien vorzustellen, an denen seine Ingenieure arbeiten, und es sieht so aus, als würde die generative KI die Videobearbeitung in großem Stil verändern.
Firefly Image 2 und Projekt Stardust waren Adobe Max-Schlagzeilen für den Einsatz generativer KI bei der Bearbeitung von Bildern, aber bisher gab es keine ähnlichen Werkzeuge für Videos.
Mit Project Fast Fill kann ein Editor Elemente in Videoszenen so einfach hinzufügen oder entfernen wie bei der Bearbeitung eines Standbildes. Die Funktion wird von Adobe Firefly unterstützt. Der Benutzer kann ein einzelnes Bild mit einfachen Textanweisungen bearbeiten, und Project Fast Fill überträgt die Bearbeitung dann auf die restlichen Bilder.
Ein Beispiel, das Adobe vorführte, zeigte, wie einfach es war, Personen zu entfernen, die im Hintergrund einer Szene liefen.
Und hier ist das Ergebnis nach der Bearbeitung:
Im zweiten Beispiel wurde ein Bereich auf dem Hemd eines Mannes ausgewählt, und nach der Eingabe der Texteingabe "Krawatte" wurden 4 Bilder des Mannes mit Krawatte generiert. Die Auswahl einer der Optionen führte dazu, dass das Video nun den Mann mit einer Krawatte zeigt.
Nach der Erstellung sehen Sie hier das Ergebnis:
Stellen Sie sich vor, wie viel Zeit und Geld dies bei der Produktion und Bearbeitung einsparen wird.
Wenn eine Szene dadurch ruiniert wird, dass jemand in die Aufnahme hineinläuft, ist es nicht nötig, eine weitere Aufnahme zu machen. Wenn der Regisseur beschließt, dass ihm die Kleidung eines Schauspielers in der Aufnahme nicht gefällt, ist es nicht nötig, die Garderobe zu wechseln und eine neue Aufnahme zu machen.
Die Schleichende Präsentation auch einige andere leistungsstarke Videobearbeitungsfunktionen.
Mit dem Projekt Szenenwechsel kann ein Videobearbeiter zwei Videos, die aus unterschiedlichen Winkeln aufgenommen wurden, zu einer zusammengesetzten Szene mit synchronisierter Kamerabewegung zusammenstellen.
Project Dub Dub Dub nutzt KI, um den kosten- und arbeitsintensiven Synchronisationsprozess zu automatisieren. Die Funktion erstellt automatisch übersetzte Audiodateien in allen unterstützten Sprachen, wobei die Stimme des Sprechers erhalten bleibt.
Würden Sie gerne Ihren alten Lieblingsfilm in besserer Auflösung sehen? Project Res Up verwendet die diffusionsbasierte Upsampling-Technologie, um ein Video mit niedriger Auflösung in ein hochauflösendes Video zu konvertieren.
Sehen Sie sich an, wie gut das funktioniert.
Wenn Sie jemals versucht haben, auch nur ein einfaches Video für YouTube zu bearbeiten, wissen Sie, wie viel Zeit das in Anspruch nehmen kann. KI-Videobearbeitungstools, die nicht viel mehr als Textanweisungen benötigen, werden das Spiel verändern.
Wenn Hollywood endlich eine Einigung mit den Schauspielern und Autoren erzielt, hoffen wir, dass diese Tools dazu beitragen, dass wir unsere Lieblingssendungen ein wenig früher sehen können.