Mit KI zum Video: 2 Text-to-Video-Tools im Vergleich

Lediglich ein kurzer Prompt im Webbrowser für eine fiktive Story – was machen bei einem kleinen Test zwei KI-Tools in der Free-Version daraus? Die Ergebnisse unterscheiden sich stark in Länge, Stil, Stimmung und den eingesetzten gestalterischen Möglichkeiten der Videoproduktion.

Test 1: Canva
Canva ist für Mediendesign sowie Zusammenarbeit durchaus beliebt und bietet auch eine Funktion, per Text-Prompt ein Video zu erstellen. Nach Prompt-Eingabe in der etwas versteckten Video-Option „Magic Media“ (Video -> YouTube-Video -> Magic Media -> Videos) wurde sehr schnell ein Video mit 5 Sekunden Länge erzeugt. Das Ergebnis war durchaus beachtenswert, wenngleich etwas künstlich.
Unter dem Prompt-Eingabe-Fenster befindet sich ja auch folgender Canva-Hinweis: „Dies ist eine neue Technologie. Szenen mit Menschen oder Tieren können etwas seltsam aussehen“.
Nachträglich hinzugefügt via Timeline habe ich dann noch als Text-Element eine Überschrift und als Audio-Element „AI Voice“ mit kurzem Text. Die eingeblendeten Musik-Beispiele wären kostenpflichtig gewesen – erst über die Suche nach Begriffen hätte man auch einige verwendbare Sounds gefunden… Lokaler MP4-Download war möglich; für eine etwaige Freigabe ist gut zu wissen: Die Zugriffsebene „Jeder mit dem Link“ vergibt standardmäßig im Sinne einer Zusammenarbeit gleich Bearbeitungsrechte fürs Design – ggf. also umstellen/reduzieren auf „Darf ansehen“.
Informationen zu Canva-Möglichkeiten und -Preismodellen: https://www.canva.com/de_de/

https://canva.link/d870ykw1l68rqzq (nur ansehen)
Prompt „im frühlingshaften Londoner Park sieht eine Frau einen Waschbär, der auf einen Uhu oben im Baum schaut

******

Test 2: HeyGen
HeyGen ist rein auf Videos spezialisiert „At HeyGen, our mission revolves around empowering individuals through accessible AI video generation“ und verfolgt mit seinem Video Agent den Anspruch „Not a tool. Not a copilot. It’s a creative agent doing the work for you.“ Zentral ist die Möglichkeit, einen (z. B. auch selbst erstellten) Sprecher-Avatar zu wählen mit Voiceover für die einzelnen Szenen – in Kombination mit der Aktivierung des KI-Videogenerierungsmodells „Seedance 2.0“ konnte mein bisheriger eigener Foto-Avatar jedoch nicht genutzt werden.
Nach Eingabe des Prompts machte der AI Agent dann wirklich alles von alleine und listete dabei stets die jeweiligen Schritte (inkl. Thoughts) auf: Beschreibung der Szenen, Medienauswahl, Vertonung, Untertitel etc.
Das Video-Ergebnis wirkte auf mich dabei sehr seriös und realitätsnah mit persönlichem Touch, dauerte in der Generierung jedoch ca. 45 Minuten für die vom AI Agent vorgesehenen ca. 28 Sekunden (tatsächlich 21) – Da war die Mail „Your video is ready“ durchaus nützlich.
Gut zu wissen: Über „Edit a copy in AI Studio“ könnte man nun auch eine gezielte eigene Video-Weiterbearbeitung mit Elementen, Medien, Musik etc. vornehmen, was ich mir hier gespart habe.
Lokaler MP4-Download war möglich; eine etwaige Freigabe ist standardmäßig mit der Berechtigung „Ansehen und Kommentieren“ verbunden.
Informationen zu HeyGen-Möglichkeiten und -Preismodellen s. https://www.heygen.com/

https://app.heygen.com/videos/c138debb239949d2bba62d76dabd75ac
Prompt „Lisa is wearing a blue suit and walks on the streets of London thinking about something. Scene change: Spring – She is now in a park with a lake and sees a raccoon looking up at an eagle owl on a tree. She smiles and the video ends.“

Screenshot während Generierung des Videos

5-Sekunden-KI-Videos mit Bing Video Creator

Dank des Heise-Artikels vom 4.6.25 zum neuen Bing Video Creator (https://www.heise.de/news/Microsoft-spendiert-Bing-einen-KI-Video-Ersteller-10425495.html) im Folgenden eigene kostenlos erzeugte Testergebnisse als LOOP-Videos auf meinem Webserver.
Die in Bing verwendete Komponente Sora ist bei OpenAI schon länger erhältlich, allerdings dort lediglich über ein kostenpflichtiges Abo (s.a. https://openai.com/de-DE/sora/).
Microsoft bietet über die Bing App nun die Erstellung von Videos im Seitenverhältnis 9:16 in 480p und zwar mit einer Dauer von 5 Sekunden Länge.

Waschbär-Motive finde ich sehr geeignet zum Testen von KI-Anwendungen, daher auch hier meine entsprechenden Prompts.
Die KI ist – wie bei Bing bzw. OpenAI üblich – gestaltend tätig, ohne dass man selbst jedes Detail angibt. Bei Videos ist daher spannend, welche Bewegungen von der KI akzentuiert wurden. Noch geht das Erstellen eines Videos nur aus der Bing-App heraus und nicht über die Desktop-Version, doch das wird sich sicherlich bald ändern. Auf die jeweiligen Ergebnisse musste ich tatsächlich jeweils mehr als 2 Stunden warten, aber das habe ich für meine kostenlosen Tests gerne in Kauf genommen.

Versuch 1: Fishing Raccoon

„a raccoon who goes fishing with a sun flower in a pond in front of the Louvre. evening light“

Die Umsetzung finde ich gelungen mit Bewegungen des Wassers und Drehbewegung des Waschbärs bei entspanntem Ambiente.
Die Prompt-Idee habe ich für diesen Sora-Test recycelt, aber ohne Hommingberger Gepardenforelle (s.a. https://www.heise.de/foto/galerie/suche/foto/?keyword=gepardenforelle).

Versuch 2: Juggling Raccoon

„a raccoon at the beach juggling balls during a thunderstorm while a herring gull watches“

Die Möwe fehlt leider im Ergebnis, aber das Video zeigt einen sehr hektischen Waschbären, was gut zum Gewitter-Setting passt. Er will schnell mit seinem Training fertig werden, bevor das Wetter noch schlechter wird und es nicht nur über dem Wasser regnet 😉

***

Laut Heise-Artikel werden die Bing-Videos bis zu 90 Tagen bei Microsoft gespeichert; hier die Links zu meinen 2 Versuchen:

 

Hugging Face AI Agents Course

AI Agents sind DAS Thema derzeit. Regelmäßig gute Links dazu bietet übrigens George Siemens „SAIL“-Newsletter https://buttondown.com/SAIL/archive
So bin ich auch auf den am 10.2.2025 gestarteten kostenlosen „AI Agents“-Kurs von Hugging Face gestoßen:
https://huggingface.co/agents-course
https://huggingface.co/learn/agents-course/unit0/introduction

Die Hugging Face Empfehlung für Teilnehmende ohne Python-Kenntnisse lautet, sich (evtl. nur) mit Unit1 „Introduction to Agents“ zu befassen und ein kleines Zertifikat zu erwerben. Am Ende des Unit1-Theorieteils gibt es die Möglichkeit, ein fertiges AI-Agent-Beispiel online in einem eigenen Hugging Face Space auszuprobieren und dabei lediglich in einer Python-Datei kleinere Anpassungen zu machen. Verwendet wurde dafür „Smolagents“, das AI Agent Framework von Hugging Face.

HF AI Agents Course Certificate ID (Unit1)

Meine Tests mit dem in Unit1 angebotenen AI-Agent-Beispiel
Wegen Überlastung des eingebundenen Qwen2.5-Coder-32B-Instruct-LLM habe ich schnell auf die im Skript aktivierbare technische Alternative zurückgreifen müssen. Dann klappte es gut mit Anfragen und Ergebnissen mit Darlegung der Agent-„Thoughts“ bis hin zur „Final Answer“.
Bzgl. eigenen Anpassungen der Python-Beispieldatei habe ich 2 Dinge getestet:
a) Aktivieren des bereits vorbereiteten Image-Generators durch Eintrag in der Zeile tools=[final_answer, image_generation_tool],
b) Eintragen eines kleinen Lottozahlen-Skripts als Tool
Wieder einmal war die Nutzung von ChatGPT hilfreich, um mir ggf. Code erklären bzw. generieren zu lassen, da meine Python-Kenntnisse sich in Grenzen halten 🙂

Für mich interessant: Der bereits im AI-Agent-Beispiel referenzierte Image-Generator greift auf „model_sdxl = „black-forest-labs/FLUX.1-schnell“ zurück und lieferte ziemlich gute Bilder.

Chatverlauf Screenshot 1 | Chatverlauf Screenshot 2 | Chatverlauf Screenshot 3

Ergebnisbild 1 | Ergebnisbild 2 | Ergebnisbild 3|

 

***************************

Abschließend noch eine Erklärung aus dem Kurs, was ein AI Agent ist 🙂

„To summarize, an Agent is a system that uses an AI Model (typically an LLM) as its core reasoning engine, to:

Understand natural language: Interpret and respond to human instructions in a meaningful way.

Reason and plan: Analyze information, make decisions, and devise strategies to solve problems.

Interact with its environment: Gather information, take actions, and observe the results of those actions.“

(Quelle: https://huggingface.co/learn/agents-course/unit1/what-are-agents)

 

Niederschwellig Bilder generieren mit Grok2 Aurora

Direkt innerhalb von X und auch ohne Premium Account ist es nun möglich, Bilder zu generieren. Ein Text-Prompt erzeugt jeweils 4 verschiedene Bilder mit Möglichkeit zum Download und Teilen. Natürlich kann man zuvor noch weitere Prompt-Eingaben machen – manchmal ist schon ein einfaches „Regenerate“ sehr zielführend.
Über Klick auf „Verlauf“ können ältere Konversationen aufgerufen und weitergenutzt werden.
Interessant bei Groks Aurora ist der Prompt „Draw me“, bei dem der eigene X-Account Grundlage sein soll für das erzeugte Ergebnis …

Grok-Beispiel Draw Me

Grok2 Aurora gefällt mir gut: Die fotorealistische Darstellung von Landschaft und Natur war bei meinen Prompts hervorragend.
Hingegen war bei meinen Eingaben die Umsetzung von Konzepten und Texten etwas problembehaftet und auch mit Fingern/Körperteilen bei Mensch und Tier gab es hin und wieder die bei KI bekannten Probleme.
Grok war vor einiger Zeit in den deutschen Medien kritisch im Gespräch wegen der Umsetzung von Prompts bzgl. Personen – die aktuellen diesbezüglichen Legal Terms sind recht deutlich. Insofern verzichte ich auf Bildbeispiele mit noch lebenden Personen.

Ausgewählte Bild-Ergebnisse

Grok-Beispiel 01| Grok-Beispiel 02|Grok-Beispiel 03|Grok-Beispiel 04|Grok-Beispiel 05|Grok-Beispiel 06|Grok-Beispiel 07|Grok-Beispiel 08|Grok-Beispiel 09|Grok-Beispiel 10|Grok-Beispiel 11|Grok-Beispiel 12|Grok-Beispiel 13

(Grok-Bilder zum Vergrößern anklicken)

 

Screenshot der Prompts und jeweils 4 Ergebnis-Bilder

Grok-Beispiel 01a | Grok-Beispiel 01b | Grok-Beispiel 02 | Grok-Beispiel 03 | Grok-Beispiel 04 | Grok-Beispiel 05 | Grok-Beispiel 06 | Grok-Beispiel 07 | Grok-Beispiel 08 | Grok-Beispiel 09 | Grok-Beispiel 10 | Grok-Beispiel 11 | Grok-Beispiel 12 | Grok-Beispiel 13 |

 

Literatur

Waschbär-Weihnachtsgeschichte – vom Kindergarten zur Graduiertenschule

Vor 2 Jahren hatte ich die erste Begegnung mit ChatGPT (s.a. Blogbeitrag) und seitdem hat sich viel getan.
Passend zur Jahreszeit eine gute Gelegenheit, die (für Nicht-Abonnenten) neue Funktion vom 10. Dezember 2024 („Today we made Canvas available in 4o by default for all users, Free and Paid.“) wieder mal an einer kleinen Waschbär-Weihnachtsgeschichte zu testen …
Da ChatGPT nach wie vor extrem beliebt ist, hat sich leider nichts daran geändert, dass der Dienst nicht immer erreichbar ist und Limits für Anfragen hat.

Start: Anmelden bei chat.openai.com, auf das Tool-Symbol klicken und „Canvas“ wählen, dann Prompt eingeben

Start Canvas

Die Ergebnisse vorab: Zu den PDFs mit der Waschbär-Weihnachtsgeschichte (verschiedene „Leseniveaus“)

Canvas-Prompt „Schreibe eine kurze amüsante Weihnachtsgeschichte über einen Waschbären, der in Heidelberg eine Wohnung sucht.“

Original / erste Fassung | Kindergarten (mit Emojis) | Graduiertenschule | Graduiertenschule (mit Emojis)

 

Hintergrund: Was ist neu in der ChatGPT-Webversion?

Canvas = Side-by-side-view und direktes Editieren im Text-Ergebnis möglich. Rechts unten Shortcuts u.a. zum Anpassen von Textlänge und Leseniveau plus Hinzufügen von Emojis.
Insbesondere die Kommentarfunktion per „Bearbeitungen vorschlagen“ ist interessant – nicht nur für die Möglichkeit, selbst geschriebene Texte zum anschließenden Bearbeiten in Canvas zu laden. Nützlich übrigens auch das Zurückgehen-Können zu vorherigen Versionen.

Beim Prompt-Schreiben war es stets eine gute Idee, die Zielgruppe bzw. das sprachliche Niveau vorab zu formulieren. Bei einer Waschbär-Weihnachtsgeschichte hingegen wird es sehr schräg, wenn man das Icon des höchsten Leseniveaus „Graduiertenschule“ wählt.

Die Screenshots zeigen die erste Fassung sowie speziell auf das Leseniveau „Graduiertenschule“ angepasste Versionen – mit Emoji-Einsatz bzw. mit Kommentarfunktion. Aus ChatGPT wurde dann der jeweilige Ergebnis-Text kopiert, in Word eingefügt und in PDF konvertiert.

 

Screenshots Waschbär-Weihnachtsgeschichte, Web-Oberfläche Canvas (hohe Auflösung)

Erste Nutzung | Oberfläche nach einigen Bearbeitungen | Kommentarfunktion

 

Weitere Informationen zu Canvas