KI-Video in 10 Minuten

Die KI-Möglichkeiten entwickeln sich rasant. Für das folgende Video hätte man früher Tage gebraucht, hier mittels HeyGen von meinem Softwaretest bis zum Ergebnis nur 10 Minuten und das ganz ohne intellektuellen Aufwand. Lediglich Prompt eingeben und den Rest macht die Software ganz alleine.

Um so einfacher es wird, KI zu benutzen, desto wertvoller wird eigenes Denken und Produzieren. KI zur Unterstützung ist eine gute Hilfe, allerdings vermute ich, dass leider vielfach künftig die reine Bequemlichkeit siegen wird.

s.a. https://www.heygen.com/

Der Workflow in 3 Screenshots (Bilder zum Vergrößern anklicken)

Video Agent Test - Bild 1 | Video Agent Test - Bild 2 | Video Agent Test - Bild 3

Das Ergebnis: Raccoon Apartment Hunt (23s, auf meinem Webserver)

Prompt: „A vlog-style video from the perspective of a raccoon standing in line with a bunch of people waiting to view an apartment.“

5-Sekunden-KI-Videos mit Bing Video Creator

Dank des Heise-Artikels vom 4.6.25 zum neuen Bing Video Creator (https://www.heise.de/news/Microsoft-spendiert-Bing-einen-KI-Video-Ersteller-10425495.html) im Folgenden eigene kostenlos erzeugte Testergebnisse als LOOP-Videos auf meinem Webserver.
Die in Bing verwendete Komponente Sora ist bei OpenAI schon länger erhältlich, allerdings dort lediglich über ein kostenpflichtiges Abo (s.a. https://openai.com/de-DE/sora/).
Microsoft bietet über die Bing App nun die Erstellung von Videos im Seitenverhältnis 9:16 in 480p und zwar mit einer Dauer von 5 Sekunden Länge.

Waschbär-Motive finde ich sehr geeignet zum Testen von KI-Anwendungen, daher auch hier meine entsprechenden Prompts.
Die KI ist – wie bei Bing bzw. OpenAI üblich – gestaltend tätig, ohne dass man selbst jedes Detail angibt. Bei Videos ist daher spannend, welche Bewegungen von der KI akzentuiert wurden. Noch geht das Erstellen eines Videos nur aus der Bing-App heraus und nicht über die Desktop-Version, doch das wird sich sicherlich bald ändern. Auf die jeweiligen Ergebnisse musste ich tatsächlich jeweils mehr als 2 Stunden warten, aber das habe ich für meine kostenlosen Tests gerne in Kauf genommen.

Versuch 1: Fishing Raccoon

„a raccoon who goes fishing with a sun flower in a pond in front of the Louvre. evening light“

Die Umsetzung finde ich gelungen mit Bewegungen des Wassers und Drehbewegung des Waschbärs bei entspanntem Ambiente.
Die Prompt-Idee habe ich für diesen Sora-Test recycelt, aber ohne Hommingberger Gepardenforelle (s.a. https://www.heise.de/foto/galerie/suche/foto/?keyword=gepardenforelle).

Versuch 2: Juggling Raccoon

„a raccoon at the beach juggling balls during a thunderstorm while a herring gull watches“

Die Möwe fehlt leider im Ergebnis, aber das Video zeigt einen sehr hektischen Waschbären, was gut zum Gewitter-Setting passt. Er will schnell mit seinem Training fertig werden, bevor das Wetter noch schlechter wird und es nicht nur über dem Wasser regnet 😉

***

Laut Heise-Artikel werden die Bing-Videos bis zu 90 Tagen bei Microsoft gespeichert; hier die Links zu meinen 2 Versuchen:

 

Hugging Face AI Agents Course

AI Agents sind DAS Thema derzeit. Regelmäßig gute Links dazu bietet übrigens George Siemens „SAIL“-Newsletter https://buttondown.com/SAIL/archive
So bin ich auch auf den am 10.2.2025 gestarteten kostenlosen „AI Agents“-Kurs von Hugging Face gestoßen:
https://huggingface.co/agents-course
https://huggingface.co/learn/agents-course/unit0/introduction

Die Hugging Face Empfehlung für Teilnehmende ohne Python-Kenntnisse lautet, sich (evtl. nur) mit Unit1 „Introduction to Agents“ zu befassen und ein kleines Zertifikat zu erwerben. Am Ende des Unit1-Theorieteils gibt es die Möglichkeit, ein fertiges AI-Agent-Beispiel online in einem eigenen Hugging Face Space auszuprobieren und dabei lediglich in einer Python-Datei kleinere Anpassungen zu machen. Verwendet wurde dafür „Smolagents“, das AI Agent Framework von Hugging Face.

HF AI Agents Course Certificate ID (Unit1)

Meine Tests mit dem in Unit1 angebotenen AI-Agent-Beispiel
Wegen Überlastung des eingebundenen Qwen2.5-Coder-32B-Instruct-LLM habe ich schnell auf die im Skript aktivierbare technische Alternative zurückgreifen müssen. Dann klappte es gut mit Anfragen und Ergebnissen mit Darlegung der Agent-„Thoughts“ bis hin zur „Final Answer“.
Bzgl. eigenen Anpassungen der Python-Beispieldatei habe ich 2 Dinge getestet:
a) Aktivieren des bereits vorbereiteten Image-Generators durch Eintrag in der Zeile tools=[final_answer, image_generation_tool],
b) Eintragen eines kleinen Lottozahlen-Skripts als Tool
Wieder einmal war die Nutzung von ChatGPT hilfreich, um mir ggf. Code erklären bzw. generieren zu lassen, da meine Python-Kenntnisse sich in Grenzen halten 🙂

Für mich interessant: Der bereits im AI-Agent-Beispiel referenzierte Image-Generator greift auf „model_sdxl = „black-forest-labs/FLUX.1-schnell“ zurück und lieferte ziemlich gute Bilder.

Chatverlauf Screenshot 1 | Chatverlauf Screenshot 2 | Chatverlauf Screenshot 3

Ergebnisbild 1 | Ergebnisbild 2 | Ergebnisbild 3|

 

***************************

Abschließend noch eine Erklärung aus dem Kurs, was ein AI Agent ist 🙂

„To summarize, an Agent is a system that uses an AI Model (typically an LLM) as its core reasoning engine, to:

Understand natural language: Interpret and respond to human instructions in a meaningful way.

Reason and plan: Analyze information, make decisions, and devise strategies to solve problems.

Interact with its environment: Gather information, take actions, and observe the results of those actions.“

(Quelle: https://huggingface.co/learn/agents-course/unit1/what-are-agents)

 

Niederschwellig Bilder generieren mit Grok2 Aurora

Direkt innerhalb von X und auch ohne Premium Account ist es nun möglich, Bilder zu generieren. Ein Text-Prompt erzeugt jeweils 4 verschiedene Bilder mit Möglichkeit zum Download und Teilen. Natürlich kann man zuvor noch weitere Prompt-Eingaben machen – manchmal ist schon ein einfaches „Regenerate“ sehr zielführend.
Über Klick auf „Verlauf“ können ältere Konversationen aufgerufen und weitergenutzt werden.
Interessant bei Groks Aurora ist der Prompt „Draw me“, bei dem der eigene X-Account Grundlage sein soll für das erzeugte Ergebnis …

Grok-Beispiel Draw Me

Grok2 Aurora gefällt mir gut: Die fotorealistische Darstellung von Landschaft und Natur war bei meinen Prompts hervorragend.
Hingegen war bei meinen Eingaben die Umsetzung von Konzepten und Texten etwas problembehaftet und auch mit Fingern/Körperteilen bei Mensch und Tier gab es hin und wieder die bei KI bekannten Probleme.
Grok war vor einiger Zeit in den deutschen Medien kritisch im Gespräch wegen der Umsetzung von Prompts bzgl. Personen – die aktuellen diesbezüglichen Legal Terms sind recht deutlich. Insofern verzichte ich auf Bildbeispiele mit noch lebenden Personen.

Ausgewählte Bild-Ergebnisse

Grok-Beispiel 01| Grok-Beispiel 02|Grok-Beispiel 03|Grok-Beispiel 04|Grok-Beispiel 05|Grok-Beispiel 06|Grok-Beispiel 07|Grok-Beispiel 08|Grok-Beispiel 09|Grok-Beispiel 10|Grok-Beispiel 11|Grok-Beispiel 12|Grok-Beispiel 13

(Grok-Bilder zum Vergrößern anklicken)

 

Screenshot der Prompts und jeweils 4 Ergebnis-Bilder

Grok-Beispiel 01a | Grok-Beispiel 01b | Grok-Beispiel 02 | Grok-Beispiel 03 | Grok-Beispiel 04 | Grok-Beispiel 05 | Grok-Beispiel 06 | Grok-Beispiel 07 | Grok-Beispiel 08 | Grok-Beispiel 09 | Grok-Beispiel 10 | Grok-Beispiel 11 | Grok-Beispiel 12 | Grok-Beispiel 13 |

 

Literatur

Waschbär-Weihnachtsgeschichte – vom Kindergarten zur Graduiertenschule

Vor 2 Jahren hatte ich die erste Begegnung mit ChatGPT (s.a. Blogbeitrag) und seitdem hat sich viel getan.
Passend zur Jahreszeit eine gute Gelegenheit, die (für Nicht-Abonnenten) neue Funktion vom 10. Dezember 2024 („Today we made Canvas available in 4o by default for all users, Free and Paid.“) wieder mal an einer kleinen Waschbär-Weihnachtsgeschichte zu testen …
Da ChatGPT nach wie vor extrem beliebt ist, hat sich leider nichts daran geändert, dass der Dienst nicht immer erreichbar ist und Limits für Anfragen hat.

Start: Anmelden bei chat.openai.com, auf das Tool-Symbol klicken und „Canvas“ wählen, dann Prompt eingeben

Start Canvas

Die Ergebnisse vorab: Zu den PDFs mit der Waschbär-Weihnachtsgeschichte (verschiedene „Leseniveaus“)

Canvas-Prompt „Schreibe eine kurze amüsante Weihnachtsgeschichte über einen Waschbären, der in Heidelberg eine Wohnung sucht.“

Original / erste Fassung | Kindergarten (mit Emojis) | Graduiertenschule | Graduiertenschule (mit Emojis)

 

Hintergrund: Was ist neu in der ChatGPT-Webversion?

Canvas = Side-by-side-view und direktes Editieren im Text-Ergebnis möglich. Rechts unten Shortcuts u.a. zum Anpassen von Textlänge und Leseniveau plus Hinzufügen von Emojis.
Insbesondere die Kommentarfunktion per „Bearbeitungen vorschlagen“ ist interessant – nicht nur für die Möglichkeit, selbst geschriebene Texte zum anschließenden Bearbeiten in Canvas zu laden. Nützlich übrigens auch das Zurückgehen-Können zu vorherigen Versionen.

Beim Prompt-Schreiben war es stets eine gute Idee, die Zielgruppe bzw. das sprachliche Niveau vorab zu formulieren. Bei einer Waschbär-Weihnachtsgeschichte hingegen wird es sehr schräg, wenn man das Icon des höchsten Leseniveaus „Graduiertenschule“ wählt.

Die Screenshots zeigen die erste Fassung sowie speziell auf das Leseniveau „Graduiertenschule“ angepasste Versionen – mit Emoji-Einsatz bzw. mit Kommentarfunktion. Aus ChatGPT wurde dann der jeweilige Ergebnis-Text kopiert, in Word eingefügt und in PDF konvertiert.

 

Screenshots Waschbär-Weihnachtsgeschichte, Web-Oberfläche Canvas (hohe Auflösung)

Erste Nutzung | Oberfläche nach einigen Bearbeitungen | Kommentarfunktion

 

Weitere Informationen zu Canvas