Google Gemini: 3D-Figuren als Foto

Über Google Gemini hatte ich in meinem Blog bisher noch nichts gepostet, einfach weil ich bisher keinen Anlass sah, Gemini zu verwenden. Neugierig war ich jedoch auf die Möglichkeit, 3D-Figuren als Foto zu erstellen mittels „Nano Banana“.
In diesem WDR-Artikel wurde ein recht komplexer Prompt beschrieben, mit dem eben diese 3D-Figurenerstellung realisiert werden könne: https://www1.wdr.de/nachrichten/google-gemini-nano-banana-ki-bilder-trend-100.html

Mein Test von Google Gemini Nano Banana

1. Persönliche Anmeldung bei Google (https://gemini.google.com/)

2. Hochladen eines schon 2023 mittels DALL-E erzeugten KI-Bildes und dazu Eingabe Prompt

„Create a 1/6 scale commercialized figurine of the characters in the picture, in a realistic style, in a real environment. The figurine is placed on a computer desk. The figurine has a round transparent acrylic base, with no text on the base. The content on the computer screen is a 3D modeling process of this figurine. Next to the computer screen is a toy packaging box, designed in a style reminiscent of high-quality collectible figures, printed with original artwork. The packaging features two-dimensional flat illustrations and a logo ([Waschbär]).“

3. Download des erzeugten Bildes und Wiederholen des Prompts für ein zweites Ergebnis

Die beiden Ergebnisse (zum Vergrößern anklicken)

Google Gemini Testergebnis 1 | Google Gemini Testergebnis 2

Mein Fazit

Die Verwendung von bereits getesteten aufwendigen Prompts kann sehr viel Zeit sparen und sehr interessante Ergebnisse ermöglichen. Diese unterscheiden sich – wie üblich bei KI – bei mehrfacher Eingabe des gleichen Prompts durchaus stark voneinander.

Workflow-Screenshots (zum Vergrößern anklicken)

Workflow Bild 1 | Workflow Bild 2

Hinweis: Die Testergebnisse sind bereits vom 23.9.2025.

KI-Video in 10 Minuten

Die KI-Möglichkeiten entwickeln sich rasant. Für das folgende Video hätte man früher Tage gebraucht, hier mittels HeyGen von meinem Softwaretest bis zum Ergebnis nur 10 Minuten und das ganz ohne intellektuellen Aufwand. Lediglich Prompt eingeben und den Rest macht die Software ganz alleine.

Um so einfacher es wird, KI zu benutzen, desto wertvoller wird eigenes Denken und Produzieren. KI zur Unterstützung ist eine gute Hilfe, allerdings vermute ich, dass leider vielfach künftig die reine Bequemlichkeit siegen wird.

s.a. https://www.heygen.com/

Der Workflow in 3 Screenshots (Bilder zum Vergrößern anklicken)

Video Agent Test - Bild 1 | Video Agent Test - Bild 2 | Video Agent Test - Bild 3

Das Ergebnis: Raccoon Apartment Hunt (23s, auf meinem Webserver)

Prompt: „A vlog-style video from the perspective of a raccoon standing in line with a bunch of people waiting to view an apartment.“

5-Sekunden-KI-Videos mit Bing Video Creator

Dank des Heise-Artikels vom 4.6.25 zum neuen Bing Video Creator (https://www.heise.de/news/Microsoft-spendiert-Bing-einen-KI-Video-Ersteller-10425495.html) im Folgenden eigene kostenlos erzeugte Testergebnisse als LOOP-Videos auf meinem Webserver.
Die in Bing verwendete Komponente Sora ist bei OpenAI schon länger erhältlich, allerdings dort lediglich über ein kostenpflichtiges Abo (s.a. https://openai.com/de-DE/sora/).
Microsoft bietet über die Bing App nun die Erstellung von Videos im Seitenverhältnis 9:16 in 480p und zwar mit einer Dauer von 5 Sekunden Länge.

Waschbär-Motive finde ich sehr geeignet zum Testen von KI-Anwendungen, daher auch hier meine entsprechenden Prompts.
Die KI ist – wie bei Bing bzw. OpenAI üblich – gestaltend tätig, ohne dass man selbst jedes Detail angibt. Bei Videos ist daher spannend, welche Bewegungen von der KI akzentuiert wurden. Noch geht das Erstellen eines Videos nur aus der Bing-App heraus und nicht über die Desktop-Version, doch das wird sich sicherlich bald ändern. Auf die jeweiligen Ergebnisse musste ich tatsächlich jeweils mehr als 2 Stunden warten, aber das habe ich für meine kostenlosen Tests gerne in Kauf genommen.

Versuch 1: Fishing Raccoon

„a raccoon who goes fishing with a sun flower in a pond in front of the Louvre. evening light“

Die Umsetzung finde ich gelungen mit Bewegungen des Wassers und Drehbewegung des Waschbärs bei entspanntem Ambiente.
Die Prompt-Idee habe ich für diesen Sora-Test recycelt, aber ohne Hommingberger Gepardenforelle (s.a. https://www.heise.de/foto/galerie/suche/foto/?keyword=gepardenforelle).

Versuch 2: Juggling Raccoon

„a raccoon at the beach juggling balls during a thunderstorm while a herring gull watches“

Die Möwe fehlt leider im Ergebnis, aber das Video zeigt einen sehr hektischen Waschbären, was gut zum Gewitter-Setting passt. Er will schnell mit seinem Training fertig werden, bevor das Wetter noch schlechter wird und es nicht nur über dem Wasser regnet 😉

***

Laut Heise-Artikel werden die Bing-Videos bis zu 90 Tagen bei Microsoft gespeichert; hier die Links zu meinen 2 Versuchen:

 

Hugging Face AI Agents Course

AI Agents sind DAS Thema derzeit. Regelmäßig gute Links dazu bietet übrigens George Siemens „SAIL“-Newsletter https://buttondown.com/SAIL/archive
So bin ich auch auf den am 10.2.2025 gestarteten kostenlosen „AI Agents“-Kurs von Hugging Face gestoßen:
https://huggingface.co/agents-course
https://huggingface.co/learn/agents-course/unit0/introduction

Die Hugging Face Empfehlung für Teilnehmende ohne Python-Kenntnisse lautet, sich (evtl. nur) mit Unit1 „Introduction to Agents“ zu befassen und ein kleines Zertifikat zu erwerben. Am Ende des Unit1-Theorieteils gibt es die Möglichkeit, ein fertiges AI-Agent-Beispiel online in einem eigenen Hugging Face Space auszuprobieren und dabei lediglich in einer Python-Datei kleinere Anpassungen zu machen. Verwendet wurde dafür „Smolagents“, das AI Agent Framework von Hugging Face.

HF AI Agents Course Certificate ID (Unit1)

Meine Tests mit dem in Unit1 angebotenen AI-Agent-Beispiel
Wegen Überlastung des eingebundenen Qwen2.5-Coder-32B-Instruct-LLM habe ich schnell auf die im Skript aktivierbare technische Alternative zurückgreifen müssen. Dann klappte es gut mit Anfragen und Ergebnissen mit Darlegung der Agent-„Thoughts“ bis hin zur „Final Answer“.
Bzgl. eigenen Anpassungen der Python-Beispieldatei habe ich 2 Dinge getestet:
a) Aktivieren des bereits vorbereiteten Image-Generators durch Eintrag in der Zeile tools=[final_answer, image_generation_tool],
b) Eintragen eines kleinen Lottozahlen-Skripts als Tool
Wieder einmal war die Nutzung von ChatGPT hilfreich, um mir ggf. Code erklären bzw. generieren zu lassen, da meine Python-Kenntnisse sich in Grenzen halten 🙂

Für mich interessant: Der bereits im AI-Agent-Beispiel referenzierte Image-Generator greift auf „model_sdxl = „black-forest-labs/FLUX.1-schnell“ zurück und lieferte ziemlich gute Bilder.

Chatverlauf Screenshot 1 | Chatverlauf Screenshot 2 | Chatverlauf Screenshot 3

Ergebnisbild 1 | Ergebnisbild 2 | Ergebnisbild 3|

 

***************************

Abschließend noch eine Erklärung aus dem Kurs, was ein AI Agent ist 🙂

„To summarize, an Agent is a system that uses an AI Model (typically an LLM) as its core reasoning engine, to:

Understand natural language: Interpret and respond to human instructions in a meaningful way.

Reason and plan: Analyze information, make decisions, and devise strategies to solve problems.

Interact with its environment: Gather information, take actions, and observe the results of those actions.“

(Quelle: https://huggingface.co/learn/agents-course/unit1/what-are-agents)

 

Niederschwellig Bilder generieren mit Grok2 Aurora

Direkt innerhalb von X und auch ohne Premium Account ist es nun möglich, Bilder zu generieren. Ein Text-Prompt erzeugt jeweils 4 verschiedene Bilder mit Möglichkeit zum Download und Teilen. Natürlich kann man zuvor noch weitere Prompt-Eingaben machen – manchmal ist schon ein einfaches „Regenerate“ sehr zielführend.
Über Klick auf „Verlauf“ können ältere Konversationen aufgerufen und weitergenutzt werden.
Interessant bei Groks Aurora ist der Prompt „Draw me“, bei dem der eigene X-Account Grundlage sein soll für das erzeugte Ergebnis …

Grok-Beispiel Draw Me

Grok2 Aurora gefällt mir gut: Die fotorealistische Darstellung von Landschaft und Natur war bei meinen Prompts hervorragend.
Hingegen war bei meinen Eingaben die Umsetzung von Konzepten und Texten etwas problembehaftet und auch mit Fingern/Körperteilen bei Mensch und Tier gab es hin und wieder die bei KI bekannten Probleme.
Grok war vor einiger Zeit in den deutschen Medien kritisch im Gespräch wegen der Umsetzung von Prompts bzgl. Personen – die aktuellen diesbezüglichen Legal Terms sind recht deutlich. Insofern verzichte ich auf Bildbeispiele mit noch lebenden Personen.

Ausgewählte Bild-Ergebnisse

Grok-Beispiel 01| Grok-Beispiel 02|Grok-Beispiel 03|Grok-Beispiel 04|Grok-Beispiel 05|Grok-Beispiel 06|Grok-Beispiel 07|Grok-Beispiel 08|Grok-Beispiel 09|Grok-Beispiel 10|Grok-Beispiel 11|Grok-Beispiel 12|Grok-Beispiel 13

(Grok-Bilder zum Vergrößern anklicken)

 

Screenshot der Prompts und jeweils 4 Ergebnis-Bilder

Grok-Beispiel 01a | Grok-Beispiel 01b | Grok-Beispiel 02 | Grok-Beispiel 03 | Grok-Beispiel 04 | Grok-Beispiel 05 | Grok-Beispiel 06 | Grok-Beispiel 07 | Grok-Beispiel 08 | Grok-Beispiel 09 | Grok-Beispiel 10 | Grok-Beispiel 11 | Grok-Beispiel 12 | Grok-Beispiel 13 |

 

Literatur