Tag Archive: mj



🎥 Midjourney Video V1 – Die bewegte Zukunft beginnt jetzt

Datum: 18.–20. Juni 2025

1. Der große Schritt: Video in Midjourney

Am 18. Juni 2025 veröffentlichte Midjourney sein erstes Video‑Generierungsmodell V1, das KI‑animierte Kurzvideos aus Bildern erzeugt youtube.com+9youtube.com+9autogpt.net+9youtube.com+10updates.midjourney.com+10indianexpress.com+10. Fortan kann man direkt im Web oder über Discord ein Bild – selbst ein extern hochgeladenes – animieren, indem man den „Animate“‑Button klickt omni.se+7updates.midjourney.com+7venturebeat.com+7.

Hauptfunktionen:

➡️ Ergebnis: „Bezahlbar, experimentell & kreativ“ – so beschrieb Midjourney selbst den Start tomsguide.com+10omni.se+10theverge.com+10.


2. Kontext: Rechtsstreit und Marktposition

Der Launch setzt Midjourney in direkte Konkurrenz zu OpenAI Sora, Runway Gen‑4, Google Veo 3 & Co tomsguide.com+3techcrunch.com+3venturebeat.com+3. Allerdings steht das Unternehmen derzeit auch im Fokus einer Klage von Disney & Universal wegen Urheberrechtsverletzung techcrunch.com+4omni.se+4theverge.com+4. Kritiker befürchten, dass Midjourney seine Trainingsdaten mit urheberrechtlich geschütztem Material gefüttert hat tomsguide.com+15theverge.com+15techcrunch.com+15.

Trotzdem setzt CEO David Holz auf verantwortungsvolles Einsetzen der Technologie und nennt den Video‑Launch einen „Baustein hin zu Echtzeit‑Open‑World‑Simulationen“ reddit.com+6updates.midjourney.com+6theverge.com+6.


3. V7‑Image‑Model & neue Tools

Zeitgleich wurde V7 zum Standard-Bildmodell erklärt – mit spannenden neuen Features:

Omni‑Reference (--oref)

Ermöglicht konsistente Figuren und Objekte über Szenen hinweg. Per Drag‑&‑Drop ins Prompt‑Bar oder via URL (--oref) midjourneyv6.org+11updates.midjourney.com+11midjourneysref.com+11.
🔧 Best Practices: Bild + aussagekräftiges Text‑Prompt, Gewichtungsparameter --ow zur Feinsteuerung docs.midjourney.com+1midjourneysref.com+1.

Personalization Profiles (--p)

Der Benutzer prägt seinen eigenen Stil: durch vergleichende Bildfragen lernt das System deinen visuellen Geschmack – und setzt ihn um .

Style References (--sref)

Stile wie Studio‑Ghibli oder Brutalismus lassen sich jetzt per Bildreferenz treffgenau wiederholen, mit deutlich höherer Präzision dank V7 medium.com.

Draft Mode (--draft)

Zehnmal schnellere Bildgenerierung bei halben GPU-Kosten. Auf Web durch ⚡️‑Switch oder Prompt‑Param --draft. Sprach‑/Konversationsmodus inklusive .


4. Das Zusammenspiel: Bild trifft Bewegung

Midjourney ermöglicht nun:

  1. Charakter über --oref konfigurieren.
  2. Stil mit --p und --sref individuell personalisieren.
  3. Rohkonzept via Draft Mode blitzschnell entwickeln.
  4. In Video V1 verwandeln: automatische oder manuelle Bewegung hinzufügen, low/high motion wählen, verlängern.

Das ist ein komplett neuer Workflow von statischer Vision hin zur animierten Realität.


5. Chancen & Ausblick


6. Fazit – Warum das wichtig ist

Midjourney Video V1 verändert die KI‑Kunstwelt. Es erweitert KI‑Bildgeneratoren endlich in den bewegten Bereich und bricht dabei Barrieren für alle Nutzer: technisch spannend, stilistisch eigenständig, kreativ ungebunden.
Selbstbewusst setzt man auf künstlerische Freiheit, auch angesichts juristischer Herausforderungen, und schickt uns alle auf Liter behind-the-scenes in eine Welt, in der Bilder zu lebendigen Erlebnissen werden.


🔧 Empfehlungen für deinen Workflow

  1. Starte mit Omni‑Reference (--oref), um deinen Charakter einzuführen.
  2. Nutze --p, um deinen Stil zu personalisieren.
  3. Nutze --draft für ultra‑schnelle Skizzen.
  4. Wechsle zu Video V1: wähle Automatic für Einfachheit oder Manual für volle Kontrolle.
  5. Probiere low vs. high motion, und verlängere dein Video – bis zu 20 Sekunden.

ps.: https://brownz.art/2025/06/19/entfessle-kreativitat-brownz-3-training-fur-einsteiger-fortgeschrittene-mit-sofortzugriff/


Konsistente Gesichter in Midjourney: So erschaffst du erkennbare Charaktere

Einer der meistgeäußerten Wünsche innerhalb der Midjourney-Community: „Wie kann ich ein und dieselbe Person mehrfach generieren – und zwar wiedererkennbar?“

Ob für Comics, Bildserien, Storytelling oder KI-Filmideen – konsistente Charaktere sind Gold wert. Lange war das eher Glückssache, aber mit Midjourney v6.1 und neuen Funktionen wie Character Reference, Character Weight, Style Reference und natürlicher Beschreibung wird das Ganze deutlich steuerbarer.


1. Charaktere mit Leben füllen – durch Erzählung

Statt einfach nur „a young woman“ oder „a soldier“ zu schreiben, denk wie ein Drehbuchautor:

„A grizzled Soviet cosmonaut in his 60s, standing in the ruins of a collapsed launch tower, his eyes weary but alert. Dust settles on his leather flight jacket, while a broken helmet lies beside his boot.“

Je bildhafter und szenischer du den Charakter beschreibst, desto mehr Kontext hat die KI. Und Kontext erzeugt Wiedererkennung – nicht nur im Gesicht, sondern auch im Stil, den Accessoires und der Stimmung.

Beispiel-Prompt (angepasst):

Some stylishly dressed Chinese female journalists with press credentials are writing articles, while comrades next to them are making phone calls. The background is the newspaper office. The details of the character are exquisite. Disney style, fashionable clothing –ar 9:16 –v 6.1

2. Bilder als Character-Referenz nutzen

Eine verlässliche Methode: Nutze bereits generierte Bilder als visuelle Vorlage. Besonders in der Midjourney-Web-App kannst du ein bestehendes Bild markieren und es als Character Reference verwenden.

  • Achte darauf, dass das Ursprungsbild möglichst frontal, gut ausgeleuchtet und konsistent in Stil und Auflösung ist.
  • Wenn du mehrere ähnliche Bilder generieren willst, verwende immer dasselbe Referenzbild.

Wichtig: Der „Faceswap Bot“ in Discord funktioniert zwar, ist aber umständlich, instabil und liefert meist unsaubere Ergebnisse. Besser: Midjourney-Tools direkt in der Web-App nutzen.


3. Der geheime Faktor: Character Weight (–cw)

Mit dem Parameter --cw (Character Weight) lässt sich die Gewichtung deines Referenzbilds feinjustieren:

  • –cw 0 → Nur das Gesicht bleibt konstant. Kleidung, Frisur und Stil sind frei wählbar.
  • –cw 100 → Alles wird übernommen: Gesicht, Frisur, Kleidung, Accessoires, sogar Stimmung und Farbschema.

Empfehlung:

  • Für maximale Konsistenz: --cw 100
  • Für kreative Varianten desselben Charakters: --cw 40–70
  • Für filmische Storyboards mit Stilvariation: --cw 0–30

4. Bonus-Tipp: Seed-Werte & Seriennummern

Wenn du ein Midjourney-Bild generierst, bekommst du automatisch eine Seed-Nummer. Diese kannst du mit --seed [Zahl] wiederverwenden, um konsistente Ergebnisse zu erzeugen. Kombiniert mit einem --cw-Wert und dem gleichen Prompt kannst du minimal variierte Serienbilder erzeugen.

Beachte jedoch: Seed-Werte allein garantieren keine vollständige Konsistenz – sie wirken nur in Kombination mit stabilen Prompts und Referenzen. (docs.midjourney.com)


5. Neu: Verwendung von --cref und --cw

Seit Midjourney v6.1 kann man im Prompt mit --cref ein Character-Referenzbild angeben. Dieses Bild wird als Vorlage für Gesicht, Kleidung und Erscheinung verwendet.

  • Syntax: --cref https://...jpg
  • Optionaler Parameter: --cw zur Feinabstimmung der Übernahme

Mit --cw 100 wird die Referenz sehr genau beachtet – inklusive Kleidung, Stil und Details. Mit niedrigeren Werten wird nur das Gesicht stabil gehalten, während Kleidung und Umgebung frei bleiben. (weam.ai)


6. Stil-Konsistenz mit --sref und --sw

Wenn du nicht nur den Charakter, sondern auch den Stil konsistent halten willst, nutze --sref für ein Stilreferenzbild und --sw (Style Weight) zur Gewichtung.

  • Syntax: --sref https://...jpg --sw 500
  • Werte von --sw 0 (kein Stil übernommen) bis --sw 1000 (sehr starker Stiltransfer)

Besonders bei Comic-Serien oder Art Styles (z. B. Disney, Cyberpunk, Noir) ist das ideal. (apexauthors.com)


7. Character Sheets erstellen

Für Serienfiguren oder Storyboards empfiehlt es sich, ein sogenanntes Character Sheet zu generieren – mit verschiedenen Posen, Ausdrücken und Perspektiven.

Diese kannst du dann per --cref wiederverwenden. So bleibt der Charakter konsistent, selbst wenn du ihn durch 20 verschiedene Szenen jagst. (upwork.com)


8. Fazit

Konsistente Charaktere in Midjourney zu erzeugen, war lange ein Glücksspiel. Mit den neuen Tools und ein wenig strategischer Promptarbeit kannst du jetzt aber echte Serienfiguren gestalten.

🧠 Denke wie ein Autor. Arbeite wie ein Regisseur. Generiere wie ein Designer.


Omni-Reference in Midjourney: Die Macht der Bildvorlage ist entfesselt

Midjourney rückt nach dem Launch von Version 7 nicht nur ein gewaltiges Update nach dem anderen raus, sondern liefert jetzt eine Funktion, auf die viele KI-Künstler:innen lange gewartet haben: Omni-Reference. Ab sofort könnt ihr Personen, Objekte oder sogar Kreaturen aus beliebigen Bildern extrahieren und in euren Prompts verankern. Das bedeutet: Eure KI-Kunst wird nicht nur kreativer, sondern auch deutlich kontrollierbarer.


Was ist Omni-Reference?

Stell dir Omni-Reference als digitales „Setz das hier rein!“ vor.

Du hast ein Bild von einem Charakter, einem Auto oder einem knuffigen Monster? Mit Omni-Reference kannst du genau dieses Element in ein neues Midjourney-Bild einbauen lassen. Dabei ist es egal, ob das Ursprungsbild fotografiert, gemalt oder per KI generiert wurde. Wichtig ist nur: Es funktioniert.


Wie funktioniert Omni-Reference?

Im Discord-Interface nutzt du einfach den Parameter --oref gefolgt von der Bild-URL deiner Referenz.

Beispiel:

a fantasy warrior in a forest --oref https://link-zu-deinem-bild.jpg

Im Webinterface ist es noch komfortabler: Unter dem Prompt-Feld findest du jetzt eine neue Bildreferenz-Leiste. Hier kannst du deine Vorlage als:

  • Image-Prompt,
  • Style Reference oder
  • neu: Omni-Reference
    einbinden. Entweder wählst du ein bereits verwendetes Bild oder lädst ein neues hoch.

Der –ow Parameter: Wie viel Vorlage darf’s denn sein?

Mit dem neuen --ow Parameter steuerst du, wie stark Midjourney sich an deiner Vorlage orientiert. Die Skala reicht von 0 bis 1000.

  • Kleiner Wert (z. B. 25): Wenn du nur Stil oder Haltung übernehmen willst
  • Mittlerer Wert (ca. 400): Wenn Gesicht oder Kleidung übernommen werden sollen
  • Hoher Wert (700+): Wenn die Vorlage nahezu exakt übertragen werden soll

Wichtig: --stylize und der neue --exp Parameter konkurrieren mit --ow. Wer den Stil stark ändert, sollte auch --ow anpassen, sonst dominiert der Stil das Bild.


Anwendungstipps: So rockt ihr Omni-Reference

  • Kombinationen sind möglich: Du kannst mehrere Referenzbilder verwenden (z. B. einen Charakter und ein Fahrzeug)
  • Präzise Beschreibungen helfen: Wenn das Omni-Gewicht niedrig ist, sollten wichtige Details im Prompt genannt werden
  • Stilisierung geht klar: Auch wenn du z. B. aus einem Foto einen Anime-Stil machen willst, kannst du das steuern
  • Moodboards und Stilreferenzen kombinieren: Omni-Reference lässt sich gut mit klassischen Style-Prompts und Moodboards kombinieren
  • Noch nicht für Draft-Modus: Die Funktion steht derzeit nur im Standard-Modus zur Verfügung

Fazit:

Omni-Reference ist ein echtes Power-Feature. Wer die Kontrolle über seine KI-Bilder liebt, bekommt hier ein mächtiges Werkzeug an die Hand. Mit etwas Feintuning über --ow, --stylize und --exp lässt sich nun erstmals genau festlegen, was von einer Vorlage ins Bild kommt und wie stark.

Midjourney wird damit nicht nur kreativer, sondern auch präziser. Willkommen in der nächsten Dimension der KI-Kunst.