🎥 Midjourney Video V1 – Die bewegte Zukunft beginnt jetzt

Datum: 18.–20. Juni 2025

1. Der große Schritt: Video in Midjourney

Am 18. Juni 2025 veröffentlichte Midjourney sein erstes Video‑Generierungsmodell V1, das KI‑animierte Kurzvideos aus Bildern erzeugt youtube.com+9youtube.com+9autogpt.net+9youtube.com+10updates.midjourney.com+10indianexpress.com+10. Fortan kann man direkt im Web oder über Discord ein Bild – selbst ein extern hochgeladenes – animieren, indem man den „Animate“‑Button klickt omni.se+7updates.midjourney.com+7venturebeat.com+7.

Hauptfunktionen:

➡️ Ergebnis: „Bezahlbar, experimentell & kreativ“ – so beschrieb Midjourney selbst den Start tomsguide.com+10omni.se+10theverge.com+10.


2. Kontext: Rechtsstreit und Marktposition

Der Launch setzt Midjourney in direkte Konkurrenz zu OpenAI Sora, Runway Gen‑4, Google Veo 3 & Co tomsguide.com+3techcrunch.com+3venturebeat.com+3. Allerdings steht das Unternehmen derzeit auch im Fokus einer Klage von Disney & Universal wegen Urheberrechtsverletzung techcrunch.com+4omni.se+4theverge.com+4. Kritiker befürchten, dass Midjourney seine Trainingsdaten mit urheberrechtlich geschütztem Material gefüttert hat tomsguide.com+15theverge.com+15techcrunch.com+15.

Trotzdem setzt CEO David Holz auf verantwortungsvolles Einsetzen der Technologie und nennt den Video‑Launch einen „Baustein hin zu Echtzeit‑Open‑World‑Simulationen“ reddit.com+6updates.midjourney.com+6theverge.com+6.


3. V7‑Image‑Model & neue Tools

Zeitgleich wurde V7 zum Standard-Bildmodell erklärt – mit spannenden neuen Features:

Omni‑Reference (--oref)

Ermöglicht konsistente Figuren und Objekte über Szenen hinweg. Per Drag‑&‑Drop ins Prompt‑Bar oder via URL (--oref) midjourneyv6.org+11updates.midjourney.com+11midjourneysref.com+11.
🔧 Best Practices: Bild + aussagekräftiges Text‑Prompt, Gewichtungsparameter --ow zur Feinsteuerung docs.midjourney.com+1midjourneysref.com+1.

Personalization Profiles (--p)

Der Benutzer prägt seinen eigenen Stil: durch vergleichende Bildfragen lernt das System deinen visuellen Geschmack – und setzt ihn um .

Style References (--sref)

Stile wie Studio‑Ghibli oder Brutalismus lassen sich jetzt per Bildreferenz treffgenau wiederholen, mit deutlich höherer Präzision dank V7 medium.com.

Draft Mode (--draft)

Zehnmal schnellere Bildgenerierung bei halben GPU-Kosten. Auf Web durch ⚡️‑Switch oder Prompt‑Param --draft. Sprach‑/Konversationsmodus inklusive .


4. Das Zusammenspiel: Bild trifft Bewegung

Midjourney ermöglicht nun:

  1. Charakter über --oref konfigurieren.
  2. Stil mit --p und --sref individuell personalisieren.
  3. Rohkonzept via Draft Mode blitzschnell entwickeln.
  4. In Video V1 verwandeln: automatische oder manuelle Bewegung hinzufügen, low/high motion wählen, verlängern.

Das ist ein komplett neuer Workflow von statischer Vision hin zur animierten Realität.


5. Chancen & Ausblick


6. Fazit – Warum das wichtig ist

Midjourney Video V1 verändert die KI‑Kunstwelt. Es erweitert KI‑Bildgeneratoren endlich in den bewegten Bereich und bricht dabei Barrieren für alle Nutzer: technisch spannend, stilistisch eigenständig, kreativ ungebunden.
Selbstbewusst setzt man auf künstlerische Freiheit, auch angesichts juristischer Herausforderungen, und schickt uns alle auf Liter behind-the-scenes in eine Welt, in der Bilder zu lebendigen Erlebnissen werden.


🔧 Empfehlungen für deinen Workflow

  1. Starte mit Omni‑Reference (--oref), um deinen Charakter einzuführen.
  2. Nutze --p, um deinen Stil zu personalisieren.
  3. Nutze --draft für ultra‑schnelle Skizzen.
  4. Wechsle zu Video V1: wähle Automatic für Einfachheit oder Manual für volle Kontrolle.
  5. Probiere low vs. high motion, und verlängere dein Video – bis zu 20 Sekunden.

ps.: https://brownz.art/2025/06/19/entfessle-kreativitat-brownz-3-training-fur-einsteiger-fortgeschrittene-mit-sofortzugriff/