Tag Archive: ki




Du hast ein Bild mit Midjourney, Stable Diffusion oder einem anderen KI-Tool generiert. Es sieht gut aus. Die Komposition stimmt, die Farben sind okay. Aber es sieht immer noch nach KI aus. Es fehlt die Seele. Es fehlt der Pinselstrich. Es fehlt das Gefühl, dass da eine Hand im Spiel war.

Genau hier fängt die eigentliche Arbeit an.

Als digitaler Künstler nutze ich KI oft als Basis, aber niemals als Endergebnis. Das wahre Kunstwerk entsteht in Photoshop. Dort verwandle ich den generierten Rohdiamanten in ein Bild, das aussieht wie ein klassisches Gemälde – mit Textur, Tiefe und Charakter.

Hier sind meine 10 wichtigsten Tipps, wie du diesen „Painterly-Look“ erreichst und deine KI-Bilder auf das nächste Level hebst.


1. Die Auflösung erhöhen (Upscaling mit Verstand)

KI-Bilder kommen oft in niedriger Auflösung aus der Maschine (z.B. 1024×1024 Pixel). Für einen malerischen Look brauchst du aber Details.

Bevor du irgendwas in Photoshop machst, scale das Bild hoch. Aber Vorsicht: Einfaches „Bildgröße ändern“ führt zu Matsch.

Nutze spezialisierte Upscaler wie Topaz Gigapixel AI oder die integrierte „Super Resolution“ in Adobe Camera Raw. Diese Tools fügen beim Vergrößern intelligente Details hinzu und schärfen Kanten, ohne Artefakte zu erzeugen. Ziel auf mindestens 4000 Pixel an der langen Kante. Nur so hast du genug „Fleisch“ für Pinselstriche und Texturen.


2. Der Mischpinsel (Mixer Brush) ist dein bester Freund

Vergiss Filtergalerien. Der wahre Schlüssel zum gemalten Look ist Handarbeit.

Das Mischpinsel-Werkzeug in Photoshop ist das mächtigste Tool dafür. Es erlaubt dir, Pixel zu verwischen, als wären sie nasse Ölfarbe.

  • Einstellung: Wähle einen Pinsel mit borstiger Struktur (nicht die weiche Runde!).
  • Modus: „Nass“ auf ca. 50%, „Mischen“ auf 50%, „Fluss“ auf 30%.
  • Technik: Folge den Formen im Bild. Wenn du Haare malst, zieh den Strich in Wuchsrichtung. Wenn du Kleidung malst, folge den Falten.

Du malst quasi über das Foto drüber, aber statt Farbe aufzutragen, verschiebst du die vorhandenen Pixel und brichst die zu perfekten KI-Kanten auf. Das eliminiert den digitalen „Plastik-Look“ sofort.


3. Texturen überlagern (Overlay & Soft Light)

Ein echtes Gemälde ist nie glatt. Es hat Leinwandstruktur, Risse, Unebenheiten.

Such dir hochauflösende Texturen von Leinwand, Papier oder rissigem Lack. Lege diese als neue Ebene über dein Bild.

  • Blendmodus: Stelle die Ebene auf „Ineinanderkopieren“ (Overlay) oder „Weiches Licht“ (Soft Light).
  • Deckkraft: Reduziere sie auf 20-40%. Es soll subtil sein, nicht dominant.

Dieser Schritt gibt dem Bild physische Glaubwürdigkeit. Das Auge „fühlt“ die Oberfläche.


4. Farbanpassung mit Color Lookup (LUTs)

KI-Bilder haben oft eine sehr spezifische, digitale Farbpalette. Um das zu brechen, nutze Color Lookup Tables (LUTs).

Das sind vordefinierte Farbprofile, die oft in der Filmindustrie genutzt werden. In Photoshop findest du sie unter den Einstellungsebenen -> Color Lookup.

Probier Profile wie „CrispWarm“ oder „EdgyAmber“. Sie verschieben die Farben in eine harmonischere, filmischere oder malerischere Richtung und binden alle Elemente des Bildes zusammen. Das wirkt oft wie eine Lasur in der klassischen Malerei.


5. Dodge & Burn (Abwedeln & Nachbelichten) malerisch nutzen

Lichtführung ist alles. KI macht Licht oft flach oder unlogisch.

Erstelle eine neue Ebene, fülle sie mit 50% Grau und stelle den Modus auf „Ineinanderkopieren“. Nutze nun den Abwedler (Dodge) und Nachbelichter (Burn) Werkzeug mit einer weichen Pinselspitze und niedriger Belichtung (ca. 10-15%).

  • Helle Stellen: Betone Lichter auf Wangenknochen, Nasenspitze, Metall oder Wasser.
  • Dunkle Stellen: Vertiefe Falten, Schatten unter dem Kinn oder Hintergrundbereiche.

Indem du den Kontrast manuell „malst“, gibst du dem Bild Volumen und Dramatik, wie es ein alter Meister tun würde.


6. Den „Ölfarbe“-Filter (aber richtig!)

Ja, es gibt den Filter „Ölfarbe“ in Photoshop. Und ja, er ist verrufen, weil er oft billig aussieht. Aber richtig angewendet, ist er Gold wert.

Der Trick: Wende ihn nicht auf das ganze Bild an!

  • Dupliziere deine Ebene.
  • Wende Filter -> Stilisierungsfilter -> Ölfarbe an. (Werte: Stilisierung ca. 3-4, Reinheit ca. 7-8).
  • Erstelle eine schwarze Maske (alles ausblenden).
  • Male nun mit einem weißen Pinsel den Effekt nur dort rein, wo du Pinselstriche sehen willst (z.B. Hintergrund, Kleidung, Haare).

Lass Gesichter (besonders Augen) aus! Der Filter macht Gesichter oft gruselig verzerrt.


7. Chromatische Aberration und Rauschen hinzufügen

Digitale Perfektion ist der Feind des Malerischen. Alte Linsen und Augen haben Fehler.

  • Körnung: Füge eine Ebene mit 50% Grau hinzu (Modus: Ineinanderkopieren) und wende Filter -> Rauschfilter -> Rauschen hinzufügen an (ca. 3-5%, Monochromatisch). Das bricht die zu glatten Verläufe auf.
  • Chromatische Aberration: Nutze den Objektivkorrektur-Filter, um die Farbkanäle an den Rändern minimal zu verschieben. Das lässt das Bild weniger wie eine Computergrafik und mehr wie eine optische Aufnahme wirken.

8. High Pass Filter für Pinsel-Struktur

Du willst, dass man die Pinselstriche wirklich sieht?

  • Erstelle eine Kopie aller sichtbaren Ebenen (Strg+Alt+Shift+E).
  • Wende Filter -> Sonstige Filter -> Hochpass an (Radius ca. 2-4 Pixel).
  • Stelle den Ebenenmodus auf „Ineinanderkopieren“ oder „Lineares Licht“.

Das schärft nicht nur, sondern hebt die Strukturen hervor, die du vorher mit dem Mischpinsel oder den Texturen angelegt hast. Es gibt dem Bild den „Crunch“.


9. Fehler einbauen (Wabi-Sabi)

KI ist oft zu symmetrisch. Ein gemaltes Bild lebt von Asymmetrie.

Nutze den Verflüssigen-Filter, um Dinge leicht unperfekt zu machen. Ein Auge minimal größer als das andere? Ein Mundwinkel leicht schief? Eine Haarsträhne, die ins Gesicht fällt?

Diese kleinen „Fehler“ machen das Porträt menschlich und handgemacht. Perfektion wirkt künstlich. Charakter wirkt echt.


10. Der finale „Glaze“ (Farbverlauf)

Zum Abschluss, um alles zu vereinen, lege ich oft eine Verlaufsumsetzung (Gradient Map) über das Bild.

  • Wähle z.B. einen Verlauf von Dunkelviolett zu Hellorange.
  • Stelle den Ebenenmodus auf „Weiches Licht“ und reduziere die Deckkraft auf 10-20%.

Das wirkt wie der finale Firnis auf einem Ölgemälde. Es zieht alle Farben zusammen und gibt dem Bild eine einheitliche Atmosphäre.


Fazit

Ein KI-Bild ist kein Endprodukt. Es ist Rohmaterial. Wie eine Tube Farbe. Erst durch deine Handarbeit in Photoshop, durch das bewusste Brechen der digitalen Perfektion und das Hinzufügen von menschlicher Struktur wird daraus Kunst.

Probier es aus. Nimm dein bestes KI-Bild und investiere eine Stunde in diese Schritte. Du wirst den Unterschied nicht nur sehen, sondern fühlen.


Link-Liste & Ressourcen:

  1. Topaz Gigapixel AI (Upscaling): https://www.topazlabs.com/gigapixel-ai
  2. Adobe Photoshop (Offizielle Seite): https://www.adobe.com/products/photoshop.html
  3. Textures.com (Hochwertige Texturen): https://www.textures.com
  4. DeviantArt (Pinsel & Ressourcen, Suche nach „Photoshop Brushes“): https://www.deviantart.com
  5. Unsplash (Kostenlose Bilder für Texturen): https://unsplash.com

Wie dieser Text entstanden ist

Meine Blogartikel basieren auf meinem echten Workflow als digitaler Künstler. Die Struktur und Formulierung entstehen in Zusammenarbeit mit KI, um die Gedanken klar und lesbar auf den Punkt zu bringen. Die Tipps selbst stammen aus jahrelanger Erfahrung in Photoshop und Synthografie.



Es gibt dieses Rauschen. Du hörst es überall. Es kriecht aus den sozialen Netzwerken, es steht in den Feuilletons, es dominiert die Gespräche in der Kaffeeküche deiner Agentur oder im Studio zwischen zwei Sets, wenn das Model gerade in der Maske sitzt und der Art Director nervös auf sein Tablet starrt. Es ist ein nervöses, manchmal fast hysterisches, oft resigniertes Rauschen: „Die KI macht uns arbeitslos.“ „Fotografie ist tot.“ „Bald drückt jeder nur noch einen Knopf und ist Künstler.“ „Warum soll ich noch lernen, wie man Licht setzt, wenn die Software das in drei Sekunden macht?“

Ich sage es dir jetzt einmal ganz deutlich, hart und ohne die üblichen diplomatischen Schnörkel, mit denen wir uns in der Kreativbranche gerne gegenseitig beruhigen: Das ist Unsinn. Es ist der größte Irrtum dieses Jahrzehnts. Wer glaubt, dass die aktuellen oder kommenden KI-Modelle einen echten Fotografen, einen echten Retuscheur oder einen echten Art Director ersetzen, der hat nicht verstanden, was diese Berufe eigentlich im Kern ausmacht. Und noch viel wichtiger, vielleicht das Wichtigste überhaupt: Er hat nicht verstanden, wie diese neuen Werkzeuge wirklich funktionieren, wenn man sie nicht wie einen einarmigen Banditen im Casino bedient, sondern wie ein hochkomplexes Präzisionsinstrument in einem Labor.

Wir schreiben das Jahr 2026. Die generative künstliche Intelligenz ist kein Spielzeug mehr. Sie ist kein Partytrick, mit dem man den Papst in eine Daunenjacke steckt oder Wes Anderson Harry Potter drehen lässt. Sie ist eine industrielle Fräse für visuelle Inhalte. Sie ist ein Reaktor für Pixel. Aber – und das ist das gigantische Aber, um das sich dieser Text drehen wird – eine Fräse braucht jemanden, der sie bedient. Einen Meister, der weiß, wie das Material reagiert, wenn es heiß wird. Jemanden, der den Unterschied zwischen Kitsch und Kunst nicht nur kennt, sondern fühlt. Die KI ersetzt nicht den Menschen. Sie ersetzt den Durchschnitt. Sie ersetzt das Mittelmaß. Sie ersetzt diejenigen, die nur Knöpfe drücken, ohne zu wissen, was dahinter passiert. Aber für dich, den Experten, der Fotografie, Licht, Komposition, Farbtheorie und Post-Production wirklich verstanden und jahrelang geübt hat, ist sie kein Feind. Sie ist der Turbo, von dem wir immer geträumt haben, ohne es zu wissen. Sie ist die Erweiterung deines Gehirns und deiner Hände, nicht deren Ersatz.

Lass uns tief eintauchen. Lass uns zerlegen, warum das so ist. Warum JSON-Code wichtiger ist als „schöne Worte“. Warum deine eigenen Fotos das Gold der neuen Ära sind. Und warum am Ende immer noch Photoshop, deine lokale Hardware und dein Auge entscheiden, ob ein Bild lebt oder nur existiert. Wir müssen zunächst mit einem fundamentalen Missverständnis aufräumen, das die Debatte vergiftet. Die meisten Menschen da draußen nutzen Bild-KI vollkommen falsch. Sie gehen zu einer Eingabeaufforderung, sei es in einem Discord-Channel oder einem Web-Interface, und tippen etwas wie: „Ein schöner Sonnenuntergang, Cyberpunk, Frau mit Neon-Haaren, 8k, masterpiece, trending on artstation.“ Dann drückt die KI auf den Zufallsgenerator. Sie würfelt. Sie greift in den riesigen Sack der Wahrscheinlichkeiten, den sie aus Milliarden von Bildern gelernt hat, und spuckt vier Varianten aus. Der Nutzer sucht sich das hübscheste aus, speichert es ab und sagt: „Ich habe das gemacht.“

Nein, hast du nicht. Du hast im Lotto gewonnen.

Das ist Glücksspiel, keine Kreation. Die KI hat basierend auf statistischen Wahrscheinlichkeiten Pixel angeordnet, die lose zu deinen Worten passen. Du hattest keine Kontrolle über das Lichtverhältnis. Du hattest keine Kontrolle über die Brennweite. Du hattest keine Kontrolle über den emotionalen Subtext oder die narrative Tiefe. Du hast konsumiert, nicht produziert. Du warst der Kunde, nicht der Koch. Hier trennt sich die Spreu vom Weizen, und hier beginnt deine Relevanz als Profi. Der Fotograf, der Künstler – also du – akzeptiert keinen Zufall. Wir hassen Zufall. Wir wollen Kontrolle. Wenn du ein Bild im Kopf hast, dann hast du eine Vision. Du siehst die Lichtsetzung vor deinem inneren Auge – ist es ein Rembrandt-Licht? Ein hartes Split-Light? Ein weiches Butterfly? Du siehst die Textur der Haut, spürst, ob sie glänzen oder matt sein soll. Du siehst die Körnung des Films, die Tiefe der Schatten. Du siehst die emotionale Distanz zum Subjekt. Wenn die KI dir dann irgendwas Generisches ausspuckt, das zwar „nett“ aussieht, aber nicht deine Vision trifft, ist das für dich wertlos.

Deshalb ist die KI beim derzeitigen Stand – und ich wage zu behaupten, auch in absehbarer Zukunft – kein Ersatz für dich. Denn die KI hat keinen Willen. Sie hat keinen Geschmack. Sie hat keine Intention. Sie hat keine Schmerzen empfunden, keine Freude erlebt, keine Angst gehabt. Sie ist ein Spiegel, der alles reflektiert, was man ihm zeigt. Und wenn man ihm nichts Konkretes, nichts Menschliches zeigt, reflektiert er eben den Durchschnitt des Internets. Und der Durchschnitt ist langweilig. Es ist eine Ironie des Schicksals, die man sich auf der Zunge zergehen lassen muss: Gerade jetzt, wo jeder Hans und Franz Bilder generieren kann, wird echtes, tiefes fotografisches Fachwissen wertvoller denn je. Warum? Weil du der Maschine sagen musst, was sie tun soll. Und die Maschine spricht – überraschenderweise und glücklicherweise – die Sprache der Fotografie.

Ein Laie schreibt in seinen Prompt: „Hintergrund unscharf.“ Du schreibst – oder codierst –: „85mm Prime Lens, Aperture f/1.2, heavy Bokeh, shallow Depth of Field, focus on iris, chromatic aberration on edges.“ Das Ergebnis ist fundamental anders. Die KI versteht physikalische Gesetzmäßigkeiten, weil sie mit Millionen von echten Fotos trainiert wurde, in deren Metadaten genau diese Informationen standen. Sie „weiß“ im statistischen Sinne, wie ein 35mm-Objektiv ein Gesicht verzerrt und wie ein 200mm-Objektiv es komprimiert und den Hintergrund ranholt. Sie weiß, wie sich chromatische Aberration an harten Kanten bei Gegenlicht verhält. Sie weiß, wie Filmkorn bei ISO 3200 aussieht im Vergleich zu ISO 100. Wenn du als Anwender nicht weißt, was ISO-Rauschen ist, wie sich hartes Sonnenlicht von einer riesigen Octabox unterscheidet, was ein „Rim Light“ bewirkt oder warum man in der Porträtfotografie oft nicht unter 50mm geht, dann bist du der KI ausgeliefert. Du bist Passagier in einem Auto, das du nicht steuern kannst. Du kannst nur hoffen, dass es irgendwo ankommt, wo es schön ist. Als Profi bist du der Pilot.

Künstliche Intelligenz ist im Grunde ein gigantischer, unendlicher Licht-Simulator. Aber sie hat eine Tendenz: Sie neigt dazu, Licht „perfekt“ zu machen. Zu glatt. Zu kommerziell. Zu gefällig. Wer Ahnung von Fotografie hat, weiß, dass Charakter durch Schatten entsteht, nicht durch Licht. Dass die Dunkelheit genauso wichtig ist wie die Helligkeit. Wir zwingen die KI, Fehler zu machen. Wir fordern „Low Key“, wir fordern „Chiaroscuro“, wir fordern „Volumetric Lighting“, das Staubpartikel in der Luft sichtbar macht. Wir bauen Szenarien auf, die wir aus dem Studio kennen. Du kannst der KI sagen: „Setze ein Key Light von links oben, 45 Grad, Farbtemperatur 5600K, hart, und ein Rim Light von rechts hinten, Farbe Teal, Intensität 2.0, um die Silhouette vom Hintergrund zu lösen.“ Wenn du nie in einem Studio gestanden hast, nie Lampen geschleppt und Lichtformer gewechselt hast, kommst du gar nicht auf die Idee, das zu verlangen. Du nimmst das flache Einheitslicht, das die Modelle standardmäßig liefern, weil es „sicher“ ist. Das ist der Grund, warum 90 Prozent der KI-Bilder gleich aussehen. Weil 90 Prozent der Nutzer kein Licht lesen können. Du kannst es. Das ist dein unfairer Vorteil.

Jetzt wird es technisch, und das ist der Punkt, an dem viele Hobbyisten aussteigen – und wo du als Profi anfängst, echte Qualität zu liefern und dich vom Markt abzuheben. Vergiss das klassische „Prompting“. Das Schreiben von langen, blumigen Sätzen wie „Eine wunderschöne Elfe steht in einem magischen Wald, es ist neblig und mystisch…“ ist ineffizient, unpräzise und ehrlich gesagt veraltet. Es ist Malen nach Zahlen. Sprache ist schwammig. Was bedeutet „wunderschön“? Für dich ist das etwas anderes als für die KI oder für deinen Kunden. Was bedeutet „mystisch“? Nebel? Dunkelheit? Leuchtende Pilze? Deshalb arbeiten wir auf dem höchsten Level nicht mehr mit Prosa, sondern mit Struktur. Wir nutzen JSON (JavaScript Object Notation) oder ähnliche strukturierte Datenformate, um mit der KI zu kommunizieren – oft im Dialog mit LLMs (Large Language Models), die als Dolmetscher und Architekten für die Bild-KI fungieren. Besonders in Workflows, die über API-Schnittstellen laufen oder in fortgeschrittenen Interfaces wie ComfyUI integriert sind, ist das der Standard.

Warum JSON? Weil es Parameter trennt, isoliert, gewichtet und kontrollierbar macht. Stell dir vor, du beschreibst ein Bild nicht wie ein Dichter, sondern wie ein Architekt oder ein Regisseur, der sein Set aufbaut. Du definierst das Subjekt mit Attributen für Alter, Hauttextur und Kleidung. Du definierst die Kamera mit Modell, Objektiv, Blende und Winkel. Du definierst das Licht mit Quellen, Positionen, Farben und Härtegraden. Du definierst die Umgebung und den Stil separat. Indem du die Bildbestandteile in Variablen zerlegst, erlangst du Wiederholbarkeit. Du kannst den Wert für „lighting“ ändern, ohne dass sich das „subject“ verändert. Du kannst die Kamera wechseln, ohne dass die Kleidung plötzlich eine andere Farbe hat oder die KI „vergisst“, was sie eigentlich malen sollte. Das ist Programmierung von Bildern. Das ist Synthografie in Reinform. Wer das beherrscht, der „hofft“ nicht auf ein gutes Bild. Der baut es.

Diese methodische Herangehensweise erlaubt es dir, komplexe Bildwelten zu erschaffen, die konsistent sind. Wenn du eine Serie für einen Kunden produzierst, kannst du dir keine Zufälle leisten. Du kannst nicht dem Kunden sagen: „Ja, im dritten Bild hat das Model plötzlich blonde Haare, weil die KI heute einen schlechten Tag hat.“ JSON und strukturierte Parameter geben dir die Zügel in die Hand, die der normale Prompt-Tipper gar nicht sieht. Es verwandelt die „Black Box“ der KI in ein Cockpit mit Reglern und Schaltern. Doch selbst der beste Code ist nichts ohne den richtigen Rohstoff. Hier kommen wir zum vielleicht wichtigsten Punkt, warum du als Fotograf unverzichtbar bleibst: Input. Eine KI, die nur mit Text gefüttert wird, halluziniert. Sie erfindet Dinge. Das ist oft toll für Fantasy oder surreale Kunst, aber katastrophal für spezifische Visionen, Porträts realer Personen oder Corporate Identity. Die wahre Macht entfaltet sich, wenn wir der KI eigene Bilder geben. Gute Ausgangsfotos. Deine Fotos.

Stell dir folgende Situation vor: Du fotografierst ein Model im Studio. Das Licht ist okay, die Pose ist perfekt, der Gesichtsausdruck ist genau der, den du willst – dieser eine Moment zwischen Einatmen und Ausatmen. Aber du hast kein Budget, um sie nach Island an einen schwarzen Strand zu fliegen, und du hast auch nicht das 10.000-Euro-Kleid vom Designer zur Hand, das eigentlich im Konzept stand. Früher war das ein Fall für aufwendiges Composing, das Tage gedauert hat. Du musstest Stock-Fotos suchen, die nie ganz passten, Perspektiven verzerren, Licht malen, und oft sah es am Ende trotzdem „reingeklebt“ aus, weil die Physik nicht stimmte. Heute nimmst du dein Studiofoto. Du nutzt es als Referenz (Image-to-Image) und steuerst die Struktur über Technologien wie ControlNet (mit Modulen wie Depth Maps, Canny Edge oder OpenPose). Du sagst der KI: „Nimm exakt diese Körperhaltung. Nimm exakt diese Gesichtszüge. Nimm exakt diese Lichtverteilung. Aber zieh ihr das futuristische Kleid an und stell sie an den Strand in Island. Behalte die Lichtrichtung bei.“

Weil das Ausgangsmaterial – dein Foto – qualitativ hochwertig ist, wird das Ergebnis hochwertig sein. Die KI muss die Anatomie nicht raten (was sie oft falsch macht, siehe das berüchtigte Hände-Problem), weil du ihr die Anatomie gibst. Sie muss die Lichtrichtung nicht raten, weil dein Foto die Schatten vorgibt. Je besser dein Input-Foto, desto realistischer, schärfer und glaubwürdiger ist das Ergebnis. Ein unscharfes, schlecht beleuchtetes Handyfoto führt zu Matsch. Ein knackscharfes RAW-File aus deiner 50-Megapixel-Kamera führt zu einem High-End-Render. Das bedeutet: Wer fotografieren kann, hat den besseren Rohstoff. Wir sind die Lieferanten der digitalen DNA, aus der die neuen Welten gebaut werden. Ohne diese DNA ist alles nur generisches Rauschen. Du lieferst die Substanz, die KI liefert die Dekoration und die Transformation. Du bist der Anker in der Realität.

Ein weiteres Problem der frühen KI-Bilder (wir erinnern uns an 2023/2024) war dieser furchtbare „Plastik-Look“. Alles sah aus wie Airbrush, zu glatt, zu perfekt, wie Videospielgrafik auf Steroiden. Haut wie Gummi, Augen wie Glasmurmeln. Der Experte – also du – arbeitet heute mit cinematischen Modellen. Das sind speziell trainierte Checkpoints (oft basierend auf Stable Diffusion XL oder proprietären neuen Architekturen wie Flux oder spezialisierten Fine-Tunes), die nicht auf „hübsch“ trainiert sind, sondern auf „echt“. Diese Modelle verstehen, dass Haut Poren hat. Dass Poren nicht gleichmäßig verteilt sind. Dass Licht in einer Linse bricht und Fehler erzeugt – Lens Flares, Halation, chromatische Aberration, Vignettierung. Dass analoger Film ein Rauschverhalten hat, das digitalem Rauschen überlegen ist. Wir nutzen Modelle, die „hässlich“ können. Dreck, Asymmetrie, Chaos. Das ist der Schlüssel zum Fotorealismus. Die Realität ist nicht perfekt. Eine KI, die Perfektion anstrebt, scheitert an der Realität. Ein echtes Foto ist nie 100 % sauber. Als Künstler wählst du das Modell wie früher den Film. Brauchst du die Farben eines Kodak Portra 400? Nimmst du Modell A. Brauchst du den düsteren, körnigen, kontrastreichen Look eines Ilford Delta 3200 Schwarzweiß-Films? Nimmst du Modell B. Du kannst diese Modelle sogar mixen (Checkpoint Merging), um deinen eigenen, unverwechselbaren Stil zu kreieren. Das ist wie das Mischen von Farben auf einer Palette. Ein Laie nutzt die Standard-Farben aus der Tube (das Standard-Modell von Midjourney). Ein Meister mischt sich seinen Ton.

Aber lass uns an diesem Punkt ehrlich sein: Ein Bild, das zu 100 Prozent aus der KI kommt, fühlt sich oft seltsam glatt an, selbst mit den besten Modellen. Ein Bild, das heute noch zu 100 Prozent klassisch in Photoshop gemalt oder retuschiert wird, dauert oft zu lange, um wirtschaftlich zu sein. Die Magie – der eigentliche künstlerische Durchbruch – liegt im „Dazwischen“. In der hybriden Kunst. Wir müssen aufhören, in Lagern zu denken. Hier die Fotografen, da die KI-Nerds. Der Experte von 2026 ist ein Grenzgänger. Hybride Kunst bedeutet: Du nutzt die KI nicht, um das ganze Bild zu machen. Du nutzt sie, um Elemente zu erzeugen, die du fotografisch nicht oder nur schwer bekommst.

Vielleicht fotografierst du das Model im Studio. Das ist echt. Die Emotion ist echt. Die Haut ist echt. Aber das Kleid? Vielleicht skizzierst du das grob in Photoshop, fütterst diese Skizze in eine lokale KI, lässt dir fünf Textur-Varianten von Seide oder Metall generieren, und dann – und das ist der entscheidende Schritt – compst du diese KI-Elemente klassisch in Photoshop zurück auf das echte Foto. Du nutzt Masken. Du nutzt Gradationskurven. Du nutzt den Mischpinsel. Du verheiratest das generierte Chaos mit der fotografischen Ordnung. Das ist Hybrid-Kunst. Das Ergebnis ist ein Werk, bei dem niemand mehr sagen kann, wo das Foto aufhört und die KI anfängt. Es gibt keine Nahtstellen. Es gibt keine „KI-Artefakte“, weil du sie manuell entfernt hast. Es gibt keine physikalischen Unmöglichkeiten, weil du sie korrigiert hast.

Diese hybride Arbeitsweise ist es, die deinen Stil unkopierbar macht. Jemanden, der nur promptet, kann man kopieren. Man klaut den Prompt, man kriegt ein ähnliches Bild. Aber jemanden, der fotografiert, malt, generiert, maskiert, überlagert und retuschiert? Das ist eine Handschrift. Das ist ein Prozess, der so komplex und individuell ist, dass er immun gegen Nachahmung wird. Du bist nicht mehr nur ein User einer Software. Du bist ein Alchemist, der verschiedene Substanzen mischt, um Gold zu machen.

Und hier kommen wir zu einem Punkt, der oft übersehen wird, der aber über deine Karriere entscheiden kann: Datenschutz und Urheberschaft. Wenn du professionell arbeitest, wenn du hybride Kunst erschaffst, die deinen Namen tragen soll, dann gibt es eine goldene Regel: Nichts verlässt deinen Rechner. Nutze keine öffentlichen Web-Interfaces für deine finale Arbeit. Lade keine Kundenfotos in eine Cloud-KI hoch, deren AGB du nicht zu 100 Prozent verstehst (und wer tut das schon?). Poste deine Prompts und deine Workflows nicht in öffentlichen Discord-Channels. Warum?

Erstens: Der Schutz deiner DNA. Wenn du einen einzigartigen Stil entwickelt hast, willst du nicht, dass eine öffentliche KI diesen Stil lernt und ihn morgen jedem 14-Jährigen zur Verfügung stellt. Wenn du deine besten Arbeiten in ein offenes System fütterst, trainierst du deine eigene Konkurrenz. Zweitens: Kundensicherheit. Stell dir vor, du bearbeitest Bilder für eine Kampagne eines Autoherstellers, die erst in sechs Monaten launchen darf. Lädst du das Bild in eine öffentliche KI, um den Hintergrund zu ändern, hast du im schlimmsten Fall gerade ein NDA (Geheimhaltungsvereinbarung) gebrochen. Das Bild liegt jetzt auf einem Server in den USA. Das ist berufliches Harakiri.

Der Profi nutzt lokale KI-Instanzen. Wir reden über Stable Diffusion, Flux oder Nachfolgemodelle, die auf deiner eigenen Grafikkarte laufen (via Interfaces wie Automatic1111, ComfyUI oder Fooocus). Warum lokal? Weil du hier eigene Modelle (LoRAs/Checkpoints) trainieren kannst. Du kannst der KI deinen Stil beibringen, dein Licht, deine Farbpalette – und dieses Modell gehört nur dir. Es liegt auf deiner SSD. Niemand sonst hat Zugriff darauf. Das ist dein eigentliches Kapital. Du baust dir eine persönliche KI, die wie ein Assistent funktioniert, der nur für dich arbeitet. Sie kennt deine Vorlieben. Sie weiß, wie du Hauttöne magst. Aber sie plaudert Betriebsgeheimnisse nicht aus. Wenn du öffentlich generierst, bist du ein Tourist. Du nutzt die Infrastruktur, die alle nutzen. Du bekommst den „Look“, den alle haben. Wenn du lokal und persönlich arbeitest, bist du ein Einheimischer. Du baust deine eigene Infrastruktur.

Kommen wir nun zum Elefanten im Raum, den viele KI-Evangelisten gerne ignorieren oder wegdiskutieren wollen. Sie behaupten, man brauche kein Photoshop mehr. Das Bild komme ja fertig aus der Maschine. Das ist der größte Trugschluss von allen. Das ist die Lüge, die Amateure glauben und die sie daran hindert, jemals professionelle Ergebnisse zu erzielen. Ein KI-Bild „out of the box“ ist Rohmaterial. Es ist wie ein ungeschliffener Diamant – oder manchmal eher wie ein Klumpen Lehm, der grob die Form hat, die man will, aber noch voller Fingerabdrücke und Unebenheiten steckt.

Hier beginnt deine eigentliche Arbeit als Profi. Hier beginnt die „Synthografie“ als echtes Handwerk. Du nimmst das Bild in Photoshop. Und dann zerlegst du es. Du nutzt „Generative Fill“ nur für kleine, kontrollierte Bereiche, um Fehler zu korrigieren oder Details hinzuzufügen. Du nutzt Frequenztrennung (Frequency Separation), um die Struktur der KI-Haut zu reparieren, ohne die Farben zu zerstören, um ihr diese menschliche Unvollkommenheit zurückzugeben, die die KI weggebügelt hat. Du machst Dodge & Burn (Abwedeln und Nachbelichten), um den Fokus des Betrachters zu lenken – etwas, das die KI oft vergisst, weil sie das ganze Bild gleichmäßig „interessant“ machen will. Ein gutes Bild braucht aber Hierarchie. Es braucht Bereiche, die im Schatten verschwinden, damit das Wichtige leuchten kann. Du baust Composings aus mehreren KI-Generierungen. Vielleicht war der Kopf im ersten Bild perfekt, aber die Hände im dritten und der Hintergrund im fünften. In Photoshop bringst du das zusammen. Du matchst die Farben (Color Grading), du passt die Schwarzwerte an, du sorgst dafür, dass das Grain über dem gesamten Bild konsistent liegt.

Das ist digitales Malen auf höchstem Niveau. Die KI liefert dir die Pixel, aber du bestimmst, wo sie bleiben. Ein reines KI-Bild erkennt man oft sofort. Es wirkt „uncanny“, unheimlich, künstlich. Ein von dir in Photoshop veredeltes, kuratiertes und bearbeitetes Bild erkennt man nicht mehr als KI. Man fühlt es nur. Und das ist der Unterschied zwischen einem generierten Bild und einem Kunstwerk.

Was bist du also, wenn die Maschine die Pixel rendert? Du bist nicht mehr nur der Handwerker, der jeden Pinselstrich zieht (obwohl du das in der Retusche noch tust). Du bist Regisseur. Du bist Art Director. Du bist Kurator. Die Fähigkeit, „Nein“ zu sagen, wird zu deiner wichtigsten Eigenschaft. Die KI bietet dir 20 Varianten an. 19 davon sind Müll – technisch vielleicht okay, aber seelenlos, langweilig, repetitiv. Die eine Variante zu erkennen, die den Funken hat, das ist menschliche Intuition. Das ist Erfahrung. Das ist dein kulturelles Wissen.

Eine Maschine weiß nicht, was Schmerz ist. Sie weiß nicht, was Sehnsucht ist. Sie kann Sehnsucht simulieren, wenn du ihr die Parameter gibst. Aber sie kann nicht beurteilen, ob das Bild diese Sehnsucht auch auslöst. Das kannst nur du. Wir erschaffen neue Welten, ja. Wir können Dinge visualisieren, die zu teuer, zu gefährlich oder physikalisch unmöglich zu fotografieren wären. Wir können Storytelling betreiben in einer Geschwindigkeit, die früher undenkbar war. Aber diese Welten brauchen ein Fundament. Und dieses Fundament ist deine menschliche Erfahrung. Wenn du ein Bild erstellst, das Einsamkeit ausdrücken soll, greifst du auf dein eigenes Gefühl von Einsamkeit zurück. Du wählst die Farben (kalt, entsättigt), die Komposition (viel negativer Raum), die Pose (verschlossen). Du steuerst die KI so lange, bis sie dein Inneres nach außen kehrt. Die KI ist dabei nur der Pinsel. Ein sehr komplexer, manchmal eigensinniger, manchmal genialer Pinsel, aber nur ein Pinsel. Das Gemälde entsteht in dir.

Lass uns kurz über Geld reden. Das ist wichtig. Warum sollten Kunden dich, den Experten, bezahlen, wenn sie selbst ein Abo für 20 Euro im Monat abschließen können und sich ihre Bilder „selbst machen“? Aus demselben Grund, warum Menschen in Restaurants gehen, obwohl sie einen Herd zu Hause haben. Aus demselben Grund, warum Menschen zum Friseur gehen, obwohl man Scheren im Supermarkt kaufen kann. Jeder kann kochen. Aber nicht jeder kann gut kochen. Und vor allem: Nicht jeder kann konsistent gut kochen, unter Zeitdruck, für 100 Leute, während die Küche brennt.

Kunden brauchen Konsistenz. Sie brauchen Rechtssicherheit (soweit im KI-Recht möglich). Sie brauchen Bilder, die exakt ihre Marke treffen und nicht einfach nur „irgendwie cool“ aussehen. Ein Kunde sagt: „Ich brauche unser Produkt in der Hand einer Frau, die aussieht wie unsere Zielgruppe (35-40, urban, modern), das Licht muss zu unserer CI passen (hell, freundlich, Pastell), und das Bild muss in 10.000 Pixel Breite für den Messestand vorliegen. Bis morgen.“ Der Laie mit seinem Prompt bricht hier zusammen. Das Produkt wird von der KI verzerrt (sie kennt das Logo nicht, sie halluziniert Tasten, die nicht da sind). Die Frau hat sechs Finger oder schielt. Das Licht ist zu dramatisch, weil das Standard-Modell Drama liebt. Die Auflösung ist zu gering.

Du, der Experte, nimmst das Produktfoto (echtes Foto!), trainierst vielleicht kurz ein LoRA (Low-Rank Adaptation) auf das Produkt, nutzt ControlNet für die Pose, generierst den Hintergrund, compst das echte Produkt in Photoshop rein, machst ein Upscaling mit KI-Unterstützung (aber kontrolliert!), retuschierst die Fehler und lieferst pünktlich. Das ist dein Wert. Die Lösung von Problemen. Nicht das Drücken eines Knopfes. Du verkaufst nicht das Bild, du verkaufst das Ergebnis und die Sicherheit.

Wir dürfen bei all dem Enthusiasmus nicht ignorieren, dass diese Technologie auf den Werken von Millionen Künstlern trainiert wurde, oft ohne deren Einverständnis. Das ist ein Makel, der der derzeitigen KI-Landschaft anhaftet und den wir nicht wegdiskutieren können. Aber als Profis können wir nicht die Augen verschließen und hoffen, dass es weggeht. Wir müssen uns die Technologie aneignen und sie transformieren. Indem du deine eigenen Bilder als Basis nutzt, indem du deine eigene Vision durch JSON und Photoshop hineinpressen, machst du dir die Technik untertan. Du wirst wieder zum Urheber. Du schaffst Werke, die eine Schöpfungshöhe haben, weil der Prozess komplex und individuell ist. Du machst aus dem statistischen Durchschnitt etwas Einzigartiges.

Die Zukunft gehört den Hybriden. Den Zentauren. Halb Mensch, halb Maschine. Der reine Fotograf, der sich weigert, digital zu denken und KI als Teufelszeug abtut, wird zur Nische. Eine schöne, wertvolle Nische, wie Vinyl-Platten oder analoge Uhren, aber eine Nische. Der reine „Prompt-Artist“, der keine Ahnung von Bildern hat, wird wegrationalisiert werden, weil die KI bald so gut ist, dass sie keine Prompts mehr braucht, um Durchschnitt zu erzeugen. Aber derjenige, der beides verbindet – das Auge, das Handwerk, die Technik der Fotografie und die rohe, brutale Power der generativen KI – der ist unaufhaltsam. Hab keine Angst, ersetzt zu werden. Hab Angst davor, stehen zu bleiben.

Die KI ist ein Werkzeug. Ein Hammer baut kein Haus. Ein Hammer kann auch einen Daumen zertrümmern. Es kommt darauf an, wer ihn hält. Wenn du Ahnung von Fotografie hast: Glückwunsch. Du hast den größten Vorteil, den es gibt. Du verstehst das Licht. Du verstehst die Komposition. Wenn du Photoshop beherrschst: Perfekt. Du hast die Kontrolle über das Finish. Wenn du bereit bist, Code (JSON) und komplexe Workflows zu lernen: Willkommen in der Elite.

Wir stehen nicht am Ende der Kunst. Wir stehen am Anfang einer neuen Ära. Einer Ära, in der die Barriere zwischen Vorstellungskraft und Bild fällt. Einer Ära, in der das technische „Wie“ (Wie male ich diesen Schatten?) in den Hintergrund tritt und das inhaltliche „Was“ (Warum ist dieser Schatten da?) in den Vordergrund rückt. Aber die Qualität dieses Bildes hängt immer noch von der Qualität der Vorstellungskraft ab. Und von der Fähigkeit, diese Vorstellungskraft technisch präzise umzusetzen. Die KI liefert die Pixel. Du lieferst den Sinn. Und solange Maschinen keinen Sinn für Ironie, für Schmerz, für Schönheit oder für den perfekten Moment haben, solange bleibst du im Fahrersitz. Du musst nur lernen, dieses verdammt schnelle Auto zu fahren, anstatt dich weinend auf die Rückbank zu setzen und dich darüber zu beschweren, dass die Landschaft so schnell vorbeizieht. Mach dich an die Arbeit. Es gibt Welten zu erschaffen, und sie warten auf jemanden, der weiß, was er tut.



Letzte Woche hab ich was gelesen, das mich seitdem nicht mehr loslässt. Otto – ja, das Otto, bei dem deine Eltern früher die Möbel bestellt haben und du heimlich den Katalog durchgeblättert hast wegen der Unterwäsche-Seiten – macht keine Fotoshootings mehr für Mode. Keine Models mehr. Keine Fotografen. Keine Studios.

Stattdessen: KI. Komplett.

Ein Kleidungsstück wird einmal fotografiert, flach auf dem Tisch oder auf einer Schneiderpuppe. Dann rechnet ein Algorithmus aus, wie das an einem Menschen aussehen würde. Der Mensch existiert nicht. Der wurde auch generiert.

Und seitdem denk ich drüber nach. Jeden Tag ein bisschen. Und ich komm nicht zu einem klaren Ergebnis. Was vielleicht auch der Punkt ist.


Mein erster Gedanke war: Klar

Mein allererster Gedanke, als ich das gelesen hab, war nicht Empörung. Der war: Ja logisch. War doch nur eine Frage der Zeit.

Wenn du ein Unternehmen bist, das jeden Tag hunderte von Produkten online stellen muss – jedes Teil in verschiedenen Farben, verschiedenen Größen, aus verschiedenen Winkeln – dann ist ein klassisches Shooting ein Wahnsinn. Models buchen, Studio mieten, Stylisten, Visagisten, Fotografen, Assistenten. Für jede Bluse ein halber Tag. Für jeden Hoodie eine halbe Produktion.

Und jetzt kommt jemand und sagt: Das geht auch in drei Minuten. Für einen Bruchteil der Kosten.

Natürlich machen die das. Jeder würde das machen. Das ist nicht bösartig, das ist Betriebswirtschaft. Das ist ein Vorstand, der auf Zahlen guckt und sagt: Warum geben wir Millionen für was aus, das eine Maschine billiger kann?

Mein zweiter Gedanke war dann allerdings: Moment mal.


Die Leute, über die keiner redet

Was bei der ganzen Effizienz-Diskussion nämlich untergeht: Da haben echte Menschen gearbeitet. Nicht irgendwelche abstrakten Arbeitskräfte auf einer Tabelle, sondern Leute mit Namen und Miete und Kindern.

Fotografen, die sich jahrelang einen Ruf aufgebaut haben. Die angefangen haben als Assistenten, die Koffer geschleppt und Stative aufgebaut haben, bevor sie irgendwann selbst hinter die Kamera durften. Models, für die das ein Job war – nicht glamourös wie in den Magazinen, aber ehrlich und regelmäßig. Visagisten, die morgens um sechs im Studio standen. Stylisten, die wussten, welche Klammer wo hin muss, damit die Bluse richtig sitzt. Beleuchter. Produktionsassistenten. Retuscheure.

Ein ganzes Ökosystem. Aufgebaut über Jahrzehnte.

Und das wird jetzt nicht langsam umgebaut oder transformiert oder wie auch immer man das heute nennt. Das wird abgeschaltet.

Ich hab selbst lange genug im Kreativbereich gearbeitet, um zu wissen, wie sich das anfühlt, wenn plötzlich ein ganzer Auftragszweig wegbricht. Nicht weil du schlecht bist. Nicht weil sich der Markt verändert hat. Sondern weil eine Maschine es billiger kann.

Ja, es werden neue Jobs entstehen. KI-Kuratoren, Prompt-Designer, virtuelle Set-Gestalter, was auch immer. Aber erzähl das mal der Fotografin, die gerade ihre letzte Rechnung geschrieben hat. Die hat zwanzig Jahre Erfahrung und eine Ausrüstung für hunderttausend Euro. Die will nicht umschulen. Die will fotografieren. Das ist ihr Beruf. Das ist ihr Leben.


Die Sache mit der Ehrlichkeit

Was mich aber noch mehr beschäftigt als die wirtschaftliche Seite, ist die Frage nach der Ehrlichkeit.

Modefotografie war schon immer fake. Das muss man klar sagen. Kein Katalogbild war je die Realität. Da wurde geschminkt, beleuchtet, retuschiert, Kleidung mit Klammern auf Figur gezurrt. Windmaschinen für die perfekte Haarsträhne. Photoshop für alles, was danach noch nicht gestimmt hat. Beine verlängert, Taille schmaler, Haut geglättet bis zur Unkenntlichkeit.

Das war nie die Wahrheit. Das war immer Inszenierung.

Aber da war immer noch ein Mensch. Ein echter Mensch, der in dem Kleid stand. Der sich bewegt hat. Der eine Stimmung hatte an dem Tag. Der vielleicht gerade verliebt war oder müde oder genervt – und manchmal hat genau das das Bild besonders gemacht. Dieses Etwas, das man nicht planen kann.

Jetzt ist da kein Mensch mehr. Da ist ein Algorithmus, der einen Menschen simuliert. Der berechnet, wie Stoff fallen würde an einem Körper, den es nicht gibt. Der Schatten erfindet, die kein Licht geworfen hat. Der ein Gesicht generiert, das nie gelacht hat, nie geweint hat, nie existiert hat.

Und der Kunde auf der Website sieht ein Bild und denkt: So sieht das Kleid an einem Menschen aus.

Tut es aber nicht. Weil es nie an einem Menschen war.

Ist das schlimm? Ich weiß es ehrlich gesagt nicht. Ich schwanke. Einerseits denke ich: Wenn die Leute wissen, dass das KI ist, ist es okay. Ist ja nur Produktfotografie, kein Journalismus. Andererseits: Wissen sie es? Steht das irgendwo? Steht unter dem Bild „Dieses Model existiert nicht“? Ich hab nachgeschaut. Da steht nichts.

Und das stört mich.


Das Diversity-Paradox

Ein Argument, das immer kommt wenn es um KI-Models geht: Vielfalt. Man kann auf Knopfdruck Models in jeder Körperform, jedem Alter, jeder Ethnie generieren. Theoretisch kann jeder Kunde das Kleidungsstück an jemandem sehen, der ihm ähnlich sieht. Alle Hautfarben, alle Größen, alle Formen.

Klingt großartig. Klingt nach Fortschritt. Klingt nach dem, was wir seit Jahren fordern.

Aber denk mal eine Sekunde weiter.

Statt echten Menschen mit echten Körpern und echten Geschichten eine Bühne zu geben – und sie dafür zu bezahlen – generiert man ihre digitalen Abbilder. Die simulierte Vielfalt ersetzt die echte. Auf dem Bildschirm sieht es divers aus. Hinter dem Bildschirm sitzt ein Algorithmus und ein Techniker.

Das ist wie wenn eine Firma sagt: Wir sind total inklusiv – und dann auf der Party nur Hologramme einlädt.

Die Bilder sind vielfältig. Die Produktion dahinter ist es nicht mehr. Da sitzt kein Model mit Down-Syndrom, das stolz vor der Kamera steht. Da sitzt kein Plus-Size-Model, das zeigt, dass Mode für alle da ist. Da sitzt eine Software, die einen Datensatz abbildet.

Ist das Repräsentation? Oder ist das die billigste Form von Alibi?


Was ich vermissen werde

Jeder, der mal bei einem Shooting dabei war, kennt diese Momente. Wo etwas Ungeplantes passiert. Wo das Model eine Bewegung macht, die niemand vorhergesehen hat. Wo das Licht plötzlich durch ein Fenster fällt, das niemand beachtet hat. Wo der Stylist im letzten Moment noch was ändert und plötzlich stimmt alles. Wo ein kleiner Fehler das Bild erst lebendig macht.

Ich erinnere mich an ein Shooting, Jahre her, wo das Model zwischen zwei Takes gelacht hat. Nicht für die Kamera, einfach so, weil jemand was Lustiges gesagt hat. Die Fotografin hat ausgelöst. Das Bild war besser als alle geplanten Shots zusammen. Weil es echt war.

Diese Momente gibt es in der KI nicht.

Die KI kennt keine Zufälle. Sie kennt Wahrscheinlichkeiten. Sie kann Variationen berechnen, aber keine echten Überraschungen produzieren. Alles was sie macht, liegt innerhalb des Erlernten. Nichts liegt wirklich daneben. Und genau das fehlt.

Die besten Bilder, die ich kenne, haben einen Bruch drin. Irgendwas, das nicht perfekt ist. Ein Blick, der nicht gestellt wirkt. Eine Falte, die nicht glattgezogen wurde. Eine Bewegungsunschärfe, die eigentlich ein Fehler ist, aber dem Bild Leben gibt.

Das ist der Unterschied zwischen einem Bild und einem generierten Output. Zwischen Fotografie und Berechnung. Zwischen etwas, das passiert ist, und etwas, das errechnet wurde.


Der schleichende Gewöhnungseffekt

Was mich vielleicht am meisten beunruhigt, ist nicht die Technik selbst. Die ist beeindruckend, keine Frage. Was mich beunruhigt, ist die Gewöhnung.

In einem Jahr werden wir KI-generierte Produktbilder sehen und es nicht mehr merken. Nicht weil wir dumm sind, sondern weil unser Auge sich anpasst. Weil wir es normal finden werden. So wie wir es normal finden, dass Gesichter in Zeitschriften keine Poren haben und Beine in Werbung immer gleich lang sind.

Und wenn wir uns daran gewöhnt haben, dass die Menschen auf Produktbildern nicht echt sind, gewöhnen wir uns vielleicht auch daran, dass die Menschen in Kampagnen nicht echt sind. Und dann in Werbespots. Und dann in Filmen.

Irgendwann sind wir umgeben von Bildern von Menschen, die nicht existieren. Und wir finden das normal.

Ich weiß nicht, ob mich das gruselt oder ob ich übertreibe. Wahrscheinlich beides.


Die Katalog-Frage

Hier muss ich allerdings auch ehrlich sein.

Otto ist ein Massenhändler. Die brauchen tausende Bilder pro Woche. Für die war Fotografie nie Kunst. Das war Logistik. Fließband mit Blitz und Kamera. Nächstes Teil, nächster Click, nächstes Bild.

Dass die auf KI umsteigen, ist ungefähr so überraschend wie die Tatsache, dass Fabriken Roboter benutzen. Die Frage war nie ob, sondern wann.

Und Katalogfotografie – sorry an alle Kollegen, die das gemacht haben – war nie der Bereich, in dem die Seele der Fotografie wohnt. Das war ehrliche Arbeit, oft gut bezahlt, aber es war Handwerk am Fließband. Da ging es nicht um den magischen Moment. Da ging es darum, dass die Bluse gut aussieht und die Farbe stimmt.

Die Frage ist nur: Bleibt es dabei? Oder ist das der Anfang?

Heute Katalog. Morgen Kampagnen. Übermorgen Editorials. Nächstes Jahr Werbespots. In fünf Jahren Spielfilme.

Ich weiß nicht, wo die Grenze ist. Ich weiß nicht mal, ob es eine gibt.


Was ich glaube

Ich glaube, dass es einen Punkt geben wird, an dem die Leute genug haben von der Perfektion. An dem das Generierte nervt. An dem genau das Echte, Unperfekte, Menschliche wieder wertvoll wird.

Das war immer so. Jede Technologie erzeugt ihre Gegenbewegung. Vinyl in Zeiten von Streaming. Handwerk in Zeiten von Massenproduktion. Analog in Zeiten von Digital.

Vielleicht wird es in ein paar Jahren ein Qualitätsmerkmal sein: „Dieses Bild wurde mit echten Menschen gemacht.“ So wie heute auf Lebensmitteln steht: „Von echten Bauern.“ Das wäre irgendwie absurd und traurig gleichzeitig.

Aber bis dahin werden viele Leute ihre Jobs verlieren. Und viele Bilder werden ihre Seele verlieren. Und wir werden uns daran gewöhnen, weil wir uns an alles gewöhnen.


Am Ende

Ich bin nicht gegen das, was Otto macht. Ich verstehe es. Ich würde wahrscheinlich genauso entscheiden, wenn ich deren Zahlen sehen würde.

Aber ich bin traurig darüber. Auf eine stille Art. So wie man traurig ist, wenn ein Laden zumacht, in den man nie besonders oft gegangen ist, aber von dem man wusste, dass er da ist.

Weil wieder ein Stück von dem verschwindet, was Fotografie für mich ausgemacht hat. Dieses Zusammenkommen von Menschen. Dieses gemeinsame Arbeiten an einem Bild. Diese Energie im Studio, wenn alles stimmt und alle wissen, dass gerade was Gutes passiert.

Das wird es noch geben. Bei kleineren Projekten, bei Leuten die es sich leisten können und wollen. Bei denen, die verstehen, dass der Prozess genauso wichtig ist wie das Ergebnis.

Aber es wird weniger.

Und irgendwann sitzen wir alle vor Bildschirmen voller perfekter Menschen, die nicht existieren, in perfekter Kleidung, die perfekt fällt, in perfektem Licht, das nie geleuchtet hat.

Und dann wundern wir uns, warum uns nichts mehr berührt.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mich was umtreibt und ich es loswerden muss. Wird transkribiert und mit KI in Form gebracht. Die Gedanken, die Widersprüche und die leise Traurigkeit sind komplett meine eigenen.



Okay, das ist mir ein bisschen peinlich.

Gestern hab ich euch erzählt, ihr sollt mir eine Mail schreiben, wenn ihr das Video sehen wollt. Schöne Idee. Nur hab ich die falsche Mail-Adresse hingeschrieben.

Ja, wirklich.

Da stand brownz@brownzart.at – richtig wäre brownz@brownz.art gewesen. Kleiner Unterschied, große Wirkung: Die meisten Mails sind im Nirgendwo gelandet.

Ein paar von euch hatten meine richtige Adresse offenbar schon gespeichert und haben es trotzdem geschafft. Die haben den Link auch bekommen. Aber der Rest – tja. Sorry dafür. Echt.

Im Originalbeitrag von gestern ist die Adresse jetzt korrigiert. Wer den nochmal lesen will:

10 Seconds Into The Future – der originale Beitrag


Aber eigentlich ist es jetzt eh egal

Weil ich das Video in der Zwischenzeit einfach auf YouTube hochgeladen hab. Als verstecktes Video, 720p HD. Nicht so gut wie die Dropbox-Version, aber es reicht, um den Wahnsinn zu sehen.

Hier ist der Link:

Einfach draufklicken und gucken. Kein Download nötig, keine Mail, kein Aufwand. Wer gestern nicht durchgekommen ist, kommt jetzt einfach so dran.


Was ich mir trotzdem wünschen würde

Schaut es euch an. Und dann sagt mir, was ihr denkt.

8 Minuten und 15 Sekunden Fiebertraum, zusammengebaut aus Gesprächen mit der KI, irgendwann zwischen Mitternacht und drei Uhr morgens. Kein Plan, kein Storyboard, kein Konzept. Nur Wahnsinn mit Rhythmus.

Ich bin immer noch zu nah dran, um das selbst einzuordnen. Ich brauch eure Augen. Und eure Ehrlichkeit.

Ob per Kommentar, per YouTube-Kommentar, per Mail an die – diesmal richtige – Adresse brownz@brownz.art oder per Rauchzeichen. Hauptsache, ihr sagt was.


Und nochmal sorry wegen der Adresse. Passiert mir hoffentlich nicht nochmal.

Wahrscheinlich aber doch. Weil um drei Uhr morgens ist Korrekturlesen halt nicht so meine Stärke.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mir was durch den Kopf geht. Wird transkribiert und dann mit KI in Form gebracht. Die Peinlichkeit wegen der falschen Mail-Adresse ist allerdings hundert Prozent handgemacht.



Kling v3 ist draußen und mein Feed explodiert. Überall Videos, die vor ein paar Monaten noch unmöglich gewesen wären. Leute, die vorher nie was mit Bewegtbild gemacht haben, posten plötzlich Clips, die aussehen wie aus einem Kinotrailer.

Das ist großartig. Wirklich. Aber ich seh auch die andere Seite. Die Frustration, wenn es nicht klappt. Die Verwirrung, weil Video-KI eben nicht funktioniert wie Bild-KI. Die Enttäuschung, wenn das Ergebnis zwar technisch beeindruckend ist, aber irgendwie… leblos wirkt.

Also dachte ich mir: Schreib mal auf, was du gelernt hast. Nicht als Anleitung für Kling speziell – die Technik ändert sich eh alle paar Monate – sondern als Grundlagen-Ding. Sachen, die du wissen solltest, bevor du anfängst. Fehler, die du nicht machen musst, weil ich sie schon gemacht hab.

Hier ist alles, was ich Einsteigern erzählen würde.


Vergiss erstmal alles, was du über Bild-KI weißt

Okay, nicht alles. Aber vieles.

Wenn du mit Midjourney oder Stable Diffusion gearbeitet hast, denkst du vielleicht: Video ist ja nur bewegtes Bild. Kann so anders nicht sein.

Doch. Ist es.

Bei Bildern geht es um einen Moment. Eine Komposition. Ein Gefühl, eingefroren in der Zeit. Du kannst stundenlang am Prompt feilen, verschiedene Seeds ausprobieren, am Ende wählst du das beste Bild aus und fertig.

Bei Video geht es um Bewegung. Um Zeit. Um das, was zwischen den Frames passiert. Und da wird es kompliziert.

Denn die KI muss nicht nur verstehen, wie etwas aussieht, sondern auch, wie es sich bewegt. Wie Stoff fällt. Wie Haare wehen. Wie ein Gesicht sich verzieht, wenn jemand lächelt. Das sind komplett andere Probleme.

Und deshalb funktionieren Prompts, die bei Bildern super klappen, bei Video oft gar nicht. Weil du jetzt nicht nur beschreibst, was zu sehen ist, sondern auch, was passiert.


Denk in Szenen, nicht in Bildern

Der größte Fehler, den ich am Anfang gemacht hab: Ich hab versucht, komplexe Bilder in Bewegung zu setzen.

Ein episches Fantasy-Bild mit zwanzig Details, Magie, Explosionen, fliegenden Objekten – und dann wundern, warum das Video aussieht wie ein Albtraum auf Drogen.

Video-KI kann noch nicht alles gleichzeitig. Je mehr du reinpackst, desto wahrscheinlicher geht irgendwas schief. Gesichter verformen sich. Objekte verschmelzen. Physik hört auf zu existieren.

Was funktioniert: Einfache Szenen mit klarer Handlung.

Eine Person, die langsam den Kopf dreht. Rauch, der aufsteigt. Wasser, das fließt. Blätter, die fallen. Kamerafahrt durch eine Landschaft.

Je simpler die Bewegung, desto besser das Ergebnis. Das klingt langweilig, aber es ist die Wahrheit. Die beeindruckendsten Clips, die ich gesehen hab, sind oft die einfachsten.

Komplexität kannst du später im Schnitt aufbauen. Aber das einzelne Video-KI-Segment sollte eine Sache gut machen, nicht zehn Sachen mittelmäßig.


Länge ist dein Feind

Noch so eine Lektion, die wehgetan hat.

Kling v3 und ähnliche Tools können mittlerweile längere Clips generieren. Zehn Sekunden, manchmal mehr. Und die Versuchung ist groß, das auch zu nutzen. Mehr ist besser, oder?

Nee.

Je länger der Clip, desto mehr Möglichkeiten hat die KI, Fehler zu machen. Am Anfang sieht alles super aus, und nach fünf Sekunden fängt plötzlich das Gesicht an zu mutieren. Oder die Physik macht Feierabend. Oder irgendwas Seltsames passiert, das du nicht beschreiben kannst, aber das definitiv falsch ist.

Mein Tipp: Generiere kürzere Clips. Drei bis fünf Sekunden. Die sind stabiler. Und wenn du längere Sequenzen brauchst, schneidest du mehrere kurze zusammen.

Das klingt nach mehr Arbeit, ist es auch. Aber das Ergebnis ist tausendmal besser, als einen langen Clip zu haben, der zur Hälfte unbrauchbar ist.


Kamera-Bewegungen verstehen

Das ist ein Punkt, den viele unterschätzen.

Video-KI kann nicht nur Objekte bewegen, sondern auch die Kamera. Zoom, Pan, Tilt, Dolly – all das lässt sich steuern, je nachdem welches Tool du nutzt.

Aber hier passieren die meisten Anfängerfehler.

Zu viel Bewegung auf einmal. Zoom während die Kamera schwenkt während das Objekt sich bewegt. Das Ergebnis ist Chaos. Visuelles Erbrechen.

Oder das Gegenteil: Gar keine Kamerabewegung, und der Clip wirkt statisch wie eine Diashow.

Die Wahrheit liegt in der Mitte. Eine kontrollierte, langsame Bewegung pro Clip. Entweder die Kamera bewegt sich, oder das Motiv bewegt sich. Selten beides gleichzeitig.

Guck dir mal Filme an und achte drauf, wie wenig oft passiert. Wie langsam Kamerafahrten sind. Wie viel Ruhe in guten Szenen steckt. Das ist kein Zufall.


Sound ist die halbe Miete

Jetzt kommen wir zu dem Teil, den die meisten völlig ignorieren. Und genau deshalb sehen ihre Videos aus wie… KI-Demos.

Ein Video ohne Sound ist kein Video. Es ist ein bewegtes Bild. Der Ton macht den Unterschied zwischen „ganz nett“ und „wow“.

Und ich rede nicht nur von Musik. Ich rede von allem.

Atmosphäre. Umgebungsgeräusche. Wind. Schritte. Das Rascheln von Stoff. Das Knistern von Feuer. All diese kleinen Dinge, die dein Gehirn erwartet, auch wenn du nicht bewusst drauf achtest.

Wenn du ein Video von einem Wald hast und es ist komplett still – irgendwas fühlt sich falsch an. Dein Gehirn weiß, dass Wälder nicht still sind. Da sind Vögel, Wind, Blätter, irgendwas.

Also: Nimm dir Zeit für Sound. Mindestens genauso viel wie für das Video selbst.


Wo du Sounds herbekommst

Es gibt Tonnen von Ressourcen. Kostenlose und bezahlte.

Freesound.org ist ein Klassiker. Riesige Bibliothek, alles Creative Commons, du musst nur aufpassen wegen der verschiedenen Lizenzen.

Epidemic Sound und Artlist sind bezahlt, aber dafür professionelle Qualität und klare Lizenzen. Wenn du das kommerziell nutzen willst, lohnt sich das.

Für Ambient-Sounds und Atmosphären gibt es auch KI-Tools mittlerweile. ElevenLabs macht Sound Effects, Udio und Suno machen Musik. Die sind noch nicht perfekt, aber für Hintergrund-Zeug oft gut genug.

Mein Workflow: Ich leg erstmal das Video hin, dann such ich passende Atmosphäre, dann Soundeffekte für spezifische Momente, und ganz am Ende Musik – falls überhaupt nötig.


Musik – weniger ist mehr

Apropos Musik.

Die meisten Anfänger-Videos haben zu viel davon. Oder die falsche. Oder beides.

Musik ist nicht dazu da, Stille zu füllen. Musik ist dazu da, Emotion zu verstärken. Wenn die Musik nichts verstärkt, lenkt sie nur ab.

Und diese epischen Trailer-Tracks, die alle benutzen – die funktionieren nur, wenn das Video auch episch ist. Wenn du eine ruhige Szene hast mit sanfter Bewegung und drunterlegst Hans-Zimmer-Gedröhne, dann passt das nicht. Dann kämpft die Musik gegen das Bild.

Mein Tipp: Probier erstmal, wie das Video ohne Musik wirkt. Nur mit Soundeffekten und Atmosphäre. Oft ist das besser.

Und wenn du Musik brauchst, dann wähle sie bewusst. Nicht das erstbeste Epic-Ding, das du findest. Sondern was, das zum Tempo passt, zur Stimmung, zum Inhalt.

Das dauert. Das nervt manchmal. Aber es macht den Unterschied.


Schnitt ist, wo die Magie passiert

Hier ist ein Geheimnis, das die wenigsten kapieren: Die besten Video-KI-Arbeiten sind nicht die mit dem besten generierten Material. Es sind die mit dem besten Schnitt.

Du kannst mittelmäßige Clips nehmen und durch guten Schnitt was Großartiges draus machen. Und du kannst fantastische Clips durch schlechten Schnitt ruinieren.

Schnitt ist eine eigene Kunstform. Da könnte ich stundenlang drüber reden. Aber hier die Basics:

Rhythmus. Schnitte sollten einem Rhythmus folgen. Nicht zufällig, nicht wenn dir danach ist, sondern bewusst. Ob zur Musik oder zu einem inneren Beat – irgendwas sollte den Takt vorgeben.

Dauer. Nicht jeder Clip muss gleich lang sein. Manche Momente brauchen Zeit. Andere sind in einer Sekunde vorbei. Lern zu spüren, wann ein Clip lang genug war.

Kontinuität. Wenn du Clips zusammenschneidest, müssen sie zusammenpassen. Ähnliche Lichtstimmung, ähnliche Farbtemperatur, ähnliche Bewegungsrichtung. Sonst ruckelt es im Kopf des Zuschauers.

Übergänge. Nicht jeder Schnitt braucht einen Übergang. Harter Schnitt ist meistens besser als irgendeine Blende. Fade to Black geht manchmal. Dieser Star-Wars-Wipe aus den 70ern – bitte nicht.


Welche Software du brauchst

Für den Anfang brauchst du nicht viel.

DaVinci Resolve ist kostenlos und professionell. Damit schneiden Leute Hollywood-Filme. Die Lernkurve ist steil, aber es gibt tausend Tutorials.

CapCut ist einfacher und auch kostenlos. Gut für schnelle Sachen, vor allem wenn du für Social Media produzierst.

Premiere Pro und Final Cut sind die Klassiker, kosten aber Geld.

Für Audio-Bearbeitung ist Audacity kostenlos und tut was es soll. Für mehr Kontrolle gibt es Fairlight in DaVinci Resolve oder separate DAWs wie Reaper.

Was ich nicht empfehle: Alles auf dem Handy machen. Geht, ist aber limitiert. Sobald du ernsthafter arbeitest, willst du einen richtigen Bildschirm und vernünftige Software.


Der größte Fehler von allen

Weißt du, was ich am häufigsten sehe bei Leuten, die mit Video-KI anfangen?

Sie posten alles sofort.

Jeder generierte Clip wird geteilt. Jedes Experiment wird hochgeladen. Alles muss raus, sofort, guck mal was ich gemacht hab.

Ich versteh das. Es ist aufregend. Es fühlt sich an wie Magie. Man will es zeigen.

Aber dadurch sieht man halt auch den ganzen Müll. Die Clips, wo das Gesicht verrutscht. Die Experimente, die nicht funktioniert haben. Die Sachen, die technisch interessant sind, aber sonst nichts.

Mein Rat: Halte dich zurück. Sammle Material. Kuratiere.

Nicht alles, was du generierst, muss die Welt sehen. Such dir die besten Clips raus. Arbeite daran. Mach was draus. Und dann zeig das.

Ein gutes fertiges Video ist hundertmal mehr wert als zwanzig rohe Clips.


Geduld, Geduld, Geduld

Der letzte Punkt, und vielleicht der wichtigste.

Video-KI ist noch nicht da, wo Bild-KI ist. Die Kontrolle ist geringer. Die Ergebnisse sind unvorhersehbarer. Du wirst mehr Fehlversuche haben als Treffer.

Das ist normal. Das ist der Stand der Technik.

In einem Jahr wird das anders aussehen. In zwei Jahren wird es wahrscheinlich unglaublich sein. Aber jetzt, heute, ist es noch rau.

Also: Hab Geduld. Mit der Technik und mit dir selbst.

Lern die Grenzen kennen, statt gegen sie anzukämpfen. Arbeite mit dem, was funktioniert. Akzeptiere, dass nicht alles geht.

Und wenn was Tolles entsteht – und das wird es – dann genieß den Moment. Weil du weißt, wie viel Arbeit drinsteckt.


Fazit

Video-KI ist nicht Bild-KI plus Bewegung. Es ist ein eigenes Medium mit eigenen Regeln.

Denk in einfachen Szenen. Halte Clips kurz. Kontrolliere die Kamera. Nimm Sound ernst. Schnitt ist alles. Kuratiere, was du zeigst.

Und vor allem: Mach. Experimentiere. Scheitere. Lerne.

Das ist der einzige Weg.

Kling v3 ist ein Werkzeug. Ein verdammt gutes momentan. Aber das Werkzeug macht noch keinen Künstler. Das machst du selbst.

Also ran.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen meistens, wenn ich Gedanken ins Handy quatsche. Sprachmemos, ziemlich chaotisch, alles durcheinander. Das wird transkribiert und mit KI aufgeräumt. Die Erfahrung und die Tipps sind meine. Die Struktur entsteht mit Tools. Finde ich fair so.



Ich sitze hier und versuche, meine Gedanken zu sortieren. Weil 2026 für mich in Sachen Bildbearbeitung ein seltsames Jahr ist. Einerseits war es noch nie so einfach, technisch saubere Bilder zu kriegen. Rauschen weg, Schärfe rein, Hintergrund raus – alles in Sekunden. Andererseits ertappe ich mich dabei, wie ich manchmal vor meinen eigenen Bildern sitze und denke: Ist das noch meins?

Das klingt vielleicht melodramatisch. Ist es wahrscheinlich auch. Aber ich glaube, da steckt was drin, worüber man reden sollte.

Ich will hier bewusst keine Tools aufzählen. Keine Vergleiche, keine Empfehlungen. Das ändert sich eh alle paar Monate, und darum geht es mir nicht. Mir geht es um die Frage, wie man mit dem ganzen Zeug umgeht, ohne sich dabei selbst zu verlieren.


Das Problem mit der Geschwindigkeit

Was mich am meisten erwischt hat, ist nicht die Qualität. Die ist beeindruckend, keine Frage. Was mich erwischt hat, ist die Geschwindigkeit.

Früher hab ich bei jedem Bild überlegt: Braucht das wirklich mehr Schärfe? Will ich das Rauschen da haben oder nicht? Ist diese Falte im Gesicht ein Problem oder Teil der Geschichte?

Das waren echte Entscheidungen. Die haben Zeit gekostet. Aber in dieser Zeit ist auch was passiert – ich hab über das Bild nachgedacht.

Jetzt klicke ich auf einen Button und es ist fertig. Zack. Weiter zum nächsten. Und irgendwann merke ich, dass ich gar nicht mehr richtig hinschaue. Nicht weil ich faul bin, sondern weil der Prozess so schnell ist, dass kein Raum mehr bleibt.

Ich hab neulich eine Serie bearbeitet und erst hinterher gemerkt, dass alle Bilder irgendwie gleich aussahen. Technisch super. Aber austauschbar. Und dann saß ich da und dachte: Das bin ja gar nicht ich. Das ist der Algorithmus.


„Besser“ ist nicht so einfach, wie es klingt

Der Begriff Bildverbesserung nervt mich. Weil er so tut, als gäbe es ein objektives Besser. Gibt es aber nicht.

Mehr Schärfe ist nicht automatisch besser. Manchmal will ich, dass ein Bild weich ist. Manchmal ist das Rauschen genau das, was die Stimmung ausmacht. Manchmal sind es die Schatten, die Geschichte erzählen – und wenn die KI die aufhellt, ist die Geschichte weg.

Aber die KI weiß das nicht. Die kennt nur Daten. Millionen von Bildern, aus denen sie gelernt hat, was „gut“ ist. Und gut heißt für sie: Durchschnitt. Norm. Was die meisten Leute als korrekt empfinden.

Das ist nicht böse gemeint. So funktioniert die Technik halt. Aber es bedeutet, dass jede automatische Verbesserung eine Interpretation ist. Und wenn ich die nicht hinterfrage, übernehme ich eine Interpretation, die nicht meine ist.


Der Unterschied zwischen Reparieren und Erfinden

Was ich inzwischen gelernt habe: Man muss unterscheiden zwischen KI, die repariert, und KI, die erfindet.

Wenn ich ein Bild entrausche oder die Schärfe verbessere, dann arbeitet die KI mit dem, was da ist. Sie holt Details raus, die im Rauschen versteckt waren. Das ist Restaurierung. Das Bild bleibt mein Bild.

Aber wenn ich den Hintergrund erweitern lasse oder Objekte hinzufüge oder Gesichter verändere, dann erfindet die KI etwas Neues. Das ist nicht mehr Fotografie. Das ist was anderes.

Beides kann okay sein. Aber es ist nicht dasselbe. Und ich finde, man sollte ehrlich sein – zu sich selbst und zu anderen – was davon man gerade macht.

Ich hab Bilder gesehen, die als Fotos verkauft werden, die aber zu 40 Prozent erfunden sind. Das stört mich. Nicht weil Erfinden schlecht wäre. Sondern weil das Nicht-Sagen irgendwie unehrlich ist.


Dieser eine Look, der überall ist

Mir fällt was auf, wenn ich durch Instagram scrolle oder Portfolios anschaue. Vieles sieht gleich aus. Nicht identisch, aber irgendwie… verwandt.

Alles ist sauber. Alles ist korrekt belichtet. Alles hat diese bestimmte Schärfe, diese bestimmte Hauttextur, diese bestimmten Farben.

Und nichts bleibt hängen.

Das ist nicht die Schuld der Fotografen. Das ist der KI-Standard, der sich leise eingeschlichen hat. Weil alle dieselben Tools benutzen mit denselben Presets und denselben Automatiken.

Stil entsteht aber nicht durch Korrektheit. Stil entsteht durch Entscheidungen. Durch bewusstes Abweichen. Durch den Mut zu sagen: Ich will das so, auch wenn der Algorithmus das anders machen würde.

Ein bisschen Unschärfe, die irritiert. Ein Schatten, der zu dunkel ist. Korn, das da sein darf. Das sind keine Fehler. Das sind Unterschriften.


Das Ding mit der Haut

Worüber ich lange nachgedacht habe: Hautretusche.

Die KI ist da mittlerweile unfassbar gut. Ein Klick und die Haut ist perfekt. Keine Poren, keine Fältchen, keine Unreinheiten. Technisch makellos.

Aber irgendwann hab ich gemerkt, dass ich Menschen nicht mehr erkenne. Nicht buchstäblich – aber emotional. Da sitzt jemand vor mir, der dreißig Jahre gelebt hat, und im Bild sieht die Haut aus wie bei einem Zwanzigjährigen in einer Werbung.

Das stimmt dann nicht mehr. Die Geschichte fehlt. Die Müdigkeit fehlt. Das Leben fehlt.

Ich bin da jetzt vorsichtiger geworden. Haut darf Haut bleiben. Mit Textur. Mit Charakter. Die KI bietet mir die perfekte Glätte an, und ich sag meistens: Nee, lass mal.


RAW-Bearbeitung und die Versuchung des Perfekten

Auch bei der RAW-Entwicklung passiert was Komisches. Die KI kann aus Schatten Details rausholen, die ich mit bloßem Auge kaum sehe. Beeindruckend, wirklich.

Aber wenn ich das bei jedem Bild mache, sehen alle Bilder gleich aus. Alles durchgezeichnet, alles sichtbar, alles ausbalanciert.

Und manchmal will ich das gar nicht. Manchmal soll der Schatten dunkel bleiben. Manchmal soll das Licht ausfressen. Weil das die Stimmung ist. Weil das der Moment war.

Ich hab angefangen, die KI-Vorschläge als Startpunkt zu nehmen, nicht als Endergebnis. Gucken, was sie macht. Und dann oft die Hälfte wieder zurücknehmen. Weil zu viel Optimierung den Charakter killt.


Wenn die KI meine Bilder aussortiert

Ein Feature, das mich fasziniert und beunruhigt gleichzeitig: KI kann Bildserien vorsortieren. Nach Schärfe, nach Ausdruck, nach was auch immer.

Das spart Zeit. Massiv. Statt 500 Bilder durchzugucken, zeigt mir die Maschine die „besten“ 50.

Aber wer sagt, was das Beste ist?

Manche meiner liebsten Bilder sind technisch nicht perfekt. Leicht unscharf, komisch geschnitten, Moment zwischen den Momenten. Genau deshalb sind sie gut. Weil sie echt sind. Weil da was passiert ist, das nicht geplant war.

Die KI hätte die aussortiert. Weil sie nicht in die Norm passt.

Also nutze ich das Feature, aber ich schau trotzdem noch selbst durch. Nicht alles, aber genug, um die Bilder zu finden, die die Maschine nicht versteht.


Was ich mir abgewöhnt habe

Ich hab aufgehört, alles automatisch laufen zu lassen. Klingt banal, aber es hat gedauert.

Früher hab ich Bilder in die Pipeline geworfen und am Ende kam was Fertiges raus. Schnell, effizient, bequem.

Jetzt mache ich mehr Schritte manuell. Nicht alle, aber die wichtigen. Die Entscheidungen, die das Bild zu meinem Bild machen.

Das kostet Zeit. Aber die Zeit hat einen Wert. In dieser Zeit verstehe ich, was ich tue. In dieser Zeit passiert das, was man wohl „Handschrift“ nennt.


Die eigentliche Frage

Am Ende geht es nicht darum, welche KI man benutzt. Es geht darum, wo man sie stoppt.

Was darf automatisch passieren? Was muss durch mich durch?

Das ist für jeden anders. Und es verändert sich wahrscheinlich auch mit der Zeit. Aber die Frage muss man sich stellen. Sonst stellt sie irgendwann jemand anderes – und die Antwort gefällt einem nicht.

Ich hab für mich ein paar Linien gezogen. Technische Sachen – Rauschen, Grundschärfe, Objektivkorrekturen – da darf die KI ran. Aber sobald es um Gesichter geht, um Stimmung, um das, was das Bild eigentlich sagen soll – da will ich selbst entscheiden.

Ob das richtig ist, weiß ich nicht. Aber es fühlt sich richtig an. Und das muss erstmal reichen.


Was bleibt

KI ist kein Feind. Ist auch kein Retter. Ist ein Werkzeug. Ein ziemlich mächtiges.

Aber wie jedes Werkzeug verstärkt es das, was man reintut. Wenn ich gedankenlos arbeite, macht die KI mich schneller gedankenlos. Wenn ich bewusst arbeite, gibt sie mir Zeit für die Dinge, die zählen.

2026 trennt sich nicht die Leute, die KI nutzen, von denen, die es nicht tun. Es trennt sich die Leute, die wissen, warum sie was machen, von denen, die einfach klicken.

Ich versuche, zur ersten Gruppe zu gehören. Klappt nicht immer. Aber ich versuch’s.

Weil am Ende gilt, was schon immer galt: Technik kann Bilder besser machen. Aber nur ich kann sie zu meinen machen.


Wie dieser Text entstanden ist

Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.



Manchmal passiert etwas in einem Gerichtssaal, das sich anfühlt wie ein Riss in der Wand. Nicht laut, nicht dramatisch – eher wie dieses leise Knacken, wenn Putz bröckelt und du weißt: Da bewegt sich was Größeres dahinter.

So ging es mir, als ich zum ersten Mal von diesem Urteil aus Kalifornien las. Ich saß an meinem Schreibtisch, Kaffee kalt, Fenster offen, und scrollte durch die Nachrichten. Und dann blieb ich hängen. Nicht weil die Überschrift so reißerisch war – die war eher nüchtern. Sondern weil ich beim Lesen merkte: Hier hat zum ersten Mal jemand das ausgesprochen, was wir Kreativen seit Jahren fühlen, aber oft nicht in Worte fassen können.

Es geht nicht nur darum, was eine KI ausspuckt. Es geht darum, wie sie überhaupt zu dem wurde, was sie ist. Woher kommt das Material? Wer hat es genommen? Und wer hat gefragt – oder eben nicht?

Warum mich das Thema persönlich angeht

Ich muss ehrlich sein: Als das Thema KI und Urheberrecht vor zwei, drei Jahren hochkochte, habe ich es erstmal verdrängt. Zu abstrakt, zu technisch, zu weit weg. Ich dachte mir: Das regeln die Juristen unter sich, und wir malen weiter.

Aber dann wurde es konkreter. Kollegen zeigten mir, wie ihre Illustrationen in KI-Generatoren auftauchten – nicht als Kopie, aber als Echo. Ein Stil, der verdächtig bekannt wirkte. Ein Farbschema, das nicht zufällig war. Und plötzlich war das keine abstrakte Debatte mehr, sondern etwas, das in meinen Alltag kroch.

Und ich glaube, vielen geht es so. Wir haben lange zugeschaut, wie die großen Tech-Firmen Daten gesammelt haben wie andere Leute Briefmarken. Nur dass niemand gefragt hat, ob wir unsere Briefmarken überhaupt hergeben wollen.

Was in Kalifornien passiert ist – und warum es anders war

Im Juni 2025 kam ein Urteil in einem Verfahren gegen Anthropic, die Firma hinter dem KI-Modell Claude. Das Besondere: Es ging nicht nur um das übliche Hin und Her, ob KI-Training nun Fair Use ist oder nicht. Es ging um etwas viel Greifbareres.

Das Gericht hat gesagt – und ich versuche das jetzt so zu formulieren, wie ich es verstanden habe, nicht wie ein Jurist: Das Training selbst kann unter Umständen legal sein. Wenn eine KI aus Millionen von Texten lernt, Muster erkennt, Sprache versteht – dann ist das nicht automatisch ein Verbrechen. Es ist, vereinfacht gesagt, so ähnlich wie wenn ein Mensch viel liest und davon beeinflusst wird.

Aber – und hier kommt der Teil, der mich aufatmen ließ – wenn das Material, mit dem trainiert wird, aus illegalen Quellen stammt, dann ist das ein Problem. Ein echtes, handfestes, rechtliches Problem.

Das klingt vielleicht selbstverständlich. Ist es aber nicht. Denn jahrelang haben viele Unternehmen so getan, als wäre das Internet ein All-you-can-eat-Buffet. Alles gratis, alles erlaubt, Hauptsache schnell. Und jetzt sagt ein Gericht: Nein, so einfach ist das nicht.

Der Unterschied zwischen Lernen und Stehlen

Ich denke oft darüber nach, wie ich selbst gelernt habe. Ich habe Bücher gelesen, Bilder angeschaut, stundenlang in Museen gestanden. Ich habe Künstler kopiert – nicht um ihre Werke zu verkaufen, sondern um zu verstehen, wie sie das gemacht haben. Das ist normal. Das ist Teil des Handwerks.

Aber ich habe nie ein Buch gestohlen. Ich habe nie heimlich Fotos von Gemälden gemacht, um sie dann in großem Stil zu verbreiten. Und genau da liegt der Unterschied, den dieses Urteil aufmacht.

Es sagt nicht: KI darf nicht lernen. Es sagt: KI darf nicht aus gestohlenen Quellen lernen.

Das ist eine Unterscheidung, die so simpel klingt, dass man sich fragt, warum sie erst jetzt gemacht wird. Aber ich glaube, das liegt daran, dass die Technologie so schnell war. Schneller als das Recht. Schneller als unsere Vorstellungskraft. Und jetzt holt die Realität langsam auf.

Was das für uns bedeutet – jenseits der Schlagzeilen

Wenn ich ehrlich bin, habe ich nach dem ersten Lesen gedacht: Okay, cool, ein Urteil. Aber was ändert das für mich, hier an meinem Schreibtisch?

Und dann habe ich weiter gelesen. Und begriffen, dass dieses Urteil nicht nur ein Symbol ist, sondern ein Werkzeug.

Erstens: Es verschiebt die Beweislast. Plötzlich müssen Unternehmen zeigen, woher ihre Trainingsdaten kommen. Das ist ein riesiger Unterschied zu vorher, als wir als Kreative beweisen mussten, dass unsere Werke benutzt wurden. Jetzt dreht sich das langsam um.

Zweitens: Es macht Transparenz zum Thema. Wenn Unternehmen nachweisen müssen, dass ihre Daten sauber sind, dann brauchen sie Systeme dafür. Dokumentation. Archive. Lizenzen. Das klingt langweilig, ist aber in Wahrheit eine Revolution. Denn plötzlich haben wir als Kreative einen Hebel. Wir können fragen: Wo ist der Nachweis? Zeig mir die Lizenz.

Drittens: Es setzt ein Preisschild. Im September 2025 wurde bekannt, dass ein Vergleich über 1,5 Milliarden Dollar im Raum stand. Das ist kein Kleckerbetrag. Das ist eine Summe, die selbst große Unternehmen nicht einfach wegstecken. Und es zeigt: Daten haben einen Wert. Unser Werk hat einen Wert. Und wer es nimmt, ohne zu zahlen, muss mit Konsequenzen rechnen.

Das große Aber: Es ist noch nicht vorbei

Ich will hier nicht so tun, als wäre jetzt alles gut. Das wäre naiv. Dieses Urteil ist ein Anfang, kein Ende. Es betrifft erstmal Text, nicht Bilder. Es ist ein Urteil auf mittlerer Ebene, kein Spruch vom Obersten Gerichtshof. Und es wird Berufungen geben, Gegenargumente, neue Verfahren.

Aber das Wichtige ist: Die Richtung stimmt.

Vor zwei Jahren war die Debatte noch: Ist KI überhaupt problematisch? Vor einem Jahr war sie: Wie können wir beweisen, dass unsere Werke benutzt wurden? Und jetzt ist sie: Wie organisieren wir Lizenzierung, Transparenz und Beteiligung?

Das ist ein Fortschritt. Ein echter.

Was ich jetzt anders mache

Seit ich mich intensiver mit dem Thema beschäftige, habe ich ein paar Dinge geändert. Nicht weil ich paranoid bin, sondern weil ich gemerkt habe: Es macht einen Unterschied, wenn ich selbst aktiv werde.

Ich achte mehr auf Metadaten. Klingt unsexy, ich weiß. Aber wenn meine Bilder irgendwo auftauchen, will ich nachweisen können, dass sie von mir sind. Datum, Signatur, nachvollziehbare Veröffentlichung – das sind keine Eitelkeiten mehr, das sind Beweise.

Ich informiere mich über Opt-out-Möglichkeiten. Nicht alle sind gut, manche sind sogar Augenwischerei. Aber es gibt Plattformen und Initiativen, die versuchen, Standards zu setzen. Und je mehr wir mitmachen, desto mehr Gewicht haben diese Standards.

Und ich nutze KI selbst. Das klingt vielleicht widersprüchlich. Aber ich glaube, wer nur dagegen ist, ohne zu verstehen, wie es funktioniert, überlässt das Feld den anderen. Ich will mitreden. Ich will wissen, was diese Maschinen können und was nicht. Und ich will mitgestalten, wo die Grenzen sind.

Eine persönliche Beobachtung zum Schluss

Vor ein paar Wochen saß ich mit einer Freundin zusammen, die auch Künstlerin ist. Wir haben über all das geredet – über KI, über Urheberrecht, über die Zukunft. Und irgendwann sagte sie etwas, das mir nicht mehr aus dem Kopf geht.

Sie sagte: „Weißt du, was mich am meisten ärgert? Nicht dass die Maschinen lernen. Sondern dass niemand gefragt hat.“

Und ich glaube, genau darum geht es. Es geht nicht darum, Technologie aufzuhalten. Das wäre naiv und wahrscheinlich auch falsch. Aber es geht darum, wie wir als Gesellschaft mit dem umgehen, was Menschen erschaffen haben. Mit Respekt oder mit Gleichgültigkeit. Mit Dialog oder mit Ignoranz.

Dieses Urteil aus Kalifornien ist ein Zeichen, dass Respekt vielleicht doch noch eine Chance hat. Dass es Grenzen gibt, auch im digitalen Raum. Dass unser Werk nicht einfach Futter ist für Maschinen, die niemand kontrolliert.

Und wenn du mich fragst, ob das reicht – nein, natürlich nicht. Das ist erst der Anfang. Aber es ist ein Anfang, der sich anders anfühlt als alles, was vorher kam.

Weil zum ersten Mal jemand offiziell gesagt hat: Die Herkunft zählt. Der Weg zählt. Und wer stiehlt, kann sich nicht hinter Algorithmen verstecken.

Das ist keine Lösung für alles. Aber es ist eine Linie im Sand. Und manchmal beginnt Veränderung genau damit: dass jemand eine Linie zieht und sagt – hier nicht weiter.

Ich hoffe, wir bleiben dran. Alle zusammen.



Es gibt Diskussionen, die mich müde machen. Nicht weil das Thema unwichtig wäre, sondern weil sie so uninformiert geführt werden, dass jede sinnvolle Auseinandersetzung im Keim erstickt.

Die Debatte um künstliche Intelligenz gehört dazu.

Jeden Tag lese ich Kommentare, höre Statements, sehe Posts von Menschen, die sich über „die KI“ aufregen. Die KI nimmt uns die Jobs. Die KI zerstört die Kreativbranche. Die KI ist der Feind.

Und jedes Mal denke ich: Von welcher KI redet ihr eigentlich?

Denn „die KI“ gibt es nicht. Es gibt Dutzende, Hunderte, Tausende verschiedener Anwendungen, Tools, Systeme und Programme. Manche haben miteinander so viel zu tun wie ein Toaster mit einem Teilchenbeschleuniger. Beides nutzt Strom. Damit enden die Gemeinsamkeiten.


Das Problem mit dem Sammelbegriff

Wenn jemand sagt „Ich hasse Autos“, dann weiß ich nicht, was diese Person meint. Hasst sie SUVs? Sportwagen? Elektroautos? Lieferwagen? Den Verkehr allgemein? Die Autoindustrie? Die Parkplatzsituation in der Innenstadt?

Der Begriff „Auto“ ist so breit, dass die Aussage praktisch bedeutungslos wird.

Bei „der KI“ ist es noch schlimmer.

Unter diesem Begriff werden Technologien zusammengefasst, die völlig unterschiedliche Dinge tun:

  • Sprachmodelle wie ChatGPT, Claude oder Gemini, die Texte generieren und Fragen beantworten
  • Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion, die visuelle Inhalte erstellen
  • Stimmklonungs-Software wie ElevenLabs, die menschliche Stimmen replizieren kann
  • Musikgeneratoren wie Suno oder Udio, die Songs komponieren
  • Übersetzungstools wie DeepL, die Sprachen konvertieren
  • Analysetools, die Daten auswerten und Muster erkennen
  • Automatisierungssysteme, die Prozesse in Unternehmen optimieren

Das sind nicht verschiedene Versionen desselben Produkts. Das sind grundlegend unterschiedliche Technologien mit unterschiedlichen Anwendungsbereichen, unterschiedlichen Stärken, unterschiedlichen Risiken und unterschiedlichen ethischen Implikationen.

Wer das nicht versteht, kann an der Diskussion nicht sinnvoll teilnehmen.


Das Sprecher-Beispiel: Wenn der Zorn das falsche Ziel trifft

Ich beobachte seit Monaten, wie professionelle Sprecher gegen „die KI“ wettern. Verständlich. Ihre Existenzangst ist real. Die Frage, ob es in zehn Jahren noch bezahlte Sprechjobs gibt, ist berechtigt.

Aber dann sehe ich, wie dieselben Menschen ChatGPT als den großen Feind ihres Berufsstands bezeichnen.

Und da muss ich kurz innehalten.

ChatGPT ist ein Sprachmodell. Es generiert Text. Es kann keine Stimme klonen. Es kann keinen Werbespot einsprechen. Es kann kein Hörbuch produzieren. Es hat mit dem Kernproblem der Sprecherbranche ungefähr so viel zu tun wie ein Taschenrechner mit einem Synthesizer.

Das eigentliche Tool, das die Sprecherbranche verändern wird, heißt ElevenLabs. Oder Murf. Oder Resemble. Oder eines der anderen spezialisierten Programme, die genau dafür entwickelt wurden: menschliche Stimmen zu replizieren, zu klonen, synthetisch zu erzeugen.

Diese Tools können mit wenigen Minuten Audiomaterial eine Stimme kopieren und dann beliebige Texte damit einsprechen lassen. Das ist die Technologie, die für Sprecher relevant ist. Nicht ChatGPT.

Aber ChatGPT kennt jeder. ElevenLabs kennen die wenigsten.

Also wird ChatGPT zum Symbol. Zum Feindbild. Zum Sündenbock für alles, was mit „KI“ zu tun hat. Und die eigentliche Bedrohung bleibt unbenannt, unverstanden, undiskutiert.

Das ist nicht nur unpräzise. Es ist kontraproduktiv.

Wer seinen Feind nicht kennt, kann sich nicht verteidigen.


Dasselbe Muster überall

Das Sprecher-Beispiel ist kein Einzelfall. Ich sehe dasselbe Muster in jeder Branche.

Fotografen, die sich über „die KI“ aufregen, meinen meistens Midjourney oder Stable Diffusion. Aber sie schimpfen pauschal, als wäre jede KI-Anwendung eine Bedrohung für ihre Arbeit. Dabei nutzen viele von ihnen längst KI-gestützte Tools in Lightroom oder Photoshop, ohne mit der Wimper zu zucken.

Texter, die „die KI“ verdammen, meinen meistens ChatGPT. Aber sie vergessen, dass Übersetzungssoftware wie DeepL auch auf KI basiert. Dass Grammatik-Tools wie LanguageTool KI nutzen. Dass die Autokorrektur auf ihrem Smartphone KI ist.

Musiker, die gegen „die KI“ protestieren, meinen Suno oder Udio. Aber viele von ihnen arbeiten mit Software, die KI-gestützte Mastering-Funktionen hat. Die automatische Tuning-Korrekturen anbietet. Die Drums quantisiert.

Die Grenzen sind fließend. Und genau das macht die pauschale Ablehnung so absurd.


Die eigentliche Frage: Wer ist hier schuld?

Wenn wir schon dabei sind, über Bedrohungen zu reden, dann lasst uns über die richtige Bedrohung reden.

Kein KI-Tool hat jemals aktiv entschieden, jemandem den Job zu stehlen. Kein Algorithmus hat beschlossen, einen Künstler zu kopieren. Keine Software hat sich vorgenommen, einen Sprecher zu ersetzen.

Diese Entscheidungen treffen Menschen.

Ein Unternehmen entscheidet, keine echten Sprecher mehr zu buchen. Ein Auftraggeber entscheidet, mit KI-generierten Bildern zu arbeiten. Ein Mensch entscheidet, fremde Stile zu kopieren und als eigene Arbeit zu verkaufen.

Die Werkzeuge sind neutral. Die Absichten dahinter sind es nicht.

Wenn jemand mit Photoshop ein Foto manipuliert und damit Rufschädigung betreibt, ist dann Photoshop schuld? Wenn jemand mit einem Küchenmesser einen Menschen verletzt, ist das Messer der Täter?

Die Frage klingt rhetorisch, weil sie es ist.

Aber bei KI vergessen wir plötzlich diese grundlegende Logik. Wir personifizieren die Technologie, machen sie zum Akteur, zum Feind, zum Schuldigen. Und entlasten damit die Menschen, die tatsächlich fragwürdige Entscheidungen treffen.


Das eigentliche Problem: Diebstahl bleibt Diebstahl

Ja, es gibt echte Probleme. Große Probleme.

Menschen nutzen KI-Tools, um fremde Werke zu kopieren. Stimmen werden ohne Zustimmung geklont. Kunststile werden repliziert, ohne die Originalschöpfer zu nennen oder zu vergüten. Ganze Portfolios entstehen aus zusammengeklaubten Fragmenten anderer Leute Arbeit.

Das ist moralisch fragwürdig. In vielen Fällen ist es auch rechtlich fragwürdig. Und es verdient Kritik.

Aber die Kritik muss an die richtigen Adressaten gehen.

Wenn jemand mit ElevenLabs die Stimme eines Sprechers klont, ohne dessen Erlaubnis, dann ist nicht ElevenLabs der Täter. Der Mensch, der das Tool missbraucht, ist der Täter.

Wenn jemand mit Midjourney den Stil eines lebenden Künstlers kopiert und die Ergebnisse als eigene Kunst verkauft, dann ist nicht Midjourney das Problem. Der Mensch, der diese Entscheidung trifft, ist das Problem.

Die Technologie ermöglicht. Der Mensch entscheidet.

Diese Unterscheidung ist wichtig. Weil sie bestimmt, wie wir regulieren, wie wir diskutieren, wie wir als Gesellschaft mit diesen Veränderungen umgehen.


Wie wir die Diskussion führen sollten

Ich plädiere nicht dafür, KI kritiklos zu akzeptieren. Im Gegenteil.

Es gibt massive Fragen zu klären. Urheberrechtliche Fragen. Arbeitsmarktfragen. Ethische Fragen. Fragen der Transparenz, der Regulierung, der Vergütung.

Aber diese Fragen können nur sinnvoll beantwortet werden, wenn wir präzise sind.

Wenn ein Sprecher sich gegen Stimmklonungs-Software positionieren will, dann sollte er Stimmklonungs-Software benennen. Wenn ein Künstler gegen die Nutzung seines Stils in Trainingsdaten protestiert, dann sollte er die spezifischen Bildgeneratoren und deren Praktiken kritisieren.

Pauschale Aussagen wie „KI ist böse“ oder „KI zerstört alles“ sind nicht nur falsch. Sie verwässern die berechtigte Kritik so sehr, dass sie wirkungslos wird.

Wer über alles gleichzeitig schimpft, schimpft am Ende über nichts Konkretes.


Die unbequeme Wahrheit

Hier ist die Wahrheit, die niemand gerne hört:

Viele der Menschen, die am lautesten gegen „die KI“ wettern, haben sich nicht die Mühe gemacht zu verstehen, wovon sie reden. Sie haben Angst – berechtigte Angst – aber sie kanalisieren diese Angst in die falsche Richtung.

Und ja, ich verstehe, warum das passiert. Die Entwicklung ist schnell. Die Technologie ist komplex. Die Konsequenzen sind unübersichtlich. Es ist einfacher, einen großen Feind zu haben als zwanzig kleine Problemfelder zu analysieren.

Aber einfach ist selten richtig.

Wer in dieser Debatte ernst genommen werden will, muss Hausaufgaben machen. Muss verstehen, welche Tools was tun. Muss differenzieren können zwischen einem Textgenerator und einem Stimmkloner. Zwischen einem Analysetool und einem Bildgenerator. Zwischen einer Arbeitserleichterung und einer Existenzbedrohung.

Diese Differenzierung ist keine akademische Spielerei. Sie ist die Voraussetzung für jede sinnvolle Diskussion.


Ein Appell

An alle, die sich an dieser Debatte beteiligen wollen:

Hört auf, „die KI“ zu sagen, wenn ihr ein spezifisches Tool meint. Benennt es. Seid präzise.

Hört auf, Technologie zum Feind zu erklären. Schaut auf die Menschen, die sie einsetzen. Auf die Unternehmen, die Entscheidungen treffen. Auf die Strukturen, die Missbrauch ermöglichen oder verhindern.

Und vor allem: Informiert euch. Lest. Fragt nach. Probiert aus. Versteht, wovon ihr redet, bevor ihr urteilt.

Die Entwicklungen, die gerade passieren, sind zu wichtig für uninformiertes Geschrei.

Sie verdienen eine ernsthafte, differenzierte, sachliche Auseinandersetzung.

Von Menschen, die wissen, wovon sie reden.


Schluss

Es gibt berechtigte Kritik an vielen KI-Anwendungen. Es gibt echte Probleme, die gelöst werden müssen. Es gibt Fragen, auf die wir als Gesellschaft Antworten finden müssen.

Aber diese Antworten werden nicht von denen kommen, die alles in einen Topf werfen und umrühren.

Sie werden von denen kommen, die differenzieren können. Die verstehen, welches Tool welche Auswirkungen hat. Die wissen, dass nicht „die KI“ das Problem ist, sondern spezifische Anwendungen, spezifische Praktiken, spezifische menschliche Entscheidungen.

Die Technologie ist da. Sie wird nicht verschwinden.

Die Frage ist nur, wie wir mit ihr umgehen.

Und diese Frage beginnt mit Verständnis. Nicht mit Pauschalurteilen.



Bevor wir anfangen: Worum geht es hier eigentlich?

Wenn gerade überall vom „Ende der Diffusion“ die Rede ist, klingt das erstmal dramatisch. Fast so, als würde Midjourney morgen früh abgeschaltet und Stable Diffusion gehört ab nächster Woche ins Museum. Aber so ist es nicht. Die Diffusionsmodelle, die du kennst und vielleicht täglich nutzt, verschwinden nicht einfach über Nacht. Sie funktionieren weiterhin, sie werden weiterentwickelt, und ja – sie liefern immer noch beeindruckende Ergebnisse.

Was sich aber verändert, ist ihre Rolle. Diffusion war jahrelang das Herzstück der KI-Bildgenerierung. Der Standard. Die Technologie, an der sich alles andere messen musste. Und genau dieser Status gerät jetzt ins Wanken. Nicht weil Diffusion plötzlich schlecht wäre, sondern weil eine neue Klasse von Systemen auftaucht, die Bilder auf eine grundlegend andere Art erzeugt.

Diese neuen Modelle rekonstruieren keine Bilder mehr aus Rauschen. Sie verstehen, was sie tun. Sie erkennen Objekte, Beziehungen, Hierarchien. Sie wissen, dass ein Gesicht ein Gesicht ist – und nicht nur eine statistische Ansammlung von Pixeln, die zufällig so aussieht.

Das klingt vielleicht nach einem kleinen technischen Detail. Aber wenn du regelmäßig mit Bildern arbeitest – egal ob als Fotograf, Designerin, Illustrator oder einfach als jemand, der visuelle Inhalte erstellt – dann verändert das deinen Werkzeugkasten auf einer sehr tiefen Ebene. Und genau darum geht es in diesem Text: Was passiert da gerade wirklich? Ohne Buzzwords, ohne Marketing-Sprech, ohne überzogene Versprechungen.


Was Diffusion kann – und wo sie an ihre Grenzen stößt

Um zu verstehen, warum sich gerade etwas Grundlegendes verändert, müssen wir kurz zurückblicken. Diffusionsmodelle funktionieren nach einem ziemlich eleganten Prinzip: Du startest mit reinem Zufallsrauschen – einem Bild, das aussieht wie analoger Fernsehschnee – und dann entfernt das Modell Schritt für Schritt dieses Rauschen. Was übrig bleibt, ist ein Bild.

Das Modell wurde vorher mit Millionen von Bildern trainiert. Es hat gelernt, welche Pixelmuster zu welchen Beschreibungen passen. Wenn du „eine Katze auf einem Sofa“ eingibst, weiß es statistisch, wie Katzen und Sofas normalerweise aussehen, und erzeugt ein entsprechendes Muster.

Das funktioniert erstaunlich gut. Die Ergebnisse können atemberaubend sein. Aber hier kommt der Haken: Diffusion arbeitet auf der Ebene von Pixeln, nicht auf der Ebene von Bedeutung.

Was heißt das konkret? Das Modell weiß nicht wirklich, dass es gerade ein Gesicht erzeugt. Es erzeugt nur ein Pixelmuster, das statistisch wie ein Gesicht aussieht. Es versteht nicht, dass Augen symmetrisch sein sollten oder dass Hände normalerweise fünf Finger haben. Es imitiert nur, was es in den Trainingsdaten gesehen hat.

Deshalb passieren die typischen Fehler: sechs Finger, verschmolzene Gliedmaßen, Text, der wie Buchstabensalat aussieht. Das sind keine Bugs, die man einfach fixen kann. Das sind direkte Konsequenzen der Architektur.

Und dann ist da noch das Geschwindigkeitsproblem. Diffusion ist ein serieller Prozess. Jeder Schritt baut auf dem vorherigen auf. Das macht die ganze Sache rechenintensiv und vergleichsweise langsam. Klar, die Modelle werden schneller, die Hardware besser. Aber die grundsätzliche Limitierung bleibt bestehen.


Der eigentliche Bruch: Von Pixeln zu Bedeutung

Die neue Generation von Bildgeneratoren geht einen anderen Weg. Statt Bilder aus Rauschen zu rekonstruieren, arbeiten diese Systeme mit etwas, das man als „semantische Planung“ bezeichnen könnte.

Stell dir vor, du bittest jemanden, ein Poster zu gestalten. Ein Diffusionsmodell würde sofort anfangen zu malen – Pixel für Pixel, ohne vorher nachzudenken. Die neuen Modelle machen etwas anderes. Sie halten kurz inne und überlegen: Was soll auf diesem Poster drauf? Eine Überschrift? Ein Produktfoto? Fließtext? Wie hängen diese Elemente zusammen? Was ist wichtig, was ist Hintergrund?

Erst wenn diese Fragen beantwortet sind, beginnt die eigentliche Bilderzeugung. Das Bild entsteht nicht mehr von unten nach oben – also von Pixeln über Formen zu Bedeutung – sondern von oben nach unten: Bedeutung, dann Struktur, dann Darstellung.

Das klingt vielleicht abstrakt, aber die praktischen Auswirkungen sind enorm. Plötzlich wird Text im Bild lesbar, weil das System versteht, dass Text Text ist und nicht nur eine weitere Textur. Layouts bekommen Hierarchie, weil das Modell weiß, dass Überschriften anders behandelt werden als Fließtext. Gesichter haben konsistent zwei Augen, weil das System versteht, was ein Gesicht ist.


Die technische Basis: Warum Transformer den Unterschied machen

Hinter diesem Wandel steckt eine Technologie, die ursprünglich gar nichts mit Bildern zu tun hatte: Transformer-Architekturen. Du kennst sie vielleicht von ChatGPT und anderen Sprachmodellen. Ihre große Stärke liegt darin, Beziehungen zwischen Elementen zu erkennen – egal wo diese Elemente stehen, egal in welcher Reihenfolge sie auftauchen.

Bei Text bedeutet das: Das Modell versteht, dass „Die Katze schläft“ und „Schläft die Katze?“ beide von einer schlafenden Katze handeln, obwohl die Wörter anders angeordnet sind.

Übertragen auf Bilder bedeutet das: Ein Gesicht ist nicht mehr nur ein Cluster von Pixeln in einer bestimmten Region des Bildes. Es ist ein zusammenhängendes Konzept, das das Modell als Ganzes versteht. Und weil Transformer Text und Bild im selben Raum verarbeiten können, gibt es keine harte Trennung mehr zwischen „Sprache verstehen“ und „Bilder erzeugen“.

Das ist der Punkt, an dem klassische Diffusionsmodelle strukturell nicht mithalten können. Nicht weil sie schlecht sind – sondern weil sie für eine andere Aufgabe gebaut wurden.


Spezialisierung statt Einheitsbrei

Ein weiterer großer Unterschied liegt in der Architektur dieser neuen Systeme. Statt ein riesiges Modell zu bauen, das irgendwie alles können soll, setzen viele neue Ansätze auf sogenannte „Mixture of Experts“-Systeme.

Die Idee ist simpel: Statt eines Generalisten gibt es mehrere Spezialisten. Ein Teilmodell ist besonders gut bei Porträts. Ein anderes bei Produktfotos. Ein drittes bei Typografie. Ein viertes bei Datenvisualisierung. Und eine übergeordnete Steuerung entscheidet, welcher Experte gerade gefragt ist.

Für dich als Nutzer bedeutet das: höhere Präzision bei spezifischen Aufgaben, weniger von den typischen KI-Artefakten, die man sofort als „das hat eine KI gemacht“ erkennt, und deutlich bessere Kontrolle bei komplexen Anforderungen.

Es ist ein bisschen so, als würdest du nicht mehr einen einzelnen Allround-Designer beauftragen, sondern Zugang zu einem ganzen Studio bekommen – mit Fotografin, Typograf, Illustratorin und Art Director, die koordiniert zusammenarbeiten.


Was das für Bildbearbeitung bedeutet

Einer der praktischsten Effekte dieses Wandels zeigt sich bei der Bildbearbeitung. Wer schon mal versucht hat, mit klassischen Tools ein Objekt aus einem Foto zu entfernen oder zu verändern, kennt den Workflow: Maske erstellen, Ebenen anlegen, manuell selektieren, exportieren, in ein anderes Programm importieren, nachbearbeiten.

Die neuen Systeme arbeiten anders. Sie erkennen Objekte, statt sie zu erraten. Sie wissen, was Person und was Hintergrund ist. Sie können eine Person im Bild verändern, ohne dabei Licht, Schatten oder Komposition zu zerstören – weil sie verstehen, wie diese Elemente zusammenhängen.

Das ist kein nettes Feature am Rande. Das ist eine komplett neue Kategorie von Bildbearbeitung. Retusche wird kontextsensitiv. Änderungen betreffen gezielt Inhalte, nicht das gesamte Bild. Du arbeitest nicht mehr mit Pixeln, sondern mit Bedeutungen.


Design, Layout und Typografie: Der vielleicht größte Sprung

Wenn du jemals versucht hast, mit einem Diffusionsmodell ein Poster zu erstellen – also eines mit lesbarem Text, sauberem Layout und konsistenter Hierarchie – dann weißt du, wie frustrierend das sein kann. Schrift war bestenfalls unzuverlässig. Abstände wirkten zufällig. Von echtem Design konnte kaum die Rede sein.

Die neuen Systeme behandeln Layout als funktionales System. Eine Überschrift ist eine Überschrift, nicht nur größerer Text. Fließtext verhält sich wie Fließtext. Abstände folgen Regeln, nicht dem Zufall.

Du kannst ganze Seiten generieren, Poster, Magazinlayouts, Präsentationen – ohne zwischen drei verschiedenen Programmen hin und her zu wechseln. Das bedeutet nicht, dass Designwissen plötzlich überflüssig wird. Im Gegenteil: Wer Design versteht, kann diese Systeme deutlich besser steuern. Aber die technischen Hürden werden niedriger.


Datenvisualisierung: Von Dekoration zu Funktion

Ein besonders kritischer Punkt bei Diffusionsmodellen war immer die Darstellung von Daten. Diagramme sahen oft überzeugend aus – bis man genauer hinschaute und merkte, dass die Zahlen keinen Sinn ergaben, die Achsen nicht zusammenpassten und die Proportionen willkürlich waren.

Die neuen Modelle gehen vorsichtiger vor. Daten werden als Daten erkannt. Visualisierungen folgen logischen Regeln. Achsen, Werte und Proportionen werden konsistenter behandelt.

Noch ist das nicht perfekt – und ich würde niemandem empfehlen, einen Geschäftsbericht mit KI-generierten Diagrammen zu füllen, ohne alles dreimal zu prüfen. Aber es ist der erste ernsthafte Schritt von dekorativer Illustration hin zu funktionaler Informationsgrafik. Das Potenzial ist riesig.


Was sich an deinem Workflow ändert

Der klassische Workflow – generieren, exportieren, in Photoshop bearbeiten, in InDesign layouten, fertig – verliert an Bedeutung. Stattdessen entsteht etwas, das man als dialogischen Prozess bezeichnen könnte.

Du formulierst eine visuelle Absicht. Das System setzt sie um. Du schaust dir das Ergebnis an und korrigierst – nicht auf der Ebene von Pixeln und Masken, sondern auf der Ebene von Konzepten. „Die Überschrift sollte prominenter sein.“ „Der Hintergrund wirkt zu unruhig.“ „Die Person sollte nach rechts schauen.“

Die Rolle des Gestalters verschiebt sich. Weg vom reinen Ausführen, hin zum Entscheiden, Kuratieren und Steuern. Werkzeugkenntnis bleibt wichtig – aber Verständnis von Bildsprache, Struktur und Kontext wird entscheidender als die Frage, welchen Shortcut man für welches Werkzeug drücken muss.


Was diese Systeme nicht können

Bei aller Begeisterung: Diese Modelle sind keine autonomen Kreativdirektoren. Sie machen Fehler. Sie missverstehen komplexe Anforderungen. Sie produzieren manchmal logischen Unsinn, der auf den ersten Blick überzeugend aussieht.

Wer unklare Vorgaben macht, bekommt unklare Ergebnisse. Wer nicht prüft, was das System liefert, übersieht Fehler. Diese Werkzeuge sind leistungsstark, aber sie ersetzen kein kritisches Auge. Sie ersetzen nicht die Fähigkeit zu erkennen, ob etwas funktioniert oder nicht.

Das ist wichtig zu verstehen, gerade weil die Ergebnisse immer überzeugender werden. Je besser die Oberfläche aussieht, desto leichter übersieht man, was darunter schiefgeht.


Was bleibt

Das „Ende der Diffusion“ ist kein Abgesang auf eine Technologie, die ihre Zeit gehabt hat. Es ist ein Übergang. Diffusion war der Türöffner – der Beweis, dass KI-generierte Bilder überhaupt möglich sind, dass sie gut aussehen können, dass sie praktischen Nutzen haben.

Die neuen Modelle sind der nächste Raum. Ein Raum, in dem es nicht mehr nur darum geht, beeindruckende Bilder zu erzeugen, sondern Bilder gezielt zu gestalten. Mit Verständnis. Mit Struktur. Mit Absicht.

Wenn du mit Bildern arbeitest, bedeutet das: weniger Technik-Akrobatik, mehr inhaltliche Steuerung, mehr Verantwortung für visuelle Entscheidungen. Die Bildgenerierung entwickelt sich von einer beeindruckenden Spielerei zu einem ernsthaften, integrierten Werkzeug für visuelle Gestaltung.

Nicht einfach schneller. Nicht einfach hübscher. Fundamental anders.



Ein leidenschaftliches Plädoyer für das Ende einer ermüdenden Diskussion

Gestern scrollte ich durch meine Timeline und da war er wieder. Dieser Post. Diese Aussage, die ich in den letzten Jahren gefühlt tausendmal gelesen habe, nur immer wieder leicht anders formuliert. Der Kern blieb derselbe: Echte Kunst entsteht nur mit echten Farben und echten Pinseln. KI-generierte Bilder können niemals Kunst sein, weil ihnen das Gefühl fehlt. Synthetische Bildkunst ist seelenlos, weil keine menschliche Hand den Pinsel führt.

Ich saß da, starrte auf den Bildschirm und spürte diese Mischung aus Frustration und Erschöpfung, die mich bei diesem Thema mittlerweile immer begleitet. Nicht weil ich keine Gegenargumente hätte. Sondern weil diese Argumente so offensichtlich sind, dass es mich wundert, sie immer wieder wiederholen zu müssen.

Also tue ich es jetzt. Ein letztes Mal. Ausführlich. Mit allem, was ich habe.

Die große Lüge vom fühlenden Werkzeug

Lassen Sie mich mit einer simplen Beobachtung beginnen, die so banal ist, dass sie fast schon beleidigend wirkt: Ein Pinsel hat keine Gefühle. Er hatte nie welche. Er wird nie welche haben.

Ein Pinsel ist ein Stück Holz mit Tierhaaren oder synthetischen Fasern am Ende. Er liegt auf dem Tisch oder in einer Schublade oder in einem Glas mit Terpentin. Er wartet auf nichts. Er sehnt sich nach nichts. Er träumt nicht von dem Bild, das er malen wird. Er hat keine Vision, keine Inspiration, keine schlaflosen Nächte voller kreativer Unruhe.

Wenn ein Künstler einen Pinsel in die Hand nimmt und ein Meisterwerk erschafft, dann kommt das Gefühl nicht aus dem Pinsel. Es kommt aus dem Menschen. Es kommt aus den Erfahrungen dieses Menschen, aus seinen Erinnerungen, aus seinen Hoffnungen und Ängsten, aus seiner einzigartigen Perspektive auf die Welt.

Der Pinsel ist lediglich das Medium. Das Übertragungsinstrument. Die Brücke zwischen der inneren Welt des Künstlers und der äußeren Welt der Leinwand.

Warum also sollte es bei einem anderen Werkzeug anders sein?

Eine kurze Geschichte der künstlerischen Empörung

Die Kunstwelt hat eine lange und durchaus unterhaltsame Tradition darin, neue Technologien zunächst vehement abzulehnen. Lassen Sie mich Sie auf eine kleine Zeitreise mitnehmen.

Als die Fotografie im 19. Jahrhundert aufkam, war die Empörung gewaltig. Maler sahen ihre Existenz bedroht. Kritiker erklärten, dass ein mechanisches Gerät niemals Kunst erschaffen könne. Die Kamera machte ja alles automatisch – wo blieb da die menschliche Seele? Wo das Gefühl? Der berühmte französische Dichter Charles Baudelaire nannte die Fotografie den „Todfeind der Kunst“.

Heute hängen Fotografien in den bedeutendsten Museen der Welt. Niemand würde ernsthaft behaupten, dass Ansel Adams, Annie Leibovitz oder Sebastião Salgado keine Künstler seien.

Als die elektronische Musik und Synthesizer aufkamen, wiederholte sich das Spiel. Echte Musik brauche echte Instrumente, hieß es. Ein Computer könne keine Seele haben. Elektronische Klänge seien kalt und leblos. Heute sind elektronische Produktionstechniken aus praktisch keinem Genre mehr wegzudenken, und niemand würde bestreiten, dass Kraftwerk, Brian Eno oder Aphex Twin Künstler sind.

Als digitale Malerei und Grafikprogramme aufkamen, hieß es wieder: Das sei keine echte Kunst. Wo bliebe die Verbindung zwischen Hand und Material? Wo das haptische Erlebnis? Wo die Authentizität des physischen Werks? Heute arbeiten die meisten professionellen Illustratoren und Concept Artists digital, und ihre Werke werden zurecht als Kunst anerkannt.

Sehen Sie das Muster? Jede einzelne technologische Innovation in der Kunst wurde zunächst mit den exakt gleichen Argumenten bekämpft. Und jedes einzelne Mal lagen die Kritiker falsch.

Was Synthetische Bildkunst wirklich bedeutet

Lassen Sie mich beschreiben, was tatsächlich passiert, wenn jemand mit KI-Werkzeugen Bilder erschafft.

Der Künstler sitzt vor seinem Computer. Er hat eine Idee, eine Vision, ein Gefühl, das er ausdrücken möchte. Vielleicht ist es die Melancholie eines regnerischen Herbstabends. Vielleicht die explosive Energie eines Moments der Erkenntnis. Vielleicht die stille Trauer über einen Verlust.

Er beginnt zu formulieren. Er sucht nach Worten, die seine innere Vision beschreiben. Er experimentiert mit Begriffen, mit Stilen, mit Atmosphären. Das erste Ergebnis ist nicht richtig. Es trifft nicht das, was er meint. Also verfeinert er seine Beschreibung. Er verwirft und beginnt neu. Er kombiniert Elemente aus verschiedenen Versuchen. Er kuratiert, wählt aus, entscheidet.

Dieser Prozess kann Stunden dauern. Manchmal Tage. Manchmal endet er in Frustration, weil die Vision sich nicht einfangen lässt. Manchmal endet er in diesem magischen Moment, in dem man auf das Ergebnis schaut und weiß: Ja, genau das wollte ich zeigen. Genau so fühlt es sich an.

Das ist kreative Arbeit. Das ist künstlerische Arbeit. Das ist zutiefst menschliche Arbeit.

Der Künstler trifft dabei hunderte von Entscheidungen. Jede einzelne davon ist ein Ausdruck seiner künstlerischen Vision. Jede einzelne davon ist getragen von seinem Gefühl, seiner Erfahrung, seiner einzigartigen Perspektive.

Die KI ist dabei das Werkzeug. Sie ist der Pinsel, der die Farbe auf die Leinwand trägt. Sie ist die Kamera, die das Licht einfängt. Sie ist der Synthesizer, der die Klänge erzeugt.

Sie ist nicht der Künstler.

Das Missverständnis über künstliche Intelligenz

Ein Teil des Problems liegt meiner Meinung nach in einem fundamentalen Missverständnis darüber, was KI tatsächlich ist und tut.

KI-Bildgeneratoren sind keine fühlenden Wesen. Sie haben keine Intentionen. Sie haben keine Visionen. Sie verstehen nicht, was sie tun. Sie sind mathematische Modelle, die statistische Muster in Daten gelernt haben und diese Muster auf neue Eingaben anwenden können.

Wenn jemand sagt, dass KI-Kunst kein Gefühl habe, weil die KI keine Gefühle hat, dann begeht er einen logischen Fehler. Denn mit der gleichen Argumentation müsste man sagen, dass Ölgemälde kein Gefühl haben, weil Ölfarben keine Gefühle haben. Oder dass Fotografien kein Gefühl haben, weil Kameras keine Gefühle haben.

Das Gefühl kommt nicht aus dem Werkzeug. Das Gefühl kommt aus dem Menschen, der das Werkzeug benutzt.

Die wahre Quelle der Kunst

Kunst entsteht nicht in Pinseln, Kameras oder Algorithmen. Kunst entsteht in Menschen. In ihren Köpfen, ihren Herzen, ihren Seelen.

Kunst entsteht in dem Moment, in dem ein Mensch etwas erlebt und den Drang verspürt, dieses Erlebnis auszudrücken. Sie entsteht in der Suche nach der richtigen Form für einen Gedanken. Sie entsteht in der Entscheidung, dieses Element zu behalten und jenes zu verwerfen. Sie entsteht in dem Mut, etwas Persönliches der Welt zu zeigen.

All das passiert bei synthetischer Bildkunst genauso wie bei traditioneller Malerei. Der Mensch erlebt, der Mensch fühlt, der Mensch entscheidet, der Mensch erschafft.

Das Werkzeug ist dabei sekundär. Es beeinflusst die Ästhetik des Ergebnisses, sicher. Ein Ölgemälde sieht anders aus als eine Fotografie, die anders aussieht als eine digitale Illustration, die anders aussieht als ein synthetisch generiertes Bild. Aber die künstlerische Essenz – die menschliche Intention, die emotionale Wahrheit, die kreative Vision – kommt in allen Fällen aus der gleichen Quelle.

Sie kommt aus dem Menschen.

Warum diese Debatte eigentlich nicht über Kunst geht

Ich vermute, dass die heftigen Reaktionen auf KI-Kunst weniger mit ästhetischen oder philosophischen Überzeugungen zu tun haben als vielmehr mit Angst. Angst vor Veränderung. Angst vor Bedeutungsverlust. Angst davor, dass Fähigkeiten, in die man jahrelang investiert hat, plötzlich weniger relevant werden könnten.

Diese Ängste sind verständlich. Sie sind menschlich. Aber sie sollten nicht dazu führen, dass wir anderen Menschen ihre Kreativität absprechen. Sie sollten nicht dazu führen, dass wir Werkzeuge verteufeln, nur weil sie neu und anders sind.

Die Geschichte der Kunst ist eine Geschichte der ständigen Evolution. Neue Techniken, neue Materialien, neue Werkzeuge haben immer wieder neue Möglichkeiten des Ausdrucks eröffnet. Das war bei der Erfindung der Ölfarbe so, bei der Entwicklung der Perspektive, bei der Einführung der Fotografie, bei der Digitalisierung.

KI ist der nächste Schritt in dieser Evolution. Nicht mehr, nicht weniger.

Ein Appell zum Schluss

Ich bitte nicht darum, dass jeder KI-generierte Kunst mögen muss. Geschmäcker sind verschieden, und das ist gut so. Ich bitte nicht darum, dass traditionelle Kunst weniger wertgeschätzt wird. Sie ist und bleibt eine wunderbare, bedeutungsvolle Form des menschlichen Ausdrucks.

Ich bitte nur darum, dass wir aufhören, anderen Menschen ihre Kreativität abzusprechen, nur weil sie andere Werkzeuge benutzen als wir. Ich bitte darum, dass wir anerkennen, dass das Gefühl immer beim Menschen liegt, nicht beim Werkzeug. Ich bitte darum, dass wir die ewig gleiche, ewig falsche Kritik endlich hinter uns lassen.

Der Pinsel hat noch nie ein Gefühl gehabt. Die Kamera auch nicht. Der Synthesizer nicht. Und die KI hat auch keines.

Aber der Mensch, der diese Werkzeuge benutzt – dieser Mensch fühlt. Er hofft, er träumt, er leidet, er feiert. Er sucht nach Ausdruck für das, was in ihm ist. Und wenn er diesen Ausdruck findet, dann ist das Kunst.

Egal, welches Werkzeug er dabei benutzt hat.