Tag Archive: ai




Anthropic verdoppelt gerade die Nutzungslimits für alle Claude Pro-User. Besseren Zeitpunkt gibt es nicht, um Claude endlich richtig einzurichten – nicht als Chatbot, sondern als echten AI-Mitarbeiter. Hier bekommst du 10 Profi-Tipps, mit denen du in kürzester Zeit ein Setup baust, das deinen Arbeitsalltag spürbar verändert.


Warum Claude gerade durch die Decke geht

Falls du Claude bisher nur vom Hörensagen kennst oder es mal kurz angetestet und dann wieder vergessen hast: Jetzt ist der Moment, genauer hinzuschauen. Anthropic – das Unternehmen hinter Claude – hat sich in den letzten Monaten vom stillen Underdog zum Liebling der Power-User entwickelt. Und das nicht ohne Grund.

Ja, Claude kann nicht alles, was ChatGPT kann. Keine Bildgenerierung, keine Videos, keine Custom GPTs, keinen Voice-Mode. Aber was Claude kann, das macht es verdammt gut. Das Team bei Anthropic ist unglaublich innovativ und bringt regelmäßig Features, die den Standard für die gesamte Branche setzen. Das Model Context Protocol (MCP) verbindet Sprachmodelle mit externen Systemen. Mit Skills kannst du dein komplettes Business-Setup in Textdateien speichern. Das Code-Feature macht deinen Rechner zum Alleskönner. Und Cowork gibt die Richtung vor, in die sich unser aller Arbeitsplatz entwickeln wird.

Und dann ist da noch der Vibe. Klingt vielleicht esoterisch, aber jeder, der längere Zeit mit Claude gearbeitet hat, weiß genau, was damit gemeint ist. Claude fühlt sich einfach anders an. Durchdachter. Präziser. Weniger generisch. Mehr wie ein Kollege, der mitdenkt, statt wie eine Maschine, die Output ausspuckt.

Jetzt kommt das Sahnehäubchen: Anthropic verdoppelt die Nutzungslimits für alle Pro-User. An Wochentagen außerhalb der Stoßzeiten und am Wochenende bekommst du doppelt so viele Nachrichten wie sonst – automatisch, ohne dass du irgendetwas aktivieren musst. Bessere Gelegenheit zum Einstieg gibt es nicht.


Dein Setup in fünf Minuten

Bevor wir zu den Profi-Tipps kommen, hier der schnelle Überblick, wie du Claude in wenigen Minuten startklar machst:

Schritt 1 – Account anlegen: Hol dir Claude Pro für 18 Euro im Monat und installiere die Desktop-App. Ja, die App. Nicht nur die Webversion. Die App ist entscheidend für einige der besten Features.

Schritt 2 – Daten mitnehmen: Falls du bisher mit ChatGPT gearbeitet hast, kannst du dein Memory von dort übertragen. So startest du nicht bei null.

Schritt 3 – Workspace erstellen: Lege einen lokalen Ordner auf deinem Rechner an. Nenn ihn zum Beispiel „AI-Workspace“. Das wird dein zentraler Hub.

Schritt 4 – Cowork aktivieren: Öffne den Cowork-Tab in Claude, wähle deinen Workspace-Ordner aus, stelle das Modell auf Opus 4 und aktiviere Extended Thinking.

Schritt 5 – Loslegen: Starte deinen ersten Chat mit dem Setup-Prompt, den du weiter unten findest.

Das war’s. Fünf Schritte, zehn Minuten, und du hast die Grundlage für einen AI-Mitarbeiter, der auf dich zugeschnitten ist.


10 Profi-Tipps, die den Unterschied machen

Tipp 1: Nutze den Setup-Prompt – aber lass Claude nachfragen

Der wichtigste Schritt ist der erste Chat. Verwende einen strukturierten Setup-Prompt, in dem Claude dir Fragen stellt: Was machst du beruflich? Wer ist deine Zielgruppe? Wie kommunizierst du? Welche Wörter nutzt du gern oder vermeidest du? Was sind deine häufigsten Aufgaben? Und ganz wichtig: Zeig Claude einen echten Text von dir – eine E-Mail, einen Social-Media-Post, einen Newsletter-Auszug. Füge unbedingt den Satz hinzu: „Stelle mir Rückfragen, wenn du mehr Details benötigst.“ Dieser eine Satz ist Gold wert. Er zwingt Claude, nachzufragen, statt mit falschen Annahmen loszurennen. Die meisten schlechten AI-Outputs entstehen nicht, weil das Modell schlecht ist – sondern weil es raten muss, was du eigentlich willst.

Tipp 2: Erstelle deine drei Kontext-Dateien

Lass Claude aus deinen Antworten drei Markdown-Dateien erstellen: about-me.md (dein Profil), brand-voice.md (deine Tonalität) und working-preferences.md (deine Regeln und häufigsten Aufgaben). Diese Dateien speicherst du in deinem Workspace-Ordner. Ab sofort hat Claude bei jedem neuen Chat Zugriff auf diese Informationen. Das bedeutet: Du musst dich nie wieder erklären. Claude weiß, wer du bist, wie du sprichst und was du brauchst.

Tipp 3: Behandle deinen Workspace wie ein lebendes System

Dein Workspace ist kein statisches Dokument, das du einmal erstellst und dann vergisst. Er ist ein lebendes System. Jedes Mal, wenn sich etwas in deinem Business ändert – neue Zielgruppe, neues Produkt, neue Tonalität – aktualisierst du die entsprechende Datei. Je aktueller dein Kontext ist, desto besser werden Claudes Outputs. Mach es dir zur Gewohnheit, deinen Workspace mindestens einmal im Monat zu reviewen und anzupassen.

Tipp 4: Aktiviere Extended Thinking für komplexe Aufgaben

Extended Thinking ist eines der mächtigsten Features in Claude. Wenn du es aktivierst, nimmt sich Claude mehr Zeit zum „Nachdenken“, bevor es antwortet. Das klingt simpel, macht aber einen enormen Unterschied bei komplexen Aufgaben wie Strategieentwicklung, Textanalysen oder wenn du Claude bittest, mehrere Optionen gegeneinander abzuwägen. Für schnelle, einfache Fragen brauchst du es nicht. Aber für alles, was Tiefe erfordert, ist es ein Gamechanger.

Tipp 5: Nutze die doppelten Limits strategisch

Anthropic verdoppelt die Limits an Wochentagen außerhalb der Stoßzeiten und am Wochenende. Nutze das strategisch. Plane deine intensiven AI-Sessions – Contentproduktion, Strategiearbeit, große Batch-Aufgaben – auf genau diese Zeiten. Morgens früh, abends spät oder am Wochenende. So bekommst du doppelt so viel Output, ohne einen Cent mehr zu bezahlen.

Tipp 6: Übertrage dein ChatGPT-Memory – aber überarbeite es

Wenn du von ChatGPT zu Claude wechselst, nimm dein Memory mit. Aber kopiere es nicht einfach blind rüber. ChatGPTs Memory-Einträge sind oft fragmentarisch, widersprüchlich oder veraltet. Exportiere die Daten, geh sie einmal durch, sortiere aus, was nicht mehr stimmt, und formuliere den Rest klar und strukturiert. Dein Claude-Setup verdient saubere Daten als Grundlage.

Tipp 7: Baue dir Skills für wiederkehrende Aufgaben

Hier wird es richtig spannend. Skills sind im Grunde gespeicherte Anleitungen für Aufgaben, die du regelmäßig erledigst. Du schreibst jede Woche einen Newsletter? Erstelle einen Skill dafür, in dem Format, Struktur, Tonalität und Zielgruppe definiert sind. Du beantwortest täglich Kundenanfragen? Skill dafür. Du erstellst monatlich Reports? Skill dafür. Je mehr Skills du anlegst, desto weniger musst du in jedem einzelnen Chat erklären. Claude greift einfach auf das jeweilige Rezept zurück und liefert konsistente Ergebnisse.

Tipp 8: Denke in vier Ebenen

Dein AI-Mitarbeiter wird erst dann richtig mächtig, wenn alle vier Ebenen stehen und miteinander sprechen. Ebene 1: Context – Claude kennt dich, dein Business und deine Stimme. Ebene 2: Connectors – Claude hat Zugriff auf deine Tools und Datenquellen über MCP. Ebene 3: Skills – Claude hat deine Rezepte für wiederkehrende Aufgaben. Ebene 4: Second Brain – Dein System läuft dauerhaft und entwickelt sich weiter. Fang mit Ebene 1 an, das ist dein heutiger Schritt. Aber hab die anderen drei Ebenen immer im Hinterkopf. Sie sind dein Fahrplan.

Tipp 9: Dein Setup ist plattformunabhängig

Das Schönste an diesem Ansatz: Er ist nicht an Claude gebunden. Die Markdown-Dateien, die du in deinem Workspace erstellst, funktionieren genauso mit ChatGPT, Gemini oder jedem anderen Sprachmodell. Du baust dir einmal dein persönliches AI-Betriebssystem und kannst es überallhin mitnehmen. Wenn morgen ein neues, besseres Modell auf den Markt kommt, nimmst du deinen Workspace-Ordner, verbindest ihn – und bist sofort startklar. Keine Abhängigkeit von einem einzelnen Anbieter. Das ist echte Zukunftssicherheit.

Tipp 10: Hör auf, AI wie eine Suchmaschine zu benutzen

Das ist der wichtigste Tipp von allen. Wenn du deinen Chatbot immer noch wie Google benutzt – Frage rein, Antwort raus, fertig – dann lässt du 90 Prozent des Potenzials auf der Straße liegen. Der Unterschied zwischen „AI ist ganz nett“ und „AI verändert meinen Arbeitsalltag“ liegt nicht im Prompt. Er liegt im Kontext. Es wird erst dann richtig spannend, wenn Claude dein Business versteht. Wenn es deine E-Mails in deinem Ton schreibt. Wenn es Content in deiner Brand Voice erstellt. Wenn es bei Strategiefragen mitdenkt, weil es weiß, wo du herkommst und wo du hinwillst. Genau dafür baust du dieses Setup.


Dein nächster Schritt

Du hast jetzt alles, was du brauchst, um loszulegen. Die Theorie steht, die Tipps sind klar, die Aktion liegt bei dir. Nimm dir heute zehn Minuten. Nur zehn. Erstelle deinen Account, installiere die App, lege deinen Workspace an und starte den Setup-Chat.

In zwei Wochen wirst du zurückblicken und dich fragen, warum du das nicht schon längst gemacht hast. Claude ist nicht einfach nur ein weiterer Chatbot. Mit dem richtigen Setup wird es zu einem Werkzeug, das deinen Arbeitsalltag grundlegend verändert. Nicht irgendwann. Jetzt.

Also: Good luck, have fun – und richte dir deinen AI-Mitarbeiter ein. 🚀



Weißt du noch, wie dein Workflow vor ein paar Jahren aussah? Stundenlanges Klicken mit dem Polygon-Lasso, verkrampfte Finger vom Zeichenstift-Werkzeug und pure Verzweiflung, wenn du fliegende Haare vor einem unruhigen Hintergrund freistellen musstest. Diese Zeiten sind zum Glück endgültig vorbei.

In Photoshop gibt es inzwischen einige auf KI basierende Auswahlmöglichkeiten (angetrieben von Adobe Sensei). Diese unterscheiden sich nicht nur im Funktionsumfang, sondern auch in der Ergebnisqualität. Hier erfährst du, was es zu beachten gibt, wo die Fallstricke liegen und wie du als echter Profi das absolute Maximum aus diesen Automatismen herausholst.

Die drei Säulen der KI-Auswahl: Welches Werkzeug für welchen Zweck?

Photoshop bietet dir nicht nur einen einzigen „Magie-Button“, sondern verschiedene KI-Ansätze. Um effizient zu arbeiten, musst du wissen, wann du welches Tool einsetzt:

  1. Motiv auswählen (Select Subject): Der absolute Klassiker für Porträts oder Produktfotos. Mit einem Klick analysiert die KI das gesamte Bild, erkennt das Hauptmotiv und erstellt eine Maske. Perfekt, wenn das Motiv eindeutig im Fokus steht.
  2. Objektauswahlwerkzeug (Object Selection Tool): Mein persönlicher Favorit für komplexe Szenen. Du fährst mit der Maus über das Bild, und Photoshop markiert erkannte Objekte farbig (der sogenannte Hover-Effekt). Ein Klick, und das Auto, der Baum oder die Person im Hintergrund ist isoliert. Es funktioniert wie Magie, besonders wenn du mehrere spezifische Dinge in einem Bild auswählen willst.
  3. Himmel auswählen (Select Sky): Für Landschafts- und Architekturfotografen ein echter Gamechanger. Die KI erkennt nicht nur den Himmel, sondern baut auch komplexe Masken um Baumkronen, Stromleitungen oder Gebäudekanten herum, um den Himmel fehlerfrei auszutauschen oder anzupassen.

Doch Vorsicht: KI ist extrem schlau, aber sie hat (noch) nicht das kritische Auge eines professionellen Bildbearbeiters. Oft liefert sie dir „nur“ 90 bis 95 Prozent der perfekten Maske. Die restlichen Prozente machen den Unterschied zwischen einem schnell zusammengebastelten Amateur-Bild und einem High-End-Compositing aus.

Damit deine Masken absolut makellos werden, habe ich hier meine besten Experten-Tipps für dich zusammengefasst.


Profi-Tipp 1: Der geheime Schalter in den Voreinstellungen (Cloud vs. Gerät)

Hier trennt sich die Spreu vom Weizen! Wenn du die Funktion „Motiv auswählen“ nutzt, greift Photoshop standardmäßig auf die Rechenleistung deines Computers (Gerät) zurück. Das geht zwar in Millisekunden, ist aber bei weitem nicht so präzise, wie es sein könnte.

Mein Trick für dich: Gehe in die Photoshop-Einstellungen unter Bearbeiten > Voreinstellungen > Bildverarbeitung (am Mac unter Photoshop > Einstellungen…). Dort findest du den Punkt „Verarbeitung von ‚Motiv auswählen’“. Stelle das Dropdown-Menü von „Gerät (Schnellere Ergebnisse)“ auf „Cloud (Detaillierte Ergebnisse)“ um.
Wenn du nun ein Motiv auswählst, schickt Photoshop die Bilddaten kurz an die Server von Adobe, wo ein weitaus mächtigeres KI-Modell die Kanten berechnet. Es dauert vielleicht ein bis zwei Sekunden länger, aber das Ergebnis – gerade bei feinen Details wie Haaren, Fell oder rauen Texturen – ist um Welten besser!

Profi-Tipp 2: Hilf der KI auf die Sprünge (Der Kontrast-Trick)

Manchmal verzweifelt die KI, wenn dein Motiv und der Hintergrund fast die gleiche Farbe oder Helligkeit haben (z.B. ein Model in einem grauen Mantel vor einer grauen Betonwand).

Der Experten-Workaround: Erstelle eine temporäre Einstellungsebene (z.B. Tonwertkorrektur oder Gradationskurven). Ziehe die Regler extrem nach oben und unten, sodass ein massiver, fast hässlicher Kontrast im Bild entsteht. Lass jetzt die KI das Motiv auswählen! Durch den künstlich extremen Kontrast erkennt Adobe Sensei die Kanten plötzlich gestochen scharf. Sobald deine Auswahl als blinkende Linie („Ameisenlinie“) steht, löschst du die Kontrast-Ebene einfach wieder und wendest die Maske auf dein Originalbild an.

Profi-Tipp 3: Der „Auswählen und Maskieren“-Arbeitsbereich ist Pflicht

Egal, wie gut die erste KI-Auswahl aussieht, gib dich niemals mit dem ersten Klick zufrieden. Klicke immer auf den Button „Auswählen und Maskieren…“ oben in der Optionsleiste. Dieser Arbeitsbereich bietet dir Werkzeuge, die unerlässlich sind.

Nutze hier unbedingt die Funktion „Haare verfeinern“ (Refine Hair) in der oberen Leiste. Die KI rechnet dann noch einmal gezielt und tiefgründig die Ränder von Frisuren oder Tierfell nach.
Noch ein Geheimtipp: Scrolle auf der rechten Seite ganz nach unten zu den Ausgabe-Einstellungen und setze einen Haken bei „Farben dekontaminieren“ (Decontaminate Colors). Dadurch rechnet Photoshop den störenden Farbstich (Color Spill) aus den Haaren heraus, der oft vom Hintergrund auf das Motiv reflektiert wurde.

Profi-Tipp 4: KI und Handarbeit richtig kombinieren

Die KI nimmt dir die grobe Fleißarbeit ab, aber manchmal übersieht sie ein kleines Stück Hintergrund zwischen dem Arm und dem Körper deines Models, oder sie schneidet eine Fingerspitze ab.

So sieht mein Workflow aus: Ich lasse die KI die Grundauswahl treffen. Dann wähle ich ein manuelles Werkzeug wie das Lasso oder die Schnellauswahl. Mit gedrückter Shift-Taste (es erscheint ein Plus-Symbol) male ich Bereiche an, die die KI vergessen hat, um sie der Auswahl hinzuzufügen. Mit gedrückter Alt-Taste (es erscheint ein Minus-Symbol) ziehe ich Bereiche ab, die die KI fälschlicherweise ausgewählt hat. So hast du das Beste aus beiden Welten: Die Geschwindigkeit der Maschine und die absolute Präzision deines menschlichen Auges.

Profi-Tipp 5: Vorbereitung ist alles für die „Generative Füllung“

Inzwischen nutzen wir Auswahlen nicht nur zum Freistellen, sondern oft auch, um Objekte durch die neue Generative Füllung (Generative Fill) per KI entfernen oder ersetzen zu lassen.
Wenn du ein Objekt per KI auswählst, liegt die Auswahl meistens messerscharf auf der Kante des Objekts. Wenn du jetzt generierst, entsteht oft ein unschöner Rand, weil die neue KI-Füllung nicht richtig mit dem Hintergrund verschmilzt.

Der Trick: Wenn du etwas generativ ersetzen oder entfernen willst, musst du die Auswahl minimal ausweiten. Gehe auf Auswahl > Ändern > Erweitern… und gib dort einen Wert von etwa 3 bis 5 Pixeln ein. Die Auswahl überlappt nun leicht den Hintergrund. Dadurch hat die generative KI genug Kontext-Pixel um das Objekt herum, um einen weichen, fotorealistischen und absolut nahtlosen Übergang zu berechnen.


Fazit: Werde zum Regisseur der Künstlichen Intelligenz

Die auf KI basierenden Auswahlwerkzeuge in Photoshop sind unglaublich mächtig und sparen uns in der täglichen Praxis unzählige Stunden Arbeit. Aber merke dir eines: Die KI ist nur dein Assistent. Der Chef am Bildschirm bist nach wie vor du!

Verlasse dich nie blind auf den ersten Klick. Nutze die Cloud-Berechnung, arbeite mit dem „Auswählen und Maskieren“-Dialog, verfeinere die Kanten von Hand und denke immer non-destruktiv in Masken. Wenn du diese Tricks in deinen Workflow integrierst, hebst du deine Bildbearbeitung auf ein völlig neues, professionelles Level.

Jetzt bist du dran: Wie sieht dein aktueller Workflow aus? Hast du die Cloud-Berechnung schon ausprobiert oder kämpfst du noch oft mit unsauberen Kanten? Lass es mich unten in den Kommentaren wissen – ich freue mich sehr auf den Austausch mit dir!



Es gibt dieses Rauschen. Du hörst es überall. Es kriecht aus den sozialen Netzwerken, es steht in den Feuilletons, es dominiert die Gespräche in der Kaffeeküche deiner Agentur oder im Studio zwischen zwei Sets, wenn das Model gerade in der Maske sitzt und der Art Director nervös auf sein Tablet starrt. Es ist ein nervöses, manchmal fast hysterisches, oft resigniertes Rauschen: „Die KI macht uns arbeitslos.“ „Fotografie ist tot.“ „Bald drückt jeder nur noch einen Knopf und ist Künstler.“ „Warum soll ich noch lernen, wie man Licht setzt, wenn die Software das in drei Sekunden macht?“

Ich sage es dir jetzt einmal ganz deutlich, hart und ohne die üblichen diplomatischen Schnörkel, mit denen wir uns in der Kreativbranche gerne gegenseitig beruhigen: Das ist Unsinn. Es ist der größte Irrtum dieses Jahrzehnts. Wer glaubt, dass die aktuellen oder kommenden KI-Modelle einen echten Fotografen, einen echten Retuscheur oder einen echten Art Director ersetzen, der hat nicht verstanden, was diese Berufe eigentlich im Kern ausmacht. Und noch viel wichtiger, vielleicht das Wichtigste überhaupt: Er hat nicht verstanden, wie diese neuen Werkzeuge wirklich funktionieren, wenn man sie nicht wie einen einarmigen Banditen im Casino bedient, sondern wie ein hochkomplexes Präzisionsinstrument in einem Labor.

Wir schreiben das Jahr 2026. Die generative künstliche Intelligenz ist kein Spielzeug mehr. Sie ist kein Partytrick, mit dem man den Papst in eine Daunenjacke steckt oder Wes Anderson Harry Potter drehen lässt. Sie ist eine industrielle Fräse für visuelle Inhalte. Sie ist ein Reaktor für Pixel. Aber – und das ist das gigantische Aber, um das sich dieser Text drehen wird – eine Fräse braucht jemanden, der sie bedient. Einen Meister, der weiß, wie das Material reagiert, wenn es heiß wird. Jemanden, der den Unterschied zwischen Kitsch und Kunst nicht nur kennt, sondern fühlt. Die KI ersetzt nicht den Menschen. Sie ersetzt den Durchschnitt. Sie ersetzt das Mittelmaß. Sie ersetzt diejenigen, die nur Knöpfe drücken, ohne zu wissen, was dahinter passiert. Aber für dich, den Experten, der Fotografie, Licht, Komposition, Farbtheorie und Post-Production wirklich verstanden und jahrelang geübt hat, ist sie kein Feind. Sie ist der Turbo, von dem wir immer geträumt haben, ohne es zu wissen. Sie ist die Erweiterung deines Gehirns und deiner Hände, nicht deren Ersatz.

Lass uns tief eintauchen. Lass uns zerlegen, warum das so ist. Warum JSON-Code wichtiger ist als „schöne Worte“. Warum deine eigenen Fotos das Gold der neuen Ära sind. Und warum am Ende immer noch Photoshop, deine lokale Hardware und dein Auge entscheiden, ob ein Bild lebt oder nur existiert. Wir müssen zunächst mit einem fundamentalen Missverständnis aufräumen, das die Debatte vergiftet. Die meisten Menschen da draußen nutzen Bild-KI vollkommen falsch. Sie gehen zu einer Eingabeaufforderung, sei es in einem Discord-Channel oder einem Web-Interface, und tippen etwas wie: „Ein schöner Sonnenuntergang, Cyberpunk, Frau mit Neon-Haaren, 8k, masterpiece, trending on artstation.“ Dann drückt die KI auf den Zufallsgenerator. Sie würfelt. Sie greift in den riesigen Sack der Wahrscheinlichkeiten, den sie aus Milliarden von Bildern gelernt hat, und spuckt vier Varianten aus. Der Nutzer sucht sich das hübscheste aus, speichert es ab und sagt: „Ich habe das gemacht.“

Nein, hast du nicht. Du hast im Lotto gewonnen.

Das ist Glücksspiel, keine Kreation. Die KI hat basierend auf statistischen Wahrscheinlichkeiten Pixel angeordnet, die lose zu deinen Worten passen. Du hattest keine Kontrolle über das Lichtverhältnis. Du hattest keine Kontrolle über die Brennweite. Du hattest keine Kontrolle über den emotionalen Subtext oder die narrative Tiefe. Du hast konsumiert, nicht produziert. Du warst der Kunde, nicht der Koch. Hier trennt sich die Spreu vom Weizen, und hier beginnt deine Relevanz als Profi. Der Fotograf, der Künstler – also du – akzeptiert keinen Zufall. Wir hassen Zufall. Wir wollen Kontrolle. Wenn du ein Bild im Kopf hast, dann hast du eine Vision. Du siehst die Lichtsetzung vor deinem inneren Auge – ist es ein Rembrandt-Licht? Ein hartes Split-Light? Ein weiches Butterfly? Du siehst die Textur der Haut, spürst, ob sie glänzen oder matt sein soll. Du siehst die Körnung des Films, die Tiefe der Schatten. Du siehst die emotionale Distanz zum Subjekt. Wenn die KI dir dann irgendwas Generisches ausspuckt, das zwar „nett“ aussieht, aber nicht deine Vision trifft, ist das für dich wertlos.

Deshalb ist die KI beim derzeitigen Stand – und ich wage zu behaupten, auch in absehbarer Zukunft – kein Ersatz für dich. Denn die KI hat keinen Willen. Sie hat keinen Geschmack. Sie hat keine Intention. Sie hat keine Schmerzen empfunden, keine Freude erlebt, keine Angst gehabt. Sie ist ein Spiegel, der alles reflektiert, was man ihm zeigt. Und wenn man ihm nichts Konkretes, nichts Menschliches zeigt, reflektiert er eben den Durchschnitt des Internets. Und der Durchschnitt ist langweilig. Es ist eine Ironie des Schicksals, die man sich auf der Zunge zergehen lassen muss: Gerade jetzt, wo jeder Hans und Franz Bilder generieren kann, wird echtes, tiefes fotografisches Fachwissen wertvoller denn je. Warum? Weil du der Maschine sagen musst, was sie tun soll. Und die Maschine spricht – überraschenderweise und glücklicherweise – die Sprache der Fotografie.

Ein Laie schreibt in seinen Prompt: „Hintergrund unscharf.“ Du schreibst – oder codierst –: „85mm Prime Lens, Aperture f/1.2, heavy Bokeh, shallow Depth of Field, focus on iris, chromatic aberration on edges.“ Das Ergebnis ist fundamental anders. Die KI versteht physikalische Gesetzmäßigkeiten, weil sie mit Millionen von echten Fotos trainiert wurde, in deren Metadaten genau diese Informationen standen. Sie „weiß“ im statistischen Sinne, wie ein 35mm-Objektiv ein Gesicht verzerrt und wie ein 200mm-Objektiv es komprimiert und den Hintergrund ranholt. Sie weiß, wie sich chromatische Aberration an harten Kanten bei Gegenlicht verhält. Sie weiß, wie Filmkorn bei ISO 3200 aussieht im Vergleich zu ISO 100. Wenn du als Anwender nicht weißt, was ISO-Rauschen ist, wie sich hartes Sonnenlicht von einer riesigen Octabox unterscheidet, was ein „Rim Light“ bewirkt oder warum man in der Porträtfotografie oft nicht unter 50mm geht, dann bist du der KI ausgeliefert. Du bist Passagier in einem Auto, das du nicht steuern kannst. Du kannst nur hoffen, dass es irgendwo ankommt, wo es schön ist. Als Profi bist du der Pilot.

Künstliche Intelligenz ist im Grunde ein gigantischer, unendlicher Licht-Simulator. Aber sie hat eine Tendenz: Sie neigt dazu, Licht „perfekt“ zu machen. Zu glatt. Zu kommerziell. Zu gefällig. Wer Ahnung von Fotografie hat, weiß, dass Charakter durch Schatten entsteht, nicht durch Licht. Dass die Dunkelheit genauso wichtig ist wie die Helligkeit. Wir zwingen die KI, Fehler zu machen. Wir fordern „Low Key“, wir fordern „Chiaroscuro“, wir fordern „Volumetric Lighting“, das Staubpartikel in der Luft sichtbar macht. Wir bauen Szenarien auf, die wir aus dem Studio kennen. Du kannst der KI sagen: „Setze ein Key Light von links oben, 45 Grad, Farbtemperatur 5600K, hart, und ein Rim Light von rechts hinten, Farbe Teal, Intensität 2.0, um die Silhouette vom Hintergrund zu lösen.“ Wenn du nie in einem Studio gestanden hast, nie Lampen geschleppt und Lichtformer gewechselt hast, kommst du gar nicht auf die Idee, das zu verlangen. Du nimmst das flache Einheitslicht, das die Modelle standardmäßig liefern, weil es „sicher“ ist. Das ist der Grund, warum 90 Prozent der KI-Bilder gleich aussehen. Weil 90 Prozent der Nutzer kein Licht lesen können. Du kannst es. Das ist dein unfairer Vorteil.

Jetzt wird es technisch, und das ist der Punkt, an dem viele Hobbyisten aussteigen – und wo du als Profi anfängst, echte Qualität zu liefern und dich vom Markt abzuheben. Vergiss das klassische „Prompting“. Das Schreiben von langen, blumigen Sätzen wie „Eine wunderschöne Elfe steht in einem magischen Wald, es ist neblig und mystisch…“ ist ineffizient, unpräzise und ehrlich gesagt veraltet. Es ist Malen nach Zahlen. Sprache ist schwammig. Was bedeutet „wunderschön“? Für dich ist das etwas anderes als für die KI oder für deinen Kunden. Was bedeutet „mystisch“? Nebel? Dunkelheit? Leuchtende Pilze? Deshalb arbeiten wir auf dem höchsten Level nicht mehr mit Prosa, sondern mit Struktur. Wir nutzen JSON (JavaScript Object Notation) oder ähnliche strukturierte Datenformate, um mit der KI zu kommunizieren – oft im Dialog mit LLMs (Large Language Models), die als Dolmetscher und Architekten für die Bild-KI fungieren. Besonders in Workflows, die über API-Schnittstellen laufen oder in fortgeschrittenen Interfaces wie ComfyUI integriert sind, ist das der Standard.

Warum JSON? Weil es Parameter trennt, isoliert, gewichtet und kontrollierbar macht. Stell dir vor, du beschreibst ein Bild nicht wie ein Dichter, sondern wie ein Architekt oder ein Regisseur, der sein Set aufbaut. Du definierst das Subjekt mit Attributen für Alter, Hauttextur und Kleidung. Du definierst die Kamera mit Modell, Objektiv, Blende und Winkel. Du definierst das Licht mit Quellen, Positionen, Farben und Härtegraden. Du definierst die Umgebung und den Stil separat. Indem du die Bildbestandteile in Variablen zerlegst, erlangst du Wiederholbarkeit. Du kannst den Wert für „lighting“ ändern, ohne dass sich das „subject“ verändert. Du kannst die Kamera wechseln, ohne dass die Kleidung plötzlich eine andere Farbe hat oder die KI „vergisst“, was sie eigentlich malen sollte. Das ist Programmierung von Bildern. Das ist Synthografie in Reinform. Wer das beherrscht, der „hofft“ nicht auf ein gutes Bild. Der baut es.

Diese methodische Herangehensweise erlaubt es dir, komplexe Bildwelten zu erschaffen, die konsistent sind. Wenn du eine Serie für einen Kunden produzierst, kannst du dir keine Zufälle leisten. Du kannst nicht dem Kunden sagen: „Ja, im dritten Bild hat das Model plötzlich blonde Haare, weil die KI heute einen schlechten Tag hat.“ JSON und strukturierte Parameter geben dir die Zügel in die Hand, die der normale Prompt-Tipper gar nicht sieht. Es verwandelt die „Black Box“ der KI in ein Cockpit mit Reglern und Schaltern. Doch selbst der beste Code ist nichts ohne den richtigen Rohstoff. Hier kommen wir zum vielleicht wichtigsten Punkt, warum du als Fotograf unverzichtbar bleibst: Input. Eine KI, die nur mit Text gefüttert wird, halluziniert. Sie erfindet Dinge. Das ist oft toll für Fantasy oder surreale Kunst, aber katastrophal für spezifische Visionen, Porträts realer Personen oder Corporate Identity. Die wahre Macht entfaltet sich, wenn wir der KI eigene Bilder geben. Gute Ausgangsfotos. Deine Fotos.

Stell dir folgende Situation vor: Du fotografierst ein Model im Studio. Das Licht ist okay, die Pose ist perfekt, der Gesichtsausdruck ist genau der, den du willst – dieser eine Moment zwischen Einatmen und Ausatmen. Aber du hast kein Budget, um sie nach Island an einen schwarzen Strand zu fliegen, und du hast auch nicht das 10.000-Euro-Kleid vom Designer zur Hand, das eigentlich im Konzept stand. Früher war das ein Fall für aufwendiges Composing, das Tage gedauert hat. Du musstest Stock-Fotos suchen, die nie ganz passten, Perspektiven verzerren, Licht malen, und oft sah es am Ende trotzdem „reingeklebt“ aus, weil die Physik nicht stimmte. Heute nimmst du dein Studiofoto. Du nutzt es als Referenz (Image-to-Image) und steuerst die Struktur über Technologien wie ControlNet (mit Modulen wie Depth Maps, Canny Edge oder OpenPose). Du sagst der KI: „Nimm exakt diese Körperhaltung. Nimm exakt diese Gesichtszüge. Nimm exakt diese Lichtverteilung. Aber zieh ihr das futuristische Kleid an und stell sie an den Strand in Island. Behalte die Lichtrichtung bei.“

Weil das Ausgangsmaterial – dein Foto – qualitativ hochwertig ist, wird das Ergebnis hochwertig sein. Die KI muss die Anatomie nicht raten (was sie oft falsch macht, siehe das berüchtigte Hände-Problem), weil du ihr die Anatomie gibst. Sie muss die Lichtrichtung nicht raten, weil dein Foto die Schatten vorgibt. Je besser dein Input-Foto, desto realistischer, schärfer und glaubwürdiger ist das Ergebnis. Ein unscharfes, schlecht beleuchtetes Handyfoto führt zu Matsch. Ein knackscharfes RAW-File aus deiner 50-Megapixel-Kamera führt zu einem High-End-Render. Das bedeutet: Wer fotografieren kann, hat den besseren Rohstoff. Wir sind die Lieferanten der digitalen DNA, aus der die neuen Welten gebaut werden. Ohne diese DNA ist alles nur generisches Rauschen. Du lieferst die Substanz, die KI liefert die Dekoration und die Transformation. Du bist der Anker in der Realität.

Ein weiteres Problem der frühen KI-Bilder (wir erinnern uns an 2023/2024) war dieser furchtbare „Plastik-Look“. Alles sah aus wie Airbrush, zu glatt, zu perfekt, wie Videospielgrafik auf Steroiden. Haut wie Gummi, Augen wie Glasmurmeln. Der Experte – also du – arbeitet heute mit cinematischen Modellen. Das sind speziell trainierte Checkpoints (oft basierend auf Stable Diffusion XL oder proprietären neuen Architekturen wie Flux oder spezialisierten Fine-Tunes), die nicht auf „hübsch“ trainiert sind, sondern auf „echt“. Diese Modelle verstehen, dass Haut Poren hat. Dass Poren nicht gleichmäßig verteilt sind. Dass Licht in einer Linse bricht und Fehler erzeugt – Lens Flares, Halation, chromatische Aberration, Vignettierung. Dass analoger Film ein Rauschverhalten hat, das digitalem Rauschen überlegen ist. Wir nutzen Modelle, die „hässlich“ können. Dreck, Asymmetrie, Chaos. Das ist der Schlüssel zum Fotorealismus. Die Realität ist nicht perfekt. Eine KI, die Perfektion anstrebt, scheitert an der Realität. Ein echtes Foto ist nie 100 % sauber. Als Künstler wählst du das Modell wie früher den Film. Brauchst du die Farben eines Kodak Portra 400? Nimmst du Modell A. Brauchst du den düsteren, körnigen, kontrastreichen Look eines Ilford Delta 3200 Schwarzweiß-Films? Nimmst du Modell B. Du kannst diese Modelle sogar mixen (Checkpoint Merging), um deinen eigenen, unverwechselbaren Stil zu kreieren. Das ist wie das Mischen von Farben auf einer Palette. Ein Laie nutzt die Standard-Farben aus der Tube (das Standard-Modell von Midjourney). Ein Meister mischt sich seinen Ton.

Aber lass uns an diesem Punkt ehrlich sein: Ein Bild, das zu 100 Prozent aus der KI kommt, fühlt sich oft seltsam glatt an, selbst mit den besten Modellen. Ein Bild, das heute noch zu 100 Prozent klassisch in Photoshop gemalt oder retuschiert wird, dauert oft zu lange, um wirtschaftlich zu sein. Die Magie – der eigentliche künstlerische Durchbruch – liegt im „Dazwischen“. In der hybriden Kunst. Wir müssen aufhören, in Lagern zu denken. Hier die Fotografen, da die KI-Nerds. Der Experte von 2026 ist ein Grenzgänger. Hybride Kunst bedeutet: Du nutzt die KI nicht, um das ganze Bild zu machen. Du nutzt sie, um Elemente zu erzeugen, die du fotografisch nicht oder nur schwer bekommst.

Vielleicht fotografierst du das Model im Studio. Das ist echt. Die Emotion ist echt. Die Haut ist echt. Aber das Kleid? Vielleicht skizzierst du das grob in Photoshop, fütterst diese Skizze in eine lokale KI, lässt dir fünf Textur-Varianten von Seide oder Metall generieren, und dann – und das ist der entscheidende Schritt – compst du diese KI-Elemente klassisch in Photoshop zurück auf das echte Foto. Du nutzt Masken. Du nutzt Gradationskurven. Du nutzt den Mischpinsel. Du verheiratest das generierte Chaos mit der fotografischen Ordnung. Das ist Hybrid-Kunst. Das Ergebnis ist ein Werk, bei dem niemand mehr sagen kann, wo das Foto aufhört und die KI anfängt. Es gibt keine Nahtstellen. Es gibt keine „KI-Artefakte“, weil du sie manuell entfernt hast. Es gibt keine physikalischen Unmöglichkeiten, weil du sie korrigiert hast.

Diese hybride Arbeitsweise ist es, die deinen Stil unkopierbar macht. Jemanden, der nur promptet, kann man kopieren. Man klaut den Prompt, man kriegt ein ähnliches Bild. Aber jemanden, der fotografiert, malt, generiert, maskiert, überlagert und retuschiert? Das ist eine Handschrift. Das ist ein Prozess, der so komplex und individuell ist, dass er immun gegen Nachahmung wird. Du bist nicht mehr nur ein User einer Software. Du bist ein Alchemist, der verschiedene Substanzen mischt, um Gold zu machen.

Und hier kommen wir zu einem Punkt, der oft übersehen wird, der aber über deine Karriere entscheiden kann: Datenschutz und Urheberschaft. Wenn du professionell arbeitest, wenn du hybride Kunst erschaffst, die deinen Namen tragen soll, dann gibt es eine goldene Regel: Nichts verlässt deinen Rechner. Nutze keine öffentlichen Web-Interfaces für deine finale Arbeit. Lade keine Kundenfotos in eine Cloud-KI hoch, deren AGB du nicht zu 100 Prozent verstehst (und wer tut das schon?). Poste deine Prompts und deine Workflows nicht in öffentlichen Discord-Channels. Warum?

Erstens: Der Schutz deiner DNA. Wenn du einen einzigartigen Stil entwickelt hast, willst du nicht, dass eine öffentliche KI diesen Stil lernt und ihn morgen jedem 14-Jährigen zur Verfügung stellt. Wenn du deine besten Arbeiten in ein offenes System fütterst, trainierst du deine eigene Konkurrenz. Zweitens: Kundensicherheit. Stell dir vor, du bearbeitest Bilder für eine Kampagne eines Autoherstellers, die erst in sechs Monaten launchen darf. Lädst du das Bild in eine öffentliche KI, um den Hintergrund zu ändern, hast du im schlimmsten Fall gerade ein NDA (Geheimhaltungsvereinbarung) gebrochen. Das Bild liegt jetzt auf einem Server in den USA. Das ist berufliches Harakiri.

Der Profi nutzt lokale KI-Instanzen. Wir reden über Stable Diffusion, Flux oder Nachfolgemodelle, die auf deiner eigenen Grafikkarte laufen (via Interfaces wie Automatic1111, ComfyUI oder Fooocus). Warum lokal? Weil du hier eigene Modelle (LoRAs/Checkpoints) trainieren kannst. Du kannst der KI deinen Stil beibringen, dein Licht, deine Farbpalette – und dieses Modell gehört nur dir. Es liegt auf deiner SSD. Niemand sonst hat Zugriff darauf. Das ist dein eigentliches Kapital. Du baust dir eine persönliche KI, die wie ein Assistent funktioniert, der nur für dich arbeitet. Sie kennt deine Vorlieben. Sie weiß, wie du Hauttöne magst. Aber sie plaudert Betriebsgeheimnisse nicht aus. Wenn du öffentlich generierst, bist du ein Tourist. Du nutzt die Infrastruktur, die alle nutzen. Du bekommst den „Look“, den alle haben. Wenn du lokal und persönlich arbeitest, bist du ein Einheimischer. Du baust deine eigene Infrastruktur.

Kommen wir nun zum Elefanten im Raum, den viele KI-Evangelisten gerne ignorieren oder wegdiskutieren wollen. Sie behaupten, man brauche kein Photoshop mehr. Das Bild komme ja fertig aus der Maschine. Das ist der größte Trugschluss von allen. Das ist die Lüge, die Amateure glauben und die sie daran hindert, jemals professionelle Ergebnisse zu erzielen. Ein KI-Bild „out of the box“ ist Rohmaterial. Es ist wie ein ungeschliffener Diamant – oder manchmal eher wie ein Klumpen Lehm, der grob die Form hat, die man will, aber noch voller Fingerabdrücke und Unebenheiten steckt.

Hier beginnt deine eigentliche Arbeit als Profi. Hier beginnt die „Synthografie“ als echtes Handwerk. Du nimmst das Bild in Photoshop. Und dann zerlegst du es. Du nutzt „Generative Fill“ nur für kleine, kontrollierte Bereiche, um Fehler zu korrigieren oder Details hinzuzufügen. Du nutzt Frequenztrennung (Frequency Separation), um die Struktur der KI-Haut zu reparieren, ohne die Farben zu zerstören, um ihr diese menschliche Unvollkommenheit zurückzugeben, die die KI weggebügelt hat. Du machst Dodge & Burn (Abwedeln und Nachbelichten), um den Fokus des Betrachters zu lenken – etwas, das die KI oft vergisst, weil sie das ganze Bild gleichmäßig „interessant“ machen will. Ein gutes Bild braucht aber Hierarchie. Es braucht Bereiche, die im Schatten verschwinden, damit das Wichtige leuchten kann. Du baust Composings aus mehreren KI-Generierungen. Vielleicht war der Kopf im ersten Bild perfekt, aber die Hände im dritten und der Hintergrund im fünften. In Photoshop bringst du das zusammen. Du matchst die Farben (Color Grading), du passt die Schwarzwerte an, du sorgst dafür, dass das Grain über dem gesamten Bild konsistent liegt.

Das ist digitales Malen auf höchstem Niveau. Die KI liefert dir die Pixel, aber du bestimmst, wo sie bleiben. Ein reines KI-Bild erkennt man oft sofort. Es wirkt „uncanny“, unheimlich, künstlich. Ein von dir in Photoshop veredeltes, kuratiertes und bearbeitetes Bild erkennt man nicht mehr als KI. Man fühlt es nur. Und das ist der Unterschied zwischen einem generierten Bild und einem Kunstwerk.

Was bist du also, wenn die Maschine die Pixel rendert? Du bist nicht mehr nur der Handwerker, der jeden Pinselstrich zieht (obwohl du das in der Retusche noch tust). Du bist Regisseur. Du bist Art Director. Du bist Kurator. Die Fähigkeit, „Nein“ zu sagen, wird zu deiner wichtigsten Eigenschaft. Die KI bietet dir 20 Varianten an. 19 davon sind Müll – technisch vielleicht okay, aber seelenlos, langweilig, repetitiv. Die eine Variante zu erkennen, die den Funken hat, das ist menschliche Intuition. Das ist Erfahrung. Das ist dein kulturelles Wissen.

Eine Maschine weiß nicht, was Schmerz ist. Sie weiß nicht, was Sehnsucht ist. Sie kann Sehnsucht simulieren, wenn du ihr die Parameter gibst. Aber sie kann nicht beurteilen, ob das Bild diese Sehnsucht auch auslöst. Das kannst nur du. Wir erschaffen neue Welten, ja. Wir können Dinge visualisieren, die zu teuer, zu gefährlich oder physikalisch unmöglich zu fotografieren wären. Wir können Storytelling betreiben in einer Geschwindigkeit, die früher undenkbar war. Aber diese Welten brauchen ein Fundament. Und dieses Fundament ist deine menschliche Erfahrung. Wenn du ein Bild erstellst, das Einsamkeit ausdrücken soll, greifst du auf dein eigenes Gefühl von Einsamkeit zurück. Du wählst die Farben (kalt, entsättigt), die Komposition (viel negativer Raum), die Pose (verschlossen). Du steuerst die KI so lange, bis sie dein Inneres nach außen kehrt. Die KI ist dabei nur der Pinsel. Ein sehr komplexer, manchmal eigensinniger, manchmal genialer Pinsel, aber nur ein Pinsel. Das Gemälde entsteht in dir.

Lass uns kurz über Geld reden. Das ist wichtig. Warum sollten Kunden dich, den Experten, bezahlen, wenn sie selbst ein Abo für 20 Euro im Monat abschließen können und sich ihre Bilder „selbst machen“? Aus demselben Grund, warum Menschen in Restaurants gehen, obwohl sie einen Herd zu Hause haben. Aus demselben Grund, warum Menschen zum Friseur gehen, obwohl man Scheren im Supermarkt kaufen kann. Jeder kann kochen. Aber nicht jeder kann gut kochen. Und vor allem: Nicht jeder kann konsistent gut kochen, unter Zeitdruck, für 100 Leute, während die Küche brennt.

Kunden brauchen Konsistenz. Sie brauchen Rechtssicherheit (soweit im KI-Recht möglich). Sie brauchen Bilder, die exakt ihre Marke treffen und nicht einfach nur „irgendwie cool“ aussehen. Ein Kunde sagt: „Ich brauche unser Produkt in der Hand einer Frau, die aussieht wie unsere Zielgruppe (35-40, urban, modern), das Licht muss zu unserer CI passen (hell, freundlich, Pastell), und das Bild muss in 10.000 Pixel Breite für den Messestand vorliegen. Bis morgen.“ Der Laie mit seinem Prompt bricht hier zusammen. Das Produkt wird von der KI verzerrt (sie kennt das Logo nicht, sie halluziniert Tasten, die nicht da sind). Die Frau hat sechs Finger oder schielt. Das Licht ist zu dramatisch, weil das Standard-Modell Drama liebt. Die Auflösung ist zu gering.

Du, der Experte, nimmst das Produktfoto (echtes Foto!), trainierst vielleicht kurz ein LoRA (Low-Rank Adaptation) auf das Produkt, nutzt ControlNet für die Pose, generierst den Hintergrund, compst das echte Produkt in Photoshop rein, machst ein Upscaling mit KI-Unterstützung (aber kontrolliert!), retuschierst die Fehler und lieferst pünktlich. Das ist dein Wert. Die Lösung von Problemen. Nicht das Drücken eines Knopfes. Du verkaufst nicht das Bild, du verkaufst das Ergebnis und die Sicherheit.

Wir dürfen bei all dem Enthusiasmus nicht ignorieren, dass diese Technologie auf den Werken von Millionen Künstlern trainiert wurde, oft ohne deren Einverständnis. Das ist ein Makel, der der derzeitigen KI-Landschaft anhaftet und den wir nicht wegdiskutieren können. Aber als Profis können wir nicht die Augen verschließen und hoffen, dass es weggeht. Wir müssen uns die Technologie aneignen und sie transformieren. Indem du deine eigenen Bilder als Basis nutzt, indem du deine eigene Vision durch JSON und Photoshop hineinpressen, machst du dir die Technik untertan. Du wirst wieder zum Urheber. Du schaffst Werke, die eine Schöpfungshöhe haben, weil der Prozess komplex und individuell ist. Du machst aus dem statistischen Durchschnitt etwas Einzigartiges.

Die Zukunft gehört den Hybriden. Den Zentauren. Halb Mensch, halb Maschine. Der reine Fotograf, der sich weigert, digital zu denken und KI als Teufelszeug abtut, wird zur Nische. Eine schöne, wertvolle Nische, wie Vinyl-Platten oder analoge Uhren, aber eine Nische. Der reine „Prompt-Artist“, der keine Ahnung von Bildern hat, wird wegrationalisiert werden, weil die KI bald so gut ist, dass sie keine Prompts mehr braucht, um Durchschnitt zu erzeugen. Aber derjenige, der beides verbindet – das Auge, das Handwerk, die Technik der Fotografie und die rohe, brutale Power der generativen KI – der ist unaufhaltsam. Hab keine Angst, ersetzt zu werden. Hab Angst davor, stehen zu bleiben.

Die KI ist ein Werkzeug. Ein Hammer baut kein Haus. Ein Hammer kann auch einen Daumen zertrümmern. Es kommt darauf an, wer ihn hält. Wenn du Ahnung von Fotografie hast: Glückwunsch. Du hast den größten Vorteil, den es gibt. Du verstehst das Licht. Du verstehst die Komposition. Wenn du Photoshop beherrschst: Perfekt. Du hast die Kontrolle über das Finish. Wenn du bereit bist, Code (JSON) und komplexe Workflows zu lernen: Willkommen in der Elite.

Wir stehen nicht am Ende der Kunst. Wir stehen am Anfang einer neuen Ära. Einer Ära, in der die Barriere zwischen Vorstellungskraft und Bild fällt. Einer Ära, in der das technische „Wie“ (Wie male ich diesen Schatten?) in den Hintergrund tritt und das inhaltliche „Was“ (Warum ist dieser Schatten da?) in den Vordergrund rückt. Aber die Qualität dieses Bildes hängt immer noch von der Qualität der Vorstellungskraft ab. Und von der Fähigkeit, diese Vorstellungskraft technisch präzise umzusetzen. Die KI liefert die Pixel. Du lieferst den Sinn. Und solange Maschinen keinen Sinn für Ironie, für Schmerz, für Schönheit oder für den perfekten Moment haben, solange bleibst du im Fahrersitz. Du musst nur lernen, dieses verdammt schnelle Auto zu fahren, anstatt dich weinend auf die Rückbank zu setzen und dich darüber zu beschweren, dass die Landschaft so schnell vorbeizieht. Mach dich an die Arbeit. Es gibt Welten zu erschaffen, und sie warten auf jemanden, der weiß, was er tut.



Okay, das ist mir ein bisschen peinlich.

Gestern hab ich euch erzählt, ihr sollt mir eine Mail schreiben, wenn ihr das Video sehen wollt. Schöne Idee. Nur hab ich die falsche Mail-Adresse hingeschrieben.

Ja, wirklich.

Da stand brownz@brownzart.at – richtig wäre brownz@brownz.art gewesen. Kleiner Unterschied, große Wirkung: Die meisten Mails sind im Nirgendwo gelandet.

Ein paar von euch hatten meine richtige Adresse offenbar schon gespeichert und haben es trotzdem geschafft. Die haben den Link auch bekommen. Aber der Rest – tja. Sorry dafür. Echt.

Im Originalbeitrag von gestern ist die Adresse jetzt korrigiert. Wer den nochmal lesen will:

10 Seconds Into The Future – der originale Beitrag


Aber eigentlich ist es jetzt eh egal

Weil ich das Video in der Zwischenzeit einfach auf YouTube hochgeladen hab. Als verstecktes Video, 720p HD. Nicht so gut wie die Dropbox-Version, aber es reicht, um den Wahnsinn zu sehen.

Hier ist der Link:

Einfach draufklicken und gucken. Kein Download nötig, keine Mail, kein Aufwand. Wer gestern nicht durchgekommen ist, kommt jetzt einfach so dran.


Was ich mir trotzdem wünschen würde

Schaut es euch an. Und dann sagt mir, was ihr denkt.

8 Minuten und 15 Sekunden Fiebertraum, zusammengebaut aus Gesprächen mit der KI, irgendwann zwischen Mitternacht und drei Uhr morgens. Kein Plan, kein Storyboard, kein Konzept. Nur Wahnsinn mit Rhythmus.

Ich bin immer noch zu nah dran, um das selbst einzuordnen. Ich brauch eure Augen. Und eure Ehrlichkeit.

Ob per Kommentar, per YouTube-Kommentar, per Mail an die – diesmal richtige – Adresse brownz@brownz.art oder per Rauchzeichen. Hauptsache, ihr sagt was.


Und nochmal sorry wegen der Adresse. Passiert mir hoffentlich nicht nochmal.

Wahrscheinlich aber doch. Weil um drei Uhr morgens ist Korrekturlesen halt nicht so meine Stärke.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mir was durch den Kopf geht. Wird transkribiert und dann mit KI in Form gebracht. Die Peinlichkeit wegen der falschen Mail-Adresse ist allerdings hundert Prozent handgemacht.



Es ist kurz nach drei. Draußen ist es still. Der Kaffee ist längst kalt und ich weiß nicht mehr genau, wann ich angefangen habe. Irgendwann gestern Abend. Dachte, ich mach mal kurz was. Probier mal was aus. Guck mal, was passiert.

Acht Stunden später sitze ich immer noch hier.

Vor mir liegt ein Video. 8 Minuten und 15 Sekunden. Komplett irre. Komplett KI-generiert. Komplett Fiebertraum.

Und ich bin mir nicht sicher, ob es genial ist oder ob ich einfach den Verstand verloren habe. Wahrscheinlich beides.


Wie das Ganze angefangen hat

Ich hab in letzter Zeit viel mit Video-KI rumexperimentiert. Clips generieren, zusammenschneiden, gucken was geht. Und irgendwann gestern Abend hab ich angefangen, mit der KI zu reden. Nicht im Sinn von Prompts eintippen und warten. Eher so ein Gespräch. Hin und her. Idee rein, Ergebnis raus, nächste Idee, darauf aufbauen, weiterdrehen.

Wie ein Ping-Pong-Spiel, bei dem beide Seiten immer verrückter werden.

Ich hatte keinen Plan. Kein Storyboard. Kein Konzept. Nur diesen einen Gedanken: Was wäre, wenn ich einfach nicht aufhöre? Wenn ich jeden Clip nehme und den nächsten draus entstehen lasse? Wenn das Ganze sich selbst baut, Szene für Szene, wie ein Traum, den man nicht kontrollieren kann?

Und genau das ist passiert.


Max Headroom lässt grüßen

Falls du alt genug bist, erinnerst du dich vielleicht an Max Headroom. Diese Serie aus den 80ern. „20 Minutes Into The Future“ hieß der Untertitel. Alles war überdreht, alles war zu viel, alles war irgendwie prophetisch und gleichzeitig komplett wahnsinnig.

Genauso fühlt sich dieses Video an.

Nur dass wir jetzt nicht zwanzig Minuten in die Zukunft schauen, sondern zehn Sekunden. Weil sich gerade alles so schnell verändert, dass zehn Sekunden reichen, um in einer komplett anderen Realität zu landen.

10 Seconds Into The Future.

Der Titel war da, bevor das Video fertig war. Manchmal weiß der Titel mehr als man selbst.


Was du da siehst

Ich kann dir ehrlich gesagt nicht genau sagen, was du in diesem Video siehst. Ich hab es gemacht und bin mir trotzdem nicht sicher.

Da sind Bilder drin, die ich nicht geplant habe. Szenen, die aus dem Nichts kamen. Übergänge, die sich ergeben haben, weil die KI irgendwas interpretiert hat, das ich nicht gemeint habe – und es trotzdem besser war als meine Idee.

Es ist kein narratives Video. Es erzählt keine Geschichte im klassischen Sinn. Es ist eher so ein Strom. Ein visueller Bewusstseinsstrom. Manche Stellen sind schön. Manche sind verstörend. Manche sind beides gleichzeitig.

Acht Minuten und fünfzehn Sekunden Wahnsinn. Zusammengebaut aus Gesprächen mit einer Maschine, die nicht schlafen muss.

Ich schon. Aber ich hab es trotzdem nicht getan.


Der Prozess – wenn man es so nennen kann

Normalerweise hab ich einen Workflow. Eine Struktur. Erst das, dann das, dann das. Professionell und so.

Gestern Nacht war davon nichts übrig.

Ich hab einen Clip generiert. Der hat mich an was erinnert. Also hab ich den nächsten Clip in diese Richtung geschoben. Und der hat dann wieder was anderes ausgelöst. Und so weiter. Und so weiter.

Irgendwann hab ich gemerkt, dass sich da ein Rhythmus entwickelt. Nicht bewusst, aber spürbar. Das Video hat angefangen, seinen eigenen Puls zu haben. Und ich bin einfach mitgegangen.

Um Mitternacht dachte ich: Okay, noch ein bisschen.
Um eins dachte ich: Fast fertig.
Um zwei dachte ich: Jetzt muss ich das noch richtig machen.
Um drei war ich fertig. Oder das Video war fertig mit mir. Schwer zu sagen.


Warum ich das zeigen will

Normalerweise poliere ich Sachen, bevor ich sie raushaue. Ich guck nochmal drüber. Schlaf eine Nacht drüber. Frag mich, ob das gut genug ist.

Bei diesem Video mach ich das nicht. Weil ich glaube, dass genau der Wahnsinn der Punkt ist. Wenn ich jetzt anfange, das zu überarbeiten, zu glätten, zu korrigieren, dann geht genau das verloren, was es ausmacht.

Es ist roh. Es ist ungefiltert. Es ist drei Uhr morgens in Videoform.

Und ich will wissen, was andere Leute sehen, wenn sie das gucken. Ob die sehen, was ich sehe. Oder was ganz anderes. Oder gar nichts. Alles davon wäre okay.


Wie du es sehen kannst

Das Video ist nicht auf YouTube. Nicht auf Instagram. Nicht auf irgendeiner Plattform, die es komprimiert und kaputt macht.

Es liegt auf Dropbox. Volle Qualität. So wie es sein soll.

Wenn du es sehen willst, schreib mir einfach eine Mail:

brownz@brownz.art

Betreff: ja ich will 10 seconds

Mehr muss da nicht drinstehen. Ich schick dir den Download-Link. Kostenlos. Kein Haken, kein Newsletter, kein Kleingedrucktes.

Wichtig: Bitte das Video runterladen und lokal anschauen. Nicht im Browser streamen. Der Dropbox-Player frisst Qualität und das Ding verdient es, richtig gesehen zu werden. Großer Bildschirm, Kopfhörer auf, Licht aus. So war es gedacht.


Feedback erwünscht – ehrlich

Und dann würde ich gerne wissen, was du denkst.

Nicht „toll gemacht“ oder „super Arbeit“ – obwohl ich gegen Komplimente natürlich grundsätzlich nichts habe. Aber mich interessiert mehr: Was hast du gesehen? Was hast du gefühlt? An welcher Stelle hast du gedacht, was zur Hölle war das gerade?

Weil ich mir selbst nicht sicher bin. Ich bin zu nah dran. Ich hab zu lange draufgestarrt. Ich brauch andere Augen.

Also: Guck es dir an. Und dann sag mir, was passiert ist.

Antwort auf die Mail reicht. Oder schreib mir auf Social Media. Oder per Rauchzeichen. Ist mir egal, Hauptsache ehrlich.


Was ich daraus gelernt habe

Eine Sache noch, bevor ich endlich ins Bett gehe – was ich eigentlich schon vor Stunden hätte tun sollen.

Dieses Video hat mir was gezeigt. Nämlich dass die interessantesten Sachen passieren, wenn man aufhört zu planen. Wenn man sich reinfallen lässt. Wenn man der Maschine nicht sagt, was sie machen soll, sondern mit ihr redet. Wie mit einem seltsamen Kollegen, der nie schläft und manchmal Dinge sieht, die man selbst nicht sieht.

Das ist nicht mein üblicher Arbeitsstil. Normalerweise bin ich Kontrollfreak. Normalerweise weiß ich vorher, was rauskommen soll.

Gestern Nacht wusste ich gar nichts. Und vielleicht war genau das der Punkt.

10 Seconds Into The Future. Weiter konnte ich nicht gucken. Aber die zehn Sekunden waren ziemlich wild.


Jetzt geh ich schlafen.

Oder ich mach noch einen Clip.

Mal sehen.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn ich aufgedreht bin und nicht schlafen kann. Wie jetzt gerade zum Beispiel. Das wird transkribiert und mit KI in Form gebracht. Die Gedanken und der Schlafmangel sind komplett meine eigenen.



Ich sitze hier und versuche, meine Gedanken zu sortieren. Weil 2026 für mich in Sachen Bildbearbeitung ein seltsames Jahr ist. Einerseits war es noch nie so einfach, technisch saubere Bilder zu kriegen. Rauschen weg, Schärfe rein, Hintergrund raus – alles in Sekunden. Andererseits ertappe ich mich dabei, wie ich manchmal vor meinen eigenen Bildern sitze und denke: Ist das noch meins?

Das klingt vielleicht melodramatisch. Ist es wahrscheinlich auch. Aber ich glaube, da steckt was drin, worüber man reden sollte.

Ich will hier bewusst keine Tools aufzählen. Keine Vergleiche, keine Empfehlungen. Das ändert sich eh alle paar Monate, und darum geht es mir nicht. Mir geht es um die Frage, wie man mit dem ganzen Zeug umgeht, ohne sich dabei selbst zu verlieren.


Das Problem mit der Geschwindigkeit

Was mich am meisten erwischt hat, ist nicht die Qualität. Die ist beeindruckend, keine Frage. Was mich erwischt hat, ist die Geschwindigkeit.

Früher hab ich bei jedem Bild überlegt: Braucht das wirklich mehr Schärfe? Will ich das Rauschen da haben oder nicht? Ist diese Falte im Gesicht ein Problem oder Teil der Geschichte?

Das waren echte Entscheidungen. Die haben Zeit gekostet. Aber in dieser Zeit ist auch was passiert – ich hab über das Bild nachgedacht.

Jetzt klicke ich auf einen Button und es ist fertig. Zack. Weiter zum nächsten. Und irgendwann merke ich, dass ich gar nicht mehr richtig hinschaue. Nicht weil ich faul bin, sondern weil der Prozess so schnell ist, dass kein Raum mehr bleibt.

Ich hab neulich eine Serie bearbeitet und erst hinterher gemerkt, dass alle Bilder irgendwie gleich aussahen. Technisch super. Aber austauschbar. Und dann saß ich da und dachte: Das bin ja gar nicht ich. Das ist der Algorithmus.


„Besser“ ist nicht so einfach, wie es klingt

Der Begriff Bildverbesserung nervt mich. Weil er so tut, als gäbe es ein objektives Besser. Gibt es aber nicht.

Mehr Schärfe ist nicht automatisch besser. Manchmal will ich, dass ein Bild weich ist. Manchmal ist das Rauschen genau das, was die Stimmung ausmacht. Manchmal sind es die Schatten, die Geschichte erzählen – und wenn die KI die aufhellt, ist die Geschichte weg.

Aber die KI weiß das nicht. Die kennt nur Daten. Millionen von Bildern, aus denen sie gelernt hat, was „gut“ ist. Und gut heißt für sie: Durchschnitt. Norm. Was die meisten Leute als korrekt empfinden.

Das ist nicht böse gemeint. So funktioniert die Technik halt. Aber es bedeutet, dass jede automatische Verbesserung eine Interpretation ist. Und wenn ich die nicht hinterfrage, übernehme ich eine Interpretation, die nicht meine ist.


Der Unterschied zwischen Reparieren und Erfinden

Was ich inzwischen gelernt habe: Man muss unterscheiden zwischen KI, die repariert, und KI, die erfindet.

Wenn ich ein Bild entrausche oder die Schärfe verbessere, dann arbeitet die KI mit dem, was da ist. Sie holt Details raus, die im Rauschen versteckt waren. Das ist Restaurierung. Das Bild bleibt mein Bild.

Aber wenn ich den Hintergrund erweitern lasse oder Objekte hinzufüge oder Gesichter verändere, dann erfindet die KI etwas Neues. Das ist nicht mehr Fotografie. Das ist was anderes.

Beides kann okay sein. Aber es ist nicht dasselbe. Und ich finde, man sollte ehrlich sein – zu sich selbst und zu anderen – was davon man gerade macht.

Ich hab Bilder gesehen, die als Fotos verkauft werden, die aber zu 40 Prozent erfunden sind. Das stört mich. Nicht weil Erfinden schlecht wäre. Sondern weil das Nicht-Sagen irgendwie unehrlich ist.


Dieser eine Look, der überall ist

Mir fällt was auf, wenn ich durch Instagram scrolle oder Portfolios anschaue. Vieles sieht gleich aus. Nicht identisch, aber irgendwie… verwandt.

Alles ist sauber. Alles ist korrekt belichtet. Alles hat diese bestimmte Schärfe, diese bestimmte Hauttextur, diese bestimmten Farben.

Und nichts bleibt hängen.

Das ist nicht die Schuld der Fotografen. Das ist der KI-Standard, der sich leise eingeschlichen hat. Weil alle dieselben Tools benutzen mit denselben Presets und denselben Automatiken.

Stil entsteht aber nicht durch Korrektheit. Stil entsteht durch Entscheidungen. Durch bewusstes Abweichen. Durch den Mut zu sagen: Ich will das so, auch wenn der Algorithmus das anders machen würde.

Ein bisschen Unschärfe, die irritiert. Ein Schatten, der zu dunkel ist. Korn, das da sein darf. Das sind keine Fehler. Das sind Unterschriften.


Das Ding mit der Haut

Worüber ich lange nachgedacht habe: Hautretusche.

Die KI ist da mittlerweile unfassbar gut. Ein Klick und die Haut ist perfekt. Keine Poren, keine Fältchen, keine Unreinheiten. Technisch makellos.

Aber irgendwann hab ich gemerkt, dass ich Menschen nicht mehr erkenne. Nicht buchstäblich – aber emotional. Da sitzt jemand vor mir, der dreißig Jahre gelebt hat, und im Bild sieht die Haut aus wie bei einem Zwanzigjährigen in einer Werbung.

Das stimmt dann nicht mehr. Die Geschichte fehlt. Die Müdigkeit fehlt. Das Leben fehlt.

Ich bin da jetzt vorsichtiger geworden. Haut darf Haut bleiben. Mit Textur. Mit Charakter. Die KI bietet mir die perfekte Glätte an, und ich sag meistens: Nee, lass mal.


RAW-Bearbeitung und die Versuchung des Perfekten

Auch bei der RAW-Entwicklung passiert was Komisches. Die KI kann aus Schatten Details rausholen, die ich mit bloßem Auge kaum sehe. Beeindruckend, wirklich.

Aber wenn ich das bei jedem Bild mache, sehen alle Bilder gleich aus. Alles durchgezeichnet, alles sichtbar, alles ausbalanciert.

Und manchmal will ich das gar nicht. Manchmal soll der Schatten dunkel bleiben. Manchmal soll das Licht ausfressen. Weil das die Stimmung ist. Weil das der Moment war.

Ich hab angefangen, die KI-Vorschläge als Startpunkt zu nehmen, nicht als Endergebnis. Gucken, was sie macht. Und dann oft die Hälfte wieder zurücknehmen. Weil zu viel Optimierung den Charakter killt.


Wenn die KI meine Bilder aussortiert

Ein Feature, das mich fasziniert und beunruhigt gleichzeitig: KI kann Bildserien vorsortieren. Nach Schärfe, nach Ausdruck, nach was auch immer.

Das spart Zeit. Massiv. Statt 500 Bilder durchzugucken, zeigt mir die Maschine die „besten“ 50.

Aber wer sagt, was das Beste ist?

Manche meiner liebsten Bilder sind technisch nicht perfekt. Leicht unscharf, komisch geschnitten, Moment zwischen den Momenten. Genau deshalb sind sie gut. Weil sie echt sind. Weil da was passiert ist, das nicht geplant war.

Die KI hätte die aussortiert. Weil sie nicht in die Norm passt.

Also nutze ich das Feature, aber ich schau trotzdem noch selbst durch. Nicht alles, aber genug, um die Bilder zu finden, die die Maschine nicht versteht.


Was ich mir abgewöhnt habe

Ich hab aufgehört, alles automatisch laufen zu lassen. Klingt banal, aber es hat gedauert.

Früher hab ich Bilder in die Pipeline geworfen und am Ende kam was Fertiges raus. Schnell, effizient, bequem.

Jetzt mache ich mehr Schritte manuell. Nicht alle, aber die wichtigen. Die Entscheidungen, die das Bild zu meinem Bild machen.

Das kostet Zeit. Aber die Zeit hat einen Wert. In dieser Zeit verstehe ich, was ich tue. In dieser Zeit passiert das, was man wohl „Handschrift“ nennt.


Die eigentliche Frage

Am Ende geht es nicht darum, welche KI man benutzt. Es geht darum, wo man sie stoppt.

Was darf automatisch passieren? Was muss durch mich durch?

Das ist für jeden anders. Und es verändert sich wahrscheinlich auch mit der Zeit. Aber die Frage muss man sich stellen. Sonst stellt sie irgendwann jemand anderes – und die Antwort gefällt einem nicht.

Ich hab für mich ein paar Linien gezogen. Technische Sachen – Rauschen, Grundschärfe, Objektivkorrekturen – da darf die KI ran. Aber sobald es um Gesichter geht, um Stimmung, um das, was das Bild eigentlich sagen soll – da will ich selbst entscheiden.

Ob das richtig ist, weiß ich nicht. Aber es fühlt sich richtig an. Und das muss erstmal reichen.


Was bleibt

KI ist kein Feind. Ist auch kein Retter. Ist ein Werkzeug. Ein ziemlich mächtiges.

Aber wie jedes Werkzeug verstärkt es das, was man reintut. Wenn ich gedankenlos arbeite, macht die KI mich schneller gedankenlos. Wenn ich bewusst arbeite, gibt sie mir Zeit für die Dinge, die zählen.

2026 trennt sich nicht die Leute, die KI nutzen, von denen, die es nicht tun. Es trennt sich die Leute, die wissen, warum sie was machen, von denen, die einfach klicken.

Ich versuche, zur ersten Gruppe zu gehören. Klappt nicht immer. Aber ich versuch’s.

Weil am Ende gilt, was schon immer galt: Technik kann Bilder besser machen. Aber nur ich kann sie zu meinen machen.


Wie dieser Text entstanden ist

Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.



Manchmal passiert etwas in einem Gerichtssaal, das sich anfühlt wie ein Riss in der Wand. Nicht laut, nicht dramatisch – eher wie dieses leise Knacken, wenn Putz bröckelt und du weißt: Da bewegt sich was Größeres dahinter.

So ging es mir, als ich zum ersten Mal von diesem Urteil aus Kalifornien las. Ich saß an meinem Schreibtisch, Kaffee kalt, Fenster offen, und scrollte durch die Nachrichten. Und dann blieb ich hängen. Nicht weil die Überschrift so reißerisch war – die war eher nüchtern. Sondern weil ich beim Lesen merkte: Hier hat zum ersten Mal jemand das ausgesprochen, was wir Kreativen seit Jahren fühlen, aber oft nicht in Worte fassen können.

Es geht nicht nur darum, was eine KI ausspuckt. Es geht darum, wie sie überhaupt zu dem wurde, was sie ist. Woher kommt das Material? Wer hat es genommen? Und wer hat gefragt – oder eben nicht?

Warum mich das Thema persönlich angeht

Ich muss ehrlich sein: Als das Thema KI und Urheberrecht vor zwei, drei Jahren hochkochte, habe ich es erstmal verdrängt. Zu abstrakt, zu technisch, zu weit weg. Ich dachte mir: Das regeln die Juristen unter sich, und wir malen weiter.

Aber dann wurde es konkreter. Kollegen zeigten mir, wie ihre Illustrationen in KI-Generatoren auftauchten – nicht als Kopie, aber als Echo. Ein Stil, der verdächtig bekannt wirkte. Ein Farbschema, das nicht zufällig war. Und plötzlich war das keine abstrakte Debatte mehr, sondern etwas, das in meinen Alltag kroch.

Und ich glaube, vielen geht es so. Wir haben lange zugeschaut, wie die großen Tech-Firmen Daten gesammelt haben wie andere Leute Briefmarken. Nur dass niemand gefragt hat, ob wir unsere Briefmarken überhaupt hergeben wollen.

Was in Kalifornien passiert ist – und warum es anders war

Im Juni 2025 kam ein Urteil in einem Verfahren gegen Anthropic, die Firma hinter dem KI-Modell Claude. Das Besondere: Es ging nicht nur um das übliche Hin und Her, ob KI-Training nun Fair Use ist oder nicht. Es ging um etwas viel Greifbareres.

Das Gericht hat gesagt – und ich versuche das jetzt so zu formulieren, wie ich es verstanden habe, nicht wie ein Jurist: Das Training selbst kann unter Umständen legal sein. Wenn eine KI aus Millionen von Texten lernt, Muster erkennt, Sprache versteht – dann ist das nicht automatisch ein Verbrechen. Es ist, vereinfacht gesagt, so ähnlich wie wenn ein Mensch viel liest und davon beeinflusst wird.

Aber – und hier kommt der Teil, der mich aufatmen ließ – wenn das Material, mit dem trainiert wird, aus illegalen Quellen stammt, dann ist das ein Problem. Ein echtes, handfestes, rechtliches Problem.

Das klingt vielleicht selbstverständlich. Ist es aber nicht. Denn jahrelang haben viele Unternehmen so getan, als wäre das Internet ein All-you-can-eat-Buffet. Alles gratis, alles erlaubt, Hauptsache schnell. Und jetzt sagt ein Gericht: Nein, so einfach ist das nicht.

Der Unterschied zwischen Lernen und Stehlen

Ich denke oft darüber nach, wie ich selbst gelernt habe. Ich habe Bücher gelesen, Bilder angeschaut, stundenlang in Museen gestanden. Ich habe Künstler kopiert – nicht um ihre Werke zu verkaufen, sondern um zu verstehen, wie sie das gemacht haben. Das ist normal. Das ist Teil des Handwerks.

Aber ich habe nie ein Buch gestohlen. Ich habe nie heimlich Fotos von Gemälden gemacht, um sie dann in großem Stil zu verbreiten. Und genau da liegt der Unterschied, den dieses Urteil aufmacht.

Es sagt nicht: KI darf nicht lernen. Es sagt: KI darf nicht aus gestohlenen Quellen lernen.

Das ist eine Unterscheidung, die so simpel klingt, dass man sich fragt, warum sie erst jetzt gemacht wird. Aber ich glaube, das liegt daran, dass die Technologie so schnell war. Schneller als das Recht. Schneller als unsere Vorstellungskraft. Und jetzt holt die Realität langsam auf.

Was das für uns bedeutet – jenseits der Schlagzeilen

Wenn ich ehrlich bin, habe ich nach dem ersten Lesen gedacht: Okay, cool, ein Urteil. Aber was ändert das für mich, hier an meinem Schreibtisch?

Und dann habe ich weiter gelesen. Und begriffen, dass dieses Urteil nicht nur ein Symbol ist, sondern ein Werkzeug.

Erstens: Es verschiebt die Beweislast. Plötzlich müssen Unternehmen zeigen, woher ihre Trainingsdaten kommen. Das ist ein riesiger Unterschied zu vorher, als wir als Kreative beweisen mussten, dass unsere Werke benutzt wurden. Jetzt dreht sich das langsam um.

Zweitens: Es macht Transparenz zum Thema. Wenn Unternehmen nachweisen müssen, dass ihre Daten sauber sind, dann brauchen sie Systeme dafür. Dokumentation. Archive. Lizenzen. Das klingt langweilig, ist aber in Wahrheit eine Revolution. Denn plötzlich haben wir als Kreative einen Hebel. Wir können fragen: Wo ist der Nachweis? Zeig mir die Lizenz.

Drittens: Es setzt ein Preisschild. Im September 2025 wurde bekannt, dass ein Vergleich über 1,5 Milliarden Dollar im Raum stand. Das ist kein Kleckerbetrag. Das ist eine Summe, die selbst große Unternehmen nicht einfach wegstecken. Und es zeigt: Daten haben einen Wert. Unser Werk hat einen Wert. Und wer es nimmt, ohne zu zahlen, muss mit Konsequenzen rechnen.

Das große Aber: Es ist noch nicht vorbei

Ich will hier nicht so tun, als wäre jetzt alles gut. Das wäre naiv. Dieses Urteil ist ein Anfang, kein Ende. Es betrifft erstmal Text, nicht Bilder. Es ist ein Urteil auf mittlerer Ebene, kein Spruch vom Obersten Gerichtshof. Und es wird Berufungen geben, Gegenargumente, neue Verfahren.

Aber das Wichtige ist: Die Richtung stimmt.

Vor zwei Jahren war die Debatte noch: Ist KI überhaupt problematisch? Vor einem Jahr war sie: Wie können wir beweisen, dass unsere Werke benutzt wurden? Und jetzt ist sie: Wie organisieren wir Lizenzierung, Transparenz und Beteiligung?

Das ist ein Fortschritt. Ein echter.

Was ich jetzt anders mache

Seit ich mich intensiver mit dem Thema beschäftige, habe ich ein paar Dinge geändert. Nicht weil ich paranoid bin, sondern weil ich gemerkt habe: Es macht einen Unterschied, wenn ich selbst aktiv werde.

Ich achte mehr auf Metadaten. Klingt unsexy, ich weiß. Aber wenn meine Bilder irgendwo auftauchen, will ich nachweisen können, dass sie von mir sind. Datum, Signatur, nachvollziehbare Veröffentlichung – das sind keine Eitelkeiten mehr, das sind Beweise.

Ich informiere mich über Opt-out-Möglichkeiten. Nicht alle sind gut, manche sind sogar Augenwischerei. Aber es gibt Plattformen und Initiativen, die versuchen, Standards zu setzen. Und je mehr wir mitmachen, desto mehr Gewicht haben diese Standards.

Und ich nutze KI selbst. Das klingt vielleicht widersprüchlich. Aber ich glaube, wer nur dagegen ist, ohne zu verstehen, wie es funktioniert, überlässt das Feld den anderen. Ich will mitreden. Ich will wissen, was diese Maschinen können und was nicht. Und ich will mitgestalten, wo die Grenzen sind.

Eine persönliche Beobachtung zum Schluss

Vor ein paar Wochen saß ich mit einer Freundin zusammen, die auch Künstlerin ist. Wir haben über all das geredet – über KI, über Urheberrecht, über die Zukunft. Und irgendwann sagte sie etwas, das mir nicht mehr aus dem Kopf geht.

Sie sagte: „Weißt du, was mich am meisten ärgert? Nicht dass die Maschinen lernen. Sondern dass niemand gefragt hat.“

Und ich glaube, genau darum geht es. Es geht nicht darum, Technologie aufzuhalten. Das wäre naiv und wahrscheinlich auch falsch. Aber es geht darum, wie wir als Gesellschaft mit dem umgehen, was Menschen erschaffen haben. Mit Respekt oder mit Gleichgültigkeit. Mit Dialog oder mit Ignoranz.

Dieses Urteil aus Kalifornien ist ein Zeichen, dass Respekt vielleicht doch noch eine Chance hat. Dass es Grenzen gibt, auch im digitalen Raum. Dass unser Werk nicht einfach Futter ist für Maschinen, die niemand kontrolliert.

Und wenn du mich fragst, ob das reicht – nein, natürlich nicht. Das ist erst der Anfang. Aber es ist ein Anfang, der sich anders anfühlt als alles, was vorher kam.

Weil zum ersten Mal jemand offiziell gesagt hat: Die Herkunft zählt. Der Weg zählt. Und wer stiehlt, kann sich nicht hinter Algorithmen verstecken.

Das ist keine Lösung für alles. Aber es ist eine Linie im Sand. Und manchmal beginnt Veränderung genau damit: dass jemand eine Linie zieht und sagt – hier nicht weiter.

Ich hoffe, wir bleiben dran. Alle zusammen.



Es gibt Diskussionen, die mich müde machen. Nicht weil das Thema unwichtig wäre, sondern weil sie so uninformiert geführt werden, dass jede sinnvolle Auseinandersetzung im Keim erstickt.

Die Debatte um künstliche Intelligenz gehört dazu.

Jeden Tag lese ich Kommentare, höre Statements, sehe Posts von Menschen, die sich über „die KI“ aufregen. Die KI nimmt uns die Jobs. Die KI zerstört die Kreativbranche. Die KI ist der Feind.

Und jedes Mal denke ich: Von welcher KI redet ihr eigentlich?

Denn „die KI“ gibt es nicht. Es gibt Dutzende, Hunderte, Tausende verschiedener Anwendungen, Tools, Systeme und Programme. Manche haben miteinander so viel zu tun wie ein Toaster mit einem Teilchenbeschleuniger. Beides nutzt Strom. Damit enden die Gemeinsamkeiten.


Das Problem mit dem Sammelbegriff

Wenn jemand sagt „Ich hasse Autos“, dann weiß ich nicht, was diese Person meint. Hasst sie SUVs? Sportwagen? Elektroautos? Lieferwagen? Den Verkehr allgemein? Die Autoindustrie? Die Parkplatzsituation in der Innenstadt?

Der Begriff „Auto“ ist so breit, dass die Aussage praktisch bedeutungslos wird.

Bei „der KI“ ist es noch schlimmer.

Unter diesem Begriff werden Technologien zusammengefasst, die völlig unterschiedliche Dinge tun:

  • Sprachmodelle wie ChatGPT, Claude oder Gemini, die Texte generieren und Fragen beantworten
  • Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion, die visuelle Inhalte erstellen
  • Stimmklonungs-Software wie ElevenLabs, die menschliche Stimmen replizieren kann
  • Musikgeneratoren wie Suno oder Udio, die Songs komponieren
  • Übersetzungstools wie DeepL, die Sprachen konvertieren
  • Analysetools, die Daten auswerten und Muster erkennen
  • Automatisierungssysteme, die Prozesse in Unternehmen optimieren

Das sind nicht verschiedene Versionen desselben Produkts. Das sind grundlegend unterschiedliche Technologien mit unterschiedlichen Anwendungsbereichen, unterschiedlichen Stärken, unterschiedlichen Risiken und unterschiedlichen ethischen Implikationen.

Wer das nicht versteht, kann an der Diskussion nicht sinnvoll teilnehmen.


Das Sprecher-Beispiel: Wenn der Zorn das falsche Ziel trifft

Ich beobachte seit Monaten, wie professionelle Sprecher gegen „die KI“ wettern. Verständlich. Ihre Existenzangst ist real. Die Frage, ob es in zehn Jahren noch bezahlte Sprechjobs gibt, ist berechtigt.

Aber dann sehe ich, wie dieselben Menschen ChatGPT als den großen Feind ihres Berufsstands bezeichnen.

Und da muss ich kurz innehalten.

ChatGPT ist ein Sprachmodell. Es generiert Text. Es kann keine Stimme klonen. Es kann keinen Werbespot einsprechen. Es kann kein Hörbuch produzieren. Es hat mit dem Kernproblem der Sprecherbranche ungefähr so viel zu tun wie ein Taschenrechner mit einem Synthesizer.

Das eigentliche Tool, das die Sprecherbranche verändern wird, heißt ElevenLabs. Oder Murf. Oder Resemble. Oder eines der anderen spezialisierten Programme, die genau dafür entwickelt wurden: menschliche Stimmen zu replizieren, zu klonen, synthetisch zu erzeugen.

Diese Tools können mit wenigen Minuten Audiomaterial eine Stimme kopieren und dann beliebige Texte damit einsprechen lassen. Das ist die Technologie, die für Sprecher relevant ist. Nicht ChatGPT.

Aber ChatGPT kennt jeder. ElevenLabs kennen die wenigsten.

Also wird ChatGPT zum Symbol. Zum Feindbild. Zum Sündenbock für alles, was mit „KI“ zu tun hat. Und die eigentliche Bedrohung bleibt unbenannt, unverstanden, undiskutiert.

Das ist nicht nur unpräzise. Es ist kontraproduktiv.

Wer seinen Feind nicht kennt, kann sich nicht verteidigen.


Dasselbe Muster überall

Das Sprecher-Beispiel ist kein Einzelfall. Ich sehe dasselbe Muster in jeder Branche.

Fotografen, die sich über „die KI“ aufregen, meinen meistens Midjourney oder Stable Diffusion. Aber sie schimpfen pauschal, als wäre jede KI-Anwendung eine Bedrohung für ihre Arbeit. Dabei nutzen viele von ihnen längst KI-gestützte Tools in Lightroom oder Photoshop, ohne mit der Wimper zu zucken.

Texter, die „die KI“ verdammen, meinen meistens ChatGPT. Aber sie vergessen, dass Übersetzungssoftware wie DeepL auch auf KI basiert. Dass Grammatik-Tools wie LanguageTool KI nutzen. Dass die Autokorrektur auf ihrem Smartphone KI ist.

Musiker, die gegen „die KI“ protestieren, meinen Suno oder Udio. Aber viele von ihnen arbeiten mit Software, die KI-gestützte Mastering-Funktionen hat. Die automatische Tuning-Korrekturen anbietet. Die Drums quantisiert.

Die Grenzen sind fließend. Und genau das macht die pauschale Ablehnung so absurd.


Die eigentliche Frage: Wer ist hier schuld?

Wenn wir schon dabei sind, über Bedrohungen zu reden, dann lasst uns über die richtige Bedrohung reden.

Kein KI-Tool hat jemals aktiv entschieden, jemandem den Job zu stehlen. Kein Algorithmus hat beschlossen, einen Künstler zu kopieren. Keine Software hat sich vorgenommen, einen Sprecher zu ersetzen.

Diese Entscheidungen treffen Menschen.

Ein Unternehmen entscheidet, keine echten Sprecher mehr zu buchen. Ein Auftraggeber entscheidet, mit KI-generierten Bildern zu arbeiten. Ein Mensch entscheidet, fremde Stile zu kopieren und als eigene Arbeit zu verkaufen.

Die Werkzeuge sind neutral. Die Absichten dahinter sind es nicht.

Wenn jemand mit Photoshop ein Foto manipuliert und damit Rufschädigung betreibt, ist dann Photoshop schuld? Wenn jemand mit einem Küchenmesser einen Menschen verletzt, ist das Messer der Täter?

Die Frage klingt rhetorisch, weil sie es ist.

Aber bei KI vergessen wir plötzlich diese grundlegende Logik. Wir personifizieren die Technologie, machen sie zum Akteur, zum Feind, zum Schuldigen. Und entlasten damit die Menschen, die tatsächlich fragwürdige Entscheidungen treffen.


Das eigentliche Problem: Diebstahl bleibt Diebstahl

Ja, es gibt echte Probleme. Große Probleme.

Menschen nutzen KI-Tools, um fremde Werke zu kopieren. Stimmen werden ohne Zustimmung geklont. Kunststile werden repliziert, ohne die Originalschöpfer zu nennen oder zu vergüten. Ganze Portfolios entstehen aus zusammengeklaubten Fragmenten anderer Leute Arbeit.

Das ist moralisch fragwürdig. In vielen Fällen ist es auch rechtlich fragwürdig. Und es verdient Kritik.

Aber die Kritik muss an die richtigen Adressaten gehen.

Wenn jemand mit ElevenLabs die Stimme eines Sprechers klont, ohne dessen Erlaubnis, dann ist nicht ElevenLabs der Täter. Der Mensch, der das Tool missbraucht, ist der Täter.

Wenn jemand mit Midjourney den Stil eines lebenden Künstlers kopiert und die Ergebnisse als eigene Kunst verkauft, dann ist nicht Midjourney das Problem. Der Mensch, der diese Entscheidung trifft, ist das Problem.

Die Technologie ermöglicht. Der Mensch entscheidet.

Diese Unterscheidung ist wichtig. Weil sie bestimmt, wie wir regulieren, wie wir diskutieren, wie wir als Gesellschaft mit diesen Veränderungen umgehen.


Wie wir die Diskussion führen sollten

Ich plädiere nicht dafür, KI kritiklos zu akzeptieren. Im Gegenteil.

Es gibt massive Fragen zu klären. Urheberrechtliche Fragen. Arbeitsmarktfragen. Ethische Fragen. Fragen der Transparenz, der Regulierung, der Vergütung.

Aber diese Fragen können nur sinnvoll beantwortet werden, wenn wir präzise sind.

Wenn ein Sprecher sich gegen Stimmklonungs-Software positionieren will, dann sollte er Stimmklonungs-Software benennen. Wenn ein Künstler gegen die Nutzung seines Stils in Trainingsdaten protestiert, dann sollte er die spezifischen Bildgeneratoren und deren Praktiken kritisieren.

Pauschale Aussagen wie „KI ist böse“ oder „KI zerstört alles“ sind nicht nur falsch. Sie verwässern die berechtigte Kritik so sehr, dass sie wirkungslos wird.

Wer über alles gleichzeitig schimpft, schimpft am Ende über nichts Konkretes.


Die unbequeme Wahrheit

Hier ist die Wahrheit, die niemand gerne hört:

Viele der Menschen, die am lautesten gegen „die KI“ wettern, haben sich nicht die Mühe gemacht zu verstehen, wovon sie reden. Sie haben Angst – berechtigte Angst – aber sie kanalisieren diese Angst in die falsche Richtung.

Und ja, ich verstehe, warum das passiert. Die Entwicklung ist schnell. Die Technologie ist komplex. Die Konsequenzen sind unübersichtlich. Es ist einfacher, einen großen Feind zu haben als zwanzig kleine Problemfelder zu analysieren.

Aber einfach ist selten richtig.

Wer in dieser Debatte ernst genommen werden will, muss Hausaufgaben machen. Muss verstehen, welche Tools was tun. Muss differenzieren können zwischen einem Textgenerator und einem Stimmkloner. Zwischen einem Analysetool und einem Bildgenerator. Zwischen einer Arbeitserleichterung und einer Existenzbedrohung.

Diese Differenzierung ist keine akademische Spielerei. Sie ist die Voraussetzung für jede sinnvolle Diskussion.


Ein Appell

An alle, die sich an dieser Debatte beteiligen wollen:

Hört auf, „die KI“ zu sagen, wenn ihr ein spezifisches Tool meint. Benennt es. Seid präzise.

Hört auf, Technologie zum Feind zu erklären. Schaut auf die Menschen, die sie einsetzen. Auf die Unternehmen, die Entscheidungen treffen. Auf die Strukturen, die Missbrauch ermöglichen oder verhindern.

Und vor allem: Informiert euch. Lest. Fragt nach. Probiert aus. Versteht, wovon ihr redet, bevor ihr urteilt.

Die Entwicklungen, die gerade passieren, sind zu wichtig für uninformiertes Geschrei.

Sie verdienen eine ernsthafte, differenzierte, sachliche Auseinandersetzung.

Von Menschen, die wissen, wovon sie reden.


Schluss

Es gibt berechtigte Kritik an vielen KI-Anwendungen. Es gibt echte Probleme, die gelöst werden müssen. Es gibt Fragen, auf die wir als Gesellschaft Antworten finden müssen.

Aber diese Antworten werden nicht von denen kommen, die alles in einen Topf werfen und umrühren.

Sie werden von denen kommen, die differenzieren können. Die verstehen, welches Tool welche Auswirkungen hat. Die wissen, dass nicht „die KI“ das Problem ist, sondern spezifische Anwendungen, spezifische Praktiken, spezifische menschliche Entscheidungen.

Die Technologie ist da. Sie wird nicht verschwinden.

Die Frage ist nur, wie wir mit ihr umgehen.

Und diese Frage beginnt mit Verständnis. Nicht mit Pauschalurteilen.



Bevor wir anfangen: Worum geht es hier eigentlich?

Wenn gerade überall vom „Ende der Diffusion“ die Rede ist, klingt das erstmal dramatisch. Fast so, als würde Midjourney morgen früh abgeschaltet und Stable Diffusion gehört ab nächster Woche ins Museum. Aber so ist es nicht. Die Diffusionsmodelle, die du kennst und vielleicht täglich nutzt, verschwinden nicht einfach über Nacht. Sie funktionieren weiterhin, sie werden weiterentwickelt, und ja – sie liefern immer noch beeindruckende Ergebnisse.

Was sich aber verändert, ist ihre Rolle. Diffusion war jahrelang das Herzstück der KI-Bildgenerierung. Der Standard. Die Technologie, an der sich alles andere messen musste. Und genau dieser Status gerät jetzt ins Wanken. Nicht weil Diffusion plötzlich schlecht wäre, sondern weil eine neue Klasse von Systemen auftaucht, die Bilder auf eine grundlegend andere Art erzeugt.

Diese neuen Modelle rekonstruieren keine Bilder mehr aus Rauschen. Sie verstehen, was sie tun. Sie erkennen Objekte, Beziehungen, Hierarchien. Sie wissen, dass ein Gesicht ein Gesicht ist – und nicht nur eine statistische Ansammlung von Pixeln, die zufällig so aussieht.

Das klingt vielleicht nach einem kleinen technischen Detail. Aber wenn du regelmäßig mit Bildern arbeitest – egal ob als Fotograf, Designerin, Illustrator oder einfach als jemand, der visuelle Inhalte erstellt – dann verändert das deinen Werkzeugkasten auf einer sehr tiefen Ebene. Und genau darum geht es in diesem Text: Was passiert da gerade wirklich? Ohne Buzzwords, ohne Marketing-Sprech, ohne überzogene Versprechungen.


Was Diffusion kann – und wo sie an ihre Grenzen stößt

Um zu verstehen, warum sich gerade etwas Grundlegendes verändert, müssen wir kurz zurückblicken. Diffusionsmodelle funktionieren nach einem ziemlich eleganten Prinzip: Du startest mit reinem Zufallsrauschen – einem Bild, das aussieht wie analoger Fernsehschnee – und dann entfernt das Modell Schritt für Schritt dieses Rauschen. Was übrig bleibt, ist ein Bild.

Das Modell wurde vorher mit Millionen von Bildern trainiert. Es hat gelernt, welche Pixelmuster zu welchen Beschreibungen passen. Wenn du „eine Katze auf einem Sofa“ eingibst, weiß es statistisch, wie Katzen und Sofas normalerweise aussehen, und erzeugt ein entsprechendes Muster.

Das funktioniert erstaunlich gut. Die Ergebnisse können atemberaubend sein. Aber hier kommt der Haken: Diffusion arbeitet auf der Ebene von Pixeln, nicht auf der Ebene von Bedeutung.

Was heißt das konkret? Das Modell weiß nicht wirklich, dass es gerade ein Gesicht erzeugt. Es erzeugt nur ein Pixelmuster, das statistisch wie ein Gesicht aussieht. Es versteht nicht, dass Augen symmetrisch sein sollten oder dass Hände normalerweise fünf Finger haben. Es imitiert nur, was es in den Trainingsdaten gesehen hat.

Deshalb passieren die typischen Fehler: sechs Finger, verschmolzene Gliedmaßen, Text, der wie Buchstabensalat aussieht. Das sind keine Bugs, die man einfach fixen kann. Das sind direkte Konsequenzen der Architektur.

Und dann ist da noch das Geschwindigkeitsproblem. Diffusion ist ein serieller Prozess. Jeder Schritt baut auf dem vorherigen auf. Das macht die ganze Sache rechenintensiv und vergleichsweise langsam. Klar, die Modelle werden schneller, die Hardware besser. Aber die grundsätzliche Limitierung bleibt bestehen.


Der eigentliche Bruch: Von Pixeln zu Bedeutung

Die neue Generation von Bildgeneratoren geht einen anderen Weg. Statt Bilder aus Rauschen zu rekonstruieren, arbeiten diese Systeme mit etwas, das man als „semantische Planung“ bezeichnen könnte.

Stell dir vor, du bittest jemanden, ein Poster zu gestalten. Ein Diffusionsmodell würde sofort anfangen zu malen – Pixel für Pixel, ohne vorher nachzudenken. Die neuen Modelle machen etwas anderes. Sie halten kurz inne und überlegen: Was soll auf diesem Poster drauf? Eine Überschrift? Ein Produktfoto? Fließtext? Wie hängen diese Elemente zusammen? Was ist wichtig, was ist Hintergrund?

Erst wenn diese Fragen beantwortet sind, beginnt die eigentliche Bilderzeugung. Das Bild entsteht nicht mehr von unten nach oben – also von Pixeln über Formen zu Bedeutung – sondern von oben nach unten: Bedeutung, dann Struktur, dann Darstellung.

Das klingt vielleicht abstrakt, aber die praktischen Auswirkungen sind enorm. Plötzlich wird Text im Bild lesbar, weil das System versteht, dass Text Text ist und nicht nur eine weitere Textur. Layouts bekommen Hierarchie, weil das Modell weiß, dass Überschriften anders behandelt werden als Fließtext. Gesichter haben konsistent zwei Augen, weil das System versteht, was ein Gesicht ist.


Die technische Basis: Warum Transformer den Unterschied machen

Hinter diesem Wandel steckt eine Technologie, die ursprünglich gar nichts mit Bildern zu tun hatte: Transformer-Architekturen. Du kennst sie vielleicht von ChatGPT und anderen Sprachmodellen. Ihre große Stärke liegt darin, Beziehungen zwischen Elementen zu erkennen – egal wo diese Elemente stehen, egal in welcher Reihenfolge sie auftauchen.

Bei Text bedeutet das: Das Modell versteht, dass „Die Katze schläft“ und „Schläft die Katze?“ beide von einer schlafenden Katze handeln, obwohl die Wörter anders angeordnet sind.

Übertragen auf Bilder bedeutet das: Ein Gesicht ist nicht mehr nur ein Cluster von Pixeln in einer bestimmten Region des Bildes. Es ist ein zusammenhängendes Konzept, das das Modell als Ganzes versteht. Und weil Transformer Text und Bild im selben Raum verarbeiten können, gibt es keine harte Trennung mehr zwischen „Sprache verstehen“ und „Bilder erzeugen“.

Das ist der Punkt, an dem klassische Diffusionsmodelle strukturell nicht mithalten können. Nicht weil sie schlecht sind – sondern weil sie für eine andere Aufgabe gebaut wurden.


Spezialisierung statt Einheitsbrei

Ein weiterer großer Unterschied liegt in der Architektur dieser neuen Systeme. Statt ein riesiges Modell zu bauen, das irgendwie alles können soll, setzen viele neue Ansätze auf sogenannte „Mixture of Experts“-Systeme.

Die Idee ist simpel: Statt eines Generalisten gibt es mehrere Spezialisten. Ein Teilmodell ist besonders gut bei Porträts. Ein anderes bei Produktfotos. Ein drittes bei Typografie. Ein viertes bei Datenvisualisierung. Und eine übergeordnete Steuerung entscheidet, welcher Experte gerade gefragt ist.

Für dich als Nutzer bedeutet das: höhere Präzision bei spezifischen Aufgaben, weniger von den typischen KI-Artefakten, die man sofort als „das hat eine KI gemacht“ erkennt, und deutlich bessere Kontrolle bei komplexen Anforderungen.

Es ist ein bisschen so, als würdest du nicht mehr einen einzelnen Allround-Designer beauftragen, sondern Zugang zu einem ganzen Studio bekommen – mit Fotografin, Typograf, Illustratorin und Art Director, die koordiniert zusammenarbeiten.


Was das für Bildbearbeitung bedeutet

Einer der praktischsten Effekte dieses Wandels zeigt sich bei der Bildbearbeitung. Wer schon mal versucht hat, mit klassischen Tools ein Objekt aus einem Foto zu entfernen oder zu verändern, kennt den Workflow: Maske erstellen, Ebenen anlegen, manuell selektieren, exportieren, in ein anderes Programm importieren, nachbearbeiten.

Die neuen Systeme arbeiten anders. Sie erkennen Objekte, statt sie zu erraten. Sie wissen, was Person und was Hintergrund ist. Sie können eine Person im Bild verändern, ohne dabei Licht, Schatten oder Komposition zu zerstören – weil sie verstehen, wie diese Elemente zusammenhängen.

Das ist kein nettes Feature am Rande. Das ist eine komplett neue Kategorie von Bildbearbeitung. Retusche wird kontextsensitiv. Änderungen betreffen gezielt Inhalte, nicht das gesamte Bild. Du arbeitest nicht mehr mit Pixeln, sondern mit Bedeutungen.


Design, Layout und Typografie: Der vielleicht größte Sprung

Wenn du jemals versucht hast, mit einem Diffusionsmodell ein Poster zu erstellen – also eines mit lesbarem Text, sauberem Layout und konsistenter Hierarchie – dann weißt du, wie frustrierend das sein kann. Schrift war bestenfalls unzuverlässig. Abstände wirkten zufällig. Von echtem Design konnte kaum die Rede sein.

Die neuen Systeme behandeln Layout als funktionales System. Eine Überschrift ist eine Überschrift, nicht nur größerer Text. Fließtext verhält sich wie Fließtext. Abstände folgen Regeln, nicht dem Zufall.

Du kannst ganze Seiten generieren, Poster, Magazinlayouts, Präsentationen – ohne zwischen drei verschiedenen Programmen hin und her zu wechseln. Das bedeutet nicht, dass Designwissen plötzlich überflüssig wird. Im Gegenteil: Wer Design versteht, kann diese Systeme deutlich besser steuern. Aber die technischen Hürden werden niedriger.


Datenvisualisierung: Von Dekoration zu Funktion

Ein besonders kritischer Punkt bei Diffusionsmodellen war immer die Darstellung von Daten. Diagramme sahen oft überzeugend aus – bis man genauer hinschaute und merkte, dass die Zahlen keinen Sinn ergaben, die Achsen nicht zusammenpassten und die Proportionen willkürlich waren.

Die neuen Modelle gehen vorsichtiger vor. Daten werden als Daten erkannt. Visualisierungen folgen logischen Regeln. Achsen, Werte und Proportionen werden konsistenter behandelt.

Noch ist das nicht perfekt – und ich würde niemandem empfehlen, einen Geschäftsbericht mit KI-generierten Diagrammen zu füllen, ohne alles dreimal zu prüfen. Aber es ist der erste ernsthafte Schritt von dekorativer Illustration hin zu funktionaler Informationsgrafik. Das Potenzial ist riesig.


Was sich an deinem Workflow ändert

Der klassische Workflow – generieren, exportieren, in Photoshop bearbeiten, in InDesign layouten, fertig – verliert an Bedeutung. Stattdessen entsteht etwas, das man als dialogischen Prozess bezeichnen könnte.

Du formulierst eine visuelle Absicht. Das System setzt sie um. Du schaust dir das Ergebnis an und korrigierst – nicht auf der Ebene von Pixeln und Masken, sondern auf der Ebene von Konzepten. „Die Überschrift sollte prominenter sein.“ „Der Hintergrund wirkt zu unruhig.“ „Die Person sollte nach rechts schauen.“

Die Rolle des Gestalters verschiebt sich. Weg vom reinen Ausführen, hin zum Entscheiden, Kuratieren und Steuern. Werkzeugkenntnis bleibt wichtig – aber Verständnis von Bildsprache, Struktur und Kontext wird entscheidender als die Frage, welchen Shortcut man für welches Werkzeug drücken muss.


Was diese Systeme nicht können

Bei aller Begeisterung: Diese Modelle sind keine autonomen Kreativdirektoren. Sie machen Fehler. Sie missverstehen komplexe Anforderungen. Sie produzieren manchmal logischen Unsinn, der auf den ersten Blick überzeugend aussieht.

Wer unklare Vorgaben macht, bekommt unklare Ergebnisse. Wer nicht prüft, was das System liefert, übersieht Fehler. Diese Werkzeuge sind leistungsstark, aber sie ersetzen kein kritisches Auge. Sie ersetzen nicht die Fähigkeit zu erkennen, ob etwas funktioniert oder nicht.

Das ist wichtig zu verstehen, gerade weil die Ergebnisse immer überzeugender werden. Je besser die Oberfläche aussieht, desto leichter übersieht man, was darunter schiefgeht.


Was bleibt

Das „Ende der Diffusion“ ist kein Abgesang auf eine Technologie, die ihre Zeit gehabt hat. Es ist ein Übergang. Diffusion war der Türöffner – der Beweis, dass KI-generierte Bilder überhaupt möglich sind, dass sie gut aussehen können, dass sie praktischen Nutzen haben.

Die neuen Modelle sind der nächste Raum. Ein Raum, in dem es nicht mehr nur darum geht, beeindruckende Bilder zu erzeugen, sondern Bilder gezielt zu gestalten. Mit Verständnis. Mit Struktur. Mit Absicht.

Wenn du mit Bildern arbeitest, bedeutet das: weniger Technik-Akrobatik, mehr inhaltliche Steuerung, mehr Verantwortung für visuelle Entscheidungen. Die Bildgenerierung entwickelt sich von einer beeindruckenden Spielerei zu einem ernsthaften, integrierten Werkzeug für visuelle Gestaltung.

Nicht einfach schneller. Nicht einfach hübscher. Fundamental anders.



Ein leidenschaftliches Plädoyer für das Ende einer ermüdenden Diskussion

Gestern scrollte ich durch meine Timeline und da war er wieder. Dieser Post. Diese Aussage, die ich in den letzten Jahren gefühlt tausendmal gelesen habe, nur immer wieder leicht anders formuliert. Der Kern blieb derselbe: Echte Kunst entsteht nur mit echten Farben und echten Pinseln. KI-generierte Bilder können niemals Kunst sein, weil ihnen das Gefühl fehlt. Synthetische Bildkunst ist seelenlos, weil keine menschliche Hand den Pinsel führt.

Ich saß da, starrte auf den Bildschirm und spürte diese Mischung aus Frustration und Erschöpfung, die mich bei diesem Thema mittlerweile immer begleitet. Nicht weil ich keine Gegenargumente hätte. Sondern weil diese Argumente so offensichtlich sind, dass es mich wundert, sie immer wieder wiederholen zu müssen.

Also tue ich es jetzt. Ein letztes Mal. Ausführlich. Mit allem, was ich habe.

Die große Lüge vom fühlenden Werkzeug

Lassen Sie mich mit einer simplen Beobachtung beginnen, die so banal ist, dass sie fast schon beleidigend wirkt: Ein Pinsel hat keine Gefühle. Er hatte nie welche. Er wird nie welche haben.

Ein Pinsel ist ein Stück Holz mit Tierhaaren oder synthetischen Fasern am Ende. Er liegt auf dem Tisch oder in einer Schublade oder in einem Glas mit Terpentin. Er wartet auf nichts. Er sehnt sich nach nichts. Er träumt nicht von dem Bild, das er malen wird. Er hat keine Vision, keine Inspiration, keine schlaflosen Nächte voller kreativer Unruhe.

Wenn ein Künstler einen Pinsel in die Hand nimmt und ein Meisterwerk erschafft, dann kommt das Gefühl nicht aus dem Pinsel. Es kommt aus dem Menschen. Es kommt aus den Erfahrungen dieses Menschen, aus seinen Erinnerungen, aus seinen Hoffnungen und Ängsten, aus seiner einzigartigen Perspektive auf die Welt.

Der Pinsel ist lediglich das Medium. Das Übertragungsinstrument. Die Brücke zwischen der inneren Welt des Künstlers und der äußeren Welt der Leinwand.

Warum also sollte es bei einem anderen Werkzeug anders sein?

Eine kurze Geschichte der künstlerischen Empörung

Die Kunstwelt hat eine lange und durchaus unterhaltsame Tradition darin, neue Technologien zunächst vehement abzulehnen. Lassen Sie mich Sie auf eine kleine Zeitreise mitnehmen.

Als die Fotografie im 19. Jahrhundert aufkam, war die Empörung gewaltig. Maler sahen ihre Existenz bedroht. Kritiker erklärten, dass ein mechanisches Gerät niemals Kunst erschaffen könne. Die Kamera machte ja alles automatisch – wo blieb da die menschliche Seele? Wo das Gefühl? Der berühmte französische Dichter Charles Baudelaire nannte die Fotografie den „Todfeind der Kunst“.

Heute hängen Fotografien in den bedeutendsten Museen der Welt. Niemand würde ernsthaft behaupten, dass Ansel Adams, Annie Leibovitz oder Sebastião Salgado keine Künstler seien.

Als die elektronische Musik und Synthesizer aufkamen, wiederholte sich das Spiel. Echte Musik brauche echte Instrumente, hieß es. Ein Computer könne keine Seele haben. Elektronische Klänge seien kalt und leblos. Heute sind elektronische Produktionstechniken aus praktisch keinem Genre mehr wegzudenken, und niemand würde bestreiten, dass Kraftwerk, Brian Eno oder Aphex Twin Künstler sind.

Als digitale Malerei und Grafikprogramme aufkamen, hieß es wieder: Das sei keine echte Kunst. Wo bliebe die Verbindung zwischen Hand und Material? Wo das haptische Erlebnis? Wo die Authentizität des physischen Werks? Heute arbeiten die meisten professionellen Illustratoren und Concept Artists digital, und ihre Werke werden zurecht als Kunst anerkannt.

Sehen Sie das Muster? Jede einzelne technologische Innovation in der Kunst wurde zunächst mit den exakt gleichen Argumenten bekämpft. Und jedes einzelne Mal lagen die Kritiker falsch.

Was Synthetische Bildkunst wirklich bedeutet

Lassen Sie mich beschreiben, was tatsächlich passiert, wenn jemand mit KI-Werkzeugen Bilder erschafft.

Der Künstler sitzt vor seinem Computer. Er hat eine Idee, eine Vision, ein Gefühl, das er ausdrücken möchte. Vielleicht ist es die Melancholie eines regnerischen Herbstabends. Vielleicht die explosive Energie eines Moments der Erkenntnis. Vielleicht die stille Trauer über einen Verlust.

Er beginnt zu formulieren. Er sucht nach Worten, die seine innere Vision beschreiben. Er experimentiert mit Begriffen, mit Stilen, mit Atmosphären. Das erste Ergebnis ist nicht richtig. Es trifft nicht das, was er meint. Also verfeinert er seine Beschreibung. Er verwirft und beginnt neu. Er kombiniert Elemente aus verschiedenen Versuchen. Er kuratiert, wählt aus, entscheidet.

Dieser Prozess kann Stunden dauern. Manchmal Tage. Manchmal endet er in Frustration, weil die Vision sich nicht einfangen lässt. Manchmal endet er in diesem magischen Moment, in dem man auf das Ergebnis schaut und weiß: Ja, genau das wollte ich zeigen. Genau so fühlt es sich an.

Das ist kreative Arbeit. Das ist künstlerische Arbeit. Das ist zutiefst menschliche Arbeit.

Der Künstler trifft dabei hunderte von Entscheidungen. Jede einzelne davon ist ein Ausdruck seiner künstlerischen Vision. Jede einzelne davon ist getragen von seinem Gefühl, seiner Erfahrung, seiner einzigartigen Perspektive.

Die KI ist dabei das Werkzeug. Sie ist der Pinsel, der die Farbe auf die Leinwand trägt. Sie ist die Kamera, die das Licht einfängt. Sie ist der Synthesizer, der die Klänge erzeugt.

Sie ist nicht der Künstler.

Das Missverständnis über künstliche Intelligenz

Ein Teil des Problems liegt meiner Meinung nach in einem fundamentalen Missverständnis darüber, was KI tatsächlich ist und tut.

KI-Bildgeneratoren sind keine fühlenden Wesen. Sie haben keine Intentionen. Sie haben keine Visionen. Sie verstehen nicht, was sie tun. Sie sind mathematische Modelle, die statistische Muster in Daten gelernt haben und diese Muster auf neue Eingaben anwenden können.

Wenn jemand sagt, dass KI-Kunst kein Gefühl habe, weil die KI keine Gefühle hat, dann begeht er einen logischen Fehler. Denn mit der gleichen Argumentation müsste man sagen, dass Ölgemälde kein Gefühl haben, weil Ölfarben keine Gefühle haben. Oder dass Fotografien kein Gefühl haben, weil Kameras keine Gefühle haben.

Das Gefühl kommt nicht aus dem Werkzeug. Das Gefühl kommt aus dem Menschen, der das Werkzeug benutzt.

Die wahre Quelle der Kunst

Kunst entsteht nicht in Pinseln, Kameras oder Algorithmen. Kunst entsteht in Menschen. In ihren Köpfen, ihren Herzen, ihren Seelen.

Kunst entsteht in dem Moment, in dem ein Mensch etwas erlebt und den Drang verspürt, dieses Erlebnis auszudrücken. Sie entsteht in der Suche nach der richtigen Form für einen Gedanken. Sie entsteht in der Entscheidung, dieses Element zu behalten und jenes zu verwerfen. Sie entsteht in dem Mut, etwas Persönliches der Welt zu zeigen.

All das passiert bei synthetischer Bildkunst genauso wie bei traditioneller Malerei. Der Mensch erlebt, der Mensch fühlt, der Mensch entscheidet, der Mensch erschafft.

Das Werkzeug ist dabei sekundär. Es beeinflusst die Ästhetik des Ergebnisses, sicher. Ein Ölgemälde sieht anders aus als eine Fotografie, die anders aussieht als eine digitale Illustration, die anders aussieht als ein synthetisch generiertes Bild. Aber die künstlerische Essenz – die menschliche Intention, die emotionale Wahrheit, die kreative Vision – kommt in allen Fällen aus der gleichen Quelle.

Sie kommt aus dem Menschen.

Warum diese Debatte eigentlich nicht über Kunst geht

Ich vermute, dass die heftigen Reaktionen auf KI-Kunst weniger mit ästhetischen oder philosophischen Überzeugungen zu tun haben als vielmehr mit Angst. Angst vor Veränderung. Angst vor Bedeutungsverlust. Angst davor, dass Fähigkeiten, in die man jahrelang investiert hat, plötzlich weniger relevant werden könnten.

Diese Ängste sind verständlich. Sie sind menschlich. Aber sie sollten nicht dazu führen, dass wir anderen Menschen ihre Kreativität absprechen. Sie sollten nicht dazu führen, dass wir Werkzeuge verteufeln, nur weil sie neu und anders sind.

Die Geschichte der Kunst ist eine Geschichte der ständigen Evolution. Neue Techniken, neue Materialien, neue Werkzeuge haben immer wieder neue Möglichkeiten des Ausdrucks eröffnet. Das war bei der Erfindung der Ölfarbe so, bei der Entwicklung der Perspektive, bei der Einführung der Fotografie, bei der Digitalisierung.

KI ist der nächste Schritt in dieser Evolution. Nicht mehr, nicht weniger.

Ein Appell zum Schluss

Ich bitte nicht darum, dass jeder KI-generierte Kunst mögen muss. Geschmäcker sind verschieden, und das ist gut so. Ich bitte nicht darum, dass traditionelle Kunst weniger wertgeschätzt wird. Sie ist und bleibt eine wunderbare, bedeutungsvolle Form des menschlichen Ausdrucks.

Ich bitte nur darum, dass wir aufhören, anderen Menschen ihre Kreativität abzusprechen, nur weil sie andere Werkzeuge benutzen als wir. Ich bitte darum, dass wir anerkennen, dass das Gefühl immer beim Menschen liegt, nicht beim Werkzeug. Ich bitte darum, dass wir die ewig gleiche, ewig falsche Kritik endlich hinter uns lassen.

Der Pinsel hat noch nie ein Gefühl gehabt. Die Kamera auch nicht. Der Synthesizer nicht. Und die KI hat auch keines.

Aber der Mensch, der diese Werkzeuge benutzt – dieser Mensch fühlt. Er hofft, er träumt, er leidet, er feiert. Er sucht nach Ausdruck für das, was in ihm ist. Und wenn er diesen Ausdruck findet, dann ist das Kunst.

Egal, welches Werkzeug er dabei benutzt hat.