Category: Kontext




Es gibt dieses Rauschen. Du hörst es überall. Es kriecht aus den sozialen Netzwerken, es steht in den Feuilletons, es dominiert die Gespräche in der Kaffeeküche deiner Agentur oder im Studio zwischen zwei Sets, wenn das Model gerade in der Maske sitzt und der Art Director nervös auf sein Tablet starrt. Es ist ein nervöses, manchmal fast hysterisches, oft resigniertes Rauschen: „Die KI macht uns arbeitslos.“ „Fotografie ist tot.“ „Bald drückt jeder nur noch einen Knopf und ist Künstler.“ „Warum soll ich noch lernen, wie man Licht setzt, wenn die Software das in drei Sekunden macht?“

Ich sage es dir jetzt einmal ganz deutlich, hart und ohne die üblichen diplomatischen Schnörkel, mit denen wir uns in der Kreativbranche gerne gegenseitig beruhigen: Das ist Unsinn. Es ist der größte Irrtum dieses Jahrzehnts. Wer glaubt, dass die aktuellen oder kommenden KI-Modelle einen echten Fotografen, einen echten Retuscheur oder einen echten Art Director ersetzen, der hat nicht verstanden, was diese Berufe eigentlich im Kern ausmacht. Und noch viel wichtiger, vielleicht das Wichtigste überhaupt: Er hat nicht verstanden, wie diese neuen Werkzeuge wirklich funktionieren, wenn man sie nicht wie einen einarmigen Banditen im Casino bedient, sondern wie ein hochkomplexes Präzisionsinstrument in einem Labor.

Wir schreiben das Jahr 2026. Die generative künstliche Intelligenz ist kein Spielzeug mehr. Sie ist kein Partytrick, mit dem man den Papst in eine Daunenjacke steckt oder Wes Anderson Harry Potter drehen lässt. Sie ist eine industrielle Fräse für visuelle Inhalte. Sie ist ein Reaktor für Pixel. Aber – und das ist das gigantische Aber, um das sich dieser Text drehen wird – eine Fräse braucht jemanden, der sie bedient. Einen Meister, der weiß, wie das Material reagiert, wenn es heiß wird. Jemanden, der den Unterschied zwischen Kitsch und Kunst nicht nur kennt, sondern fühlt. Die KI ersetzt nicht den Menschen. Sie ersetzt den Durchschnitt. Sie ersetzt das Mittelmaß. Sie ersetzt diejenigen, die nur Knöpfe drücken, ohne zu wissen, was dahinter passiert. Aber für dich, den Experten, der Fotografie, Licht, Komposition, Farbtheorie und Post-Production wirklich verstanden und jahrelang geübt hat, ist sie kein Feind. Sie ist der Turbo, von dem wir immer geträumt haben, ohne es zu wissen. Sie ist die Erweiterung deines Gehirns und deiner Hände, nicht deren Ersatz.

Lass uns tief eintauchen. Lass uns zerlegen, warum das so ist. Warum JSON-Code wichtiger ist als „schöne Worte“. Warum deine eigenen Fotos das Gold der neuen Ära sind. Und warum am Ende immer noch Photoshop, deine lokale Hardware und dein Auge entscheiden, ob ein Bild lebt oder nur existiert. Wir müssen zunächst mit einem fundamentalen Missverständnis aufräumen, das die Debatte vergiftet. Die meisten Menschen da draußen nutzen Bild-KI vollkommen falsch. Sie gehen zu einer Eingabeaufforderung, sei es in einem Discord-Channel oder einem Web-Interface, und tippen etwas wie: „Ein schöner Sonnenuntergang, Cyberpunk, Frau mit Neon-Haaren, 8k, masterpiece, trending on artstation.“ Dann drückt die KI auf den Zufallsgenerator. Sie würfelt. Sie greift in den riesigen Sack der Wahrscheinlichkeiten, den sie aus Milliarden von Bildern gelernt hat, und spuckt vier Varianten aus. Der Nutzer sucht sich das hübscheste aus, speichert es ab und sagt: „Ich habe das gemacht.“

Nein, hast du nicht. Du hast im Lotto gewonnen.

Das ist Glücksspiel, keine Kreation. Die KI hat basierend auf statistischen Wahrscheinlichkeiten Pixel angeordnet, die lose zu deinen Worten passen. Du hattest keine Kontrolle über das Lichtverhältnis. Du hattest keine Kontrolle über die Brennweite. Du hattest keine Kontrolle über den emotionalen Subtext oder die narrative Tiefe. Du hast konsumiert, nicht produziert. Du warst der Kunde, nicht der Koch. Hier trennt sich die Spreu vom Weizen, und hier beginnt deine Relevanz als Profi. Der Fotograf, der Künstler – also du – akzeptiert keinen Zufall. Wir hassen Zufall. Wir wollen Kontrolle. Wenn du ein Bild im Kopf hast, dann hast du eine Vision. Du siehst die Lichtsetzung vor deinem inneren Auge – ist es ein Rembrandt-Licht? Ein hartes Split-Light? Ein weiches Butterfly? Du siehst die Textur der Haut, spürst, ob sie glänzen oder matt sein soll. Du siehst die Körnung des Films, die Tiefe der Schatten. Du siehst die emotionale Distanz zum Subjekt. Wenn die KI dir dann irgendwas Generisches ausspuckt, das zwar „nett“ aussieht, aber nicht deine Vision trifft, ist das für dich wertlos.

Deshalb ist die KI beim derzeitigen Stand – und ich wage zu behaupten, auch in absehbarer Zukunft – kein Ersatz für dich. Denn die KI hat keinen Willen. Sie hat keinen Geschmack. Sie hat keine Intention. Sie hat keine Schmerzen empfunden, keine Freude erlebt, keine Angst gehabt. Sie ist ein Spiegel, der alles reflektiert, was man ihm zeigt. Und wenn man ihm nichts Konkretes, nichts Menschliches zeigt, reflektiert er eben den Durchschnitt des Internets. Und der Durchschnitt ist langweilig. Es ist eine Ironie des Schicksals, die man sich auf der Zunge zergehen lassen muss: Gerade jetzt, wo jeder Hans und Franz Bilder generieren kann, wird echtes, tiefes fotografisches Fachwissen wertvoller denn je. Warum? Weil du der Maschine sagen musst, was sie tun soll. Und die Maschine spricht – überraschenderweise und glücklicherweise – die Sprache der Fotografie.

Ein Laie schreibt in seinen Prompt: „Hintergrund unscharf.“ Du schreibst – oder codierst –: „85mm Prime Lens, Aperture f/1.2, heavy Bokeh, shallow Depth of Field, focus on iris, chromatic aberration on edges.“ Das Ergebnis ist fundamental anders. Die KI versteht physikalische Gesetzmäßigkeiten, weil sie mit Millionen von echten Fotos trainiert wurde, in deren Metadaten genau diese Informationen standen. Sie „weiß“ im statistischen Sinne, wie ein 35mm-Objektiv ein Gesicht verzerrt und wie ein 200mm-Objektiv es komprimiert und den Hintergrund ranholt. Sie weiß, wie sich chromatische Aberration an harten Kanten bei Gegenlicht verhält. Sie weiß, wie Filmkorn bei ISO 3200 aussieht im Vergleich zu ISO 100. Wenn du als Anwender nicht weißt, was ISO-Rauschen ist, wie sich hartes Sonnenlicht von einer riesigen Octabox unterscheidet, was ein „Rim Light“ bewirkt oder warum man in der Porträtfotografie oft nicht unter 50mm geht, dann bist du der KI ausgeliefert. Du bist Passagier in einem Auto, das du nicht steuern kannst. Du kannst nur hoffen, dass es irgendwo ankommt, wo es schön ist. Als Profi bist du der Pilot.

Künstliche Intelligenz ist im Grunde ein gigantischer, unendlicher Licht-Simulator. Aber sie hat eine Tendenz: Sie neigt dazu, Licht „perfekt“ zu machen. Zu glatt. Zu kommerziell. Zu gefällig. Wer Ahnung von Fotografie hat, weiß, dass Charakter durch Schatten entsteht, nicht durch Licht. Dass die Dunkelheit genauso wichtig ist wie die Helligkeit. Wir zwingen die KI, Fehler zu machen. Wir fordern „Low Key“, wir fordern „Chiaroscuro“, wir fordern „Volumetric Lighting“, das Staubpartikel in der Luft sichtbar macht. Wir bauen Szenarien auf, die wir aus dem Studio kennen. Du kannst der KI sagen: „Setze ein Key Light von links oben, 45 Grad, Farbtemperatur 5600K, hart, und ein Rim Light von rechts hinten, Farbe Teal, Intensität 2.0, um die Silhouette vom Hintergrund zu lösen.“ Wenn du nie in einem Studio gestanden hast, nie Lampen geschleppt und Lichtformer gewechselt hast, kommst du gar nicht auf die Idee, das zu verlangen. Du nimmst das flache Einheitslicht, das die Modelle standardmäßig liefern, weil es „sicher“ ist. Das ist der Grund, warum 90 Prozent der KI-Bilder gleich aussehen. Weil 90 Prozent der Nutzer kein Licht lesen können. Du kannst es. Das ist dein unfairer Vorteil.

Jetzt wird es technisch, und das ist der Punkt, an dem viele Hobbyisten aussteigen – und wo du als Profi anfängst, echte Qualität zu liefern und dich vom Markt abzuheben. Vergiss das klassische „Prompting“. Das Schreiben von langen, blumigen Sätzen wie „Eine wunderschöne Elfe steht in einem magischen Wald, es ist neblig und mystisch…“ ist ineffizient, unpräzise und ehrlich gesagt veraltet. Es ist Malen nach Zahlen. Sprache ist schwammig. Was bedeutet „wunderschön“? Für dich ist das etwas anderes als für die KI oder für deinen Kunden. Was bedeutet „mystisch“? Nebel? Dunkelheit? Leuchtende Pilze? Deshalb arbeiten wir auf dem höchsten Level nicht mehr mit Prosa, sondern mit Struktur. Wir nutzen JSON (JavaScript Object Notation) oder ähnliche strukturierte Datenformate, um mit der KI zu kommunizieren – oft im Dialog mit LLMs (Large Language Models), die als Dolmetscher und Architekten für die Bild-KI fungieren. Besonders in Workflows, die über API-Schnittstellen laufen oder in fortgeschrittenen Interfaces wie ComfyUI integriert sind, ist das der Standard.

Warum JSON? Weil es Parameter trennt, isoliert, gewichtet und kontrollierbar macht. Stell dir vor, du beschreibst ein Bild nicht wie ein Dichter, sondern wie ein Architekt oder ein Regisseur, der sein Set aufbaut. Du definierst das Subjekt mit Attributen für Alter, Hauttextur und Kleidung. Du definierst die Kamera mit Modell, Objektiv, Blende und Winkel. Du definierst das Licht mit Quellen, Positionen, Farben und Härtegraden. Du definierst die Umgebung und den Stil separat. Indem du die Bildbestandteile in Variablen zerlegst, erlangst du Wiederholbarkeit. Du kannst den Wert für „lighting“ ändern, ohne dass sich das „subject“ verändert. Du kannst die Kamera wechseln, ohne dass die Kleidung plötzlich eine andere Farbe hat oder die KI „vergisst“, was sie eigentlich malen sollte. Das ist Programmierung von Bildern. Das ist Synthografie in Reinform. Wer das beherrscht, der „hofft“ nicht auf ein gutes Bild. Der baut es.

Diese methodische Herangehensweise erlaubt es dir, komplexe Bildwelten zu erschaffen, die konsistent sind. Wenn du eine Serie für einen Kunden produzierst, kannst du dir keine Zufälle leisten. Du kannst nicht dem Kunden sagen: „Ja, im dritten Bild hat das Model plötzlich blonde Haare, weil die KI heute einen schlechten Tag hat.“ JSON und strukturierte Parameter geben dir die Zügel in die Hand, die der normale Prompt-Tipper gar nicht sieht. Es verwandelt die „Black Box“ der KI in ein Cockpit mit Reglern und Schaltern. Doch selbst der beste Code ist nichts ohne den richtigen Rohstoff. Hier kommen wir zum vielleicht wichtigsten Punkt, warum du als Fotograf unverzichtbar bleibst: Input. Eine KI, die nur mit Text gefüttert wird, halluziniert. Sie erfindet Dinge. Das ist oft toll für Fantasy oder surreale Kunst, aber katastrophal für spezifische Visionen, Porträts realer Personen oder Corporate Identity. Die wahre Macht entfaltet sich, wenn wir der KI eigene Bilder geben. Gute Ausgangsfotos. Deine Fotos.

Stell dir folgende Situation vor: Du fotografierst ein Model im Studio. Das Licht ist okay, die Pose ist perfekt, der Gesichtsausdruck ist genau der, den du willst – dieser eine Moment zwischen Einatmen und Ausatmen. Aber du hast kein Budget, um sie nach Island an einen schwarzen Strand zu fliegen, und du hast auch nicht das 10.000-Euro-Kleid vom Designer zur Hand, das eigentlich im Konzept stand. Früher war das ein Fall für aufwendiges Composing, das Tage gedauert hat. Du musstest Stock-Fotos suchen, die nie ganz passten, Perspektiven verzerren, Licht malen, und oft sah es am Ende trotzdem „reingeklebt“ aus, weil die Physik nicht stimmte. Heute nimmst du dein Studiofoto. Du nutzt es als Referenz (Image-to-Image) und steuerst die Struktur über Technologien wie ControlNet (mit Modulen wie Depth Maps, Canny Edge oder OpenPose). Du sagst der KI: „Nimm exakt diese Körperhaltung. Nimm exakt diese Gesichtszüge. Nimm exakt diese Lichtverteilung. Aber zieh ihr das futuristische Kleid an und stell sie an den Strand in Island. Behalte die Lichtrichtung bei.“

Weil das Ausgangsmaterial – dein Foto – qualitativ hochwertig ist, wird das Ergebnis hochwertig sein. Die KI muss die Anatomie nicht raten (was sie oft falsch macht, siehe das berüchtigte Hände-Problem), weil du ihr die Anatomie gibst. Sie muss die Lichtrichtung nicht raten, weil dein Foto die Schatten vorgibt. Je besser dein Input-Foto, desto realistischer, schärfer und glaubwürdiger ist das Ergebnis. Ein unscharfes, schlecht beleuchtetes Handyfoto führt zu Matsch. Ein knackscharfes RAW-File aus deiner 50-Megapixel-Kamera führt zu einem High-End-Render. Das bedeutet: Wer fotografieren kann, hat den besseren Rohstoff. Wir sind die Lieferanten der digitalen DNA, aus der die neuen Welten gebaut werden. Ohne diese DNA ist alles nur generisches Rauschen. Du lieferst die Substanz, die KI liefert die Dekoration und die Transformation. Du bist der Anker in der Realität.

Ein weiteres Problem der frühen KI-Bilder (wir erinnern uns an 2023/2024) war dieser furchtbare „Plastik-Look“. Alles sah aus wie Airbrush, zu glatt, zu perfekt, wie Videospielgrafik auf Steroiden. Haut wie Gummi, Augen wie Glasmurmeln. Der Experte – also du – arbeitet heute mit cinematischen Modellen. Das sind speziell trainierte Checkpoints (oft basierend auf Stable Diffusion XL oder proprietären neuen Architekturen wie Flux oder spezialisierten Fine-Tunes), die nicht auf „hübsch“ trainiert sind, sondern auf „echt“. Diese Modelle verstehen, dass Haut Poren hat. Dass Poren nicht gleichmäßig verteilt sind. Dass Licht in einer Linse bricht und Fehler erzeugt – Lens Flares, Halation, chromatische Aberration, Vignettierung. Dass analoger Film ein Rauschverhalten hat, das digitalem Rauschen überlegen ist. Wir nutzen Modelle, die „hässlich“ können. Dreck, Asymmetrie, Chaos. Das ist der Schlüssel zum Fotorealismus. Die Realität ist nicht perfekt. Eine KI, die Perfektion anstrebt, scheitert an der Realität. Ein echtes Foto ist nie 100 % sauber. Als Künstler wählst du das Modell wie früher den Film. Brauchst du die Farben eines Kodak Portra 400? Nimmst du Modell A. Brauchst du den düsteren, körnigen, kontrastreichen Look eines Ilford Delta 3200 Schwarzweiß-Films? Nimmst du Modell B. Du kannst diese Modelle sogar mixen (Checkpoint Merging), um deinen eigenen, unverwechselbaren Stil zu kreieren. Das ist wie das Mischen von Farben auf einer Palette. Ein Laie nutzt die Standard-Farben aus der Tube (das Standard-Modell von Midjourney). Ein Meister mischt sich seinen Ton.

Aber lass uns an diesem Punkt ehrlich sein: Ein Bild, das zu 100 Prozent aus der KI kommt, fühlt sich oft seltsam glatt an, selbst mit den besten Modellen. Ein Bild, das heute noch zu 100 Prozent klassisch in Photoshop gemalt oder retuschiert wird, dauert oft zu lange, um wirtschaftlich zu sein. Die Magie – der eigentliche künstlerische Durchbruch – liegt im „Dazwischen“. In der hybriden Kunst. Wir müssen aufhören, in Lagern zu denken. Hier die Fotografen, da die KI-Nerds. Der Experte von 2026 ist ein Grenzgänger. Hybride Kunst bedeutet: Du nutzt die KI nicht, um das ganze Bild zu machen. Du nutzt sie, um Elemente zu erzeugen, die du fotografisch nicht oder nur schwer bekommst.

Vielleicht fotografierst du das Model im Studio. Das ist echt. Die Emotion ist echt. Die Haut ist echt. Aber das Kleid? Vielleicht skizzierst du das grob in Photoshop, fütterst diese Skizze in eine lokale KI, lässt dir fünf Textur-Varianten von Seide oder Metall generieren, und dann – und das ist der entscheidende Schritt – compst du diese KI-Elemente klassisch in Photoshop zurück auf das echte Foto. Du nutzt Masken. Du nutzt Gradationskurven. Du nutzt den Mischpinsel. Du verheiratest das generierte Chaos mit der fotografischen Ordnung. Das ist Hybrid-Kunst. Das Ergebnis ist ein Werk, bei dem niemand mehr sagen kann, wo das Foto aufhört und die KI anfängt. Es gibt keine Nahtstellen. Es gibt keine „KI-Artefakte“, weil du sie manuell entfernt hast. Es gibt keine physikalischen Unmöglichkeiten, weil du sie korrigiert hast.

Diese hybride Arbeitsweise ist es, die deinen Stil unkopierbar macht. Jemanden, der nur promptet, kann man kopieren. Man klaut den Prompt, man kriegt ein ähnliches Bild. Aber jemanden, der fotografiert, malt, generiert, maskiert, überlagert und retuschiert? Das ist eine Handschrift. Das ist ein Prozess, der so komplex und individuell ist, dass er immun gegen Nachahmung wird. Du bist nicht mehr nur ein User einer Software. Du bist ein Alchemist, der verschiedene Substanzen mischt, um Gold zu machen.

Und hier kommen wir zu einem Punkt, der oft übersehen wird, der aber über deine Karriere entscheiden kann: Datenschutz und Urheberschaft. Wenn du professionell arbeitest, wenn du hybride Kunst erschaffst, die deinen Namen tragen soll, dann gibt es eine goldene Regel: Nichts verlässt deinen Rechner. Nutze keine öffentlichen Web-Interfaces für deine finale Arbeit. Lade keine Kundenfotos in eine Cloud-KI hoch, deren AGB du nicht zu 100 Prozent verstehst (und wer tut das schon?). Poste deine Prompts und deine Workflows nicht in öffentlichen Discord-Channels. Warum?

Erstens: Der Schutz deiner DNA. Wenn du einen einzigartigen Stil entwickelt hast, willst du nicht, dass eine öffentliche KI diesen Stil lernt und ihn morgen jedem 14-Jährigen zur Verfügung stellt. Wenn du deine besten Arbeiten in ein offenes System fütterst, trainierst du deine eigene Konkurrenz. Zweitens: Kundensicherheit. Stell dir vor, du bearbeitest Bilder für eine Kampagne eines Autoherstellers, die erst in sechs Monaten launchen darf. Lädst du das Bild in eine öffentliche KI, um den Hintergrund zu ändern, hast du im schlimmsten Fall gerade ein NDA (Geheimhaltungsvereinbarung) gebrochen. Das Bild liegt jetzt auf einem Server in den USA. Das ist berufliches Harakiri.

Der Profi nutzt lokale KI-Instanzen. Wir reden über Stable Diffusion, Flux oder Nachfolgemodelle, die auf deiner eigenen Grafikkarte laufen (via Interfaces wie Automatic1111, ComfyUI oder Fooocus). Warum lokal? Weil du hier eigene Modelle (LoRAs/Checkpoints) trainieren kannst. Du kannst der KI deinen Stil beibringen, dein Licht, deine Farbpalette – und dieses Modell gehört nur dir. Es liegt auf deiner SSD. Niemand sonst hat Zugriff darauf. Das ist dein eigentliches Kapital. Du baust dir eine persönliche KI, die wie ein Assistent funktioniert, der nur für dich arbeitet. Sie kennt deine Vorlieben. Sie weiß, wie du Hauttöne magst. Aber sie plaudert Betriebsgeheimnisse nicht aus. Wenn du öffentlich generierst, bist du ein Tourist. Du nutzt die Infrastruktur, die alle nutzen. Du bekommst den „Look“, den alle haben. Wenn du lokal und persönlich arbeitest, bist du ein Einheimischer. Du baust deine eigene Infrastruktur.

Kommen wir nun zum Elefanten im Raum, den viele KI-Evangelisten gerne ignorieren oder wegdiskutieren wollen. Sie behaupten, man brauche kein Photoshop mehr. Das Bild komme ja fertig aus der Maschine. Das ist der größte Trugschluss von allen. Das ist die Lüge, die Amateure glauben und die sie daran hindert, jemals professionelle Ergebnisse zu erzielen. Ein KI-Bild „out of the box“ ist Rohmaterial. Es ist wie ein ungeschliffener Diamant – oder manchmal eher wie ein Klumpen Lehm, der grob die Form hat, die man will, aber noch voller Fingerabdrücke und Unebenheiten steckt.

Hier beginnt deine eigentliche Arbeit als Profi. Hier beginnt die „Synthografie“ als echtes Handwerk. Du nimmst das Bild in Photoshop. Und dann zerlegst du es. Du nutzt „Generative Fill“ nur für kleine, kontrollierte Bereiche, um Fehler zu korrigieren oder Details hinzuzufügen. Du nutzt Frequenztrennung (Frequency Separation), um die Struktur der KI-Haut zu reparieren, ohne die Farben zu zerstören, um ihr diese menschliche Unvollkommenheit zurückzugeben, die die KI weggebügelt hat. Du machst Dodge & Burn (Abwedeln und Nachbelichten), um den Fokus des Betrachters zu lenken – etwas, das die KI oft vergisst, weil sie das ganze Bild gleichmäßig „interessant“ machen will. Ein gutes Bild braucht aber Hierarchie. Es braucht Bereiche, die im Schatten verschwinden, damit das Wichtige leuchten kann. Du baust Composings aus mehreren KI-Generierungen. Vielleicht war der Kopf im ersten Bild perfekt, aber die Hände im dritten und der Hintergrund im fünften. In Photoshop bringst du das zusammen. Du matchst die Farben (Color Grading), du passt die Schwarzwerte an, du sorgst dafür, dass das Grain über dem gesamten Bild konsistent liegt.

Das ist digitales Malen auf höchstem Niveau. Die KI liefert dir die Pixel, aber du bestimmst, wo sie bleiben. Ein reines KI-Bild erkennt man oft sofort. Es wirkt „uncanny“, unheimlich, künstlich. Ein von dir in Photoshop veredeltes, kuratiertes und bearbeitetes Bild erkennt man nicht mehr als KI. Man fühlt es nur. Und das ist der Unterschied zwischen einem generierten Bild und einem Kunstwerk.

Was bist du also, wenn die Maschine die Pixel rendert? Du bist nicht mehr nur der Handwerker, der jeden Pinselstrich zieht (obwohl du das in der Retusche noch tust). Du bist Regisseur. Du bist Art Director. Du bist Kurator. Die Fähigkeit, „Nein“ zu sagen, wird zu deiner wichtigsten Eigenschaft. Die KI bietet dir 20 Varianten an. 19 davon sind Müll – technisch vielleicht okay, aber seelenlos, langweilig, repetitiv. Die eine Variante zu erkennen, die den Funken hat, das ist menschliche Intuition. Das ist Erfahrung. Das ist dein kulturelles Wissen.

Eine Maschine weiß nicht, was Schmerz ist. Sie weiß nicht, was Sehnsucht ist. Sie kann Sehnsucht simulieren, wenn du ihr die Parameter gibst. Aber sie kann nicht beurteilen, ob das Bild diese Sehnsucht auch auslöst. Das kannst nur du. Wir erschaffen neue Welten, ja. Wir können Dinge visualisieren, die zu teuer, zu gefährlich oder physikalisch unmöglich zu fotografieren wären. Wir können Storytelling betreiben in einer Geschwindigkeit, die früher undenkbar war. Aber diese Welten brauchen ein Fundament. Und dieses Fundament ist deine menschliche Erfahrung. Wenn du ein Bild erstellst, das Einsamkeit ausdrücken soll, greifst du auf dein eigenes Gefühl von Einsamkeit zurück. Du wählst die Farben (kalt, entsättigt), die Komposition (viel negativer Raum), die Pose (verschlossen). Du steuerst die KI so lange, bis sie dein Inneres nach außen kehrt. Die KI ist dabei nur der Pinsel. Ein sehr komplexer, manchmal eigensinniger, manchmal genialer Pinsel, aber nur ein Pinsel. Das Gemälde entsteht in dir.

Lass uns kurz über Geld reden. Das ist wichtig. Warum sollten Kunden dich, den Experten, bezahlen, wenn sie selbst ein Abo für 20 Euro im Monat abschließen können und sich ihre Bilder „selbst machen“? Aus demselben Grund, warum Menschen in Restaurants gehen, obwohl sie einen Herd zu Hause haben. Aus demselben Grund, warum Menschen zum Friseur gehen, obwohl man Scheren im Supermarkt kaufen kann. Jeder kann kochen. Aber nicht jeder kann gut kochen. Und vor allem: Nicht jeder kann konsistent gut kochen, unter Zeitdruck, für 100 Leute, während die Küche brennt.

Kunden brauchen Konsistenz. Sie brauchen Rechtssicherheit (soweit im KI-Recht möglich). Sie brauchen Bilder, die exakt ihre Marke treffen und nicht einfach nur „irgendwie cool“ aussehen. Ein Kunde sagt: „Ich brauche unser Produkt in der Hand einer Frau, die aussieht wie unsere Zielgruppe (35-40, urban, modern), das Licht muss zu unserer CI passen (hell, freundlich, Pastell), und das Bild muss in 10.000 Pixel Breite für den Messestand vorliegen. Bis morgen.“ Der Laie mit seinem Prompt bricht hier zusammen. Das Produkt wird von der KI verzerrt (sie kennt das Logo nicht, sie halluziniert Tasten, die nicht da sind). Die Frau hat sechs Finger oder schielt. Das Licht ist zu dramatisch, weil das Standard-Modell Drama liebt. Die Auflösung ist zu gering.

Du, der Experte, nimmst das Produktfoto (echtes Foto!), trainierst vielleicht kurz ein LoRA (Low-Rank Adaptation) auf das Produkt, nutzt ControlNet für die Pose, generierst den Hintergrund, compst das echte Produkt in Photoshop rein, machst ein Upscaling mit KI-Unterstützung (aber kontrolliert!), retuschierst die Fehler und lieferst pünktlich. Das ist dein Wert. Die Lösung von Problemen. Nicht das Drücken eines Knopfes. Du verkaufst nicht das Bild, du verkaufst das Ergebnis und die Sicherheit.

Wir dürfen bei all dem Enthusiasmus nicht ignorieren, dass diese Technologie auf den Werken von Millionen Künstlern trainiert wurde, oft ohne deren Einverständnis. Das ist ein Makel, der der derzeitigen KI-Landschaft anhaftet und den wir nicht wegdiskutieren können. Aber als Profis können wir nicht die Augen verschließen und hoffen, dass es weggeht. Wir müssen uns die Technologie aneignen und sie transformieren. Indem du deine eigenen Bilder als Basis nutzt, indem du deine eigene Vision durch JSON und Photoshop hineinpressen, machst du dir die Technik untertan. Du wirst wieder zum Urheber. Du schaffst Werke, die eine Schöpfungshöhe haben, weil der Prozess komplex und individuell ist. Du machst aus dem statistischen Durchschnitt etwas Einzigartiges.

Die Zukunft gehört den Hybriden. Den Zentauren. Halb Mensch, halb Maschine. Der reine Fotograf, der sich weigert, digital zu denken und KI als Teufelszeug abtut, wird zur Nische. Eine schöne, wertvolle Nische, wie Vinyl-Platten oder analoge Uhren, aber eine Nische. Der reine „Prompt-Artist“, der keine Ahnung von Bildern hat, wird wegrationalisiert werden, weil die KI bald so gut ist, dass sie keine Prompts mehr braucht, um Durchschnitt zu erzeugen. Aber derjenige, der beides verbindet – das Auge, das Handwerk, die Technik der Fotografie und die rohe, brutale Power der generativen KI – der ist unaufhaltsam. Hab keine Angst, ersetzt zu werden. Hab Angst davor, stehen zu bleiben.

Die KI ist ein Werkzeug. Ein Hammer baut kein Haus. Ein Hammer kann auch einen Daumen zertrümmern. Es kommt darauf an, wer ihn hält. Wenn du Ahnung von Fotografie hast: Glückwunsch. Du hast den größten Vorteil, den es gibt. Du verstehst das Licht. Du verstehst die Komposition. Wenn du Photoshop beherrschst: Perfekt. Du hast die Kontrolle über das Finish. Wenn du bereit bist, Code (JSON) und komplexe Workflows zu lernen: Willkommen in der Elite.

Wir stehen nicht am Ende der Kunst. Wir stehen am Anfang einer neuen Ära. Einer Ära, in der die Barriere zwischen Vorstellungskraft und Bild fällt. Einer Ära, in der das technische „Wie“ (Wie male ich diesen Schatten?) in den Hintergrund tritt und das inhaltliche „Was“ (Warum ist dieser Schatten da?) in den Vordergrund rückt. Aber die Qualität dieses Bildes hängt immer noch von der Qualität der Vorstellungskraft ab. Und von der Fähigkeit, diese Vorstellungskraft technisch präzise umzusetzen. Die KI liefert die Pixel. Du lieferst den Sinn. Und solange Maschinen keinen Sinn für Ironie, für Schmerz, für Schönheit oder für den perfekten Moment haben, solange bleibst du im Fahrersitz. Du musst nur lernen, dieses verdammt schnelle Auto zu fahren, anstatt dich weinend auf die Rückbank zu setzen und dich darüber zu beschweren, dass die Landschaft so schnell vorbeizieht. Mach dich an die Arbeit. Es gibt Welten zu erschaffen, und sie warten auf jemanden, der weiß, was er tut.



Es gibt Momente, da muss man einfach dankbar sein. Dankbar dafür, dass ein Weltkonzern wie Adobe sich Gedanken macht. Gedanken darüber, wie man den Alltag von Millionen Menschen leichter machen kann. Und neulich haben sie wirklich geliefert.

Sie haben eine Browser-Erweiterung für Acrobat rausgebracht.

Klingt erstmal so spannend wie Steuererklärung am Sonntagnachmittag. Wer braucht schon eine Acrobat-Erweiterung im Browser? PDFs angucken kann man auch so. Aber halt! In diesem kleinen, unscheinbaren Tool steckt eine Revolution. Eine Funktion, auf die die Welt gewartet hat, ohne es zu wissen.

Ein Rechtsklick auf irgendein Bild im Internet – egal welches, egal woher – und zack: Es landet in einer Web-Version von Adobe Express. Und dort, meine Damen und Herren, gibt es einen magischen Radierer.

Wofür man den braucht? Na klar, um störende Elemente zu entfernen. Stromleitungen aus schönen Landschaften. Pickel aus schönen Gesichtern. Touristen vor dem Eiffelturm. Und – ganz wichtig, quasi als Sahnehäubchen der digitalen Freiheit – Wasserzeichen aus urheberrechtlich geschützten Bildern.

Endlich!

Man muss sich das mal vorstellen: Jahrelang war das Klauen von Bildern mühsam. Richtig harte Arbeit. Man musste Photoshop lernen (teuer!), den Kopierstempel verstehen (kompliziert!) und Geduld haben (langweilig!). Man musste wissen, was eine Bereichsreparatur ist. Man musste zoomen. Man musste Pixel schubsen. Profis haben das natürlich hinbekommen, die haben ihre Tricks und Kniffe. Aber was war mit dem Rest der Welt? Was war mit dem Schüler, der das Foto für sein Referat brauchte und kein Taschengeld für Stockfotos hatte? Was mit dem Marketing-Praktikanten, der den Auftrag bekam „Mach mal schnell was Schönes für Social Media“, aber kein Budget? Die mussten bisher mit hässlichen Wasserzeichen leben oder – Gott bewahre – tatsächlich für Bilder bezahlen.

Das war ungerecht. Das war elitär. Das war eine Hürde, die Adobe nun mit einem eleganten Schwung beseitigt hat.

Adobe hat dieses Unrecht quasi demokratisiert. Mit einem Klick ist das Wasserzeichen weg. Kostenlos. Für jeden, der Chrome installiert hat. Das ist Fortschritt! Das ist Barrierefreiheit! Das ist, als würde man jedem Bürger einen Universalschlüssel für alle Autos in der Stadt schenken, damit niemand mehr zu Fuß gehen muss.

Natürlich gab es ein bisschen Gemecker. Von Fotografen, Illustratoren und anderen Leuten, die komischerweise der Meinung sind, ihre Arbeit sei etwas wert. Die haben sich beschwert, dass Adobe ihnen quasi den Laden ausräumt und die Tür offen stehen lässt. Dass ihre Bilder jetzt Freiwild sind. Dass Adobe, der Partner der Kreativen (so nennen sie sich ja gerne), ihnen in den Rücken fällt.

Aber Adobe wäre nicht Adobe, wenn sie darauf nicht eine brillante Antwort hätten. Sie haben das Tool nicht etwa zurückgezogen. Nein. Sie haben ein Pop-up eingebaut.

Wenn man jetzt ein Bild lädt, kommt ein Fenster: „Achtung, dieses Bild könnte geschützt sein. Bitte frag den Besitzer.“

Das ist genial. Das ist juristische Akrobatik auf höchstem Niveau. Das ist wie ein Schild an einer offenen Banktresor-Tür: „Bitte kein Geld mitnehmen.“

Ich stelle mir vor, wie der Bilderdieb vor dem Bildschirm sitzt. Er hat den Rechtsklick gemacht. Er hat den Radierer ausgewählt. Er will das Wasserzeichen entfernen, weil er das Bild für seine Website braucht und keine Lust hat, 50 Euro dafür zu zahlen. Und dann kommt das Pop-up. Und er denkt: „Oh! Stimmt ja! Das darf ich nicht! Danke, Adobe, dass ihr mich daran erinnert habt. Ich werde jetzt sofort den Fotografen kontaktieren, eine Lizenz kaufen und das Bild legal erwerben.“

Ganz sicher. Genau so wird das ablaufen. In einer Welt voller Einhörner und Regenbögen.

In der echten Welt klickt er auf „Okay“, das Wasserzeichen ist weg, und das Bild ist seins.

Man muss Adobe wirklich bewundern. Sie schaffen den Spagat, uns Kreativen Tools zu verkaufen, mit denen wir unsere Arbeit schützen sollen (Content Credentials, Metadaten, der ganze High-Tech-Kram, den sie uns als die Zukunft des Urheberrechts verkaufen), und gleichzeitig der ganzen Welt Tools zu schenken, mit denen man diesen Schutz umgeht. Das ist Geschäftssinn. Das ist Synergie. Das ist, als würde man Alarmanlagen verkaufen und gleichzeitig Einbruchskurse an der Volkshochschule sponsern.

Und das Beste daran: Es ist alles legal. Oder zumindest in einer Grauzone, in der sich Adobe wohlfühlt. Denn sie stellen ja nur das Werkzeug zur Verfügung. Was der Nutzer damit macht, ist seine Sache. Wenn er damit Wasserzeichen entfernt, ist das böse, aber Adobe hat ja gewarnt. Mit dem Pop-up.

Es ist faszinierend zu beobachten, wie ein Unternehmen, das vom Verkauf von Kreativ-Tools lebt, gleichzeitig die Grundlage für den Wert kreativer Arbeit untergräbt. Wenn jedes Bild kopierbar, bearbeitbar und von Eigentumsmerkmalen befreibar ist – was ist es dann noch wert?

Vielleicht ist das der Plan. Vielleicht will Adobe eine Welt schaffen, in der Bilder keinen monetären Wert mehr haben, sondern nur noch Rohstoff sind. Rohstoff für KI-Modelle. Rohstoff für Memes. Rohstoff für den endlosen Stream an Content, der durch unsere Feeds rauscht.

Und wir Kreativen? Wir sind die Lieferanten dieses Rohstoffs. Wir produzieren, wir laden hoch, wir versehen unsere Werke mit Wasserzeichen in der naiven Hoffnung, dass das irgendwas bringt. Und Adobe gibt uns die Tools dazu. Und dann geben sie dem Rest der Welt die Tools, um unsere Arbeit zu nehmen.

Es ist ein perfekter Kreislauf. Ein Perpetuum Mobile der Entwertung.

Aber hey, wir sollten nicht jammern. Wir haben ja Photoshop. Wir haben Lightroom. Wir haben Premiere. Wir haben die besten Werkzeuge der Welt, um Dinge zu erschaffen, die dann jeder klauen kann. Ist das nicht schön?

Und wer weiß, vielleicht baut Adobe als nächstes ein Feature ein, das automatisch erkennt, wenn ein Bild geklaut wurde, und dem Dieb dann eine Rechnung schickt? Ach nein, das wäre ja schlecht für die User Experience. Das würde ja die 320 Millionen Chrome-Nutzer verärgern. Und die sind wichtiger als die paar Millionen Kreativen, die tatsächlich für Adobe-Software bezahlen.

Also: Danke, Adobe. Danke für den digitalen Bolzenschneider. Danke für das Pop-up, das unser Gewissen beruhigt. Und danke, dass ihr uns immer wieder daran erinnert, wer in dieser Beziehung eigentlich der Boss ist.

Wir sind es nicht.


Der technische Hintergrund des Wahnsinns

Lassen wir die Satire mal kurz beiseite (nur kurz, versprochen) und schauen uns an, was da technisch eigentlich passiert. Weil es wirklich beeindruckend ist, wie nahtlos das funktioniert.

Die Erweiterung klinkt sich in den Browser ein. Chrome, Edge, was auch immer. Sie scannt die Seite. Sie erkennt Bilder. Und sie bietet im Kontextmenü – also da, wo man normalerweise „Bild speichern unter“ oder „In neuem Tab öffnen“ findet – eine neue Option an: „In Adobe Express bearbeiten“.

Klingt harmlos. Klingt praktisch. „Oh, ich will dieses Meme kurz zuschneiden.“ „Ich will diesen Screenshot markieren.“ Dafür ist es gedacht. Sagt Adobe.

Aber die Realität ist: Adobe Express ist mittlerweile ein mächtiges Tool. Es hat Zugriff auf die Firefly-Engine, Adobes hauseigene KI. Und Firefly kann Dinge, die vor zwei Jahren noch Science-Fiction waren.

Generatives Füllen. Generatives Entfernen.

Das bedeutet: Wenn du ein Wasserzeichen hast, das quer über das Bild läuft, halbtransparent, über komplexe Hintergründe – früher war das ein Albtraum zu entfernen. Du musstest stempeln, du musstest Strukturen nachbauen, du musstest Licht und Schatten beachten.

Firefly macht das automatisch. Es guckt sich an, was um das Wasserzeichen herum ist, und berechnet, was darunter sein müsste. Es „halluziniert“ die fehlenden Pixel. Und es macht das verdammt gut.

In den meisten Fällen sieht man hinterher nichts mehr. Keine Kante, keine Unschärfe, keinen Wiederholungs-Effekt wie beim Stempeln. Das Wasserzeichen ist einfach weg. Als wäre es nie da gewesen.

Und das Ganze passiert im Browser. Ohne Installation von schwerer Software. Ohne Login in die Creative Cloud (zumindest für die Basisfunktionen). Ohne Abo.

Das ist die Demokratisierung der Bildmanipulation.

Und ja, das hat Vorteile. Für Otto Normalverbraucher, der schnell mal den Ex-Freund aus dem Urlaubsfoto entfernen will. Für die Oma, die den Daumen auf der Linse wegretuschieren möchte.

Aber für Profis? Für Leute, die von der Exklusivität ihrer Bilder leben?

Für die ist es eine Katastrophe.


Das Wasserzeichen: Ein Relikt aus alter Zeit?

Man muss natürlich fragen: Ist das Wasserzeichen überhaupt noch zeitgemäß?

Viele Fotografen verzichten schon lange darauf. Weil es das Bild hässlich macht. Weil es den Betrachter stört. Weil es – wie wir jetzt sehen – keinen echten Schutz bietet.

Aber es war immer ein Symbol. Ein „Finger weg“. Ein „Das gehört mir“.

Indem Adobe dieses Symbol so leicht entfernbar macht, entwerten sie es nicht nur technisch, sondern auch kulturell. Sie signalisieren: Wasserzeichen sind kein Schutz, sie sind ein Fehler im Bild. Ein Störfaktor. Etwas, das man wegmachen kann und soll.

Das verschiebt die Wahrnehmung.

Wenn ich ein Schloss knacke, weiß ich, dass ich einbreche. Wenn ich eine Tür öffne, die nur angelehnt ist, fühlt es sich weniger kriminell an. Adobe hat aus dem Schloss eine angelehnte Tür gemacht.

Und das Pop-up? Das ist der Zettel an der Tür: „Bitte draußen bleiben.“

Wir wissen alle, wie gut solche Zettel funktionieren, wenn drinnen Freibier steht.


Die Doppelmoral der „Creator Economy“

Adobe liebt das Wort „Creator“. Sie benutzen es in jedem zweiten Satz. „Empowering Creators“. „Tools for Creators“. „The Future of Creativity“.

Sie tun so, als wären sie unser bester Freund. Der Partner, der uns die Werkzeuge gibt, um unsere Träume zu verwirklichen.

Aber wenn es hart auf hart kommt – wenn es um Marktanteile geht, um User-Zahlen, um die Eroberung des Browsers – dann sind wir Creators plötzlich zweitrangig. Dann ist die Masse der Konsumenten (und potenziellen Express-Nutzer) wichtiger als die kleine Gruppe der Produzenten.

Das ist verständlich aus BWL-Sicht. 320 Millionen Browser-Nutzer sind ein riesiger Markt. Wenn man denen Adobe Express schmackhaft machen kann, ist das Milliarden wert.

Aber es ist unehrlich.

Man kann nicht auf der einen Seite den Beschützer der Kreativen spielen und auf der anderen Seite die Werkzeuge verteilen, die deren Arbeit entwerten.

Man kann nicht Content Credentials einführen – dieses hochkomplexe System aus kryptografischen Signaturen, das beweisen soll, wer ein Bild gemacht hat und was damit passiert ist – und gleichzeitig den Radiergummi für Wasserzeichen an jeden verschenken.

Das passt nicht zusammen.


Was das für die Zukunft bedeutet

Wenn wir das zu Ende denken, kommen wir an einen interessanten Punkt.

Wenn Bilder technisch nicht mehr geschützt werden können. Wenn jedes Wasserzeichen entfernbar ist. Wenn jede Metadaten-Signatur gestrippt werden kann (was übrigens auch geht, ganz einfach per Screenshot).

Was bleibt dann?

Dann bleibt nur noch Vertrauen. Und Beziehungen.

Vielleicht ist das die Zukunft der professionellen Fotografie und Illustration. Nicht mehr das Verkaufen von Dateien. Sondern das Verkaufen von Dienstleistung, von Persönlichkeit, von Zugang.

„Du kannst mein Bild klauen, ja. Aber du kannst nicht meine Erfahrung klauen. Du kannst nicht meinen Blick klauen. Du kannst nicht die Sicherheit klauen, dass du rechtlich auf der sicheren Seite bist.“

Vielleicht müssen wir uns darauf konzentrieren. Auf den Wert, der nicht in den Pixeln steckt, sondern im Kontext.

Aber das ist anstrengend. Das ist schwer. Das erfordert Marketing, Branding, Networking.

Das einfache „Ich mache ein Bild, lade es hoch, jemand kauft es“ – das stirbt gerade. Und Adobe hat den Spaten in der Hand.


Die Ironie mit der KI

Es gibt noch eine Ebene, die das Ganze besonders pikant macht.

Adobes KI Firefly wurde mit Bildern trainiert, für die Adobe die Rechte hat. Adobe Stock. Public Domain. Das betonen sie immer wieder. „Unsere KI ist ethisch sauber. Wir klauen nicht von Künstlern.“

Das ist ihr großes Verkaufsargument gegenüber Midjourney und Stable Diffusion, die einfach das ganze Internet gescraped haben.

Adobe sagt: „Wir respektieren Urheberrechte.“

Und dann geben sie uns ein Tool, mit dem wir Urheberrechte verletzen können.

Das ist, als würde ein Bio-Bauer, der stolz darauf ist, keine Pestizide zu verwenden, abends heimlich Glyphosat an seine Nachbarn verkaufen.

„Ja, ich benutze das nicht. Aber wenn ihr es wollt… hier, bitte schön. Aber pssst, lest den Warnhinweis auf der Flasche.“

Es wirkt so, als wüsste die linke Hand bei Adobe nicht, was die rechte tut. Oder als wäre es ihnen egal, solange beide Hände Geld einsammeln.

Die Abteilung für „Creator Trust“ baut Content Credentials.
Die Abteilung für „Growth & User Acquisition“ baut den Wasserzeichen-Radierer.

Und am Ende gewinnt immer Growth.


Ein kleiner Hoffnungsschimmer?

Gibt es Hoffnung? Vielleicht.

Vielleicht merken die Leute, dass geklaute Bilder Probleme machen können. Rechtlich (auch ohne Wasserzeichen ist das Urheberrecht ja gültig). Qualitativ (ein wegradiertes Wasserzeichen hinterlässt Spuren, auch mit KI). Moralisch.

Vielleicht entsteht eine Gegenbewegung. Eine Wertschätzung für das Original. Für das Echte. Für das, was bezahlt wurde.

Aber darauf würde ich nicht wetten.

Die Bequemlichkeit gewinnt meistens. „Kostenlos“ gewinnt meistens. „Einfach“ gewinnt meistens.

Und Adobe hat „kostenlos“ und „einfach“ gerade auf ein neues Level gehoben.


Was wir tun können (außer jammern)

Wir können unsere Bilder nicht mehr technisch schützen. Das ist vorbei. Akzeptieren wir das.

Wir können Adobe nicht ändern. Die sind zu groß, zu mächtig, zu sehr auf Wachstum fixiert.

Wir können nur uns selbst ändern.

Wir müssen aufhören, uns auf Wasserzeichen zu verlassen. Wir müssen aufhören, uns auf Plattformen zu verlassen, die uns nicht gehören.

Wir müssen unsere eigenen Plattformen bauen. Unsere eigenen Communities. Unsere eigenen Beziehungen zu Kunden.

Wir müssen so gut sein, dass die Leute uns bezahlen WOLLEN, auch wenn sie klauen KÖNNTEN.

Das ist schwer. Das ist unfair. Das ist viel verlangt.

Aber es ist die Realität.

Und Adobe? Die werden weiter Tools bauen. Gute Tools. Schlechte Tools. Tools, die uns helfen, und Tools, die uns schaden.

Wir müssen lernen, damit umzugehen. Ohne Illusionen. Ohne falsche Dankbarkeit.

Adobe ist nicht unser Freund. Adobe ist ein Werkzeughersteller.

Und wenn der Werkzeughersteller anfängt, Einbrecher-Tools zu verkaufen, dann sollten wir vielleicht anfangen, bessere Schlösser zu bauen. Oder uns einen Hund zulegen.

Oder einfach aufhören, wertvolle Dinge unbeaufsichtigt ins Internet zu stellen.

Was bei digitaler Kunst natürlich schwierig ist.


Fazit: Die schöne neue Welt

Willkommen in der Zukunft. Einer Zukunft, in der alles machbar ist, alles verfügbar ist und nichts mehr sicher ist.

Einer Zukunft, in der ein Wasserzeichen so viel Schutz bietet wie ein „Betreten verboten“-Schild auf einer Wiese. Man kann es ignorieren. Man kann drüberlaufen. Und jetzt kann man es sogar unsichtbar machen, damit man sich nicht mal mehr schlecht fühlt, wenn man drüberläuft.

Danke, Adobe.

Wirklich. Danke, dass ihr uns die Augen geöffnet habt.

Wir dachten, wir wären Partner.
Jetzt wissen wir, wir sind nur Content-Lieferanten.

Und das ist, auf eine bittere Art, auch eine wertvolle Erkenntnis.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – eingesprochen meistens, wenn ich mich über Branchen-News amüsiere (oder aufrege, je nach Tagesform). Wird transkribiert und mit KI in Form gebracht. Die Ironie, die Satire und die leise Resignation sind hundert Prozent handgemacht und kommen von einem, der seit 20 Jahren Adobe-Kunde ist und sich langsam fragt, wie lange noch.



Es gibt Leute, die reden über Kreativität. Und es gibt Leute, die machen einfach. Seit Jahrzehnten. Ohne zu fragen, ob das gerade Trend ist.

Ich gehöre zur zweiten Kategorie.

Mein Name ist Peter Braunschmid. Die meisten kennen mich als Brownz. Und wenn ich heute zurückschaue auf das, was ich in den letzten vierzig Jahren gemacht habe, dann sieht das auf keinen Fall aus wie ein sauber ausgedruckter Business-Plan. Kein „Jahr 1 Ausbildung, Jahr 3 Praktikum, Jahr 10 Abteilungsleiter.“ Nichts davon.

Es sieht eher aus wie ein Bild, das hundertmal übermalt wurde. Jede Schicht ein Risiko. Jede Schicht eine Entscheidung. Und manche Schichten, die man erst versteht, wenn man weiter draufgemalt hat.

Das ist keine Entschuldigung. Das ist Methode.

Meine Laufbahn ist kein gerader Weg. Sie ist ein Composing. Mit Schnittkanten, Masken, Texturen – und der Fähigkeit, aus Fehlern Stil zu machen. Genau das, was ich seit Jahrzehnten mit Bildern mache, hab ich auch mit meinem Leben gemacht. Manchmal bewusst, manchmal nicht. Aber immer weiter.


1984. Ein Commodore 64. Und keine Ahnung, dass das eine Karriere wird.

Ich fange ganz vorne an.

  1. Ich bin jung, ich bin in Österreich, und ich sitze vor einem Commodore 64. Nach heutigen Maßstäben wäre das nicht mal ein ordentlicher Taschenrechner. Die Farbpalette ist ein schlechter Witz. Die Auflösung ist eine Beleidigung für jeden modernen Bildschirm. Die Disketten haben gerade genug Platz, dass man nachdenken muss, ob sich die Datei lohnt.

Und ich finde das großartig.

Nicht weil ich damals wusste, was daraus wird. Sondern weil mich das Ding fasziniert hat. Weil ich sehen wollte, was möglich ist. Weil es so etwas wie ein digitales Spielfeld war, das es vorher nicht gab.

Was ich in dieser Phase gelernt habe, ist etwas, das ich seitdem nie vergessen habe: Wer in einer begrenzten Umgebung arbeitet, entwickelt keine Angst vor Einschränkungen. Er lernt, sie zu nutzen. Wenn du keine Ebenen hast, baust du Ebenen im Kopf. Wenn du keine perfekten Verläufe hast, erfindest du sie mit Trick und Geduld. Wenn das Ergebnis nicht so aussieht wie der Traum – machst du trotzdem weiter.

Das klingt romantisch, ist aber schlicht Training. Und es erzeugt eine besondere Art von Stolz: nicht auf das Tool, sondern auf das Ergebnis trotz Tool.

Das ist die erste Lektion meiner Biografie. Und ich glaube, sie ist heute relevanter denn je. Weil die Leute gerade alle Werkzeuge haben, die ich mir damals nicht mal vorstellen konnte – und trotzdem oft ratlos vor dem leeren Bildschirm sitzen.


Die Szene, die niemand kannte – und die trotzdem meine erste Kreativschule war

Dann kam der Amiga.

Und mit ihm eine Welt, die heute kaum noch jemand kennt. Die Demo- und Cracking-Szene der späten 80er und frühen 90er war so etwas wie das erste Internet der Kreativen. Kein Algorithmus, keine Follower, keine Likes. Nur eine einzige Frage: Kannst du was liefern?

Ich konnte.

Ich habe in dieser Zeit digitale Bilder verkauft. An Intro- und Cracking-Gruppen, die meine Grafiken als visuelle Identität genutzt haben. Als Schaufenster. Als Erkennungszeichen. Als das, was man heute mit viel Business-Sprache „Branding“ nennen würde.

Das war Jugendkultur, ja. Aber es war auch frühe Kreativökonomie. In dieser Subkultur war Look Währung. Wer liefern konnte, gehörte dazu. Wer nicht liefern konnte, nicht.

Es gab keinen Business-Coach, der mir erklärt hätte, wie das funktioniert. Es gab keinen Algorithmus, der mir gesagt hätte, was gerade gut ankommt. Es gab nur: Auge, Szene, Anerkennung. Oder eben nicht.

Rückblickend war das meine erste kreative Schule. Nicht im romantischen Sinn, sondern im harten Sinn: Du wirst bewertet. Deine Arbeit zählt. Und wenn sie nicht zählt, weißt du es sofort.

Dann kam die Amiga-Zeit mit Spielegrafiken, mit Experimenten, mit Projekten, die nicht immer fertig wurden. Das sage ich bewusst so. Nicht alle Projekte wurden fertig. Ich hab das früher vielleicht als Schwäche gesehen. Heute sehe ich es anders.

„Nicht fertig werden“ ist oft Forschung. Du gehst rein, du lernst, du nimmst das Material mit. Und manchmal baust du Jahre später aus diesem unfertigen Material etwas, das du vorher nicht hättest bauen können.


Der Wechsel: Von der Chemie in die Bilderwelt

Jetzt kommt der Teil meiner Geschichte, über den ich manchmal schmunzeln muss.

Ich bin ausgebildeter Chemielaborant.

Ja, wirklich.

Und dann habe ich 1997 den Schritt gemacht, der alles verändert hat. Ich bin in die Film- und Agenturwelt gewechselt. Montevideo-Film, Monte-Projects, Event- und Werbeagenturarbeit, Museumsprojekte.

Das Jahr 1997 steht deshalb auf meinem Blog als Zeitstempel: „Fine Digital Art since 1997.“ Das ist kein nostalgischer Slogan. Das ist eine Ortsangabe. Eine Markierung, die sagt: Hier hat sich was entschieden.

1997 war „digital“ noch nicht bequem. Photoshop war in Österreich mehr Mythos als Alltag. Es gab kein YouTube mit Tutorials, kein Reddit mit Tipps, kein Instagram mit Inspiration auf Abruf. Wenn du nicht wusstest, wie was ging, musstest du es rausfinden. Durch Ausprobieren. Durch Scheitern. Durch Weitermachen.

Und die Agenturen haben mir das auf ihre eigene, manchmal brutale Art beigebracht.

Weil Agenturarbeit das größte Missverständnis über Kreativität zerstört: dass Ideen das Problem seien.

Ideen sind billig. Umsetzung ist teuer.

Umsetzung bedeutet: saubere Kanten, stimmige Lichtlogik, konsistente Farben, glaubwürdige Perspektiven. Es bedeutet, dass das Bild nicht nur im Kopf funktioniert, sondern auch im Druck, im Banner, im Museumssaal, in der Präsentation vor Menschen, die nicht fragen, wie schön dein Prozess war, sondern ob es „passt.“

Der Kunde will das morgen früh. Das Licht stimmt nicht. Die Perspektive passt nicht. Der Hintergrund ist falsch. Und du löst es trotzdem.

Wer solche Jahre überlebt, hat ein anderes Verhältnis zum Wort „Look.“ Look ist dann nicht Geschmack, sondern eine Reihe von Entscheidungen unter Druck.

Das war meine eigentliche Ausbildung. Nicht der Lehrplan, nicht die Schule, nicht die Zertifikate. Sondern diese Jahre in Agenturen, wo jemand auf dich zeigt und sagt: Ich brauch das bis morgen.

Und du lieferst.


Die Community-Zeit: Bevor irgendjemand Likes kannte

Anfang der 2000er passiert etwas Seltsames.

Menschen fangen an, Bilder ins Internet zu stellen. Ohne zu wissen, was das bedeutet. Ohne Plan, ohne Strategie, ohne Social-Media-Manager im Hintergrund.

Ich bin dabei. Auf U-Boot – für alle, die den Namen nicht kennen: eine Plattform, die von 1999 bis 2013 existiert hat und zwischenzeitlich Millionen registrierter Nutzer im deutschsprachigen Raum hatte. Profile, Gästebücher, Bildalben, Foren. Heute klingt das wie Archäologie. Damals war es revolutionär.

Und diese Zeit hat mich geprägt auf eine Art, die ich damals nicht mal benennen konnte.

In dieser Community habe ich begriffen, dass Wissen keine Einbahnstraße ist. Dass wenn du zeigst, wie du was machst, das nicht dein Können schmälert. Sondern vermehrt.

Die Leute wollten wissen: Welche Ebenen? Welche Maske? Wie hast du das gemacht? Welche Technik steckt dahinter?

Und ich habe geantwortet. Immer. Weil ich selbst so angefangen habe – von anderen zu lernen, Sachen nachzumachen, zu verstehen, bevor ich es selbst gemacht habe.

Das ist der Ursprung von allem, was später kommt. Das Teilen von Wissen ist nicht Altruismus bei mir. Es ist Überzeugung. Wer sein Handwerk wirklich beherrscht, hat keine Angst davor, es zu zeigen. Im Gegenteil.

Und in dieser Phase entstehen auch die ersten richtigen Gemeinschaften. Nicht im Social-Media-Sinn. Sondern im echten Sinn: Menschen, die zusammen etwas entwickeln. Zusammen besser werden. Zusammen eine Ästhetik schaffen.

Das waren die Vorfahren heutiger Creator-Communities. Nur ohne den Business-Layer drüber.


Photoshop, CorelDRAW und die Frage, welches Werkzeug das richtige ist

Mit dem PC verschiebt sich meine Geschichte von Szene zu Beruf. CorelDRAW ist eine Zwischenstation. Dann kommt Photoshop.

Und Photoshop bleibt.

Nicht weil ich keinen anderen gewählt hätte. Sondern weil Photoshop in dieser Zeit das war, was ich brauchte: ein Werkzeug, das mit meiner Denkweise übereinstimmt. Ebenen, Masken, Blendmodi, Schichten. Ich denke in Schichten. Ich habe immer in Schichten gedacht, auch bevor es Photoshop gab. Der Commodore 64 hat mich gelehrt, Ebenen im Kopf zu bauen. Photoshop hat mir gezeigt, dass man das auch auf dem Bildschirm machen kann.

Das klingt simpel. Aber es ist eigentlich alles.

Wer Photoshop wirklich versteht, versteht es nicht als Programm. Er versteht es als Denkmodell. Als eine Art, Probleme zu lösen. Als eine Sprache, in der man visuelle Behauptungen formuliert.

Und ich formuliere seitdem täglich in dieser Sprache.


Vom Forum zur DVD: Als Content noch auf Plastik gebrannt wurde

Um 2005, 2006 beginne ich, Videotrainings ernst zu nehmen.

Nicht weil jemand gesagt hat, dass das eine gute Idee ist. Sondern weil die Fragen aus der Community nicht weniger werden. Weil das Bedürfnis nach strukturiertem Wissen wächst. Weil ich merke, dass ein Forum-Post nicht ausreicht, um wirklich zu erklären, wie etwas funktioniert.

2013 erscheint dann das erste große Video-Training unter dem Label Galileo Press: „Faszinierende Photoshop-Welten mit Peter Brownz Braunschmid.“ DVD-ROM, Komplettworkshop, alles auf einem Datenträger.

Das klingt heute nach Archäologie. DVD-ROM. Ich weiß.

Aber die DVD-Ära hat mich etwas gelehrt, das ich nicht missen möchte: Sie hat mich gezwungen, Dinge zu Ende zu denken.

Wenn du ein Training auf Datenträger veröffentlichst, kannst du nicht am nächsten Tag einen Patch nachliefern. Kein Update, kein „in der nächsten Version erklären wir das besser.“ Du musst Inhalte so bauen, dass sie ohne Kontext bestehen. Dass jemand die Scheibe einlegt, alleine zu Hause sitzt, und trotzdem versteht.

Das ist didaktisches Handwerk. Und didaktisches Handwerk ist verwandt mit Bildhandwerk.

Beides ist Struktur. Beides ist die Fähigkeit, Komplexität so zu organisieren, dass jemand anderes sie benutzen kann. Beides verlangt, dass du weißt, was wichtig ist und was nicht. Dass du Prioritäten setzt. Dass du weglässt, was ablenkt.

Wer das kann, kann auch Bilder machen. Und wer Bilder machen kann, kann das meistens auch erklären.


DOCMA und die Fachmedien: Eine lange Zusammenarbeit

Parallel dazu entstehen die Artikel. In DOCMA, der wichtigsten deutschsprachigen Fachzeitschrift für digitale Bildbearbeitung. In DigitalPHOTO. In Photoshop-Magazinen bei falkemedia.

DOCMA ist für mich mehr als ein Publikationsort. Es ist eine Verbindung zur Gemeinschaft der Menschen, die das, was ich mache, wirklich verstehen. Die nicht fragen, ob das „KI“ ist oder „echte Kunst“, weil sie wissen, dass diese Frage die falsche ist.

Mein Porträt-Workflow wird in DOCMA auf drei Grundschritte heruntergebrochen: Raw-Entwicklung, Textur-Überlagerung, Detailverstärkung. Dazu kommen Downloadpakete mit Presets, Texturen, Videos. Ganze Heftausgaben tragen meinen Workflow als Titelthema.

In DOCMA 98 erscheint „Brownz‘ Porträt-Workflow.“ In DOCMA 99 die „Brownz-Vorgaben.“ In DOCMA 100 gibt es dann einen Blick zurück – mit einem augenzwinkernden Verweis auf „100 Jahre Brownz-Art.“

Das ist kein Jubiläumswitz. Das ist eine Anerkennung, die ich nicht als selbstverständlich nehme. Brownz ist in dieser Szene nicht Gast. Er ist Bestandteil. Das stimmt, und das bedeutet mir was.

In DOCMA werden außerdem „Brownz-Vorgaben“ und Workflows dokumentiert, teils als Gratis-Inhalte, teils als Premium-Pakete. Das ist die Fortsetzung dessen, was in den Community-Foren begann: Wissen in Umlauf bringen. Nicht als Marketing, sondern als Haltung.

In DigitalPHOTO erscheint am 18. November 2016 ein Artikel von mir: „So erstellen Sie ein surreales Fantasy Composing.“ Ich beschreibe darin sehr konkret meine Vorgehensweise. Inspiration sammeln – ein Ordner als Ideenfundus. Austausch mit dem Model, weil das Bild ohne diesen Dialog nicht funktioniert. Shooting in zwei Teilen, weil ich Model und andere Elemente getrennt fotografiere und getrennte Elemente später mehr Freiheit geben. Fotografieren vor grauem Hintergrund, damit das Freistellen sauber wird.

Das klingt nicht glamourös. Soll es auch nicht. Das ist Produktionsrealität. Und wer meine Arbeit verstehen will, muss verstehen, dass bei mir Planung und Ausführung zusammengehören. Das Bild fängt nicht in Photoshop an. Es fängt mit einem Ordner voller Inspiration und einem Gespräch mit dem Model an.

In der falkemedia-Photoshop-Ausgabe 04/2013 gibt es einen Making-of-Workshop zu einem „Photoshop-Wolpertinger“ – eine Montage aus zwei Tierfotos als Einstieg in Ebenen und Masken. Was lustig klingt, ist eigentlich der Kern meines Ansatzes: Ich nehme zwei Dinge, die nicht zusammengehören, und mache sie so glaubwürdig, dass dein Gehirn kurz Ja sagt. Das ist Compositing. Das ist das Handwerk hinter den Bildern.


Wie ein Brownz-Bild wirklich entsteht

Ich möchte an dieser Stelle kurz innehalten und erklären, wie mein Workflow wirklich aussieht. Nicht als Geheimnistuerei, sondern weil ich glaube, dass das Verstehen des Prozesses genauso wichtig ist wie das Ergebnis.

Es fängt mit Sammeln an.

Immer.

Ich habe Ordner mit Inspirationsbildern. Nicht weil ich keine eigenen Ideen hätte, sondern weil Kombinieren die Grundgeste von Kreativität ist. Wer einen Fundus hat, ist nicht mehr abhängig vom Moment. Er kann kombinieren, schichten, übersetzen. Das ist keine Schwäche. Das ist Methode.

Dann kommt der Dialog. Mit dem Model, mit dem Motiv, mit der Idee. Ich habe das in DigitalPHOTO geschrieben und ich sage es hier nochmal: Der Austausch ist wichtig. Nur so kann das Bild funktionieren. Eine Pose, die das Model nicht trägt, trägt auch das Bild nicht. Eine Stimmung, die nicht verhandelt wurde, wirkt im Bild aufgesetzt. Ich nehme mir diese Zeit. Immer.

Dann das Shooting. Meistens getrennte Elemente. Model hier, weiteres Material da, beides vor grauem Hintergrund, damit das Freistellen sauber wird. Das klingt unromantisch – und das ist es auch. Es ist Investition in spätere Freiheit. Wer jetzt sauber arbeitet, kann später alles machen. Wer jetzt schludert, kämpft nachher mit jeder Maske.

Danach erzeuge ich nicht eine Raw-Entwicklung, sondern mehrere. Verschiedene Stimmungen, verschiedene Klimata, verschiedene Richtungen. Und dann schichte ich sie. Ebenen, Blendmodi, Masken. Das ist nicht „einen Look anwenden.“ Das ist Regie. Das ist das Entscheiden, was im Bild wichtig sein darf und was nicht.

Dann Textur. Bei mir ist Textur keine Dekoration. Sie ist Atmosphäre. Sie ist die unsichtbare Schicht, die ein Bild von „clean“ zu „lebt“ kippt. Eine gute Textur macht ein Bild nicht komplizierter. Sie macht es echter.

Dann Detailverstärkung. Mikrokontrast, lokale Schärfe, Akzente da, wo das Auge hingehen soll. Das ist die Phase, in der das Bild aufwacht.

Und dann die entscheidende Frage, die ich mir bei jedem Bild stelle: Stimmt die Physik?

Passt das Licht? Kommen die Schatten von der richtigen Seite? Ist die Perspektive glaubwürdig? Funktioniert das Bild, wenn man es sich vorstellt, als wäre es eine Fotografie?

Diese Frage ist der Kern. Wer sie nicht stellt, baut Effekte. Ich baue Bilder.


Synthografie: Was das Wort bedeutet und warum ich es brauche

Irgendwann brauchte ich ein Wort für das, was ich mache.

Nicht „Fotomontage“ – zu eng. Nicht „digitale Kunst“ – zu weit. Nicht „KI-Kunst“ – komplett falsch.

Synthografie.

Hybrid aus Fotografie, Malerei, digitalen Tools, KI-Komponenten und Photoshop-Kontrolle. Ein Begriff, der sagt: Das hier ist eine Synthese. Nicht eine Sache, sondern viele Dinge zusammen, die erst gemeinsam das werden, was sie sein sollen.

Auf Threads beschreibe ich mich so: „Photoshop & Synthography. DigiArt. DarkArt. Der aus der DOCMA.“

Das ist ein kurzer Satz. Aber er enthält alles: Technik, Verfahren, Genre, Reputation.

Ich verwende KI als Schicht, nicht als Ersatz. Ich nutze generative Tools da, wo sie helfen – und behalte die Kontrolle da, wo sie entscheidet. Der Output interessiert mich nur, wenn er Entscheidungen trägt. Wenn ich sehen kann, dass da jemand – ich – etwas gewollt hat.

Das unterscheidet Synthografie von dem, was viele „KI-Kunst“ nennen.

KI-Kunst ist oft: Prompt rein, Bild raus, posten.

Synthografie ist: Konzept, Dialog, Shooting, Rohmaterial, Entwicklung, Schichtung, Textur, Kontrolle, Verfeinerung, Entscheidung.

Der Unterschied ist nicht das Tool. Der Unterschied ist der Anspruch.

Und in einer Zeit, in der jeder ein Bild generieren kann, ist dieser Anspruch das, was zählt.


Physische Werke in einer digitalen Welt: Warum ich Unikate baue

Jetzt wird es für manche vielleicht überraschend.

Ich, der Mann, der seit 1984 digital arbeitet, der Photoshop kennt wie seine Hosentasche, der KI-Tools einsetzt bevor die meisten wussten, wie man das buchstabiert – ich verkaufe meine Arbeiten als physische Unikate.

Auf brownzart.com sind die Werke keine digitalen Dateien. Sie sind Objekte. Synthografie-Basis, aus Handzeichnungen und Foto-Inputs entwickelt, anschließend mit Acryl veredelt. Fine-Art-Print auf William Turner Büttenpapier. Meistens 60 x 90 cm. Handsigniert. Mit Echtheitszertifikat.

Und dann dieser Satz, der alles sagt: „Kein Reprint. Kein zweites Mal.“

Das ist eine bewusste Entscheidung. Eine Gegenbewegung.

In einer Welt, in der alles endlos kopierbar ist, in der ein digitales Bild millionenfach geteilt werden kann ohne dass es sich verändert oder erschöpft, baue ich Seltenheit. Nicht über Blockchain-Rhetorik, nicht über NFT-Spielchen, nicht über künstliche Verknappung.

Sondern über das simpelste Prinzip: Es existiert als Objekt. Einmal. Und wenn es weg ist, ist es weg.

Das klingt altmodisch. Und genau deshalb funktioniert es.

Dazu kommt das Format, das ich „Limited. Iconic. XOXO.“ nenne. Ein Werk, einen Monat, dann weg. Keine zweite Chance, kein Reprint, keine spätere Edition. Das zwingt zur Entscheidung. Und Entscheidungen sind das, was digitale Beliebigkeit meistens nicht produziert.

Ich baue damit etwas, das in der digitalen Kunstwelt selten geworden ist: Vergänglichkeit. Das Gefühl, dass etwas jetzt da ist und nachher nicht mehr. Das ist kein Trick. Das ist eine Aussage über den Wert von Dingen.


Das Wissen als Ökosystem

Neben den Unikaten gibt es das Wissen.

Was früher DVD war, ist heute der Brownz Hub. Ein Jahresabo. Ein „lebendiger Dropbox-Ordner“, der sich ständig füllt. Presets, Texturen, Pinsel, PSD-Strukturen, Videos. Über 400 GB Arbeitsdaten.

Das ist nicht Content im üblichen Sinn. Das ist Produktionskapital.

Der Unterschied ist wichtig: Tutorials schaut man sich an und vergisst sie. Werkzeuge benutzt man jahrelang. Presets, Texturen, Pinsel, PSD-Strukturen – das sind Dinge, die in neuen Bildern immer wieder auftauchen. Die sich verbinden mit neuen Ideen und neuen Projekten. Die mit einem wachsen.

Auf brownzart.com gibt es konkrete Optionen: Digitaler Zugang für 49 Euro, klassisch auf DVDs oder USB-Stick für 69 Euro, und ein „Brownz XXL Archiv“ von über 400 GB auf einer 500-GB-USB-Festplatte für 250 Euro.

Das sind keine abstrakten Pakete. Das sind Archive. Bibliotheken. Ich denke in Datenschichten, nicht nur in Bildschichten. Wissen ist bei mir nicht nur ein Video. Wissen ist ein Bestand. Und wer in einer kreativen Arbeit wirklich produktiv sein will, braucht Bestände, auf die er zurückgreifen kann.

Das Coaching-Angebot ist die dritte Säule: Ein Tag Personal Coaching in Linz, 10 bis 16 Uhr, inklusive über 400 GB Arbeitsdaten und allen BrownzArt Videos für 444 Euro. Für Wiederholungstäter oder Menschen, die das Archiv schon haben, gibt es günstigere Optionen.

„FULL SCALE PHOTOSHOP. 100% Brownz. NO SECRETS.“

Das ist kein Werbeslogan. Das ist eine Haltung. Die Haltung eines Handwerkers, der weiß, dass Geheimnisse nichts bringen. Weil Qualität sowieso keine Frage von Tricks ist. Weil das Handwerk für jeden lernbar ist, der es wirklich lernen will.

Und weil ich selbst so angefangen habe: von anderen lernen, nachfragen, nachbauen, verstehen.


Das Archiv als Superkraft

Es gibt etwas in meiner Arbeitsweise, das ich lange nicht bewusst benennen konnte, das aber vielleicht das Wichtigste ist: Ich denke in Archiven.

Nicht nur in Werken. In Beständen.

Das sieht man an den Zahlen – 400 GB Arbeitsdaten sind kein Zufall. Das sieht man an der Sprache meines Blogs – „Archiv“, „Ordner“, „Bibliothek.“ Das sieht man an der Asset-Mentalität auf DeviantArt, wo ich als „BrownzArt“ mit umfangreichen Galerien präsent bin, darunter Serien zu „Angels“, „Stock and Freeloads“ und Fantasy-Arbeiten, also nicht nur fertige Werke, sondern auch Texturen, PSDs, Backdrops. Dinge, die andere benutzen können.

Das ist eine alte Szene-Haltung, die ich nie abgelegt habe: Wenn eine Ästhetik leben soll, muss sie in Umlauf gehen.

Und für mich persönlich bedeutet das: Ich muss nicht bei jedem Projekt bei Null anfangen. Ich beginne bei Schicht 37. Und Schicht 37 ist meistens spannender als Schicht 1.

Das ist eine stille Superkraft. Wer ein Archiv hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Das macht dich in gewisser Weise unkaputtbar.


Der Blog als Atelier

Mein Blog brownz.art ist dabei mehr als „Blog.“

Er ist eine Werkzeugkiste. Mit Kategorien wie BildLooks, Texturen, Brushes, Plugins, PS Actions, Tools, Making-of. Und daneben die essayistischen Rubriken Kontext und Gelebt. Das ist nicht die Struktur eines Portfolios. Das ist die Struktur eines Ateliers, das neben Leinwänden auch Schubladen hat. Und jede Schublade enthält Dinge, die man später wieder braucht.

In der Kategorie „Art Of Brownz“ sind Werk und Erzählung eng verwoben. Nicht nur Bildposts, sondern auch Texte über Fanprojekte, über Chaos als Methode, über Nächte am Rechner.

In einem Beitrag über „Star Wars Madness“ – einem Fanvideo, das ich in einer Nachtschicht zusammengebaut habe – schreibe ich: „Das Chaos ist nicht der Bug. Das Chaos ist das Feature.“

Das ist, nebenbei, eine sehr zeitgenössische Aussage über generative KI. Wer mit diesen Tools arbeitet, kennt das Chaos. Die Frage ist nur, ob man es wegretuschiert oder in Stil verwandelt.

Ich wähle immer Stil.

Und in einem meiner programmatischen Texte formuliere ich die Grundhaltung, die das alles zusammenhält: „Alles ist Input.“

Damit meine ich kein leeres Motivations-Mantra. Ich meine eine konkrete Praxis: sammeln, archivieren, verdichten. Ein Werbeplakat, das halb abgerissen ist. Eine Textur von einer Wand. Ein Lichtreflex am Asphalt. Ein Foto, das technisch „misslungen“ ist, aber eine Stimmung hat. Alles kann später Schicht werden.

Diese Haltung hat eine Nebenwirkung: Sie macht dich unkaputtbar. Wer immer Input hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Und wer immer weiterbauen kann, kommt nie wirklich zum Stillstand.


Die Brownz-Sprache: Halb Manifest, halb Augenzwinkern

Es gibt noch etwas, das ich erwähnen möchte. Nicht als Eigenlob, sondern als ehrliche Reflexion.

Ich habe über die Jahre eine eigene Sprache entwickelt. Eine Stimme. Die sich durch alles zieht, was ich schreibe und zeige.

Auf meiner „Limited. Iconic. XOXO.“-Seite steht wörtlich: „Kein Reprint. Kein NFT.“ Und danach: weg.

Das ist keine Hochglanz-Galerie-Sprache. Das ist kein akademischer Kunsttext. Das ist direktes Reden. Mit Haltung und mit einem Augenzwinkern. Ich nehme die eigene Kunst ernst, aber ich nehme die Kultur, in der sie verkauft wird, nicht als sakral.

Ich nenne mich selbst manchmal „Der Brownz.“ Weil dieser Name eine Figur ist, die größer ist als mein bürgerlicher Name. Weil Brownz eine Haltung hat, die Peter Braunschmid manchmal erst entwickeln musste.

Und ich glaube, dass genau diese Sprache einen Unterschied macht. In einer Branche, in der alle versuchen, „professionell“ zu klingen, klingt jemand, der einfach redet, wie er denkt, heraus. Nicht laut. Aber klar.

Das zieht Menschen an, die nicht wissen wollen, welche Blendmodes ich verwendet habe, sondern ob das Bild ihnen etwas gibt. Und dann, für die Menschen, die es wissen wollen, liefere ich die Blendmodes gleich mit. Als Presets, als Download, als Coaching.

Das ist das Modell. Und es funktioniert, weil die drei Säulen sich nicht kannibalisieren: Das Kunstwerk bleibt rar und wertig, das Wissen bleibt zugänglich und lebendig, und der direkte Kontakt beim Coaching bleibt das Premium. Jede Säule stützt die anderen.


Warum das 2026 wichtig ist

Zum Schluss möchte ich noch etwas sagen, das über meine persönliche Geschichte hinausgeht.

In der Gegenwart ist Bildproduktion so leicht geworden, dass viele Menschen den Wert von Bildproduktion vergessen. Ein Prompt, ein Klick, ein Output. Doch je leichter das Erzeugen wird, desto wichtiger wird das Kuratieren. Nicht jedes Bild ist ein Werk. Nicht jeder Output ist eine Entscheidung.

Mein Modell – Unikat-Logik, Asset-Kultur, Workflow-Disziplin – ist eine Antwort auf diese Entwertung. Ich setze nicht auf Masse, sondern auf Autorenschaft.

Das ist nicht nostalgisch. Das ist zeitgemäß.

Weil die Frage, die alle stellen – „Kann ich das auch mit KI machen?“ – die falsche Frage ist. Die richtige Frage ist: „Weiß ich, was ich will, bevor das Tool anfängt?“

Wer das weiß, kann jedes Tool benutzen. Wer das nicht weiß, wird vom Tool benutzt.

Ich nutze Tools. Seit 1984. C64, Amiga, PC, Photoshop, CorelDRAW, KI-Generatoren, JSON-Programmierung im Dialog. Jedes davon war ein Werkzeug, das ich eingesetzt habe, um etwas zu sagen. Nie umgekehrt.

Das ist, glaube ich, das Einzige, das wirklich zählt.

Nicht wie lange man dabei ist. Nicht wie viele Tools man kennt. Nicht wie viele Follower man hat.

Sondern ob man weiß, was man sagen will. Und ob man es sagt.

Ich sage es seit 1984. Und ich habe nicht vor aufzuhören.


Peter „Brownz“ Braunschmid ist unter brownzart.com und brownz.art zu finden. Wer tiefer einsteigen will: Der Brownz Hub, die Coachings und die Unikat-Galerie sind dort dokumentiert. Kontakt: brownz@brownz.art



Spoiler: Es ist meistens schlimmer als in jedem Horrorfilm.

Ich kenn das Gefühl. Du lernst jemanden kennen. Kreativ, charmant, interessant. Redet über Kunst, über Vision, über Werte. Du denkst: Endlich. Endlich jemand, der es versteht. Endlich jemand, mit dem man arbeiten kann. Vielleicht sogar ein Freund.

Und dann fällt die Maske.

Und du stehst da wie der Typ in einem Horrorfilm, der gerade gemerkt hat, dass das freundliche Nachbarskind die ganze Zeit ein Küchenmesser hinterm Rücken hatte.


Warum ausgerechnet Kreative?

Das ist die Frage, die mich schon jahrelang beschäftigt. Warum ist das Maskenphänomen im Kreativbereich so ausgeprägt? Warum gibt es in Künstlerkreisen, in der Fotoszene, in Designergruppen, in allen möglichen kreativen Communities so unglaublich viele Menschen, die eine Persona aufgebaut haben, die mit ihrer tatsächlichen Persönlichkeit ungefähr so viel zu tun hat wie ein Stockfoto mit echter Emotion?

Ich hab ein paar Theorien. Und zwanzig Jahre Erfahrung, die diese Theorien ziemlich gut unterstützen.

Theorie Nummer eins: Kreativität legitimiert Exzentrik.

In kaum einem anderen Bereich ist es so akzeptiert, seltsam zu sein. Schwierig. Kompromisslos. Eigen. Das schafft eine perfekte Deckung für Leute, die eigentlich einfach nur unangenehm sind, aber das gerne als künstlerische Eigenheit verkaufen.

„Ich bin halt so.“ Nein. Du bist ein Arsch. Das ist was anderes.

Aber die kreative Bubble verzeiht das. Manchmal sogar feiert sie es. Der schwierige Künstler als Mythos. Der unnahbare Fotograf als Marke. Der exzentrische Designer als Legende.

Herrliche Deckung für echte Monster.

Theorie Nummer zwei: Die Maske ist das Produkt.

Im Kreativbereich verkaufst du dich selbst. Deine Persönlichkeit ist Teil deines Brandings. Deine Geschichte, deine Werte, dein Stil – das ist nicht nur du, das ist Marketingmaterial.

Also wird aus der Maske ein Produkt. Fein poliert, konsistent in allen Kanälen, perfekt auf die Zielgruppe abgestimmt. Der authentische Künstler. Die nahbare Fotografin. Der zugängliche Designer.

Und irgendwann verwechseln manche Leute die Maske mit sich selbst. Und irgendwann passt die Maske nicht mehr. Und dann knallt sie runter.

Theorie Nummer drei: Kreativität kommt oft mit Wunden.

Das klingt jetzt klischeehaft, aber lass mich das ausführen.

Viele Menschen, die kreativ arbeiten, sind das nicht zufällig. Kreativität ist oft ein Ventil. Ein Weg, Erfahrungen zu verarbeiten, die anders nicht verarbeitbar sind. Schmerz in Kunst zu verwandeln. Verwirrung in Struktur.

Das bedeutet: Viele Kreative tragen echte, tiefe, unverarbeitete Sachen mit sich rum. Und die Maske ist oft der Schutz davor, dass das jemand sieht.

Das ist menschlich. Das ist verständlich. Das verdient Mitgefühl.

Aber es erklärt, warum der Moment, in dem die Maske fällt, so dramatisch ist. Weil darunter nicht nur eine andere Persönlichkeit wartet. Sondern manchmal ein komplettes unbearbeitetes Chaos.


Die Typen, die ich kenne

Zwanzig Jahre Kreativbranche. Ich hab ein paar Archetypen kennengelernt.

Der Visionär.

Redet nur über seine großen Pläne. Projekte, die die Welt verändern werden. Kollaborationen, die er andenkt. Ideen, die gerade noch in Entwicklung sind. Immer kurz vor dem Durchbruch. Immer knapp davor.

Wenn die Maske fällt, stellt sich raus: Es gibt keine Projekte. Es gibt nie Projekte. Es gibt nur Reden über Projekte. Weil Reden billiger ist als Machen und weil man für nicht fertige Projekte nicht kritisiert werden kann.

Diese Spezies ist harmlos, aber zeitfressend. Ich hab Jahre meines Lebens in Gesprächen mit Visionären verbracht, die nichts produziert haben.

Die Mentorin.

Bietet Rat an, ob man ihn will oder nicht. Weiß alles besser. Hat mehr Erfahrung. Hat schon alles gesehen. Ist großzügig mit Einschätzungen, die niemand bestellt hat.

Wenn die Maske fällt: Der ganze Rat war nie für dich. Er war dafür, sich selbst groß zu fühlen. Das Mentoring war Kontrolle in Lehrpersonen-Kostüm.

Diese Spezies ist gefährlicher, weil sie echten Schaden anrichten kann. Besonders bei Anfängern, die tatsächlich Rat suchen und stattdessen Abhängigkeit bekommen.

Der Kollaborateur.

Will immer mit allen zusammenarbeiten. Findet jede Idee toll. Ist enthusiastisch, zugänglich, begeistert. Sagt Ja zu allem.

Wenn die Maske fällt: Liefert nichts. Nimmt alles. Taucht auf, wenn es was zu nehmen gibt, und verschwindet, wenn es was zu geben gilt. Die Kollaboration war immer eine Einbahnstraße, nur dass du zu lange gebraucht hast, das zu merken.

Diese Spezies ist besonders schwer zu erkennen, weil die Maske so verdammt sympathisch ist.

Der Vernetzer.

Kennt jeden. Erwähnt ständig Namen. Ist immer gerade von einem wichtigen Meeting zurückgekommen. Lädt überall Leute ein, vorzugsweise zu Dingen, die er selbst nicht bezahlt.

Wenn die Maske fällt: Die Verbindungen sind oberflächlicher als ein Like auf Instagram. Der Name, den er bei jedem Gespräch erwähnt, kennt ihn kaum. Das Netzwerk ist Fassade, dahinter ist wenig Substanz.

Der Kämpfer für die Sache.

Das ist mein Lieblingsarchetype, weil er am schwierigsten zu durchschauen ist.

Redet lautstark über Werte. Über Fairness, über Solidarität, über Gemeinschaft. Ist immer auf der richtigen Seite. Sagt die richtigen Sachen. Schreibt die richtigen Posts.

Wenn die Maske fällt, und die fällt immer irgendwann: Das waren alles Positionen, keine Überzeugungen. Performances, keine Werte. Weil wenn es persönlich wird, wenn es was kostet, wenn die eigene Bequemlichkeit auf dem Spiel steht, dann sieht die Solidarität plötzlich ganz anders aus.

Diese Spezies ist die gefährlichste. Weil man ihr am meisten vertraut.


Warum die Maske überhaupt irgendwann fällt

Das ist eigentlich die interessanteste Frage.

Masken kosten Energie. Unglaublich viel Energie. Eine Persona aufrechtzuerhalten, die nicht die eigene ist, ist erschöpfend. Du musst dich ständig erinnern, wer du sein sollst. Du musst konsistent sein über Jahre, über Plattformen, über Beziehungen hinweg.

Das hält keiner ewig durch.

Irgendwann kommt der Moment der Erschöpfung. Oder des Stresses. Oder des Erfolgs, ironischerweise. Weil Erfolg oft die Kontrolle lockert. Weil man sich denkt: Ich hab’s geschafft, jetzt muss ich nicht mehr so tun als ob.

Oder es kommt ein Trigger. Eine Krise. Eine Ablehnung. Ein Konflikt. Etwas, das die sorgfältig aufgebaute Konstruktion erschüttert.

Und dann fällt die Maske. Manchmal langsam, manchmal auf einmal.

Und was darunter zum Vorschein kommt, ist selten das, was man erwartet.


Der Slasher-Vergleich, der erschreckend gut passt

Ich hab den Slasher-Vergleich in der Überschrift nicht zufällig gewählt.

Kennt ihr diese Szene in jedem guten Horrorfilm? Da ist dieser nette Typ. Freundlich, hilfsbereit, immer da wenn man ihn braucht. Alle mögen ihn. Und dann – irgendwann, aus irgendeinem Grund, meist im dritten Akt – dreht er sich um und es ist Michael Myers.

Und rückblickend waren alle Zeichen da. Die kleinen Momente, die komisch wirkten. Die Reaktionen, die nicht ganz stimmten. Die Sätze, bei denen man kurz dachte: Hm. Ist aber schnell wieder weggegangen.

Genau so ist das mit Masken im Kreativbereich.

Rückblickend sieht man immer: Die Zeichen waren da.

Das eine Mal, wo er auf Kritik reagiert hat wie auf einen persönlichen Angriff. Das andere Mal, wo sie plötzlich kalt wurde, als das Gespräch in ihre Richtung ging. Der Moment, wo er über einen Kollegen geredet hat, und da war was in der Stimme, das nicht stimmte.

Man hat es gesehen und nicht gesehen.

Und dann fällt die Maske und man steht da wie die Protagonistin im Horrorfilm, die gerade ihren besten Freund ohne Gesicht vor sich hat und denkt: Ich hätte früher laufen sollen.


Was man tun kann – und was man nicht kann

Okay, jetzt wird es praktisch.

Zeichen erkennen, bevor die Maske fällt:

Wie jemand über andere redet, wenn er denkt, man hört nicht hin. Das ist das zuverlässigste Frühwarnsystem. Jemand, der hinter dem Rücken von Kollegen redet, redet hinter deinem auch. Garantiert.

Wie jemand mit Kritik umgeht. Nicht mit fremder Kritik – mit der an ihm selbst. Das ist aufschlussreich. Wer bei der kleinsten Anmerkung hochgeht oder komplett abblockt, hat eine Maske, die er schützt.

Wie jemand in Stressphasen ist. Die Maske hält im Normalbetrieb. Unter Druck zeigt sich das echte Gesicht. Reise mit jemandem, arbeite unter Deadline mit jemandem, erlebt eine Krise mit jemandem. Dann weißt du, wer da ist.

Ob Worte und Taten übereinstimmen. Nicht einmal, nicht zweimal. Über Zeit. Jemand kann einmal eine gute Ausrede haben. Zweimal vielleicht. Aber wenn das Muster immer dasselbe ist, ist das kein Zufall. Das ist Charakter.

Was man nicht tun kann:

Man kann niemanden zwingen, die Maske abzunehmen. Man kann niemanden reparieren. Man kann nicht rückwirkend die Beziehung retten, die auf einer Illusion basiert hat.

Was man tun kann: Gehen. Wenn die Maske gefallen ist und was darunter war, hat man den Beweis. Den braucht man manchmal, weil man vorher zu lange gezweifelt hat.


Warum ich mich selbst nicht ausnehme

Hier wird es jetzt ungemütlich.

Weil ich auch Masken getragen habe. Andere als die beschriebenen, hoffe ich. Aber Masken.

Diese professionelle Fassade, die signalisiert: Alles im Griff. Die Sicherheit, die man ausstrahlt, wenn man eigentlich unsicher ist. Das Lächeln, wenn der Kommentar unter dem Bild nervt, aber man es sich nicht anmerken lässt. Die Begeisterung für ein Projekt, die man performt, obwohl man innerlich zweifelt.

Das sind auch Masken. Kleinere, vielleicht. Sozial akzeptablere. Aber keine echten Gesichter.

Und ich glaube, ein Teil davon ist unvermeidlich. Wir alle tragen in verschiedenen Situationen verschiedene Versionen von uns selbst. Das ist nicht Heuchelei, das ist soziale Kompetenz.

Der Unterschied ist, ob die Maske eine Schutzfunktion hat oder eine Täuschungsfunktion.

Schutzmaskierung: Ich zeig dir noch nicht alles, weil ich dich noch nicht kenne.

Täuschungsmaskierung: Ich zeig dir eine Version von mir, die nicht stimmt, damit du mich magst oder mir vertraust oder was von mir gibst.

Das erste ist Grenze. Das zweite ist Manipulation.


Das Gute an fallenden Masken

Okay, ich muss auch was Positives sagen. Weil es tatsächlich was Positives gibt.

Wenn eine Maske fällt, endet auch eine Lüge.

Und mit dem Ende der Lüge beginnt Klarheit.

Du weißt jetzt, woran du bist. Du musst keine Energie mehr darauf verwenden, Menschen zu interpretieren, Zeichen zu deuten, Hoffnungen zu haben, die keine Grundlage haben.

Das ist schmerzhaft. Manchmal sehr schmerzhaft.

Aber es ist ehrlicher als vorher.

Und in einer Branche, die so viel von Authentizität redet – auf LinkedIn, in Instagram-Captions, in Podcasts über Kreativität – ist Ehrlichkeit eigentlich das radikalste Ding, das man haben kann.

Die echten Menschen. Die, die keine perfekte Persona aufgebaut haben. Die, die zugeben, wenn was schiefläuft. Die, die nicht immer das Richtige sagen und trotzdem konsequent sind, wenn es drauf ankommt.

Die sind selten. Aber die gibt es.

Und nach zwanzig Jahren kann ich sagen: Die erkennst du meist daran, dass sie weniger reden und mehr tun. Dass sie keine große Show machen aus ihren Werten, sondern einfach dementsprechend handeln. Dass sie unbequem sein können, aber dabei berechenbar bleiben.

Keine Maske. Kein Hochglanz. Aber echt.

Das ist mir inzwischen mehr wert als jede perfekte Persona.


Ein letzter Gedanke

Das nächste Mal, wenn du jemanden kennenlernst, der in allem perfekt wirkt – der immer das Richtige sagt, immer die richtigen Werte hat, immer sympathisch und zugänglich und inspirierend ist –

– dann schau ein bisschen länger hin.

Nicht misstrauisch. Nicht paranoid.

Aber aufmerksam.

Weil echte Menschen haben Risse. Echte Menschen sagen manchmal das Falsche. Echte Menschen haben Tage, wo sie nicht inspirierend sind, sondern einfach müde und gereizt und menschlich.

Wer nie Risse zeigt, hat sie vielleicht besonders gut verborgen.

Und irgendwann – im dritten Akt, wie immer – dreht er sich um.

Und du weißt Bescheid.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem langen Abend und der Erinnerung an zu viele Momente, wo Masken gefallen sind und ich danach dachte: Das hätte ich früher sehen können. Wird transkribiert und mit KI in Form gebracht. Die Narben und der schwarze Humor sind komplett meine eigenen.



Ich zahle seit Jahren monatlich an Adobe. Jeden Monat. Automatisch. Der Betrag wird abgebucht, ich arbeite weiter, und meistens denk ich nicht groß drüber nach.

Aber letztens hab ich mal nachgerechnet. Richtig nachgerechnet. Mit Taschenrechner und allem.

Und dann hab ich eine Weile auf die Zahl gestarrt.

Und dann hab ich angefangen, diesen Text zu schreiben.


Was ich bezahlt habe – und was ich dafür bekommen habe

Ich bin seit ungefähr 2013 im Creative-Cloud-Abo. Das sind, Stand heute, über zwölf Jahre. Der Preis hat sich in dieser Zeit mehrfach erhöht. Aber nehmen wir mal grob einen Durchschnitt von sagen wir sechzig Euro pro Monat – das ist noch konservativ geschätzt, weil ich zeitweise das komplette Paket hatte.

Sechzig Euro mal zwölf Monate mal zwölf Jahre.

Das sind 8.640 Euro.

Achtundsechszig Hundert Euro. Für Software. Die mir nicht gehört.

Wenn ich morgen kündige, habe ich nichts. Keine Dateien, die ich öffnen kann. Keine Programme, die laufen. Nichts. Ich könnte meine eigenen PSD-Dateien nicht mehr bearbeiten, weil das Programm, das sie erstellt hat, nicht mehr läuft.

Ich hab für über achteinhalb Tausend Euro eingekauft und besitze null Produkte.

Ist das fair? Oder wurden wir verarscht?


Wie das alles angefangen hat

Um das zu verstehen, muss man zurückgehen. Zu Adobe CS – Creative Suite. Einmalzahlung, Software gehört dir, fertig.

Photoshop CS6 hat damals etwa 999 Dollar gekostet. Einmal. Dann war es deins. Du konntest es zehn Jahre lang nutzen, ohne einen Cent mehr zu zahlen. Klar, du bekamst keine neuen Features. Aber was du hattest, hat funktioniert.

Ich hab noch Kollegen, die mit CS6 arbeiten. Heute. Im Jahr 2026. Das Programm hat keine neuen Features seit vierzehn Jahren – und es tut, was es tun soll.

Dann kam 2013. Adobe kündigt an: Keine Kaufversionen mehr. Nur noch Abo. Creative Cloud für alle.

Die Reaktion war, gelinde gesagt, nicht begeistert. Es gab Proteste, Petitionen, wütende Forenbeiträge. Adobe hat das alles ignoriert und es durchgezogen.

Warum? Weil sie konnten. Weil sie das Monopol hatten. Und weil sie wussten, dass wir letztendlich mitmachen würden.

Und wir haben mitgemacht. Alle.


Das Argument, das Adobe immer bringt

Adobe hat für das Abomodell immer dieselben Argumente gehabt.

Ihr bekommt ständig Updates. Ihr habt immer die neueste Version. Ihr zahlt nicht auf einmal viel, sondern in kleinen Häppchen. Ihr bekommt Cloud-Speicher dazu. Es ist fair und transparent.

Klingt gut. Stimmt auch teilweise.

Aber lass mich das mal auseinandernehmen.

Ständige Updates: Ja, es gibt Updates. Aber hand aufs Herz: Wie viele der Features, die Adobe in den letzten fünf Jahren rausgebracht hat, nutzt du wirklich? Ich hab mal nachgezählt. Von den neuen Funktionen der letzten drei Jahre nutze ich vielleicht fünf regelmäßig. Den Rest nicht. Nie. Ich zahle für Features, die ich nicht brauche, die für andere gemacht wurden.

Immer die neueste Version: Stimmt. Aber was wenn die neueste Version schlechter ist? Was wenn ein Update mein Workflow kaputt macht, meine Plugins nicht mehr kompatibel sind, Dinge sich verschieben, die ich nicht verschoben haben will? Mit dem Kaufmodell konnte ich entscheiden: Diese Version ist gut, ich bleib dabei. Mit dem Abo entscheide ich nicht mehr. Adobe entscheidet.

Kleine Häppchen: Das ist psychologischer Trick Nummer eins aus dem Marketing-Handbuch. Sixty Euro pro Monat fühlt sich weniger an als 720 Euro pro Jahr. Ist aber dasselbe. Und über zwölf Jahre ist es über achttausend Euro. Für Software, die mir nicht gehört.

Cloud-Speicher: Den nutze ich kaum. Ich hab meine eigene Backup-Lösung. Ich brauche Adobes Cloud nicht. Ich zahle trotzdem dafür.


Die Preiserhöhungen – die stille Enteignung

2013 hat Adobe Creative Cloud mit etwa dreißig Euro pro Monat für Einzelanwendungen gestartet. Photoshop und Lightroom zusammen waren lange für etwa dreizehn Euro zu haben – das Photography-Paket.

Das war fair. Das hab ich damals sogar verteidigt.

Aber dann kamen die Erhöhungen. Schritt für Schritt. Nicht dramatisch auf einmal, sondern so, dass man sich jedes Mal denkt: Okay, ist noch akzeptabel.

Das Photography-Paket kostet heute in Österreich und Deutschland deutlich mehr als früher. Das komplette Paket ist für viele Einzelselbstständige inzwischen ein echter Kostenblock im Budget.

Und was hat Adobe als Begründung geliefert? KI-Features. Firefly. Generative Fill. Neue Möglichkeiten.

Aber ich hab niemanden gefragt, ob ich diese KI-Features will. Ob ich bereit bin, mehr zu zahlen dafür. Ich wurde einfach vor vollendete Tatsachen gestellt: Das kostet jetzt mehr. Friss oder stirb.

Was wäre passiert, wenn ich gesagt hätte: Ich will die KI-Features nicht, ich zahl den alten Preis?

Nichts wäre passiert. Weil ich diese Option nicht habe.


Das Monopol-Problem

Und hier liegt der eigentliche Kern der Sache.

Adobe kann das alles machen, weil sie ein faktisches Monopol haben. Nicht juristisch im technischen Sinne, aber praktisch.

PSD ist der Standard. Jeder schickt PSDs. Jede Druckerei versteht PSDs. Jeder Kollege hat Photoshop. Jeder Kurs lehrt Photoshop. Jeder Workflow ist auf Photoshop ausgerichtet.

Wenn du aussteigst, steigst du nicht nur aus einem Programm aus. Du steigst aus einem Ökosystem aus. Aus Kompatibilität, aus Zusammenarbeit, aus Konventionen.

Das ist die eigentliche Falle. Nicht das Abo selbst, sondern die Tatsache, dass das Abo unausweichlich ist.

Ich kann mich beschweren so viel ich will. Adobe weiß: Ich bleibe. Weil meine Alternative ist, meinen gesamten Workflow umzubauen, alle Kollegen zu konvertieren, alle Kunden zu erklären, warum ich jetzt anders arbeite.

Das Monopol macht uns gefügig. Und Adobe weiß das.


Die Sache mit Firefly und dem KI-Training

Jetzt kommt der Teil, bei dem ich wirklich unruhig werde.

Adobe hat Firefly – seine KI – mit Bildern trainiert. Mit Bildern aus Adobe Stock, mit gemeinfreien Werken, mit Material, für das Rechte gesichert wurden, das war die offizielle Aussage.

Aber dann kamen die Berichte. Über Metadaten, über Opt-out-Verfahren, über die Frage, ob Adobes Nutzungsbedingungen ihnen erlauben, hochgeladene Dateien für das KI-Training zu verwenden.

Adobe hat mehrfach dementiert, User-Uploads für das Training zu nutzen. Aber die Nutzungsbedingungen haben viele von uns nicht gelesen. Weil sie fünfzig Seiten lang sind, in Juristendeutsch geschrieben, und weil Adobe weiß, dass niemand sie liest.

Die Frage, die sich mir stellt: Wenn mein kreatives Werk in der Adobe Cloud liegt, was passiert damit? Was darf Adobe damit machen? Was macht Adobe damit?

Ich weiß es nicht mit Sicherheit. Und das ist das Problem.

Vertrauen ist die Basis einer Geschäftsbeziehung. Und Adobe hat dieses Vertrauen in den letzten Jahren systematisch beschädigt.


Der Subscription-Trap im Detail

Lass mich erklären, wie der Trap wirklich funktioniert. Für alle, die das noch nicht so klar sehen.

Wenn du fünf Jahre lang in Photoshop arbeitest, baust du etwas auf. Voreinstellungen. Workflows. Aktionen. Brushsets. Plugins. Aber vor allem: Dateien. Tausende von PSD-Dateien, die deine Arbeit enthalten, dein Archiv, deine Geschichte.

Diese Dateien sind in einem Format, das dir gehört – theoretisch. Aber in der Praxis kannst du sie nur öffnen, wenn du Adobe zahlst.

Das ist wie wenn eine Bank sagt: Dein Geld gehört dir. Aber um dranzukommen, brauchst du unsere App. Und wenn du die App nicht mehr abonnierst, kommst du an dein Geld nicht mehr ran.

Technisch gesehen ist das ein Lock-in. Im Volksmund nennt man das eine Falle.

Und Adobe hat diese Falle sehr bewusst und sehr gezielt aufgebaut. Jedes Feature, das tiefere Integration schafft, jedes Cloud-abhängige Tool, jede Funktion, die Daten in Adobes Ökosystem hält – das ist kein Zufall. Das ist Strategie.


Die Antitrust-Klage und was sie bedeutet

2023 hat das US-Justizministerium Adobe verklagt. Nicht wegen dem Abo-Modell direkt, sondern wegen der geplanten Übernahme von Figma.

Adobe wollte Figma kaufen – den wichtigsten Konkurrenten im Design-Bereich, vor allem für UI/UX-Design. Für zwanzig Milliarden Dollar. Der Deal wurde von den Regulatoren blockiert.

Die Begründung: Adobe würde damit ein Monopol in einem wichtigen Kreativbereich zementieren.

Das ist ein Gericht, das offiziell bestätigt hat: Adobe hat eine marktdominierende Stellung und versucht, Konkurrenz aufzukaufen, statt sie zu bekämpfen.

Das sagt alles.

Nicht über ein Unternehmen, das seine Produkte verbessern will. Sondern über eines, das seinen Graben tiefer machen will. Das Kontrolle ausweiten will. Das sichergehen will, dass wir keine Alternativen haben.


Was Adobe wirklich verkauft

Ich bin jetzt an einem Punkt, wo ich glaube: Adobe verkauft nicht Software.

Adobe verkauft Abhängigkeit.

Das klingt hart. Aber überleg mal.

Das Ziel einer guten Software wäre: Dir das beste Werkzeug geben, das dir hilft. Wenn irgendwann eine andere Software besser ist, gehst du dahin.

Das Ziel von Adobes Strategie ist: Sicherstellen, dass du nirgendwo hingehen kannst. Dass der Wechsel so teuer, so schmerzhaft, so kompliziert ist, dass du bleibst, egal was.

Dafür werden Dateiformate proprietär gehalten. Dafür werden Integrationen so tief gebaut, dass man sie nicht einfach rauszieht. Dafür werden Preise schrittweise erhöht, nie auf einmal.

Das ist kein Produkt. Das ist ein Käfig. Ein sehr komfortabler, sehr gut designter Käfig. Mit hübschen Icons und guten Filtern.

Aber ein Käfig.


Bin ich trotzdem noch drin? Ja. Warum?

Hier muss ich ehrlich sein. Nach allem, was ich gerade geschrieben habe.

Ich zahle immer noch. Jeden Monat.

Warum?

Weil ich feststecke. Weil mein Workflow auf Adobe aufgebaut ist. Weil meine Kunden PSDs erwarten. Weil meine Plugins für Photoshop gemacht sind. Weil Capture One zwar besser für RAW ist, aber ich für alles andere Photoshop brauche. Weil ich nicht drei Monate meines Lebens damit verbringen will, umzulernen.

Das ist genau das, was Adobe bezweckt hat.

Ich weiß, dass ich in einem Käfig sitze. Ich seh die Gitterstäbe. Und ich sitze trotzdem drin.

Das ist vielleicht das Frustrierendste an der ganzen Sache. Nicht dass Adobe uns verarscht hat. Sondern dass wir es wissen und trotzdem mitmachen.


Was sich ändern könnte

Ich wäre kein ehrlicher Kommentator, wenn ich nur klagen würde, ohne zu sagen, was ich mir anders wünsche.

Eine faire Kaufoption. Nicht für jeden User, nicht für alle Features. Aber für die, die eine stabile Version kaufen wollen und nicht jede neue KI-Funktion brauchen. Adobe hat das abgeschafft. Sie sollten es zurückbringen.

Echte Transparenz bei den Nutzungsbedingungen. Was passiert mit meinen Dateien? Was darf Adobe mit hochgeladenem Material machen? In einem Satz, nicht in fünfzig Seiten Juristendeutsch.

Offene Dateiformate. PSD sollte ein offener Standard sein. Kein proprietäres Format, das nur Adobe vollständig lesen kann. Das würde echten Wettbewerb ermöglichen.

Faire Preismodelle für verschiedene Märkte. Was für einen amerikanischen Großkonzern erschwinglich ist, ist für einen Freelancer in Wien oder Graz eine andere Rechnung. Das berücksichtigt Adobe nicht.


Das Fazit, das kein schönes Fazit ist

Wurden wir verarscht?

Ja. Teilweise.

Nicht in dem Sinn, dass Adobe nicht liefert, was es verspricht. Die Software ist gut. Photoshop ist immer noch das beste Bildbearbeitungsprogramm, das es gibt. Das lässt sich nicht wegdiskutieren.

Aber wir wurden verarscht in dem Sinn, dass uns eine Wahl genommen wurde. Dass ein Monopol ausgenutzt wurde. Dass Preise erhöht wurden, weil es keine echte Alternative gibt. Dass Abhängigkeit systematisch aufgebaut wurde.

Und wir haben mitgemacht. Weil wir keine Wahl hatten. Weil die Alternative – komplett aussteigen, alles neu lernen, alle Kunden neu erziehen – für die meisten von uns schlimmer ist als monatlich zu zahlen.

Das ist das eigentliche Geschäftsmodell von Adobe.

Nicht Photoshop verkaufen.

Sondern sicherstellen, dass du nicht aufhören kannst, dafür zu zahlen.


Eine letzte Sache

Ich hab vorhin Affinity Suite erwähnt. Und DaVinci Resolve. Und Capture One.

Das sind keine perfekten Alternativen. Das sind Alternativen. Die existieren, funktionieren, und verbessern sich ständig.

Je mehr von uns die nutzen – als Ergänzung, als Backup, als echte Alternative – desto mehr Druck entsteht auf Adobe.

Monopole leben davon, dass wir denken, wir haben keine Wahl.

Vielleicht haben wir mehr Wahl, als wir denken.

Vielleicht ist der erste Schritt, damit aufzuhören, so zu tun, als hätten wir keine.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem Abend mit einem Taschenrechner und steigender Frustration. Wird transkribiert und mit KI aufgeräumt. Die Rechnung und die Wut sind zu hundert Prozent meine eigenen.



Ich saß neulich vor einem Bild, das ich gerade fertiggestellt hatte. Eine Figur, halb Mensch halb etwas anderes, in einem Raum, der gleichzeitig vertraut und fremd wirkte. Und während ich draufschaute, kam mir dieser Gedanke:

Sind wir nicht alle irgendwie undokumentierte Aliens?

Ich meine das nicht politisch. Oder vielleicht doch, ein bisschen. Aber vor allem meine ich es philosophisch. Existenziell. Als Frage, die sich stellt, wenn man lange genug allein in einem Zimmer sitzt und über Bilder und Menschen und das Leben nachdenkt.

Lass mich versuchen, das zu entfalten.


Was ein undokumentierter Alien eigentlich ist

Im politischen Kontext ist die Bedeutung klar: Ein Mensch, der sich in einem Land aufhält, ohne die offiziellen Dokumente zu haben, die ihm erlauben, dort zu sein. Kein Visum, kein Pass, keine Aufenthaltserlaubnis. Jemand, dessen Existenz an diesem Ort nicht autorisiert, nicht anerkannt, nicht registriert ist.

Das System sagt: Du gehörst hier nicht hin.

Aber jetzt nimm das Bild und mach es größer. Viel größer.

Was ist das eigentlich für ein Dokument, das unsere Existenz legitimiert? Was ist diese Erlaubnis, die wir bräuchten, um wirklich dazuzugehören – zu einem Land, zu einer Gesellschaft, zu einer Familie, zu uns selbst?

Und wer stellt dieses Dokument aus?


Niemand hat uns gefragt

Das fängt schon mit der Geburt an. Kein Mensch hat eingewilligt, geboren zu werden. Du wurdest einfach in diese Welt geworfen – in ein bestimmtes Land, in eine bestimmte Familie, in einen bestimmten Körper, in eine bestimmte Zeit. Ohne Bewerbungsgespräch, ohne Auswahlverfahren, ohne Chance, Nein zu sagen.

Die Philosophen nennen das Faktizität. Das Gewordensein ohne eigenes Zutun. Heidegger sprach vom Geworfensein. Wir werden geworfen, in eine Situation, die wir nicht gewählt haben, und müssen dann irgendwie damit umgehen.

Du hast nicht entschieden, deutsch oder österreichisch oder sonst was zu sein. Du hast nicht entschieden, in welche Schicht du hineingeboren wirst, welche Hautfarbe du trägst, welche Sprache deine erste ist, welche Religion dich umgibt. Das alles ist dir passiert.

In diesem Sinn sind wir alle Aliens in dem Leben, das wir leben. Fremde in einer Welt, die vor uns da war und nach uns weiter sein wird. Wir halten uns hier auf, ohne dass uns jemand offiziell eingeladen hätte.


Die Dokumente, die wir uns selbst ausstellen

Aber dann fangen wir an, uns zu dokumentieren. Selbst.

Name. Nationalität. Beruf. Familienstand. Religiöse Zugehörigkeit. Politische Überzeugung. Sexuelle Identität. Kulturelle Herkunft.

Wir bauen uns ein Dokument zusammen, das uns sagt, wer wir sind. Ein Identitätsdokument, nicht ausgestellt von einem Amt, sondern von uns selbst, über die Jahre, aus Erfahrungen und Entscheidungen und Zufällen.

Und dieses Dokument verändert sich ständig.

Ich bin heute nicht derselbe wie mit zwanzig. Die Version von mir, die mit dreißig durch die Welt gelaufen ist, würde die aktuelle Version vielleicht kaum erkennen. Neue Prioritäten, neue Überzeugungen, neue Wunden, neue Heilungen, neue Fragen.

Wenn Identität sich so radikal verändern kann, was dokumentiert sie dann eigentlich? Was ist die Substanz, die gleichbleibt? Ist da überhaupt eine?

Der Buddhismus sagt: nein. Es gibt kein festes Selbst. Alles ist im Fluss. Was wir für unser Ich halten, ist eine Ansammlung von vergänglichen Momenten, eine Erzählung, die wir über uns selbst erzählen.

Und wenn das stimmt, dann ist diese Erzählung genauso undokumentiert wie alles andere. Wir behaupten einfach, wir zu sein. Ohne Beweis. Ohne wirklich nachweisbare Kontinuität.


Der Blick von außen

Es gibt einen Moment, den viele kennen. Diesen Moment, wenn man sich selbst von außen sieht. Wenn man für eine Sekunde aus seinem eigenen Körper tritt und denkt: Wer ist das da eigentlich?

Das passiert manchmal beim Autofahren, wenn man plötzlich nicht mehr weiß, wie man die letzten zehn Kilometer gefahren ist. Das passiert in Gesprächen, wo man hört, was man sagt, und denkt: Glaub ich das eigentlich? Das passiert mitten in der Nacht, wenn man aufwacht und einen Moment lang nicht weiß, wer man ist.

Psychiater nennen das Depersonalisation, wenn es pathologisch wird. Philosophen nennen es Selbstreflexion. Mystiker nennen es Erleuchtung.

Ich nenne es: Alien-Moment.

Den Moment, in dem das Vertraute fremd wird. In dem man merkt, dass man in diesem Körper, in diesem Leben, in dieser Gesellschaft lebt – und sich nicht ganz sicher ist, ob man dazugehört.


Migration als Extremform des universellen Erlebens

Jetzt kommen wir zu dem Teil, der politisch ist. Ich hab es nicht versprochen, aber ich kann nicht anders.

Menschen, die ihr Land verlassen – aus Not, aus Angst, aus Hoffnung, aus was auch immer – erleben das Alien-Sein auf die schärfste, brutalste Art.

Sie kommen in einen Raum, wo ihre Dokumente falsch sind, ihre Sprache falsch ist, ihre Namen falsch ausgesprochen werden, ihre Kleidung falsch ist, ihre Bräuche fremd sind. Wo alles, was sie sind, zunächst mal als Problem definiert wird.

Und trotzdem sind sie dieselben Menschen. Mit denselben Träumen, denselben Wunden, denselben Witzen, denselben Eigenheiten. Sie sind nicht weniger Mensch als die, die mit dem richtigen Pass geboren wurden.

Was uns unterscheidet, ist ein Dokument. Ein Stück Papier. Ein Datensatz in einem Computersystem.

Diejenigen, die ohne dieses Dokument auskommen müssen, machen sichtbar, was wir alle verdrängen: dass unsere Zugehörigkeit immer ein soziales Konstrukt war. Ein Abkommen. Eine Vereinbarung, die irgendwann irgendwer getroffen hat, ohne uns zu fragen.

Die Grenzen, die entscheiden, wer dazugehört und wer nicht, sind Linien auf Karten. Von Menschen gezogen. Oft von Menschen, die längst tot sind. Oft in Momenten der Gewalt oder des politischen Kalküls.

Und wir behandeln diese Linien, als wären sie natürlich. Als hätte die Natur entschieden, dass hier Deutschland aufhört und Polen anfängt. Als hätte irgendjemand das Recht gehabt, diese Linie zu ziehen und zu sagen: Die Leute hier dürfen, die Leute dort nicht.


Was Kunst damit zu tun hat

Ich bin Künstler. Also komm ich irgendwann immer bei der Kunst an.

Kunst ist für mich das Medium, in dem das Alien-Sein verhandelbar wird. In dem man die Fremdheit aushalten kann. In dem man nicht erklären muss, warum man hier ist.

Wenn ich ein Bild mache, entsteht ein Raum, der keinem gehört. Der keine Grenzen hat. Der keine Dokumente verlangt. Jeder, der das Bild sieht, ist eingeladen. Nicht weil er die richtigen Papiere hat, sondern weil er schaut.

Und in diesem Schauen passiert manchmal etwas. Der Betrachter erkennt sich in etwas, das er nicht erwartet hat. In einer Figur, die anders aussieht als er. In einer Situation, die nicht seine ist. In einer Emotion, die er nicht benennen konnte.

Das ist das Paradox der Kunst: Das Fremdeste kann das Vertrauteste sein.

Die Figur auf meinem Bild, die halb Mensch und halb etwas anderes ist – die ist vielleicht näher an der Wahrheit, als ein perfektes Porträt es je sein könnte. Weil wir alle halb das eine und halb etwas anderes sind. Weil wir alle in uns diese Fremdheit tragen.


Das Fremde in uns selbst

Carl Gustav Jung sprach vom Schatten. Dem Teil von uns, den wir nicht sehen wollen. Den wir verstecken, verdrängen, leugnen. Der aber trotzdem da ist.

Dieser Schatten ist auch ein Alien. Er lebt in uns, ohne Erlaubnis, ohne Dokumente. Er spricht manchmal in den unpassendsten Momenten. Er sabotiert Pläne, zerstört Beziehungen, bricht in Träumen aus.

Und die Menschen, die am lautesten gegen das Fremde von außen wüten – die sind es oft, die am meisten Angst vor dem Fremden in sich selbst haben. Das ist nicht meine Theorie, das ist gut dokumentierte Psychologie. Was wir im anderen ablehnen, ist oft das, was wir in uns nicht akzeptieren können.

Wenn jemand sagt: Diese Fremden gehören hier nicht hin – was sagt er dann auch über seine eigene innere Fremdheit?

Was sagt er über die Teile von sich, die er nicht dokumentiert hat, nicht benennen kann, nicht versteht?


Das Universum und wir

Lass mich jetzt noch größer werden. Richtig groß.

Im kosmischen Sinn sind wir alle Aliens. Buchstäblich.

Die Atome, aus denen unser Körper besteht, wurden in Sternen geschmiedet. In Supernovae, die explodiert sind, bevor unsere Sonne überhaupt existierte. Das Eisen in unserem Blut war mal Teil eines Sterns. Das Sauerstoffatom, das wir gerade einatmen, hat vielleicht schon in den Lungen von Caesar gezittert, von Kleopatra, von einem dinosaurischen Farn.

Wir sind Sternenstaub. Das ist keine Metapher, das ist Physik.

Dieses Universum ist 13,8 Milliarden Jahre alt. Die Erde ist 4,5 Milliarden Jahre alt. Der Mensch als Art ist vielleicht 300.000 Jahre alt. Du persönlich bist vielleicht 40, vielleicht 60, vielleicht 80 Jahre alt.

In diesem Kontext: Wir sind alle Besucher. Alle Durchreisende. Alle undokumentierte Aliens auf einem Planeten, der uns genauso wenig eingeladen hat wie irgendein Grenzbeamter.

Wir sind hier. Für eine kurze Zeit. Ohne Erlaubnis des Universums. Ohne Garantie, dass wir bleiben dürfen.

Und dann sind wir wieder weg, und die Atome machen weiter.


Die Frage der Zugehörigkeit

Was bedeutet Zugehörigkeit dann eigentlich?

Wenn Grenzen gemacht sind. Wenn Dokumente willkürlich sind. Wenn Identität fließt. Wenn wir alle kosmische Aliens sind.

Ich glaube, Zugehörigkeit ist eine Entscheidung. Keine Gegebenheit.

Man gehört nicht dazu, weil man die richtigen Papiere hat. Man gehört dazu, weil man sich entschieden hat, da zu sein. Weil man Verantwortung übernimmt. Weil man liebt, beiträgt, kämpft, leidet, feiert, trauert.

Zugehörigkeit ist Handlung, nicht Status.

Und in diesem Sinn kann ein Mensch ohne Papiere mehr dazugehören als einer mit den richtigen Dokumenten in der Tasche, aber ohne jedes Gefühl von Verantwortung für den Raum, in dem er lebt.

Ich kenne Menschen, die hier leben seit Jahrzehnten. Kinder großgezogen, Steuern gezahlt, Nachbarn geholfen, Freundschaften gepflegt. Ohne die richtigen Dokumente. Und ich kenne Menschen, die alle Papiere haben und sich für nichts und niemanden verantwortlich fühlen außer für sich selbst.

Wer gehört mehr dazu?


Was ich nicht weiß

Ich will hier ehrlich sein: Ich hab keine Antworten. Ich hab Fragen.

Ich weiß nicht, wie eine Gesellschaft funktionieren soll ohne Grenzen und Regeln. Ich verstehe, dass Systeme Ordnung brauchen. Ich weiß, dass offene Fragen keine offenen Grenzen bedeuten müssen.

Aber ich glaube, dass die Art, wie wir über Zugehörigkeit reden, falsch ist. Zu absolut. Zu dokumentenbasiert. Zu wenig menschlich.

Und ich glaube, dass die Frage – Sind wir nicht alle irgendwie undokumentierte Aliens? – keine Schwäche ist, sondern eine Einladung. Eine Einladung, die eigene Fremdheit anzuerkennen. Die Gemeinsamkeit mit denen zu sehen, die man als fremd definiert hat.


Zurück zum Bild

Ich gehe zurück zu dem Bild, bei dem das alles angefangen hat.

Die Figur darin schaut mich an. Halb vertraut, halb fremd. Und ich denke: Das bin ich. Das ist jeder. Wir alle tragen diese Hälfte, die nicht so ganz passt. Die nicht dokumentiert ist. Die keine Erlaubnis hat, hier zu sein.

Und trotzdem sind wir hier.

Atmen. Denken. Fühlen. Schaffen.

Ohne Dokument. Ohne Erlaubnis. Einfach so.

Vielleicht ist das genug.

Vielleicht ist das alles, was wir je hatten.

Und vielleicht ist es an der Zeit, damit aufzuhören, voneinander Dokumente zu verlangen – und stattdessen zu fragen: Was bringt du mit? Was kannst du geben? Was trägst du bei, zu diesem kurzen, seltsamen, wunderbaren Aufenthalt, den wir alle gemeinsam haben?

Auf diesem kleinen Planeten. In diesem riesigen Universum. Ohne Erlaubnis. Ohne Rückfahrschein.

Undokumentiert. Und trotzdem da.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem langen Abend vor einem Bild, das mich nicht losgelassen hat, und Gedanken, die sich nicht abschalten ließen. Wird transkribiert und mit KI in Form gebracht. Die Fragen sind meine eigenen. Die Antworten – falls es welche gibt – auch.



Letzte Woche hab ich was gelesen, das mich seitdem nicht mehr loslässt. Otto – ja, das Otto, bei dem deine Eltern früher die Möbel bestellt haben und du heimlich den Katalog durchgeblättert hast wegen der Unterwäsche-Seiten – macht keine Fotoshootings mehr für Mode. Keine Models mehr. Keine Fotografen. Keine Studios.

Stattdessen: KI. Komplett.

Ein Kleidungsstück wird einmal fotografiert, flach auf dem Tisch oder auf einer Schneiderpuppe. Dann rechnet ein Algorithmus aus, wie das an einem Menschen aussehen würde. Der Mensch existiert nicht. Der wurde auch generiert.

Und seitdem denk ich drüber nach. Jeden Tag ein bisschen. Und ich komm nicht zu einem klaren Ergebnis. Was vielleicht auch der Punkt ist.


Mein erster Gedanke war: Klar

Mein allererster Gedanke, als ich das gelesen hab, war nicht Empörung. Der war: Ja logisch. War doch nur eine Frage der Zeit.

Wenn du ein Unternehmen bist, das jeden Tag hunderte von Produkten online stellen muss – jedes Teil in verschiedenen Farben, verschiedenen Größen, aus verschiedenen Winkeln – dann ist ein klassisches Shooting ein Wahnsinn. Models buchen, Studio mieten, Stylisten, Visagisten, Fotografen, Assistenten. Für jede Bluse ein halber Tag. Für jeden Hoodie eine halbe Produktion.

Und jetzt kommt jemand und sagt: Das geht auch in drei Minuten. Für einen Bruchteil der Kosten.

Natürlich machen die das. Jeder würde das machen. Das ist nicht bösartig, das ist Betriebswirtschaft. Das ist ein Vorstand, der auf Zahlen guckt und sagt: Warum geben wir Millionen für was aus, das eine Maschine billiger kann?

Mein zweiter Gedanke war dann allerdings: Moment mal.


Die Leute, über die keiner redet

Was bei der ganzen Effizienz-Diskussion nämlich untergeht: Da haben echte Menschen gearbeitet. Nicht irgendwelche abstrakten Arbeitskräfte auf einer Tabelle, sondern Leute mit Namen und Miete und Kindern.

Fotografen, die sich jahrelang einen Ruf aufgebaut haben. Die angefangen haben als Assistenten, die Koffer geschleppt und Stative aufgebaut haben, bevor sie irgendwann selbst hinter die Kamera durften. Models, für die das ein Job war – nicht glamourös wie in den Magazinen, aber ehrlich und regelmäßig. Visagisten, die morgens um sechs im Studio standen. Stylisten, die wussten, welche Klammer wo hin muss, damit die Bluse richtig sitzt. Beleuchter. Produktionsassistenten. Retuscheure.

Ein ganzes Ökosystem. Aufgebaut über Jahrzehnte.

Und das wird jetzt nicht langsam umgebaut oder transformiert oder wie auch immer man das heute nennt. Das wird abgeschaltet.

Ich hab selbst lange genug im Kreativbereich gearbeitet, um zu wissen, wie sich das anfühlt, wenn plötzlich ein ganzer Auftragszweig wegbricht. Nicht weil du schlecht bist. Nicht weil sich der Markt verändert hat. Sondern weil eine Maschine es billiger kann.

Ja, es werden neue Jobs entstehen. KI-Kuratoren, Prompt-Designer, virtuelle Set-Gestalter, was auch immer. Aber erzähl das mal der Fotografin, die gerade ihre letzte Rechnung geschrieben hat. Die hat zwanzig Jahre Erfahrung und eine Ausrüstung für hunderttausend Euro. Die will nicht umschulen. Die will fotografieren. Das ist ihr Beruf. Das ist ihr Leben.


Die Sache mit der Ehrlichkeit

Was mich aber noch mehr beschäftigt als die wirtschaftliche Seite, ist die Frage nach der Ehrlichkeit.

Modefotografie war schon immer fake. Das muss man klar sagen. Kein Katalogbild war je die Realität. Da wurde geschminkt, beleuchtet, retuschiert, Kleidung mit Klammern auf Figur gezurrt. Windmaschinen für die perfekte Haarsträhne. Photoshop für alles, was danach noch nicht gestimmt hat. Beine verlängert, Taille schmaler, Haut geglättet bis zur Unkenntlichkeit.

Das war nie die Wahrheit. Das war immer Inszenierung.

Aber da war immer noch ein Mensch. Ein echter Mensch, der in dem Kleid stand. Der sich bewegt hat. Der eine Stimmung hatte an dem Tag. Der vielleicht gerade verliebt war oder müde oder genervt – und manchmal hat genau das das Bild besonders gemacht. Dieses Etwas, das man nicht planen kann.

Jetzt ist da kein Mensch mehr. Da ist ein Algorithmus, der einen Menschen simuliert. Der berechnet, wie Stoff fallen würde an einem Körper, den es nicht gibt. Der Schatten erfindet, die kein Licht geworfen hat. Der ein Gesicht generiert, das nie gelacht hat, nie geweint hat, nie existiert hat.

Und der Kunde auf der Website sieht ein Bild und denkt: So sieht das Kleid an einem Menschen aus.

Tut es aber nicht. Weil es nie an einem Menschen war.

Ist das schlimm? Ich weiß es ehrlich gesagt nicht. Ich schwanke. Einerseits denke ich: Wenn die Leute wissen, dass das KI ist, ist es okay. Ist ja nur Produktfotografie, kein Journalismus. Andererseits: Wissen sie es? Steht das irgendwo? Steht unter dem Bild „Dieses Model existiert nicht“? Ich hab nachgeschaut. Da steht nichts.

Und das stört mich.


Das Diversity-Paradox

Ein Argument, das immer kommt wenn es um KI-Models geht: Vielfalt. Man kann auf Knopfdruck Models in jeder Körperform, jedem Alter, jeder Ethnie generieren. Theoretisch kann jeder Kunde das Kleidungsstück an jemandem sehen, der ihm ähnlich sieht. Alle Hautfarben, alle Größen, alle Formen.

Klingt großartig. Klingt nach Fortschritt. Klingt nach dem, was wir seit Jahren fordern.

Aber denk mal eine Sekunde weiter.

Statt echten Menschen mit echten Körpern und echten Geschichten eine Bühne zu geben – und sie dafür zu bezahlen – generiert man ihre digitalen Abbilder. Die simulierte Vielfalt ersetzt die echte. Auf dem Bildschirm sieht es divers aus. Hinter dem Bildschirm sitzt ein Algorithmus und ein Techniker.

Das ist wie wenn eine Firma sagt: Wir sind total inklusiv – und dann auf der Party nur Hologramme einlädt.

Die Bilder sind vielfältig. Die Produktion dahinter ist es nicht mehr. Da sitzt kein Model mit Down-Syndrom, das stolz vor der Kamera steht. Da sitzt kein Plus-Size-Model, das zeigt, dass Mode für alle da ist. Da sitzt eine Software, die einen Datensatz abbildet.

Ist das Repräsentation? Oder ist das die billigste Form von Alibi?


Was ich vermissen werde

Jeder, der mal bei einem Shooting dabei war, kennt diese Momente. Wo etwas Ungeplantes passiert. Wo das Model eine Bewegung macht, die niemand vorhergesehen hat. Wo das Licht plötzlich durch ein Fenster fällt, das niemand beachtet hat. Wo der Stylist im letzten Moment noch was ändert und plötzlich stimmt alles. Wo ein kleiner Fehler das Bild erst lebendig macht.

Ich erinnere mich an ein Shooting, Jahre her, wo das Model zwischen zwei Takes gelacht hat. Nicht für die Kamera, einfach so, weil jemand was Lustiges gesagt hat. Die Fotografin hat ausgelöst. Das Bild war besser als alle geplanten Shots zusammen. Weil es echt war.

Diese Momente gibt es in der KI nicht.

Die KI kennt keine Zufälle. Sie kennt Wahrscheinlichkeiten. Sie kann Variationen berechnen, aber keine echten Überraschungen produzieren. Alles was sie macht, liegt innerhalb des Erlernten. Nichts liegt wirklich daneben. Und genau das fehlt.

Die besten Bilder, die ich kenne, haben einen Bruch drin. Irgendwas, das nicht perfekt ist. Ein Blick, der nicht gestellt wirkt. Eine Falte, die nicht glattgezogen wurde. Eine Bewegungsunschärfe, die eigentlich ein Fehler ist, aber dem Bild Leben gibt.

Das ist der Unterschied zwischen einem Bild und einem generierten Output. Zwischen Fotografie und Berechnung. Zwischen etwas, das passiert ist, und etwas, das errechnet wurde.


Der schleichende Gewöhnungseffekt

Was mich vielleicht am meisten beunruhigt, ist nicht die Technik selbst. Die ist beeindruckend, keine Frage. Was mich beunruhigt, ist die Gewöhnung.

In einem Jahr werden wir KI-generierte Produktbilder sehen und es nicht mehr merken. Nicht weil wir dumm sind, sondern weil unser Auge sich anpasst. Weil wir es normal finden werden. So wie wir es normal finden, dass Gesichter in Zeitschriften keine Poren haben und Beine in Werbung immer gleich lang sind.

Und wenn wir uns daran gewöhnt haben, dass die Menschen auf Produktbildern nicht echt sind, gewöhnen wir uns vielleicht auch daran, dass die Menschen in Kampagnen nicht echt sind. Und dann in Werbespots. Und dann in Filmen.

Irgendwann sind wir umgeben von Bildern von Menschen, die nicht existieren. Und wir finden das normal.

Ich weiß nicht, ob mich das gruselt oder ob ich übertreibe. Wahrscheinlich beides.


Die Katalog-Frage

Hier muss ich allerdings auch ehrlich sein.

Otto ist ein Massenhändler. Die brauchen tausende Bilder pro Woche. Für die war Fotografie nie Kunst. Das war Logistik. Fließband mit Blitz und Kamera. Nächstes Teil, nächster Click, nächstes Bild.

Dass die auf KI umsteigen, ist ungefähr so überraschend wie die Tatsache, dass Fabriken Roboter benutzen. Die Frage war nie ob, sondern wann.

Und Katalogfotografie – sorry an alle Kollegen, die das gemacht haben – war nie der Bereich, in dem die Seele der Fotografie wohnt. Das war ehrliche Arbeit, oft gut bezahlt, aber es war Handwerk am Fließband. Da ging es nicht um den magischen Moment. Da ging es darum, dass die Bluse gut aussieht und die Farbe stimmt.

Die Frage ist nur: Bleibt es dabei? Oder ist das der Anfang?

Heute Katalog. Morgen Kampagnen. Übermorgen Editorials. Nächstes Jahr Werbespots. In fünf Jahren Spielfilme.

Ich weiß nicht, wo die Grenze ist. Ich weiß nicht mal, ob es eine gibt.


Was ich glaube

Ich glaube, dass es einen Punkt geben wird, an dem die Leute genug haben von der Perfektion. An dem das Generierte nervt. An dem genau das Echte, Unperfekte, Menschliche wieder wertvoll wird.

Das war immer so. Jede Technologie erzeugt ihre Gegenbewegung. Vinyl in Zeiten von Streaming. Handwerk in Zeiten von Massenproduktion. Analog in Zeiten von Digital.

Vielleicht wird es in ein paar Jahren ein Qualitätsmerkmal sein: „Dieses Bild wurde mit echten Menschen gemacht.“ So wie heute auf Lebensmitteln steht: „Von echten Bauern.“ Das wäre irgendwie absurd und traurig gleichzeitig.

Aber bis dahin werden viele Leute ihre Jobs verlieren. Und viele Bilder werden ihre Seele verlieren. Und wir werden uns daran gewöhnen, weil wir uns an alles gewöhnen.


Am Ende

Ich bin nicht gegen das, was Otto macht. Ich verstehe es. Ich würde wahrscheinlich genauso entscheiden, wenn ich deren Zahlen sehen würde.

Aber ich bin traurig darüber. Auf eine stille Art. So wie man traurig ist, wenn ein Laden zumacht, in den man nie besonders oft gegangen ist, aber von dem man wusste, dass er da ist.

Weil wieder ein Stück von dem verschwindet, was Fotografie für mich ausgemacht hat. Dieses Zusammenkommen von Menschen. Dieses gemeinsame Arbeiten an einem Bild. Diese Energie im Studio, wenn alles stimmt und alle wissen, dass gerade was Gutes passiert.

Das wird es noch geben. Bei kleineren Projekten, bei Leuten die es sich leisten können und wollen. Bei denen, die verstehen, dass der Prozess genauso wichtig ist wie das Ergebnis.

Aber es wird weniger.

Und irgendwann sitzen wir alle vor Bildschirmen voller perfekter Menschen, die nicht existieren, in perfekter Kleidung, die perfekt fällt, in perfektem Licht, das nie geleuchtet hat.

Und dann wundern wir uns, warum uns nichts mehr berührt.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mich was umtreibt und ich es loswerden muss. Wird transkribiert und mit KI in Form gebracht. Die Gedanken, die Widersprüche und die leise Traurigkeit sind komplett meine eigenen.



Ich scroll in letzter Zeit viel durch Portfolios, guck mir neue Markenauftritte an, blättere durch Magazine wenn ich welche in die Finger kriege. Und irgendwas hat sich verändert. Nichts Dramatisches, eher so ein Gefühl. Weniger geleckt. Weniger dieses „wir haben alles richtig gemacht“-Ding.

Keine Ahnung, ob das ein Trend ist oder ob ich das nur so wahrnehme. Aber ich mach das jetzt lange genug, um zu merken, wenn sich was verschiebt. Und gerade verschiebt sich was.

Also schreib ich mal auf, was mir auffällt. Nicht als Trendreport oder so – eher als Gedankensammlung von jemandem, der jeden Tag in diesem Zeug steckt.


Ich konnte das Saubere nicht mehr sehen

Muss mal kurz ausholen. Die letzten Jahre haben mich müde gemacht. Wirklich müde.

Alles sah irgendwie gleich aus. Perfekte Abstände, perfekte Farben, perfekte Schriften. Technisch super, keine Frage. Aber wenn ich ehrlich bin: langweilig. So langweilig, dass ich manchmal gar nicht mehr genau hingeguckt hab.

Ich hab Projekte angefangen und erstmal Referenzen gesucht, und nach dem zwanzigsten Moodboard dachte ich nur noch: Das kenn ich doch alles schon. Dieselben Layouts. Dieselben Farbpaletten. Dieselben verdammten Schriften.

Irgendwann hab ich mich gefragt, ob das Problem bei mir liegt. Vielleicht bin ich einfach zu lange dabei. Vielleicht seh ich Gespenster. Aber dann hab ich mit anderen geredet – Kollegen, Freunde, Leute die auch seit zwanzig Jahren Pixel schubsen – und die meinten dasselbe. Diese Erschöpfung, wenn alles funktioniert und trotzdem nichts berührt.

Weißt du, was mich am meisten genervt hat? Diese Portfolios, wo alles so perfekt aussieht, dass du weißt: Das hat eine Stunde gedauert. Template rein, Farben anpassen, fertig. Handwerk? Null. Nachdenken? Optional.

Und das Schlimmste: Die Kunden haben das auch gemerkt. Nicht bewusst, aber so unterschwellig. „Irgendwie sieht das aus wie alles andere“ – den Satz hab ich so oft gehört, dass ich ihn im Schlaf aufsagen kann.


Dann kam die KI und alles wurde noch schlimmer. Oder besser?

Ich weiß, das klingt widersprüchlich. Aber hör mir zu.

Als die ganzen KI-Tools aufgetaucht sind, dachte ich erstmal: Okay, jetzt wird es noch austauschbarer. Jetzt kann jeder in drei Minuten was generieren, das halbwegs professionell aussieht. Und ja, das ist auch passiert.

Aber dann ist was Interessantes passiert. Die Leute haben angefangen, das Generierte zu erkennen. Nicht bewusst, aber so vom Gefühl her. „Das sieht irgendwie nach KI aus“ – den Satz hör ich jetzt ständig. Und meistens stimmt er.

Und plötzlich wurde das Handgemachte wieder wertvoll. Das Unperfekte. Das, wo man merkt, dass da jemand gesessen und Entscheidungen getroffen hat.

Das ist gerade die verrückte Situation: Je mehr generiert werden kann, desto mehr wollen die Leute was Echtes sehen. Wer hätte das gedacht.


Jetzt sieht man wieder Hände

Was mir auffällt bei neueren Arbeiten: Man sieht wieder, dass da jemand gesessen hat. Entscheidungen getroffen hat. Vielleicht auch mal was falsch gemacht hat und es trotzdem dringelassen hat.

Linien, die nicht ganz gerade sind. Schriften, die ein bisschen knarzig aussehen. Farben, die nicht aus irgendeinem Harmonie-Tool kommen, sondern die jemand ausgesucht hat, weil sie sich richtig angefühlt haben.

Erst dachte ich: Sieht das nicht unfertig aus? Aber nee. Es sieht menschlich aus. Und das ist anscheinend genau das, was gerade fehlt.

Ich hab letzte Woche ein Plakat gesehen, da war die Headline so gesetzt, dass sie fast aus dem Format rausfällt. Früher hätte ich gesagt: Fehler. Anfänger. Jetzt denk ich: Endlich mal jemand, der sich was traut.

Das Lustige ist: Ich mach das jetzt auch wieder. Sachen ein bisschen schief lassen. Nicht alles ausrichten. Mal eine Farbe nehmen, die eigentlich nicht passt, aber irgendwas an mir sagt: Doch, genau die.

Meine Kunden haben das am Anfang nicht verstanden. „Ist das Absicht?“ Ja, ist es. Und weißt du was? Die Ergebnisse kommen besser an als der ganze perfekte Kram von vorher.


Papier fühlt sich wieder nach Papier an

Auch das fällt mir auf: Material wird wieder wichtig.

Nicht nur im Druck – auch digital. Oberflächen haben wieder Struktur. Körnung ist sichtbar. Sachen sehen aus, als könnte man sie anfassen.

Ich glaub, die Augen sind hungrig danach. Nach irgendwas, das nicht so beliebig wirkt. Nicht so: Klick, wisch, weg, vergessen.

Ein Kunde hat mich neulich gefragt, ob ich ein Bild „kaputter“ machen kann. Der meinte das ernst. Nicht ironisch, nicht als Witz. Und ich hab genau verstanden, was er wollte. Dieses Zu-Glatte nervt die Leute.

Letztens hab ich ein Projekt gemacht, da hab ich echtes Papier eingescannt. Mit Knicken und Flecken und allem. Das wurde dann der Hintergrund. Früher hätte ich das wegretuschiert. Jetzt ist es das Feature.

Und im Digitalen passiert dasselbe. Websites mit Textur. Apps, die nicht mehr so steril aussehen. Selbst große Marken trauen sich wieder ein bisschen Dreck.

Das ist kein Retro-Ding. Das ist was anderes. Das ist: Wir haben genug von Plastik.


Schrift darf wieder Charakter haben

Lange Zeit war Typografie vor allem eins: unsichtbar.

Je weniger man die Schrift bemerkt hat, desto besser. Lesbar, neutral, fertig. Bloß nicht auffallen. Bloß keine Meinung haben.

Das ändert sich gerade. Ich seh wieder Schriften, die eine Meinung haben. Die nicht perfekt sind. Die manchmal ein bisschen seltsam aussehen. Die man sich merkt.

Und weißt du was? Genau deshalb bleiben sie hängen.

Letztens hab ich eine Einladung gesehen mit einer Schrift, die aussah wie hingekritzelt. Nicht ironisch, nicht Retro, nicht dieses „wir tun so als wäre es handgemacht“ – einfach so, als hätte jemand das wirklich mit der Hand gemacht. Hat mich mehr angesprochen als die letzten zwanzig Clean-Design-Poster zusammen.

Ich experimentier selbst wieder mehr mit Typografie. Nehm Schriften, die ich früher als „zu weird“ abgetan hätte. Misch Sachen, die eigentlich nicht zusammenpassen. Manchmal geht das schief. Aber manchmal entsteht was, das ich mit den sicheren Optionen nie hinbekommen hätte.

Ein Kollege hat letztens zu mir gesagt: „Du nimmst ja plötzlich richtig hässliche Schriften.“ War als Kompliment gemeint. Und so hab ich es auch verstanden.


Farben, die nicht gefallen wollen

Auch beim Thema Farbe tut sich was.

Weg von diesen abgestimmten Paletten, wo alles miteinander harmoniert und niemand Bauchschmerzen kriegt. Hin zu Kombinationen, die erstmal irritieren.

Dunkel mit grell. Gedämpft mit knallig. Sachen, die eigentlich nicht zusammenpassen. Farben, bei denen man erstmal schluckt.

Ich find das gut. Farbe soll ja was auslösen. Nicht nur „passt schon“ sondern „hm, interessant“. Oder sogar „was ist das denn?“ – und dann guckt man nochmal hin.

Klar, man kann das auch verkacken. Aber lieber das als nochmal eine Palette in Millennial Pink oder diesem ganzen Pastell-Gedöns, das die letzten Jahre alles dominiert hat.

Ich hab neulich ein Branding gemacht mit Olivgrün und so einem aggressiven Orange. Der Kunde war erstmal skeptisch. „Ist das nicht zu… viel?“ Nee. Ist genau richtig. Weil man es sich merkt.

Das Risiko ist Teil der Sache. Wenn alles sicher ist, ist auch alles egal.


Collagen kommen zurück

Was ich auch ständig sehe: Sachen werden übereinandergelegt. Foto trifft Zeichnung. Text liegt auf Textur. Digital neben analog. Alt neben neu.

Das ist nicht neu, Collagen gab es schon immer. Aber die Art wie es gemacht wird, fühlt sich anders an. Nicht so verspielt wie früher. Nicht so ironisch. Eher nachdenklich. Eher so: Das gehört zusammen, auch wenn es nicht offensichtlich ist.

Als würde jemand sagen: Die Welt ist auch nicht aus einem Guss, warum sollte das Design so tun als ob?

Ich experimentier selbst gerade mehr damit. Und es macht Spaß. Endlich mal nicht alles aufräumen müssen. Endlich mal Sachen nebeneinander stellen, die eigentlich nicht zusammengehören, und gucken was passiert.

Manchmal passiert nichts. Manchmal Chaos. Aber manchmal entsteht was, das ich nicht geplant hatte. Und das sind meistens die besten Momente.


3D ohne Angeberei

3D ist immer noch da, aber es hat sich beruhigt.

Früher ging es darum, zu zeigen was man kann. Effekte, Glanz, Spektakel. Guck mal, wie realistisch. Guck mal, wie aufwendig. Es war oft mehr Tech-Demo als Gestaltung.

Jetzt ist es eher so ein stilles Werkzeug. Licht, Schatten, Tiefe – aber im Dienst der Sache, nicht als Selbstzweck. Man merkt nicht mehr so sehr: Oh, das ist 3D. Sondern es fügt sich ein.

Finde ich angenehmer. 3D muss nicht schreien um zu wirken. Die besten 3D-Arbeiten, die ich gerade sehe, erkennst du gar nicht sofort als 3D. Sie fühlen sich einfach richtig an.


Marken erzählen wieder was

Der größte Unterschied, den ich merke, ist aber ein anderer: Gestaltung will wieder irgendwas sagen.

Nicht im Sinn von Werbebotschaft. Nicht dieses „Wir stehen für Qualität und Innovation“ – das steht überall und bedeutet nichts. Eher so: Warum gibt es uns? Was ist unsere Geschichte? Wer sind die Menschen dahinter?

Ich merk sofort, ob ein Design aus einer echten Idee kommt oder ob da jemand einfach ein Template ausgefüllt hat. Und ich bin nicht der Einzige. Leute sind sensibler geworden dafür. Vielleicht weil wir so viel oberflächliches Zeug sehen. Da fällt echte Handschrift auf.

Ich hab letztes Jahr ein Projekt gemacht für eine kleine Rösterei. Die wollten erstmal was „Professionelles“. Sauber, modern, wie die Großen. Ich hab sie überredet, stattdessen ihre eigene Geschichte zu erzählen. Der Gründer hat früher Musik gemacht, dann irgendwann angefangen Kaffee zu rösten. Diese Mischung aus Chaos und Leidenschaft – das wurde das Design. Nicht sauber. Nicht wie die Großen. Aber echt.

Die Reaktionen waren verrückt. Leute haben gesagt: Das fühlt sich anders an. Nicht besser oder schlechter – anders. Und genau das war der Punkt.


Kunden ändern sich auch

Was ich auch merke: Die Gespräche mit Kunden sind anders geworden.

Früher kamen die oft mit sehr konkreten Vorstellungen. „Wir wollen das wie Apple“ oder „Mach das wie bei Nike“. Benchmarks. Referenzen. Nachmachen, was funktioniert.

Jetzt höre ich öfter: „Wir wollen was Eigenes.“ Oder: „Das soll sich nicht anfühlen wie alles andere.“

Klar, manche wissen dann nicht genau, was sie meinen. Aber allein, dass sie das Bedürfnis haben – das ist neu. Die haben auch gemerkt, dass austauschbar sein keine Strategie ist.

Und das gibt mir als Gestalter mehr Raum. Mehr Möglichkeit, wirklich was zu machen, statt nur abzuliefern.


Die jungen Leute machen interessante Sachen

Was mir auch auffällt: Die Generation, die jetzt aus den Designschulen kommt, tickt anders.

Die haben das ganze Polierte von Anfang an gesehen und sind davon gelangweilt. Für die ist das nicht der Goldstandard, sondern der Normalzustand. Also suchen sie nach was anderem.

Ich seh bei denen viel Mut. Viel Experimentieren. Viel „ich mach das jetzt einfach so, weil ich es so will“. Klar, manchmal geht das schief. Manchmal ist es mehr Attitude als Können. Aber die Energie ist da.

Und ehrlich gesagt: Die inspirieren mich. Ich hab von ein paar Zwanzigjährigen mehr gelernt in letzter Zeit als von den ganzen Branchen-Gurus.


Warum jetzt?

Ich glaub, das alles hängt zusammen mit dem ganzen KI-Ding. Nicht gegen KI, aber als Reaktion darauf.

Wenn alles in Sekunden generiert werden kann, wird das, was nicht generiert aussieht, plötzlich wertvoll. Das Unperfekte. Das Eigenartige. Das, wo man merkt, dass da jemand drüber nachgedacht hat. Dass da Zeit drinsteckt. Dass da Zweifel waren und Entscheidungen.

Das ist keine Revolution. Eher ein leises Umdenken. Aber ich merk es überall. In den Portfolios, die ich sehe. In den Briefings, die ich bekomme. In den Gesprächen, die ich führe.

Irgendwas verschiebt sich. Und ich find es gut.


Die Gefahr dabei

Aber ich will hier nicht so tun, als wäre jetzt alles super.

Es gibt auch die Gefahr, dass das Unperfekte zum neuen Trend wird. Dass alle anfangen, absichtlich „authentisch“ zu sein, und dann ist es wieder genauso austauschbar wie vorher. Nur halt in einer anderen Ästhetik.

Ich seh das schon manchmal. Dieses gewollte Rohe. Dieses „guck mal, wie echt wir sind“. Wenn das kalkuliert ist, merkt man das auch.

Der Unterschied ist: Echt unperfekt kommt aus dem Prozess. Aus Entscheidungen, die man trifft, weil sie sich richtig anfühlen. Fake unperfekt kommt aus dem Wunsch, unperfekt auszusehen.

Das eine hat Substanz. Das andere ist wieder nur Oberfläche.


Was ich für mich rausziehe

Ich hab angefangen, meine eigenen Vorlieben wieder ernst zu nehmen. Nicht mehr alles glätten. Nicht mehr jeden Zufall rauspolieren. Nicht mehr fragen: Würde das bei einem Award gewinnen?

Manchmal lass ich jetzt Sachen drin, die ich früher korrigiert hätte. Kanten, die nicht perfekt sind. Farben, die ein bisschen daneben liegen. Layouts, die nicht ganz aufgehen.

Und oft – nicht immer, aber oft – sind genau die der Grund, warum das Ding am Ende funktioniert. Warum es hängenbleibt. Warum jemand sagt: Das gefällt mir, und ich weiß nicht mal genau warum.

Das ist der Moment. Wenn jemand nicht sagen kann, warum es funktioniert – dann ist es wahrscheinlich gut.


Ich weiß nicht, wie lange das bleibt

Trends kommen und gehen. Vielleicht ist in zwei Jahren wieder alles clean und perfekt. Vielleicht kommt was ganz anderes. Keine Ahnung.

Aber gerade fühlt es sich richtig an. Gestaltung, die wieder nach Gestaltung aussieht. Nach Entscheidungen. Nach Zweifeln. Nach jemandem, der das gemacht hat und nicht nach einer Maschine, die es ausgespuckt hat.

Das hab ich vermisst. Mehr als ich dachte.


Eine Sache noch

Was ich allen sagen würde, die gerade gestalten: Trau dich.

Trau dich, Sachen zu machen, die nicht sofort funktionieren. Trau dich, deinen eigenen Geschmack ernst zu nehmen. Trau dich, nein zu sagen, wenn jemand will, dass es aussieht wie alles andere.

Das Schlimmste, was passieren kann, ist, dass es nicht gefällt. Das Beste, was passieren kann, ist, dass du was machst, das nur von dir kommen konnte.

Und gerade ist die Zeit dafür. Weil die Leute merken, dass sie genug haben von austauschbar.

Nutz das.


Wie dieser Text entstanden ist

Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.



Ich sitze hier und versuche, meine Gedanken zu sortieren. Weil 2026 für mich in Sachen Bildbearbeitung ein seltsames Jahr ist. Einerseits war es noch nie so einfach, technisch saubere Bilder zu kriegen. Rauschen weg, Schärfe rein, Hintergrund raus – alles in Sekunden. Andererseits ertappe ich mich dabei, wie ich manchmal vor meinen eigenen Bildern sitze und denke: Ist das noch meins?

Das klingt vielleicht melodramatisch. Ist es wahrscheinlich auch. Aber ich glaube, da steckt was drin, worüber man reden sollte.

Ich will hier bewusst keine Tools aufzählen. Keine Vergleiche, keine Empfehlungen. Das ändert sich eh alle paar Monate, und darum geht es mir nicht. Mir geht es um die Frage, wie man mit dem ganzen Zeug umgeht, ohne sich dabei selbst zu verlieren.


Das Problem mit der Geschwindigkeit

Was mich am meisten erwischt hat, ist nicht die Qualität. Die ist beeindruckend, keine Frage. Was mich erwischt hat, ist die Geschwindigkeit.

Früher hab ich bei jedem Bild überlegt: Braucht das wirklich mehr Schärfe? Will ich das Rauschen da haben oder nicht? Ist diese Falte im Gesicht ein Problem oder Teil der Geschichte?

Das waren echte Entscheidungen. Die haben Zeit gekostet. Aber in dieser Zeit ist auch was passiert – ich hab über das Bild nachgedacht.

Jetzt klicke ich auf einen Button und es ist fertig. Zack. Weiter zum nächsten. Und irgendwann merke ich, dass ich gar nicht mehr richtig hinschaue. Nicht weil ich faul bin, sondern weil der Prozess so schnell ist, dass kein Raum mehr bleibt.

Ich hab neulich eine Serie bearbeitet und erst hinterher gemerkt, dass alle Bilder irgendwie gleich aussahen. Technisch super. Aber austauschbar. Und dann saß ich da und dachte: Das bin ja gar nicht ich. Das ist der Algorithmus.


„Besser“ ist nicht so einfach, wie es klingt

Der Begriff Bildverbesserung nervt mich. Weil er so tut, als gäbe es ein objektives Besser. Gibt es aber nicht.

Mehr Schärfe ist nicht automatisch besser. Manchmal will ich, dass ein Bild weich ist. Manchmal ist das Rauschen genau das, was die Stimmung ausmacht. Manchmal sind es die Schatten, die Geschichte erzählen – und wenn die KI die aufhellt, ist die Geschichte weg.

Aber die KI weiß das nicht. Die kennt nur Daten. Millionen von Bildern, aus denen sie gelernt hat, was „gut“ ist. Und gut heißt für sie: Durchschnitt. Norm. Was die meisten Leute als korrekt empfinden.

Das ist nicht böse gemeint. So funktioniert die Technik halt. Aber es bedeutet, dass jede automatische Verbesserung eine Interpretation ist. Und wenn ich die nicht hinterfrage, übernehme ich eine Interpretation, die nicht meine ist.


Der Unterschied zwischen Reparieren und Erfinden

Was ich inzwischen gelernt habe: Man muss unterscheiden zwischen KI, die repariert, und KI, die erfindet.

Wenn ich ein Bild entrausche oder die Schärfe verbessere, dann arbeitet die KI mit dem, was da ist. Sie holt Details raus, die im Rauschen versteckt waren. Das ist Restaurierung. Das Bild bleibt mein Bild.

Aber wenn ich den Hintergrund erweitern lasse oder Objekte hinzufüge oder Gesichter verändere, dann erfindet die KI etwas Neues. Das ist nicht mehr Fotografie. Das ist was anderes.

Beides kann okay sein. Aber es ist nicht dasselbe. Und ich finde, man sollte ehrlich sein – zu sich selbst und zu anderen – was davon man gerade macht.

Ich hab Bilder gesehen, die als Fotos verkauft werden, die aber zu 40 Prozent erfunden sind. Das stört mich. Nicht weil Erfinden schlecht wäre. Sondern weil das Nicht-Sagen irgendwie unehrlich ist.


Dieser eine Look, der überall ist

Mir fällt was auf, wenn ich durch Instagram scrolle oder Portfolios anschaue. Vieles sieht gleich aus. Nicht identisch, aber irgendwie… verwandt.

Alles ist sauber. Alles ist korrekt belichtet. Alles hat diese bestimmte Schärfe, diese bestimmte Hauttextur, diese bestimmten Farben.

Und nichts bleibt hängen.

Das ist nicht die Schuld der Fotografen. Das ist der KI-Standard, der sich leise eingeschlichen hat. Weil alle dieselben Tools benutzen mit denselben Presets und denselben Automatiken.

Stil entsteht aber nicht durch Korrektheit. Stil entsteht durch Entscheidungen. Durch bewusstes Abweichen. Durch den Mut zu sagen: Ich will das so, auch wenn der Algorithmus das anders machen würde.

Ein bisschen Unschärfe, die irritiert. Ein Schatten, der zu dunkel ist. Korn, das da sein darf. Das sind keine Fehler. Das sind Unterschriften.


Das Ding mit der Haut

Worüber ich lange nachgedacht habe: Hautretusche.

Die KI ist da mittlerweile unfassbar gut. Ein Klick und die Haut ist perfekt. Keine Poren, keine Fältchen, keine Unreinheiten. Technisch makellos.

Aber irgendwann hab ich gemerkt, dass ich Menschen nicht mehr erkenne. Nicht buchstäblich – aber emotional. Da sitzt jemand vor mir, der dreißig Jahre gelebt hat, und im Bild sieht die Haut aus wie bei einem Zwanzigjährigen in einer Werbung.

Das stimmt dann nicht mehr. Die Geschichte fehlt. Die Müdigkeit fehlt. Das Leben fehlt.

Ich bin da jetzt vorsichtiger geworden. Haut darf Haut bleiben. Mit Textur. Mit Charakter. Die KI bietet mir die perfekte Glätte an, und ich sag meistens: Nee, lass mal.


RAW-Bearbeitung und die Versuchung des Perfekten

Auch bei der RAW-Entwicklung passiert was Komisches. Die KI kann aus Schatten Details rausholen, die ich mit bloßem Auge kaum sehe. Beeindruckend, wirklich.

Aber wenn ich das bei jedem Bild mache, sehen alle Bilder gleich aus. Alles durchgezeichnet, alles sichtbar, alles ausbalanciert.

Und manchmal will ich das gar nicht. Manchmal soll der Schatten dunkel bleiben. Manchmal soll das Licht ausfressen. Weil das die Stimmung ist. Weil das der Moment war.

Ich hab angefangen, die KI-Vorschläge als Startpunkt zu nehmen, nicht als Endergebnis. Gucken, was sie macht. Und dann oft die Hälfte wieder zurücknehmen. Weil zu viel Optimierung den Charakter killt.


Wenn die KI meine Bilder aussortiert

Ein Feature, das mich fasziniert und beunruhigt gleichzeitig: KI kann Bildserien vorsortieren. Nach Schärfe, nach Ausdruck, nach was auch immer.

Das spart Zeit. Massiv. Statt 500 Bilder durchzugucken, zeigt mir die Maschine die „besten“ 50.

Aber wer sagt, was das Beste ist?

Manche meiner liebsten Bilder sind technisch nicht perfekt. Leicht unscharf, komisch geschnitten, Moment zwischen den Momenten. Genau deshalb sind sie gut. Weil sie echt sind. Weil da was passiert ist, das nicht geplant war.

Die KI hätte die aussortiert. Weil sie nicht in die Norm passt.

Also nutze ich das Feature, aber ich schau trotzdem noch selbst durch. Nicht alles, aber genug, um die Bilder zu finden, die die Maschine nicht versteht.


Was ich mir abgewöhnt habe

Ich hab aufgehört, alles automatisch laufen zu lassen. Klingt banal, aber es hat gedauert.

Früher hab ich Bilder in die Pipeline geworfen und am Ende kam was Fertiges raus. Schnell, effizient, bequem.

Jetzt mache ich mehr Schritte manuell. Nicht alle, aber die wichtigen. Die Entscheidungen, die das Bild zu meinem Bild machen.

Das kostet Zeit. Aber die Zeit hat einen Wert. In dieser Zeit verstehe ich, was ich tue. In dieser Zeit passiert das, was man wohl „Handschrift“ nennt.


Die eigentliche Frage

Am Ende geht es nicht darum, welche KI man benutzt. Es geht darum, wo man sie stoppt.

Was darf automatisch passieren? Was muss durch mich durch?

Das ist für jeden anders. Und es verändert sich wahrscheinlich auch mit der Zeit. Aber die Frage muss man sich stellen. Sonst stellt sie irgendwann jemand anderes – und die Antwort gefällt einem nicht.

Ich hab für mich ein paar Linien gezogen. Technische Sachen – Rauschen, Grundschärfe, Objektivkorrekturen – da darf die KI ran. Aber sobald es um Gesichter geht, um Stimmung, um das, was das Bild eigentlich sagen soll – da will ich selbst entscheiden.

Ob das richtig ist, weiß ich nicht. Aber es fühlt sich richtig an. Und das muss erstmal reichen.


Was bleibt

KI ist kein Feind. Ist auch kein Retter. Ist ein Werkzeug. Ein ziemlich mächtiges.

Aber wie jedes Werkzeug verstärkt es das, was man reintut. Wenn ich gedankenlos arbeite, macht die KI mich schneller gedankenlos. Wenn ich bewusst arbeite, gibt sie mir Zeit für die Dinge, die zählen.

2026 trennt sich nicht die Leute, die KI nutzen, von denen, die es nicht tun. Es trennt sich die Leute, die wissen, warum sie was machen, von denen, die einfach klicken.

Ich versuche, zur ersten Gruppe zu gehören. Klappt nicht immer. Aber ich versuch’s.

Weil am Ende gilt, was schon immer galt: Technik kann Bilder besser machen. Aber nur ich kann sie zu meinen machen.


Wie dieser Text entstanden ist

Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.



Letzte Woche ist etwas passiert, das mich unerwartet glücklich gemacht hat. Ich habe Windows 11 neu aufgesetzt, mehr aus Notwendigkeit als aus Lust. Und dann, aus einer Mischung aus Neugier und Nostalgie, habe ich etwas getan, was ich seit Jahren nicht mehr probiert hatte: Ich habe Photoshop CS3 installiert.

Nicht Photoshop 2025 mit seinen KI-Funktionen und monatlichen Abbuchungen. Sondern das gute alte CS3. Von 2007. Fast zwanzig Jahre alt.

Und es läuft. Einfach so. Keine Fehlermeldungen, keine Kompatibilitätswarnungen, keine Abstürze. Es startet in drei Sekunden, reagiert ohne Verzögerung, und fühlt sich an wie ein alter Freund, der nach langer Zeit wieder vor der Tür steht.

Aber das Beste kam danach. Ich habe meine alten Plugin-Ordner ausgegraben. Nik Collection. LucisArt. Die Xerox-Filter. Und dann, ganz unten in einem verstaubten Backup-Verzeichnis: Kai’s Power Tools.

Alles läuft. Alles. Auf einem Betriebssystem, das es noch gar nicht gab, als diese Programme geschrieben wurden.

Und plötzlich saß ich da, spielte mit Filtern, die ich seit Jahren nicht mehr benutzt hatte, und fragte mich: Warum habe ich das eigentlich aufgegeben?


Die Nik Collection: Als Filter noch Handschrift hatten

Wenn du heute von der Nik Collection hörst, denkst du wahrscheinlich an DxO, die aktuelle Version, die Presets und HDR-Verarbeitung. Die ist okay. Aber sie ist nicht das, was die Nik Collection mal war.

Die alten Nik-Filter – ich rede von Color Efex Pro 2 und 3, von Silver Efex in seiner ursprünglichen Form, von Dfine, als es noch eine Revolution war – hatten etwas, das schwer zu beschreiben ist. Sie hatten Charakter.

Nicht diesen generischen Look, den heute jeder Filter hat. Nicht diese Presets, die alle irgendwie gleich aussehen, egal ob sie „Vintage Summer“ oder „Moody Portrait“ heißen. Sondern echte, eigenständige Bildlooks.

Der Bleach Bypass in Color Efex Pro. Der sah nicht aus wie „etwas weniger Sättigung und mehr Kontrast“. Der sah aus wie ein Look, den jemand mit Absicht entwickelt hat. Mit einer Meinung. Mit einer ästhetischen Position.

Und die Bedienung. Diese Control Points, die man ins Bild setzen konnte. Man zog einen Punkt auf einen Bereich, stellte ein paar Regler ein, und der Filter wusste, welche Pixel dazugehörten und welche nicht. Das war 2007 Science Fiction. Heute macht das jede App mit KI, aber damals war das Magie.

Ich nutze diese Filter immer noch. Nicht für alles, aber für bestimmte Looks, die ich anders nicht hinbekomme. Das Korn in Silver Efex. Diese spezielle Art, wie Color Efex Hauttöne behandelt. Die Art, wie die alten Nik-Filter mit Farben umgehen, die am Rand der Sättigung sind.

Moderne Filter sind technisch besser. Aber sie haben keine Persönlichkeit mehr. Sie sind Werkzeuge. Die alten Nik-Filter waren Mitarbeiter.


LucisArt: Der vergessene König der Detailbetonung

LucisArt. Wenn du diesen Namen kennst, gehörst du zu einem kleinen Kreis von Leuten, die in den 2000ern ernsthaft mit digitaler Bildbearbeitung gearbeitet haben. Und wenn du den Namen nicht kennst – du hast etwas verpasst.

LucisArt war ein Plugin, das eine einzige Sache tat: Lokale Kontrastverstärkung. Aber es tat diese Sache so gut, dass nichts anderes auch nur in die Nähe kam.

Der Algorithmus basierte auf einer Technik namens Differential Hysteresis Processing. Das klingt kompliziert, und es war kompliziert. Aber das Ergebnis war einfach: Bilder mit einer Tiefe und Präsenz, die man mit normalen Mitteln nicht erreichen konnte.

Fotografen haben LucisArt für Landschaften verwendet, für Architektur, für alles, wo Struktur und Textur wichtig waren. Die Ergebnisse sahen aus, als würde das Bild aus dem Monitor springen. Nicht überschärft, nicht künstlich – einfach präsent.

Irgendwann hat die Firma aufgehört zu existieren. Das Plugin wurde nicht mehr aktualisiert. Es verschwand aus dem kollektiven Gedächtnis.

Aber es läuft noch. Auf meinem Rechner. Unter Windows 11. Und wenn ich ein Bild habe, das diesen speziellen Look braucht – dieses Heraustreten der Details, ohne dass es nach HDR-Desaster aussieht – dann starte ich CS3 und lade LucisArt.

Es gibt nichts Vergleichbares. Ich habe gesucht. Clarity in Lightroom kommt nicht ran. Die Textur-Regler auch nicht. Topaz Detail war mal ein Kandidat, aber auch das ist nicht dasselbe.

Manche Algorithmen sind einfach einzigartig. Und wenn die Firma, die sie entwickelt hat, nicht mehr existiert, dann sind sie weg. Es sei denn, man bewahrt sie auf.


Die Xerox-Filter: Vergessene Kunstwerke

Hier wird es richtig obskur. Die Xerox-Filter kennt fast niemand mehr. Sie wurden von Xerox entwickelt – ja, der Kopierer-Firma – und waren eine Sammlung von Effekten, die Bilder in verschiedene künstlerische Stile verwandeln konnten.

Das klingt nach dem, was heute jede App macht. Aber die Art, wie die Xerox-Filter das taten, war anders.

Der Colored Pencil-Filter. Der Watercolor-Filter. Der Chalk & Charcoal-Filter. Das waren keine einfachen Kantenfindungs-Algorithmen mit etwas Rauschen drüber. Das waren komplexe Berechnungen, die versuchten, echte Medien zu simulieren.

Das Ergebnis war nie fotorealistisch. Es sollte es auch nicht sein. Es war interpretativ. Der Filter traf Entscheidungen darüber, welche Linien wichtig waren und welche nicht. Welche Flächen zusammengehörten. Wo Akzente gesetzt werden sollten.

Heute würde man sagen: Da war eine Meinung drin.

Ich nutze diese Filter für Hintergründe, für abstrakte Elemente, für Dinge, die nicht nach Foto aussehen sollen, aber auch nicht nach billigem Filter. Es ist ein Zwischenreich, das moderne Tools selten treffen.


Kai’s Power Tools: Die Legende

Und dann ist da Kai’s Power Tools. KPT. Wenn du in den 1990ern mit Photoshop gearbeitet hast, kennst du diesen Namen. Wenn nicht, lass mich dir von einer Zeit erzählen, als Plugins noch Abenteuer waren.

Kai Krause war ein Designer und Programmierer, der in den 90ern eine Art Rockstar-Status in der Grafikszene hatte. Seine Plugins waren nicht einfach nur Werkzeuge. Sie waren Erlebnisse.

Die Benutzeroberfläche von KPT war… anders. Rund. Organisch. Voll mit verschachtelten Menüs und geheimen Ecken. Man musste sie erkunden wie ein Spiel. Es gab versteckte Funktionen, Easter Eggs, und eine Ästhetik, die aussah, als hätte jemand Tron mit einem Aquarium gekreuzt.

Aber hinter dieser verrückten Oberfläche steckten echte Innovationen.

KPT Fractal Explorer hat prozedurale Fraktale generiert, die man als Texturen verwenden konnte. In einer Zeit, als Photoshop selbst kaum prozedurale Inhalte kannte.

KPT Spheroid Designer hat Kugeln und organische Formen erstellt, mit Beleuchtung und Reflexionen, die man in Echtzeit anpassen konnte.

KPT Gradient Designer hat Farbverläufe auf ein Level gehoben, das Photoshop erst Jahre später erreicht hat. Mit Kurven, mit Zufallselementen, mit einer Kontrolle, die damals unerhört war.

KPT Goo war ein Verflüssigen-Werkzeug, bevor Photoshop eines hatte. Du konntest Bilder verziehen, strecken, wirbeln – in Echtzeit, mit dem Mauszeiger.

Und KPT Bryce – okay, das war technisch ein eigenständiges Programm, nicht nur ein Plugin – hat 3D-Landschaften generiert, die in den 90ern jedes zweite Science-Fiction-Buchcover zierten.

Kai Krause hat später die Firma verlassen, die Plugins wurden von verschiedenen Unternehmen weiterverkauft, irgendwann veraltet, irgendwann vergessen.

Aber sie laufen noch. Manche von ihnen. Unter CS3, unter Windows 11. Und wenn ich den KPT Gradient Designer starte und diese verrückte, organische Benutzeroberfläche vor mir sehe, fühle ich mich für einen Moment wieder wie 1997.

Das ist Nostalgie, klar. Aber es ist auch etwas anderes. Es ist die Erinnerung an eine Zeit, als Software noch Persönlichkeit haben durfte. Als Designer wie Kai Krause verrückte Ideen umsetzen konnten, ohne dass ein Produktmanager fragte, ob das A/B-getestet wurde.


Warum CS3 und nicht die aktuelle Version?

Die Frage kommt immer: Warum benutzt du nicht einfach das aktuelle Photoshop? Da funktionieren die alten Plugins zwar nicht, aber es gibt doch Alternativen?

Die kurze Antwort: Es gibt keine Alternativen. Nicht wirklich.

Die lange Antwort: Photoshop CS3 ist ein anderes Programm als Photoshop 2025. Nicht nur wegen der Plugins. Sondern wegen der Philosophie.

CS3 ist schnell. Lächerlich schnell auf moderner Hardware. Es startet in Sekunden, reagiert sofort auf jeden Klick, fühlt sich an wie eine Verlängerung meiner Hand.

CS3 ist fokussiert. Es hat nicht tausend Funktionen, von denen ich die Hälfte nie brauche. Es hat die Werkzeuge, die ich kenne, an den Stellen, an denen ich sie erwarte.

CS3 gehört mir. Keine Subscription, keine Internetverbindung nötig, keine Angst, dass morgen ein Update alles verändert. Es ist auf meiner Festplatte, es wird da bleiben, und es wird in zehn Jahren noch genauso funktionieren wie heute.

Und CS3 unterstützt meine Plugins. Die Filter, die ich seit fast zwanzig Jahren kenne. Die Workflows, die ich mir aufgebaut habe. Die Ergebnisse, die ich nur mit diesen spezifischen Werkzeugen erreiche.

Das moderne Photoshop ist mächtiger. Keine Frage. Die KI-Funktionen sind beeindruckend. Die neuen Auswahlwerkzeuge sind besser. Der Camera Raw Filter kann Dinge, die früher unmöglich waren.

Aber für bestimmte Arbeiten – für die Arbeiten, bei denen es auf einen spezifischen Look ankommt, auf eine bestimmte Ästhetik, auf das Gefühl einer Ära – ist CS3 mit seinen alten Plugins unersetzbar.


Das Glück des Funktionierens

Es gibt etwas Besonderes an dem Moment, wenn alte Software auf neuer Hardware läuft. Etwas, das schwer zu erklären ist, wenn man es nicht selbst erlebt hat.

Es ist nicht nur praktisch. Es ist emotional.

Diese Programme wurden geschrieben, als Windows XP das aktuelle Betriebssystem war. Ihre Entwickler konnten sich nicht vorstellen, was zwanzig Jahre später mit Computern passieren würde. Und trotzdem läuft der Code. Sauber. Stabil. Als wäre nichts gewesen.

Das ist ein kleines Wunder der Abwärtskompatibilität. Microsoft hat viel Kritik eingesteckt über die Jahre, aber eines muss man sagen: Sie haben dafür gesorgt, dass alte Software weiterläuft. Nicht immer, nicht alles – aber erstaunlich viel.

Und wenn ich CS3 starte und der Splash-Screen erscheint, dieser blaue Federkreis, dann ist das nicht nur ein Programm, das lädt. Das ist ein Portal in eine andere Zeit.


Wer erinnert sich noch?

Manchmal frage ich mich, wie viele Leute da draußen noch ähnlich arbeiten. Die noch alte Photoshop-Versionen haben, versteckt auf Backup-Festplatten. Die noch Plugins besitzen, die seit zehn Jahren nicht mehr verkauft werden. Die wissen, was Alien Skin Eye Candy war, oder Auto FX DreamSuite, oder Flaming Pear.

Es muss sie geben. In Foren, in Discord-Servern, in Ecken des Internets, die ich nicht kenne. Leute, die verstanden haben, dass nicht alles Neue automatisch besser ist. Dass manchmal ein Werkzeug aus 2005 genau das richtige Werkzeug für 2025 ist.

Falls du einer dieser Leute bist: Du bist nicht allein.

Und falls du jünger bist und das alles nur vom Hörensagen kennst: Probier es aus. Such dir eine alte Photoshop-Version, such dir ein paar vergessene Plugins, und spiel damit. Nicht um produktiv zu sein, sondern um zu verstehen, wie Software mal war.

Du wirst vielleicht überrascht sein, was du findest.


Fazit: Die Vergangenheit ist nicht vorbei

Photoshop CS3 ist fast zwanzig Jahre alt. Die Nik-Filter, LucisArt, die Xerox-Plugins, Kai’s Power Tools – sie alle stammen aus einer Zeit, die sich anfühlt wie eine andere Epoche.

Aber sie sind nicht tot. Sie laufen noch. Sie produzieren noch Ergebnisse, die mit modernen Tools schwer zu erreichen sind. Sie haben noch etwas zu sagen.

Und ich bin froh, dass ich sie aufbewahrt habe. Diese verstaubten Installer, diese Seriennummern in Textdateien, diese Plugin-Ordner, die seit Jahren nicht mehr angefasst wurden.

Weil Werkzeuge nicht wertlos werden, nur weil sie alt sind. Weil Algorithmen nicht verschwinden, nur weil ihre Entwickler aufgehört haben. Weil Software – die richtige Software, gepflegt und bewahrt – ein Leben hat, das weit über ihren offiziellen Support hinausgeht.

CS3 läuft auf meinem Rechner. Neben Photoshop 2025, neben Affinity Photo, neben allem Modernen.

Und manchmal, wenn ich einen bestimmten Look brauche, wenn ich mich an eine bestimmte Ästhetik erinnere, wenn ich etwas will, das sich anfühlt wie früher – dann starte ich nicht das neue Programm.

Dann starte ich das alte.

Und es fühlt sich richtig an.