Latest Entries »



Es gibt dieses Rauschen. Du hörst es überall. Es kriecht aus den sozialen Netzwerken, es steht in den Feuilletons, es dominiert die Gespräche in der Kaffeeküche deiner Agentur oder im Studio zwischen zwei Sets, wenn das Model gerade in der Maske sitzt und der Art Director nervös auf sein Tablet starrt. Es ist ein nervöses, manchmal fast hysterisches, oft resigniertes Rauschen: „Die KI macht uns arbeitslos.“ „Fotografie ist tot.“ „Bald drückt jeder nur noch einen Knopf und ist Künstler.“ „Warum soll ich noch lernen, wie man Licht setzt, wenn die Software das in drei Sekunden macht?“

Ich sage es dir jetzt einmal ganz deutlich, hart und ohne die üblichen diplomatischen Schnörkel, mit denen wir uns in der Kreativbranche gerne gegenseitig beruhigen: Das ist Unsinn. Es ist der größte Irrtum dieses Jahrzehnts. Wer glaubt, dass die aktuellen oder kommenden KI-Modelle einen echten Fotografen, einen echten Retuscheur oder einen echten Art Director ersetzen, der hat nicht verstanden, was diese Berufe eigentlich im Kern ausmacht. Und noch viel wichtiger, vielleicht das Wichtigste überhaupt: Er hat nicht verstanden, wie diese neuen Werkzeuge wirklich funktionieren, wenn man sie nicht wie einen einarmigen Banditen im Casino bedient, sondern wie ein hochkomplexes Präzisionsinstrument in einem Labor.

Wir schreiben das Jahr 2026. Die generative künstliche Intelligenz ist kein Spielzeug mehr. Sie ist kein Partytrick, mit dem man den Papst in eine Daunenjacke steckt oder Wes Anderson Harry Potter drehen lässt. Sie ist eine industrielle Fräse für visuelle Inhalte. Sie ist ein Reaktor für Pixel. Aber – und das ist das gigantische Aber, um das sich dieser Text drehen wird – eine Fräse braucht jemanden, der sie bedient. Einen Meister, der weiß, wie das Material reagiert, wenn es heiß wird. Jemanden, der den Unterschied zwischen Kitsch und Kunst nicht nur kennt, sondern fühlt. Die KI ersetzt nicht den Menschen. Sie ersetzt den Durchschnitt. Sie ersetzt das Mittelmaß. Sie ersetzt diejenigen, die nur Knöpfe drücken, ohne zu wissen, was dahinter passiert. Aber für dich, den Experten, der Fotografie, Licht, Komposition, Farbtheorie und Post-Production wirklich verstanden und jahrelang geübt hat, ist sie kein Feind. Sie ist der Turbo, von dem wir immer geträumt haben, ohne es zu wissen. Sie ist die Erweiterung deines Gehirns und deiner Hände, nicht deren Ersatz.

Lass uns tief eintauchen. Lass uns zerlegen, warum das so ist. Warum JSON-Code wichtiger ist als „schöne Worte“. Warum deine eigenen Fotos das Gold der neuen Ära sind. Und warum am Ende immer noch Photoshop, deine lokale Hardware und dein Auge entscheiden, ob ein Bild lebt oder nur existiert. Wir müssen zunächst mit einem fundamentalen Missverständnis aufräumen, das die Debatte vergiftet. Die meisten Menschen da draußen nutzen Bild-KI vollkommen falsch. Sie gehen zu einer Eingabeaufforderung, sei es in einem Discord-Channel oder einem Web-Interface, und tippen etwas wie: „Ein schöner Sonnenuntergang, Cyberpunk, Frau mit Neon-Haaren, 8k, masterpiece, trending on artstation.“ Dann drückt die KI auf den Zufallsgenerator. Sie würfelt. Sie greift in den riesigen Sack der Wahrscheinlichkeiten, den sie aus Milliarden von Bildern gelernt hat, und spuckt vier Varianten aus. Der Nutzer sucht sich das hübscheste aus, speichert es ab und sagt: „Ich habe das gemacht.“

Nein, hast du nicht. Du hast im Lotto gewonnen.

Das ist Glücksspiel, keine Kreation. Die KI hat basierend auf statistischen Wahrscheinlichkeiten Pixel angeordnet, die lose zu deinen Worten passen. Du hattest keine Kontrolle über das Lichtverhältnis. Du hattest keine Kontrolle über die Brennweite. Du hattest keine Kontrolle über den emotionalen Subtext oder die narrative Tiefe. Du hast konsumiert, nicht produziert. Du warst der Kunde, nicht der Koch. Hier trennt sich die Spreu vom Weizen, und hier beginnt deine Relevanz als Profi. Der Fotograf, der Künstler – also du – akzeptiert keinen Zufall. Wir hassen Zufall. Wir wollen Kontrolle. Wenn du ein Bild im Kopf hast, dann hast du eine Vision. Du siehst die Lichtsetzung vor deinem inneren Auge – ist es ein Rembrandt-Licht? Ein hartes Split-Light? Ein weiches Butterfly? Du siehst die Textur der Haut, spürst, ob sie glänzen oder matt sein soll. Du siehst die Körnung des Films, die Tiefe der Schatten. Du siehst die emotionale Distanz zum Subjekt. Wenn die KI dir dann irgendwas Generisches ausspuckt, das zwar „nett“ aussieht, aber nicht deine Vision trifft, ist das für dich wertlos.

Deshalb ist die KI beim derzeitigen Stand – und ich wage zu behaupten, auch in absehbarer Zukunft – kein Ersatz für dich. Denn die KI hat keinen Willen. Sie hat keinen Geschmack. Sie hat keine Intention. Sie hat keine Schmerzen empfunden, keine Freude erlebt, keine Angst gehabt. Sie ist ein Spiegel, der alles reflektiert, was man ihm zeigt. Und wenn man ihm nichts Konkretes, nichts Menschliches zeigt, reflektiert er eben den Durchschnitt des Internets. Und der Durchschnitt ist langweilig. Es ist eine Ironie des Schicksals, die man sich auf der Zunge zergehen lassen muss: Gerade jetzt, wo jeder Hans und Franz Bilder generieren kann, wird echtes, tiefes fotografisches Fachwissen wertvoller denn je. Warum? Weil du der Maschine sagen musst, was sie tun soll. Und die Maschine spricht – überraschenderweise und glücklicherweise – die Sprache der Fotografie.

Ein Laie schreibt in seinen Prompt: „Hintergrund unscharf.“ Du schreibst – oder codierst –: „85mm Prime Lens, Aperture f/1.2, heavy Bokeh, shallow Depth of Field, focus on iris, chromatic aberration on edges.“ Das Ergebnis ist fundamental anders. Die KI versteht physikalische Gesetzmäßigkeiten, weil sie mit Millionen von echten Fotos trainiert wurde, in deren Metadaten genau diese Informationen standen. Sie „weiß“ im statistischen Sinne, wie ein 35mm-Objektiv ein Gesicht verzerrt und wie ein 200mm-Objektiv es komprimiert und den Hintergrund ranholt. Sie weiß, wie sich chromatische Aberration an harten Kanten bei Gegenlicht verhält. Sie weiß, wie Filmkorn bei ISO 3200 aussieht im Vergleich zu ISO 100. Wenn du als Anwender nicht weißt, was ISO-Rauschen ist, wie sich hartes Sonnenlicht von einer riesigen Octabox unterscheidet, was ein „Rim Light“ bewirkt oder warum man in der Porträtfotografie oft nicht unter 50mm geht, dann bist du der KI ausgeliefert. Du bist Passagier in einem Auto, das du nicht steuern kannst. Du kannst nur hoffen, dass es irgendwo ankommt, wo es schön ist. Als Profi bist du der Pilot.

Künstliche Intelligenz ist im Grunde ein gigantischer, unendlicher Licht-Simulator. Aber sie hat eine Tendenz: Sie neigt dazu, Licht „perfekt“ zu machen. Zu glatt. Zu kommerziell. Zu gefällig. Wer Ahnung von Fotografie hat, weiß, dass Charakter durch Schatten entsteht, nicht durch Licht. Dass die Dunkelheit genauso wichtig ist wie die Helligkeit. Wir zwingen die KI, Fehler zu machen. Wir fordern „Low Key“, wir fordern „Chiaroscuro“, wir fordern „Volumetric Lighting“, das Staubpartikel in der Luft sichtbar macht. Wir bauen Szenarien auf, die wir aus dem Studio kennen. Du kannst der KI sagen: „Setze ein Key Light von links oben, 45 Grad, Farbtemperatur 5600K, hart, und ein Rim Light von rechts hinten, Farbe Teal, Intensität 2.0, um die Silhouette vom Hintergrund zu lösen.“ Wenn du nie in einem Studio gestanden hast, nie Lampen geschleppt und Lichtformer gewechselt hast, kommst du gar nicht auf die Idee, das zu verlangen. Du nimmst das flache Einheitslicht, das die Modelle standardmäßig liefern, weil es „sicher“ ist. Das ist der Grund, warum 90 Prozent der KI-Bilder gleich aussehen. Weil 90 Prozent der Nutzer kein Licht lesen können. Du kannst es. Das ist dein unfairer Vorteil.

Jetzt wird es technisch, und das ist der Punkt, an dem viele Hobbyisten aussteigen – und wo du als Profi anfängst, echte Qualität zu liefern und dich vom Markt abzuheben. Vergiss das klassische „Prompting“. Das Schreiben von langen, blumigen Sätzen wie „Eine wunderschöne Elfe steht in einem magischen Wald, es ist neblig und mystisch…“ ist ineffizient, unpräzise und ehrlich gesagt veraltet. Es ist Malen nach Zahlen. Sprache ist schwammig. Was bedeutet „wunderschön“? Für dich ist das etwas anderes als für die KI oder für deinen Kunden. Was bedeutet „mystisch“? Nebel? Dunkelheit? Leuchtende Pilze? Deshalb arbeiten wir auf dem höchsten Level nicht mehr mit Prosa, sondern mit Struktur. Wir nutzen JSON (JavaScript Object Notation) oder ähnliche strukturierte Datenformate, um mit der KI zu kommunizieren – oft im Dialog mit LLMs (Large Language Models), die als Dolmetscher und Architekten für die Bild-KI fungieren. Besonders in Workflows, die über API-Schnittstellen laufen oder in fortgeschrittenen Interfaces wie ComfyUI integriert sind, ist das der Standard.

Warum JSON? Weil es Parameter trennt, isoliert, gewichtet und kontrollierbar macht. Stell dir vor, du beschreibst ein Bild nicht wie ein Dichter, sondern wie ein Architekt oder ein Regisseur, der sein Set aufbaut. Du definierst das Subjekt mit Attributen für Alter, Hauttextur und Kleidung. Du definierst die Kamera mit Modell, Objektiv, Blende und Winkel. Du definierst das Licht mit Quellen, Positionen, Farben und Härtegraden. Du definierst die Umgebung und den Stil separat. Indem du die Bildbestandteile in Variablen zerlegst, erlangst du Wiederholbarkeit. Du kannst den Wert für „lighting“ ändern, ohne dass sich das „subject“ verändert. Du kannst die Kamera wechseln, ohne dass die Kleidung plötzlich eine andere Farbe hat oder die KI „vergisst“, was sie eigentlich malen sollte. Das ist Programmierung von Bildern. Das ist Synthografie in Reinform. Wer das beherrscht, der „hofft“ nicht auf ein gutes Bild. Der baut es.

Diese methodische Herangehensweise erlaubt es dir, komplexe Bildwelten zu erschaffen, die konsistent sind. Wenn du eine Serie für einen Kunden produzierst, kannst du dir keine Zufälle leisten. Du kannst nicht dem Kunden sagen: „Ja, im dritten Bild hat das Model plötzlich blonde Haare, weil die KI heute einen schlechten Tag hat.“ JSON und strukturierte Parameter geben dir die Zügel in die Hand, die der normale Prompt-Tipper gar nicht sieht. Es verwandelt die „Black Box“ der KI in ein Cockpit mit Reglern und Schaltern. Doch selbst der beste Code ist nichts ohne den richtigen Rohstoff. Hier kommen wir zum vielleicht wichtigsten Punkt, warum du als Fotograf unverzichtbar bleibst: Input. Eine KI, die nur mit Text gefüttert wird, halluziniert. Sie erfindet Dinge. Das ist oft toll für Fantasy oder surreale Kunst, aber katastrophal für spezifische Visionen, Porträts realer Personen oder Corporate Identity. Die wahre Macht entfaltet sich, wenn wir der KI eigene Bilder geben. Gute Ausgangsfotos. Deine Fotos.

Stell dir folgende Situation vor: Du fotografierst ein Model im Studio. Das Licht ist okay, die Pose ist perfekt, der Gesichtsausdruck ist genau der, den du willst – dieser eine Moment zwischen Einatmen und Ausatmen. Aber du hast kein Budget, um sie nach Island an einen schwarzen Strand zu fliegen, und du hast auch nicht das 10.000-Euro-Kleid vom Designer zur Hand, das eigentlich im Konzept stand. Früher war das ein Fall für aufwendiges Composing, das Tage gedauert hat. Du musstest Stock-Fotos suchen, die nie ganz passten, Perspektiven verzerren, Licht malen, und oft sah es am Ende trotzdem „reingeklebt“ aus, weil die Physik nicht stimmte. Heute nimmst du dein Studiofoto. Du nutzt es als Referenz (Image-to-Image) und steuerst die Struktur über Technologien wie ControlNet (mit Modulen wie Depth Maps, Canny Edge oder OpenPose). Du sagst der KI: „Nimm exakt diese Körperhaltung. Nimm exakt diese Gesichtszüge. Nimm exakt diese Lichtverteilung. Aber zieh ihr das futuristische Kleid an und stell sie an den Strand in Island. Behalte die Lichtrichtung bei.“

Weil das Ausgangsmaterial – dein Foto – qualitativ hochwertig ist, wird das Ergebnis hochwertig sein. Die KI muss die Anatomie nicht raten (was sie oft falsch macht, siehe das berüchtigte Hände-Problem), weil du ihr die Anatomie gibst. Sie muss die Lichtrichtung nicht raten, weil dein Foto die Schatten vorgibt. Je besser dein Input-Foto, desto realistischer, schärfer und glaubwürdiger ist das Ergebnis. Ein unscharfes, schlecht beleuchtetes Handyfoto führt zu Matsch. Ein knackscharfes RAW-File aus deiner 50-Megapixel-Kamera führt zu einem High-End-Render. Das bedeutet: Wer fotografieren kann, hat den besseren Rohstoff. Wir sind die Lieferanten der digitalen DNA, aus der die neuen Welten gebaut werden. Ohne diese DNA ist alles nur generisches Rauschen. Du lieferst die Substanz, die KI liefert die Dekoration und die Transformation. Du bist der Anker in der Realität.

Ein weiteres Problem der frühen KI-Bilder (wir erinnern uns an 2023/2024) war dieser furchtbare „Plastik-Look“. Alles sah aus wie Airbrush, zu glatt, zu perfekt, wie Videospielgrafik auf Steroiden. Haut wie Gummi, Augen wie Glasmurmeln. Der Experte – also du – arbeitet heute mit cinematischen Modellen. Das sind speziell trainierte Checkpoints (oft basierend auf Stable Diffusion XL oder proprietären neuen Architekturen wie Flux oder spezialisierten Fine-Tunes), die nicht auf „hübsch“ trainiert sind, sondern auf „echt“. Diese Modelle verstehen, dass Haut Poren hat. Dass Poren nicht gleichmäßig verteilt sind. Dass Licht in einer Linse bricht und Fehler erzeugt – Lens Flares, Halation, chromatische Aberration, Vignettierung. Dass analoger Film ein Rauschverhalten hat, das digitalem Rauschen überlegen ist. Wir nutzen Modelle, die „hässlich“ können. Dreck, Asymmetrie, Chaos. Das ist der Schlüssel zum Fotorealismus. Die Realität ist nicht perfekt. Eine KI, die Perfektion anstrebt, scheitert an der Realität. Ein echtes Foto ist nie 100 % sauber. Als Künstler wählst du das Modell wie früher den Film. Brauchst du die Farben eines Kodak Portra 400? Nimmst du Modell A. Brauchst du den düsteren, körnigen, kontrastreichen Look eines Ilford Delta 3200 Schwarzweiß-Films? Nimmst du Modell B. Du kannst diese Modelle sogar mixen (Checkpoint Merging), um deinen eigenen, unverwechselbaren Stil zu kreieren. Das ist wie das Mischen von Farben auf einer Palette. Ein Laie nutzt die Standard-Farben aus der Tube (das Standard-Modell von Midjourney). Ein Meister mischt sich seinen Ton.

Aber lass uns an diesem Punkt ehrlich sein: Ein Bild, das zu 100 Prozent aus der KI kommt, fühlt sich oft seltsam glatt an, selbst mit den besten Modellen. Ein Bild, das heute noch zu 100 Prozent klassisch in Photoshop gemalt oder retuschiert wird, dauert oft zu lange, um wirtschaftlich zu sein. Die Magie – der eigentliche künstlerische Durchbruch – liegt im „Dazwischen“. In der hybriden Kunst. Wir müssen aufhören, in Lagern zu denken. Hier die Fotografen, da die KI-Nerds. Der Experte von 2026 ist ein Grenzgänger. Hybride Kunst bedeutet: Du nutzt die KI nicht, um das ganze Bild zu machen. Du nutzt sie, um Elemente zu erzeugen, die du fotografisch nicht oder nur schwer bekommst.

Vielleicht fotografierst du das Model im Studio. Das ist echt. Die Emotion ist echt. Die Haut ist echt. Aber das Kleid? Vielleicht skizzierst du das grob in Photoshop, fütterst diese Skizze in eine lokale KI, lässt dir fünf Textur-Varianten von Seide oder Metall generieren, und dann – und das ist der entscheidende Schritt – compst du diese KI-Elemente klassisch in Photoshop zurück auf das echte Foto. Du nutzt Masken. Du nutzt Gradationskurven. Du nutzt den Mischpinsel. Du verheiratest das generierte Chaos mit der fotografischen Ordnung. Das ist Hybrid-Kunst. Das Ergebnis ist ein Werk, bei dem niemand mehr sagen kann, wo das Foto aufhört und die KI anfängt. Es gibt keine Nahtstellen. Es gibt keine „KI-Artefakte“, weil du sie manuell entfernt hast. Es gibt keine physikalischen Unmöglichkeiten, weil du sie korrigiert hast.

Diese hybride Arbeitsweise ist es, die deinen Stil unkopierbar macht. Jemanden, der nur promptet, kann man kopieren. Man klaut den Prompt, man kriegt ein ähnliches Bild. Aber jemanden, der fotografiert, malt, generiert, maskiert, überlagert und retuschiert? Das ist eine Handschrift. Das ist ein Prozess, der so komplex und individuell ist, dass er immun gegen Nachahmung wird. Du bist nicht mehr nur ein User einer Software. Du bist ein Alchemist, der verschiedene Substanzen mischt, um Gold zu machen.

Und hier kommen wir zu einem Punkt, der oft übersehen wird, der aber über deine Karriere entscheiden kann: Datenschutz und Urheberschaft. Wenn du professionell arbeitest, wenn du hybride Kunst erschaffst, die deinen Namen tragen soll, dann gibt es eine goldene Regel: Nichts verlässt deinen Rechner. Nutze keine öffentlichen Web-Interfaces für deine finale Arbeit. Lade keine Kundenfotos in eine Cloud-KI hoch, deren AGB du nicht zu 100 Prozent verstehst (und wer tut das schon?). Poste deine Prompts und deine Workflows nicht in öffentlichen Discord-Channels. Warum?

Erstens: Der Schutz deiner DNA. Wenn du einen einzigartigen Stil entwickelt hast, willst du nicht, dass eine öffentliche KI diesen Stil lernt und ihn morgen jedem 14-Jährigen zur Verfügung stellt. Wenn du deine besten Arbeiten in ein offenes System fütterst, trainierst du deine eigene Konkurrenz. Zweitens: Kundensicherheit. Stell dir vor, du bearbeitest Bilder für eine Kampagne eines Autoherstellers, die erst in sechs Monaten launchen darf. Lädst du das Bild in eine öffentliche KI, um den Hintergrund zu ändern, hast du im schlimmsten Fall gerade ein NDA (Geheimhaltungsvereinbarung) gebrochen. Das Bild liegt jetzt auf einem Server in den USA. Das ist berufliches Harakiri.

Der Profi nutzt lokale KI-Instanzen. Wir reden über Stable Diffusion, Flux oder Nachfolgemodelle, die auf deiner eigenen Grafikkarte laufen (via Interfaces wie Automatic1111, ComfyUI oder Fooocus). Warum lokal? Weil du hier eigene Modelle (LoRAs/Checkpoints) trainieren kannst. Du kannst der KI deinen Stil beibringen, dein Licht, deine Farbpalette – und dieses Modell gehört nur dir. Es liegt auf deiner SSD. Niemand sonst hat Zugriff darauf. Das ist dein eigentliches Kapital. Du baust dir eine persönliche KI, die wie ein Assistent funktioniert, der nur für dich arbeitet. Sie kennt deine Vorlieben. Sie weiß, wie du Hauttöne magst. Aber sie plaudert Betriebsgeheimnisse nicht aus. Wenn du öffentlich generierst, bist du ein Tourist. Du nutzt die Infrastruktur, die alle nutzen. Du bekommst den „Look“, den alle haben. Wenn du lokal und persönlich arbeitest, bist du ein Einheimischer. Du baust deine eigene Infrastruktur.

Kommen wir nun zum Elefanten im Raum, den viele KI-Evangelisten gerne ignorieren oder wegdiskutieren wollen. Sie behaupten, man brauche kein Photoshop mehr. Das Bild komme ja fertig aus der Maschine. Das ist der größte Trugschluss von allen. Das ist die Lüge, die Amateure glauben und die sie daran hindert, jemals professionelle Ergebnisse zu erzielen. Ein KI-Bild „out of the box“ ist Rohmaterial. Es ist wie ein ungeschliffener Diamant – oder manchmal eher wie ein Klumpen Lehm, der grob die Form hat, die man will, aber noch voller Fingerabdrücke und Unebenheiten steckt.

Hier beginnt deine eigentliche Arbeit als Profi. Hier beginnt die „Synthografie“ als echtes Handwerk. Du nimmst das Bild in Photoshop. Und dann zerlegst du es. Du nutzt „Generative Fill“ nur für kleine, kontrollierte Bereiche, um Fehler zu korrigieren oder Details hinzuzufügen. Du nutzt Frequenztrennung (Frequency Separation), um die Struktur der KI-Haut zu reparieren, ohne die Farben zu zerstören, um ihr diese menschliche Unvollkommenheit zurückzugeben, die die KI weggebügelt hat. Du machst Dodge & Burn (Abwedeln und Nachbelichten), um den Fokus des Betrachters zu lenken – etwas, das die KI oft vergisst, weil sie das ganze Bild gleichmäßig „interessant“ machen will. Ein gutes Bild braucht aber Hierarchie. Es braucht Bereiche, die im Schatten verschwinden, damit das Wichtige leuchten kann. Du baust Composings aus mehreren KI-Generierungen. Vielleicht war der Kopf im ersten Bild perfekt, aber die Hände im dritten und der Hintergrund im fünften. In Photoshop bringst du das zusammen. Du matchst die Farben (Color Grading), du passt die Schwarzwerte an, du sorgst dafür, dass das Grain über dem gesamten Bild konsistent liegt.

Das ist digitales Malen auf höchstem Niveau. Die KI liefert dir die Pixel, aber du bestimmst, wo sie bleiben. Ein reines KI-Bild erkennt man oft sofort. Es wirkt „uncanny“, unheimlich, künstlich. Ein von dir in Photoshop veredeltes, kuratiertes und bearbeitetes Bild erkennt man nicht mehr als KI. Man fühlt es nur. Und das ist der Unterschied zwischen einem generierten Bild und einem Kunstwerk.

Was bist du also, wenn die Maschine die Pixel rendert? Du bist nicht mehr nur der Handwerker, der jeden Pinselstrich zieht (obwohl du das in der Retusche noch tust). Du bist Regisseur. Du bist Art Director. Du bist Kurator. Die Fähigkeit, „Nein“ zu sagen, wird zu deiner wichtigsten Eigenschaft. Die KI bietet dir 20 Varianten an. 19 davon sind Müll – technisch vielleicht okay, aber seelenlos, langweilig, repetitiv. Die eine Variante zu erkennen, die den Funken hat, das ist menschliche Intuition. Das ist Erfahrung. Das ist dein kulturelles Wissen.

Eine Maschine weiß nicht, was Schmerz ist. Sie weiß nicht, was Sehnsucht ist. Sie kann Sehnsucht simulieren, wenn du ihr die Parameter gibst. Aber sie kann nicht beurteilen, ob das Bild diese Sehnsucht auch auslöst. Das kannst nur du. Wir erschaffen neue Welten, ja. Wir können Dinge visualisieren, die zu teuer, zu gefährlich oder physikalisch unmöglich zu fotografieren wären. Wir können Storytelling betreiben in einer Geschwindigkeit, die früher undenkbar war. Aber diese Welten brauchen ein Fundament. Und dieses Fundament ist deine menschliche Erfahrung. Wenn du ein Bild erstellst, das Einsamkeit ausdrücken soll, greifst du auf dein eigenes Gefühl von Einsamkeit zurück. Du wählst die Farben (kalt, entsättigt), die Komposition (viel negativer Raum), die Pose (verschlossen). Du steuerst die KI so lange, bis sie dein Inneres nach außen kehrt. Die KI ist dabei nur der Pinsel. Ein sehr komplexer, manchmal eigensinniger, manchmal genialer Pinsel, aber nur ein Pinsel. Das Gemälde entsteht in dir.

Lass uns kurz über Geld reden. Das ist wichtig. Warum sollten Kunden dich, den Experten, bezahlen, wenn sie selbst ein Abo für 20 Euro im Monat abschließen können und sich ihre Bilder „selbst machen“? Aus demselben Grund, warum Menschen in Restaurants gehen, obwohl sie einen Herd zu Hause haben. Aus demselben Grund, warum Menschen zum Friseur gehen, obwohl man Scheren im Supermarkt kaufen kann. Jeder kann kochen. Aber nicht jeder kann gut kochen. Und vor allem: Nicht jeder kann konsistent gut kochen, unter Zeitdruck, für 100 Leute, während die Küche brennt.

Kunden brauchen Konsistenz. Sie brauchen Rechtssicherheit (soweit im KI-Recht möglich). Sie brauchen Bilder, die exakt ihre Marke treffen und nicht einfach nur „irgendwie cool“ aussehen. Ein Kunde sagt: „Ich brauche unser Produkt in der Hand einer Frau, die aussieht wie unsere Zielgruppe (35-40, urban, modern), das Licht muss zu unserer CI passen (hell, freundlich, Pastell), und das Bild muss in 10.000 Pixel Breite für den Messestand vorliegen. Bis morgen.“ Der Laie mit seinem Prompt bricht hier zusammen. Das Produkt wird von der KI verzerrt (sie kennt das Logo nicht, sie halluziniert Tasten, die nicht da sind). Die Frau hat sechs Finger oder schielt. Das Licht ist zu dramatisch, weil das Standard-Modell Drama liebt. Die Auflösung ist zu gering.

Du, der Experte, nimmst das Produktfoto (echtes Foto!), trainierst vielleicht kurz ein LoRA (Low-Rank Adaptation) auf das Produkt, nutzt ControlNet für die Pose, generierst den Hintergrund, compst das echte Produkt in Photoshop rein, machst ein Upscaling mit KI-Unterstützung (aber kontrolliert!), retuschierst die Fehler und lieferst pünktlich. Das ist dein Wert. Die Lösung von Problemen. Nicht das Drücken eines Knopfes. Du verkaufst nicht das Bild, du verkaufst das Ergebnis und die Sicherheit.

Wir dürfen bei all dem Enthusiasmus nicht ignorieren, dass diese Technologie auf den Werken von Millionen Künstlern trainiert wurde, oft ohne deren Einverständnis. Das ist ein Makel, der der derzeitigen KI-Landschaft anhaftet und den wir nicht wegdiskutieren können. Aber als Profis können wir nicht die Augen verschließen und hoffen, dass es weggeht. Wir müssen uns die Technologie aneignen und sie transformieren. Indem du deine eigenen Bilder als Basis nutzt, indem du deine eigene Vision durch JSON und Photoshop hineinpressen, machst du dir die Technik untertan. Du wirst wieder zum Urheber. Du schaffst Werke, die eine Schöpfungshöhe haben, weil der Prozess komplex und individuell ist. Du machst aus dem statistischen Durchschnitt etwas Einzigartiges.

Die Zukunft gehört den Hybriden. Den Zentauren. Halb Mensch, halb Maschine. Der reine Fotograf, der sich weigert, digital zu denken und KI als Teufelszeug abtut, wird zur Nische. Eine schöne, wertvolle Nische, wie Vinyl-Platten oder analoge Uhren, aber eine Nische. Der reine „Prompt-Artist“, der keine Ahnung von Bildern hat, wird wegrationalisiert werden, weil die KI bald so gut ist, dass sie keine Prompts mehr braucht, um Durchschnitt zu erzeugen. Aber derjenige, der beides verbindet – das Auge, das Handwerk, die Technik der Fotografie und die rohe, brutale Power der generativen KI – der ist unaufhaltsam. Hab keine Angst, ersetzt zu werden. Hab Angst davor, stehen zu bleiben.

Die KI ist ein Werkzeug. Ein Hammer baut kein Haus. Ein Hammer kann auch einen Daumen zertrümmern. Es kommt darauf an, wer ihn hält. Wenn du Ahnung von Fotografie hast: Glückwunsch. Du hast den größten Vorteil, den es gibt. Du verstehst das Licht. Du verstehst die Komposition. Wenn du Photoshop beherrschst: Perfekt. Du hast die Kontrolle über das Finish. Wenn du bereit bist, Code (JSON) und komplexe Workflows zu lernen: Willkommen in der Elite.

Wir stehen nicht am Ende der Kunst. Wir stehen am Anfang einer neuen Ära. Einer Ära, in der die Barriere zwischen Vorstellungskraft und Bild fällt. Einer Ära, in der das technische „Wie“ (Wie male ich diesen Schatten?) in den Hintergrund tritt und das inhaltliche „Was“ (Warum ist dieser Schatten da?) in den Vordergrund rückt. Aber die Qualität dieses Bildes hängt immer noch von der Qualität der Vorstellungskraft ab. Und von der Fähigkeit, diese Vorstellungskraft technisch präzise umzusetzen. Die KI liefert die Pixel. Du lieferst den Sinn. Und solange Maschinen keinen Sinn für Ironie, für Schmerz, für Schönheit oder für den perfekten Moment haben, solange bleibst du im Fahrersitz. Du musst nur lernen, dieses verdammt schnelle Auto zu fahren, anstatt dich weinend auf die Rückbank zu setzen und dich darüber zu beschweren, dass die Landschaft so schnell vorbeizieht. Mach dich an die Arbeit. Es gibt Welten zu erschaffen, und sie warten auf jemanden, der weiß, was er tut.



Adobe hat Lightroom Classic im Februar 2026 auf Version 15.2 aktualisiert. Kein riesiger Knall, kein Feuerwerk, aber ein paar Sachen, die im Alltag tatsächlich was bringen. Schauen wir mal rein.

Wer sich die offizielle Diskussion und das Community-Feedback anschauen will, findet auf Reddit einen guten Überblick: What’s new in Lightroom February 2026

Assisted Culling – Schneller aussortieren

Die Assisted Culling Funktion, die Adobe letztes Jahr eingeführt hat, wurde nochmal überarbeitet. Für alle, die den Begriff nicht kennen: Assisted Culling ist Adobes KI-gestützte Hilfe beim Aussortieren von Fotos. Du kommst von einem Shooting mit 800 Bildern zurück, und die KI hilft dir, die scharfen von den unscharfen zu trennen, Duplikate zu erkennen und die besten Aufnahmen einer Serie vorzuschlagen.

In der neuen Version soll das schneller und treffsicherer funktionieren. Ich hab das bei einem aktuellen Projekt getestet und muss sagen: Es ist spürbar besser als noch vor ein paar Monaten. Nicht perfekt, die KI wählt manchmal Bilder ab, die ich behalten hätte, und behält welche, die ich wegwerfen würde. Aber als erster Durchgang, um den Haufen von 800 auf 200 runterzubringen, spart es echte Zeit.

Mein Rat: Lass die KI den ersten Durchgang machen, aber verlass dich nicht blind drauf. Die finale Auswahl machst du selbst. Denn die stärksten Bilder sind nicht immer die technisch besten, und das versteht keine KI der Welt.

Besseres Denoise für Ricoh und Pentax

Ein Detail, das die meisten Leute nicht betrifft, aber für Ricoh- und Pentax-Fotografen relevant ist: Das KI-basierte Entrauschen funktioniert jetzt besser mit bestimmten Kameramodellen dieser Hersteller. Adobe hat offenbar die Kameraprofile überarbeitet und die Denoise-Algorithmen spezifisch angepasst.

Wenn du mit einer Ricoh GR oder einer Pentax K-3 arbeitest und bisher das Gefühl hattest, dass das Entrauschen nicht so gut greift wie bei Canon oder Sony, könnte sich das mit diesem Update verbessert haben. Für alle anderen: weiterschalten, hier gibt es nichts zu sehen.

Performance-Verbesserungen bei Masken und lokalen Korrekturen

Das hier betrifft die gesamte Lightroom-Familie und ist für mich persönlich das Interessanteste an diesem Update. Adobe hat an der Performance geschraubt, speziell bei großen Masken und komplexen lokalen Korrekturen.

Wer viel mit den Maskierungswerkzeugen arbeitet – Himmel auswählen, Subjekt erkennen, Farbbereiche maskieren, mehrere Masken übereinander legen – der kennt das Problem: Irgendwann wird Lightroom zäh. Die Vorschau stockt, die Regler reagieren verzögert, und du sitzt da und wartest.

In Version 15.2 soll das flotter laufen. Ich hab den direkten Vergleich nicht wissenschaftlich gemessen, aber subjektiv fühlt es sich tatsächlich smoother an, besonders bei Dateien mit drei oder mehr überlappenden Masken. Das Remove-Tool, also das KI-gestützte Entfernen von Objekten, scheint ebenfalls etwas schneller zu arbeiten.

Keine Revolution, aber eine Verbesserung, die man im täglichen Workflow merkt. Auf Reddit bestätigen das auch andere User – die Masken reagieren spürbar direkter, besonders auf älteren Rechnern.

Firefly-Integration – Lightroom öffnet die Tür zur KI

Und dann ist da noch die Sache mit Firefly. Adobe baut die Verbindung zwischen Lightroom und seiner hauseigenen KI Firefly weiter aus. Du kannst Bilder jetzt direkter zu Firefly schicken, zum Beispiel für prompt-basierte Bearbeitungen oder sogar um aus einem Foto kurze KI-generierte Video-Clips zu erstellen.

Das reduziert das Hin-und-Her zwischen verschiedenen Apps. Statt ein Bild aus Lightroom zu exportieren, dann Firefly zu öffnen, dort das Bild hochzuladen und dann das Ergebnis wieder zu importieren, geht das jetzt in weniger Schritten.

Ob man das braucht, ist eine andere Frage. Ich persönlich bin skeptisch bei der Idee, aus einem Foto einen Video-Clip zu generieren. Das ist nett als Spielerei, aber für ernsthafte Arbeit fehlt da noch einiges. Die prompt-basierten Edits hingegen könnten interessant werden, wenn Adobe das weiter ausbaut. Stell dir vor, du sagst Lightroom: „Mach den Himmel dramatischer“ oder „Reduzier die Ablenkung im Hintergrund“ und die KI setzt das um. Davon sind wir noch ein Stück entfernt, aber die Richtung ist klar.

Mein Fazit zur Firefly-Integration: Ausprobieren, nicht drauf verlassen. Es ist ein Werkzeug im Werden. Noch nicht fertig, aber man sieht, wohin die Reise geht.

Bugfixes

Wie bei jedem Update gibt es diverse Bugfixes. Adobe listet die im Detail auf, aber für die meisten Anwender sind das Dinge, die man nur bemerkt, wenn man direkt betroffen war. Abstürze bei bestimmten Operationen, Darstellungsfehler in bestimmten Situationen, Kompatibilitätsprobleme mit bestimmter Hardware. Das übliche Wartungspaket.

Meine Einschätzung

Dieses Update ist kein Gamechanger. Es ist ein solides Wartungsupdate mit ein paar netten Verbesserungen, die den Alltag etwas angenehmer machen. Die Performance-Verbesserungen bei den Masken sind willkommen, das Assisted Culling wird langsam brauchbar, und die Firefly-Integration zeigt, wohin Adobe mit Lightroom langfristig will.

Was mich interessiert: Wie weit wird Adobe die KI-Integration in Lightroom treiben? Werden wir irgendwann prompt-basiert entwickeln? Werden lokale Korrekturen vollautomatisch? Wird die RAW-Entwicklung selbst KI-gesteuert?

Ich glaube, ja. Früher oder später. Die Frage ist nur, ob das ein Segen wird oder ob wir am Ende alle den gleichen KI-optimierten Look haben und niemand mehr weiß, warum seine Bilder aussehen wie die von allen anderen.

Aber das ist ein Thema für einen anderen Blogpost.

Für heute gilt: Update installieren, Assisted Culling ausprobieren, Masken testen, und dann wieder an die eigentliche Arbeit. Bilder machen, die gut sind. Mit oder ohne KI.

Die Community-Diskussion zum Update findet ihr wie gesagt hier: Reddit – What’s new in Lightroom February 2026


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Meinung sind meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil Ehrlichkeit dazugehört.



Es gibt Momente, da muss man einfach dankbar sein. Dankbar dafür, dass ein Weltkonzern wie Adobe sich Gedanken macht. Gedanken darüber, wie man den Alltag von Millionen Menschen leichter machen kann. Und neulich haben sie wirklich geliefert.

Sie haben eine Browser-Erweiterung für Acrobat rausgebracht.

Klingt erstmal so spannend wie Steuererklärung am Sonntagnachmittag. Wer braucht schon eine Acrobat-Erweiterung im Browser? PDFs angucken kann man auch so. Aber halt! In diesem kleinen, unscheinbaren Tool steckt eine Revolution. Eine Funktion, auf die die Welt gewartet hat, ohne es zu wissen.

Ein Rechtsklick auf irgendein Bild im Internet – egal welches, egal woher – und zack: Es landet in einer Web-Version von Adobe Express. Und dort, meine Damen und Herren, gibt es einen magischen Radierer.

Wofür man den braucht? Na klar, um störende Elemente zu entfernen. Stromleitungen aus schönen Landschaften. Pickel aus schönen Gesichtern. Touristen vor dem Eiffelturm. Und – ganz wichtig, quasi als Sahnehäubchen der digitalen Freiheit – Wasserzeichen aus urheberrechtlich geschützten Bildern.

Endlich!

Man muss sich das mal vorstellen: Jahrelang war das Klauen von Bildern mühsam. Richtig harte Arbeit. Man musste Photoshop lernen (teuer!), den Kopierstempel verstehen (kompliziert!) und Geduld haben (langweilig!). Man musste wissen, was eine Bereichsreparatur ist. Man musste zoomen. Man musste Pixel schubsen. Profis haben das natürlich hinbekommen, die haben ihre Tricks und Kniffe. Aber was war mit dem Rest der Welt? Was war mit dem Schüler, der das Foto für sein Referat brauchte und kein Taschengeld für Stockfotos hatte? Was mit dem Marketing-Praktikanten, der den Auftrag bekam „Mach mal schnell was Schönes für Social Media“, aber kein Budget? Die mussten bisher mit hässlichen Wasserzeichen leben oder – Gott bewahre – tatsächlich für Bilder bezahlen.

Das war ungerecht. Das war elitär. Das war eine Hürde, die Adobe nun mit einem eleganten Schwung beseitigt hat.

Adobe hat dieses Unrecht quasi demokratisiert. Mit einem Klick ist das Wasserzeichen weg. Kostenlos. Für jeden, der Chrome installiert hat. Das ist Fortschritt! Das ist Barrierefreiheit! Das ist, als würde man jedem Bürger einen Universalschlüssel für alle Autos in der Stadt schenken, damit niemand mehr zu Fuß gehen muss.

Natürlich gab es ein bisschen Gemecker. Von Fotografen, Illustratoren und anderen Leuten, die komischerweise der Meinung sind, ihre Arbeit sei etwas wert. Die haben sich beschwert, dass Adobe ihnen quasi den Laden ausräumt und die Tür offen stehen lässt. Dass ihre Bilder jetzt Freiwild sind. Dass Adobe, der Partner der Kreativen (so nennen sie sich ja gerne), ihnen in den Rücken fällt.

Aber Adobe wäre nicht Adobe, wenn sie darauf nicht eine brillante Antwort hätten. Sie haben das Tool nicht etwa zurückgezogen. Nein. Sie haben ein Pop-up eingebaut.

Wenn man jetzt ein Bild lädt, kommt ein Fenster: „Achtung, dieses Bild könnte geschützt sein. Bitte frag den Besitzer.“

Das ist genial. Das ist juristische Akrobatik auf höchstem Niveau. Das ist wie ein Schild an einer offenen Banktresor-Tür: „Bitte kein Geld mitnehmen.“

Ich stelle mir vor, wie der Bilderdieb vor dem Bildschirm sitzt. Er hat den Rechtsklick gemacht. Er hat den Radierer ausgewählt. Er will das Wasserzeichen entfernen, weil er das Bild für seine Website braucht und keine Lust hat, 50 Euro dafür zu zahlen. Und dann kommt das Pop-up. Und er denkt: „Oh! Stimmt ja! Das darf ich nicht! Danke, Adobe, dass ihr mich daran erinnert habt. Ich werde jetzt sofort den Fotografen kontaktieren, eine Lizenz kaufen und das Bild legal erwerben.“

Ganz sicher. Genau so wird das ablaufen. In einer Welt voller Einhörner und Regenbögen.

In der echten Welt klickt er auf „Okay“, das Wasserzeichen ist weg, und das Bild ist seins.

Man muss Adobe wirklich bewundern. Sie schaffen den Spagat, uns Kreativen Tools zu verkaufen, mit denen wir unsere Arbeit schützen sollen (Content Credentials, Metadaten, der ganze High-Tech-Kram, den sie uns als die Zukunft des Urheberrechts verkaufen), und gleichzeitig der ganzen Welt Tools zu schenken, mit denen man diesen Schutz umgeht. Das ist Geschäftssinn. Das ist Synergie. Das ist, als würde man Alarmanlagen verkaufen und gleichzeitig Einbruchskurse an der Volkshochschule sponsern.

Und das Beste daran: Es ist alles legal. Oder zumindest in einer Grauzone, in der sich Adobe wohlfühlt. Denn sie stellen ja nur das Werkzeug zur Verfügung. Was der Nutzer damit macht, ist seine Sache. Wenn er damit Wasserzeichen entfernt, ist das böse, aber Adobe hat ja gewarnt. Mit dem Pop-up.

Es ist faszinierend zu beobachten, wie ein Unternehmen, das vom Verkauf von Kreativ-Tools lebt, gleichzeitig die Grundlage für den Wert kreativer Arbeit untergräbt. Wenn jedes Bild kopierbar, bearbeitbar und von Eigentumsmerkmalen befreibar ist – was ist es dann noch wert?

Vielleicht ist das der Plan. Vielleicht will Adobe eine Welt schaffen, in der Bilder keinen monetären Wert mehr haben, sondern nur noch Rohstoff sind. Rohstoff für KI-Modelle. Rohstoff für Memes. Rohstoff für den endlosen Stream an Content, der durch unsere Feeds rauscht.

Und wir Kreativen? Wir sind die Lieferanten dieses Rohstoffs. Wir produzieren, wir laden hoch, wir versehen unsere Werke mit Wasserzeichen in der naiven Hoffnung, dass das irgendwas bringt. Und Adobe gibt uns die Tools dazu. Und dann geben sie dem Rest der Welt die Tools, um unsere Arbeit zu nehmen.

Es ist ein perfekter Kreislauf. Ein Perpetuum Mobile der Entwertung.

Aber hey, wir sollten nicht jammern. Wir haben ja Photoshop. Wir haben Lightroom. Wir haben Premiere. Wir haben die besten Werkzeuge der Welt, um Dinge zu erschaffen, die dann jeder klauen kann. Ist das nicht schön?

Und wer weiß, vielleicht baut Adobe als nächstes ein Feature ein, das automatisch erkennt, wenn ein Bild geklaut wurde, und dem Dieb dann eine Rechnung schickt? Ach nein, das wäre ja schlecht für die User Experience. Das würde ja die 320 Millionen Chrome-Nutzer verärgern. Und die sind wichtiger als die paar Millionen Kreativen, die tatsächlich für Adobe-Software bezahlen.

Also: Danke, Adobe. Danke für den digitalen Bolzenschneider. Danke für das Pop-up, das unser Gewissen beruhigt. Und danke, dass ihr uns immer wieder daran erinnert, wer in dieser Beziehung eigentlich der Boss ist.

Wir sind es nicht.


Der technische Hintergrund des Wahnsinns

Lassen wir die Satire mal kurz beiseite (nur kurz, versprochen) und schauen uns an, was da technisch eigentlich passiert. Weil es wirklich beeindruckend ist, wie nahtlos das funktioniert.

Die Erweiterung klinkt sich in den Browser ein. Chrome, Edge, was auch immer. Sie scannt die Seite. Sie erkennt Bilder. Und sie bietet im Kontextmenü – also da, wo man normalerweise „Bild speichern unter“ oder „In neuem Tab öffnen“ findet – eine neue Option an: „In Adobe Express bearbeiten“.

Klingt harmlos. Klingt praktisch. „Oh, ich will dieses Meme kurz zuschneiden.“ „Ich will diesen Screenshot markieren.“ Dafür ist es gedacht. Sagt Adobe.

Aber die Realität ist: Adobe Express ist mittlerweile ein mächtiges Tool. Es hat Zugriff auf die Firefly-Engine, Adobes hauseigene KI. Und Firefly kann Dinge, die vor zwei Jahren noch Science-Fiction waren.

Generatives Füllen. Generatives Entfernen.

Das bedeutet: Wenn du ein Wasserzeichen hast, das quer über das Bild läuft, halbtransparent, über komplexe Hintergründe – früher war das ein Albtraum zu entfernen. Du musstest stempeln, du musstest Strukturen nachbauen, du musstest Licht und Schatten beachten.

Firefly macht das automatisch. Es guckt sich an, was um das Wasserzeichen herum ist, und berechnet, was darunter sein müsste. Es „halluziniert“ die fehlenden Pixel. Und es macht das verdammt gut.

In den meisten Fällen sieht man hinterher nichts mehr. Keine Kante, keine Unschärfe, keinen Wiederholungs-Effekt wie beim Stempeln. Das Wasserzeichen ist einfach weg. Als wäre es nie da gewesen.

Und das Ganze passiert im Browser. Ohne Installation von schwerer Software. Ohne Login in die Creative Cloud (zumindest für die Basisfunktionen). Ohne Abo.

Das ist die Demokratisierung der Bildmanipulation.

Und ja, das hat Vorteile. Für Otto Normalverbraucher, der schnell mal den Ex-Freund aus dem Urlaubsfoto entfernen will. Für die Oma, die den Daumen auf der Linse wegretuschieren möchte.

Aber für Profis? Für Leute, die von der Exklusivität ihrer Bilder leben?

Für die ist es eine Katastrophe.


Das Wasserzeichen: Ein Relikt aus alter Zeit?

Man muss natürlich fragen: Ist das Wasserzeichen überhaupt noch zeitgemäß?

Viele Fotografen verzichten schon lange darauf. Weil es das Bild hässlich macht. Weil es den Betrachter stört. Weil es – wie wir jetzt sehen – keinen echten Schutz bietet.

Aber es war immer ein Symbol. Ein „Finger weg“. Ein „Das gehört mir“.

Indem Adobe dieses Symbol so leicht entfernbar macht, entwerten sie es nicht nur technisch, sondern auch kulturell. Sie signalisieren: Wasserzeichen sind kein Schutz, sie sind ein Fehler im Bild. Ein Störfaktor. Etwas, das man wegmachen kann und soll.

Das verschiebt die Wahrnehmung.

Wenn ich ein Schloss knacke, weiß ich, dass ich einbreche. Wenn ich eine Tür öffne, die nur angelehnt ist, fühlt es sich weniger kriminell an. Adobe hat aus dem Schloss eine angelehnte Tür gemacht.

Und das Pop-up? Das ist der Zettel an der Tür: „Bitte draußen bleiben.“

Wir wissen alle, wie gut solche Zettel funktionieren, wenn drinnen Freibier steht.


Die Doppelmoral der „Creator Economy“

Adobe liebt das Wort „Creator“. Sie benutzen es in jedem zweiten Satz. „Empowering Creators“. „Tools for Creators“. „The Future of Creativity“.

Sie tun so, als wären sie unser bester Freund. Der Partner, der uns die Werkzeuge gibt, um unsere Träume zu verwirklichen.

Aber wenn es hart auf hart kommt – wenn es um Marktanteile geht, um User-Zahlen, um die Eroberung des Browsers – dann sind wir Creators plötzlich zweitrangig. Dann ist die Masse der Konsumenten (und potenziellen Express-Nutzer) wichtiger als die kleine Gruppe der Produzenten.

Das ist verständlich aus BWL-Sicht. 320 Millionen Browser-Nutzer sind ein riesiger Markt. Wenn man denen Adobe Express schmackhaft machen kann, ist das Milliarden wert.

Aber es ist unehrlich.

Man kann nicht auf der einen Seite den Beschützer der Kreativen spielen und auf der anderen Seite die Werkzeuge verteilen, die deren Arbeit entwerten.

Man kann nicht Content Credentials einführen – dieses hochkomplexe System aus kryptografischen Signaturen, das beweisen soll, wer ein Bild gemacht hat und was damit passiert ist – und gleichzeitig den Radiergummi für Wasserzeichen an jeden verschenken.

Das passt nicht zusammen.


Was das für die Zukunft bedeutet

Wenn wir das zu Ende denken, kommen wir an einen interessanten Punkt.

Wenn Bilder technisch nicht mehr geschützt werden können. Wenn jedes Wasserzeichen entfernbar ist. Wenn jede Metadaten-Signatur gestrippt werden kann (was übrigens auch geht, ganz einfach per Screenshot).

Was bleibt dann?

Dann bleibt nur noch Vertrauen. Und Beziehungen.

Vielleicht ist das die Zukunft der professionellen Fotografie und Illustration. Nicht mehr das Verkaufen von Dateien. Sondern das Verkaufen von Dienstleistung, von Persönlichkeit, von Zugang.

„Du kannst mein Bild klauen, ja. Aber du kannst nicht meine Erfahrung klauen. Du kannst nicht meinen Blick klauen. Du kannst nicht die Sicherheit klauen, dass du rechtlich auf der sicheren Seite bist.“

Vielleicht müssen wir uns darauf konzentrieren. Auf den Wert, der nicht in den Pixeln steckt, sondern im Kontext.

Aber das ist anstrengend. Das ist schwer. Das erfordert Marketing, Branding, Networking.

Das einfache „Ich mache ein Bild, lade es hoch, jemand kauft es“ – das stirbt gerade. Und Adobe hat den Spaten in der Hand.


Die Ironie mit der KI

Es gibt noch eine Ebene, die das Ganze besonders pikant macht.

Adobes KI Firefly wurde mit Bildern trainiert, für die Adobe die Rechte hat. Adobe Stock. Public Domain. Das betonen sie immer wieder. „Unsere KI ist ethisch sauber. Wir klauen nicht von Künstlern.“

Das ist ihr großes Verkaufsargument gegenüber Midjourney und Stable Diffusion, die einfach das ganze Internet gescraped haben.

Adobe sagt: „Wir respektieren Urheberrechte.“

Und dann geben sie uns ein Tool, mit dem wir Urheberrechte verletzen können.

Das ist, als würde ein Bio-Bauer, der stolz darauf ist, keine Pestizide zu verwenden, abends heimlich Glyphosat an seine Nachbarn verkaufen.

„Ja, ich benutze das nicht. Aber wenn ihr es wollt… hier, bitte schön. Aber pssst, lest den Warnhinweis auf der Flasche.“

Es wirkt so, als wüsste die linke Hand bei Adobe nicht, was die rechte tut. Oder als wäre es ihnen egal, solange beide Hände Geld einsammeln.

Die Abteilung für „Creator Trust“ baut Content Credentials.
Die Abteilung für „Growth & User Acquisition“ baut den Wasserzeichen-Radierer.

Und am Ende gewinnt immer Growth.


Ein kleiner Hoffnungsschimmer?

Gibt es Hoffnung? Vielleicht.

Vielleicht merken die Leute, dass geklaute Bilder Probleme machen können. Rechtlich (auch ohne Wasserzeichen ist das Urheberrecht ja gültig). Qualitativ (ein wegradiertes Wasserzeichen hinterlässt Spuren, auch mit KI). Moralisch.

Vielleicht entsteht eine Gegenbewegung. Eine Wertschätzung für das Original. Für das Echte. Für das, was bezahlt wurde.

Aber darauf würde ich nicht wetten.

Die Bequemlichkeit gewinnt meistens. „Kostenlos“ gewinnt meistens. „Einfach“ gewinnt meistens.

Und Adobe hat „kostenlos“ und „einfach“ gerade auf ein neues Level gehoben.


Was wir tun können (außer jammern)

Wir können unsere Bilder nicht mehr technisch schützen. Das ist vorbei. Akzeptieren wir das.

Wir können Adobe nicht ändern. Die sind zu groß, zu mächtig, zu sehr auf Wachstum fixiert.

Wir können nur uns selbst ändern.

Wir müssen aufhören, uns auf Wasserzeichen zu verlassen. Wir müssen aufhören, uns auf Plattformen zu verlassen, die uns nicht gehören.

Wir müssen unsere eigenen Plattformen bauen. Unsere eigenen Communities. Unsere eigenen Beziehungen zu Kunden.

Wir müssen so gut sein, dass die Leute uns bezahlen WOLLEN, auch wenn sie klauen KÖNNTEN.

Das ist schwer. Das ist unfair. Das ist viel verlangt.

Aber es ist die Realität.

Und Adobe? Die werden weiter Tools bauen. Gute Tools. Schlechte Tools. Tools, die uns helfen, und Tools, die uns schaden.

Wir müssen lernen, damit umzugehen. Ohne Illusionen. Ohne falsche Dankbarkeit.

Adobe ist nicht unser Freund. Adobe ist ein Werkzeughersteller.

Und wenn der Werkzeughersteller anfängt, Einbrecher-Tools zu verkaufen, dann sollten wir vielleicht anfangen, bessere Schlösser zu bauen. Oder uns einen Hund zulegen.

Oder einfach aufhören, wertvolle Dinge unbeaufsichtigt ins Internet zu stellen.

Was bei digitaler Kunst natürlich schwierig ist.


Fazit: Die schöne neue Welt

Willkommen in der Zukunft. Einer Zukunft, in der alles machbar ist, alles verfügbar ist und nichts mehr sicher ist.

Einer Zukunft, in der ein Wasserzeichen so viel Schutz bietet wie ein „Betreten verboten“-Schild auf einer Wiese. Man kann es ignorieren. Man kann drüberlaufen. Und jetzt kann man es sogar unsichtbar machen, damit man sich nicht mal mehr schlecht fühlt, wenn man drüberläuft.

Danke, Adobe.

Wirklich. Danke, dass ihr uns die Augen geöffnet habt.

Wir dachten, wir wären Partner.
Jetzt wissen wir, wir sind nur Content-Lieferanten.

Und das ist, auf eine bittere Art, auch eine wertvolle Erkenntnis.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – eingesprochen meistens, wenn ich mich über Branchen-News amüsiere (oder aufrege, je nach Tagesform). Wird transkribiert und mit KI in Form gebracht. Die Ironie, die Satire und die leise Resignation sind hundert Prozent handgemacht und kommen von einem, der seit 20 Jahren Adobe-Kunde ist und sich langsam fragt, wie lange noch.



Ich krieg diese Frage ständig. In Mails, in Kommentaren, nach Coachings, auf Events. Immer die gleiche Frage: „Brownz, ich will mit Bildbearbeitung anfangen, aber das Adobe-Abo ist mir zu teuer. Was soll ich nehmen?“ Oder die Variante: „Ich bin Hobbyfotograf, ich brauch nicht alles was Photoshop kann, gibt’s da was Günstigeres?“ Oder die dritte Version: „Ich bin Student, ich hab kein Geld, aber ich will lernen.“

Also gut. Dann reden wir drüber.

Vorweg: Ich selbst arbeite mit Adobe. Seit über zwanzig Jahren. Photoshop ist mein Hauptwerkzeug und wird es wahrscheinlich bleiben, weil mein kompletter Workflow darauf aufgebaut ist, weil meine Plugins dort laufen, weil ich das Programm im Schlaf bediene. Aber ich bin nicht blind. Es gibt heute Alternativen, die verdammt gut sind. Manche davon benutze ich selbst zusätzlich. Und für viele Leute – besonders für Einsteiger, Hobbyisten und Freelancer mit schmalem Budget – sind sie nicht nur ausreichend, sondern die bessere Wahl.

Hier ist mein ehrlicher Überblick. Programm für Programm. Was kann’s, was kann’s nicht, und für wen ist es was.


Statt Photoshop

Affinity Photo 2 – Mein Favorit. Wenn mich jemand fragt, welches Programm ich statt Photoshop empfehlen würde, ist die Antwort seit Jahren dieselbe: Affinity Photo. Das Ding kostet einmalig um die 75 Euro. Nicht pro Monat. Nicht pro Jahr. Einmal. Und dann gehört es dir. Und es ist nicht irgendein billiger Abklatsch. Es ist richtig, richtig gut. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Ebenen, Masken, Einstellungsebenen, non-destruktives Arbeiten – alles da. Die Werkzeuge sitzen, wo du sie erwartest, wenn du von Photoshop kommst. Die Performance ist oft sogar besser, weil das Programm schlanker ist. RAW-Entwicklung ist eingebaut. Frequenztrennung für Hautretusche geht. Panorama-Stitching, HDR-Merge, Focus Stacking – alles drin. Und das für 75 Euro. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Was fehlt? Die KI-Features, die Adobe gerade überall reinbaut. Generative Füllung, neuraler Filter, das ganze Zeug. Wenn du das brauchst, brauchst du Photoshop. Und die Content-Aware-Funktionen sind nicht ganz auf dem gleichen Level. Auch bei der PSD-Kompatibilität gibt es Grenzen. Einfache und mittlere Dateien öffnet Affinity problemlos. Bei sehr komplexen Sachen mit vielen Smartobjekten und verschachtelten Gruppen kann es hakeln. Und Plugins: Viele Photoshop-Plugins laufen nicht in Affinity.

Aber für die allermeisten Leute, die Bilder bearbeiten wollen – ob Fotos, Composings, Retuschen, Grafiken – reicht Affinity Photo locker aus. Mein ehrlicher Rat: Wenn du gerade anfängst oder wenn du nicht jeden Tag professionell in Photoshop arbeitest, kauf dir Affinity. Spar dir das Abo. Und wenn du irgendwann merkst, dass du tatsächlich Features brauchst, die nur Photoshop hat – wirklich brauchst, nicht nur glaubst zu brauchen – dann kannst du immer noch umsteigen. Für die meisten wird dieser Tag nie kommen.

GIMP – Kostenlos, aber mit Haken. GIMP muss ich erwähnen, weil es kostenlos ist und weil es seit Jahrzehnten existiert. Open Source, verfügbar für Windows, Mac und Linux. Aber ich sag dir ehrlich: Ich empfehle es ungern. Nicht weil es technisch schlecht wäre. Es kann erstaunlich viel. Aber die Benutzeroberfläche ist auch 2026 noch so, dass man Kopfschmerzen bekommt. Die Werkzeuge heißen anders, sie liegen anders, sie verhalten sich anders. Wer von Photoshop kommt, fühlt sich wie in einem Paralleluniversum. Für Leute mit null Budget und viel Geduld: Ja, GIMP ist eine Option. Für alle anderen: Affinity Photo kostet 75 Euro. Das ist eine Pizza pro Monat für ein halbes Jahr. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Photopea – Der Geheimtipp. Den kennt fast niemand, und das ist schade. Photopea ist ein Bildbearbeitungsprogramm, das komplett im Browser läuft. Kein Download, keine Installation. Du gehst auf photopea.com und hast ein Programm vor dir, das verdammt nah an Photoshop dran ist. Ebenen, Masken, Filter, PSD-Kompatibilität – im Browser. Kostenlos mit Werbung, oder ohne Werbung für ein paar Euro im Monat. Ersetzt das Photoshop? Nein. Für ernsthafte Arbeit fehlt die Performance und das Farbmanagement. Aber für schnelle Sachen zwischendurch, für die Bearbeitung auf einem fremden Rechner, fürs Reinschnuppern? Photopea ist ein kleines Wunder.


Statt Lightroom

Capture One – Das Profi-Werkzeug. Capture One ist nicht billig, das sag ich gleich vorweg. Es kostet mehr als das Lightroom-Abo, ob als Einmalkauf oder als Abo. Aber es ist besser. Zumindest in dem, worauf es ankommt. Die Farbbearbeitung ist Lightroom haushoch überlegen. Wenn du Hauttöne bearbeitest und willst, dass sie natürlich bleiben, während du den Hintergrund komplett umfärbst – Capture One macht das, ohne dass alles auseinanderfällt. Die lokalen Anpassungen sind mächtiger, die Masken präziser, die ganze Art, wie das Programm mit RAW-Dateien umgeht, fühlt sich kontrollierter an.

Ich benutze Capture One selbst, zusätzlich zu Adobe, für bestimmte Projekte. Besonders bei Porträts und bei Arbeiten, wo Farbe wirklich stimmen muss. Die Lernkurve ist da. Wer von Lightroom kommt, muss sich umgewöhnen. Aber wer sich die Zeit nimmt, wird belohnt. Für Fotografen, die RAW-Entwicklung ernst nehmen und bereit sind, in ein Premium-Werkzeug zu investieren: die beste Wahl.

darktable – Die Open-Source-Variante. darktable ist das kostenlose Lightroom. Open Source, läuft auf allem, wird ständig weiterentwickelt. Die RAW-Entwicklung ist in den letzten Jahren richtig gut geworden. Aber die Oberfläche ist… funktional. Es gibt Module, Sub-Module, verschiedene Workflows, und das Ganze wirkt, als hätten zehn verschiedene Programmierer ihre jeweilige Lieblingslogik eingebaut, ohne sich vorher abzusprechen. Für technikaffine Leute mit Geduld und Experimentierlust: großartige Alternative. Für alle anderen: Capture One oder Affinity sind freundlicher.

Luminar Neo – Der KI-Weg. Luminar Neo von Skylum geht einen komplett anderen Weg. Statt dir hundert Regler hinzustellen, macht es vieles automatisch. Himmel austauschen, Hauttöne verbessern, Licht nachträglich ändern – ein Klick, fertig. Die Ergebnisse sind oft verblüffend gut. Das Problem: Wenn du genau weißt, was du willst, und die KI was anderes vorschlägt, hast du wenig Möglichkeiten. Die manuellen Werkzeuge sind begrenzt. Ich benutze Luminar manchmal für schnelle Looks, zum Ausprobieren. Für ernsthafte Arbeit fehlt mir die Feinsteuerung. Für Hobbyfotografen, die schnelle gute Ergebnisse wollen: interessant.


Statt Illustrator

Affinity Designer 2. Gleiche Geschichte wie bei Affinity Photo: einmal kaufen, für immer benutzen. Und richtig gut. Vektorgrafik, Typografie, Icon-Design, Illustrationen – alles da. Die Oberfläche ist aufgeräumt und durchdacht. Der besondere Trick: Du kannst nahtlos zwischen Vektor- und Pixelmodus wechseln. In einem Programm. Das kann Illustrator nicht, und es ist unfassbar praktisch. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Wo es an Grenzen stößt: Bei der Kompatibilität mit dem AI-Format. Wenn du Dateien mit Agenturen oder Druckereien austauschen musst, die Illustrator-Dateien erwarten, kann das schwierig werden. Und manche Spezialfunktionen in Illustrator sind nach wie vor mächtiger. Für eigene Projekte, für Freelancer, für alle, die nicht in einem Illustrator-Workflow stecken: Top.

Inkscape – Kostenlos und ehrlich. Open Source, kostenlos, und für Vektorgrafik überraschend brauchbar. Die Oberfläche ist nicht hübsch, ist sie wirklich nicht, aber die Werkzeuge funktionieren. Für Logos, Icons, SVG-Grafiken fürs Web: Inkscape macht seinen Job. Für Leute mit null Budget, die Vektorgrafik brauchen.


Statt InDesign

Affinity Publisher 2. Der dritte im Affinity-Bunde. Magazine, Bücher, Broschüren, Flyer – alles machbar. Musterseiten, Textumfluss, Farbmanagement, PDF-Export in Druckqualität – alles da. Der größte Vorteil: Die drei Affinity-Programme arbeiten nahtlos zusammen. Du bist in Publisher, klickst auf ein Bild, und bist sofort im Photo-Modus. Ohne Export, ohne Dateiwechsel. Das ist elegant gelöst und das kann InDesign so nicht. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Der Nachteil: Keine InDesign-Kompatibilität. IDML-Dateien kann Publisher nicht öffnen. Wenn du mit Leuten zusammenarbeitest, die InDesign nutzen, wird der Dateiaustausch schwierig. Für eigene Projekte, Self-Publishing, alles wo du die Kontrolle hast: wunderbar. Für bestehende InDesign-Workflows: problematisch.

Scribus – Open Source DTP. Kostenlos und erstaunlich fähig für professionelles Desktop Publishing. CMYK, PDF/X-Export, alles was die Druckerei braucht. Aber die Bedienung ist von gestern. InDesign und Affinity Publisher sind Welten komfortabler. Für Leute mit null Budget, die ein Buch setzen wollen: geht. Für alle anderen: Affinity Publisher.


Statt Premiere Pro

DaVinci Resolve – Mein absoluter Favorit. Wenn es eine Alternative gibt, die ich ohne jeden Vorbehalt empfehle, dann ist es DaVinci Resolve. Kostenlos. Richtig kostenlos. Kein Trick, keine Einschränkung, die dich zum Upgrade zwingt. Die Studio-Version kostet einmalig um die 300 Euro, aber die kostenlose Version reicht für fast alles.

Schnitt, Farbkorrektur, Audio-Bearbeitung, Visual Effects – alles in einem Programm. Und die Farbkorrektur ist nicht nur gut – sie ist die beste auf dem Markt. Hollywood-Produktionen werden in Resolve gegradet. Die Lernkurve ist steil, Resolve ist ein Profi-Werkzeug und sieht auch so aus. Aber wenn du die ersten Hürden genommen hast, willst du nicht mehr zurück. Ich benutze Resolve selbst für meine Video-Projekte, neben Adobe, weil es in manchen Bereichen einfach besser ist.

CapCut – Für Social Media. Wenn du hauptsächlich Reels, TikToks und YouTube-Shorts schneidest, ist CapCut dein Programm. Kostenlos, einfach, mit KI-Features die überraschend gut funktionieren. Kein Premiere-Ersatz, nicht mal annähernd. Aber für Social-Media-Content brauchst du kein Premiere.


Statt After Effects

Hier wird’s dünn. Das muss ich ehrlich sagen. After Effects hat in seinem Bereich nach wie vor wenig ernsthafte Konkurrenz. Blackmagic Fusion, in DaVinci Resolve integriert, kann Compositing und VFX auf hohem Niveau, ist aber node-basiert statt ebenenbasiert, was eine komplett andere Denkweise erfordert. HitFilm ist für Einsteiger interessant, kostenlos in der Basis, mit kostenpflichtigen Erweiterungen. Kein After-Effects-Ersatz, aber ein guter Einstieg. Wenn du wirklich professionelle Motion Graphics brauchst, kommst du an After Effects aktuell schwer vorbei. Das ist die eine Stelle, wo Adobe noch relativ konkurrenzlos ist.


Die Affinity-Suite als Gesamtpaket

Wenn ich einen Schritt zurücktrete und mir das Gesamtbild anschaue, dann ist die Affinity-Suite die stärkste Alternative zum Adobe-Ökosystem. Photo + Designer + Publisher. Drei Programme, einmal kaufen. Die arbeiten nahtlos zusammen. Du kannst innerhalb von Publisher in den Photo- oder Designer-Modus wechseln, ohne das Programm zu verlassen. Das Gesamtpaket kostet weniger als ein einziges Jahr Adobe-Abo. Und es gehört dir. Für Fotografen, Designer, Illustratoren, Layouter, Freelancer – die Affinity-Suite ist der beste Einstieg in professionelle Kreativarbeit, den es gibt. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/


Mein Setup – Falls es jemanden interessiert

Photoshop bleibt mein Hauptwerkzeug, daran ändert sich nichts. Capture One für RAW-Entwicklung, weil es Farben besser kann als Lightroom. DaVinci Resolve für Video, weil es kostenlos ist und die Farbkorrektur unerreicht. Affinity Photo als Ergänzung für bestimmte Aufgaben. Blender für 3D, kostenlos und unfassbar mächtig. Ich bin nicht weg von Adobe. Aber ich bin breiter aufgestellt. Und das fühlt sich richtig an.


Am Ende

Die Frage ist nicht: Adobe oder nichts? Die Frage ist: Was brauchst du wirklich? Wenn du anfängst, wenn du lernst, wenn du mit kleinem Budget arbeitest – du brauchst kein Adobe-Abo. Du brauchst gute Werkzeuge, die du dir leisten kannst. Und die gibt es. Heute mehr denn je. Probier sie aus. Entscheide selbst. Und lass dir von niemandem einreden, dass gute Kreativarbeit nur mit bestimmter Software möglich ist. Das Werkzeug macht nicht den Künstler. Der Künstler macht das Werkzeug.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Es gibt Leute, die reden über Kreativität. Und es gibt Leute, die machen einfach. Seit Jahrzehnten. Ohne zu fragen, ob das gerade Trend ist.

Ich gehöre zur zweiten Kategorie.

Mein Name ist Peter Braunschmid. Die meisten kennen mich als Brownz. Und wenn ich heute zurückschaue auf das, was ich in den letzten vierzig Jahren gemacht habe, dann sieht das auf keinen Fall aus wie ein sauber ausgedruckter Business-Plan. Kein „Jahr 1 Ausbildung, Jahr 3 Praktikum, Jahr 10 Abteilungsleiter.“ Nichts davon.

Es sieht eher aus wie ein Bild, das hundertmal übermalt wurde. Jede Schicht ein Risiko. Jede Schicht eine Entscheidung. Und manche Schichten, die man erst versteht, wenn man weiter draufgemalt hat.

Das ist keine Entschuldigung. Das ist Methode.

Meine Laufbahn ist kein gerader Weg. Sie ist ein Composing. Mit Schnittkanten, Masken, Texturen – und der Fähigkeit, aus Fehlern Stil zu machen. Genau das, was ich seit Jahrzehnten mit Bildern mache, hab ich auch mit meinem Leben gemacht. Manchmal bewusst, manchmal nicht. Aber immer weiter.


1984. Ein Commodore 64. Und keine Ahnung, dass das eine Karriere wird.

Ich fange ganz vorne an.

  1. Ich bin jung, ich bin in Österreich, und ich sitze vor einem Commodore 64. Nach heutigen Maßstäben wäre das nicht mal ein ordentlicher Taschenrechner. Die Farbpalette ist ein schlechter Witz. Die Auflösung ist eine Beleidigung für jeden modernen Bildschirm. Die Disketten haben gerade genug Platz, dass man nachdenken muss, ob sich die Datei lohnt.

Und ich finde das großartig.

Nicht weil ich damals wusste, was daraus wird. Sondern weil mich das Ding fasziniert hat. Weil ich sehen wollte, was möglich ist. Weil es so etwas wie ein digitales Spielfeld war, das es vorher nicht gab.

Was ich in dieser Phase gelernt habe, ist etwas, das ich seitdem nie vergessen habe: Wer in einer begrenzten Umgebung arbeitet, entwickelt keine Angst vor Einschränkungen. Er lernt, sie zu nutzen. Wenn du keine Ebenen hast, baust du Ebenen im Kopf. Wenn du keine perfekten Verläufe hast, erfindest du sie mit Trick und Geduld. Wenn das Ergebnis nicht so aussieht wie der Traum – machst du trotzdem weiter.

Das klingt romantisch, ist aber schlicht Training. Und es erzeugt eine besondere Art von Stolz: nicht auf das Tool, sondern auf das Ergebnis trotz Tool.

Das ist die erste Lektion meiner Biografie. Und ich glaube, sie ist heute relevanter denn je. Weil die Leute gerade alle Werkzeuge haben, die ich mir damals nicht mal vorstellen konnte – und trotzdem oft ratlos vor dem leeren Bildschirm sitzen.


Die Szene, die niemand kannte – und die trotzdem meine erste Kreativschule war

Dann kam der Amiga.

Und mit ihm eine Welt, die heute kaum noch jemand kennt. Die Demo- und Cracking-Szene der späten 80er und frühen 90er war so etwas wie das erste Internet der Kreativen. Kein Algorithmus, keine Follower, keine Likes. Nur eine einzige Frage: Kannst du was liefern?

Ich konnte.

Ich habe in dieser Zeit digitale Bilder verkauft. An Intro- und Cracking-Gruppen, die meine Grafiken als visuelle Identität genutzt haben. Als Schaufenster. Als Erkennungszeichen. Als das, was man heute mit viel Business-Sprache „Branding“ nennen würde.

Das war Jugendkultur, ja. Aber es war auch frühe Kreativökonomie. In dieser Subkultur war Look Währung. Wer liefern konnte, gehörte dazu. Wer nicht liefern konnte, nicht.

Es gab keinen Business-Coach, der mir erklärt hätte, wie das funktioniert. Es gab keinen Algorithmus, der mir gesagt hätte, was gerade gut ankommt. Es gab nur: Auge, Szene, Anerkennung. Oder eben nicht.

Rückblickend war das meine erste kreative Schule. Nicht im romantischen Sinn, sondern im harten Sinn: Du wirst bewertet. Deine Arbeit zählt. Und wenn sie nicht zählt, weißt du es sofort.

Dann kam die Amiga-Zeit mit Spielegrafiken, mit Experimenten, mit Projekten, die nicht immer fertig wurden. Das sage ich bewusst so. Nicht alle Projekte wurden fertig. Ich hab das früher vielleicht als Schwäche gesehen. Heute sehe ich es anders.

„Nicht fertig werden“ ist oft Forschung. Du gehst rein, du lernst, du nimmst das Material mit. Und manchmal baust du Jahre später aus diesem unfertigen Material etwas, das du vorher nicht hättest bauen können.


Der Wechsel: Von der Chemie in die Bilderwelt

Jetzt kommt der Teil meiner Geschichte, über den ich manchmal schmunzeln muss.

Ich bin ausgebildeter Chemielaborant.

Ja, wirklich.

Und dann habe ich 1997 den Schritt gemacht, der alles verändert hat. Ich bin in die Film- und Agenturwelt gewechselt. Montevideo-Film, Monte-Projects, Event- und Werbeagenturarbeit, Museumsprojekte.

Das Jahr 1997 steht deshalb auf meinem Blog als Zeitstempel: „Fine Digital Art since 1997.“ Das ist kein nostalgischer Slogan. Das ist eine Ortsangabe. Eine Markierung, die sagt: Hier hat sich was entschieden.

1997 war „digital“ noch nicht bequem. Photoshop war in Österreich mehr Mythos als Alltag. Es gab kein YouTube mit Tutorials, kein Reddit mit Tipps, kein Instagram mit Inspiration auf Abruf. Wenn du nicht wusstest, wie was ging, musstest du es rausfinden. Durch Ausprobieren. Durch Scheitern. Durch Weitermachen.

Und die Agenturen haben mir das auf ihre eigene, manchmal brutale Art beigebracht.

Weil Agenturarbeit das größte Missverständnis über Kreativität zerstört: dass Ideen das Problem seien.

Ideen sind billig. Umsetzung ist teuer.

Umsetzung bedeutet: saubere Kanten, stimmige Lichtlogik, konsistente Farben, glaubwürdige Perspektiven. Es bedeutet, dass das Bild nicht nur im Kopf funktioniert, sondern auch im Druck, im Banner, im Museumssaal, in der Präsentation vor Menschen, die nicht fragen, wie schön dein Prozess war, sondern ob es „passt.“

Der Kunde will das morgen früh. Das Licht stimmt nicht. Die Perspektive passt nicht. Der Hintergrund ist falsch. Und du löst es trotzdem.

Wer solche Jahre überlebt, hat ein anderes Verhältnis zum Wort „Look.“ Look ist dann nicht Geschmack, sondern eine Reihe von Entscheidungen unter Druck.

Das war meine eigentliche Ausbildung. Nicht der Lehrplan, nicht die Schule, nicht die Zertifikate. Sondern diese Jahre in Agenturen, wo jemand auf dich zeigt und sagt: Ich brauch das bis morgen.

Und du lieferst.


Die Community-Zeit: Bevor irgendjemand Likes kannte

Anfang der 2000er passiert etwas Seltsames.

Menschen fangen an, Bilder ins Internet zu stellen. Ohne zu wissen, was das bedeutet. Ohne Plan, ohne Strategie, ohne Social-Media-Manager im Hintergrund.

Ich bin dabei. Auf U-Boot – für alle, die den Namen nicht kennen: eine Plattform, die von 1999 bis 2013 existiert hat und zwischenzeitlich Millionen registrierter Nutzer im deutschsprachigen Raum hatte. Profile, Gästebücher, Bildalben, Foren. Heute klingt das wie Archäologie. Damals war es revolutionär.

Und diese Zeit hat mich geprägt auf eine Art, die ich damals nicht mal benennen konnte.

In dieser Community habe ich begriffen, dass Wissen keine Einbahnstraße ist. Dass wenn du zeigst, wie du was machst, das nicht dein Können schmälert. Sondern vermehrt.

Die Leute wollten wissen: Welche Ebenen? Welche Maske? Wie hast du das gemacht? Welche Technik steckt dahinter?

Und ich habe geantwortet. Immer. Weil ich selbst so angefangen habe – von anderen zu lernen, Sachen nachzumachen, zu verstehen, bevor ich es selbst gemacht habe.

Das ist der Ursprung von allem, was später kommt. Das Teilen von Wissen ist nicht Altruismus bei mir. Es ist Überzeugung. Wer sein Handwerk wirklich beherrscht, hat keine Angst davor, es zu zeigen. Im Gegenteil.

Und in dieser Phase entstehen auch die ersten richtigen Gemeinschaften. Nicht im Social-Media-Sinn. Sondern im echten Sinn: Menschen, die zusammen etwas entwickeln. Zusammen besser werden. Zusammen eine Ästhetik schaffen.

Das waren die Vorfahren heutiger Creator-Communities. Nur ohne den Business-Layer drüber.


Photoshop, CorelDRAW und die Frage, welches Werkzeug das richtige ist

Mit dem PC verschiebt sich meine Geschichte von Szene zu Beruf. CorelDRAW ist eine Zwischenstation. Dann kommt Photoshop.

Und Photoshop bleibt.

Nicht weil ich keinen anderen gewählt hätte. Sondern weil Photoshop in dieser Zeit das war, was ich brauchte: ein Werkzeug, das mit meiner Denkweise übereinstimmt. Ebenen, Masken, Blendmodi, Schichten. Ich denke in Schichten. Ich habe immer in Schichten gedacht, auch bevor es Photoshop gab. Der Commodore 64 hat mich gelehrt, Ebenen im Kopf zu bauen. Photoshop hat mir gezeigt, dass man das auch auf dem Bildschirm machen kann.

Das klingt simpel. Aber es ist eigentlich alles.

Wer Photoshop wirklich versteht, versteht es nicht als Programm. Er versteht es als Denkmodell. Als eine Art, Probleme zu lösen. Als eine Sprache, in der man visuelle Behauptungen formuliert.

Und ich formuliere seitdem täglich in dieser Sprache.


Vom Forum zur DVD: Als Content noch auf Plastik gebrannt wurde

Um 2005, 2006 beginne ich, Videotrainings ernst zu nehmen.

Nicht weil jemand gesagt hat, dass das eine gute Idee ist. Sondern weil die Fragen aus der Community nicht weniger werden. Weil das Bedürfnis nach strukturiertem Wissen wächst. Weil ich merke, dass ein Forum-Post nicht ausreicht, um wirklich zu erklären, wie etwas funktioniert.

2013 erscheint dann das erste große Video-Training unter dem Label Galileo Press: „Faszinierende Photoshop-Welten mit Peter Brownz Braunschmid.“ DVD-ROM, Komplettworkshop, alles auf einem Datenträger.

Das klingt heute nach Archäologie. DVD-ROM. Ich weiß.

Aber die DVD-Ära hat mich etwas gelehrt, das ich nicht missen möchte: Sie hat mich gezwungen, Dinge zu Ende zu denken.

Wenn du ein Training auf Datenträger veröffentlichst, kannst du nicht am nächsten Tag einen Patch nachliefern. Kein Update, kein „in der nächsten Version erklären wir das besser.“ Du musst Inhalte so bauen, dass sie ohne Kontext bestehen. Dass jemand die Scheibe einlegt, alleine zu Hause sitzt, und trotzdem versteht.

Das ist didaktisches Handwerk. Und didaktisches Handwerk ist verwandt mit Bildhandwerk.

Beides ist Struktur. Beides ist die Fähigkeit, Komplexität so zu organisieren, dass jemand anderes sie benutzen kann. Beides verlangt, dass du weißt, was wichtig ist und was nicht. Dass du Prioritäten setzt. Dass du weglässt, was ablenkt.

Wer das kann, kann auch Bilder machen. Und wer Bilder machen kann, kann das meistens auch erklären.


DOCMA und die Fachmedien: Eine lange Zusammenarbeit

Parallel dazu entstehen die Artikel. In DOCMA, der wichtigsten deutschsprachigen Fachzeitschrift für digitale Bildbearbeitung. In DigitalPHOTO. In Photoshop-Magazinen bei falkemedia.

DOCMA ist für mich mehr als ein Publikationsort. Es ist eine Verbindung zur Gemeinschaft der Menschen, die das, was ich mache, wirklich verstehen. Die nicht fragen, ob das „KI“ ist oder „echte Kunst“, weil sie wissen, dass diese Frage die falsche ist.

Mein Porträt-Workflow wird in DOCMA auf drei Grundschritte heruntergebrochen: Raw-Entwicklung, Textur-Überlagerung, Detailverstärkung. Dazu kommen Downloadpakete mit Presets, Texturen, Videos. Ganze Heftausgaben tragen meinen Workflow als Titelthema.

In DOCMA 98 erscheint „Brownz‘ Porträt-Workflow.“ In DOCMA 99 die „Brownz-Vorgaben.“ In DOCMA 100 gibt es dann einen Blick zurück – mit einem augenzwinkernden Verweis auf „100 Jahre Brownz-Art.“

Das ist kein Jubiläumswitz. Das ist eine Anerkennung, die ich nicht als selbstverständlich nehme. Brownz ist in dieser Szene nicht Gast. Er ist Bestandteil. Das stimmt, und das bedeutet mir was.

In DOCMA werden außerdem „Brownz-Vorgaben“ und Workflows dokumentiert, teils als Gratis-Inhalte, teils als Premium-Pakete. Das ist die Fortsetzung dessen, was in den Community-Foren begann: Wissen in Umlauf bringen. Nicht als Marketing, sondern als Haltung.

In DigitalPHOTO erscheint am 18. November 2016 ein Artikel von mir: „So erstellen Sie ein surreales Fantasy Composing.“ Ich beschreibe darin sehr konkret meine Vorgehensweise. Inspiration sammeln – ein Ordner als Ideenfundus. Austausch mit dem Model, weil das Bild ohne diesen Dialog nicht funktioniert. Shooting in zwei Teilen, weil ich Model und andere Elemente getrennt fotografiere und getrennte Elemente später mehr Freiheit geben. Fotografieren vor grauem Hintergrund, damit das Freistellen sauber wird.

Das klingt nicht glamourös. Soll es auch nicht. Das ist Produktionsrealität. Und wer meine Arbeit verstehen will, muss verstehen, dass bei mir Planung und Ausführung zusammengehören. Das Bild fängt nicht in Photoshop an. Es fängt mit einem Ordner voller Inspiration und einem Gespräch mit dem Model an.

In der falkemedia-Photoshop-Ausgabe 04/2013 gibt es einen Making-of-Workshop zu einem „Photoshop-Wolpertinger“ – eine Montage aus zwei Tierfotos als Einstieg in Ebenen und Masken. Was lustig klingt, ist eigentlich der Kern meines Ansatzes: Ich nehme zwei Dinge, die nicht zusammengehören, und mache sie so glaubwürdig, dass dein Gehirn kurz Ja sagt. Das ist Compositing. Das ist das Handwerk hinter den Bildern.


Wie ein Brownz-Bild wirklich entsteht

Ich möchte an dieser Stelle kurz innehalten und erklären, wie mein Workflow wirklich aussieht. Nicht als Geheimnistuerei, sondern weil ich glaube, dass das Verstehen des Prozesses genauso wichtig ist wie das Ergebnis.

Es fängt mit Sammeln an.

Immer.

Ich habe Ordner mit Inspirationsbildern. Nicht weil ich keine eigenen Ideen hätte, sondern weil Kombinieren die Grundgeste von Kreativität ist. Wer einen Fundus hat, ist nicht mehr abhängig vom Moment. Er kann kombinieren, schichten, übersetzen. Das ist keine Schwäche. Das ist Methode.

Dann kommt der Dialog. Mit dem Model, mit dem Motiv, mit der Idee. Ich habe das in DigitalPHOTO geschrieben und ich sage es hier nochmal: Der Austausch ist wichtig. Nur so kann das Bild funktionieren. Eine Pose, die das Model nicht trägt, trägt auch das Bild nicht. Eine Stimmung, die nicht verhandelt wurde, wirkt im Bild aufgesetzt. Ich nehme mir diese Zeit. Immer.

Dann das Shooting. Meistens getrennte Elemente. Model hier, weiteres Material da, beides vor grauem Hintergrund, damit das Freistellen sauber wird. Das klingt unromantisch – und das ist es auch. Es ist Investition in spätere Freiheit. Wer jetzt sauber arbeitet, kann später alles machen. Wer jetzt schludert, kämpft nachher mit jeder Maske.

Danach erzeuge ich nicht eine Raw-Entwicklung, sondern mehrere. Verschiedene Stimmungen, verschiedene Klimata, verschiedene Richtungen. Und dann schichte ich sie. Ebenen, Blendmodi, Masken. Das ist nicht „einen Look anwenden.“ Das ist Regie. Das ist das Entscheiden, was im Bild wichtig sein darf und was nicht.

Dann Textur. Bei mir ist Textur keine Dekoration. Sie ist Atmosphäre. Sie ist die unsichtbare Schicht, die ein Bild von „clean“ zu „lebt“ kippt. Eine gute Textur macht ein Bild nicht komplizierter. Sie macht es echter.

Dann Detailverstärkung. Mikrokontrast, lokale Schärfe, Akzente da, wo das Auge hingehen soll. Das ist die Phase, in der das Bild aufwacht.

Und dann die entscheidende Frage, die ich mir bei jedem Bild stelle: Stimmt die Physik?

Passt das Licht? Kommen die Schatten von der richtigen Seite? Ist die Perspektive glaubwürdig? Funktioniert das Bild, wenn man es sich vorstellt, als wäre es eine Fotografie?

Diese Frage ist der Kern. Wer sie nicht stellt, baut Effekte. Ich baue Bilder.


Synthografie: Was das Wort bedeutet und warum ich es brauche

Irgendwann brauchte ich ein Wort für das, was ich mache.

Nicht „Fotomontage“ – zu eng. Nicht „digitale Kunst“ – zu weit. Nicht „KI-Kunst“ – komplett falsch.

Synthografie.

Hybrid aus Fotografie, Malerei, digitalen Tools, KI-Komponenten und Photoshop-Kontrolle. Ein Begriff, der sagt: Das hier ist eine Synthese. Nicht eine Sache, sondern viele Dinge zusammen, die erst gemeinsam das werden, was sie sein sollen.

Auf Threads beschreibe ich mich so: „Photoshop & Synthography. DigiArt. DarkArt. Der aus der DOCMA.“

Das ist ein kurzer Satz. Aber er enthält alles: Technik, Verfahren, Genre, Reputation.

Ich verwende KI als Schicht, nicht als Ersatz. Ich nutze generative Tools da, wo sie helfen – und behalte die Kontrolle da, wo sie entscheidet. Der Output interessiert mich nur, wenn er Entscheidungen trägt. Wenn ich sehen kann, dass da jemand – ich – etwas gewollt hat.

Das unterscheidet Synthografie von dem, was viele „KI-Kunst“ nennen.

KI-Kunst ist oft: Prompt rein, Bild raus, posten.

Synthografie ist: Konzept, Dialog, Shooting, Rohmaterial, Entwicklung, Schichtung, Textur, Kontrolle, Verfeinerung, Entscheidung.

Der Unterschied ist nicht das Tool. Der Unterschied ist der Anspruch.

Und in einer Zeit, in der jeder ein Bild generieren kann, ist dieser Anspruch das, was zählt.


Physische Werke in einer digitalen Welt: Warum ich Unikate baue

Jetzt wird es für manche vielleicht überraschend.

Ich, der Mann, der seit 1984 digital arbeitet, der Photoshop kennt wie seine Hosentasche, der KI-Tools einsetzt bevor die meisten wussten, wie man das buchstabiert – ich verkaufe meine Arbeiten als physische Unikate.

Auf brownzart.com sind die Werke keine digitalen Dateien. Sie sind Objekte. Synthografie-Basis, aus Handzeichnungen und Foto-Inputs entwickelt, anschließend mit Acryl veredelt. Fine-Art-Print auf William Turner Büttenpapier. Meistens 60 x 90 cm. Handsigniert. Mit Echtheitszertifikat.

Und dann dieser Satz, der alles sagt: „Kein Reprint. Kein zweites Mal.“

Das ist eine bewusste Entscheidung. Eine Gegenbewegung.

In einer Welt, in der alles endlos kopierbar ist, in der ein digitales Bild millionenfach geteilt werden kann ohne dass es sich verändert oder erschöpft, baue ich Seltenheit. Nicht über Blockchain-Rhetorik, nicht über NFT-Spielchen, nicht über künstliche Verknappung.

Sondern über das simpelste Prinzip: Es existiert als Objekt. Einmal. Und wenn es weg ist, ist es weg.

Das klingt altmodisch. Und genau deshalb funktioniert es.

Dazu kommt das Format, das ich „Limited. Iconic. XOXO.“ nenne. Ein Werk, einen Monat, dann weg. Keine zweite Chance, kein Reprint, keine spätere Edition. Das zwingt zur Entscheidung. Und Entscheidungen sind das, was digitale Beliebigkeit meistens nicht produziert.

Ich baue damit etwas, das in der digitalen Kunstwelt selten geworden ist: Vergänglichkeit. Das Gefühl, dass etwas jetzt da ist und nachher nicht mehr. Das ist kein Trick. Das ist eine Aussage über den Wert von Dingen.


Das Wissen als Ökosystem

Neben den Unikaten gibt es das Wissen.

Was früher DVD war, ist heute der Brownz Hub. Ein Jahresabo. Ein „lebendiger Dropbox-Ordner“, der sich ständig füllt. Presets, Texturen, Pinsel, PSD-Strukturen, Videos. Über 400 GB Arbeitsdaten.

Das ist nicht Content im üblichen Sinn. Das ist Produktionskapital.

Der Unterschied ist wichtig: Tutorials schaut man sich an und vergisst sie. Werkzeuge benutzt man jahrelang. Presets, Texturen, Pinsel, PSD-Strukturen – das sind Dinge, die in neuen Bildern immer wieder auftauchen. Die sich verbinden mit neuen Ideen und neuen Projekten. Die mit einem wachsen.

Auf brownzart.com gibt es konkrete Optionen: Digitaler Zugang für 49 Euro, klassisch auf DVDs oder USB-Stick für 69 Euro, und ein „Brownz XXL Archiv“ von über 400 GB auf einer 500-GB-USB-Festplatte für 250 Euro.

Das sind keine abstrakten Pakete. Das sind Archive. Bibliotheken. Ich denke in Datenschichten, nicht nur in Bildschichten. Wissen ist bei mir nicht nur ein Video. Wissen ist ein Bestand. Und wer in einer kreativen Arbeit wirklich produktiv sein will, braucht Bestände, auf die er zurückgreifen kann.

Das Coaching-Angebot ist die dritte Säule: Ein Tag Personal Coaching in Linz, 10 bis 16 Uhr, inklusive über 400 GB Arbeitsdaten und allen BrownzArt Videos für 444 Euro. Für Wiederholungstäter oder Menschen, die das Archiv schon haben, gibt es günstigere Optionen.

„FULL SCALE PHOTOSHOP. 100% Brownz. NO SECRETS.“

Das ist kein Werbeslogan. Das ist eine Haltung. Die Haltung eines Handwerkers, der weiß, dass Geheimnisse nichts bringen. Weil Qualität sowieso keine Frage von Tricks ist. Weil das Handwerk für jeden lernbar ist, der es wirklich lernen will.

Und weil ich selbst so angefangen habe: von anderen lernen, nachfragen, nachbauen, verstehen.


Das Archiv als Superkraft

Es gibt etwas in meiner Arbeitsweise, das ich lange nicht bewusst benennen konnte, das aber vielleicht das Wichtigste ist: Ich denke in Archiven.

Nicht nur in Werken. In Beständen.

Das sieht man an den Zahlen – 400 GB Arbeitsdaten sind kein Zufall. Das sieht man an der Sprache meines Blogs – „Archiv“, „Ordner“, „Bibliothek.“ Das sieht man an der Asset-Mentalität auf DeviantArt, wo ich als „BrownzArt“ mit umfangreichen Galerien präsent bin, darunter Serien zu „Angels“, „Stock and Freeloads“ und Fantasy-Arbeiten, also nicht nur fertige Werke, sondern auch Texturen, PSDs, Backdrops. Dinge, die andere benutzen können.

Das ist eine alte Szene-Haltung, die ich nie abgelegt habe: Wenn eine Ästhetik leben soll, muss sie in Umlauf gehen.

Und für mich persönlich bedeutet das: Ich muss nicht bei jedem Projekt bei Null anfangen. Ich beginne bei Schicht 37. Und Schicht 37 ist meistens spannender als Schicht 1.

Das ist eine stille Superkraft. Wer ein Archiv hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Das macht dich in gewisser Weise unkaputtbar.


Der Blog als Atelier

Mein Blog brownz.art ist dabei mehr als „Blog.“

Er ist eine Werkzeugkiste. Mit Kategorien wie BildLooks, Texturen, Brushes, Plugins, PS Actions, Tools, Making-of. Und daneben die essayistischen Rubriken Kontext und Gelebt. Das ist nicht die Struktur eines Portfolios. Das ist die Struktur eines Ateliers, das neben Leinwänden auch Schubladen hat. Und jede Schublade enthält Dinge, die man später wieder braucht.

In der Kategorie „Art Of Brownz“ sind Werk und Erzählung eng verwoben. Nicht nur Bildposts, sondern auch Texte über Fanprojekte, über Chaos als Methode, über Nächte am Rechner.

In einem Beitrag über „Star Wars Madness“ – einem Fanvideo, das ich in einer Nachtschicht zusammengebaut habe – schreibe ich: „Das Chaos ist nicht der Bug. Das Chaos ist das Feature.“

Das ist, nebenbei, eine sehr zeitgenössische Aussage über generative KI. Wer mit diesen Tools arbeitet, kennt das Chaos. Die Frage ist nur, ob man es wegretuschiert oder in Stil verwandelt.

Ich wähle immer Stil.

Und in einem meiner programmatischen Texte formuliere ich die Grundhaltung, die das alles zusammenhält: „Alles ist Input.“

Damit meine ich kein leeres Motivations-Mantra. Ich meine eine konkrete Praxis: sammeln, archivieren, verdichten. Ein Werbeplakat, das halb abgerissen ist. Eine Textur von einer Wand. Ein Lichtreflex am Asphalt. Ein Foto, das technisch „misslungen“ ist, aber eine Stimmung hat. Alles kann später Schicht werden.

Diese Haltung hat eine Nebenwirkung: Sie macht dich unkaputtbar. Wer immer Input hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Und wer immer weiterbauen kann, kommt nie wirklich zum Stillstand.


Die Brownz-Sprache: Halb Manifest, halb Augenzwinkern

Es gibt noch etwas, das ich erwähnen möchte. Nicht als Eigenlob, sondern als ehrliche Reflexion.

Ich habe über die Jahre eine eigene Sprache entwickelt. Eine Stimme. Die sich durch alles zieht, was ich schreibe und zeige.

Auf meiner „Limited. Iconic. XOXO.“-Seite steht wörtlich: „Kein Reprint. Kein NFT.“ Und danach: weg.

Das ist keine Hochglanz-Galerie-Sprache. Das ist kein akademischer Kunsttext. Das ist direktes Reden. Mit Haltung und mit einem Augenzwinkern. Ich nehme die eigene Kunst ernst, aber ich nehme die Kultur, in der sie verkauft wird, nicht als sakral.

Ich nenne mich selbst manchmal „Der Brownz.“ Weil dieser Name eine Figur ist, die größer ist als mein bürgerlicher Name. Weil Brownz eine Haltung hat, die Peter Braunschmid manchmal erst entwickeln musste.

Und ich glaube, dass genau diese Sprache einen Unterschied macht. In einer Branche, in der alle versuchen, „professionell“ zu klingen, klingt jemand, der einfach redet, wie er denkt, heraus. Nicht laut. Aber klar.

Das zieht Menschen an, die nicht wissen wollen, welche Blendmodes ich verwendet habe, sondern ob das Bild ihnen etwas gibt. Und dann, für die Menschen, die es wissen wollen, liefere ich die Blendmodes gleich mit. Als Presets, als Download, als Coaching.

Das ist das Modell. Und es funktioniert, weil die drei Säulen sich nicht kannibalisieren: Das Kunstwerk bleibt rar und wertig, das Wissen bleibt zugänglich und lebendig, und der direkte Kontakt beim Coaching bleibt das Premium. Jede Säule stützt die anderen.


Warum das 2026 wichtig ist

Zum Schluss möchte ich noch etwas sagen, das über meine persönliche Geschichte hinausgeht.

In der Gegenwart ist Bildproduktion so leicht geworden, dass viele Menschen den Wert von Bildproduktion vergessen. Ein Prompt, ein Klick, ein Output. Doch je leichter das Erzeugen wird, desto wichtiger wird das Kuratieren. Nicht jedes Bild ist ein Werk. Nicht jeder Output ist eine Entscheidung.

Mein Modell – Unikat-Logik, Asset-Kultur, Workflow-Disziplin – ist eine Antwort auf diese Entwertung. Ich setze nicht auf Masse, sondern auf Autorenschaft.

Das ist nicht nostalgisch. Das ist zeitgemäß.

Weil die Frage, die alle stellen – „Kann ich das auch mit KI machen?“ – die falsche Frage ist. Die richtige Frage ist: „Weiß ich, was ich will, bevor das Tool anfängt?“

Wer das weiß, kann jedes Tool benutzen. Wer das nicht weiß, wird vom Tool benutzt.

Ich nutze Tools. Seit 1984. C64, Amiga, PC, Photoshop, CorelDRAW, KI-Generatoren, JSON-Programmierung im Dialog. Jedes davon war ein Werkzeug, das ich eingesetzt habe, um etwas zu sagen. Nie umgekehrt.

Das ist, glaube ich, das Einzige, das wirklich zählt.

Nicht wie lange man dabei ist. Nicht wie viele Tools man kennt. Nicht wie viele Follower man hat.

Sondern ob man weiß, was man sagen will. Und ob man es sagt.

Ich sage es seit 1984. Und ich habe nicht vor aufzuhören.


Peter „Brownz“ Braunschmid ist unter brownzart.com und brownz.art zu finden. Wer tiefer einsteigen will: Der Brownz Hub, die Coachings und die Unikat-Galerie sind dort dokumentiert. Kontakt: brownz@brownz.art



Spoiler: Es ist meistens schlimmer als in jedem Horrorfilm.

Ich kenn das Gefühl. Du lernst jemanden kennen. Kreativ, charmant, interessant. Redet über Kunst, über Vision, über Werte. Du denkst: Endlich. Endlich jemand, der es versteht. Endlich jemand, mit dem man arbeiten kann. Vielleicht sogar ein Freund.

Und dann fällt die Maske.

Und du stehst da wie der Typ in einem Horrorfilm, der gerade gemerkt hat, dass das freundliche Nachbarskind die ganze Zeit ein Küchenmesser hinterm Rücken hatte.


Warum ausgerechnet Kreative?

Das ist die Frage, die mich schon jahrelang beschäftigt. Warum ist das Maskenphänomen im Kreativbereich so ausgeprägt? Warum gibt es in Künstlerkreisen, in der Fotoszene, in Designergruppen, in allen möglichen kreativen Communities so unglaublich viele Menschen, die eine Persona aufgebaut haben, die mit ihrer tatsächlichen Persönlichkeit ungefähr so viel zu tun hat wie ein Stockfoto mit echter Emotion?

Ich hab ein paar Theorien. Und zwanzig Jahre Erfahrung, die diese Theorien ziemlich gut unterstützen.

Theorie Nummer eins: Kreativität legitimiert Exzentrik.

In kaum einem anderen Bereich ist es so akzeptiert, seltsam zu sein. Schwierig. Kompromisslos. Eigen. Das schafft eine perfekte Deckung für Leute, die eigentlich einfach nur unangenehm sind, aber das gerne als künstlerische Eigenheit verkaufen.

„Ich bin halt so.“ Nein. Du bist ein Arsch. Das ist was anderes.

Aber die kreative Bubble verzeiht das. Manchmal sogar feiert sie es. Der schwierige Künstler als Mythos. Der unnahbare Fotograf als Marke. Der exzentrische Designer als Legende.

Herrliche Deckung für echte Monster.

Theorie Nummer zwei: Die Maske ist das Produkt.

Im Kreativbereich verkaufst du dich selbst. Deine Persönlichkeit ist Teil deines Brandings. Deine Geschichte, deine Werte, dein Stil – das ist nicht nur du, das ist Marketingmaterial.

Also wird aus der Maske ein Produkt. Fein poliert, konsistent in allen Kanälen, perfekt auf die Zielgruppe abgestimmt. Der authentische Künstler. Die nahbare Fotografin. Der zugängliche Designer.

Und irgendwann verwechseln manche Leute die Maske mit sich selbst. Und irgendwann passt die Maske nicht mehr. Und dann knallt sie runter.

Theorie Nummer drei: Kreativität kommt oft mit Wunden.

Das klingt jetzt klischeehaft, aber lass mich das ausführen.

Viele Menschen, die kreativ arbeiten, sind das nicht zufällig. Kreativität ist oft ein Ventil. Ein Weg, Erfahrungen zu verarbeiten, die anders nicht verarbeitbar sind. Schmerz in Kunst zu verwandeln. Verwirrung in Struktur.

Das bedeutet: Viele Kreative tragen echte, tiefe, unverarbeitete Sachen mit sich rum. Und die Maske ist oft der Schutz davor, dass das jemand sieht.

Das ist menschlich. Das ist verständlich. Das verdient Mitgefühl.

Aber es erklärt, warum der Moment, in dem die Maske fällt, so dramatisch ist. Weil darunter nicht nur eine andere Persönlichkeit wartet. Sondern manchmal ein komplettes unbearbeitetes Chaos.


Die Typen, die ich kenne

Zwanzig Jahre Kreativbranche. Ich hab ein paar Archetypen kennengelernt.

Der Visionär.

Redet nur über seine großen Pläne. Projekte, die die Welt verändern werden. Kollaborationen, die er andenkt. Ideen, die gerade noch in Entwicklung sind. Immer kurz vor dem Durchbruch. Immer knapp davor.

Wenn die Maske fällt, stellt sich raus: Es gibt keine Projekte. Es gibt nie Projekte. Es gibt nur Reden über Projekte. Weil Reden billiger ist als Machen und weil man für nicht fertige Projekte nicht kritisiert werden kann.

Diese Spezies ist harmlos, aber zeitfressend. Ich hab Jahre meines Lebens in Gesprächen mit Visionären verbracht, die nichts produziert haben.

Die Mentorin.

Bietet Rat an, ob man ihn will oder nicht. Weiß alles besser. Hat mehr Erfahrung. Hat schon alles gesehen. Ist großzügig mit Einschätzungen, die niemand bestellt hat.

Wenn die Maske fällt: Der ganze Rat war nie für dich. Er war dafür, sich selbst groß zu fühlen. Das Mentoring war Kontrolle in Lehrpersonen-Kostüm.

Diese Spezies ist gefährlicher, weil sie echten Schaden anrichten kann. Besonders bei Anfängern, die tatsächlich Rat suchen und stattdessen Abhängigkeit bekommen.

Der Kollaborateur.

Will immer mit allen zusammenarbeiten. Findet jede Idee toll. Ist enthusiastisch, zugänglich, begeistert. Sagt Ja zu allem.

Wenn die Maske fällt: Liefert nichts. Nimmt alles. Taucht auf, wenn es was zu nehmen gibt, und verschwindet, wenn es was zu geben gilt. Die Kollaboration war immer eine Einbahnstraße, nur dass du zu lange gebraucht hast, das zu merken.

Diese Spezies ist besonders schwer zu erkennen, weil die Maske so verdammt sympathisch ist.

Der Vernetzer.

Kennt jeden. Erwähnt ständig Namen. Ist immer gerade von einem wichtigen Meeting zurückgekommen. Lädt überall Leute ein, vorzugsweise zu Dingen, die er selbst nicht bezahlt.

Wenn die Maske fällt: Die Verbindungen sind oberflächlicher als ein Like auf Instagram. Der Name, den er bei jedem Gespräch erwähnt, kennt ihn kaum. Das Netzwerk ist Fassade, dahinter ist wenig Substanz.

Der Kämpfer für die Sache.

Das ist mein Lieblingsarchetype, weil er am schwierigsten zu durchschauen ist.

Redet lautstark über Werte. Über Fairness, über Solidarität, über Gemeinschaft. Ist immer auf der richtigen Seite. Sagt die richtigen Sachen. Schreibt die richtigen Posts.

Wenn die Maske fällt, und die fällt immer irgendwann: Das waren alles Positionen, keine Überzeugungen. Performances, keine Werte. Weil wenn es persönlich wird, wenn es was kostet, wenn die eigene Bequemlichkeit auf dem Spiel steht, dann sieht die Solidarität plötzlich ganz anders aus.

Diese Spezies ist die gefährlichste. Weil man ihr am meisten vertraut.


Warum die Maske überhaupt irgendwann fällt

Das ist eigentlich die interessanteste Frage.

Masken kosten Energie. Unglaublich viel Energie. Eine Persona aufrechtzuerhalten, die nicht die eigene ist, ist erschöpfend. Du musst dich ständig erinnern, wer du sein sollst. Du musst konsistent sein über Jahre, über Plattformen, über Beziehungen hinweg.

Das hält keiner ewig durch.

Irgendwann kommt der Moment der Erschöpfung. Oder des Stresses. Oder des Erfolgs, ironischerweise. Weil Erfolg oft die Kontrolle lockert. Weil man sich denkt: Ich hab’s geschafft, jetzt muss ich nicht mehr so tun als ob.

Oder es kommt ein Trigger. Eine Krise. Eine Ablehnung. Ein Konflikt. Etwas, das die sorgfältig aufgebaute Konstruktion erschüttert.

Und dann fällt die Maske. Manchmal langsam, manchmal auf einmal.

Und was darunter zum Vorschein kommt, ist selten das, was man erwartet.


Der Slasher-Vergleich, der erschreckend gut passt

Ich hab den Slasher-Vergleich in der Überschrift nicht zufällig gewählt.

Kennt ihr diese Szene in jedem guten Horrorfilm? Da ist dieser nette Typ. Freundlich, hilfsbereit, immer da wenn man ihn braucht. Alle mögen ihn. Und dann – irgendwann, aus irgendeinem Grund, meist im dritten Akt – dreht er sich um und es ist Michael Myers.

Und rückblickend waren alle Zeichen da. Die kleinen Momente, die komisch wirkten. Die Reaktionen, die nicht ganz stimmten. Die Sätze, bei denen man kurz dachte: Hm. Ist aber schnell wieder weggegangen.

Genau so ist das mit Masken im Kreativbereich.

Rückblickend sieht man immer: Die Zeichen waren da.

Das eine Mal, wo er auf Kritik reagiert hat wie auf einen persönlichen Angriff. Das andere Mal, wo sie plötzlich kalt wurde, als das Gespräch in ihre Richtung ging. Der Moment, wo er über einen Kollegen geredet hat, und da war was in der Stimme, das nicht stimmte.

Man hat es gesehen und nicht gesehen.

Und dann fällt die Maske und man steht da wie die Protagonistin im Horrorfilm, die gerade ihren besten Freund ohne Gesicht vor sich hat und denkt: Ich hätte früher laufen sollen.


Was man tun kann – und was man nicht kann

Okay, jetzt wird es praktisch.

Zeichen erkennen, bevor die Maske fällt:

Wie jemand über andere redet, wenn er denkt, man hört nicht hin. Das ist das zuverlässigste Frühwarnsystem. Jemand, der hinter dem Rücken von Kollegen redet, redet hinter deinem auch. Garantiert.

Wie jemand mit Kritik umgeht. Nicht mit fremder Kritik – mit der an ihm selbst. Das ist aufschlussreich. Wer bei der kleinsten Anmerkung hochgeht oder komplett abblockt, hat eine Maske, die er schützt.

Wie jemand in Stressphasen ist. Die Maske hält im Normalbetrieb. Unter Druck zeigt sich das echte Gesicht. Reise mit jemandem, arbeite unter Deadline mit jemandem, erlebt eine Krise mit jemandem. Dann weißt du, wer da ist.

Ob Worte und Taten übereinstimmen. Nicht einmal, nicht zweimal. Über Zeit. Jemand kann einmal eine gute Ausrede haben. Zweimal vielleicht. Aber wenn das Muster immer dasselbe ist, ist das kein Zufall. Das ist Charakter.

Was man nicht tun kann:

Man kann niemanden zwingen, die Maske abzunehmen. Man kann niemanden reparieren. Man kann nicht rückwirkend die Beziehung retten, die auf einer Illusion basiert hat.

Was man tun kann: Gehen. Wenn die Maske gefallen ist und was darunter war, hat man den Beweis. Den braucht man manchmal, weil man vorher zu lange gezweifelt hat.


Warum ich mich selbst nicht ausnehme

Hier wird es jetzt ungemütlich.

Weil ich auch Masken getragen habe. Andere als die beschriebenen, hoffe ich. Aber Masken.

Diese professionelle Fassade, die signalisiert: Alles im Griff. Die Sicherheit, die man ausstrahlt, wenn man eigentlich unsicher ist. Das Lächeln, wenn der Kommentar unter dem Bild nervt, aber man es sich nicht anmerken lässt. Die Begeisterung für ein Projekt, die man performt, obwohl man innerlich zweifelt.

Das sind auch Masken. Kleinere, vielleicht. Sozial akzeptablere. Aber keine echten Gesichter.

Und ich glaube, ein Teil davon ist unvermeidlich. Wir alle tragen in verschiedenen Situationen verschiedene Versionen von uns selbst. Das ist nicht Heuchelei, das ist soziale Kompetenz.

Der Unterschied ist, ob die Maske eine Schutzfunktion hat oder eine Täuschungsfunktion.

Schutzmaskierung: Ich zeig dir noch nicht alles, weil ich dich noch nicht kenne.

Täuschungsmaskierung: Ich zeig dir eine Version von mir, die nicht stimmt, damit du mich magst oder mir vertraust oder was von mir gibst.

Das erste ist Grenze. Das zweite ist Manipulation.


Das Gute an fallenden Masken

Okay, ich muss auch was Positives sagen. Weil es tatsächlich was Positives gibt.

Wenn eine Maske fällt, endet auch eine Lüge.

Und mit dem Ende der Lüge beginnt Klarheit.

Du weißt jetzt, woran du bist. Du musst keine Energie mehr darauf verwenden, Menschen zu interpretieren, Zeichen zu deuten, Hoffnungen zu haben, die keine Grundlage haben.

Das ist schmerzhaft. Manchmal sehr schmerzhaft.

Aber es ist ehrlicher als vorher.

Und in einer Branche, die so viel von Authentizität redet – auf LinkedIn, in Instagram-Captions, in Podcasts über Kreativität – ist Ehrlichkeit eigentlich das radikalste Ding, das man haben kann.

Die echten Menschen. Die, die keine perfekte Persona aufgebaut haben. Die, die zugeben, wenn was schiefläuft. Die, die nicht immer das Richtige sagen und trotzdem konsequent sind, wenn es drauf ankommt.

Die sind selten. Aber die gibt es.

Und nach zwanzig Jahren kann ich sagen: Die erkennst du meist daran, dass sie weniger reden und mehr tun. Dass sie keine große Show machen aus ihren Werten, sondern einfach dementsprechend handeln. Dass sie unbequem sein können, aber dabei berechenbar bleiben.

Keine Maske. Kein Hochglanz. Aber echt.

Das ist mir inzwischen mehr wert als jede perfekte Persona.


Ein letzter Gedanke

Das nächste Mal, wenn du jemanden kennenlernst, der in allem perfekt wirkt – der immer das Richtige sagt, immer die richtigen Werte hat, immer sympathisch und zugänglich und inspirierend ist –

– dann schau ein bisschen länger hin.

Nicht misstrauisch. Nicht paranoid.

Aber aufmerksam.

Weil echte Menschen haben Risse. Echte Menschen sagen manchmal das Falsche. Echte Menschen haben Tage, wo sie nicht inspirierend sind, sondern einfach müde und gereizt und menschlich.

Wer nie Risse zeigt, hat sie vielleicht besonders gut verborgen.

Und irgendwann – im dritten Akt, wie immer – dreht er sich um.

Und du weißt Bescheid.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem langen Abend und der Erinnerung an zu viele Momente, wo Masken gefallen sind und ich danach dachte: Das hätte ich früher sehen können. Wird transkribiert und mit KI in Form gebracht. Die Narben und der schwarze Humor sind komplett meine eigenen.



Ich zahle seit Jahren monatlich an Adobe. Jeden Monat. Automatisch. Der Betrag wird abgebucht, ich arbeite weiter, und meistens denk ich nicht groß drüber nach.

Aber letztens hab ich mal nachgerechnet. Richtig nachgerechnet. Mit Taschenrechner und allem.

Und dann hab ich eine Weile auf die Zahl gestarrt.

Und dann hab ich angefangen, diesen Text zu schreiben.


Was ich bezahlt habe – und was ich dafür bekommen habe

Ich bin seit ungefähr 2013 im Creative-Cloud-Abo. Das sind, Stand heute, über zwölf Jahre. Der Preis hat sich in dieser Zeit mehrfach erhöht. Aber nehmen wir mal grob einen Durchschnitt von sagen wir sechzig Euro pro Monat – das ist noch konservativ geschätzt, weil ich zeitweise das komplette Paket hatte.

Sechzig Euro mal zwölf Monate mal zwölf Jahre.

Das sind 8.640 Euro.

Achtundsechszig Hundert Euro. Für Software. Die mir nicht gehört.

Wenn ich morgen kündige, habe ich nichts. Keine Dateien, die ich öffnen kann. Keine Programme, die laufen. Nichts. Ich könnte meine eigenen PSD-Dateien nicht mehr bearbeiten, weil das Programm, das sie erstellt hat, nicht mehr läuft.

Ich hab für über achteinhalb Tausend Euro eingekauft und besitze null Produkte.

Ist das fair? Oder wurden wir verarscht?


Wie das alles angefangen hat

Um das zu verstehen, muss man zurückgehen. Zu Adobe CS – Creative Suite. Einmalzahlung, Software gehört dir, fertig.

Photoshop CS6 hat damals etwa 999 Dollar gekostet. Einmal. Dann war es deins. Du konntest es zehn Jahre lang nutzen, ohne einen Cent mehr zu zahlen. Klar, du bekamst keine neuen Features. Aber was du hattest, hat funktioniert.

Ich hab noch Kollegen, die mit CS6 arbeiten. Heute. Im Jahr 2026. Das Programm hat keine neuen Features seit vierzehn Jahren – und es tut, was es tun soll.

Dann kam 2013. Adobe kündigt an: Keine Kaufversionen mehr. Nur noch Abo. Creative Cloud für alle.

Die Reaktion war, gelinde gesagt, nicht begeistert. Es gab Proteste, Petitionen, wütende Forenbeiträge. Adobe hat das alles ignoriert und es durchgezogen.

Warum? Weil sie konnten. Weil sie das Monopol hatten. Und weil sie wussten, dass wir letztendlich mitmachen würden.

Und wir haben mitgemacht. Alle.


Das Argument, das Adobe immer bringt

Adobe hat für das Abomodell immer dieselben Argumente gehabt.

Ihr bekommt ständig Updates. Ihr habt immer die neueste Version. Ihr zahlt nicht auf einmal viel, sondern in kleinen Häppchen. Ihr bekommt Cloud-Speicher dazu. Es ist fair und transparent.

Klingt gut. Stimmt auch teilweise.

Aber lass mich das mal auseinandernehmen.

Ständige Updates: Ja, es gibt Updates. Aber hand aufs Herz: Wie viele der Features, die Adobe in den letzten fünf Jahren rausgebracht hat, nutzt du wirklich? Ich hab mal nachgezählt. Von den neuen Funktionen der letzten drei Jahre nutze ich vielleicht fünf regelmäßig. Den Rest nicht. Nie. Ich zahle für Features, die ich nicht brauche, die für andere gemacht wurden.

Immer die neueste Version: Stimmt. Aber was wenn die neueste Version schlechter ist? Was wenn ein Update mein Workflow kaputt macht, meine Plugins nicht mehr kompatibel sind, Dinge sich verschieben, die ich nicht verschoben haben will? Mit dem Kaufmodell konnte ich entscheiden: Diese Version ist gut, ich bleib dabei. Mit dem Abo entscheide ich nicht mehr. Adobe entscheidet.

Kleine Häppchen: Das ist psychologischer Trick Nummer eins aus dem Marketing-Handbuch. Sixty Euro pro Monat fühlt sich weniger an als 720 Euro pro Jahr. Ist aber dasselbe. Und über zwölf Jahre ist es über achttausend Euro. Für Software, die mir nicht gehört.

Cloud-Speicher: Den nutze ich kaum. Ich hab meine eigene Backup-Lösung. Ich brauche Adobes Cloud nicht. Ich zahle trotzdem dafür.


Die Preiserhöhungen – die stille Enteignung

2013 hat Adobe Creative Cloud mit etwa dreißig Euro pro Monat für Einzelanwendungen gestartet. Photoshop und Lightroom zusammen waren lange für etwa dreizehn Euro zu haben – das Photography-Paket.

Das war fair. Das hab ich damals sogar verteidigt.

Aber dann kamen die Erhöhungen. Schritt für Schritt. Nicht dramatisch auf einmal, sondern so, dass man sich jedes Mal denkt: Okay, ist noch akzeptabel.

Das Photography-Paket kostet heute in Österreich und Deutschland deutlich mehr als früher. Das komplette Paket ist für viele Einzelselbstständige inzwischen ein echter Kostenblock im Budget.

Und was hat Adobe als Begründung geliefert? KI-Features. Firefly. Generative Fill. Neue Möglichkeiten.

Aber ich hab niemanden gefragt, ob ich diese KI-Features will. Ob ich bereit bin, mehr zu zahlen dafür. Ich wurde einfach vor vollendete Tatsachen gestellt: Das kostet jetzt mehr. Friss oder stirb.

Was wäre passiert, wenn ich gesagt hätte: Ich will die KI-Features nicht, ich zahl den alten Preis?

Nichts wäre passiert. Weil ich diese Option nicht habe.


Das Monopol-Problem

Und hier liegt der eigentliche Kern der Sache.

Adobe kann das alles machen, weil sie ein faktisches Monopol haben. Nicht juristisch im technischen Sinne, aber praktisch.

PSD ist der Standard. Jeder schickt PSDs. Jede Druckerei versteht PSDs. Jeder Kollege hat Photoshop. Jeder Kurs lehrt Photoshop. Jeder Workflow ist auf Photoshop ausgerichtet.

Wenn du aussteigst, steigst du nicht nur aus einem Programm aus. Du steigst aus einem Ökosystem aus. Aus Kompatibilität, aus Zusammenarbeit, aus Konventionen.

Das ist die eigentliche Falle. Nicht das Abo selbst, sondern die Tatsache, dass das Abo unausweichlich ist.

Ich kann mich beschweren so viel ich will. Adobe weiß: Ich bleibe. Weil meine Alternative ist, meinen gesamten Workflow umzubauen, alle Kollegen zu konvertieren, alle Kunden zu erklären, warum ich jetzt anders arbeite.

Das Monopol macht uns gefügig. Und Adobe weiß das.


Die Sache mit Firefly und dem KI-Training

Jetzt kommt der Teil, bei dem ich wirklich unruhig werde.

Adobe hat Firefly – seine KI – mit Bildern trainiert. Mit Bildern aus Adobe Stock, mit gemeinfreien Werken, mit Material, für das Rechte gesichert wurden, das war die offizielle Aussage.

Aber dann kamen die Berichte. Über Metadaten, über Opt-out-Verfahren, über die Frage, ob Adobes Nutzungsbedingungen ihnen erlauben, hochgeladene Dateien für das KI-Training zu verwenden.

Adobe hat mehrfach dementiert, User-Uploads für das Training zu nutzen. Aber die Nutzungsbedingungen haben viele von uns nicht gelesen. Weil sie fünfzig Seiten lang sind, in Juristendeutsch geschrieben, und weil Adobe weiß, dass niemand sie liest.

Die Frage, die sich mir stellt: Wenn mein kreatives Werk in der Adobe Cloud liegt, was passiert damit? Was darf Adobe damit machen? Was macht Adobe damit?

Ich weiß es nicht mit Sicherheit. Und das ist das Problem.

Vertrauen ist die Basis einer Geschäftsbeziehung. Und Adobe hat dieses Vertrauen in den letzten Jahren systematisch beschädigt.


Der Subscription-Trap im Detail

Lass mich erklären, wie der Trap wirklich funktioniert. Für alle, die das noch nicht so klar sehen.

Wenn du fünf Jahre lang in Photoshop arbeitest, baust du etwas auf. Voreinstellungen. Workflows. Aktionen. Brushsets. Plugins. Aber vor allem: Dateien. Tausende von PSD-Dateien, die deine Arbeit enthalten, dein Archiv, deine Geschichte.

Diese Dateien sind in einem Format, das dir gehört – theoretisch. Aber in der Praxis kannst du sie nur öffnen, wenn du Adobe zahlst.

Das ist wie wenn eine Bank sagt: Dein Geld gehört dir. Aber um dranzukommen, brauchst du unsere App. Und wenn du die App nicht mehr abonnierst, kommst du an dein Geld nicht mehr ran.

Technisch gesehen ist das ein Lock-in. Im Volksmund nennt man das eine Falle.

Und Adobe hat diese Falle sehr bewusst und sehr gezielt aufgebaut. Jedes Feature, das tiefere Integration schafft, jedes Cloud-abhängige Tool, jede Funktion, die Daten in Adobes Ökosystem hält – das ist kein Zufall. Das ist Strategie.


Die Antitrust-Klage und was sie bedeutet

2023 hat das US-Justizministerium Adobe verklagt. Nicht wegen dem Abo-Modell direkt, sondern wegen der geplanten Übernahme von Figma.

Adobe wollte Figma kaufen – den wichtigsten Konkurrenten im Design-Bereich, vor allem für UI/UX-Design. Für zwanzig Milliarden Dollar. Der Deal wurde von den Regulatoren blockiert.

Die Begründung: Adobe würde damit ein Monopol in einem wichtigen Kreativbereich zementieren.

Das ist ein Gericht, das offiziell bestätigt hat: Adobe hat eine marktdominierende Stellung und versucht, Konkurrenz aufzukaufen, statt sie zu bekämpfen.

Das sagt alles.

Nicht über ein Unternehmen, das seine Produkte verbessern will. Sondern über eines, das seinen Graben tiefer machen will. Das Kontrolle ausweiten will. Das sichergehen will, dass wir keine Alternativen haben.


Was Adobe wirklich verkauft

Ich bin jetzt an einem Punkt, wo ich glaube: Adobe verkauft nicht Software.

Adobe verkauft Abhängigkeit.

Das klingt hart. Aber überleg mal.

Das Ziel einer guten Software wäre: Dir das beste Werkzeug geben, das dir hilft. Wenn irgendwann eine andere Software besser ist, gehst du dahin.

Das Ziel von Adobes Strategie ist: Sicherstellen, dass du nirgendwo hingehen kannst. Dass der Wechsel so teuer, so schmerzhaft, so kompliziert ist, dass du bleibst, egal was.

Dafür werden Dateiformate proprietär gehalten. Dafür werden Integrationen so tief gebaut, dass man sie nicht einfach rauszieht. Dafür werden Preise schrittweise erhöht, nie auf einmal.

Das ist kein Produkt. Das ist ein Käfig. Ein sehr komfortabler, sehr gut designter Käfig. Mit hübschen Icons und guten Filtern.

Aber ein Käfig.


Bin ich trotzdem noch drin? Ja. Warum?

Hier muss ich ehrlich sein. Nach allem, was ich gerade geschrieben habe.

Ich zahle immer noch. Jeden Monat.

Warum?

Weil ich feststecke. Weil mein Workflow auf Adobe aufgebaut ist. Weil meine Kunden PSDs erwarten. Weil meine Plugins für Photoshop gemacht sind. Weil Capture One zwar besser für RAW ist, aber ich für alles andere Photoshop brauche. Weil ich nicht drei Monate meines Lebens damit verbringen will, umzulernen.

Das ist genau das, was Adobe bezweckt hat.

Ich weiß, dass ich in einem Käfig sitze. Ich seh die Gitterstäbe. Und ich sitze trotzdem drin.

Das ist vielleicht das Frustrierendste an der ganzen Sache. Nicht dass Adobe uns verarscht hat. Sondern dass wir es wissen und trotzdem mitmachen.


Was sich ändern könnte

Ich wäre kein ehrlicher Kommentator, wenn ich nur klagen würde, ohne zu sagen, was ich mir anders wünsche.

Eine faire Kaufoption. Nicht für jeden User, nicht für alle Features. Aber für die, die eine stabile Version kaufen wollen und nicht jede neue KI-Funktion brauchen. Adobe hat das abgeschafft. Sie sollten es zurückbringen.

Echte Transparenz bei den Nutzungsbedingungen. Was passiert mit meinen Dateien? Was darf Adobe mit hochgeladenem Material machen? In einem Satz, nicht in fünfzig Seiten Juristendeutsch.

Offene Dateiformate. PSD sollte ein offener Standard sein. Kein proprietäres Format, das nur Adobe vollständig lesen kann. Das würde echten Wettbewerb ermöglichen.

Faire Preismodelle für verschiedene Märkte. Was für einen amerikanischen Großkonzern erschwinglich ist, ist für einen Freelancer in Wien oder Graz eine andere Rechnung. Das berücksichtigt Adobe nicht.


Das Fazit, das kein schönes Fazit ist

Wurden wir verarscht?

Ja. Teilweise.

Nicht in dem Sinn, dass Adobe nicht liefert, was es verspricht. Die Software ist gut. Photoshop ist immer noch das beste Bildbearbeitungsprogramm, das es gibt. Das lässt sich nicht wegdiskutieren.

Aber wir wurden verarscht in dem Sinn, dass uns eine Wahl genommen wurde. Dass ein Monopol ausgenutzt wurde. Dass Preise erhöht wurden, weil es keine echte Alternative gibt. Dass Abhängigkeit systematisch aufgebaut wurde.

Und wir haben mitgemacht. Weil wir keine Wahl hatten. Weil die Alternative – komplett aussteigen, alles neu lernen, alle Kunden neu erziehen – für die meisten von uns schlimmer ist als monatlich zu zahlen.

Das ist das eigentliche Geschäftsmodell von Adobe.

Nicht Photoshop verkaufen.

Sondern sicherstellen, dass du nicht aufhören kannst, dafür zu zahlen.


Eine letzte Sache

Ich hab vorhin Affinity Suite erwähnt. Und DaVinci Resolve. Und Capture One.

Das sind keine perfekten Alternativen. Das sind Alternativen. Die existieren, funktionieren, und verbessern sich ständig.

Je mehr von uns die nutzen – als Ergänzung, als Backup, als echte Alternative – desto mehr Druck entsteht auf Adobe.

Monopole leben davon, dass wir denken, wir haben keine Wahl.

Vielleicht haben wir mehr Wahl, als wir denken.

Vielleicht ist der erste Schritt, damit aufzuhören, so zu tun, als hätten wir keine.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem Abend mit einem Taschenrechner und steigender Frustration. Wird transkribiert und mit KI aufgeräumt. Die Rechnung und die Wut sind zu hundert Prozent meine eigenen.



Ich saß neulich vor einem Bild, das ich gerade fertiggestellt hatte. Eine Figur, halb Mensch halb etwas anderes, in einem Raum, der gleichzeitig vertraut und fremd wirkte. Und während ich draufschaute, kam mir dieser Gedanke:

Sind wir nicht alle irgendwie undokumentierte Aliens?

Ich meine das nicht politisch. Oder vielleicht doch, ein bisschen. Aber vor allem meine ich es philosophisch. Existenziell. Als Frage, die sich stellt, wenn man lange genug allein in einem Zimmer sitzt und über Bilder und Menschen und das Leben nachdenkt.

Lass mich versuchen, das zu entfalten.


Was ein undokumentierter Alien eigentlich ist

Im politischen Kontext ist die Bedeutung klar: Ein Mensch, der sich in einem Land aufhält, ohne die offiziellen Dokumente zu haben, die ihm erlauben, dort zu sein. Kein Visum, kein Pass, keine Aufenthaltserlaubnis. Jemand, dessen Existenz an diesem Ort nicht autorisiert, nicht anerkannt, nicht registriert ist.

Das System sagt: Du gehörst hier nicht hin.

Aber jetzt nimm das Bild und mach es größer. Viel größer.

Was ist das eigentlich für ein Dokument, das unsere Existenz legitimiert? Was ist diese Erlaubnis, die wir bräuchten, um wirklich dazuzugehören – zu einem Land, zu einer Gesellschaft, zu einer Familie, zu uns selbst?

Und wer stellt dieses Dokument aus?


Niemand hat uns gefragt

Das fängt schon mit der Geburt an. Kein Mensch hat eingewilligt, geboren zu werden. Du wurdest einfach in diese Welt geworfen – in ein bestimmtes Land, in eine bestimmte Familie, in einen bestimmten Körper, in eine bestimmte Zeit. Ohne Bewerbungsgespräch, ohne Auswahlverfahren, ohne Chance, Nein zu sagen.

Die Philosophen nennen das Faktizität. Das Gewordensein ohne eigenes Zutun. Heidegger sprach vom Geworfensein. Wir werden geworfen, in eine Situation, die wir nicht gewählt haben, und müssen dann irgendwie damit umgehen.

Du hast nicht entschieden, deutsch oder österreichisch oder sonst was zu sein. Du hast nicht entschieden, in welche Schicht du hineingeboren wirst, welche Hautfarbe du trägst, welche Sprache deine erste ist, welche Religion dich umgibt. Das alles ist dir passiert.

In diesem Sinn sind wir alle Aliens in dem Leben, das wir leben. Fremde in einer Welt, die vor uns da war und nach uns weiter sein wird. Wir halten uns hier auf, ohne dass uns jemand offiziell eingeladen hätte.


Die Dokumente, die wir uns selbst ausstellen

Aber dann fangen wir an, uns zu dokumentieren. Selbst.

Name. Nationalität. Beruf. Familienstand. Religiöse Zugehörigkeit. Politische Überzeugung. Sexuelle Identität. Kulturelle Herkunft.

Wir bauen uns ein Dokument zusammen, das uns sagt, wer wir sind. Ein Identitätsdokument, nicht ausgestellt von einem Amt, sondern von uns selbst, über die Jahre, aus Erfahrungen und Entscheidungen und Zufällen.

Und dieses Dokument verändert sich ständig.

Ich bin heute nicht derselbe wie mit zwanzig. Die Version von mir, die mit dreißig durch die Welt gelaufen ist, würde die aktuelle Version vielleicht kaum erkennen. Neue Prioritäten, neue Überzeugungen, neue Wunden, neue Heilungen, neue Fragen.

Wenn Identität sich so radikal verändern kann, was dokumentiert sie dann eigentlich? Was ist die Substanz, die gleichbleibt? Ist da überhaupt eine?

Der Buddhismus sagt: nein. Es gibt kein festes Selbst. Alles ist im Fluss. Was wir für unser Ich halten, ist eine Ansammlung von vergänglichen Momenten, eine Erzählung, die wir über uns selbst erzählen.

Und wenn das stimmt, dann ist diese Erzählung genauso undokumentiert wie alles andere. Wir behaupten einfach, wir zu sein. Ohne Beweis. Ohne wirklich nachweisbare Kontinuität.


Der Blick von außen

Es gibt einen Moment, den viele kennen. Diesen Moment, wenn man sich selbst von außen sieht. Wenn man für eine Sekunde aus seinem eigenen Körper tritt und denkt: Wer ist das da eigentlich?

Das passiert manchmal beim Autofahren, wenn man plötzlich nicht mehr weiß, wie man die letzten zehn Kilometer gefahren ist. Das passiert in Gesprächen, wo man hört, was man sagt, und denkt: Glaub ich das eigentlich? Das passiert mitten in der Nacht, wenn man aufwacht und einen Moment lang nicht weiß, wer man ist.

Psychiater nennen das Depersonalisation, wenn es pathologisch wird. Philosophen nennen es Selbstreflexion. Mystiker nennen es Erleuchtung.

Ich nenne es: Alien-Moment.

Den Moment, in dem das Vertraute fremd wird. In dem man merkt, dass man in diesem Körper, in diesem Leben, in dieser Gesellschaft lebt – und sich nicht ganz sicher ist, ob man dazugehört.


Migration als Extremform des universellen Erlebens

Jetzt kommen wir zu dem Teil, der politisch ist. Ich hab es nicht versprochen, aber ich kann nicht anders.

Menschen, die ihr Land verlassen – aus Not, aus Angst, aus Hoffnung, aus was auch immer – erleben das Alien-Sein auf die schärfste, brutalste Art.

Sie kommen in einen Raum, wo ihre Dokumente falsch sind, ihre Sprache falsch ist, ihre Namen falsch ausgesprochen werden, ihre Kleidung falsch ist, ihre Bräuche fremd sind. Wo alles, was sie sind, zunächst mal als Problem definiert wird.

Und trotzdem sind sie dieselben Menschen. Mit denselben Träumen, denselben Wunden, denselben Witzen, denselben Eigenheiten. Sie sind nicht weniger Mensch als die, die mit dem richtigen Pass geboren wurden.

Was uns unterscheidet, ist ein Dokument. Ein Stück Papier. Ein Datensatz in einem Computersystem.

Diejenigen, die ohne dieses Dokument auskommen müssen, machen sichtbar, was wir alle verdrängen: dass unsere Zugehörigkeit immer ein soziales Konstrukt war. Ein Abkommen. Eine Vereinbarung, die irgendwann irgendwer getroffen hat, ohne uns zu fragen.

Die Grenzen, die entscheiden, wer dazugehört und wer nicht, sind Linien auf Karten. Von Menschen gezogen. Oft von Menschen, die längst tot sind. Oft in Momenten der Gewalt oder des politischen Kalküls.

Und wir behandeln diese Linien, als wären sie natürlich. Als hätte die Natur entschieden, dass hier Deutschland aufhört und Polen anfängt. Als hätte irgendjemand das Recht gehabt, diese Linie zu ziehen und zu sagen: Die Leute hier dürfen, die Leute dort nicht.


Was Kunst damit zu tun hat

Ich bin Künstler. Also komm ich irgendwann immer bei der Kunst an.

Kunst ist für mich das Medium, in dem das Alien-Sein verhandelbar wird. In dem man die Fremdheit aushalten kann. In dem man nicht erklären muss, warum man hier ist.

Wenn ich ein Bild mache, entsteht ein Raum, der keinem gehört. Der keine Grenzen hat. Der keine Dokumente verlangt. Jeder, der das Bild sieht, ist eingeladen. Nicht weil er die richtigen Papiere hat, sondern weil er schaut.

Und in diesem Schauen passiert manchmal etwas. Der Betrachter erkennt sich in etwas, das er nicht erwartet hat. In einer Figur, die anders aussieht als er. In einer Situation, die nicht seine ist. In einer Emotion, die er nicht benennen konnte.

Das ist das Paradox der Kunst: Das Fremdeste kann das Vertrauteste sein.

Die Figur auf meinem Bild, die halb Mensch und halb etwas anderes ist – die ist vielleicht näher an der Wahrheit, als ein perfektes Porträt es je sein könnte. Weil wir alle halb das eine und halb etwas anderes sind. Weil wir alle in uns diese Fremdheit tragen.


Das Fremde in uns selbst

Carl Gustav Jung sprach vom Schatten. Dem Teil von uns, den wir nicht sehen wollen. Den wir verstecken, verdrängen, leugnen. Der aber trotzdem da ist.

Dieser Schatten ist auch ein Alien. Er lebt in uns, ohne Erlaubnis, ohne Dokumente. Er spricht manchmal in den unpassendsten Momenten. Er sabotiert Pläne, zerstört Beziehungen, bricht in Träumen aus.

Und die Menschen, die am lautesten gegen das Fremde von außen wüten – die sind es oft, die am meisten Angst vor dem Fremden in sich selbst haben. Das ist nicht meine Theorie, das ist gut dokumentierte Psychologie. Was wir im anderen ablehnen, ist oft das, was wir in uns nicht akzeptieren können.

Wenn jemand sagt: Diese Fremden gehören hier nicht hin – was sagt er dann auch über seine eigene innere Fremdheit?

Was sagt er über die Teile von sich, die er nicht dokumentiert hat, nicht benennen kann, nicht versteht?


Das Universum und wir

Lass mich jetzt noch größer werden. Richtig groß.

Im kosmischen Sinn sind wir alle Aliens. Buchstäblich.

Die Atome, aus denen unser Körper besteht, wurden in Sternen geschmiedet. In Supernovae, die explodiert sind, bevor unsere Sonne überhaupt existierte. Das Eisen in unserem Blut war mal Teil eines Sterns. Das Sauerstoffatom, das wir gerade einatmen, hat vielleicht schon in den Lungen von Caesar gezittert, von Kleopatra, von einem dinosaurischen Farn.

Wir sind Sternenstaub. Das ist keine Metapher, das ist Physik.

Dieses Universum ist 13,8 Milliarden Jahre alt. Die Erde ist 4,5 Milliarden Jahre alt. Der Mensch als Art ist vielleicht 300.000 Jahre alt. Du persönlich bist vielleicht 40, vielleicht 60, vielleicht 80 Jahre alt.

In diesem Kontext: Wir sind alle Besucher. Alle Durchreisende. Alle undokumentierte Aliens auf einem Planeten, der uns genauso wenig eingeladen hat wie irgendein Grenzbeamter.

Wir sind hier. Für eine kurze Zeit. Ohne Erlaubnis des Universums. Ohne Garantie, dass wir bleiben dürfen.

Und dann sind wir wieder weg, und die Atome machen weiter.


Die Frage der Zugehörigkeit

Was bedeutet Zugehörigkeit dann eigentlich?

Wenn Grenzen gemacht sind. Wenn Dokumente willkürlich sind. Wenn Identität fließt. Wenn wir alle kosmische Aliens sind.

Ich glaube, Zugehörigkeit ist eine Entscheidung. Keine Gegebenheit.

Man gehört nicht dazu, weil man die richtigen Papiere hat. Man gehört dazu, weil man sich entschieden hat, da zu sein. Weil man Verantwortung übernimmt. Weil man liebt, beiträgt, kämpft, leidet, feiert, trauert.

Zugehörigkeit ist Handlung, nicht Status.

Und in diesem Sinn kann ein Mensch ohne Papiere mehr dazugehören als einer mit den richtigen Dokumenten in der Tasche, aber ohne jedes Gefühl von Verantwortung für den Raum, in dem er lebt.

Ich kenne Menschen, die hier leben seit Jahrzehnten. Kinder großgezogen, Steuern gezahlt, Nachbarn geholfen, Freundschaften gepflegt. Ohne die richtigen Dokumente. Und ich kenne Menschen, die alle Papiere haben und sich für nichts und niemanden verantwortlich fühlen außer für sich selbst.

Wer gehört mehr dazu?


Was ich nicht weiß

Ich will hier ehrlich sein: Ich hab keine Antworten. Ich hab Fragen.

Ich weiß nicht, wie eine Gesellschaft funktionieren soll ohne Grenzen und Regeln. Ich verstehe, dass Systeme Ordnung brauchen. Ich weiß, dass offene Fragen keine offenen Grenzen bedeuten müssen.

Aber ich glaube, dass die Art, wie wir über Zugehörigkeit reden, falsch ist. Zu absolut. Zu dokumentenbasiert. Zu wenig menschlich.

Und ich glaube, dass die Frage – Sind wir nicht alle irgendwie undokumentierte Aliens? – keine Schwäche ist, sondern eine Einladung. Eine Einladung, die eigene Fremdheit anzuerkennen. Die Gemeinsamkeit mit denen zu sehen, die man als fremd definiert hat.


Zurück zum Bild

Ich gehe zurück zu dem Bild, bei dem das alles angefangen hat.

Die Figur darin schaut mich an. Halb vertraut, halb fremd. Und ich denke: Das bin ich. Das ist jeder. Wir alle tragen diese Hälfte, die nicht so ganz passt. Die nicht dokumentiert ist. Die keine Erlaubnis hat, hier zu sein.

Und trotzdem sind wir hier.

Atmen. Denken. Fühlen. Schaffen.

Ohne Dokument. Ohne Erlaubnis. Einfach so.

Vielleicht ist das genug.

Vielleicht ist das alles, was wir je hatten.

Und vielleicht ist es an der Zeit, damit aufzuhören, voneinander Dokumente zu verlangen – und stattdessen zu fragen: Was bringt du mit? Was kannst du geben? Was trägst du bei, zu diesem kurzen, seltsamen, wunderbaren Aufenthalt, den wir alle gemeinsam haben?

Auf diesem kleinen Planeten. In diesem riesigen Universum. Ohne Erlaubnis. Ohne Rückfahrschein.

Undokumentiert. Und trotzdem da.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem langen Abend vor einem Bild, das mich nicht losgelassen hat, und Gedanken, die sich nicht abschalten ließen. Wird transkribiert und mit KI in Form gebracht. Die Fragen sind meine eigenen. Die Antworten – falls es welche gibt – auch.



🥚 Die geheime Seite von Photoshop 2026

Der große Easter-Egg-Guide für Erwachsene (die nie erwachsen wurden)

Photoshop ist ein Hochleistungslabor für Bilder.
Aber unter der sterilen Oberfläche sitzt immer noch ein Nerd-Spielplatz.

Und genau dort wohnen die Easter Eggs.

Die meisten User kennen KI-Füllung, Firefly-Modelle, Referenzbilder, neue Körnungsebene — alles offiziell dokumentiert. Doch parallel dazu verstecken die Entwickler weiterhin kleine Spielereien im Programm. Das machen Software-Programmierer seit Jahrzehnten: kleine Signaturen, Witze oder versteckte Screens, die nichts produktiv lösen, aber zeigen:
Hier arbeiten Menschen. Keine Maschinen. (Designer in Action)

Dieser Artikel listet nur Dinge auf, die auch heute noch funktionieren (oder in der aktuellen Architektur weiterhin vorhanden sind, weil Adobe sie traditionell mitschleppt).
Keine Mythen, kein Reddit-Unsinn, kein „halt mal fünf Tasten und bete“.


🍌 Die Toolbar-Banane (funktioniert weiterhin)

Die berühmteste — und dümmste — Funktion von Photoshop.
Und genau deshalb perfekt.

Aktivieren

  1. Photoshop öffnen
  2. Bearbeiten → Symbolleiste…
  3. Jetzt: SHIFT gedrückt halten
  4. Während SHIFT gedrückt bleibt → auf „Fertig“ klicken

Boom.

Statt der drei Punkte unten in der Toolbar erscheint eine kleine Banane.

Das ist kein Meme — das ist offiziell seit CC vorhanden und wurde bis heute nie entfernt. (Creative Bloq)

Die Funktion ändert absolut nichts.
Sie existiert ausschließlich, damit du kurz lächelst während du 12 Stunden Haut retuschierst.


🐒 Layer Monkey (der Klassiker)

Photoshop hat Humor. Sehr trockenen Humor.

Aktivieren

  1. Dokument öffnen
  2. Fenster → Ebenenkompositionen
  3. Neue Komposition erstellen
  4. Namen ändern zu:
Layer Monkey 0

Das Panel verwandelt sich in „Layer Monkey!“ mit Affenkopf.

Ein offizielles Entwickler-Gimmick — und seit Jahren stabil vorhanden. (DOCMA)


☕🍞 Kaffee & Toast Interface

Du kannst Photoshop in Frühstück verwandeln.

Aktivieren

  1. Voreinstellungen → Benutzeroberfläche
  2. Jetzt gedrückt halten:
    SHIFT + ALT (Mac: SHIFT + OPTION)
  3. Auf Farbschema klicken

Die Theme-Swatches werden zu Toast-Icons.

Komplett sinnlos — komplett großartig. (DIY Photography)


🦁 Der geheime About-Screen

Der About-Dialog ist nie nur Credits.
Er ist eine Zeitkapsel.

Aktivieren

Beim Öffnen von:

Hilfe → Über Photoshop

STRG / CMD gedrückt halten.

Dann erscheint nicht der normale Screen, sondern ein alternativer Splashscreen mit internem Artwork oder Codename-Motiv.

Diese versteckten Screens gibt es seit frühen Versionen — jede Generation hat ihr eigenes Motiv. (ProVideo Coalition)

Funfact: Photoshop hatte intern Codenamen wie „Big Electric Cat“. (ProVideo Coalition)


🦋 Symmetry-Butterfly (halbes Easter Egg, halbes Feature)

Das ist der Grenzfall:
Eigentlich Feature — aber als Easter Egg geboren.

Aktivieren

  1. Voreinstellungen → Technologievorschau
  2. Paint Symmetry aktivieren

Dann erscheint ein kleiner Schmetterling im Toolbar.

Er begann als verstecktes Entwickler-Experiment. (DIY Photography)

Heute ist er fast seriös — aber innerlich bleibt er ein Nerd-Gag.


👻 Der Geist der Entwickler

Ein besonders nerdiger Klassiker:

Screenshot vom About-Screen → Tonwertkorrektur extrem ziehen → versteckte Details sichtbar.

In alten Versionen waren darin Entwickler-Referenzen versteckt — sogar Gesichter. (psd-tutorials.de)

Heute subtiler, aber Prinzip existiert weiterhin:
Grafiker hinterlassen Spuren. Immer.


Warum Adobe das nicht löscht

Softwarefirmen entfernen Bugs.
Sie entfernen aber selten Humor.

Easter Eggs erfüllen eine Rolle:

  • Signatur der Entwickler
  • Tradition aus der Pre-Internet-Zeit
  • Insiderbindung zwischen Usern
  • kleine Belohnung beim Entdecken

Und ehrlich:
Ein Programm, in dem Millionen Stunden Arbeit passieren, braucht gelegentlich eine Banane.


Was sich 2026 verändert hat

Photoshop wird immer mehr KI-Werkzeug.
Referenzbilder, generatives Füllen, konsistente Anpassungen — alles auf Effizienz gebaut.

Aber genau deshalb bleiben Easter Eggs erhalten.

Je ernster Software wird, desto wichtiger werden kleine menschliche Spuren.

Sie sind der Beweis:
Hier arbeiten nicht nur Algorithmen.


Fazit

Photoshop besteht aus zwei Ebenen:

  1. Offiziell: Präzisionswerkzeug für Industrie & Produktion
  2. Inoffiziell: Spielplatz für Menschen, die nachts Code schreiben

Die Banane, der Affe, der Toast — das sind keine Bugs.
Das sind Unterschriften.

Und jedes Mal, wenn du sie aktivierst, passiert etwas Seltenes:

Du arbeitest kurz nicht mit Software.
Du arbeitest mit Menschen.


Wenn du also das nächste Mal 400 Ebenen vor dir hast
und dein Gehirn zu JPEG wird —

drück SHIFT
klick Fertig
und iss eine virtuelle Banane.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens abends, wenn ich eigentlich was anderes machen sollte, aber stattdessen in Photoshop nach versteckten Bananen suche. Wird transkribiert und mit KI aufgeräumt. Die Neugier und die fragwürdige Verwendung meiner Freizeit sind komplett meine eigenen.



Ich weiß, Tastenkürzel klingt langweilig. Klingt nach Handbuch, nach Auswendiglernen, nach Dingen die man sich vornimmt und dann doch nie macht. Wie Zahnseide oder Sport am Morgen.

Aber ich sag dir was: Nichts – wirklich nichts – hat mein Arbeiten in Photoshop so verändert wie der Tag, an dem ich angefangen hab, Tastenkürzel zu benutzen. Nicht Filter, nicht Plugins, nicht KI-Funktionen. Tastenkürzel.

Weil jedes Mal, wenn du mit der Maus ins Menü fährst, auf Bearbeiten klickst, dann auf Transformieren, dann auf Skalieren – das sind vier Sekunden. Klingt nach nichts. Aber mach das hundertmal am Tag, und du hast dir sieben Minuten gestohlen. Mach das ein Jahr lang, und du hast Tage verloren. Für Klicken.

Also: Hier sind die Kürzel, die du kennen solltest. Nicht alle. Nicht die obskuren. Sondern die, die ich jeden Tag benutze, seit über zwanzig Jahren.

Kurze Anmerkung vorab: Auf dem Mac ist die Befehlstaste (Cmd ⌘) das, was auf dem PC die Strg-Taste (Ctrl) ist. Und die Wahltaste (Alt ⌥ auf dem Mac) entspricht der Alt-Taste auf dem PC. Wenn ich schreibe Cmd/Strg meine ich: Cmd auf dem Mac, Strg auf dem PC. Immer.


Die Überlebens-Kürzel – ohne die geht gar nichts

Das hier sind die Kürzel, die du als allererstes lernen solltest. Die brauchst du bei jedem Bild, egal was du machst.

Rückgängig machen

Cmd/Strg + Z

Das wichtigste Kürzel überhaupt. In Photoshop 2026 kannst du damit so oft zurückgehen, wie du willst. Einfach immer wieder drücken, und es geht Schritt für Schritt zurück. Früher ging das nur einmal, dann musste man ein anderes Kürzel nehmen. Das ist zum Glück vorbei.

Speichern

Cmd/Strg + S

Drück das alle paar Minuten. Gewöhn es dir an wie Atmen. Photoshop stürzt seltener ab als früher, aber es passiert immer noch. Und das Gefühl, eine Stunde Arbeit zu verlieren, weil man nicht gespeichert hat – das brauchst du genau einmal im Leben. Danach vergisst du es nie wieder.

Speichern unter

Cmd/Strg + Shift + S

Wenn du eine neue Version speichern willst, ohne die alte zu überschreiben.

Rückgängig bis zum letzten Speicherpunkt

F12

Das kennt fast niemand, aber es ist unglaublich praktisch. Wenn du dich komplett verrannt hast und zurück willst zum letzten gespeicherten Zustand – F12 und alles ist wieder wie vorher. Ohne zwanzigmal Cmd/Strg + Z drücken zu müssen.


Auswahl und Navigation – sich im Bild bewegen

Alles auswählen

Cmd/Strg + A

Wählt das komplette Bild aus. Brauchst du öfter als du denkst.

Auswahl aufheben

Cmd/Strg + D

Wenn die tanzenden Ameisen nerven und du die Auswahl loswerden willst.

Auswahl umkehren

Cmd/Strg + Shift + I

Du hast den Hintergrund ausgewählt, willst aber eigentlich das Objekt? Einmal drücken und die Auswahl dreht sich um. Simpel, aber spart ständig Zeit.

Ins Bild reinzoomen

Cmd/Strg + Plus

Aus dem Bild rauszoomen

Cmd/Strg + Minus

Ganzes Bild in den Bildschirm einpassen

Cmd/Strg + 0 (Null)

100% Ansicht

Cmd/Strg + 1

Zeigt dir das Bild in der tatsächlichen Pixelgröße. Wichtig, um Schärfe und Details wirklich beurteilen zu können.

Im Bild scrollen

Leertaste gedrückt halten und ziehen

Das ist kein klassisches Tastenkürzel, aber es ist unentbehrlich. Egal welches Werkzeug gerade aktiv ist – Leertaste halten und du kannst das Bild verschieben. Loslassen und du bist wieder beim vorherigen Werkzeug. Das benutze ich wahrscheinlich hundertmal am Tag.


Ebenen – das Herz von Photoshop

Neue leere Ebene

Cmd/Strg + Shift + N

Erstellt eine neue leere Ebene. Ein Dialogfenster fragt dich nach dem Namen. Wenn du das nicht brauchst und es schneller gehen soll:

Cmd/Strg + Shift + Alt + N (Mac: Cmd + Shift + Option + N)

Das erstellt die Ebene ohne nachzufragen.

Ebene duplizieren

Cmd/Strg + J

Eines meiner meistgenutzten Kürzel. Kopiert die aktuelle Ebene oder den ausgewählten Bereich auf eine neue Ebene. Brauchst du ständig für nicht-destruktives Arbeiten.

Ebenen zusammenfassen

Cmd/Strg + E

Fasst die ausgewählte Ebene mit der darunter zusammen.

Alle sichtbaren Ebenen auf eine neue Ebene stempeln

Cmd/Strg + Shift + Alt + E (Mac: Cmd + Shift + Option + E)

Das ist ein langes Kürzel, aber es ist Gold wert. Es nimmt alles, was du siehst, und packt es auf eine neue Ebene – ohne die bestehenden Ebenen zu verändern. Perfekt, wenn du den aktuellen Stand sichern willst, bevor du weiter experimentierst.

Ebene nach vorne / nach hinten verschieben

Cmd/Strg + ] (nach vorne)
Cmd/Strg + [ (nach hinten)


Werkzeuge – schnell wechseln

Statt mit der Maus in die Werkzeugleiste zu fahren, drückst du einfach einen Buchstaben. Hier die wichtigsten:

V – Verschieben-Werkzeug. Damit bewegst du Ebenen und Objekte.

B – Pinsel. Dein wichtigstes Malwerkzeug. Mehrfach drücken wechselt zwischen Pinsel, Buntstift und Mischpinsel.

E – Radiergummi. Wobei ich den fast nie benutze, weil Masken besser sind. Aber gut zu wissen.

M – Auswahlrechteck. Nochmal drücken wechselt zur Auswahlellipse.

L – Lasso. Nochmal drücken wechselt zwischen Lasso, Polygon-Lasso und magnetischem Lasso.

W – Zauberstab und Schnellauswahl. Zwischen beiden wechseln mit erneutem Drücken.

C – Freistellungswerkzeug. Zum Beschneiden des Bildes.

S – Kopierstempel. Zum Klonen von Bildbereichen.

J – Reparaturpinsel und Bereichsreparatur. Zwischen beiden wechseln mit erneutem Drücken.

G – Verlaufswerkzeug und Farbfüllwerkzeug.

T – Textwerkzeug.

P – Zeichenstift.

I – Pipette. Nimmt eine Farbe aus dem Bild auf.

O – Abwedler, Nachbelichter und Schwamm.

H – Handwerkzeug. Zum Verschieben der Ansicht. Wobei die Leertaste praktischer ist.

Z – Zoomwerkzeug.


Pinsel steuern – ohne die Maus

Wenn du viel mit dem Pinsel arbeitest, sind diese Kürzel unverzichtbar:

Pinselgröße ändern

Ö und # Taste (PC) bzw. [ und ] Taste

Auf dem PC: Die Tasten Ö (kleiner) und # (größer). Das ist bei deutscher Tastatur manchmal anders belegt. Am besten einfach ausprobieren.

Auf dem Mac mit deutscher Tastatur: Ö und Ä funktionieren oft. Alternativ die eckigen Klammern, falls du eine englische Tastaturbelegung nutzt.

Wenn das nicht funktioniert – und bei deutscher Tastatur ist das leider öfter der Fall – kannst du die Kürzel in Photoshop unter Bearbeiten, Tastaturbefehle, neu belegen. Mach das. Es lohnt sich.

Pinselgröße und Härte per Maus ändern

Alt + Rechtsklick und ziehen (PC)
Ctrl + Option + Klick und ziehen (Mac)

Links-rechts ändert die Größe, hoch-runter ändert die Härte. Das ist anfangs gewöhnungsbedürftig, aber wenn du es einmal drauf hast, willst du es nie wieder anders machen.

Deckkraft des Pinsels ändern

Zifferntasten 1-9 und 0

1 = 10%, 2 = 20%, 5 = 50%, 0 = 100%. Schnell hintereinander zwei Zahlen tippen für genaue Werte: 3 und 5 schnell nacheinander = 35%.

Das funktioniert auch bei anderen Werkzeugen wie dem Kopierstempel oder dem Radiergummi. Und es funktioniert nur, wenn das entsprechende Werkzeug aktiv ist.


Transformieren – Größe, Drehung, Perspektive

Frei transformieren

Cmd/Strg + T

Damit kannst du eine Ebene skalieren, drehen, verzerren. Zieh an den Ecken für die Größe, beweg die Maus außerhalb der Ecken für Drehung.

Proportionen beibehalten

In Photoshop 2026 ist proportionales Skalieren beim freien Transformieren standardmäßig aktiv. Wenn du das nicht willst und frei verzerren möchtest, halte die Shift-Taste gedrückt.

Das ist übrigens genau andersrum als in älteren Versionen. Früher musstest du Shift halten, um proportional zu bleiben. Jetzt musst du Shift halten, um nicht proportional zu sein. Hat am Anfang viele Leute verwirrt, mich eingeschlossen.

Vom Mittelpunkt aus transformieren

Alt / Option gedrückt halten während du ziehst.


Farbe und Füllung

Vordergrund- und Hintergrundfarbe tauschen

X

Wechselt zwischen den beiden Farben. Extrem praktisch beim Maskenmalen, wo du ständig zwischen Schwarz und Weiß wechselst.

Farben auf Schwarz und Weiß zurücksetzen

D

Setzt Vordergrundfarbe auf Schwarz und Hintergrundfarbe auf Weiß. Brauchst du ständig bei der Maskenarbeit.

Mit Vordergrundfarbe füllen

Alt + Backspace (PC)
Option + Delete (Mac)

Mit Hintergrundfarbe füllen

Cmd/Strg + Backspace (PC)
Cmd + Delete (Mac)


Masken

Ebenenmaske hinzufügen

Kein Standard-Tastenkürzel, aber du kannst unten im Ebenenbedienfeld auf das Rechteck mit dem Kreis klicken. Geht schnell genug.

Maske umkehren

Cmd/Strg + I

Wenn du eine Maske aktiv hast, kehrt das Schwarz und Weiß um. Also alles, was sichtbar war, wird unsichtbar und umgekehrt. Funktioniert auch auf Bildern als Farben umkehren.

Maske anzeigen

Alt / Option + Klick auf die Masken-Miniatur

Zeigt dir die Maske als Schwarzweiß-Bild. Nochmal klicken und du siehst wieder das normale Bild. Unglaublich praktisch, um zu sehen, ob deine Maske sauber ist.


Kopieren, Einfügen, Ausschneiden

Kopieren

Cmd/Strg + C

Ausschneiden

Cmd/Strg + X

Einfügen

Cmd/Strg + V

Auf reduzierte Ebene kopieren

Cmd/Strg + Shift + C

Kopiert nicht nur die aktive Ebene, sondern alles Sichtbare. Als würdest du einen Screenshot machen. Extrem nützlich, wenn du einen bestimmten Bereich aus einem Bild mit vielen Ebenen kopieren willst.

In eine Auswahl einfügen

Cmd/Strg + Shift + V

Fügt das Kopierte so ein, dass es nur innerhalb einer bestehenden Auswahl sichtbar ist. Erstellt automatisch eine Maske.


Bildanpassungen – die schnellen Korrekturen

Tonwertkorrektur

Cmd/Strg + L

Gradationskurven

Cmd/Strg + M

Farbton / Sättigung

Cmd/Strg + U

Farbbalance

Cmd/Strg + B

Bildgröße ändern

Cmd/Strg + Alt + I (Mac: Cmd + Option + I)

Arbeitsfläche ändern

Cmd/Strg + Alt + C (Mac: Cmd + Option + C)

Kleiner Hinweis: Die direkten Anpassungen über diese Kürzel sind destruktiv – sie verändern die Pixel dauerhaft. Besser ist es meistens, Einstellungsebenen zu verwenden, die du jederzeit ändern oder löschen kannst. Aber für schnelle Korrekturen oder wenn du weißt, was du tust, sind diese Kürzel immer noch praktisch.


Filter

Letzten Filter wiederholen

Cmd/Strg + F

Wendet den letzten Filter nochmal an, mit denselben Einstellungen. Praktisch, wenn du den gleichen Effekt auf mehrere Ebenen anwenden willst.

Letzten Filter mit Dialogfenster wiederholen

Cmd/Strg + Alt + F (Mac: Cmd + Option + F)

Wie oben, aber das Einstellungsfenster öffnet sich nochmal und du kannst die Werte anpassen.


Die Geheimtipps – Kürzel die kaum jemand kennt

Alle Ebenen ausblenden außer einer

Alt / Option + Klick auf das Augensymbol der Ebene

Blendet alle anderen Ebenen aus. Nochmal klicken bringt alle zurück. Ich benutz das ständig, um zu sehen, was auf einer einzelnen Ebene liegt.

Letzte Auswahl wiederherstellen

Cmd/Strg + Shift + D

Du hast versehentlich die Auswahl aufgehoben? Dieses Kürzel bringt sie zurück. Hat mich schon hundertmal gerettet.

Auswahl weichzeichnen

Shift + F6

Öffnet das Dialogfenster für die weiche Auswahlkante. Brauchst du ständig, wenn Auswahlen natürlich aussehen sollen.

Hilfslinien ein- und ausblenden

Cmd/Strg + ;

Raster ein- und ausblenden

Cmd/Strg + ‚

Lineale ein- und ausblenden

Cmd/Strg + R


Wie du das alles lernst ohne verrückt zu werden

Jetzt hast du diese riesige Liste und denkst wahrscheinlich: Das lern ich nie.

Doch. Aber nicht auf einmal.

Mach es so wie ich es gemacht hab: Nimm dir pro Woche drei Kürzel vor. Nur drei. Schreib sie auf einen Zettel und kleb ihn an den Monitor. Und dann zwing dich, diese drei Kürzel zu benutzen, auch wenn es am Anfang langsamer geht als mit der Maus.

Nach einer Woche sitzen die. Dann nimmst du die nächsten drei. Nach zwei Monaten hast du die wichtigsten drin und merkst, dass du schneller arbeitest, ohne darüber nachzudenken.

Die Finger lernen schneller als der Kopf. Irgendwann drückst du Cmd+J, ohne zu überlegen. Es wird automatisch. Wie Autofahren.

Und fang mit den wichtigsten an: Cmd/Strg + Z, Cmd/Strg + S, Cmd/Strg + J, V für Verschieben, B für Pinsel, Leertaste zum Navigieren. Die sechs allein machen schon einen riesigen Unterschied.


Ein letzter Tipp

Du kannst in Photoshop unter Bearbeiten, Tastaturbefehle, alle Kürzel anpassen. Wenn dir ein Kürzel nicht passt oder nicht funktioniert – zum Beispiel weil die deutsche Tastatur anders belegt ist – dann änder es. Das ist dein Programm. Das muss sich nach dir richten, nicht umgekehrt.

Und wenn du gar nicht weiterkommst: In Photoshop 2026 kannst du die Suchfunktion öffnen mit Cmd/Strg + F (im Menü, nicht der Filter). Da tippst du einfach ein, was du machen willst, und Photoshop zeigt dir den Befehl und das Kürzel dazu. Das ist wie Google für Photoshop.

Probier es aus. Und in einem Monat schreibst du mir, dass du nicht verstehst, wie du jemals ohne Kürzel gearbeitet hast.

Geht allen so.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – eingesprochen, wenn mir ein Thema durch den Kopf geht. Wird transkribiert und mit KI aufgeräumt. Die Kürzel kenne ich auswendig, die benutze ich jeden Tag. Das Aufschreiben hat allerdings länger gedauert als gedacht, weil mir bei jedem Kürzel noch ein weiteres eingefallen ist, das unbedingt mit rein muss. Irgendwann muss man aufhören. Jetzt zum Beispiel.