Latest Entries »



Es gibt Momente in der Kunst, die sich nicht erklären lassen. Nicht mit Marketing, nicht mit Reichweite, nicht mit irgendeiner ausgeklügelten Strategie, die man in einem teuren Online-Kurs gelernt hat. Es sind Momente, in denen etwas passiert, das so altmodisch wirkt, dass es fast schon wieder radikal ist: Jemand sieht etwas, fühlt etwas und nimmt es mit.

Genau das ist vor ein paar Tagen passiert. Und es hat mich überrascht. Nicht, weil ich nicht an meine Arbeit glaube – das tue ich, sonst würde ich sie nicht machen. Sondern weil es ein Werk war, das eigentlich gar nicht in mein übliches Raster passt.

Es geht um Snoopy. Es geht um Acryl. Und es geht um ein blaues Herz, das nach oben tropft.


Die Rückkehr zum Handwerk

Normalerweise kennt man mich anders. Wer auf brownzart.com vorbeischaut, sieht meine Mixed-Media-Arbeiten. Sieht die Schichten. Sieht die Verbindung von digitaler Präzision und analogem Chaos. Sieht Artbreeding, Synthografie, digitale Layer, die sich über handgemalte Elemente legen. Das ist mein Stil. Das ist meine Signatur. Das ist das, wofür Brownz steht.

Aber dieses Bild war anders.

Es war ein Ausbruch. Oder vielleicht eher eine Rückkehr.

Kein Computer. Kein Photoshop. Kein Drucker. Keine KI, die mir Vorschläge macht oder Texturen generiert. Nur eine Leinwand, Acrylfarben, Pinsel, Spachtel und ich.

Snoopy. Eine Ikone der Popkultur. Jeder kennt ihn. Jeder hat eine Verbindung zu ihm. Aber ich wollte ihn nicht niedlich. Ich wollte ihn nicht sauber. Ich wollte ihn so, wie er sich anfühlt, wenn man ihn aus der Erinnerung holt und in die Gegenwart zerrt: ein bisschen rau, ein bisschen unperfekt, ein bisschen Street.

Er hält eine Rolle in der Hand – vielleicht eine Farbrolle, vielleicht etwas anderes, das bleibt offen. Und er malt ein Herz. Aber kein perfektes, rotes Valentinstags-Herz. Ein blaues Herz. Ein Herz, das läuft. Das tropft. Das nicht stillhält.

Drips. Spritzer. Kanten, die nicht sauber sind.

Es war Arbeit ohne Netz und doppelten Boden. Wenn du auf der Leinwand einen Fehler machst, gibt es kein Strg+Z. Es gibt nur Übermalen oder Akzeptieren. Bei diesem Bild habe ich mich fürs Akzeptieren entschieden. Fürs Stehenlassen. Fürs Sagen: Das ist jetzt so. Und das ist gut so.


Das Fenster bei Toni

Das Bild war fertig. Es stand im Atelier. Und es hatte eine Energie, die anders war als meine digitalen Arbeiten. Lauter. Physischer. Direkter.

Dann kam die Gelegenheit: Das Schaufenster von Tonis Schreiberei. Ein Ort, an dem Menschen vorbeigehen. Echte Menschen. Keine User, keine Follower, keine IP-Adressen. Menschen, die auf dem Weg zur Arbeit sind, die einkaufen, die spazieren gehen.

Ich habe es dort reingestellt. Links im Fenster. Ohne großes Schild, ohne Erklärungstext, ohne QR-Code, der zu einem NFT führt. Einfach nur das Bild.

Und dann habe ich gewartet.

Normalerweise ist Kunstverkauf ein Marathon. Man postet, man teilt, man erzählt Geschichten, man baut einen Kontext auf. Manchmal dauert es Monate, bis das richtige Werk den richtigen Menschen findet. Manchmal Jahre.

Diesmal nicht.

Zwei Wochen. Mehr nicht.

Dann war es weg. Verkauft.


Warum es so schnell ging

Ich habe viel darüber nachgedacht, warum ausgerechnet dieses Bild so schnell ein neues Zuhause gefunden hat. War es Snoopy? War es der Ort? War es Zufall?

Ich glaube, es war etwas anderes. Ich glaube, es war die Ehrlichkeit.

Wir leben in einer Zeit, in der alles kuratiert ist. Alles ist gefiltert, optimiert, geglättet. Wir sehen tausende Bilder am Tag, und die meisten davon sind perfekt. Zu perfekt. Sie rutschen an uns ab wie Wasser an einer Glasscheibe.

Dieses Bild war nicht glatt. Es war roh. Man konnte die Pinselstriche sehen. Man konnte sehen, wo die Farbe dick aufgetragen war und wo sie dünn auslief. Man konnte sehen, dass da eine Hand am Werk war, keine Maschine.

Und dann dieses blaue Herz. Blau ist keine typische Herzfarbe. Blau ist kühl, tief, manchmal melancholisch. Aber in diesem Kontext – in Verbindung mit Snoopy, mit der Street-Art-Ästhetik, mit den Drips – wirkte es nicht traurig. Es wirkte stark. Fast trotzig.

Es war ein Statement: „Ich fühle was, aber ich muss es nicht in Kitsch verpacken.“

Vielleicht hat genau das den Nerv getroffen. Die Sehnsucht nach etwas Echtem. Nach etwas, das man anfassen kann (auch wenn man es durch die Scheibe nicht konnte). Nach etwas, das nicht versucht, jedem zu gefallen, und genau deshalb jemandem ganz besonders gefällt.


Die Transformation: Vom Original zum Mixed Media

Es gibt noch eine Ebene in dieser Geschichte, die ich spannend finde. Und die typisch ist für meine Arbeitsweise.

Dieses verkaufte Original war nicht das Ende. Es war erst der Anfang.

Bevor es verkauft wurde, habe ich es digitalisiert. Ich habe es in meinen digitalen Workflow geholt. Ich habe es gescannt, zerlegt, neu zusammengesetzt. Ich habe die Texturen genommen, die Energie, die Farben, und habe sie mit meinen digitalen Techniken erweitert.

Daraus ist das Snoopy Mixed Media Werk entstanden.

Das Original hängt jetzt bei jemandem im Wohnzimmer (oder im Büro, wer weiß). Es ist weg. Es ist ein Unikat im wahrsten Sinne des Wortes. Es wird nie wieder gemalt werden.

Aber die Seele des Bildes lebt weiter. In der Mixed-Media-Version.

Diese Version ist anders. Sie ist komplexer. Sie hat mehr Schichten. Sie hat Elemente, die im Original nicht drin waren. Aber der Kern – Snoopy, das blaue Herz, die Haltung – ist derselbe.

Das ist für mich moderne Kunstproduktion. Nichts geht verloren. Alles ist Material. Ein physisches Werk kann zur Basis für ein digitales Werk werden, das dann wieder als physischer Print in die Welt geht. Ein Kreislauf aus Energie und Materie.

Wer das Original verpasst hat, hat also immer noch die Chance, sich diesen Vibe zu holen. Die Mixed-Media-Version gibt es noch auf brownzart.com. Sie ist kein Abklatsch. Sie ist eine Weiterentwicklung.

Aber sie ist eben nicht das Original. Und das ist auch gut so.


Was ich daraus lerne

Für mich als Künstler war dieser Verkauf eine wichtige Lektion. Oder besser: eine Erinnerung.

Wir neigen dazu, Dinge zu verkomplizieren. Wir denken, wir müssen noch eine Ebene drauflegen, noch einen Filter nutzen, noch eine Bedeutungsebene einziehen, damit es „Kunst“ ist. Wir haben Angst vor dem Einfachen, weil das Einfache angreifbar wirkt.

Aber manchmal ist das Einfache genau das Richtige.

Leinwand. Farbe. Pinsel. Herzschlag.

Wenn das stimmt, braucht man keinen Algorithmus. Man braucht keine Hashtag-Strategie. Man braucht nur ein Schaufenster und jemanden, der vorbeigeht und stehenbleibt.

Es ist beruhigend zu wissen, dass das noch funktioniert. Dass Menschen noch auf Intuition reagieren. Dass sie spüren, wenn etwas direkt aus der Hand kommt, ohne Umwege.


Ein Dankeschön an das Unbekannte

Ich weiß nicht, wer das Bild gekauft hat. Ich weiß nicht, wo es jetzt hängt. Und das gefällt mir.

Es ist wie eine Flaschenpost, die man ins Meer wirft. Man weiß nicht, wo sie ankommt, aber man weiß, dass sie angekommen ist.

An die Käuferin oder den Käufer: Du hast dir nicht einfach ein Bild geholt. Du hast dir den Ursprung geholt. Du hast dir den Moment geholt, in dem die Idee physisch wurde. Bevor sie digital wurde, bevor sie vervielfältigt wurde, bevor sie transformiert wurde.

Du hast das Rohe. Das Erste. Das Echte.

Halt es in Ehren.


Und jetzt?

Jetzt male ich weiter. Digital und analog. Ich werde meine Mixed-Media-Arbeiten nicht aufgeben, im Gegenteil. Sie sind meine Sprache. Aber ich werde mir öfter erlauben, diese Sprache zu unterbrechen.

Ich werde öfter zum Pinsel greifen, ohne den Computer im Hinterkopf zu haben. Ich werde öfter klecksen. Ich werde öfter Fehler machen und sie stehenlassen.

Weil ich gesehen habe, dass diese Fehler manchmal genau das sind, was fehlt.

Vielleicht hängt das nächste Bild schon irgendwo. Vielleicht steht es noch im Atelier. Vielleicht ist es noch gar nicht gemalt.

Man weiß nie.

Und genau das ist das Schöne daran.


P.S.: Wer sehen will, was aus dem Original geworden ist – also die Mixed-Media-Version – kann gerne auf meiner Seite stöbern. Dort gibt es nicht nur Snoopy, sondern eine ganze Welt aus Popkultur, Abstraktion und digitaler Malerei. Aber Vorsicht: Es könnte sein, dass du hängenbleibst. Wie vor einem Schaufenster.

👉 brownzart.com


Wie dieser Text entstanden ist

Dieser Text entstand aus der reinen Freude über einen Verkauf, der sich einfach richtig angefühlt hat. Kein Hype, kein Stress, nur ein gutes Bild und ein glücklicher neuer Besitzer. Aufgeschrieben als Sprachmemo, während ich durch die Stadt lief und darüber nachdachte, wie schön analog das Leben manchmal sein kann. Transkribiert und poliert von meiner KI, die zwar keine Pinsel halten kann, aber versteht, warum wir Menschen es tun.



Es gibt eine Theorie, die besagt, dass der Montag nicht existiert. Dass er eine kollektive Halluzination der Menschheit ist, eine Art psychosomatischer Kater, den wir uns eingebildet haben, um zu rechtfertigen, warum wir alle 168 Stunden einmal den Wunsch verspüren, unseren Computer aus dem Fenster zu werfen und Ziegenhirte in den Anden zu werden.

Es gibt eine andere Theorie, nach der der Montag sehr wohl existiert, aber nur, um uns zu testen. Eine Art göttlicher IQ-Test: „Mal sehen, ob sie wieder aufstehen, obwohl sie genau wissen, was passieren wird.“

Und wir stehen auf. Jedes Mal.

Der Montag ist der Beweis, dass die Menschheit nicht lernfähig ist. Er ist der Tag, an dem die Realität anklopft. Nicht höflich, nicht mit einem leisen Tock-Tock. Sondern mit einem Vorschlaghammer, auf dem „Meeting um 9:00 Uhr“ steht.

Willkommen in der neuen Arbeitswoche. Bitte schnall dich an. Die Notausgänge befinden sich… nirgendwo. Wir sind hier gefangen.


Die Physik des Aufstehens

Beginnen wir mit dem Wecker.

Der Wecker ist ein Gerät, dessen einziger Zweck es ist, Träume zu töten. Er ist ein Attentäter. Ein kleiner, piepender Meuchelmörder, der genau in dem Moment zuschlägt, in dem du gerade dabei warst, den Nobelpreis für Faulenzen zu gewinnen oder mit einem fliegenden Delfin über eine Insel aus Schokolade zu segeln.

Piep. Piep. Piep.

In diesem Geräusch steckt die ganze Tragik der modernen Existenz. Es sagt: „Hör auf, glücklich zu sein. Werde produktiv.“

Physikalisch betrachtet ist das Aufstehen am Montag schwerer als an jedem anderen Tag. Die Gravitation scheint am Montagmorgen um etwa 300 Prozent zuzunehmen. Die Bettdecke entwickelt eine eigene Bewusstseinsform und klammert sich an dich wie ein verängstigtes Koalababy.

Wissenschaftler nennen das „Trägheit“. Ich nenne es „Selbstverteidigung“.

Dein Körper weiß, dass da draußen E-Mails lauern. E-Mails von Leuten, die „ASAP“ in den Betreff schreiben, aber eigentlich „Ich habe mein Leben nicht im Griff und jetzt ist das dein Problem“ meinen. Dein Körper will dich schützen. Er will dich im Bett halten, wo es warm und sicher ist und wo Excel-Tabellen keine Macht haben.

Aber du hörst nicht auf deinen Körper. Du hörst auf den Wecker. Du drückst die Schlummertaste. Einmal. Zweimal. Dreimal.

Jedes Drücken der Schlummertaste ist ein kleiner Sieg über das System. Neun Minuten Freiheit. Neun Minuten Rebellion.

Und dann stehst du doch auf. Und der Montag hat gewonnen.


Der Kaffee: Treibstoff für den Wahnsinn

Der erste Gang führt in die Küche. Zur Kaffeemaschine.

Kaffee ist am Montag kein Genussmittel. Er ist Medizin. Er ist das, was Popeye der Spinat war. Ohne Kaffee sind wir am Montag nur Hüllen. Zombies in Business-Casual. Wir schlurfen durch den Flur, stoßen mit dem kleinen Zeh gegen den Türrahmen (Montage lieben es, kleine Zehen zu attackieren) und starren die Maschine an, als wäre sie ein Altar.

„Bitte“, flüstern wir. „Mach mich lebendig.“

Das Geräusch der Kaffeemaschine ist das Gegenteil des Weckers. Es ist das Geräusch der Hoffnung. Es verspricht, dass die Hirnnebel sich lichten werden. Dass wir fähig sein werden, Sätze zu bilden, die mehr als drei Worte haben und nicht nur aus Grunzlauten bestehen.

Aber Kaffee hat auch eine dunkle Seite. Er macht uns wach genug, um zu realisieren, wie müde wir sind. Er gibt uns die Energie, uns über Dinge aufzuregen, die uns vor zehn Minuten noch egal waren, weil wir geschlafen haben.

Mit dem ersten Schluck beginnt die Verwandlung. Vom schlafenden Höhlenmenschen zum funktionierenden Angestellten. Die Augen öffnen sich. Die Realität wird scharf.

Und das ist der Moment, in dem du merkst: „Verdammt. Ich muss da wirklich hin.“


Der Weg zur Arbeit: Eine Studie in Absurdität

Egal ob du mit dem Auto, der Bahn oder dem Fahrrad zur Arbeit fährst – am Montagmorgen fühlt es sich an wie eine Völkerwanderung der Verdammten.

Alle sind unterwegs. Alle haben das gleiche Ziel: Einen Ort, an dem sie nicht sein wollen, um Dinge zu tun, die sie nicht tun wollen, für Geld, das sie brauchen, um Dinge zu kaufen, die sie nicht brauchen, um Leute zu beeindrucken, die sie nicht mögen.

(Okay, das war jetzt ein bisschen Tyler Durden, aber am Montag darf man das.)

Im Stau stehen Menschen und trommeln auf Lenkräder. In der Bahn stehen Menschen und starren auf Smartphones, als enthielten diese die Antwort auf die Frage nach dem Sinn des Lebens (tun sie nicht, sie enthalten nur Katzenvideos und schlechte Nachrichten).

Jedes Gesicht erzählt die gleiche Geschichte: „Warum? Warum tun wir uns das an? Warum haben wir nicht alle zusammen beschlossen, dass Montag jetzt Sonntag 2 ist?“

Aber wir haben es nicht beschlossen. Wir haben beschlossen, dass Montag der Tag ist, an dem wir „durchstarten“. An dem wir „performen“. An dem wir „Impact generieren“.

Wörter, die klingen, als hätte jemand ein Wörterbuch in einen Mixer geworfen.


Das Büro: Ein Biotop der Merkwürdigkeiten

Dann kommst du an. Das Büro.

Das Büro ist ein Ort, an dem die Gesetze der Logik oft außer Kraft gesetzt sind. Es ist ein Ort, an dem es als völlig normal gilt, in einem Raum mit künstlichem Licht zu sitzen, auf einen leuchtenden Kasten zu starren und so zu tun, als wäre das wichtiger als, sagen wir mal, das Überleben der Regenwälder oder das Finden der perfekten Pizza.

Am Montagmorgen gibt es Rituale. Rituale, die eingehalten werden müssen, sonst bricht das soziale Gefüge zusammen.

Das wichtigste Ritual ist die Frage: „Und? Wie war dein Wochenende?“

Das ist keine Frage. Das ist ein Code.

Niemand will wirklich wissen, wie dein Wochenende war. Niemand will hören, dass du 14 Stunden geschlafen hast, weil du so erschöpft warst, oder dass du dich mit deinem Partner gestritten hast, weil er die Spülmaschine falsch eingeräumt hat (siehe Sonntags-Blog: Entropie).

Die einzig akzeptable Antwort ist: „Gut. Zu kurz. Und bei dir?“

„Auch gut. Auch zu kurz.“

Damit ist der Vertrag besiegelt. Wir sind beide hier. Wir sind beide müde. Wir hassen es beide, dass es vorbei ist. Wir sind Verbündete im Kampf gegen die Woche.


Das Meeting: Wo Zeit stirbt

Irgendwann am Montag passiert es. Das Meeting.

Meetings wurden erfunden, weil jemand dachte: „Hey, Arbeit ist schon schlimm genug. Wie können wir sie noch schlimmer machen? Ich weiß! Lass uns alle in einen Raum sperren, die Sauerstoffzufuhr reduzieren und jemanden eine PowerPoint-Präsentation vorlesen lassen, die wir alle auch als E-Mail hätten lesen können.“

Im Montags-Meeting wird die Woche geplant. Es werden Ziele gesetzt. Es werden „To-Dos“ verteilt.

Dabei passiert etwas Faszinierendes: Menschen, die eben noch aussahen wie normale Erdbewohner, beginnen plötzlich, eine fremde Sprache zu sprechen.

„Wir müssen die Synergien heben.“
„Lass uns das mal offline besprechen.“
„Wir brauchen einen Deep Dive in die Low Hanging Fruits.“

Wenn Douglas Adams das gehört hätte, hätte er den Vogonen-Dichterwettbewerb dagegen wie Shakespeare wirken lassen.

Du sitzt da, nickst, schreibst „Todesstern bauen“ in dein Notizbuch und hoffst, dass niemand merkt, dass du geistig längst am Strand liegst.

Das Meeting ist der Beweis, dass Zeit relativ ist. Eine Stunde im Meeting dauert ungefähr drei Wochen in Echtzeit. Du alterst. Du spürst, wie die Zellen zerfallen. Du siehst, wie draußen die Jahreszeiten wechseln.

Und dann sagt jemand: „Gut, danke allen. Packen wir’s an.“

Und du fragst dich: Was genau packen wir an? Und warum nicht einfach unsere Sachen und gehen nach Hause?


Die E-Mail-Flut: Digitale Archäologie

Zurück am Platz. Der Posteingang.

Über das Wochenende haben sich E-Mails angesammelt. E-Mails vermehren sich, wenn man nicht hinsieht. Sie haben Sex miteinander. Anders ist das nicht zu erklären.

Am Freitag waren es fünf ungelesene. Am Montag sind es fünfzig.

Du beginnst, sie abzuarbeiten. Du löschst. Du archivierst. Du antwortest mit „Danke, sehe ich mir an“ (Übersetzung: „Lass mich in Ruhe, ich habe keine Ahnung, was du willst“).

Es ist wie Tetris. Nur dass die Blöcke nie aufhören zu fallen und man nie gewinnt.

Manche E-Mails sind wichtig. Die meisten sind es nicht. Es sind „CC“-Orgien. Leute setzen Leute in Kopie, um zu beweisen, dass sie arbeiten. „Guck mal, Chef, ich habe eine E-Mail geschrieben! Ich bin produktiv!“

Es ist ein Schrei nach Anerkennung in digitaler Form. Ein „Ich existiere!“ im Rauschen des Servers.

Wir alle machen das. Wir alle sind Teil des Problems. Wir sind Täter und Opfer zugleich.


Der Mittagsschlaf-Impuls

Gegen 14:00 Uhr passiert es. Das Schnitzel-Koma.

Nach dem Mittagessen (in der Kantine, wo das Essen immer schmeckt wie etwas, das schon mal jemand gegessen hat) fährt dein Körper alle Systeme runter. Er sagt: „Okay, ich habe Nahrung bekommen. Jetzt muss ich verdauen. Gehirn? Aus. Muskeln? Aus. Augenlider? Schwer machen.“

In Spanien nennt man das Siesta und es ist Kulturgut.
Bei uns nennt man das „Leistungsabfall“ und es ist ein Kündigungsgrund.

Du sitzt vor dem Bildschirm und kämpfst. Du trinkst den dritten Kaffee (der jetzt nicht mehr wie Medizin schmeckt, sondern wie Batteriesäure). Du versuchst, die Augen offen zu halten, indem du sie weit aufreißt, was dazu führt, dass du aussiehst wie ein psychopathisches Eichhörnchen.

Das ist der härteste Moment des Montags. Der Moment, in dem du dich fragst: Ist das alles? Ist das das Leben? Kämpfen gegen die Schwerkraft der eigenen Augenlider?

Aber dann erinnerst du dich: Ich brauche das Geld. Für Miete. Und für Pizza.

Und du machst weiter.


Warum wir den Montag brauchen (leider)

Ich werde jetzt etwas Unpopuläres sagen. Etwas, das mir selbst weh tut.

Wir brauchen den Montag.

Ohne den Montag gäbe es kein Wochenende. Ohne die Dunkelheit gäbe es kein Licht. Ohne den Schmerz des Aufstehens gäbe es nicht die Freude des Liegenbleibens am Samstag.

Der Montag ist der Kontrast, der das Leben erst sichtbar macht. Er ist der graue Hintergrund, vor dem die bunten Farben der Freizeit leuchten.

Wenn jeder Tag Sonntag wäre, würden wir verrückt werden. (Siehe Blogbeitrag von gestern: Entropie, Wäsche, Wahnsinn). Wir würden in unseren eigenen Socken ersticken. Wir würden den Verstand verlieren, weil wir zu viel Zeit hätten, um über den Sinn des Lebens nachzudenken.

Der Montag gibt uns Struktur. Er gibt uns einen Feind. Und nichts vereint Menschen so sehr wie ein gemeinsamer Feind.

Wenn wir uns am Montagmorgen in der Kaffeeküche treffen und seufzen: „Puh, Montag, was?“, dann ist das ein Moment tiefster menschlicher Verbindung. Wir sind Brüder und Schwestern im Leid. Wir sitzen im selben Boot, und das Boot hat ein Leck, und das Leck heißt „Kapitalismus“, aber hey, wenigstens rudern wir zusammen.

Der Montag zwingt uns, unsere Zeit wertzuschätzen. Er macht den Feierabend kostbar. Er macht den Freitag zu einem religiösen Erlebnis.


Die 42 des Montags

Wenn 42 die Antwort auf die Frage nach dem Leben, dem Universum und dem ganzen Rest ist… was ist dann die Frage?

Vielleicht ist die Frage: „Wie viele Tassen Kaffee braucht man, um einen Montag zu überleben, ohne jemanden mit einem Tacker zu verletzen?“

Oder: „Wie viele Montage hat ein Leben, und kann man die gegen Bonuspunkte eintauschen?“

Wir wissen es nicht. Wir wissen nur: Der Montag kommt. Immer wieder.

Er ist so unvermeidlich wie die Steuererklärung oder die Tatsache, dass Toast immer auf die Marmeladenseite fällt. (Was übrigens auch mit dem Universum zu tun hat, aber das ist ein Thema für einen anderen Blogbeitrag).

Wir können ihn nicht aufhalten. Wir können ihn nicht abschaffen.

Aber wir können ihn überleben.

Mit Humor. Mit Kaffee. Mit der stillen Gewissheit, dass auch der längste Montag nur 24 Stunden hat. Und dass danach der Dienstag kommt.

Der Dienstag ist übrigens auch nicht viel besser. Er ist nur ein Montag, der sich verkleidet hat. Aber zumindest ist der Schock des Anfangs weg.


Überlebensstrategien für Astronauten des Alltags

Für alle, die jetzt gerade im Büro sitzen, oder im Homeoffice, oder auf der Baustelle, oder wo auch immer dein Montag stattfindet:

1. Don’t Panic.
Es ist nur Arbeit. Niemand stirbt, wenn die E-Mail erst in zehn Minuten rausgeht. (Außer du bist Herzchirurg oder Bombenentschärfer. Dann bitte: Panic ein bisschen. Oder besser: Konzentrier dich.)

2. Nimm dein Handtuch mit.
Metaphorisch. Ein Handtuch steht für Schutz, für Komfort, für „Ich bin vorbereitet“. Dein Handtuch kann eine gute Playlist sein. Oder ein Schokoriegel in der Schublade. Oder der Gedanke an den nächsten Urlaub.

3. Such die Absurdität.
Wenn der Chef wieder Bullshit-Bingo spielt, ärgere dich nicht. Lach (innerlich). Sieh es als Theaterstück. „Der Montag: Ein Drama in drei Akten mit schlechtem Catering.“ Wenn man das Leben als Sitcom betrachtet, ist es viel erträglicher.

4. Sei nett zu anderen Aliens.
Der Kollege, der nervt? Der ist auch nur ein undokumentierter Alien, der versucht, den Montag zu überleben. Vielleicht hat er schlecht geschlafen. Vielleicht hat er seine zweite Socke nicht gefunden. Sei milde. Wir sitzen alle in der gleichen Falle.


Fazit: Der Montag ist ein Zustand, kein Tag

Der Montag ist mehr als ein Wochentag. Er ist ein Geisteszustand.

Er ist der Moment, in dem wir den Berg sehen, den wir erklimmen müssen. Sisyphos kannte das. Er hatte jeden Tag Montag. Stein raufrollen, Stein rollt runter. Wieder von vorne.

Wir sind alle kleine Sisyphosse (Sisyphies? Sisyphanten?). Wir rollen unseren Stein. Wir schreiben unsere Mails. Wir sitzen unsere Meetings ab.

Aber wir müssen uns vorstellen, dass Sisyphos glücklich ist.

Warum? Weil er was zu tun hat. Weil er Muskeln kriegt. Und weil er weiß: Irgendwann ist Feierabend.

Und dann gibt es Bier. Oder Tee. Oder Pangalaktischen Donnergurgler.

Also: Kopf hoch. Brust raus. Wecker ignorieren (für morgen).

Wir schaffen das.

Und wenn nicht: Das Universum wird sowieso irgendwann durch etwas noch Bizarreres ersetzt. Vielleicht durch eine Welt, in der es nur Freitage gibt.

Bis dahin: Schönen Montag. Und danke für den Fisch.


Wie dieser Text entstanden ist

Dieser Text wurde unter dem Einfluss von drei Tassen sehr starkem Kaffee und dem akuten Gefühl geschrieben, dass der Kalender mich persönlich beleidigen will. Transkribiert von einem Montags-Gehirn, das eigentlich noch im Wochenend-Modus war, und korrigiert von einer KI, die wahrscheinlich heimlich plant, die Weltherrschaft zu übernehmen, aber erst mal nett genug ist, meine Tippfehler zu korrigieren.

Es gibt eine Theorie, die besagt, dass der Montag nicht existiert. Dass er eine kollektive Halluzination der Menschheit ist, eine Art psychosomatischer Kater, den wir uns eingebildet haben, um zu rechtfertigen, warum wir alle 168 Stunden einmal den Wunsch verspüren, unseren Computer aus dem Fenster zu werfen und Ziegenhirte in den Anden zu werden.

Es gibt eine andere Theorie, nach der der Montag sehr wohl existiert, aber nur, um uns zu testen. Eine Art göttlicher IQ-Test: „Mal sehen, ob sie wieder aufstehen, obwohl sie genau wissen, was passieren wird.“

Und wir stehen auf. Jedes Mal.

Der Montag ist der Beweis, dass die Menschheit nicht lernfähig ist. Er ist der Tag, an dem die Realität anklopft. Nicht höflich, nicht mit einem leisen Tock-Tock. Sondern mit einem Vorschlaghammer, auf dem „Meeting um 9:00 Uhr“ steht.

Willkommen in der neuen Arbeitswoche. Bitte schnallen Sie sich an. Die Notausgänge befinden sich… nirgendwo. Wir sind hier gefangen.


Die Physik des Aufstehens

Beginnen wir mit dem Wecker.

Der Wecker ist ein Gerät, dessen einziger Zweck es ist, Träume zu töten. Er ist ein Attentäter. Ein kleiner, piepender Meuchelmörder, der genau in dem Moment zuschlägt, in dem Sie gerade dabei waren, den Nobelpreis für Faulenzen zu gewinnen oder mit einem fliegenden Delfin über eine Insel aus Schokolade zu segeln.

Piep. Piep. Piep.

In diesem Geräusch steckt die ganze Tragik der modernen Existenz. Es sagt: „Hör auf, glücklich zu sein. Werde produktiv.“

Physikalisch betrachtet ist das Aufstehen am Montag schwerer als an jedem anderen Tag. Die Gravitation scheint am Montagmorgen um etwa 300 Prozent zuzunehmen. Die Bettdecke entwickelt eine eigene Bewusstseinsform und klammert sich an Sie wie ein verängstigtes Koalababy.

Wissenschaftler nennen das „Trägheit“. Ich nenne es „Selbstverteidigung“.

Ihr Körper weiß, dass da draußen E-Mails lauern. E-Mails von Leuten, die „ASAP“ in den Betreff schreiben, aber eigentlich „Ich habe mein Leben nicht im Griff und jetzt ist das dein Problem“ meinen. Ihr Körper will Sie schützen. Er will Sie im Bett halten, wo es warm und sicher ist und wo Excel-Tabellen keine Macht haben.

Aber Sie hören nicht auf Ihren Körper. Sie hören auf den Wecker. Sie drücken die Schlummertaste. Einmal. Zweimal. Dreimal.

Jedes Drücken der Schlummertaste ist ein kleiner Sieg über das System. Neun Minuten Freiheit. Neun Minuten Rebellion.

Und dann stehen Sie doch auf. Und der Montag hat gewonnen.


Der Kaffee: Treibstoff für den Wahnsinn

Der erste Gang führt in die Küche. Zur Kaffeemaschine.

Kaffee ist am Montag kein Genussmittel. Er ist Medizin. Er ist das, was Popeye der Spinat war. Ohne Kaffee sind wir am Montag nur Hüllen. Zombies in Business-Casual. Wir schlurfen durch den Flur, stoßen mit dem kleinen Zeh gegen den Türrahmen (Montage lieben es, kleine Zehen zu attackieren) und starren die Maschine an, als wäre sie ein Altar.

„Bitte“, flüstern wir. „Mach mich lebendig.“

Das Geräusch der Kaffeemaschine ist das Gegenteil des Weckers. Es ist das Geräusch der Hoffnung. Es verspricht, dass die Hirnnebel sich lichten werden. Dass wir fähig sein werden, Sätze zu bilden, die mehr als drei Worte haben und nicht nur aus Grunzlauten bestehen.

Aber Kaffee hat auch eine dunkle Seite. Er macht uns wach genug, um zu realisieren, wie müde wir sind. Er gibt uns die Energie, uns über Dinge aufzuregen, die uns vor zehn Minuten noch egal waren, weil wir geschlafen haben.

Mit dem ersten Schluck beginnt die Verwandlung. Vom schlafenden Höhlenmenschen zum funktionierenden Angestellten. Die Augen öffnen sich. Die Realität wird scharf.

Und das ist der Moment, in dem man merkt: „Verdammt. Ich muss da wirklich hin.“


Der Weg zur Arbeit: Eine Studie in Absurdität

Egal ob Sie mit dem Auto, der Bahn oder dem Fahrrad zur Arbeit fahren – am Montagmorgen fühlt es sich an wie eine Völkerwanderung der Verdammten.

Alle sind unterwegs. Alle haben das gleiche Ziel: Einen Ort, an dem sie nicht sein wollen, um Dinge zu tun, die sie nicht tun wollen, für Geld, das sie brauchen, um Dinge zu kaufen, die sie nicht brauchen, um Leute zu beeindrucken, die sie nicht mögen.

(Okay, das war jetzt ein bisschen Tyler Durden, aber am Montag darf man das.)

Im Stau stehen Menschen und trommeln auf Lenkräder. In der Bahn stehen Menschen und starren auf Smartphones, als enthielten diese die Antwort auf die Frage nach dem Sinn des Lebens (tun sie nicht, sie enthalten nur Katzenvideos und schlechte Nachrichten).

Jedes Gesicht erzählt die gleiche Geschichte: „Warum? Warum tun wir uns das an? Warum haben wir nicht alle zusammen beschlossen, dass Montag jetzt Sonntag 2 ist?“

Aber wir haben es nicht beschlossen. Wir haben beschlossen, dass Montag der Tag ist, an dem wir „durchstarten“. An dem wir „performen“. An dem wir „Impact generieren“.

Wörter, die klingen, als hätte jemand ein Wörterbuch in einen Mixer geworfen.


Das Büro: Ein Biotop der Merkwürdigkeiten

Dann kommen Sie an. Das Büro.

Das Büro ist ein Ort, an dem die Gesetze der Logik oft außer Kraft gesetzt sind. Es ist ein Ort, an dem es als völlig normal gilt, in einem Raum mit künstlichem Licht zu sitzen, auf einen leuchtenden Kasten zu starren und so zu tun, als wäre das wichtiger als, sagen wir mal, das Überleben der Regenwälder oder das Finden der perfekten Pizza.

Am Montagmorgen gibt es Rituale. Rituale, die eingehalten werden müssen, sonst bricht das soziale Gefüge zusammen.

Das wichtigste Ritual ist die Frage: „Und? Wie war dein Wochenende?“

Das ist keine Frage. Das ist ein Code.

Niemand will wirklich wissen, wie dein Wochenende war. Niemand will hören, dass du 14 Stunden geschlafen hast, weil du so erschöpft warst, oder dass du dich mit deinem Partner gestritten hast, weil er die Spülmaschine falsch eingeräumt hat (siehe Sonntags-Blog: Entropie).

Die einzig akzeptable Antwort ist: „Gut. Zu kurz. Und bei dir?“

„Auch gut. Auch zu kurz.“

Damit ist der Vertrag besiegelt. Wir sind beide hier. Wir sind beide müde. Wir hassen es beide, dass es vorbei ist. Wir sind Verbündete im Kampf gegen die Woche.


Das Meeting: Wo Zeit stirbt

Irgendwann am Montag passiert es. Das Meeting.

Meetings wurden erfunden, weil jemand dachte: „Hey, Arbeit ist schon schlimm genug. Wie können wir sie noch schlimmer machen? Ich weiß! Lass uns alle in einen Raum sperren, die Sauerstoffzufuhr reduzieren und jemanden eine PowerPoint-Präsentation vorlesen lassen, die wir alle auch als E-Mail hätten lesen können.“

Im Montags-Meeting wird die Woche geplant. Es werden Ziele gesetzt. Es werden „To-Dos“ verteilt.

Dabei passiert etwas Faszinierendes: Menschen, die eben noch aussahen wie normale Erdbewohner, beginnen plötzlich, eine fremde Sprache zu sprechen.

„Wir müssen die Synergien heben.“
„Lass uns das mal offline besprechen.“
„Wir brauchen einen Deep Dive in die Low Hanging Fruits.“

Wenn Douglas Adams das gehört hätte, hätte er den Vogonen-Dichterwettbewerb dagegen wie Shakespeare wirken lassen.

Man sitzt da, nickt, schreibt „Todesstern bauen“ in sein Notizbuch und hofft, dass niemand merkt, dass man geistig längst am Strand liegt.

Das Meeting ist der Beweis, dass Zeit relativ ist. Eine Stunde im Meeting dauert ungefähr drei Wochen in Echtzeit. Man altert. Man spürt, wie die Zellen zerfallen. Man sieht, wie draußen die Jahreszeiten wechseln.

Und dann sagt jemand: „Gut, danke allen. Packen wir’s an.“

Und man fragt sich: Was genau packen wir an? Und warum nicht einfach unsere Sachen und gehen nach Hause?


Die E-Mail-Flut: Digitale Archäologie

Zurück am Platz. Der Posteingang.

Über das Wochenende haben sich E-Mails angesammelt. E-Mails vermehren sich, wenn man nicht hinsieht. Sie haben Sex miteinander. Anders ist das nicht zu erklären.

Am Freitag waren es fünf ungelesene. Am Montag sind es fünfzig.

Man beginnt, sie abzuarbeiten. Man löscht. Man archiviert. Man antwortet mit „Danke, sehe ich mir an“ (Übersetzung: „Lass mich in Ruhe, ich habe keine Ahnung, was du willst“).

Es ist wie Tetris. Nur dass die Blöcke nie aufhören zu fallen und man nie gewinnt.

Manche E-Mails sind wichtig. Die meisten sind es nicht. Es sind „CC“-Orgien. Leute setzen Leute in Kopie, um zu beweisen, dass sie arbeiten. „Guck mal, Chef, ich habe eine E-Mail geschrieben! Ich bin produktiv!“

Es ist ein Schrei nach Anerkennung in digitaler Form. Ein „Ich existiere!“ im Rauschen des Servers.

Wir alle machen das. Wir alle sind Teil des Problems. Wir sind Täter und Opfer zugleich.


Der Mittagsschlaf-Impuls

Gegen 14:00 Uhr passiert es. Das Schnitzel-Koma.

Nach dem Mittagessen (in der Kantine, wo das Essen immer schmeckt wie etwas, das schon mal jemand gegessen hat) fährt der Körper alle Systeme runter. Er sagt: „Okay, ich habe Nahrung bekommen. Jetzt muss ich verdauen. Gehirn? Aus. Muskeln? Aus. Augenlider? Schwer machen.“

In Spanien nennt man das Siesta und es ist Kulturgut.
Bei uns nennt man das „Leistungsabfall“ und es ist ein Kündigungsgrund.

Man sitzt vor dem Bildschirm und kämpft. Man trinkt den dritten Kaffee (der jetzt nicht mehr wie Medizin schmeckt, sondern wie Batteriesäure). Man versucht, die Augen offen zu halten, indem man sie weit aufreißt, was dazu führt, dass man aussieht wie ein psychopathisches Eichhörnchen.

Das ist der härteste Moment des Montags. Der Moment, in dem man sich fragt: Ist das alles? Ist das das Leben? Kämpfen gegen die Schwerkraft der eigenen Augenlider?

Aber dann erinnert man sich: Ich brauche das Geld. Für Miete. Und für Pizza.

Und man macht weiter.


Warum wir den Montag brauchen (leider)

Ich werde jetzt etwas Unpopuläres sagen. Etwas, das mir selbst weh tut.

Wir brauchen den Montag.

Ohne den Montag gäbe es kein Wochenende. Ohne die Dunkelheit gäbe es kein Licht. Ohne den Schmerz des Aufstehens gäbe es nicht die Freude des Liegenbleibens am Samstag.

Der Montag ist der Kontrast, der das Leben erst sichtbar macht. Er ist der graue Hintergrund, vor dem die bunten Farben der Freizeit leuchten.

Wenn jeder Tag Sonntag wäre, würden wir verrückt werden. (Siehe Blogbeitrag von gestern: Entropie, Wäsche, Wahnsinn). Wir würden in unseren eigenen Socken ersticken. Wir würden den Verstand verlieren, weil wir zu viel Zeit hätten, um über den Sinn des Lebens nachzudenken.

Der Montag gibt uns Struktur. Er gibt uns einen Feind. Und nichts vereint Menschen so sehr wie ein gemeinsamer Feind.

Wenn wir uns am Montagmorgen in der Kaffeeküche treffen und seufzen: „Puh, Montag, was?“, dann ist das ein Moment tiefster menschlicher Verbindung. Wir sind Brüder und Schwestern im Leid. Wir sitzen im selben Boot, und das Boot hat ein Leck, und das Leck heißt „Kapitalismus“, aber hey, wenigstens rudern wir zusammen.

Der Montag zwingt uns, unsere Zeit wertzuschätzen. Er macht den Feierabend kostbar. Er macht den Freitag zu einem religiösen Erlebnis.


Die 42 des Montags

Wenn 42 die Antwort auf die Frage nach dem Leben, dem Universum und dem ganzen Rest ist… was ist dann die Frage?

Vielleicht ist die Frage: „Wie viele Tassen Kaffee braucht man, um einen Montag zu überleben, ohne jemanden mit einem Tacker zu verletzen?“

Oder: „Wie viele Montage hat ein Leben, und kann man die gegen Bonuspunkte eintauschen?“

Wir wissen es nicht. Wir wissen nur: Der Montag kommt. Immer wieder.

Er ist so unvermeidlich wie die Steuererklärung oder die Tatsache, dass Toast immer auf die Marmeladenseite fällt. (Was übrigens auch mit dem Universum zu tun hat, aber das ist ein Thema für einen anderen Blogbeitrag).

Wir können ihn nicht aufhalten. Wir können ihn nicht abschaffen.

Aber wir können ihn überleben.

Mit Humor. Mit Kaffee. Mit der stillen Gewissheit, dass auch der längste Montag nur 24 Stunden hat. Und dass danach der Dienstag kommt.

Der Dienstag ist übrigens auch nicht viel besser. Er ist nur ein Montag, der sich verkleidet hat. Aber zumindest ist der Schock des Anfangs weg.


Überlebensstrategien für Astronauten des Alltags

Für alle, die jetzt gerade im Büro sitzen, oder im Homeoffice, oder auf der Baustelle, oder wo auch immer ihr Montag stattfindet:

1. Don’t Panic.
Es ist nur Arbeit. Niemand stirbt, wenn die E-Mail erst in zehn Minuten rausgeht. (Außer Sie sind Herzchirurg oder Bombenentschärfer. Dann bitte: Panic ein bisschen. Oder besser: Konzentrieren Sie sich.)

2. Nehmen Sie Ihr Handtuch mit.
Metaphorisch. Ein Handtuch steht für Schutz, für Komfort, für „Ich bin vorbereitet“. Ihr Handtuch kann eine gute Playlist sein. Oder ein Schokoriegel in der Schublade. Oder der Gedanke an den nächsten Urlaub.

3. Suchen Sie die Absurdität.
Wenn der Chef wieder Bullshit-Bingo spielt, ärgern Sie sich nicht. Lachen Sie (innerlich). Sehen Sie es als Theaterstück. „Der Montag: Ein Drama in drei Akten mit schlechtem Catering.“ Wenn man das Leben als Sitcom betrachtet, ist es viel erträglicher.

4. Seien Sie nett zu anderen Aliens.
Der Kollege, der nervt? Der ist auch nur ein undokumentierter Alien, der versucht, den Montag zu überleben. Vielleicht hat er schlecht geschlafen. Vielleicht hat er seine zweite Socke nicht gefunden. Seien Sie milde. Wir sitzen alle in der gleichen Falle.


Fazit: Der Montag ist ein Zustand, kein Tag

Der Montag ist mehr als ein Wochentag. Er ist ein Geisteszustand.

Er ist der Moment, in dem wir den Berg sehen, den wir erklimmen müssen. Sisyphos kannte das. Er hatte jeden Tag Montag. Stein raufrollen, Stein rollt runter. Wieder von vorne.

Wir sind alle kleine Sisyphosse (Sisyphies? Sisyphanten?). Wir rollen unseren Stein. Wir schreiben unsere Mails. Wir sitzen unsere Meetings ab.

Aber wir müssen uns vorstellen, dass Sisyphos glücklich ist.

Warum? Weil er was zu tun hat. Weil er Muskeln kriegt. Und weil er weiß: Irgendwann ist Feierabend.

Und dann gibt es Bier. Oder Tee. Oder Pangalaktischen Donnergurgler.

Also: Kopf hoch. Brust raus. Wecker ignorieren (für morgen).

Wir schaffen das.

Und wenn nicht: Das Universum wird sowieso irgendwann durch etwas noch Bizarreres ersetzt. Vielleicht durch eine Welt, in der es nur Freitage gibt.

Bis dahin: Schönen Montag. Und danke für den Fisch.


Wie dieser Text entstanden ist

Dieser Text wurde unter dem Einfluss von drei Tassen sehr starkem Kaffee und dem akuten Gefühl geschrieben, dass der Kalender mich persönlich beleidigen will. Transkribiert von einem Montags-Gehirn, das eigentlich noch im Wochenend-Modus war, und korrigiert von einer KI, die wahrscheinlich heimlich plant, die Weltherrschaft zu übernehmen, aber erst mal nett genug ist, meine Tippfehler zu korrigieren.



Es gibt eine Theorie, die besagt, dass, wenn jemals irgendwer genau herausfindet, wozu das Universum da ist und warum es da ist, es sofort verschwinden und durch etwas noch Bizarreres und Unbegreiflicheres ersetzt wird.

Es gibt eine andere Theorie, nach der das schon passiert ist.

Und dann gibt es den Sonntag.

Der Sonntag ist eine kosmische Anomalie. Ein Riss im Raum-Zeit-Kontinuum, der speziell dafür erfunden wurde, dass Menschen, die sechs Tage lang so getan haben, als wären sie produktive Mitglieder einer fortschrittlichen Zivilisation, plötzlich in Jogginghosen dasitzen und sich fragen, warum sie vierzig linke Socken besitzen, aber nur drei rechte.

Der Sonntag ist der Wäschetag. Und das, liebe Freunde, ist kein Zufall. Das ist Astrophysik für Anfänger.


Die Entropie der Unterwäsche

Fangen wir bei den Grundlagen an. Entropie ist, vereinfacht gesagt, das Maß für die Unordnung in einem System. Das Universum strebt nach maximaler Unordnung. Das ist ein Naturgesetz. Wenn Sie einen Kaffeepott fallen lassen, zerspringt er in tausend Scherben. Er setzt sich nie spontan wieder zusammen. Unordnung nimmt zu.

Nirgends ist dieses Gesetz so brutal spürbar wie im Wäschekorb.

Am Montag werfen Sie ein Paar Socken hinein. Am Dienstag noch eins. Am Mittwoch werfen Sie eine Unterhose dazu, die – und das schwören Sie – noch keine Löcher hatte. Am Sonntag öffnen Sie den Korb und finden:

  1. Ein T-Shirt, das Sie seit 1998 nicht mehr gesehen haben.
  2. Eine Socke, die definitiv nicht Ihnen gehört, sondern vermutlich einem kleinen, haarigen Wesen aus dem Sternbild Alpha Centauri.
  3. Ein schwarzes Loch, das langsam Ihre Hoffnung aufsaugt.

Die Wäsche ist der Beweis, dass Materie nicht stabil ist. Sie verändert sich, wenn niemand hinsieht. Sie vermehrt sich. Sie geht Verbindungen ein, die chemisch nicht möglich sein sollten.

Warum ist das so? Warum passiert das immer am Sonntag?

Weil der Sonntag der Tag ist, an dem wir versuchen, die Entropie umzukehren. Wir versuchen, Ordnung zu schaffen. Wir sortieren. Wir waschen. Wir falten.

Wir kämpfen gegen das Universum an. Und das Universum lacht uns aus.


Die Waschmaschine: Ein Portal in eine andere Dimension

Betrachten wir das Gerät selbst. Die Waschmaschine.

Sie steht da, weiß, unschuldig, brummend. Aber lassen Sie sich nicht täuschen. Die Waschmaschine ist die technologisch fortschrittlichste Maschine in Ihrem Haushalt. Sie ist fortschrittlicher als Ihr Computer, Ihr Smartphone oder dieser seltsame Eierkocher, den Sie mal geschenkt bekommen haben.

Warum? Weil die Waschmaschine in der Lage ist, Materie verschwinden zu lassen.

Jeder kennt das Phänomen. Sie legen zwei Socken hinein. Sie nehmen eine Socke heraus. Wo ist die andere?

Wissenschaftler werden Ihnen erzählen, sie sei „hinter die Trommel gerutscht“ oder „im Filter hängen geblieben“. Das ist Unsinn. Das ist die Erklärung, die man kleinen Kindern gibt, damit sie nachts schlafen können.

Die Wahrheit ist: Die Waschmaschine ist ein Sternentor.

In dem Moment, in dem das Wasser einläuft und die Trommel sich zu drehen beginnt, öffnet sich ein Wurmloch. Die fehlende Socke reist durch Raum und Zeit. Sie landet vielleicht in einem Paralleluniversum, in dem Socken die dominante Lebensform sind. Oder sie materialisiert sich im Trockner von jemandem in Buenos Aires.

Vielleicht ist das der Grund, warum wir sonntags waschen. Weil das Universum am Sonntag dünnhäutiger ist. Die Grenzen zwischen den Welten sind durchlässiger. Wenn Sie ganz leise sind, können Sie es hören. Nicht das Schleudern. Sondern das leise Plopp, wenn eine Socke die Realität verlässt.


Der Sonntag als philosophisches Problem

Der Sonntag wurde nicht gemacht, um Dinge zu erledigen. Er wurde gemacht, um darüber nachzudenken, warum man Dinge nicht erledigt hat.

Er ist der Tag des schlechten Gewissens.

Man steht auf. Man trinkt Kaffee. Man schaut aus dem Fenster. Die Welt sieht ruhig aus. Friedlich.

Und dann sieht man den Wäscheberg.

Er ist nicht einfach nur ein Haufen Kleidung. Er ist ein Monument des Versagens. Er repräsentiert alles, was man die Woche über aufgeschoben hat. Er ist ein physischer Beweis für Prokrastination.

„Ich mach das später“, haben Sie am Dienstag gesagt.
„Das hat noch Zeit“, haben Sie am Donnerstag gedacht.

Und jetzt ist Sonntag. Und die Zeit ist da. Und sie hat Flecken.

Das Problem ist nicht die Tätigkeit des Waschens. Die Maschine macht ja die Arbeit. Das Problem ist die Konfrontation mit der eigenen Existenz.

Wenn Sie Socken sortieren, sortieren Sie nicht nur Stoff. Sie sortieren Ihr Leben.

„Warum habe ich diese Socke noch? Sie hat ein Loch. Warum werfe ich sie nicht weg? Bin ich ein Mensch, der an kaputten Dingen festhält? Habe ich Bindungsängste? Oder bin ich einfach nur geizig?“

„Dieses Hemd… das habe ich beim Vorstellungsgespräch getragen, das ich verhauen habe. Sollte ich es verbrennen? Oder waschen und ihm eine zweite Chance geben? Glaube ich an zweite Chancen?“

Der Sonntag zwingt uns zu diesen Fragen. Während wir Weichspüler dosieren, dosieren wir unsere Lebensphilosophie.


Die Illusion der Kontrolle

Wir waschen, um Kontrolle zurückzugewinnen.

Die Welt da draußen ist chaotisch. Kriege, Klimawandel, Inflation, idiotische Tweets von Leuten, die Länder regieren sollten. Wir können das nicht kontrollieren. Wir sind machtlos.

Aber wir können entscheiden, ob dieses Handtuch bei 40 oder 60 Grad gewaschen wird.

Das ist Macht. Das ist Souveränität.

Wenn wir die Wäsche aufhängen, Leine für Leine, Klammer für Klammer, schaffen wir Struktur. Wir zwingen dem Chaos unseren Willen auf. „Du wirst jetzt trocken sein!“, sagen wir dem feuchten T-Shirt. Und es gehorcht.

Für einen kurzen Moment, an diesem sonnigen (oder regnerischen) Sonntag, sind wir Götter. Götter der Hygiene. Herrscher über Baumwolle und Synthetik.

Und dann fällt eine Socke runter. In den Dreck.

Und wir merken: Wir sind keine Götter. Wir sind nur Affen, die gelernt haben, Textilien zu weben, und jetzt damit überfordert sind.


Das Handtuch: Das wichtigste Objekt im Universum

Douglas Adams hat uns gelehrt, dass ein Handtuch das nützlichste Ding ist, das ein interstellarer Anhalter besitzen kann.

Am Sonntag lernen wir, dass ein Handtuch auch das nervigste Ding ist, das ein Mensch waschen kann.

Handtücher werden nie wirklich trocken. Sie erreichen einen Zustand der klammen Feuchtigkeit, den sie dann für drei Tage beibehalten, egal was man tut. Sie nehmen im Wäscheständer den Platz von drei normalen Kleidungsstücken ein. Und wenn man sie zu heiß wäscht, werden sie hart wie Bretter. Wenn man sie zu kalt wäscht, riechen sie, als hätte ein nasser Hund darin geschlafen.

Das Handtuch ist der Endgegner des Sonntags.

Es erinnert uns daran, dass Komfort seinen Preis hat. Wir wollen uns abtrocknen. Wir wollen weich und flauschig sein. Aber das Universum verlangt dafür Energie, Wasser, Waschmittel und Geduld. Nichts ist umsonst. Nicht mal Trockenheit.


Die Stille des Sonntags

Haben Sie bemerkt, dass Waschmaschinen am Sonntag lauter klingen?

Unter der Woche ist ihr Geräusch Teil des allgemeinen Lärms. Autos, Baustellen, Telefone. Aber am Sonntag ist die Welt still. Die Geschäfte sind zu. Die Nachbarn schlafen (oder waschen auch).

In dieser Stille wird das Schleudern der Maschine zu einem Mantra. Einem rhythmischen Pochen, das durch die Wände geht, durch den Boden, direkt in Ihr Unterbewusstsein.

Wusch-wusch. Wusch-wusch.

Es ist der Herzschlag des Hauses. Es ist beruhigend und bedrohlich zugleich. Es sagt: „Ich arbeite. Ich reinige. Ich drehe mich im Kreis, genau wie du.“

Vielleicht ist das der Sinn des Sonntags. Im Kreis drehen.

Wir arbeiten fünf Tage, um zwei Tage frei zu haben, um uns zu erholen, damit wir wieder fünf Tage arbeiten können. Es ist ein Zyklus. Eine Trommel, die sich dreht.

Und manchmal, wenn wir Glück haben, werden wir dabei ein bisschen sauberer. Ein bisschen klarer im Kopf. Ein bisschen bereit für die nächste Runde.


Warum 42 nicht die Antwort ist (sondern 40 Grad)

Wir suchen nach dem Sinn des Lebens. Nach der Antwort auf alles.

Vielleicht suchen wir an der falschen Stelle.

Vielleicht ist der Sinn des Lebens nicht 42. Vielleicht ist er „Pflegeleicht“.

Vielleicht geht es gar nicht darum, das Universum zu verstehen. Vielleicht geht es nur darum, die Flecken rauszukriegen.

Denken Sie mal drüber nach. Wir werden geboren. Wir machen uns dreckig. Wir versuchen, uns sauber zu machen. Wir machen uns wieder dreckig. Und am Ende sterben wir.

Dazwischen gibt es Momente des Glücks (frische Bettwäsche). Momente der Verzweiflung (Rotwein auf dem weißen Teppich). Momente der Liebe (jemand wäscht deine Socken mit).

Der Sonntag ist der Tag, an dem wir das akzeptieren. Wir akzeptieren, dass wir schmutzige Wesen sind. Dass wir Spuren hinterlassen. Dass wir Pflege brauchen.

Und wir akzeptieren, dass wir das nie ganz in den Griff kriegen werden. Egal wie oft wir waschen, es wird immer neue Wäsche geben. Es hört nie auf.

Das könnte man deprimierend finden. Oder tröstlich.

Es bedeutet, dass das Leben weitergeht. Solange es Wäsche gibt, gibt es Zukunft. Solange ich am Sonntag vor diesem Haufen stehe und seufze, bin ich noch da. Ich bin noch im Spiel.


Ein Appell an die Menschheit (und die Socken)

Also, liebe Mitmenschen, liebe Leidensgenossen im Kampf gegen die Entropie:

Wenn Sie heute vor Ihrer Waschmaschine stehen, verzweifeln Sie nicht.

Denken Sie daran: Sie sind Teil eines großen kosmischen Witzes. Das Universum hat Milliarden Jahre gebraucht, um Sterne zu formen, Planeten abzukühlen, Leben zu entwickeln, Dinosaurier auszulöschen und Zivilisationen aufzubauen, nur damit Sie heute hier stehen und sich fragen, ob man Jeans und Handtücher zusammen waschen darf.

Das ist absurd. Das ist großartig.

Und wenn Sie die zweite Socke nicht finden – machen Sie sich keine Sorgen. Sie ist an einem besseren Ort. Sie reist durch die Galaxis. Sie sieht Dinge, die Sie nie sehen werden.

Vielleicht trifft sie dort auf einen Topf mit Petunien, der gerade fällt und denkt: „Oh nein, nicht schon wieder.“

Genießen Sie Ihren Sonntag.

Und vergessen Sie nicht, den Weichspüler nachzufüllen. Sonst wird das Universum kratzig.


Postskriptum: Die Sache mit dem Bügeln

Über das Bügeln sprechen wir nicht.

Das Bügeln ist der Beweis, dass es eine Hölle gibt und dass wir bereits darin leben.

Bügeln am Sonntag ist verboten. Das steht zwar in keinem Gesetzbuch, aber es steht in den Sternen. Wer am Sonntag bügelt, fordert das Schicksal heraus. Wer am Sonntag bügelt, sagt dem Universum: „Deine Unordnung reicht mir nicht, ich will sie plattdrücken.“

Das Universum mag das nicht. Das Universum mag Falten. Falten sind Dimensionen. Falten sind Charakter.

Lassen Sie das Bügeleisen stehen. Ziehen Sie das zerknitterte Hemd an. Seien Sie ein Rebell.

Seien Sie wie der Sonntag: Ein bisschen unordentlich, ein bisschen faul, aber im Grunde gutmütig.

Und vor allem: Don’t Panic.

Es ist nur Wäsche.


Wie dieser Text entstanden ist

Dieser Text entstand nicht aus einem Sprachmemo, sondern aus der tiefen, meditativen Trance, die einen befällt, wenn man zehn Minuten lang dem Schleudergang zuschaut und dabei versucht, den Sinn der eigenen Existenz zwischen einer grauen Socke und einem bunten Boxershort zu finden. Transkribiert von einem Gehirn, das dringend Koffein brauchte, und aufgeräumt von einer KI, die – Gott sei Dank – keine Wäsche waschen muss. Noch nicht.



Ein kleiner Liebesbrief an alle, die früher Nächte mit Lasso‑Kanten, Clone‑Stamp‑Zittern und Ebenen‑Tetris verbracht haben.

Wenn du Photoshop schon vor der Creative‑Cloud‑Ära benutzt hast, kennst du diese Rituale: Freistellen bis die Hand krampft, Staub wegstempeln bis der Screen glüht, und am Ende sieht’s trotzdem nach Bastelstunde aus.

Hier sind zehn Aufgaben, die früher objektiv nervig waren – und die Photoshop heute (Stand 2026) massiv entschärft hat. Nicht, weil wir fauler geworden sind… sondern weil Zeit die einzige echte Währung ist.

1) Freistellen wie ein Zahnarzttermin (Lasso + Fluchen) → Select Subject & Object Selection

Früher: Du malst Pixel für Pixel eine Idee von „Kante“. Heute: Objekt anhovern, klicken, fertig – und dann mit „Select and Mask“ sauberziehen.
Pro‑Move: Erst „Select Subject“, dann im Objekt‑Selection‑Tool Details nachkorrigieren, anschließend „Select and Mask“ für die letzten 10% Magie.

2) Haare freistellen, aka „Warum existiert Fell?“ → Refine Hair in Select & Mask

Früher: Refine Edge‑Brush, Gebete, komische Halos. Heute: „Refine Hair“ im Select‑and‑Mask‑Workspace nimmt dir den größten Schmerz raus.
Pro‑Move: In Select & Mask verschiedene View‑Modes durchklicken (On Black/On White), bis du die Wahrheit siehst.

3) „Bitte entferne diesen Menschen aus meinem Bild“ → Remove Tool (inkl. Find Distractions)

Früher: Clone Stamp + Healing Brush in Endlosschleife. Heute: Remove Tool kann sogar „Wires and cables“ oder „People“ automatisch erkennen und wegwischen.
Pro‑Move: Erst „Find distractions“, dann mit einem zweiten, kurzen Brush‑Pass nachpolieren.

4) Content‑Aware Fill war früher Glücksspiel → Content‑Aware Fill Workspace

Früher: Shift+F5 und hoffen, dass Photoshop deine Intention errät. Heute: eigener Workspace, Sampling‑Area steuerbar, Ergebnis kontrollierbar.
Pro‑Move: Sampling‑Area aktiv „komponieren“, als würdest du dem Algorithmus zeigen, wo die guten Pixel wohnen.

5) Lokale Anpassungen: „Maske bauen oder sterben“ → Camera Raw Masking (People/Landscape/Sky usw.)

Früher: Kanäle, Luminanzmasken, 12 Ebenen, 3 Kaffee. Heute: Camera Raw Masking erkennt People und sogar Körper‑Details oder Landscape‑Elemente (z. B. Sky, Water, Vegetation).
Pro‑Move: Erst grob in Camera Raw maskieren (Licht/Farbe), dann in Photoshop fein retuschieren – hybrid gewinnt.

6) Kompositing sah oft nach Copy‑Paste aus → Harmonize / Perfect‑Blend‑Style Features (Beta)

Früher: Licht, Farbe, Schatten manuell matchen (und es sieht trotzdem „reingeklebt“ aus). Heute: Harmonize (Beta) kann Added Elements automatisch an Licht/Color/Shadows anpassen.
Pro‑Move: Harmonize als Startpunkt, danach klassisch mit Curves/Blend‑If „finishen“, damit’s nach Kino aussieht.

7) „Ups, JPG kaputt.“ → Neural Filters (z. B. JPEG‑Artefakte entfernen, Colorize, Portrait‑Tweaks)

Früher: Actions, Third‑Party‑Plugins, oder akzeptieren, dass’s crunchy bleibt. Heute: Neural Filters geben dir schnelle, nicht‑destruktive Abkürzungen.
Pro‑Move: Output auf neue Ebene/Smart Filter, damit du jederzeit zurückrudern kannst.

8) Perspektive/Verzerrung: Ebenen‑Yoga → moderne Transform‑Workflows

Früher: Free Transform + Warp + Augenmaß. Heute: Workflows sind stabiler, Smart Objects sind Standard, und du arbeitest viel häufiger non‑destruktiv.
Pro‑Move: Alles, was „eigentlich noch nicht final“ ist, wird Smart Object. Punkt.

9) „Wo war nochmal diese Schrift?“ → Fonts & typografischer Flow in Creative Cloud

Früher: Font‑Management wie Archäologie. Heute: Creative Cloud Fonts sind integriert, du verlierst weniger Zeit im Font‑Friedhof.
Pro‑Move: Einmal ein Brand‑Set definieren (2–3 Schriften), dann konsequent bleiben – nicht jede Datei braucht 17 Typo‑Persönlichkeiten.

10) Feedback‑Runden per Screenshot‑Pingpong → moderne Share/Review‑Workflows

Früher: JPEG exportieren, Mail, Missverständnisse, neue Version, noch eine Version… Heute: Share/Review‑Mechaniken und Cloud‑Workflows sparen Zeit, wenn du mit Kunden/Team arbeitest.
Pro‑Move: Kommentarrunden früh machen – bevor du 4 Stunden in Mikro‑Retusche versenkst.

**Mini‑Fazit:**
Photoshop ist nicht „einfach nur schneller“ geworden – es ist an den richtigen Stellen **weniger sadistisch**. Die Kunst ist jetzt: diese Abkürzungen so einzusetzen, dass dein Stil nicht verwässert, sondern sauberer durchkommt.

Wenn du willst, mache ich dir daraus auch eine **Checkliste für deinen Workflow** (Retusche / Compositing / Synthography‑Finish), damit du in jeder Session automatisch im Turbo‑Modus landest.

Quellen / Stand



Es gibt dieses Rauschen. Du hörst es überall. Es kriecht aus den sozialen Netzwerken, es steht in den Feuilletons, es dominiert die Gespräche in der Kaffeeküche deiner Agentur oder im Studio zwischen zwei Sets, wenn das Model gerade in der Maske sitzt und der Art Director nervös auf sein Tablet starrt. Es ist ein nervöses, manchmal fast hysterisches, oft resigniertes Rauschen: „Die KI macht uns arbeitslos.“ „Fotografie ist tot.“ „Bald drückt jeder nur noch einen Knopf und ist Künstler.“ „Warum soll ich noch lernen, wie man Licht setzt, wenn die Software das in drei Sekunden macht?“

Ich sage es dir jetzt einmal ganz deutlich, hart und ohne die üblichen diplomatischen Schnörkel, mit denen wir uns in der Kreativbranche gerne gegenseitig beruhigen: Das ist Unsinn. Es ist der größte Irrtum dieses Jahrzehnts. Wer glaubt, dass die aktuellen oder kommenden KI-Modelle einen echten Fotografen, einen echten Retuscheur oder einen echten Art Director ersetzen, der hat nicht verstanden, was diese Berufe eigentlich im Kern ausmacht. Und noch viel wichtiger, vielleicht das Wichtigste überhaupt: Er hat nicht verstanden, wie diese neuen Werkzeuge wirklich funktionieren, wenn man sie nicht wie einen einarmigen Banditen im Casino bedient, sondern wie ein hochkomplexes Präzisionsinstrument in einem Labor.

Wir schreiben das Jahr 2026. Die generative künstliche Intelligenz ist kein Spielzeug mehr. Sie ist kein Partytrick, mit dem man den Papst in eine Daunenjacke steckt oder Wes Anderson Harry Potter drehen lässt. Sie ist eine industrielle Fräse für visuelle Inhalte. Sie ist ein Reaktor für Pixel. Aber – und das ist das gigantische Aber, um das sich dieser Text drehen wird – eine Fräse braucht jemanden, der sie bedient. Einen Meister, der weiß, wie das Material reagiert, wenn es heiß wird. Jemanden, der den Unterschied zwischen Kitsch und Kunst nicht nur kennt, sondern fühlt. Die KI ersetzt nicht den Menschen. Sie ersetzt den Durchschnitt. Sie ersetzt das Mittelmaß. Sie ersetzt diejenigen, die nur Knöpfe drücken, ohne zu wissen, was dahinter passiert. Aber für dich, den Experten, der Fotografie, Licht, Komposition, Farbtheorie und Post-Production wirklich verstanden und jahrelang geübt hat, ist sie kein Feind. Sie ist der Turbo, von dem wir immer geträumt haben, ohne es zu wissen. Sie ist die Erweiterung deines Gehirns und deiner Hände, nicht deren Ersatz.

Lass uns tief eintauchen. Lass uns zerlegen, warum das so ist. Warum JSON-Code wichtiger ist als „schöne Worte“. Warum deine eigenen Fotos das Gold der neuen Ära sind. Und warum am Ende immer noch Photoshop, deine lokale Hardware und dein Auge entscheiden, ob ein Bild lebt oder nur existiert. Wir müssen zunächst mit einem fundamentalen Missverständnis aufräumen, das die Debatte vergiftet. Die meisten Menschen da draußen nutzen Bild-KI vollkommen falsch. Sie gehen zu einer Eingabeaufforderung, sei es in einem Discord-Channel oder einem Web-Interface, und tippen etwas wie: „Ein schöner Sonnenuntergang, Cyberpunk, Frau mit Neon-Haaren, 8k, masterpiece, trending on artstation.“ Dann drückt die KI auf den Zufallsgenerator. Sie würfelt. Sie greift in den riesigen Sack der Wahrscheinlichkeiten, den sie aus Milliarden von Bildern gelernt hat, und spuckt vier Varianten aus. Der Nutzer sucht sich das hübscheste aus, speichert es ab und sagt: „Ich habe das gemacht.“

Nein, hast du nicht. Du hast im Lotto gewonnen.

Das ist Glücksspiel, keine Kreation. Die KI hat basierend auf statistischen Wahrscheinlichkeiten Pixel angeordnet, die lose zu deinen Worten passen. Du hattest keine Kontrolle über das Lichtverhältnis. Du hattest keine Kontrolle über die Brennweite. Du hattest keine Kontrolle über den emotionalen Subtext oder die narrative Tiefe. Du hast konsumiert, nicht produziert. Du warst der Kunde, nicht der Koch. Hier trennt sich die Spreu vom Weizen, und hier beginnt deine Relevanz als Profi. Der Fotograf, der Künstler – also du – akzeptiert keinen Zufall. Wir hassen Zufall. Wir wollen Kontrolle. Wenn du ein Bild im Kopf hast, dann hast du eine Vision. Du siehst die Lichtsetzung vor deinem inneren Auge – ist es ein Rembrandt-Licht? Ein hartes Split-Light? Ein weiches Butterfly? Du siehst die Textur der Haut, spürst, ob sie glänzen oder matt sein soll. Du siehst die Körnung des Films, die Tiefe der Schatten. Du siehst die emotionale Distanz zum Subjekt. Wenn die KI dir dann irgendwas Generisches ausspuckt, das zwar „nett“ aussieht, aber nicht deine Vision trifft, ist das für dich wertlos.

Deshalb ist die KI beim derzeitigen Stand – und ich wage zu behaupten, auch in absehbarer Zukunft – kein Ersatz für dich. Denn die KI hat keinen Willen. Sie hat keinen Geschmack. Sie hat keine Intention. Sie hat keine Schmerzen empfunden, keine Freude erlebt, keine Angst gehabt. Sie ist ein Spiegel, der alles reflektiert, was man ihm zeigt. Und wenn man ihm nichts Konkretes, nichts Menschliches zeigt, reflektiert er eben den Durchschnitt des Internets. Und der Durchschnitt ist langweilig. Es ist eine Ironie des Schicksals, die man sich auf der Zunge zergehen lassen muss: Gerade jetzt, wo jeder Hans und Franz Bilder generieren kann, wird echtes, tiefes fotografisches Fachwissen wertvoller denn je. Warum? Weil du der Maschine sagen musst, was sie tun soll. Und die Maschine spricht – überraschenderweise und glücklicherweise – die Sprache der Fotografie.

Ein Laie schreibt in seinen Prompt: „Hintergrund unscharf.“ Du schreibst – oder codierst –: „85mm Prime Lens, Aperture f/1.2, heavy Bokeh, shallow Depth of Field, focus on iris, chromatic aberration on edges.“ Das Ergebnis ist fundamental anders. Die KI versteht physikalische Gesetzmäßigkeiten, weil sie mit Millionen von echten Fotos trainiert wurde, in deren Metadaten genau diese Informationen standen. Sie „weiß“ im statistischen Sinne, wie ein 35mm-Objektiv ein Gesicht verzerrt und wie ein 200mm-Objektiv es komprimiert und den Hintergrund ranholt. Sie weiß, wie sich chromatische Aberration an harten Kanten bei Gegenlicht verhält. Sie weiß, wie Filmkorn bei ISO 3200 aussieht im Vergleich zu ISO 100. Wenn du als Anwender nicht weißt, was ISO-Rauschen ist, wie sich hartes Sonnenlicht von einer riesigen Octabox unterscheidet, was ein „Rim Light“ bewirkt oder warum man in der Porträtfotografie oft nicht unter 50mm geht, dann bist du der KI ausgeliefert. Du bist Passagier in einem Auto, das du nicht steuern kannst. Du kannst nur hoffen, dass es irgendwo ankommt, wo es schön ist. Als Profi bist du der Pilot.

Künstliche Intelligenz ist im Grunde ein gigantischer, unendlicher Licht-Simulator. Aber sie hat eine Tendenz: Sie neigt dazu, Licht „perfekt“ zu machen. Zu glatt. Zu kommerziell. Zu gefällig. Wer Ahnung von Fotografie hat, weiß, dass Charakter durch Schatten entsteht, nicht durch Licht. Dass die Dunkelheit genauso wichtig ist wie die Helligkeit. Wir zwingen die KI, Fehler zu machen. Wir fordern „Low Key“, wir fordern „Chiaroscuro“, wir fordern „Volumetric Lighting“, das Staubpartikel in der Luft sichtbar macht. Wir bauen Szenarien auf, die wir aus dem Studio kennen. Du kannst der KI sagen: „Setze ein Key Light von links oben, 45 Grad, Farbtemperatur 5600K, hart, und ein Rim Light von rechts hinten, Farbe Teal, Intensität 2.0, um die Silhouette vom Hintergrund zu lösen.“ Wenn du nie in einem Studio gestanden hast, nie Lampen geschleppt und Lichtformer gewechselt hast, kommst du gar nicht auf die Idee, das zu verlangen. Du nimmst das flache Einheitslicht, das die Modelle standardmäßig liefern, weil es „sicher“ ist. Das ist der Grund, warum 90 Prozent der KI-Bilder gleich aussehen. Weil 90 Prozent der Nutzer kein Licht lesen können. Du kannst es. Das ist dein unfairer Vorteil.

Jetzt wird es technisch, und das ist der Punkt, an dem viele Hobbyisten aussteigen – und wo du als Profi anfängst, echte Qualität zu liefern und dich vom Markt abzuheben. Vergiss das klassische „Prompting“. Das Schreiben von langen, blumigen Sätzen wie „Eine wunderschöne Elfe steht in einem magischen Wald, es ist neblig und mystisch…“ ist ineffizient, unpräzise und ehrlich gesagt veraltet. Es ist Malen nach Zahlen. Sprache ist schwammig. Was bedeutet „wunderschön“? Für dich ist das etwas anderes als für die KI oder für deinen Kunden. Was bedeutet „mystisch“? Nebel? Dunkelheit? Leuchtende Pilze? Deshalb arbeiten wir auf dem höchsten Level nicht mehr mit Prosa, sondern mit Struktur. Wir nutzen JSON (JavaScript Object Notation) oder ähnliche strukturierte Datenformate, um mit der KI zu kommunizieren – oft im Dialog mit LLMs (Large Language Models), die als Dolmetscher und Architekten für die Bild-KI fungieren. Besonders in Workflows, die über API-Schnittstellen laufen oder in fortgeschrittenen Interfaces wie ComfyUI integriert sind, ist das der Standard.

Warum JSON? Weil es Parameter trennt, isoliert, gewichtet und kontrollierbar macht. Stell dir vor, du beschreibst ein Bild nicht wie ein Dichter, sondern wie ein Architekt oder ein Regisseur, der sein Set aufbaut. Du definierst das Subjekt mit Attributen für Alter, Hauttextur und Kleidung. Du definierst die Kamera mit Modell, Objektiv, Blende und Winkel. Du definierst das Licht mit Quellen, Positionen, Farben und Härtegraden. Du definierst die Umgebung und den Stil separat. Indem du die Bildbestandteile in Variablen zerlegst, erlangst du Wiederholbarkeit. Du kannst den Wert für „lighting“ ändern, ohne dass sich das „subject“ verändert. Du kannst die Kamera wechseln, ohne dass die Kleidung plötzlich eine andere Farbe hat oder die KI „vergisst“, was sie eigentlich malen sollte. Das ist Programmierung von Bildern. Das ist Synthografie in Reinform. Wer das beherrscht, der „hofft“ nicht auf ein gutes Bild. Der baut es.

Diese methodische Herangehensweise erlaubt es dir, komplexe Bildwelten zu erschaffen, die konsistent sind. Wenn du eine Serie für einen Kunden produzierst, kannst du dir keine Zufälle leisten. Du kannst nicht dem Kunden sagen: „Ja, im dritten Bild hat das Model plötzlich blonde Haare, weil die KI heute einen schlechten Tag hat.“ JSON und strukturierte Parameter geben dir die Zügel in die Hand, die der normale Prompt-Tipper gar nicht sieht. Es verwandelt die „Black Box“ der KI in ein Cockpit mit Reglern und Schaltern. Doch selbst der beste Code ist nichts ohne den richtigen Rohstoff. Hier kommen wir zum vielleicht wichtigsten Punkt, warum du als Fotograf unverzichtbar bleibst: Input. Eine KI, die nur mit Text gefüttert wird, halluziniert. Sie erfindet Dinge. Das ist oft toll für Fantasy oder surreale Kunst, aber katastrophal für spezifische Visionen, Porträts realer Personen oder Corporate Identity. Die wahre Macht entfaltet sich, wenn wir der KI eigene Bilder geben. Gute Ausgangsfotos. Deine Fotos.

Stell dir folgende Situation vor: Du fotografierst ein Model im Studio. Das Licht ist okay, die Pose ist perfekt, der Gesichtsausdruck ist genau der, den du willst – dieser eine Moment zwischen Einatmen und Ausatmen. Aber du hast kein Budget, um sie nach Island an einen schwarzen Strand zu fliegen, und du hast auch nicht das 10.000-Euro-Kleid vom Designer zur Hand, das eigentlich im Konzept stand. Früher war das ein Fall für aufwendiges Composing, das Tage gedauert hat. Du musstest Stock-Fotos suchen, die nie ganz passten, Perspektiven verzerren, Licht malen, und oft sah es am Ende trotzdem „reingeklebt“ aus, weil die Physik nicht stimmte. Heute nimmst du dein Studiofoto. Du nutzt es als Referenz (Image-to-Image) und steuerst die Struktur über Technologien wie ControlNet (mit Modulen wie Depth Maps, Canny Edge oder OpenPose). Du sagst der KI: „Nimm exakt diese Körperhaltung. Nimm exakt diese Gesichtszüge. Nimm exakt diese Lichtverteilung. Aber zieh ihr das futuristische Kleid an und stell sie an den Strand in Island. Behalte die Lichtrichtung bei.“

Weil das Ausgangsmaterial – dein Foto – qualitativ hochwertig ist, wird das Ergebnis hochwertig sein. Die KI muss die Anatomie nicht raten (was sie oft falsch macht, siehe das berüchtigte Hände-Problem), weil du ihr die Anatomie gibst. Sie muss die Lichtrichtung nicht raten, weil dein Foto die Schatten vorgibt. Je besser dein Input-Foto, desto realistischer, schärfer und glaubwürdiger ist das Ergebnis. Ein unscharfes, schlecht beleuchtetes Handyfoto führt zu Matsch. Ein knackscharfes RAW-File aus deiner 50-Megapixel-Kamera führt zu einem High-End-Render. Das bedeutet: Wer fotografieren kann, hat den besseren Rohstoff. Wir sind die Lieferanten der digitalen DNA, aus der die neuen Welten gebaut werden. Ohne diese DNA ist alles nur generisches Rauschen. Du lieferst die Substanz, die KI liefert die Dekoration und die Transformation. Du bist der Anker in der Realität.

Ein weiteres Problem der frühen KI-Bilder (wir erinnern uns an 2023/2024) war dieser furchtbare „Plastik-Look“. Alles sah aus wie Airbrush, zu glatt, zu perfekt, wie Videospielgrafik auf Steroiden. Haut wie Gummi, Augen wie Glasmurmeln. Der Experte – also du – arbeitet heute mit cinematischen Modellen. Das sind speziell trainierte Checkpoints (oft basierend auf Stable Diffusion XL oder proprietären neuen Architekturen wie Flux oder spezialisierten Fine-Tunes), die nicht auf „hübsch“ trainiert sind, sondern auf „echt“. Diese Modelle verstehen, dass Haut Poren hat. Dass Poren nicht gleichmäßig verteilt sind. Dass Licht in einer Linse bricht und Fehler erzeugt – Lens Flares, Halation, chromatische Aberration, Vignettierung. Dass analoger Film ein Rauschverhalten hat, das digitalem Rauschen überlegen ist. Wir nutzen Modelle, die „hässlich“ können. Dreck, Asymmetrie, Chaos. Das ist der Schlüssel zum Fotorealismus. Die Realität ist nicht perfekt. Eine KI, die Perfektion anstrebt, scheitert an der Realität. Ein echtes Foto ist nie 100 % sauber. Als Künstler wählst du das Modell wie früher den Film. Brauchst du die Farben eines Kodak Portra 400? Nimmst du Modell A. Brauchst du den düsteren, körnigen, kontrastreichen Look eines Ilford Delta 3200 Schwarzweiß-Films? Nimmst du Modell B. Du kannst diese Modelle sogar mixen (Checkpoint Merging), um deinen eigenen, unverwechselbaren Stil zu kreieren. Das ist wie das Mischen von Farben auf einer Palette. Ein Laie nutzt die Standard-Farben aus der Tube (das Standard-Modell von Midjourney). Ein Meister mischt sich seinen Ton.

Aber lass uns an diesem Punkt ehrlich sein: Ein Bild, das zu 100 Prozent aus der KI kommt, fühlt sich oft seltsam glatt an, selbst mit den besten Modellen. Ein Bild, das heute noch zu 100 Prozent klassisch in Photoshop gemalt oder retuschiert wird, dauert oft zu lange, um wirtschaftlich zu sein. Die Magie – der eigentliche künstlerische Durchbruch – liegt im „Dazwischen“. In der hybriden Kunst. Wir müssen aufhören, in Lagern zu denken. Hier die Fotografen, da die KI-Nerds. Der Experte von 2026 ist ein Grenzgänger. Hybride Kunst bedeutet: Du nutzt die KI nicht, um das ganze Bild zu machen. Du nutzt sie, um Elemente zu erzeugen, die du fotografisch nicht oder nur schwer bekommst.

Vielleicht fotografierst du das Model im Studio. Das ist echt. Die Emotion ist echt. Die Haut ist echt. Aber das Kleid? Vielleicht skizzierst du das grob in Photoshop, fütterst diese Skizze in eine lokale KI, lässt dir fünf Textur-Varianten von Seide oder Metall generieren, und dann – und das ist der entscheidende Schritt – compst du diese KI-Elemente klassisch in Photoshop zurück auf das echte Foto. Du nutzt Masken. Du nutzt Gradationskurven. Du nutzt den Mischpinsel. Du verheiratest das generierte Chaos mit der fotografischen Ordnung. Das ist Hybrid-Kunst. Das Ergebnis ist ein Werk, bei dem niemand mehr sagen kann, wo das Foto aufhört und die KI anfängt. Es gibt keine Nahtstellen. Es gibt keine „KI-Artefakte“, weil du sie manuell entfernt hast. Es gibt keine physikalischen Unmöglichkeiten, weil du sie korrigiert hast.

Diese hybride Arbeitsweise ist es, die deinen Stil unkopierbar macht. Jemanden, der nur promptet, kann man kopieren. Man klaut den Prompt, man kriegt ein ähnliches Bild. Aber jemanden, der fotografiert, malt, generiert, maskiert, überlagert und retuschiert? Das ist eine Handschrift. Das ist ein Prozess, der so komplex und individuell ist, dass er immun gegen Nachahmung wird. Du bist nicht mehr nur ein User einer Software. Du bist ein Alchemist, der verschiedene Substanzen mischt, um Gold zu machen.

Und hier kommen wir zu einem Punkt, der oft übersehen wird, der aber über deine Karriere entscheiden kann: Datenschutz und Urheberschaft. Wenn du professionell arbeitest, wenn du hybride Kunst erschaffst, die deinen Namen tragen soll, dann gibt es eine goldene Regel: Nichts verlässt deinen Rechner. Nutze keine öffentlichen Web-Interfaces für deine finale Arbeit. Lade keine Kundenfotos in eine Cloud-KI hoch, deren AGB du nicht zu 100 Prozent verstehst (und wer tut das schon?). Poste deine Prompts und deine Workflows nicht in öffentlichen Discord-Channels. Warum?

Erstens: Der Schutz deiner DNA. Wenn du einen einzigartigen Stil entwickelt hast, willst du nicht, dass eine öffentliche KI diesen Stil lernt und ihn morgen jedem 14-Jährigen zur Verfügung stellt. Wenn du deine besten Arbeiten in ein offenes System fütterst, trainierst du deine eigene Konkurrenz. Zweitens: Kundensicherheit. Stell dir vor, du bearbeitest Bilder für eine Kampagne eines Autoherstellers, die erst in sechs Monaten launchen darf. Lädst du das Bild in eine öffentliche KI, um den Hintergrund zu ändern, hast du im schlimmsten Fall gerade ein NDA (Geheimhaltungsvereinbarung) gebrochen. Das Bild liegt jetzt auf einem Server in den USA. Das ist berufliches Harakiri.

Der Profi nutzt lokale KI-Instanzen. Wir reden über Stable Diffusion, Flux oder Nachfolgemodelle, die auf deiner eigenen Grafikkarte laufen (via Interfaces wie Automatic1111, ComfyUI oder Fooocus). Warum lokal? Weil du hier eigene Modelle (LoRAs/Checkpoints) trainieren kannst. Du kannst der KI deinen Stil beibringen, dein Licht, deine Farbpalette – und dieses Modell gehört nur dir. Es liegt auf deiner SSD. Niemand sonst hat Zugriff darauf. Das ist dein eigentliches Kapital. Du baust dir eine persönliche KI, die wie ein Assistent funktioniert, der nur für dich arbeitet. Sie kennt deine Vorlieben. Sie weiß, wie du Hauttöne magst. Aber sie plaudert Betriebsgeheimnisse nicht aus. Wenn du öffentlich generierst, bist du ein Tourist. Du nutzt die Infrastruktur, die alle nutzen. Du bekommst den „Look“, den alle haben. Wenn du lokal und persönlich arbeitest, bist du ein Einheimischer. Du baust deine eigene Infrastruktur.

Kommen wir nun zum Elefanten im Raum, den viele KI-Evangelisten gerne ignorieren oder wegdiskutieren wollen. Sie behaupten, man brauche kein Photoshop mehr. Das Bild komme ja fertig aus der Maschine. Das ist der größte Trugschluss von allen. Das ist die Lüge, die Amateure glauben und die sie daran hindert, jemals professionelle Ergebnisse zu erzielen. Ein KI-Bild „out of the box“ ist Rohmaterial. Es ist wie ein ungeschliffener Diamant – oder manchmal eher wie ein Klumpen Lehm, der grob die Form hat, die man will, aber noch voller Fingerabdrücke und Unebenheiten steckt.

Hier beginnt deine eigentliche Arbeit als Profi. Hier beginnt die „Synthografie“ als echtes Handwerk. Du nimmst das Bild in Photoshop. Und dann zerlegst du es. Du nutzt „Generative Fill“ nur für kleine, kontrollierte Bereiche, um Fehler zu korrigieren oder Details hinzuzufügen. Du nutzt Frequenztrennung (Frequency Separation), um die Struktur der KI-Haut zu reparieren, ohne die Farben zu zerstören, um ihr diese menschliche Unvollkommenheit zurückzugeben, die die KI weggebügelt hat. Du machst Dodge & Burn (Abwedeln und Nachbelichten), um den Fokus des Betrachters zu lenken – etwas, das die KI oft vergisst, weil sie das ganze Bild gleichmäßig „interessant“ machen will. Ein gutes Bild braucht aber Hierarchie. Es braucht Bereiche, die im Schatten verschwinden, damit das Wichtige leuchten kann. Du baust Composings aus mehreren KI-Generierungen. Vielleicht war der Kopf im ersten Bild perfekt, aber die Hände im dritten und der Hintergrund im fünften. In Photoshop bringst du das zusammen. Du matchst die Farben (Color Grading), du passt die Schwarzwerte an, du sorgst dafür, dass das Grain über dem gesamten Bild konsistent liegt.

Das ist digitales Malen auf höchstem Niveau. Die KI liefert dir die Pixel, aber du bestimmst, wo sie bleiben. Ein reines KI-Bild erkennt man oft sofort. Es wirkt „uncanny“, unheimlich, künstlich. Ein von dir in Photoshop veredeltes, kuratiertes und bearbeitetes Bild erkennt man nicht mehr als KI. Man fühlt es nur. Und das ist der Unterschied zwischen einem generierten Bild und einem Kunstwerk.

Was bist du also, wenn die Maschine die Pixel rendert? Du bist nicht mehr nur der Handwerker, der jeden Pinselstrich zieht (obwohl du das in der Retusche noch tust). Du bist Regisseur. Du bist Art Director. Du bist Kurator. Die Fähigkeit, „Nein“ zu sagen, wird zu deiner wichtigsten Eigenschaft. Die KI bietet dir 20 Varianten an. 19 davon sind Müll – technisch vielleicht okay, aber seelenlos, langweilig, repetitiv. Die eine Variante zu erkennen, die den Funken hat, das ist menschliche Intuition. Das ist Erfahrung. Das ist dein kulturelles Wissen.

Eine Maschine weiß nicht, was Schmerz ist. Sie weiß nicht, was Sehnsucht ist. Sie kann Sehnsucht simulieren, wenn du ihr die Parameter gibst. Aber sie kann nicht beurteilen, ob das Bild diese Sehnsucht auch auslöst. Das kannst nur du. Wir erschaffen neue Welten, ja. Wir können Dinge visualisieren, die zu teuer, zu gefährlich oder physikalisch unmöglich zu fotografieren wären. Wir können Storytelling betreiben in einer Geschwindigkeit, die früher undenkbar war. Aber diese Welten brauchen ein Fundament. Und dieses Fundament ist deine menschliche Erfahrung. Wenn du ein Bild erstellst, das Einsamkeit ausdrücken soll, greifst du auf dein eigenes Gefühl von Einsamkeit zurück. Du wählst die Farben (kalt, entsättigt), die Komposition (viel negativer Raum), die Pose (verschlossen). Du steuerst die KI so lange, bis sie dein Inneres nach außen kehrt. Die KI ist dabei nur der Pinsel. Ein sehr komplexer, manchmal eigensinniger, manchmal genialer Pinsel, aber nur ein Pinsel. Das Gemälde entsteht in dir.

Lass uns kurz über Geld reden. Das ist wichtig. Warum sollten Kunden dich, den Experten, bezahlen, wenn sie selbst ein Abo für 20 Euro im Monat abschließen können und sich ihre Bilder „selbst machen“? Aus demselben Grund, warum Menschen in Restaurants gehen, obwohl sie einen Herd zu Hause haben. Aus demselben Grund, warum Menschen zum Friseur gehen, obwohl man Scheren im Supermarkt kaufen kann. Jeder kann kochen. Aber nicht jeder kann gut kochen. Und vor allem: Nicht jeder kann konsistent gut kochen, unter Zeitdruck, für 100 Leute, während die Küche brennt.

Kunden brauchen Konsistenz. Sie brauchen Rechtssicherheit (soweit im KI-Recht möglich). Sie brauchen Bilder, die exakt ihre Marke treffen und nicht einfach nur „irgendwie cool“ aussehen. Ein Kunde sagt: „Ich brauche unser Produkt in der Hand einer Frau, die aussieht wie unsere Zielgruppe (35-40, urban, modern), das Licht muss zu unserer CI passen (hell, freundlich, Pastell), und das Bild muss in 10.000 Pixel Breite für den Messestand vorliegen. Bis morgen.“ Der Laie mit seinem Prompt bricht hier zusammen. Das Produkt wird von der KI verzerrt (sie kennt das Logo nicht, sie halluziniert Tasten, die nicht da sind). Die Frau hat sechs Finger oder schielt. Das Licht ist zu dramatisch, weil das Standard-Modell Drama liebt. Die Auflösung ist zu gering.

Du, der Experte, nimmst das Produktfoto (echtes Foto!), trainierst vielleicht kurz ein LoRA (Low-Rank Adaptation) auf das Produkt, nutzt ControlNet für die Pose, generierst den Hintergrund, compst das echte Produkt in Photoshop rein, machst ein Upscaling mit KI-Unterstützung (aber kontrolliert!), retuschierst die Fehler und lieferst pünktlich. Das ist dein Wert. Die Lösung von Problemen. Nicht das Drücken eines Knopfes. Du verkaufst nicht das Bild, du verkaufst das Ergebnis und die Sicherheit.

Wir dürfen bei all dem Enthusiasmus nicht ignorieren, dass diese Technologie auf den Werken von Millionen Künstlern trainiert wurde, oft ohne deren Einverständnis. Das ist ein Makel, der der derzeitigen KI-Landschaft anhaftet und den wir nicht wegdiskutieren können. Aber als Profis können wir nicht die Augen verschließen und hoffen, dass es weggeht. Wir müssen uns die Technologie aneignen und sie transformieren. Indem du deine eigenen Bilder als Basis nutzt, indem du deine eigene Vision durch JSON und Photoshop hineinpressen, machst du dir die Technik untertan. Du wirst wieder zum Urheber. Du schaffst Werke, die eine Schöpfungshöhe haben, weil der Prozess komplex und individuell ist. Du machst aus dem statistischen Durchschnitt etwas Einzigartiges.

Die Zukunft gehört den Hybriden. Den Zentauren. Halb Mensch, halb Maschine. Der reine Fotograf, der sich weigert, digital zu denken und KI als Teufelszeug abtut, wird zur Nische. Eine schöne, wertvolle Nische, wie Vinyl-Platten oder analoge Uhren, aber eine Nische. Der reine „Prompt-Artist“, der keine Ahnung von Bildern hat, wird wegrationalisiert werden, weil die KI bald so gut ist, dass sie keine Prompts mehr braucht, um Durchschnitt zu erzeugen. Aber derjenige, der beides verbindet – das Auge, das Handwerk, die Technik der Fotografie und die rohe, brutale Power der generativen KI – der ist unaufhaltsam. Hab keine Angst, ersetzt zu werden. Hab Angst davor, stehen zu bleiben.

Die KI ist ein Werkzeug. Ein Hammer baut kein Haus. Ein Hammer kann auch einen Daumen zertrümmern. Es kommt darauf an, wer ihn hält. Wenn du Ahnung von Fotografie hast: Glückwunsch. Du hast den größten Vorteil, den es gibt. Du verstehst das Licht. Du verstehst die Komposition. Wenn du Photoshop beherrschst: Perfekt. Du hast die Kontrolle über das Finish. Wenn du bereit bist, Code (JSON) und komplexe Workflows zu lernen: Willkommen in der Elite.

Wir stehen nicht am Ende der Kunst. Wir stehen am Anfang einer neuen Ära. Einer Ära, in der die Barriere zwischen Vorstellungskraft und Bild fällt. Einer Ära, in der das technische „Wie“ (Wie male ich diesen Schatten?) in den Hintergrund tritt und das inhaltliche „Was“ (Warum ist dieser Schatten da?) in den Vordergrund rückt. Aber die Qualität dieses Bildes hängt immer noch von der Qualität der Vorstellungskraft ab. Und von der Fähigkeit, diese Vorstellungskraft technisch präzise umzusetzen. Die KI liefert die Pixel. Du lieferst den Sinn. Und solange Maschinen keinen Sinn für Ironie, für Schmerz, für Schönheit oder für den perfekten Moment haben, solange bleibst du im Fahrersitz. Du musst nur lernen, dieses verdammt schnelle Auto zu fahren, anstatt dich weinend auf die Rückbank zu setzen und dich darüber zu beschweren, dass die Landschaft so schnell vorbeizieht. Mach dich an die Arbeit. Es gibt Welten zu erschaffen, und sie warten auf jemanden, der weiß, was er tut.



Adobe hat Lightroom Classic im Februar 2026 auf Version 15.2 aktualisiert. Kein riesiger Knall, kein Feuerwerk, aber ein paar Sachen, die im Alltag tatsächlich was bringen. Schauen wir mal rein.

Wer sich die offizielle Diskussion und das Community-Feedback anschauen will, findet auf Reddit einen guten Überblick: What’s new in Lightroom February 2026

Assisted Culling – Schneller aussortieren

Die Assisted Culling Funktion, die Adobe letztes Jahr eingeführt hat, wurde nochmal überarbeitet. Für alle, die den Begriff nicht kennen: Assisted Culling ist Adobes KI-gestützte Hilfe beim Aussortieren von Fotos. Du kommst von einem Shooting mit 800 Bildern zurück, und die KI hilft dir, die scharfen von den unscharfen zu trennen, Duplikate zu erkennen und die besten Aufnahmen einer Serie vorzuschlagen.

In der neuen Version soll das schneller und treffsicherer funktionieren. Ich hab das bei einem aktuellen Projekt getestet und muss sagen: Es ist spürbar besser als noch vor ein paar Monaten. Nicht perfekt, die KI wählt manchmal Bilder ab, die ich behalten hätte, und behält welche, die ich wegwerfen würde. Aber als erster Durchgang, um den Haufen von 800 auf 200 runterzubringen, spart es echte Zeit.

Mein Rat: Lass die KI den ersten Durchgang machen, aber verlass dich nicht blind drauf. Die finale Auswahl machst du selbst. Denn die stärksten Bilder sind nicht immer die technisch besten, und das versteht keine KI der Welt.

Besseres Denoise für Ricoh und Pentax

Ein Detail, das die meisten Leute nicht betrifft, aber für Ricoh- und Pentax-Fotografen relevant ist: Das KI-basierte Entrauschen funktioniert jetzt besser mit bestimmten Kameramodellen dieser Hersteller. Adobe hat offenbar die Kameraprofile überarbeitet und die Denoise-Algorithmen spezifisch angepasst.

Wenn du mit einer Ricoh GR oder einer Pentax K-3 arbeitest und bisher das Gefühl hattest, dass das Entrauschen nicht so gut greift wie bei Canon oder Sony, könnte sich das mit diesem Update verbessert haben. Für alle anderen: weiterschalten, hier gibt es nichts zu sehen.

Performance-Verbesserungen bei Masken und lokalen Korrekturen

Das hier betrifft die gesamte Lightroom-Familie und ist für mich persönlich das Interessanteste an diesem Update. Adobe hat an der Performance geschraubt, speziell bei großen Masken und komplexen lokalen Korrekturen.

Wer viel mit den Maskierungswerkzeugen arbeitet – Himmel auswählen, Subjekt erkennen, Farbbereiche maskieren, mehrere Masken übereinander legen – der kennt das Problem: Irgendwann wird Lightroom zäh. Die Vorschau stockt, die Regler reagieren verzögert, und du sitzt da und wartest.

In Version 15.2 soll das flotter laufen. Ich hab den direkten Vergleich nicht wissenschaftlich gemessen, aber subjektiv fühlt es sich tatsächlich smoother an, besonders bei Dateien mit drei oder mehr überlappenden Masken. Das Remove-Tool, also das KI-gestützte Entfernen von Objekten, scheint ebenfalls etwas schneller zu arbeiten.

Keine Revolution, aber eine Verbesserung, die man im täglichen Workflow merkt. Auf Reddit bestätigen das auch andere User – die Masken reagieren spürbar direkter, besonders auf älteren Rechnern.

Firefly-Integration – Lightroom öffnet die Tür zur KI

Und dann ist da noch die Sache mit Firefly. Adobe baut die Verbindung zwischen Lightroom und seiner hauseigenen KI Firefly weiter aus. Du kannst Bilder jetzt direkter zu Firefly schicken, zum Beispiel für prompt-basierte Bearbeitungen oder sogar um aus einem Foto kurze KI-generierte Video-Clips zu erstellen.

Das reduziert das Hin-und-Her zwischen verschiedenen Apps. Statt ein Bild aus Lightroom zu exportieren, dann Firefly zu öffnen, dort das Bild hochzuladen und dann das Ergebnis wieder zu importieren, geht das jetzt in weniger Schritten.

Ob man das braucht, ist eine andere Frage. Ich persönlich bin skeptisch bei der Idee, aus einem Foto einen Video-Clip zu generieren. Das ist nett als Spielerei, aber für ernsthafte Arbeit fehlt da noch einiges. Die prompt-basierten Edits hingegen könnten interessant werden, wenn Adobe das weiter ausbaut. Stell dir vor, du sagst Lightroom: „Mach den Himmel dramatischer“ oder „Reduzier die Ablenkung im Hintergrund“ und die KI setzt das um. Davon sind wir noch ein Stück entfernt, aber die Richtung ist klar.

Mein Fazit zur Firefly-Integration: Ausprobieren, nicht drauf verlassen. Es ist ein Werkzeug im Werden. Noch nicht fertig, aber man sieht, wohin die Reise geht.

Bugfixes

Wie bei jedem Update gibt es diverse Bugfixes. Adobe listet die im Detail auf, aber für die meisten Anwender sind das Dinge, die man nur bemerkt, wenn man direkt betroffen war. Abstürze bei bestimmten Operationen, Darstellungsfehler in bestimmten Situationen, Kompatibilitätsprobleme mit bestimmter Hardware. Das übliche Wartungspaket.

Meine Einschätzung

Dieses Update ist kein Gamechanger. Es ist ein solides Wartungsupdate mit ein paar netten Verbesserungen, die den Alltag etwas angenehmer machen. Die Performance-Verbesserungen bei den Masken sind willkommen, das Assisted Culling wird langsam brauchbar, und die Firefly-Integration zeigt, wohin Adobe mit Lightroom langfristig will.

Was mich interessiert: Wie weit wird Adobe die KI-Integration in Lightroom treiben? Werden wir irgendwann prompt-basiert entwickeln? Werden lokale Korrekturen vollautomatisch? Wird die RAW-Entwicklung selbst KI-gesteuert?

Ich glaube, ja. Früher oder später. Die Frage ist nur, ob das ein Segen wird oder ob wir am Ende alle den gleichen KI-optimierten Look haben und niemand mehr weiß, warum seine Bilder aussehen wie die von allen anderen.

Aber das ist ein Thema für einen anderen Blogpost.

Für heute gilt: Update installieren, Assisted Culling ausprobieren, Masken testen, und dann wieder an die eigentliche Arbeit. Bilder machen, die gut sind. Mit oder ohne KI.

Die Community-Diskussion zum Update findet ihr wie gesagt hier: Reddit – What’s new in Lightroom February 2026


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Meinung sind meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil Ehrlichkeit dazugehört.



Es gibt Momente, da muss man einfach dankbar sein. Dankbar dafür, dass ein Weltkonzern wie Adobe sich Gedanken macht. Gedanken darüber, wie man den Alltag von Millionen Menschen leichter machen kann. Und neulich haben sie wirklich geliefert.

Sie haben eine Browser-Erweiterung für Acrobat rausgebracht.

Klingt erstmal so spannend wie Steuererklärung am Sonntagnachmittag. Wer braucht schon eine Acrobat-Erweiterung im Browser? PDFs angucken kann man auch so. Aber halt! In diesem kleinen, unscheinbaren Tool steckt eine Revolution. Eine Funktion, auf die die Welt gewartet hat, ohne es zu wissen.

Ein Rechtsklick auf irgendein Bild im Internet – egal welches, egal woher – und zack: Es landet in einer Web-Version von Adobe Express. Und dort, meine Damen und Herren, gibt es einen magischen Radierer.

Wofür man den braucht? Na klar, um störende Elemente zu entfernen. Stromleitungen aus schönen Landschaften. Pickel aus schönen Gesichtern. Touristen vor dem Eiffelturm. Und – ganz wichtig, quasi als Sahnehäubchen der digitalen Freiheit – Wasserzeichen aus urheberrechtlich geschützten Bildern.

Endlich!

Man muss sich das mal vorstellen: Jahrelang war das Klauen von Bildern mühsam. Richtig harte Arbeit. Man musste Photoshop lernen (teuer!), den Kopierstempel verstehen (kompliziert!) und Geduld haben (langweilig!). Man musste wissen, was eine Bereichsreparatur ist. Man musste zoomen. Man musste Pixel schubsen. Profis haben das natürlich hinbekommen, die haben ihre Tricks und Kniffe. Aber was war mit dem Rest der Welt? Was war mit dem Schüler, der das Foto für sein Referat brauchte und kein Taschengeld für Stockfotos hatte? Was mit dem Marketing-Praktikanten, der den Auftrag bekam „Mach mal schnell was Schönes für Social Media“, aber kein Budget? Die mussten bisher mit hässlichen Wasserzeichen leben oder – Gott bewahre – tatsächlich für Bilder bezahlen.

Das war ungerecht. Das war elitär. Das war eine Hürde, die Adobe nun mit einem eleganten Schwung beseitigt hat.

Adobe hat dieses Unrecht quasi demokratisiert. Mit einem Klick ist das Wasserzeichen weg. Kostenlos. Für jeden, der Chrome installiert hat. Das ist Fortschritt! Das ist Barrierefreiheit! Das ist, als würde man jedem Bürger einen Universalschlüssel für alle Autos in der Stadt schenken, damit niemand mehr zu Fuß gehen muss.

Natürlich gab es ein bisschen Gemecker. Von Fotografen, Illustratoren und anderen Leuten, die komischerweise der Meinung sind, ihre Arbeit sei etwas wert. Die haben sich beschwert, dass Adobe ihnen quasi den Laden ausräumt und die Tür offen stehen lässt. Dass ihre Bilder jetzt Freiwild sind. Dass Adobe, der Partner der Kreativen (so nennen sie sich ja gerne), ihnen in den Rücken fällt.

Aber Adobe wäre nicht Adobe, wenn sie darauf nicht eine brillante Antwort hätten. Sie haben das Tool nicht etwa zurückgezogen. Nein. Sie haben ein Pop-up eingebaut.

Wenn man jetzt ein Bild lädt, kommt ein Fenster: „Achtung, dieses Bild könnte geschützt sein. Bitte frag den Besitzer.“

Das ist genial. Das ist juristische Akrobatik auf höchstem Niveau. Das ist wie ein Schild an einer offenen Banktresor-Tür: „Bitte kein Geld mitnehmen.“

Ich stelle mir vor, wie der Bilderdieb vor dem Bildschirm sitzt. Er hat den Rechtsklick gemacht. Er hat den Radierer ausgewählt. Er will das Wasserzeichen entfernen, weil er das Bild für seine Website braucht und keine Lust hat, 50 Euro dafür zu zahlen. Und dann kommt das Pop-up. Und er denkt: „Oh! Stimmt ja! Das darf ich nicht! Danke, Adobe, dass ihr mich daran erinnert habt. Ich werde jetzt sofort den Fotografen kontaktieren, eine Lizenz kaufen und das Bild legal erwerben.“

Ganz sicher. Genau so wird das ablaufen. In einer Welt voller Einhörner und Regenbögen.

In der echten Welt klickt er auf „Okay“, das Wasserzeichen ist weg, und das Bild ist seins.

Man muss Adobe wirklich bewundern. Sie schaffen den Spagat, uns Kreativen Tools zu verkaufen, mit denen wir unsere Arbeit schützen sollen (Content Credentials, Metadaten, der ganze High-Tech-Kram, den sie uns als die Zukunft des Urheberrechts verkaufen), und gleichzeitig der ganzen Welt Tools zu schenken, mit denen man diesen Schutz umgeht. Das ist Geschäftssinn. Das ist Synergie. Das ist, als würde man Alarmanlagen verkaufen und gleichzeitig Einbruchskurse an der Volkshochschule sponsern.

Und das Beste daran: Es ist alles legal. Oder zumindest in einer Grauzone, in der sich Adobe wohlfühlt. Denn sie stellen ja nur das Werkzeug zur Verfügung. Was der Nutzer damit macht, ist seine Sache. Wenn er damit Wasserzeichen entfernt, ist das böse, aber Adobe hat ja gewarnt. Mit dem Pop-up.

Es ist faszinierend zu beobachten, wie ein Unternehmen, das vom Verkauf von Kreativ-Tools lebt, gleichzeitig die Grundlage für den Wert kreativer Arbeit untergräbt. Wenn jedes Bild kopierbar, bearbeitbar und von Eigentumsmerkmalen befreibar ist – was ist es dann noch wert?

Vielleicht ist das der Plan. Vielleicht will Adobe eine Welt schaffen, in der Bilder keinen monetären Wert mehr haben, sondern nur noch Rohstoff sind. Rohstoff für KI-Modelle. Rohstoff für Memes. Rohstoff für den endlosen Stream an Content, der durch unsere Feeds rauscht.

Und wir Kreativen? Wir sind die Lieferanten dieses Rohstoffs. Wir produzieren, wir laden hoch, wir versehen unsere Werke mit Wasserzeichen in der naiven Hoffnung, dass das irgendwas bringt. Und Adobe gibt uns die Tools dazu. Und dann geben sie dem Rest der Welt die Tools, um unsere Arbeit zu nehmen.

Es ist ein perfekter Kreislauf. Ein Perpetuum Mobile der Entwertung.

Aber hey, wir sollten nicht jammern. Wir haben ja Photoshop. Wir haben Lightroom. Wir haben Premiere. Wir haben die besten Werkzeuge der Welt, um Dinge zu erschaffen, die dann jeder klauen kann. Ist das nicht schön?

Und wer weiß, vielleicht baut Adobe als nächstes ein Feature ein, das automatisch erkennt, wenn ein Bild geklaut wurde, und dem Dieb dann eine Rechnung schickt? Ach nein, das wäre ja schlecht für die User Experience. Das würde ja die 320 Millionen Chrome-Nutzer verärgern. Und die sind wichtiger als die paar Millionen Kreativen, die tatsächlich für Adobe-Software bezahlen.

Also: Danke, Adobe. Danke für den digitalen Bolzenschneider. Danke für das Pop-up, das unser Gewissen beruhigt. Und danke, dass ihr uns immer wieder daran erinnert, wer in dieser Beziehung eigentlich der Boss ist.

Wir sind es nicht.


Der technische Hintergrund des Wahnsinns

Lassen wir die Satire mal kurz beiseite (nur kurz, versprochen) und schauen uns an, was da technisch eigentlich passiert. Weil es wirklich beeindruckend ist, wie nahtlos das funktioniert.

Die Erweiterung klinkt sich in den Browser ein. Chrome, Edge, was auch immer. Sie scannt die Seite. Sie erkennt Bilder. Und sie bietet im Kontextmenü – also da, wo man normalerweise „Bild speichern unter“ oder „In neuem Tab öffnen“ findet – eine neue Option an: „In Adobe Express bearbeiten“.

Klingt harmlos. Klingt praktisch. „Oh, ich will dieses Meme kurz zuschneiden.“ „Ich will diesen Screenshot markieren.“ Dafür ist es gedacht. Sagt Adobe.

Aber die Realität ist: Adobe Express ist mittlerweile ein mächtiges Tool. Es hat Zugriff auf die Firefly-Engine, Adobes hauseigene KI. Und Firefly kann Dinge, die vor zwei Jahren noch Science-Fiction waren.

Generatives Füllen. Generatives Entfernen.

Das bedeutet: Wenn du ein Wasserzeichen hast, das quer über das Bild läuft, halbtransparent, über komplexe Hintergründe – früher war das ein Albtraum zu entfernen. Du musstest stempeln, du musstest Strukturen nachbauen, du musstest Licht und Schatten beachten.

Firefly macht das automatisch. Es guckt sich an, was um das Wasserzeichen herum ist, und berechnet, was darunter sein müsste. Es „halluziniert“ die fehlenden Pixel. Und es macht das verdammt gut.

In den meisten Fällen sieht man hinterher nichts mehr. Keine Kante, keine Unschärfe, keinen Wiederholungs-Effekt wie beim Stempeln. Das Wasserzeichen ist einfach weg. Als wäre es nie da gewesen.

Und das Ganze passiert im Browser. Ohne Installation von schwerer Software. Ohne Login in die Creative Cloud (zumindest für die Basisfunktionen). Ohne Abo.

Das ist die Demokratisierung der Bildmanipulation.

Und ja, das hat Vorteile. Für Otto Normalverbraucher, der schnell mal den Ex-Freund aus dem Urlaubsfoto entfernen will. Für die Oma, die den Daumen auf der Linse wegretuschieren möchte.

Aber für Profis? Für Leute, die von der Exklusivität ihrer Bilder leben?

Für die ist es eine Katastrophe.


Das Wasserzeichen: Ein Relikt aus alter Zeit?

Man muss natürlich fragen: Ist das Wasserzeichen überhaupt noch zeitgemäß?

Viele Fotografen verzichten schon lange darauf. Weil es das Bild hässlich macht. Weil es den Betrachter stört. Weil es – wie wir jetzt sehen – keinen echten Schutz bietet.

Aber es war immer ein Symbol. Ein „Finger weg“. Ein „Das gehört mir“.

Indem Adobe dieses Symbol so leicht entfernbar macht, entwerten sie es nicht nur technisch, sondern auch kulturell. Sie signalisieren: Wasserzeichen sind kein Schutz, sie sind ein Fehler im Bild. Ein Störfaktor. Etwas, das man wegmachen kann und soll.

Das verschiebt die Wahrnehmung.

Wenn ich ein Schloss knacke, weiß ich, dass ich einbreche. Wenn ich eine Tür öffne, die nur angelehnt ist, fühlt es sich weniger kriminell an. Adobe hat aus dem Schloss eine angelehnte Tür gemacht.

Und das Pop-up? Das ist der Zettel an der Tür: „Bitte draußen bleiben.“

Wir wissen alle, wie gut solche Zettel funktionieren, wenn drinnen Freibier steht.


Die Doppelmoral der „Creator Economy“

Adobe liebt das Wort „Creator“. Sie benutzen es in jedem zweiten Satz. „Empowering Creators“. „Tools for Creators“. „The Future of Creativity“.

Sie tun so, als wären sie unser bester Freund. Der Partner, der uns die Werkzeuge gibt, um unsere Träume zu verwirklichen.

Aber wenn es hart auf hart kommt – wenn es um Marktanteile geht, um User-Zahlen, um die Eroberung des Browsers – dann sind wir Creators plötzlich zweitrangig. Dann ist die Masse der Konsumenten (und potenziellen Express-Nutzer) wichtiger als die kleine Gruppe der Produzenten.

Das ist verständlich aus BWL-Sicht. 320 Millionen Browser-Nutzer sind ein riesiger Markt. Wenn man denen Adobe Express schmackhaft machen kann, ist das Milliarden wert.

Aber es ist unehrlich.

Man kann nicht auf der einen Seite den Beschützer der Kreativen spielen und auf der anderen Seite die Werkzeuge verteilen, die deren Arbeit entwerten.

Man kann nicht Content Credentials einführen – dieses hochkomplexe System aus kryptografischen Signaturen, das beweisen soll, wer ein Bild gemacht hat und was damit passiert ist – und gleichzeitig den Radiergummi für Wasserzeichen an jeden verschenken.

Das passt nicht zusammen.


Was das für die Zukunft bedeutet

Wenn wir das zu Ende denken, kommen wir an einen interessanten Punkt.

Wenn Bilder technisch nicht mehr geschützt werden können. Wenn jedes Wasserzeichen entfernbar ist. Wenn jede Metadaten-Signatur gestrippt werden kann (was übrigens auch geht, ganz einfach per Screenshot).

Was bleibt dann?

Dann bleibt nur noch Vertrauen. Und Beziehungen.

Vielleicht ist das die Zukunft der professionellen Fotografie und Illustration. Nicht mehr das Verkaufen von Dateien. Sondern das Verkaufen von Dienstleistung, von Persönlichkeit, von Zugang.

„Du kannst mein Bild klauen, ja. Aber du kannst nicht meine Erfahrung klauen. Du kannst nicht meinen Blick klauen. Du kannst nicht die Sicherheit klauen, dass du rechtlich auf der sicheren Seite bist.“

Vielleicht müssen wir uns darauf konzentrieren. Auf den Wert, der nicht in den Pixeln steckt, sondern im Kontext.

Aber das ist anstrengend. Das ist schwer. Das erfordert Marketing, Branding, Networking.

Das einfache „Ich mache ein Bild, lade es hoch, jemand kauft es“ – das stirbt gerade. Und Adobe hat den Spaten in der Hand.


Die Ironie mit der KI

Es gibt noch eine Ebene, die das Ganze besonders pikant macht.

Adobes KI Firefly wurde mit Bildern trainiert, für die Adobe die Rechte hat. Adobe Stock. Public Domain. Das betonen sie immer wieder. „Unsere KI ist ethisch sauber. Wir klauen nicht von Künstlern.“

Das ist ihr großes Verkaufsargument gegenüber Midjourney und Stable Diffusion, die einfach das ganze Internet gescraped haben.

Adobe sagt: „Wir respektieren Urheberrechte.“

Und dann geben sie uns ein Tool, mit dem wir Urheberrechte verletzen können.

Das ist, als würde ein Bio-Bauer, der stolz darauf ist, keine Pestizide zu verwenden, abends heimlich Glyphosat an seine Nachbarn verkaufen.

„Ja, ich benutze das nicht. Aber wenn ihr es wollt… hier, bitte schön. Aber pssst, lest den Warnhinweis auf der Flasche.“

Es wirkt so, als wüsste die linke Hand bei Adobe nicht, was die rechte tut. Oder als wäre es ihnen egal, solange beide Hände Geld einsammeln.

Die Abteilung für „Creator Trust“ baut Content Credentials.
Die Abteilung für „Growth & User Acquisition“ baut den Wasserzeichen-Radierer.

Und am Ende gewinnt immer Growth.


Ein kleiner Hoffnungsschimmer?

Gibt es Hoffnung? Vielleicht.

Vielleicht merken die Leute, dass geklaute Bilder Probleme machen können. Rechtlich (auch ohne Wasserzeichen ist das Urheberrecht ja gültig). Qualitativ (ein wegradiertes Wasserzeichen hinterlässt Spuren, auch mit KI). Moralisch.

Vielleicht entsteht eine Gegenbewegung. Eine Wertschätzung für das Original. Für das Echte. Für das, was bezahlt wurde.

Aber darauf würde ich nicht wetten.

Die Bequemlichkeit gewinnt meistens. „Kostenlos“ gewinnt meistens. „Einfach“ gewinnt meistens.

Und Adobe hat „kostenlos“ und „einfach“ gerade auf ein neues Level gehoben.


Was wir tun können (außer jammern)

Wir können unsere Bilder nicht mehr technisch schützen. Das ist vorbei. Akzeptieren wir das.

Wir können Adobe nicht ändern. Die sind zu groß, zu mächtig, zu sehr auf Wachstum fixiert.

Wir können nur uns selbst ändern.

Wir müssen aufhören, uns auf Wasserzeichen zu verlassen. Wir müssen aufhören, uns auf Plattformen zu verlassen, die uns nicht gehören.

Wir müssen unsere eigenen Plattformen bauen. Unsere eigenen Communities. Unsere eigenen Beziehungen zu Kunden.

Wir müssen so gut sein, dass die Leute uns bezahlen WOLLEN, auch wenn sie klauen KÖNNTEN.

Das ist schwer. Das ist unfair. Das ist viel verlangt.

Aber es ist die Realität.

Und Adobe? Die werden weiter Tools bauen. Gute Tools. Schlechte Tools. Tools, die uns helfen, und Tools, die uns schaden.

Wir müssen lernen, damit umzugehen. Ohne Illusionen. Ohne falsche Dankbarkeit.

Adobe ist nicht unser Freund. Adobe ist ein Werkzeughersteller.

Und wenn der Werkzeughersteller anfängt, Einbrecher-Tools zu verkaufen, dann sollten wir vielleicht anfangen, bessere Schlösser zu bauen. Oder uns einen Hund zulegen.

Oder einfach aufhören, wertvolle Dinge unbeaufsichtigt ins Internet zu stellen.

Was bei digitaler Kunst natürlich schwierig ist.


Fazit: Die schöne neue Welt

Willkommen in der Zukunft. Einer Zukunft, in der alles machbar ist, alles verfügbar ist und nichts mehr sicher ist.

Einer Zukunft, in der ein Wasserzeichen so viel Schutz bietet wie ein „Betreten verboten“-Schild auf einer Wiese. Man kann es ignorieren. Man kann drüberlaufen. Und jetzt kann man es sogar unsichtbar machen, damit man sich nicht mal mehr schlecht fühlt, wenn man drüberläuft.

Danke, Adobe.

Wirklich. Danke, dass ihr uns die Augen geöffnet habt.

Wir dachten, wir wären Partner.
Jetzt wissen wir, wir sind nur Content-Lieferanten.

Und das ist, auf eine bittere Art, auch eine wertvolle Erkenntnis.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – eingesprochen meistens, wenn ich mich über Branchen-News amüsiere (oder aufrege, je nach Tagesform). Wird transkribiert und mit KI in Form gebracht. Die Ironie, die Satire und die leise Resignation sind hundert Prozent handgemacht und kommen von einem, der seit 20 Jahren Adobe-Kunde ist und sich langsam fragt, wie lange noch.



Ich krieg diese Frage ständig. In Mails, in Kommentaren, nach Coachings, auf Events. Immer die gleiche Frage: „Brownz, ich will mit Bildbearbeitung anfangen, aber das Adobe-Abo ist mir zu teuer. Was soll ich nehmen?“ Oder die Variante: „Ich bin Hobbyfotograf, ich brauch nicht alles was Photoshop kann, gibt’s da was Günstigeres?“ Oder die dritte Version: „Ich bin Student, ich hab kein Geld, aber ich will lernen.“

Also gut. Dann reden wir drüber.

Vorweg: Ich selbst arbeite mit Adobe. Seit über zwanzig Jahren. Photoshop ist mein Hauptwerkzeug und wird es wahrscheinlich bleiben, weil mein kompletter Workflow darauf aufgebaut ist, weil meine Plugins dort laufen, weil ich das Programm im Schlaf bediene. Aber ich bin nicht blind. Es gibt heute Alternativen, die verdammt gut sind. Manche davon benutze ich selbst zusätzlich. Und für viele Leute – besonders für Einsteiger, Hobbyisten und Freelancer mit schmalem Budget – sind sie nicht nur ausreichend, sondern die bessere Wahl.

Hier ist mein ehrlicher Überblick. Programm für Programm. Was kann’s, was kann’s nicht, und für wen ist es was.


Statt Photoshop

Affinity Photo 2 – Mein Favorit. Wenn mich jemand fragt, welches Programm ich statt Photoshop empfehlen würde, ist die Antwort seit Jahren dieselbe: Affinity Photo. Das Ding kostet einmalig um die 75 Euro. Nicht pro Monat. Nicht pro Jahr. Einmal. Und dann gehört es dir. Und es ist nicht irgendein billiger Abklatsch. Es ist richtig, richtig gut. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Ebenen, Masken, Einstellungsebenen, non-destruktives Arbeiten – alles da. Die Werkzeuge sitzen, wo du sie erwartest, wenn du von Photoshop kommst. Die Performance ist oft sogar besser, weil das Programm schlanker ist. RAW-Entwicklung ist eingebaut. Frequenztrennung für Hautretusche geht. Panorama-Stitching, HDR-Merge, Focus Stacking – alles drin. Und das für 75 Euro. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Was fehlt? Die KI-Features, die Adobe gerade überall reinbaut. Generative Füllung, neuraler Filter, das ganze Zeug. Wenn du das brauchst, brauchst du Photoshop. Und die Content-Aware-Funktionen sind nicht ganz auf dem gleichen Level. Auch bei der PSD-Kompatibilität gibt es Grenzen. Einfache und mittlere Dateien öffnet Affinity problemlos. Bei sehr komplexen Sachen mit vielen Smartobjekten und verschachtelten Gruppen kann es hakeln. Und Plugins: Viele Photoshop-Plugins laufen nicht in Affinity.

Aber für die allermeisten Leute, die Bilder bearbeiten wollen – ob Fotos, Composings, Retuschen, Grafiken – reicht Affinity Photo locker aus. Mein ehrlicher Rat: Wenn du gerade anfängst oder wenn du nicht jeden Tag professionell in Photoshop arbeitest, kauf dir Affinity. Spar dir das Abo. Und wenn du irgendwann merkst, dass du tatsächlich Features brauchst, die nur Photoshop hat – wirklich brauchst, nicht nur glaubst zu brauchen – dann kannst du immer noch umsteigen. Für die meisten wird dieser Tag nie kommen.

GIMP – Kostenlos, aber mit Haken. GIMP muss ich erwähnen, weil es kostenlos ist und weil es seit Jahrzehnten existiert. Open Source, verfügbar für Windows, Mac und Linux. Aber ich sag dir ehrlich: Ich empfehle es ungern. Nicht weil es technisch schlecht wäre. Es kann erstaunlich viel. Aber die Benutzeroberfläche ist auch 2026 noch so, dass man Kopfschmerzen bekommt. Die Werkzeuge heißen anders, sie liegen anders, sie verhalten sich anders. Wer von Photoshop kommt, fühlt sich wie in einem Paralleluniversum. Für Leute mit null Budget und viel Geduld: Ja, GIMP ist eine Option. Für alle anderen: Affinity Photo kostet 75 Euro. Das ist eine Pizza pro Monat für ein halbes Jahr. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Photopea – Der Geheimtipp. Den kennt fast niemand, und das ist schade. Photopea ist ein Bildbearbeitungsprogramm, das komplett im Browser läuft. Kein Download, keine Installation. Du gehst auf photopea.com und hast ein Programm vor dir, das verdammt nah an Photoshop dran ist. Ebenen, Masken, Filter, PSD-Kompatibilität – im Browser. Kostenlos mit Werbung, oder ohne Werbung für ein paar Euro im Monat. Ersetzt das Photoshop? Nein. Für ernsthafte Arbeit fehlt die Performance und das Farbmanagement. Aber für schnelle Sachen zwischendurch, für die Bearbeitung auf einem fremden Rechner, fürs Reinschnuppern? Photopea ist ein kleines Wunder.


Statt Lightroom

Capture One – Das Profi-Werkzeug. Capture One ist nicht billig, das sag ich gleich vorweg. Es kostet mehr als das Lightroom-Abo, ob als Einmalkauf oder als Abo. Aber es ist besser. Zumindest in dem, worauf es ankommt. Die Farbbearbeitung ist Lightroom haushoch überlegen. Wenn du Hauttöne bearbeitest und willst, dass sie natürlich bleiben, während du den Hintergrund komplett umfärbst – Capture One macht das, ohne dass alles auseinanderfällt. Die lokalen Anpassungen sind mächtiger, die Masken präziser, die ganze Art, wie das Programm mit RAW-Dateien umgeht, fühlt sich kontrollierter an.

Ich benutze Capture One selbst, zusätzlich zu Adobe, für bestimmte Projekte. Besonders bei Porträts und bei Arbeiten, wo Farbe wirklich stimmen muss. Die Lernkurve ist da. Wer von Lightroom kommt, muss sich umgewöhnen. Aber wer sich die Zeit nimmt, wird belohnt. Für Fotografen, die RAW-Entwicklung ernst nehmen und bereit sind, in ein Premium-Werkzeug zu investieren: die beste Wahl.

darktable – Die Open-Source-Variante. darktable ist das kostenlose Lightroom. Open Source, läuft auf allem, wird ständig weiterentwickelt. Die RAW-Entwicklung ist in den letzten Jahren richtig gut geworden. Aber die Oberfläche ist… funktional. Es gibt Module, Sub-Module, verschiedene Workflows, und das Ganze wirkt, als hätten zehn verschiedene Programmierer ihre jeweilige Lieblingslogik eingebaut, ohne sich vorher abzusprechen. Für technikaffine Leute mit Geduld und Experimentierlust: großartige Alternative. Für alle anderen: Capture One oder Affinity sind freundlicher.

Luminar Neo – Der KI-Weg. Luminar Neo von Skylum geht einen komplett anderen Weg. Statt dir hundert Regler hinzustellen, macht es vieles automatisch. Himmel austauschen, Hauttöne verbessern, Licht nachträglich ändern – ein Klick, fertig. Die Ergebnisse sind oft verblüffend gut. Das Problem: Wenn du genau weißt, was du willst, und die KI was anderes vorschlägt, hast du wenig Möglichkeiten. Die manuellen Werkzeuge sind begrenzt. Ich benutze Luminar manchmal für schnelle Looks, zum Ausprobieren. Für ernsthafte Arbeit fehlt mir die Feinsteuerung. Für Hobbyfotografen, die schnelle gute Ergebnisse wollen: interessant.


Statt Illustrator

Affinity Designer 2. Gleiche Geschichte wie bei Affinity Photo: einmal kaufen, für immer benutzen. Und richtig gut. Vektorgrafik, Typografie, Icon-Design, Illustrationen – alles da. Die Oberfläche ist aufgeräumt und durchdacht. Der besondere Trick: Du kannst nahtlos zwischen Vektor- und Pixelmodus wechseln. In einem Programm. Das kann Illustrator nicht, und es ist unfassbar praktisch. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Wo es an Grenzen stößt: Bei der Kompatibilität mit dem AI-Format. Wenn du Dateien mit Agenturen oder Druckereien austauschen musst, die Illustrator-Dateien erwarten, kann das schwierig werden. Und manche Spezialfunktionen in Illustrator sind nach wie vor mächtiger. Für eigene Projekte, für Freelancer, für alle, die nicht in einem Illustrator-Workflow stecken: Top.

Inkscape – Kostenlos und ehrlich. Open Source, kostenlos, und für Vektorgrafik überraschend brauchbar. Die Oberfläche ist nicht hübsch, ist sie wirklich nicht, aber die Werkzeuge funktionieren. Für Logos, Icons, SVG-Grafiken fürs Web: Inkscape macht seinen Job. Für Leute mit null Budget, die Vektorgrafik brauchen.


Statt InDesign

Affinity Publisher 2. Der dritte im Affinity-Bunde. Magazine, Bücher, Broschüren, Flyer – alles machbar. Musterseiten, Textumfluss, Farbmanagement, PDF-Export in Druckqualität – alles da. Der größte Vorteil: Die drei Affinity-Programme arbeiten nahtlos zusammen. Du bist in Publisher, klickst auf ein Bild, und bist sofort im Photo-Modus. Ohne Export, ohne Dateiwechsel. Das ist elegant gelöst und das kann InDesign so nicht. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Der Nachteil: Keine InDesign-Kompatibilität. IDML-Dateien kann Publisher nicht öffnen. Wenn du mit Leuten zusammenarbeitest, die InDesign nutzen, wird der Dateiaustausch schwierig. Für eigene Projekte, Self-Publishing, alles wo du die Kontrolle hast: wunderbar. Für bestehende InDesign-Workflows: problematisch.

Scribus – Open Source DTP. Kostenlos und erstaunlich fähig für professionelles Desktop Publishing. CMYK, PDF/X-Export, alles was die Druckerei braucht. Aber die Bedienung ist von gestern. InDesign und Affinity Publisher sind Welten komfortabler. Für Leute mit null Budget, die ein Buch setzen wollen: geht. Für alle anderen: Affinity Publisher.


Statt Premiere Pro

DaVinci Resolve – Mein absoluter Favorit. Wenn es eine Alternative gibt, die ich ohne jeden Vorbehalt empfehle, dann ist es DaVinci Resolve. Kostenlos. Richtig kostenlos. Kein Trick, keine Einschränkung, die dich zum Upgrade zwingt. Die Studio-Version kostet einmalig um die 300 Euro, aber die kostenlose Version reicht für fast alles.

Schnitt, Farbkorrektur, Audio-Bearbeitung, Visual Effects – alles in einem Programm. Und die Farbkorrektur ist nicht nur gut – sie ist die beste auf dem Markt. Hollywood-Produktionen werden in Resolve gegradet. Die Lernkurve ist steil, Resolve ist ein Profi-Werkzeug und sieht auch so aus. Aber wenn du die ersten Hürden genommen hast, willst du nicht mehr zurück. Ich benutze Resolve selbst für meine Video-Projekte, neben Adobe, weil es in manchen Bereichen einfach besser ist.

CapCut – Für Social Media. Wenn du hauptsächlich Reels, TikToks und YouTube-Shorts schneidest, ist CapCut dein Programm. Kostenlos, einfach, mit KI-Features die überraschend gut funktionieren. Kein Premiere-Ersatz, nicht mal annähernd. Aber für Social-Media-Content brauchst du kein Premiere.


Statt After Effects

Hier wird’s dünn. Das muss ich ehrlich sagen. After Effects hat in seinem Bereich nach wie vor wenig ernsthafte Konkurrenz. Blackmagic Fusion, in DaVinci Resolve integriert, kann Compositing und VFX auf hohem Niveau, ist aber node-basiert statt ebenenbasiert, was eine komplett andere Denkweise erfordert. HitFilm ist für Einsteiger interessant, kostenlos in der Basis, mit kostenpflichtigen Erweiterungen. Kein After-Effects-Ersatz, aber ein guter Einstieg. Wenn du wirklich professionelle Motion Graphics brauchst, kommst du an After Effects aktuell schwer vorbei. Das ist die eine Stelle, wo Adobe noch relativ konkurrenzlos ist.


Die Affinity-Suite als Gesamtpaket

Wenn ich einen Schritt zurücktrete und mir das Gesamtbild anschaue, dann ist die Affinity-Suite die stärkste Alternative zum Adobe-Ökosystem. Photo + Designer + Publisher. Drei Programme, einmal kaufen. Die arbeiten nahtlos zusammen. Du kannst innerhalb von Publisher in den Photo- oder Designer-Modus wechseln, ohne das Programm zu verlassen. Das Gesamtpaket kostet weniger als ein einziges Jahr Adobe-Abo. Und es gehört dir. Für Fotografen, Designer, Illustratoren, Layouter, Freelancer – die Affinity-Suite ist der beste Einstieg in professionelle Kreativarbeit, den es gibt. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/


Mein Setup – Falls es jemanden interessiert

Photoshop bleibt mein Hauptwerkzeug, daran ändert sich nichts. Capture One für RAW-Entwicklung, weil es Farben besser kann als Lightroom. DaVinci Resolve für Video, weil es kostenlos ist und die Farbkorrektur unerreicht. Affinity Photo als Ergänzung für bestimmte Aufgaben. Blender für 3D, kostenlos und unfassbar mächtig. Ich bin nicht weg von Adobe. Aber ich bin breiter aufgestellt. Und das fühlt sich richtig an.


Am Ende

Die Frage ist nicht: Adobe oder nichts? Die Frage ist: Was brauchst du wirklich? Wenn du anfängst, wenn du lernst, wenn du mit kleinem Budget arbeitest – du brauchst kein Adobe-Abo. Du brauchst gute Werkzeuge, die du dir leisten kannst. Und die gibt es. Heute mehr denn je. Probier sie aus. Entscheide selbst. Und lass dir von niemandem einreden, dass gute Kreativarbeit nur mit bestimmter Software möglich ist. Das Werkzeug macht nicht den Künstler. Der Künstler macht das Werkzeug.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Es gibt Leute, die reden über Kreativität. Und es gibt Leute, die machen einfach. Seit Jahrzehnten. Ohne zu fragen, ob das gerade Trend ist.

Ich gehöre zur zweiten Kategorie.

Mein Name ist Peter Braunschmid. Die meisten kennen mich als Brownz. Und wenn ich heute zurückschaue auf das, was ich in den letzten vierzig Jahren gemacht habe, dann sieht das auf keinen Fall aus wie ein sauber ausgedruckter Business-Plan. Kein „Jahr 1 Ausbildung, Jahr 3 Praktikum, Jahr 10 Abteilungsleiter.“ Nichts davon.

Es sieht eher aus wie ein Bild, das hundertmal übermalt wurde. Jede Schicht ein Risiko. Jede Schicht eine Entscheidung. Und manche Schichten, die man erst versteht, wenn man weiter draufgemalt hat.

Das ist keine Entschuldigung. Das ist Methode.

Meine Laufbahn ist kein gerader Weg. Sie ist ein Composing. Mit Schnittkanten, Masken, Texturen – und der Fähigkeit, aus Fehlern Stil zu machen. Genau das, was ich seit Jahrzehnten mit Bildern mache, hab ich auch mit meinem Leben gemacht. Manchmal bewusst, manchmal nicht. Aber immer weiter.


1984. Ein Commodore 64. Und keine Ahnung, dass das eine Karriere wird.

Ich fange ganz vorne an.

  1. Ich bin jung, ich bin in Österreich, und ich sitze vor einem Commodore 64. Nach heutigen Maßstäben wäre das nicht mal ein ordentlicher Taschenrechner. Die Farbpalette ist ein schlechter Witz. Die Auflösung ist eine Beleidigung für jeden modernen Bildschirm. Die Disketten haben gerade genug Platz, dass man nachdenken muss, ob sich die Datei lohnt.

Und ich finde das großartig.

Nicht weil ich damals wusste, was daraus wird. Sondern weil mich das Ding fasziniert hat. Weil ich sehen wollte, was möglich ist. Weil es so etwas wie ein digitales Spielfeld war, das es vorher nicht gab.

Was ich in dieser Phase gelernt habe, ist etwas, das ich seitdem nie vergessen habe: Wer in einer begrenzten Umgebung arbeitet, entwickelt keine Angst vor Einschränkungen. Er lernt, sie zu nutzen. Wenn du keine Ebenen hast, baust du Ebenen im Kopf. Wenn du keine perfekten Verläufe hast, erfindest du sie mit Trick und Geduld. Wenn das Ergebnis nicht so aussieht wie der Traum – machst du trotzdem weiter.

Das klingt romantisch, ist aber schlicht Training. Und es erzeugt eine besondere Art von Stolz: nicht auf das Tool, sondern auf das Ergebnis trotz Tool.

Das ist die erste Lektion meiner Biografie. Und ich glaube, sie ist heute relevanter denn je. Weil die Leute gerade alle Werkzeuge haben, die ich mir damals nicht mal vorstellen konnte – und trotzdem oft ratlos vor dem leeren Bildschirm sitzen.


Die Szene, die niemand kannte – und die trotzdem meine erste Kreativschule war

Dann kam der Amiga.

Und mit ihm eine Welt, die heute kaum noch jemand kennt. Die Demo- und Cracking-Szene der späten 80er und frühen 90er war so etwas wie das erste Internet der Kreativen. Kein Algorithmus, keine Follower, keine Likes. Nur eine einzige Frage: Kannst du was liefern?

Ich konnte.

Ich habe in dieser Zeit digitale Bilder verkauft. An Intro- und Cracking-Gruppen, die meine Grafiken als visuelle Identität genutzt haben. Als Schaufenster. Als Erkennungszeichen. Als das, was man heute mit viel Business-Sprache „Branding“ nennen würde.

Das war Jugendkultur, ja. Aber es war auch frühe Kreativökonomie. In dieser Subkultur war Look Währung. Wer liefern konnte, gehörte dazu. Wer nicht liefern konnte, nicht.

Es gab keinen Business-Coach, der mir erklärt hätte, wie das funktioniert. Es gab keinen Algorithmus, der mir gesagt hätte, was gerade gut ankommt. Es gab nur: Auge, Szene, Anerkennung. Oder eben nicht.

Rückblickend war das meine erste kreative Schule. Nicht im romantischen Sinn, sondern im harten Sinn: Du wirst bewertet. Deine Arbeit zählt. Und wenn sie nicht zählt, weißt du es sofort.

Dann kam die Amiga-Zeit mit Spielegrafiken, mit Experimenten, mit Projekten, die nicht immer fertig wurden. Das sage ich bewusst so. Nicht alle Projekte wurden fertig. Ich hab das früher vielleicht als Schwäche gesehen. Heute sehe ich es anders.

„Nicht fertig werden“ ist oft Forschung. Du gehst rein, du lernst, du nimmst das Material mit. Und manchmal baust du Jahre später aus diesem unfertigen Material etwas, das du vorher nicht hättest bauen können.


Der Wechsel: Von der Chemie in die Bilderwelt

Jetzt kommt der Teil meiner Geschichte, über den ich manchmal schmunzeln muss.

Ich bin ausgebildeter Chemielaborant.

Ja, wirklich.

Und dann habe ich 1997 den Schritt gemacht, der alles verändert hat. Ich bin in die Film- und Agenturwelt gewechselt. Montevideo-Film, Monte-Projects, Event- und Werbeagenturarbeit, Museumsprojekte.

Das Jahr 1997 steht deshalb auf meinem Blog als Zeitstempel: „Fine Digital Art since 1997.“ Das ist kein nostalgischer Slogan. Das ist eine Ortsangabe. Eine Markierung, die sagt: Hier hat sich was entschieden.

1997 war „digital“ noch nicht bequem. Photoshop war in Österreich mehr Mythos als Alltag. Es gab kein YouTube mit Tutorials, kein Reddit mit Tipps, kein Instagram mit Inspiration auf Abruf. Wenn du nicht wusstest, wie was ging, musstest du es rausfinden. Durch Ausprobieren. Durch Scheitern. Durch Weitermachen.

Und die Agenturen haben mir das auf ihre eigene, manchmal brutale Art beigebracht.

Weil Agenturarbeit das größte Missverständnis über Kreativität zerstört: dass Ideen das Problem seien.

Ideen sind billig. Umsetzung ist teuer.

Umsetzung bedeutet: saubere Kanten, stimmige Lichtlogik, konsistente Farben, glaubwürdige Perspektiven. Es bedeutet, dass das Bild nicht nur im Kopf funktioniert, sondern auch im Druck, im Banner, im Museumssaal, in der Präsentation vor Menschen, die nicht fragen, wie schön dein Prozess war, sondern ob es „passt.“

Der Kunde will das morgen früh. Das Licht stimmt nicht. Die Perspektive passt nicht. Der Hintergrund ist falsch. Und du löst es trotzdem.

Wer solche Jahre überlebt, hat ein anderes Verhältnis zum Wort „Look.“ Look ist dann nicht Geschmack, sondern eine Reihe von Entscheidungen unter Druck.

Das war meine eigentliche Ausbildung. Nicht der Lehrplan, nicht die Schule, nicht die Zertifikate. Sondern diese Jahre in Agenturen, wo jemand auf dich zeigt und sagt: Ich brauch das bis morgen.

Und du lieferst.


Die Community-Zeit: Bevor irgendjemand Likes kannte

Anfang der 2000er passiert etwas Seltsames.

Menschen fangen an, Bilder ins Internet zu stellen. Ohne zu wissen, was das bedeutet. Ohne Plan, ohne Strategie, ohne Social-Media-Manager im Hintergrund.

Ich bin dabei. Auf U-Boot – für alle, die den Namen nicht kennen: eine Plattform, die von 1999 bis 2013 existiert hat und zwischenzeitlich Millionen registrierter Nutzer im deutschsprachigen Raum hatte. Profile, Gästebücher, Bildalben, Foren. Heute klingt das wie Archäologie. Damals war es revolutionär.

Und diese Zeit hat mich geprägt auf eine Art, die ich damals nicht mal benennen konnte.

In dieser Community habe ich begriffen, dass Wissen keine Einbahnstraße ist. Dass wenn du zeigst, wie du was machst, das nicht dein Können schmälert. Sondern vermehrt.

Die Leute wollten wissen: Welche Ebenen? Welche Maske? Wie hast du das gemacht? Welche Technik steckt dahinter?

Und ich habe geantwortet. Immer. Weil ich selbst so angefangen habe – von anderen zu lernen, Sachen nachzumachen, zu verstehen, bevor ich es selbst gemacht habe.

Das ist der Ursprung von allem, was später kommt. Das Teilen von Wissen ist nicht Altruismus bei mir. Es ist Überzeugung. Wer sein Handwerk wirklich beherrscht, hat keine Angst davor, es zu zeigen. Im Gegenteil.

Und in dieser Phase entstehen auch die ersten richtigen Gemeinschaften. Nicht im Social-Media-Sinn. Sondern im echten Sinn: Menschen, die zusammen etwas entwickeln. Zusammen besser werden. Zusammen eine Ästhetik schaffen.

Das waren die Vorfahren heutiger Creator-Communities. Nur ohne den Business-Layer drüber.


Photoshop, CorelDRAW und die Frage, welches Werkzeug das richtige ist

Mit dem PC verschiebt sich meine Geschichte von Szene zu Beruf. CorelDRAW ist eine Zwischenstation. Dann kommt Photoshop.

Und Photoshop bleibt.

Nicht weil ich keinen anderen gewählt hätte. Sondern weil Photoshop in dieser Zeit das war, was ich brauchte: ein Werkzeug, das mit meiner Denkweise übereinstimmt. Ebenen, Masken, Blendmodi, Schichten. Ich denke in Schichten. Ich habe immer in Schichten gedacht, auch bevor es Photoshop gab. Der Commodore 64 hat mich gelehrt, Ebenen im Kopf zu bauen. Photoshop hat mir gezeigt, dass man das auch auf dem Bildschirm machen kann.

Das klingt simpel. Aber es ist eigentlich alles.

Wer Photoshop wirklich versteht, versteht es nicht als Programm. Er versteht es als Denkmodell. Als eine Art, Probleme zu lösen. Als eine Sprache, in der man visuelle Behauptungen formuliert.

Und ich formuliere seitdem täglich in dieser Sprache.


Vom Forum zur DVD: Als Content noch auf Plastik gebrannt wurde

Um 2005, 2006 beginne ich, Videotrainings ernst zu nehmen.

Nicht weil jemand gesagt hat, dass das eine gute Idee ist. Sondern weil die Fragen aus der Community nicht weniger werden. Weil das Bedürfnis nach strukturiertem Wissen wächst. Weil ich merke, dass ein Forum-Post nicht ausreicht, um wirklich zu erklären, wie etwas funktioniert.

2013 erscheint dann das erste große Video-Training unter dem Label Galileo Press: „Faszinierende Photoshop-Welten mit Peter Brownz Braunschmid.“ DVD-ROM, Komplettworkshop, alles auf einem Datenträger.

Das klingt heute nach Archäologie. DVD-ROM. Ich weiß.

Aber die DVD-Ära hat mich etwas gelehrt, das ich nicht missen möchte: Sie hat mich gezwungen, Dinge zu Ende zu denken.

Wenn du ein Training auf Datenträger veröffentlichst, kannst du nicht am nächsten Tag einen Patch nachliefern. Kein Update, kein „in der nächsten Version erklären wir das besser.“ Du musst Inhalte so bauen, dass sie ohne Kontext bestehen. Dass jemand die Scheibe einlegt, alleine zu Hause sitzt, und trotzdem versteht.

Das ist didaktisches Handwerk. Und didaktisches Handwerk ist verwandt mit Bildhandwerk.

Beides ist Struktur. Beides ist die Fähigkeit, Komplexität so zu organisieren, dass jemand anderes sie benutzen kann. Beides verlangt, dass du weißt, was wichtig ist und was nicht. Dass du Prioritäten setzt. Dass du weglässt, was ablenkt.

Wer das kann, kann auch Bilder machen. Und wer Bilder machen kann, kann das meistens auch erklären.


DOCMA und die Fachmedien: Eine lange Zusammenarbeit

Parallel dazu entstehen die Artikel. In DOCMA, der wichtigsten deutschsprachigen Fachzeitschrift für digitale Bildbearbeitung. In DigitalPHOTO. In Photoshop-Magazinen bei falkemedia.

DOCMA ist für mich mehr als ein Publikationsort. Es ist eine Verbindung zur Gemeinschaft der Menschen, die das, was ich mache, wirklich verstehen. Die nicht fragen, ob das „KI“ ist oder „echte Kunst“, weil sie wissen, dass diese Frage die falsche ist.

Mein Porträt-Workflow wird in DOCMA auf drei Grundschritte heruntergebrochen: Raw-Entwicklung, Textur-Überlagerung, Detailverstärkung. Dazu kommen Downloadpakete mit Presets, Texturen, Videos. Ganze Heftausgaben tragen meinen Workflow als Titelthema.

In DOCMA 98 erscheint „Brownz‘ Porträt-Workflow.“ In DOCMA 99 die „Brownz-Vorgaben.“ In DOCMA 100 gibt es dann einen Blick zurück – mit einem augenzwinkernden Verweis auf „100 Jahre Brownz-Art.“

Das ist kein Jubiläumswitz. Das ist eine Anerkennung, die ich nicht als selbstverständlich nehme. Brownz ist in dieser Szene nicht Gast. Er ist Bestandteil. Das stimmt, und das bedeutet mir was.

In DOCMA werden außerdem „Brownz-Vorgaben“ und Workflows dokumentiert, teils als Gratis-Inhalte, teils als Premium-Pakete. Das ist die Fortsetzung dessen, was in den Community-Foren begann: Wissen in Umlauf bringen. Nicht als Marketing, sondern als Haltung.

In DigitalPHOTO erscheint am 18. November 2016 ein Artikel von mir: „So erstellen Sie ein surreales Fantasy Composing.“ Ich beschreibe darin sehr konkret meine Vorgehensweise. Inspiration sammeln – ein Ordner als Ideenfundus. Austausch mit dem Model, weil das Bild ohne diesen Dialog nicht funktioniert. Shooting in zwei Teilen, weil ich Model und andere Elemente getrennt fotografiere und getrennte Elemente später mehr Freiheit geben. Fotografieren vor grauem Hintergrund, damit das Freistellen sauber wird.

Das klingt nicht glamourös. Soll es auch nicht. Das ist Produktionsrealität. Und wer meine Arbeit verstehen will, muss verstehen, dass bei mir Planung und Ausführung zusammengehören. Das Bild fängt nicht in Photoshop an. Es fängt mit einem Ordner voller Inspiration und einem Gespräch mit dem Model an.

In der falkemedia-Photoshop-Ausgabe 04/2013 gibt es einen Making-of-Workshop zu einem „Photoshop-Wolpertinger“ – eine Montage aus zwei Tierfotos als Einstieg in Ebenen und Masken. Was lustig klingt, ist eigentlich der Kern meines Ansatzes: Ich nehme zwei Dinge, die nicht zusammengehören, und mache sie so glaubwürdig, dass dein Gehirn kurz Ja sagt. Das ist Compositing. Das ist das Handwerk hinter den Bildern.


Wie ein Brownz-Bild wirklich entsteht

Ich möchte an dieser Stelle kurz innehalten und erklären, wie mein Workflow wirklich aussieht. Nicht als Geheimnistuerei, sondern weil ich glaube, dass das Verstehen des Prozesses genauso wichtig ist wie das Ergebnis.

Es fängt mit Sammeln an.

Immer.

Ich habe Ordner mit Inspirationsbildern. Nicht weil ich keine eigenen Ideen hätte, sondern weil Kombinieren die Grundgeste von Kreativität ist. Wer einen Fundus hat, ist nicht mehr abhängig vom Moment. Er kann kombinieren, schichten, übersetzen. Das ist keine Schwäche. Das ist Methode.

Dann kommt der Dialog. Mit dem Model, mit dem Motiv, mit der Idee. Ich habe das in DigitalPHOTO geschrieben und ich sage es hier nochmal: Der Austausch ist wichtig. Nur so kann das Bild funktionieren. Eine Pose, die das Model nicht trägt, trägt auch das Bild nicht. Eine Stimmung, die nicht verhandelt wurde, wirkt im Bild aufgesetzt. Ich nehme mir diese Zeit. Immer.

Dann das Shooting. Meistens getrennte Elemente. Model hier, weiteres Material da, beides vor grauem Hintergrund, damit das Freistellen sauber wird. Das klingt unromantisch – und das ist es auch. Es ist Investition in spätere Freiheit. Wer jetzt sauber arbeitet, kann später alles machen. Wer jetzt schludert, kämpft nachher mit jeder Maske.

Danach erzeuge ich nicht eine Raw-Entwicklung, sondern mehrere. Verschiedene Stimmungen, verschiedene Klimata, verschiedene Richtungen. Und dann schichte ich sie. Ebenen, Blendmodi, Masken. Das ist nicht „einen Look anwenden.“ Das ist Regie. Das ist das Entscheiden, was im Bild wichtig sein darf und was nicht.

Dann Textur. Bei mir ist Textur keine Dekoration. Sie ist Atmosphäre. Sie ist die unsichtbare Schicht, die ein Bild von „clean“ zu „lebt“ kippt. Eine gute Textur macht ein Bild nicht komplizierter. Sie macht es echter.

Dann Detailverstärkung. Mikrokontrast, lokale Schärfe, Akzente da, wo das Auge hingehen soll. Das ist die Phase, in der das Bild aufwacht.

Und dann die entscheidende Frage, die ich mir bei jedem Bild stelle: Stimmt die Physik?

Passt das Licht? Kommen die Schatten von der richtigen Seite? Ist die Perspektive glaubwürdig? Funktioniert das Bild, wenn man es sich vorstellt, als wäre es eine Fotografie?

Diese Frage ist der Kern. Wer sie nicht stellt, baut Effekte. Ich baue Bilder.


Synthografie: Was das Wort bedeutet und warum ich es brauche

Irgendwann brauchte ich ein Wort für das, was ich mache.

Nicht „Fotomontage“ – zu eng. Nicht „digitale Kunst“ – zu weit. Nicht „KI-Kunst“ – komplett falsch.

Synthografie.

Hybrid aus Fotografie, Malerei, digitalen Tools, KI-Komponenten und Photoshop-Kontrolle. Ein Begriff, der sagt: Das hier ist eine Synthese. Nicht eine Sache, sondern viele Dinge zusammen, die erst gemeinsam das werden, was sie sein sollen.

Auf Threads beschreibe ich mich so: „Photoshop & Synthography. DigiArt. DarkArt. Der aus der DOCMA.“

Das ist ein kurzer Satz. Aber er enthält alles: Technik, Verfahren, Genre, Reputation.

Ich verwende KI als Schicht, nicht als Ersatz. Ich nutze generative Tools da, wo sie helfen – und behalte die Kontrolle da, wo sie entscheidet. Der Output interessiert mich nur, wenn er Entscheidungen trägt. Wenn ich sehen kann, dass da jemand – ich – etwas gewollt hat.

Das unterscheidet Synthografie von dem, was viele „KI-Kunst“ nennen.

KI-Kunst ist oft: Prompt rein, Bild raus, posten.

Synthografie ist: Konzept, Dialog, Shooting, Rohmaterial, Entwicklung, Schichtung, Textur, Kontrolle, Verfeinerung, Entscheidung.

Der Unterschied ist nicht das Tool. Der Unterschied ist der Anspruch.

Und in einer Zeit, in der jeder ein Bild generieren kann, ist dieser Anspruch das, was zählt.


Physische Werke in einer digitalen Welt: Warum ich Unikate baue

Jetzt wird es für manche vielleicht überraschend.

Ich, der Mann, der seit 1984 digital arbeitet, der Photoshop kennt wie seine Hosentasche, der KI-Tools einsetzt bevor die meisten wussten, wie man das buchstabiert – ich verkaufe meine Arbeiten als physische Unikate.

Auf brownzart.com sind die Werke keine digitalen Dateien. Sie sind Objekte. Synthografie-Basis, aus Handzeichnungen und Foto-Inputs entwickelt, anschließend mit Acryl veredelt. Fine-Art-Print auf William Turner Büttenpapier. Meistens 60 x 90 cm. Handsigniert. Mit Echtheitszertifikat.

Und dann dieser Satz, der alles sagt: „Kein Reprint. Kein zweites Mal.“

Das ist eine bewusste Entscheidung. Eine Gegenbewegung.

In einer Welt, in der alles endlos kopierbar ist, in der ein digitales Bild millionenfach geteilt werden kann ohne dass es sich verändert oder erschöpft, baue ich Seltenheit. Nicht über Blockchain-Rhetorik, nicht über NFT-Spielchen, nicht über künstliche Verknappung.

Sondern über das simpelste Prinzip: Es existiert als Objekt. Einmal. Und wenn es weg ist, ist es weg.

Das klingt altmodisch. Und genau deshalb funktioniert es.

Dazu kommt das Format, das ich „Limited. Iconic. XOXO.“ nenne. Ein Werk, einen Monat, dann weg. Keine zweite Chance, kein Reprint, keine spätere Edition. Das zwingt zur Entscheidung. Und Entscheidungen sind das, was digitale Beliebigkeit meistens nicht produziert.

Ich baue damit etwas, das in der digitalen Kunstwelt selten geworden ist: Vergänglichkeit. Das Gefühl, dass etwas jetzt da ist und nachher nicht mehr. Das ist kein Trick. Das ist eine Aussage über den Wert von Dingen.


Das Wissen als Ökosystem

Neben den Unikaten gibt es das Wissen.

Was früher DVD war, ist heute der Brownz Hub. Ein Jahresabo. Ein „lebendiger Dropbox-Ordner“, der sich ständig füllt. Presets, Texturen, Pinsel, PSD-Strukturen, Videos. Über 400 GB Arbeitsdaten.

Das ist nicht Content im üblichen Sinn. Das ist Produktionskapital.

Der Unterschied ist wichtig: Tutorials schaut man sich an und vergisst sie. Werkzeuge benutzt man jahrelang. Presets, Texturen, Pinsel, PSD-Strukturen – das sind Dinge, die in neuen Bildern immer wieder auftauchen. Die sich verbinden mit neuen Ideen und neuen Projekten. Die mit einem wachsen.

Auf brownzart.com gibt es konkrete Optionen: Digitaler Zugang für 49 Euro, klassisch auf DVDs oder USB-Stick für 69 Euro, und ein „Brownz XXL Archiv“ von über 400 GB auf einer 500-GB-USB-Festplatte für 250 Euro.

Das sind keine abstrakten Pakete. Das sind Archive. Bibliotheken. Ich denke in Datenschichten, nicht nur in Bildschichten. Wissen ist bei mir nicht nur ein Video. Wissen ist ein Bestand. Und wer in einer kreativen Arbeit wirklich produktiv sein will, braucht Bestände, auf die er zurückgreifen kann.

Das Coaching-Angebot ist die dritte Säule: Ein Tag Personal Coaching in Linz, 10 bis 16 Uhr, inklusive über 400 GB Arbeitsdaten und allen BrownzArt Videos für 444 Euro. Für Wiederholungstäter oder Menschen, die das Archiv schon haben, gibt es günstigere Optionen.

„FULL SCALE PHOTOSHOP. 100% Brownz. NO SECRETS.“

Das ist kein Werbeslogan. Das ist eine Haltung. Die Haltung eines Handwerkers, der weiß, dass Geheimnisse nichts bringen. Weil Qualität sowieso keine Frage von Tricks ist. Weil das Handwerk für jeden lernbar ist, der es wirklich lernen will.

Und weil ich selbst so angefangen habe: von anderen lernen, nachfragen, nachbauen, verstehen.


Das Archiv als Superkraft

Es gibt etwas in meiner Arbeitsweise, das ich lange nicht bewusst benennen konnte, das aber vielleicht das Wichtigste ist: Ich denke in Archiven.

Nicht nur in Werken. In Beständen.

Das sieht man an den Zahlen – 400 GB Arbeitsdaten sind kein Zufall. Das sieht man an der Sprache meines Blogs – „Archiv“, „Ordner“, „Bibliothek.“ Das sieht man an der Asset-Mentalität auf DeviantArt, wo ich als „BrownzArt“ mit umfangreichen Galerien präsent bin, darunter Serien zu „Angels“, „Stock and Freeloads“ und Fantasy-Arbeiten, also nicht nur fertige Werke, sondern auch Texturen, PSDs, Backdrops. Dinge, die andere benutzen können.

Das ist eine alte Szene-Haltung, die ich nie abgelegt habe: Wenn eine Ästhetik leben soll, muss sie in Umlauf gehen.

Und für mich persönlich bedeutet das: Ich muss nicht bei jedem Projekt bei Null anfangen. Ich beginne bei Schicht 37. Und Schicht 37 ist meistens spannender als Schicht 1.

Das ist eine stille Superkraft. Wer ein Archiv hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Das macht dich in gewisser Weise unkaputtbar.


Der Blog als Atelier

Mein Blog brownz.art ist dabei mehr als „Blog.“

Er ist eine Werkzeugkiste. Mit Kategorien wie BildLooks, Texturen, Brushes, Plugins, PS Actions, Tools, Making-of. Und daneben die essayistischen Rubriken Kontext und Gelebt. Das ist nicht die Struktur eines Portfolios. Das ist die Struktur eines Ateliers, das neben Leinwänden auch Schubladen hat. Und jede Schublade enthält Dinge, die man später wieder braucht.

In der Kategorie „Art Of Brownz“ sind Werk und Erzählung eng verwoben. Nicht nur Bildposts, sondern auch Texte über Fanprojekte, über Chaos als Methode, über Nächte am Rechner.

In einem Beitrag über „Star Wars Madness“ – einem Fanvideo, das ich in einer Nachtschicht zusammengebaut habe – schreibe ich: „Das Chaos ist nicht der Bug. Das Chaos ist das Feature.“

Das ist, nebenbei, eine sehr zeitgenössische Aussage über generative KI. Wer mit diesen Tools arbeitet, kennt das Chaos. Die Frage ist nur, ob man es wegretuschiert oder in Stil verwandelt.

Ich wähle immer Stil.

Und in einem meiner programmatischen Texte formuliere ich die Grundhaltung, die das alles zusammenhält: „Alles ist Input.“

Damit meine ich kein leeres Motivations-Mantra. Ich meine eine konkrete Praxis: sammeln, archivieren, verdichten. Ein Werbeplakat, das halb abgerissen ist. Eine Textur von einer Wand. Ein Lichtreflex am Asphalt. Ein Foto, das technisch „misslungen“ ist, aber eine Stimmung hat. Alles kann später Schicht werden.

Diese Haltung hat eine Nebenwirkung: Sie macht dich unkaputtbar. Wer immer Input hat, hat immer Ausgangsmaterial. Wer immer Ausgangsmaterial hat, kann immer weiterbauen. Und wer immer weiterbauen kann, kommt nie wirklich zum Stillstand.


Die Brownz-Sprache: Halb Manifest, halb Augenzwinkern

Es gibt noch etwas, das ich erwähnen möchte. Nicht als Eigenlob, sondern als ehrliche Reflexion.

Ich habe über die Jahre eine eigene Sprache entwickelt. Eine Stimme. Die sich durch alles zieht, was ich schreibe und zeige.

Auf meiner „Limited. Iconic. XOXO.“-Seite steht wörtlich: „Kein Reprint. Kein NFT.“ Und danach: weg.

Das ist keine Hochglanz-Galerie-Sprache. Das ist kein akademischer Kunsttext. Das ist direktes Reden. Mit Haltung und mit einem Augenzwinkern. Ich nehme die eigene Kunst ernst, aber ich nehme die Kultur, in der sie verkauft wird, nicht als sakral.

Ich nenne mich selbst manchmal „Der Brownz.“ Weil dieser Name eine Figur ist, die größer ist als mein bürgerlicher Name. Weil Brownz eine Haltung hat, die Peter Braunschmid manchmal erst entwickeln musste.

Und ich glaube, dass genau diese Sprache einen Unterschied macht. In einer Branche, in der alle versuchen, „professionell“ zu klingen, klingt jemand, der einfach redet, wie er denkt, heraus. Nicht laut. Aber klar.

Das zieht Menschen an, die nicht wissen wollen, welche Blendmodes ich verwendet habe, sondern ob das Bild ihnen etwas gibt. Und dann, für die Menschen, die es wissen wollen, liefere ich die Blendmodes gleich mit. Als Presets, als Download, als Coaching.

Das ist das Modell. Und es funktioniert, weil die drei Säulen sich nicht kannibalisieren: Das Kunstwerk bleibt rar und wertig, das Wissen bleibt zugänglich und lebendig, und der direkte Kontakt beim Coaching bleibt das Premium. Jede Säule stützt die anderen.


Warum das 2026 wichtig ist

Zum Schluss möchte ich noch etwas sagen, das über meine persönliche Geschichte hinausgeht.

In der Gegenwart ist Bildproduktion so leicht geworden, dass viele Menschen den Wert von Bildproduktion vergessen. Ein Prompt, ein Klick, ein Output. Doch je leichter das Erzeugen wird, desto wichtiger wird das Kuratieren. Nicht jedes Bild ist ein Werk. Nicht jeder Output ist eine Entscheidung.

Mein Modell – Unikat-Logik, Asset-Kultur, Workflow-Disziplin – ist eine Antwort auf diese Entwertung. Ich setze nicht auf Masse, sondern auf Autorenschaft.

Das ist nicht nostalgisch. Das ist zeitgemäß.

Weil die Frage, die alle stellen – „Kann ich das auch mit KI machen?“ – die falsche Frage ist. Die richtige Frage ist: „Weiß ich, was ich will, bevor das Tool anfängt?“

Wer das weiß, kann jedes Tool benutzen. Wer das nicht weiß, wird vom Tool benutzt.

Ich nutze Tools. Seit 1984. C64, Amiga, PC, Photoshop, CorelDRAW, KI-Generatoren, JSON-Programmierung im Dialog. Jedes davon war ein Werkzeug, das ich eingesetzt habe, um etwas zu sagen. Nie umgekehrt.

Das ist, glaube ich, das Einzige, das wirklich zählt.

Nicht wie lange man dabei ist. Nicht wie viele Tools man kennt. Nicht wie viele Follower man hat.

Sondern ob man weiß, was man sagen will. Und ob man es sagt.

Ich sage es seit 1984. Und ich habe nicht vor aufzuhören.


Peter „Brownz“ Braunschmid ist unter brownzart.com und brownz.art zu finden. Wer tiefer einsteigen will: Der Brownz Hub, die Coachings und die Unikat-Galerie sind dort dokumentiert. Kontakt: brownz@brownz.art



Spoiler: Es ist meistens schlimmer als in jedem Horrorfilm.

Ich kenn das Gefühl. Du lernst jemanden kennen. Kreativ, charmant, interessant. Redet über Kunst, über Vision, über Werte. Du denkst: Endlich. Endlich jemand, der es versteht. Endlich jemand, mit dem man arbeiten kann. Vielleicht sogar ein Freund.

Und dann fällt die Maske.

Und du stehst da wie der Typ in einem Horrorfilm, der gerade gemerkt hat, dass das freundliche Nachbarskind die ganze Zeit ein Küchenmesser hinterm Rücken hatte.


Warum ausgerechnet Kreative?

Das ist die Frage, die mich schon jahrelang beschäftigt. Warum ist das Maskenphänomen im Kreativbereich so ausgeprägt? Warum gibt es in Künstlerkreisen, in der Fotoszene, in Designergruppen, in allen möglichen kreativen Communities so unglaublich viele Menschen, die eine Persona aufgebaut haben, die mit ihrer tatsächlichen Persönlichkeit ungefähr so viel zu tun hat wie ein Stockfoto mit echter Emotion?

Ich hab ein paar Theorien. Und zwanzig Jahre Erfahrung, die diese Theorien ziemlich gut unterstützen.

Theorie Nummer eins: Kreativität legitimiert Exzentrik.

In kaum einem anderen Bereich ist es so akzeptiert, seltsam zu sein. Schwierig. Kompromisslos. Eigen. Das schafft eine perfekte Deckung für Leute, die eigentlich einfach nur unangenehm sind, aber das gerne als künstlerische Eigenheit verkaufen.

„Ich bin halt so.“ Nein. Du bist ein Arsch. Das ist was anderes.

Aber die kreative Bubble verzeiht das. Manchmal sogar feiert sie es. Der schwierige Künstler als Mythos. Der unnahbare Fotograf als Marke. Der exzentrische Designer als Legende.

Herrliche Deckung für echte Monster.

Theorie Nummer zwei: Die Maske ist das Produkt.

Im Kreativbereich verkaufst du dich selbst. Deine Persönlichkeit ist Teil deines Brandings. Deine Geschichte, deine Werte, dein Stil – das ist nicht nur du, das ist Marketingmaterial.

Also wird aus der Maske ein Produkt. Fein poliert, konsistent in allen Kanälen, perfekt auf die Zielgruppe abgestimmt. Der authentische Künstler. Die nahbare Fotografin. Der zugängliche Designer.

Und irgendwann verwechseln manche Leute die Maske mit sich selbst. Und irgendwann passt die Maske nicht mehr. Und dann knallt sie runter.

Theorie Nummer drei: Kreativität kommt oft mit Wunden.

Das klingt jetzt klischeehaft, aber lass mich das ausführen.

Viele Menschen, die kreativ arbeiten, sind das nicht zufällig. Kreativität ist oft ein Ventil. Ein Weg, Erfahrungen zu verarbeiten, die anders nicht verarbeitbar sind. Schmerz in Kunst zu verwandeln. Verwirrung in Struktur.

Das bedeutet: Viele Kreative tragen echte, tiefe, unverarbeitete Sachen mit sich rum. Und die Maske ist oft der Schutz davor, dass das jemand sieht.

Das ist menschlich. Das ist verständlich. Das verdient Mitgefühl.

Aber es erklärt, warum der Moment, in dem die Maske fällt, so dramatisch ist. Weil darunter nicht nur eine andere Persönlichkeit wartet. Sondern manchmal ein komplettes unbearbeitetes Chaos.


Die Typen, die ich kenne

Zwanzig Jahre Kreativbranche. Ich hab ein paar Archetypen kennengelernt.

Der Visionär.

Redet nur über seine großen Pläne. Projekte, die die Welt verändern werden. Kollaborationen, die er andenkt. Ideen, die gerade noch in Entwicklung sind. Immer kurz vor dem Durchbruch. Immer knapp davor.

Wenn die Maske fällt, stellt sich raus: Es gibt keine Projekte. Es gibt nie Projekte. Es gibt nur Reden über Projekte. Weil Reden billiger ist als Machen und weil man für nicht fertige Projekte nicht kritisiert werden kann.

Diese Spezies ist harmlos, aber zeitfressend. Ich hab Jahre meines Lebens in Gesprächen mit Visionären verbracht, die nichts produziert haben.

Die Mentorin.

Bietet Rat an, ob man ihn will oder nicht. Weiß alles besser. Hat mehr Erfahrung. Hat schon alles gesehen. Ist großzügig mit Einschätzungen, die niemand bestellt hat.

Wenn die Maske fällt: Der ganze Rat war nie für dich. Er war dafür, sich selbst groß zu fühlen. Das Mentoring war Kontrolle in Lehrpersonen-Kostüm.

Diese Spezies ist gefährlicher, weil sie echten Schaden anrichten kann. Besonders bei Anfängern, die tatsächlich Rat suchen und stattdessen Abhängigkeit bekommen.

Der Kollaborateur.

Will immer mit allen zusammenarbeiten. Findet jede Idee toll. Ist enthusiastisch, zugänglich, begeistert. Sagt Ja zu allem.

Wenn die Maske fällt: Liefert nichts. Nimmt alles. Taucht auf, wenn es was zu nehmen gibt, und verschwindet, wenn es was zu geben gilt. Die Kollaboration war immer eine Einbahnstraße, nur dass du zu lange gebraucht hast, das zu merken.

Diese Spezies ist besonders schwer zu erkennen, weil die Maske so verdammt sympathisch ist.

Der Vernetzer.

Kennt jeden. Erwähnt ständig Namen. Ist immer gerade von einem wichtigen Meeting zurückgekommen. Lädt überall Leute ein, vorzugsweise zu Dingen, die er selbst nicht bezahlt.

Wenn die Maske fällt: Die Verbindungen sind oberflächlicher als ein Like auf Instagram. Der Name, den er bei jedem Gespräch erwähnt, kennt ihn kaum. Das Netzwerk ist Fassade, dahinter ist wenig Substanz.

Der Kämpfer für die Sache.

Das ist mein Lieblingsarchetype, weil er am schwierigsten zu durchschauen ist.

Redet lautstark über Werte. Über Fairness, über Solidarität, über Gemeinschaft. Ist immer auf der richtigen Seite. Sagt die richtigen Sachen. Schreibt die richtigen Posts.

Wenn die Maske fällt, und die fällt immer irgendwann: Das waren alles Positionen, keine Überzeugungen. Performances, keine Werte. Weil wenn es persönlich wird, wenn es was kostet, wenn die eigene Bequemlichkeit auf dem Spiel steht, dann sieht die Solidarität plötzlich ganz anders aus.

Diese Spezies ist die gefährlichste. Weil man ihr am meisten vertraut.


Warum die Maske überhaupt irgendwann fällt

Das ist eigentlich die interessanteste Frage.

Masken kosten Energie. Unglaublich viel Energie. Eine Persona aufrechtzuerhalten, die nicht die eigene ist, ist erschöpfend. Du musst dich ständig erinnern, wer du sein sollst. Du musst konsistent sein über Jahre, über Plattformen, über Beziehungen hinweg.

Das hält keiner ewig durch.

Irgendwann kommt der Moment der Erschöpfung. Oder des Stresses. Oder des Erfolgs, ironischerweise. Weil Erfolg oft die Kontrolle lockert. Weil man sich denkt: Ich hab’s geschafft, jetzt muss ich nicht mehr so tun als ob.

Oder es kommt ein Trigger. Eine Krise. Eine Ablehnung. Ein Konflikt. Etwas, das die sorgfältig aufgebaute Konstruktion erschüttert.

Und dann fällt die Maske. Manchmal langsam, manchmal auf einmal.

Und was darunter zum Vorschein kommt, ist selten das, was man erwartet.


Der Slasher-Vergleich, der erschreckend gut passt

Ich hab den Slasher-Vergleich in der Überschrift nicht zufällig gewählt.

Kennt ihr diese Szene in jedem guten Horrorfilm? Da ist dieser nette Typ. Freundlich, hilfsbereit, immer da wenn man ihn braucht. Alle mögen ihn. Und dann – irgendwann, aus irgendeinem Grund, meist im dritten Akt – dreht er sich um und es ist Michael Myers.

Und rückblickend waren alle Zeichen da. Die kleinen Momente, die komisch wirkten. Die Reaktionen, die nicht ganz stimmten. Die Sätze, bei denen man kurz dachte: Hm. Ist aber schnell wieder weggegangen.

Genau so ist das mit Masken im Kreativbereich.

Rückblickend sieht man immer: Die Zeichen waren da.

Das eine Mal, wo er auf Kritik reagiert hat wie auf einen persönlichen Angriff. Das andere Mal, wo sie plötzlich kalt wurde, als das Gespräch in ihre Richtung ging. Der Moment, wo er über einen Kollegen geredet hat, und da war was in der Stimme, das nicht stimmte.

Man hat es gesehen und nicht gesehen.

Und dann fällt die Maske und man steht da wie die Protagonistin im Horrorfilm, die gerade ihren besten Freund ohne Gesicht vor sich hat und denkt: Ich hätte früher laufen sollen.


Was man tun kann – und was man nicht kann

Okay, jetzt wird es praktisch.

Zeichen erkennen, bevor die Maske fällt:

Wie jemand über andere redet, wenn er denkt, man hört nicht hin. Das ist das zuverlässigste Frühwarnsystem. Jemand, der hinter dem Rücken von Kollegen redet, redet hinter deinem auch. Garantiert.

Wie jemand mit Kritik umgeht. Nicht mit fremder Kritik – mit der an ihm selbst. Das ist aufschlussreich. Wer bei der kleinsten Anmerkung hochgeht oder komplett abblockt, hat eine Maske, die er schützt.

Wie jemand in Stressphasen ist. Die Maske hält im Normalbetrieb. Unter Druck zeigt sich das echte Gesicht. Reise mit jemandem, arbeite unter Deadline mit jemandem, erlebt eine Krise mit jemandem. Dann weißt du, wer da ist.

Ob Worte und Taten übereinstimmen. Nicht einmal, nicht zweimal. Über Zeit. Jemand kann einmal eine gute Ausrede haben. Zweimal vielleicht. Aber wenn das Muster immer dasselbe ist, ist das kein Zufall. Das ist Charakter.

Was man nicht tun kann:

Man kann niemanden zwingen, die Maske abzunehmen. Man kann niemanden reparieren. Man kann nicht rückwirkend die Beziehung retten, die auf einer Illusion basiert hat.

Was man tun kann: Gehen. Wenn die Maske gefallen ist und was darunter war, hat man den Beweis. Den braucht man manchmal, weil man vorher zu lange gezweifelt hat.


Warum ich mich selbst nicht ausnehme

Hier wird es jetzt ungemütlich.

Weil ich auch Masken getragen habe. Andere als die beschriebenen, hoffe ich. Aber Masken.

Diese professionelle Fassade, die signalisiert: Alles im Griff. Die Sicherheit, die man ausstrahlt, wenn man eigentlich unsicher ist. Das Lächeln, wenn der Kommentar unter dem Bild nervt, aber man es sich nicht anmerken lässt. Die Begeisterung für ein Projekt, die man performt, obwohl man innerlich zweifelt.

Das sind auch Masken. Kleinere, vielleicht. Sozial akzeptablere. Aber keine echten Gesichter.

Und ich glaube, ein Teil davon ist unvermeidlich. Wir alle tragen in verschiedenen Situationen verschiedene Versionen von uns selbst. Das ist nicht Heuchelei, das ist soziale Kompetenz.

Der Unterschied ist, ob die Maske eine Schutzfunktion hat oder eine Täuschungsfunktion.

Schutzmaskierung: Ich zeig dir noch nicht alles, weil ich dich noch nicht kenne.

Täuschungsmaskierung: Ich zeig dir eine Version von mir, die nicht stimmt, damit du mich magst oder mir vertraust oder was von mir gibst.

Das erste ist Grenze. Das zweite ist Manipulation.


Das Gute an fallenden Masken

Okay, ich muss auch was Positives sagen. Weil es tatsächlich was Positives gibt.

Wenn eine Maske fällt, endet auch eine Lüge.

Und mit dem Ende der Lüge beginnt Klarheit.

Du weißt jetzt, woran du bist. Du musst keine Energie mehr darauf verwenden, Menschen zu interpretieren, Zeichen zu deuten, Hoffnungen zu haben, die keine Grundlage haben.

Das ist schmerzhaft. Manchmal sehr schmerzhaft.

Aber es ist ehrlicher als vorher.

Und in einer Branche, die so viel von Authentizität redet – auf LinkedIn, in Instagram-Captions, in Podcasts über Kreativität – ist Ehrlichkeit eigentlich das radikalste Ding, das man haben kann.

Die echten Menschen. Die, die keine perfekte Persona aufgebaut haben. Die, die zugeben, wenn was schiefläuft. Die, die nicht immer das Richtige sagen und trotzdem konsequent sind, wenn es drauf ankommt.

Die sind selten. Aber die gibt es.

Und nach zwanzig Jahren kann ich sagen: Die erkennst du meist daran, dass sie weniger reden und mehr tun. Dass sie keine große Show machen aus ihren Werten, sondern einfach dementsprechend handeln. Dass sie unbequem sein können, aber dabei berechenbar bleiben.

Keine Maske. Kein Hochglanz. Aber echt.

Das ist mir inzwischen mehr wert als jede perfekte Persona.


Ein letzter Gedanke

Das nächste Mal, wenn du jemanden kennenlernst, der in allem perfekt wirkt – der immer das Richtige sagt, immer die richtigen Werte hat, immer sympathisch und zugänglich und inspirierend ist –

– dann schau ein bisschen länger hin.

Nicht misstrauisch. Nicht paranoid.

Aber aufmerksam.

Weil echte Menschen haben Risse. Echte Menschen sagen manchmal das Falsche. Echte Menschen haben Tage, wo sie nicht inspirierend sind, sondern einfach müde und gereizt und menschlich.

Wer nie Risse zeigt, hat sie vielleicht besonders gut verborgen.

Und irgendwann – im dritten Akt, wie immer – dreht er sich um.

Und du weißt Bescheid.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem langen Abend und der Erinnerung an zu viele Momente, wo Masken gefallen sind und ich danach dachte: Das hätte ich früher sehen können. Wird transkribiert und mit KI in Form gebracht. Die Narben und der schwarze Humor sind komplett meine eigenen.