Tag Archive: adobe




Was aus dem Unternehmen geworden ist, das einst die kreative Welt erfunden hat – und ob der KI-Kurs Geniestreich oder Identitätskrise ist.


Ein Blogbeitrag von BROWNZ.ART


Prolog: Ein seltsames Gefühl

Ich habe kürzlich die Release Notes der letzten vier großen Photoshop-Updates nebeneinandergelegt. Nicht weil ich es musste. Sondern weil ich ein Gefühl überprüfen wollte. Ein Gefühl, das sich seit ungefähr zwei Jahren aufbaut und das ich lange nicht greifen konnte. Ein leises Unbehagen, das irgendwo zwischen Begeisterung und Enttäuschung sitzt.

Und als ich die Release Notes nebeneinander sah, wurde das Gefühl greifbar.

Adobes öffentliche Erzählung der letzten zwei Jahre wird auffallend stark von KI- und Firefly-Funktionen dominiert. Generative Fill. Generative Expand. KI-gestützte Auswahlen. Neuronale Filter. KI-Entrauschen. Generative Referenz. Remove Tool mit KI. Firefly Image Model 3, 4, was auch immer als nächstes kommt. Jede Keynote handelt von KI. Jede Pressemitteilung handelt von KI. Jede Marketing-Kampagne handelt von KI.

Und plötzlich hatte ich eine Frage im Kopf, die sich nicht mehr abschütteln ließ:

Wo ist eigentlich der Rest geblieben?

Nicht in der Software selbst – denn wenn man genau hinschaut, gibt es durchaus klassische Verbesserungen. Photoshop hat OpenColorIO und 32-Bit-HDR-Workflows bekommen, Dynamic Text, AVIF- und JPEG-XL-Support, Variable Fonts im Font-Browser, Clarity und Dehaze als non-destruktive Adjustment Layers, sogar Grain als eigene Einstellungsebene. Lightroom Classic hat PSB-Support in der Photoshop-Übergabe und im Export bekommen, verbesserte Embedded Previews vor dem Import, Tethering-Erweiterungen und optimierte Sidecar Writes.

Das sind reale, substanzielle Verbesserungen. Keine davon hat „KI“ im Namen. Und keine davon hat es auf die große Bühne geschafft.

Denn dort – in den Keynotes, in den Pressemitteilungen, in den Marketing-Kampagnen, in den Schlagzeilen – dominiert ausschließlich die KI-Story. Und genau das ist der Punkt, der mich nachdenklich macht. Nicht dass Adobe KI baut. Sondern dass Adobe seine gesamte Innovations-Erzählung darauf verengt – und damit den Rest unsichtbar macht.

Die Frage ist also nicht: Macht Adobe nur noch KI? Das stimmt faktisch nicht. Die Frage ist: Warum erzählt Adobe so, als würde es nur noch KI machen? Und was macht das mit dem Unternehmen, mit den Produkten und mit uns als Nutzern?


Kapitel 1: Was Adobe früher anders gemacht hat – und warum das wichtig ist

Um zu verstehen, was sich verändert hat, muss man verstehen, wo Adobe herkommt. Nicht als Börsenunternehmen. Nicht als Abo-Modell. Sondern als kreatives Unternehmen, das Werkzeuge für kreative Menschen baut.

Photoshop war, als es in den frühen Neunzigern die Bühne betrat, nicht einfach eine Software. Es war eine neue Grammatik des Visuellen. Es hat nicht nur bestehende Prozesse digitalisiert – es hat NEUE Prozesse ermöglicht, die vorher nicht existierten. Ebenen. Masken. Kanäle. Pfade. Einstellungsebenen. Smart Objects. Jedes dieser Konzepte war, als es eingeführt wurde, eine echte Innovation. Nicht im Marketing-Sinne von „Wir haben einen Button umbenannt und nennen es Innovation“. Sondern im fundamentalen Sinne von: Das hat es vorher nicht gegeben, und es verändert die Art, wie Menschen über Bilder nachdenken.

Lightroom hat dasselbe für den fotografischen Workflow getan. Vor Lightroom war die RAW-Entwicklung ein fragmentierter Prozess. Lightroom hat Katalogisierung, Entwicklung und Ausgabe vereint und ein non-destruktives Arbeitskonzept etabliert, das bis heute den Standard definiert.

InDesign hat QuarkXPress abgelöst, nicht weil es billiger war, sondern weil es konzeptionell überlegen war. After Effects hat Motion Graphics demokratisiert. Illustrator hat Vektorgrafik für eine ganze Branche zugänglich gemacht.

Das waren keine KI-Features. Das waren Werkzeug-Innovationen. Durchdachte Lösungen für reale Probleme, die die kreative Arbeit auf einer strukturellen Ebene verbessert haben.

Und hier liegt der Kern meines Unbehagens: Mir fällt in den letzten zwei, drei Jahren kaum ein Adobe-Feature ein, das sich für mich so grundlegend anfühlt wie einst Ebenen, Smart Objects oder der non-destruktive Lightroom-Workflow. Es gibt Verbesserungen – teils gute, teils sehr gute. OpenColorIO für HDR ist ein echtes Upgrade für Profis, die in diesem Bereich arbeiten. Die neuen non-destruktiven Clarity- und Grain-Adjustment-Layers sind willkommen. PSB-Support in Lightroom Classic löst ein Problem, das lange genervt hat.

Aber nur wenige dieser Neuerungen fühlen sich wie ein neuer Denkraum an. Wie ein Konzept, das verändert, wie du über Bildbearbeitung nachdenkst. Und das ist – ich sage das als subjektive Bewertung eines Praktikers, nicht als objektives Urteil – ein Unterschied, den ich spüre.


Kapitel 2: Die KI-Features im Realitätscheck

Bevor mir jemand vorwirft, ich würde die KI-Features pauschal schlecht reden: Das tue ich nicht. Ich nutze sie. Jeden Tag. Und einige davon haben meinen Workflow tatsächlich fundamental verbessert.

Was genuinely großartig ist:

Das KI-Entrauschen in Lightroom ist ein Gamechanger. Die Ergebnisse bei High-ISO-Aufnahmen sind spektakulär und haben ein separates Plugin im Wert von 80 Euro überflüssig gemacht. Adobe dokumentiert kontinuierliche Qualitätsverbesserungen bei diesem Workflow. Das ist Innovation, die reale Probleme löst.

Die KI-gestützten Auswahlen – Motiv auswählen, Himmel auswählen, Objektauswahl mit Hover-Erkennung – haben die Freistellung von Motiven von einer Dreißig-Minuten-Aufgabe zu einer Dreißig-Sekunden-Aufgabe gemacht. Nicht perfekt. Nicht in jedem Fall. Aber in der Mehrheit der Fälle gut genug als Startpunkt. Ein realer, messbarer Produktivitätsgewinn.

Das Remove Tool erledigt 80 Prozent aller Objekt-Entfernungen brillant. Die restlichen 20 Prozent brauchen Handarbeit. Insgesamt eine deutliche Verbesserung gegenüber dem klassischen Kopierstempel.

Die KI-Maskierung in Lightroom hat meinen Workflow fundamental verändert. Ich mache Dinge direkt in Lightroom, für die ich früher zu Photoshop wechseln musste.

Was weniger überzeugend ist:

Generative Fill ist beeindruckend als Demo. Im täglichen Workflow ist es ein Startpunkt, kein Endprodukt. Ergebnisse oft inkonsistent, manchmal mit erkennbarem KI-Look, fast immer mit Bedarf an manueller Nacharbeit. Gutes Werkzeug. Keine Magie. Trotz Marketing, das Magie suggeriert.

Generative Expand funktioniert bei einfachen Szenen. Bei komplexen Kompositionen erzeugt es häufig Inkonsistenzen und Perspektivfehler. Gut für schnelle Social-Media-Erweiterungen. Nicht verlässlich genug für professionelle Druckproduktion.

Die neuronalen Filter – manche funktionieren, manche sind seit Jahren in der Beta und fühlen sich immer noch experimentell an.

Firefly als Bildgenerator – und hier muss ich sauber bleiben: Firefly wirkt für mich ästhetisch oft solider als spektakulär. Adobe bewirbt Firefly Image Model 4 als großen Qualitäts- und Realismus-Sprung, und die Ergebnisse sind tatsächlich besser geworden. Aber Adobes eigentliche Differenzierung liegt für mich weniger in einer unangefochtenen ästhetischen Marktführerschaft als vielmehr in der kommerziellen Absicherung, der nahtlosen Integration in die Creative Cloud und – das ist zunehmend relevant – in der Öffnung für Partner-Modelle.

Denn Adobe positioniert Firefly inzwischen nicht mehr nur als eigenes Modell, sondern als Plattform, die Modelle von Google, OpenAI, Runway und Kling integriert. Das ist eine strategisch kluge Entscheidung. Und möglicherweise die eigentliche Innovation: nicht das beste Modell zu haben, sondern die beste Plattform, die alle Modelle integriert.

Und hier zeigt sich ein Muster: Die wirklich starken KI-Features sind die, die bestehende Aufgaben beschleunigen – Entrauschen, Auswählen, Entfernen. Die weniger überzeugenden sind die, die neue Inhalte generieren – Füllen, Erweitern, Bilder erzeugen. Adobe ist besser im Optimieren als im Kreieren. Das ist keine Schande. Aber es ist eine Unterscheidung, die in der Marketing-Kommunikation verwischt wird.


Kapitel 3: Die strategische Frage – Innovation oder Imitation?

Ist Adobes KI-Kurs eigenständige Innovation – oder die Reaktion eines Konzerns, der einem Trend hinterherläuft?

Um diese Frage fair zu beantworten, muss man Adobes Situation verstehen. Und die ist genuinely schwierig.

Adobe steckt im klassischen Innovator’s Dilemma. Die Technologie, die das eigene Geschäftsmodell bedroht – generative KI, die Bilder, Designs und Layouts ohne Photoshop, Illustrator oder InDesign erstellen kann – muss gleichzeitig ins eigene Produkt integriert werden, um relevant zu bleiben.

Aus dieser Perspektive ist Adobes KI-Strategie nachvollziehbar. Wenn Midjourney, Runway, Canva und Dutzende von KI-Startups Features anbieten, die immer mehr kreative Aufgaben automatisieren, kann Adobe nicht danebenstehen. Der Zug fährt. Adobe muss aufspringen.

Und Adobe ist aufgesprungen. Aggressiv. Mit Firefly, mit der Integration generativer Features in jedes Produkt, mit der Öffnung für Drittanbieter-Modelle, mit dem klaren Bekenntnis: KI ist die Zukunft.

Aber – und das ist das große Aber – es gibt einen Unterschied zwischen „KI integrieren, weil es die Produkte besser macht“ und „KI als zentrale Markenidentität pushen, weil der Markt und die Aktionäre es hören wollen“.

Und ich bin mir nicht immer sicher, auf welcher Seite Adobe steht.

Denn wenn jede Keynote von KI dominiert wird, dann signalisiert das intern und extern eine klare Priorität. Und wenn Features wie OpenColorIO, HDR-Workflows, Dynamic Text, neue Dateiformatunterstützung und non-destruktive Adjustment Layers in der Kommunikation zu Fußnoten degradiert werden – dann sendet das eine Botschaft. An die Entwickler. An die Nutzer. An den Markt.

Die Botschaft lautet: KI ist das, was zählt. Der Rest ist Pflichtprogramm.

Und diese Verschiebung der Erzählung hat reale Konsequenzen. Für die Wahrnehmung. Für die Erwartungen. Und möglicherweise auch für die Frage, wie intern Ressourcen verteilt werden.

Ich gebe dir ein Beispiel. Photoshops Ebenenbedienfeld – das zentrale Interface-Element, mit dem jeder Nutzer jeden Tag arbeitet – hat sich seit Jahren kaum grundlegend verändert. Es funktioniert. Aber es funktioniert so, wie es seit über einem Jahrzehnt funktioniert. In einer Zeit, in der Composings routinemäßig Dutzende oder Hunderte von Ebenen haben, wäre ein grundlegend neues Konzept für Ebenenverwaltung – intelligente Gruppierung, visuelle Vorschau, kontextbezogene Organisation – eine Innovation, die den Alltag von Millionen Nutzern verbessern würde.

Aber das ist kein KI-Feature. Es ist ein Interface-Problem. Ein Design-Problem. Ein Workflow-Problem. Und solche Probleme scheinen 2026 weniger Bühne zu bekommen als das nächste generative Feature.


Kapitel 4: War früher wirklich alles besser? – Der Nostalgie-Check

Jetzt muss ich ehrlich zu mir selbst sein. Denn die Frage „War früher alles besser?“ ist eine gefährliche Frage. Sie klingt analytisch, ist meistens emotional und führt fast immer in die Irre.

War die Bildbearbeitung vor KI besser? Nein. Definitiv nicht. Langsamer. Mühsamer. Zeitaufwändiger. Ich möchte nicht zurück in die Vor-KI-Zeit. Niemand, der ehrlich ist, möchte das.

War Adobe früher innovativer? Ja und nein.

Ja, im Sinne von: Adobe hat früher mehr grundlegende Werkzeug-Innovationen geliefert. Konzepte, die die Art verändert haben, wie wir über Bildbearbeitung nachdenken. Momente, in denen man als Nutzer spürte: Hier hat jemand über das PROBLEM nachgedacht, nicht über den TREND.

Nein, im Sinne von: Adobe hat auch früher nicht in jedem Update das Rad neu erfunden. Es gab auch damals Updates, die hauptsächlich aus Bugfixes und inkrementellen Verbesserungen bestanden. Die Nostalgie filtert das heraus. Wir erinnern uns an die großen Momente und vergessen die Jahre dazwischen.

Und man muss fair anerkennen: Einige der aktuellen non-KI-Neuerungen SIND substanziell. OpenColorIO und 32-Bit-HDR-Support in Photoshop sind für Profis, die in Film- und HDR-Workflows arbeiten, ein echtes Upgrade. Non-destruktive Clarity- und Grain-Layers lösen Probleme, die seit Jahren bestehen. AVIF- und JPEG-XL-Support bringt Photoshop auf den Stand moderner Bildformate. Das ist keine Stagnation. Das ist solide Produktarbeit.

Aber – und das ist der Punkt – diese solide Produktarbeit wird kommunikativ so leise behandelt, dass sie im KI-Getöse untergeht. Und damit entsteht der EINDRUCK von Einseitigkeit, auch wenn die REALITÄT differenzierter ist.

Und Eindrücke formen Erwartungen. Erwartungen formen Strategien. Strategien formen Produkte. Wenn Adobe nach außen kommuniziert, dass KI alles ist, dann wird KI intern irgendwann auch alles sein. Erzählungen haben die Tendenz, sich selbst zu erfüllen.


Kapitel 5: Der regulatorische Kontext – Vertrauen unter Druck

Ein Punkt, der in eine ehrliche Analyse gehört, auch wenn er nicht direkt mit Innovation zu tun hat: Adobe steht regulatorisch unter erheblichem Druck. Und das beeinflusst die Wahrnehmung des Unternehmens.

Im Juni 2024 hat die US-amerikanische Federal Trade Commission (FTC) Klage gegen Adobe und zwei Führungskräfte erhoben. Der Vorwurf: versteckte Gebühren bei der Abo-Kündigung und absichtlich erschwerte Kündigungsprozesse. Die Klage läuft.

Seit dem 19. März 2026 untersucht die britische Competition and Markets Authority (CMA) Adobe wegen Bedenken rund um Kündigungsgebühren und Abo-Konditionen.

Das sind keine Kavaliersdelikte. Das sind regulatorische Verfahren in zwei der wichtigsten Märkte der Welt. Und sie betreffen ein Kernthema: Vertrauen. Das Vertrauen, dass ein Unternehmen, dem du monatlich Geld überweist, fair und transparent mit dir umgeht.

KI-Features allein bauen dieses Vertrauen nicht auf. Im Gegenteil: Wenn ein Unternehmen auf der einen Seite mit beeindruckenden KI-Demos glänzt und auf der anderen Seite wegen irreführender Geschäftspraktiken vor Regulierungsbehörden steht, dann entsteht eine Dissonanz, die langfristig problematisch ist.

Adobe braucht 2026 nicht nur bessere Features. Adobe braucht bessere Geschäftspraktiken. Und das ist eine Innovationsaufgabe, die nichts mit Algorithmen zu tun hat.


Kapitel 6: Was Adobe tun müsste – und was wir als Nutzer einfordern sollten

Ich bin kein Unternehmensberater. Ich bin ein Kreativer, der jeden Tag mit Adobe-Produkten arbeitet. Und als solcher habe ich Wünsche. Nicht als Konsument. Als Praktiker.

Erstens: KI als Werkzeug positionieren, nicht als Identität.

Adobe sollte KI-Features weiterentwickeln. Die guten sollten besser werden. Die weniger guten sollten reifen. Aber KI sollte nicht die EINZIGE Innovationserzählung sein. Daneben braucht es sichtbares Investment in Interface-Design, Workflow-Innovation, Performance-Optimierung und grundlegende Werkzeug-Konzepte. Und diese Arbeit verdient dieselbe Bühne wie die KI-Features. In den Keynotes. In den Pressemitteilungen. In der öffentlichen Kommunikation.

Zweitens: Die Basics nicht vergessen.

Photoshop hat Performance-Probleme bei großen Dateien. Lightroom Classic wird bei großen Katalogen langsam. Cloud-Synchronisation ist nicht immer zuverlässig. Das sind keine glamourösen Probleme. Aber sie betreffen den Alltag von Millionen. Und sie verdienen mindestens so viel Aufmerksamkeit wie das nächste generative Feature.

Drittens: Firefly ehrlich positionieren.

Adobe positioniert Firefly als „commercially safe“ – trainiert auf lizenzierten und Public-Domain-Inhalten, mit IP-Indemnification für qualifizierte Pläne. Das ist eine echte, wichtige Differenzierung. Aber die ästhetische Spitzenposition belegt Firefly im Vergleich zum Gesamtmarkt nicht allein. Und Adobe sollte aufhören, so zu tun, als wäre es so. Die Öffnung für Partner-Modelle – Google, OpenAI, Runway, Kling – ist der klügere strategische Zug. Plattform statt Modell. DAS ist eine echte Stärke.

Viertens: Vertrauen durch Transparenz aufbauen.

Nach der FTC-Klage und der CMA-Untersuchung braucht Adobe nicht mehr KI-Demos. Adobe braucht transparente Kommunikation. Klare Preisstrukturen. Faire Kündigungsbedingungen. Das Gefühl, dass der Konzern seine Community als Partner sieht, nicht als Einnahmequelle.


Kapitel 7: Die unbequeme Synthese

Hat Adobe seine Seele verkauft?

Meine ehrliche Antwort: Nein. Aber die öffentliche Erzählung des Unternehmens verengt sich auf eine Weise, die langfristig zum Problem werden kann.

Adobe hat die KI-Revolution nicht verschlafen. Die Integration von KI-Features in Photoshop und Lightroom hat reale, messbare Vorteile gebracht. Daneben gibt es solide klassische Produktarbeit – HDR-Workflows, neue Dateiformate, non-destruktive Einstellungsebenen, Lightroom-Performance-Verbesserungen. Adobe baut weiterhin an seinen Kernprodukten. Das muss man anerkennen.

Aber die öffentliche Bühne, die Markenidentität und die Innovations-Erzählung werden inzwischen so stark von KI dominiert, dass der Rest daneben verblasst. Und das ist ein Problem. Nicht weil KI schlecht wäre. Sondern weil ein Unternehmen, das seine gesamte Geschichte auf einen einzigen Technologietrend verengt, zwei Dinge riskiert.

Erstens: Es verliert den Blick für die ganzheitliche kreative Erfahrung. Für das Werkzeug als Werkzeug. Für das Interface als Denkraum. Für die Software als Partner des kreativen Prozesses.

Zweitens: Es macht sich abhängig von einem Paradigma, das es nicht kontrolliert. Wenn morgen ein Konkurrent ein fundamental besseres generatives Modell baut – und die KI-Entwicklung zeigt, dass das jederzeit passieren kann – dann steht ein Unternehmen, das seine gesamte Identität auf KI aufgebaut hat, plötzlich nackt da.

Die besten Werkzeuge der Geschichte waren nie die, die am meisten automatisiert haben. Es waren die, die den Menschen, der sie benutzt, besser gemacht haben. Die seine Fähigkeiten erweitert haben, statt sie zu ersetzen. Die ihm das Gefühl gegeben haben: Mit diesem Werkzeug kann ich Dinge tun, die ich ohne es nicht könnte – aber ICH bin es, der sie tut.

Photoshop war jahrzehntelang genau so ein Werkzeug. Es hat den Kreativen nicht ersetzt. Es hat ihn empowered. Es hat ihm Ebenen gegeben, Masken, Smart Objects – Konzepte, die seine Art zu denken verändert haben. Nicht indem sie für ihn gedacht haben. Sondern indem sie ihm neue Denkräume eröffnet haben.

Mein Wunsch – als jemand, der Adobe-Produkte täglich nutzt und trotz aller berechtigten Kritik an Preispolitik und Geschäftspraktiken schätzt – ist, dass Adobe diesen Geist nicht verliert. Dass neben dem nächsten Firefly-Update Raum bleibt für die Fragen, die kein Algorithmus beantworten kann: Wie können wir das Ebenenbedienfeld neu denken? Wie können wir den Composing-Workflow grundlegend verbessern? Wie können wir Farbmanagement intuitiver machen? Wie können wir die Software schneller, eleganter, menschlicher machen – nicht durch KI, sondern durch kluges Design?

Denn am Ende ist KI ein Werkzeug. Ein mächtiges, transformatives Werkzeug. Aber eben ein Werkzeug. Und ein Unternehmen, das seine gesamte Erzählung an ein einzelnes Werkzeug bindet, riskiert, die Identität zu verlieren, die es überhaupt erst relevant gemacht hat.

Adobe hat die kreative Welt nicht erfunden, indem es den heißesten Technologietrend implementiert hat. Es hat sie erfunden, indem es verstanden hat, was Kreative brauchen – manchmal bevor die Kreativen es selbst wussten. Dieses Verständnis war Adobes eigentliche Superkraft.

Und diese Superkraft darf nicht auf dem Altar der KI-Euphorie geopfert werden. Auch wenn die Keynote-Applaus-Maschine dabei weniger laut rattert.

Die KI-Features sollen bleiben. Sie sollen besser werden. Aber daneben muss Raum bleiben für die Frage, die Adobe einst groß gemacht hat:

Was braucht der kreative Mensch – und wie bauen wir ihm das bestmögliche Werkzeug dafür?

Diese Frage hat Photoshop hervorgebracht. Lightroom. InDesign. After Effects. Sie ist die DNA des Unternehmens.

Und wenn Adobe sie vergisst – nicht weil es keine Antworten mehr hat, sondern weil es aufhört zu fragen – dann hat es tatsächlich seine Seele verkauft.

Noch ist es nicht so weit. Aber die Bühne wird enger.


BROWNZ IS ART. ✦

Und die besten Werkzeuge sind die, die dich nicht ersetzen – sondern besser machen.


Stand: März 2026. Adobe entwickelt sich weiter. Die Frage ist nicht ob, sondern wohin. Und ob auf dem Weg dorthin genug Raum bleibt für das, was kein Algorithmus liefern kann: echtes Verständnis für kreative Menschen.



Hand aufs Herz: Wie oft hast du in den letzten Monaten in Photoshop gesessen, auf einen der vielen neuen glitzernden KI-Buttons geklickt und dich am Ende gewundert, warum das Ergebnis aussieht wie ein unscharfer Pixelbrei?

Adobe hat uns in Rekordzeit mit generativer Künstlicher Intelligenz überschüttet. Gefühlt gibt es nach jedem Update eine neue Leiste, ein neues Menü und eine neue Funktion, die uns verspricht, auf Knopfdruck Meisterwerke zu erschaffen. Doch diese Fülle an Möglichkeiten hat zu einer massiven Verwirrung in der Kreativ-Community geführt. Die meisten Nutzer werfen die Begriffe wild durcheinander und nutzen für ihre Aufgaben schlichtweg das falsche Werkzeug.

Heute räumen wir damit auf. Wir schauen uns die drei großen KI-Säulen im Adobe-Ökosystem ganz genau an: Die Firefly Web-App, die Funktion „Bild generieren“ (Generate Image) in Photoshop und den absoluten Klassiker „Generatives Füllen“ (Generative Fill).

Obwohl alle drei Tools auf der gleichen Grundtechnologie (Adobe Sensei / Firefly) basieren, unterscheiden sie sich in ihrer Auflösung, ihrem Funktionsumfang und vor allem in ihrer Ergebnisqualität dramatisch. Wer hier nur aus Bequemlichkeit klickt, verschenkt massiv Potenzial – und bares Geld. Lass uns in den Maschinenraum hinabsteigen.


1. Die Firefly-Webversion: Der unangefochtene König der Möglichkeiten

Fangen wir mit dem mächtigsten Werkzeug an, das Adobe uns aktuell zur Verfügung stellt: Die eigenständige Website firefly.adobe.com. Wenn du komplett neue Bilder, Hintergründe für Composings oder eigenständige Elemente erschaffen willst, ist dies der Ort, an dem du dich aufhalten solltest.

Warum? Weil die Webversion die ungefilterte, volle Kraft der Adobe-KI darstellt.

Wenn du hier einen Prompt eingibst, greifst du auf die neuesten, fortschrittlichsten KI-Modelle zu (aktuell Firefly Image 3). Die Benutzeroberfläche am rechten Bildschirmrand ist ein Traum für jeden Art Director. Du hast nicht nur ein simples Textfeld, sondern detaillierte Schieberegler und Menüs:

  • Stil-Referenzen: Du kannst Referenzbilder hochladen, damit die KI genau diesen Look übernimmt.
  • Struktur-Referenzen: Du kannst Skizzen vorgeben, an deren Konturen sich die KI beim Generieren hält.
  • Kamera-Einstellungen: Du kannst Blende, Verschlusszeit (für Bewegungsunschärfe) und den exakten Blickwinkel simulieren.
  • Ausgabe-Qualität: Firefly generiert Bilder in einer sehr ordentlichen Größe von 2.048 Pixel Kantenlänge.

Das wirtschaftliche Argument (Die Credits-Falle):
Adobe hat sogenannte „Generative Credits“ eingeführt. Jedes Mal, wenn du auf „Generieren“ klickst, kostet dich das eine virtuelle Münze aus deinem monatlichen Abo-Kontingent. In der Webversion erhältst du für diesen einen Credit immer vier hochauflösende Varianten deines Prompts. Du bekommst hier also den absolut besten Return on Investment für dein Abo.


2. „Bild generieren“ in Photoshop: Die Bequemlichkeits-Falle

Gehen wir nun rüber in dein Photoshop. Dort findest du unter Bearbeiten > Bild generieren (oder in der schwebenden Taskleiste) eine Funktion, die im Grunde genau das Gleiche tun soll wie die Website. Du gibst einen Text ein und Photoshop rendert dir ein komplett neues Bild auf eine leere Ebene.

Auch hier spuckt die KI das Bild mit einer maximalen Kantenlänge von 2.048 Pixeln aus. Klingt doch perfekt, oder? Warum also überhaupt noch den Browser öffnen, wenn man es direkt in Photoshop machen kann?

Die Antwort ist simpel: Es ist eine kastrierte Version.

Photoshops „Bild generieren“ ist eine stark vereinfachte, abgespeckte Variante der Web-App. Es fehlen entscheidende Feineinstellungen zur Lichtstimmung, zu Kamera-Winkeln und komplexen Stil-Referenzen. Adobe hat diese Funktion für die ungeduldigen Nutzer gebaut. Für diejenigen, die den Workflow nicht unterbrechen und die App nicht verlassen wollen.

Doch diese Bequemlichkeit hat einen hohen Preis. Und damit meine ich nicht nur die fehlenden Optionen, sondern harte Währung: Wenn du in Photoshop auf „Bild generieren“ klickst, verbrauchst du ebenfalls einen Generativen Credit. Doch anstatt vier Varianten wie auf der Website, liefert dir Photoshop im Eigenschaften-Bedienfeld nur drei Varianten.

Du bezahlst also den gleichen Preis für 25 % weniger Ergebnisse und deutlich weniger Kontrolle. Als professioneller Bildbearbeiter gibt es daher – von absoluter Zeitnot mal abgesehen – keinen rationalen Grund, diese Funktion in Photoshop zu nutzen. Wenn du ein Bild aus dem Nichts („From Scratch“) erschaffen willst: Geh in den Browser zu Firefly, generiere es dort in Perfektion, lade es herunter und zieh es dann in Photoshop.


3. „Generatives Füllen“: Das missverstandene Genie mit dem Auflösungs-Flaschenhals

Kommen wir zur bekanntesten Funktion, dem Tool, das vor einiger Zeit das Internet gebrochen hat: Bearbeiten > Generatives Füllen (Generative Fill). Du ziehst eine Auswahl mit dem Lasso, tippst etwas ein, und zack – die KI zaubert etwas in dein Bild.

Viele Nutzer machen nun den fatalen Fehler und nutzen dieses Werkzeug für alles. Sie ziehen eine leere Ebene auf, markieren das ganze Bild und tippen einen Prompt ein. Das Ergebnis ist meistens extrem enttäuschend. Es ist unscharf, verwaschen und sieht aus wie ein Relikt aus den frühen 2000er Jahren. Warum passiert das?

Hier kommt das größte technische Geheimnis, das du kennen musst: Generatives Füllen hat ein hartes Limit von 1.024 Pixeln Kantenlänge!

Wenn du mit dem Lasso einen Bereich in deinem hochauflösenden 40-Megapixel-Foto auswählst, der beispielsweise 4.000 x 4.000 Pixel groß ist, und auf „Generatives Füllen“ klickst, rechnet die KI nicht in dieser Größe. Sie generiert intern ein kleines 1.024-Pixel-Bildchen und skaliert (streckt) dieses dann brutal auf deine 4.000 Pixel große Auswahl hoch. Das Resultat ist Matsch.

Wofür dieses Tool wirklich gebaut wurde:
Das KI-Modell hinter „Generatives Füllen“ ist auf etwas völlig anderes trainiert als Firefly Web. Es ist nicht dafür gedacht, aus dem Nichts völlig neue Welten zu erschaffen. Sein absolutes Spezialgebiet ist der Kontext.
Dieses Tool ist darauf optimiert, die Pixel außerhalb deiner Auswahl zu analysieren (Licht, Schatten, Perspektive, Rauschen) und den generierten Inhalt nahtlos und unauffällig in dein bestehendes Hintergrundfoto einzufügen. Es ist dein Werkzeug für die Retusche: Um störende Mülleimer zu entfernen, Ränder zu erweitern (Outpainting) oder ein kleines, passendes Objekt (wie eine Kaffeetasse auf einem Tisch) in ein bestehendes Foto zu zaubern.


Der Praxis-Test: Menschen und Lebewesen generieren

Um die gravierenden Unterschiede in der Praxis zu verstehen, lass uns ein konkretes Beispiel durchspielen. Wir nutzen folgenden, recht komplexen Prompt:

„Porträt einer elegant gekleideten Frau in einer geschmackvoll ausgeleuchteten Szene, stilvoll inszeniert vor einem sanft verschwommenen Hintergrund. Ihr Gesicht ist weich beleuchtet und zeigt einen freundlichen, natürlichen Ausdruck. Das Haar fällt locker über die Schultern, die Bildkomposition ist ausgewogen und zeigt hohe Detailschärfe, makellose Haut und realistische Konturen. Studioqualität, 85mm-Objektiv“

Szenario A: Du nutzt „Generatives Füllen“ auf einer leeren Ebene.
Das Ergebnis wird eine Katastrophe sein. Das Tool sucht verzweifelt nach Kontext-Pixeln (die es auf einer weißen Ebene nicht gibt). Da es primär auf das „Einblenden in Hintergründe“ trainiert ist und das 1024-Pixel-Limit greift, erhältst du oft verzerrte Anatomie, verschwommene Augen und eine Hauttextur, die an Plastik erinnert. Für das realistische Generieren von Lebewesen aus dem Nichts ist diese Funktion schlichtweg unbrauchbar.

Szenario B: Du nutzt „Bild generieren“ in Photoshop.
Hier wird es schon deutlich besser. Die 2.048 Pixel sorgen für ordentliche Schärfe. Die Frau sieht anatomisch korrekt aus. Aber du hast eben nur drei Versuche bekommen und keine Möglichkeit, das Licht im Nachhinein via Regler anzupassen.

Szenario C: Du gehst in die Firefly-Webversion.
Hier entfaltet der Prompt seine Magie. Du wählst im Menü vorher „Fotografie“ aus, stellst die Blende virtuell auf f/1.8, um das geforderte 85mm-Objektiv zu simulieren, und klickst auf Generieren. Du erhältst vier brillante, hochauflösende Varianten. Gefällt dir eine zu 80 %, nutzt du sie als Stil-Referenz für den nächsten Durchlauf. Das ist professionelles Arbeiten.


Der Blick über den Tellerrand: Adobes Schwäche und die Alternativen

Wir müssen in diesem Kontext auch ehrlich sein. Adobe Firefly ist fantastisch für den kommerziellen Einsatz. Da Adobe die KI ausschließlich mit lizenzierten Bildern aus Adobe Stock trainiert hat, bist du urheberrechtlich auf der absolut sicheren Seite. Keine Klagen, kein Ärger mit Kunden.

Aber wenn es um reine, gnadenlose Ästhetik und echten Fotorealismus geht – insbesondere bei der Generierung von menschlichen Gesichtern, komplexen Händen oder organischen Lebewesen –, hinkt Firefly der Konkurrenz momentan noch immer hinterher.

Wenn du das absolut beste, fotorealistischste Bild aus dem Nichts generieren willst, solltest du dir aktuell sogenannte „Partner-Modelle“ oder externe KIs ansehen. Generatoren wie Midjourney (v6) oder das neue, revolutionäre FLUX-Modell (oft über Schnittstellen wie GPT-Image genutzt) spielen beim Thema Anatomie und Textur aktuell in einer völlig anderen Liga als Adobe.

Mein ultimativer Workflow-Tipp für dich:
Wenn ich ein High-End-Composing baue, nutze ich oft Midjourney oder Flux, um das Hauptmotiv (z. B. das Porträt der Frau) zu generieren, da diese KIs die Hautstruktur und das Licht einfach filmischer und realistischer aufbauen. Dann lade ich dieses perfekte Bild in Photoshop und wechsle zu Adobes „Generatives Füllen“, um Fehler auszubessern, den Hintergrund zu erweitern oder kleine Elemente in das Bild einzubauen (denn im nahtlosen Einfügen und Reparieren ist Adobe wiederum unschlagbar).


Fazit: Dein Spickzettel für den Alltag

Hör auf, einfach blind auf leuchtende Buttons zu klicken. Mach dich zum Meister deiner Werkzeuge. Merke dir diese drei goldenen Regeln für deinen zukünftigen KI-Workflow in Adobe:

  1. Völlig neue Bilder und Motive aus dem Nichts? Verlasse Photoshop. Geh auf firefly.adobe.com. Nutze die komplexen Regler, greife die vier Varianten ab und freue dich über 2.048 Pixel Auflösung.
  2. „Bild generieren“ in Photoshop? Ignoriere es. Es ist eine teure Bequemlichkeits-Falle, die dir bei gleichem Preis weniger Auswahlmöglichkeiten bietet.
  3. Elemente in ein bestehendes Foto einfügen, Ränder erweitern oder störende Dinge entfernen? Hier schlägt die große Stunde von „Generatives Füllen“. Achte darauf, dass du deine Auswahlen nicht zu riesig aufziehst, um das 1024-Pixel-Limit nicht zu überspannen.

Die Künstliche Intelligenz nimmt uns die handwerkliche Fleißarbeit ab. Aber das Denken, die Planung und die strategische Auswahl des richtigen Werkzeugs – das bleibt weiterhin dein Job als kreativer Profi. Nutze ihn weise



Hast du in letzter Zeit mal auf deinen Kontoauszug geschaut, die rund 60 Euro für dein Creative Cloud-Abonnement gesehen und dich unweigerlich gefragt: „Brauche ich das eigentlich noch alles?“

Wenn dir dieser Gedanke schon mal gekommen ist, bist du nicht allein. Tatsächlich teilen gerade einige der mächtigsten Finanzanalysten der Welt genau deine Zweifel. Die renommierte Bank Morgan Stanley hat kürzlich die Zukunftsaussichten für die Adobe-Aktie nüchtern nach unten korrigiert und das Papier auf Talfahrt geschickt.

Das ist keine langweilige Börsen-Randnotiz. Es ist das Symptom einer tiefgreifenden Zäsur, die den Software-Giganten in seinen Grundfesten erschüttert. Wir erleben gerade, wie sich die tektonischen Platten unserer gesamten Kreativbranche verschieben. Für uns als Fotografen, Designer und Bildbearbeiter bedeutet das: Wir müssen unsere eigene Zukunft, unsere Workflows und unseren Wert auf dem Markt komplett neu verhandeln.

Lass uns gemeinsam einen Blick hinter die Kulissen dieses Dramas werfen – und vor allem klären, wie du als Profi jetzt reagieren musst, um nicht auf der Strecke zu bleiben.

Vom unangefochtenen Monopolisten zum Getriebenen

Erinnerst du dich an die Zeit, als „photoshoppen“ zu einem echten Verb im Duden wurde? Vor über drei Jahrzehnten hat Adobe eine völlig neue Grammatik des Visuellen geschaffen. Retuschen, für die man in der analogen Dunkelkammer Stunden brauchte, waren plötzlich in Minuten erledigt. Adobe diktierte die Standards, lieferte die Werkzeuge und formte die Arbeitsabläufe von Millionen Kreativen weltweit.

Doch heute, im rasanten Zeitalter der generativen KI, wirkt der einstige Pionier seltsam behäbig. Ja, Adobe hat mit „Firefly“ und Funktionen wie dem „Generative Fill“ eigene KI-Werkzeuge am Start. Aber das Paradoxe ist: Genau diese Technologien, die Adobe zur Sicherung seiner Macht mitentwickelt, haben das Potenzial, das Fundament ihres eigenen Geschäftsmodells zu pulverisieren. Es ist das klassische Innovator’s Dilemma.

Während Konkurrenten wie Midjourney, Bytedances Seedream oder Runway mit einer ungestümen, fast schon wilden Innovationsfreude vorpreschen, wirkt Adobes KI oft defensiv. Der Dinosaurier Adobe muss das Tanzen lernen, während um ihn herum flinke, kleine Start-ups bereits völlig neue digitale Ökosysteme aufbauen.

Das goldene Gefängnis des Abonnements

Die Analyse der Wall-Street-Banker legt den Finger präzise in die Wunde: Adobes Creative Cloud war einst ein genialer Schachzug zur Kundenbindung (manche würden sagen: Kundenknebelung). Wiederkehrende Einnahmen in Milliardenhöhe waren gesichert. Für große Agenturen sind 60 Euro im Monat Peanuts.

Aber was ist mit dir? Was ist mit den Freelancern, Teilzeit-Fotografen, Studenten und ambitionierten Amateuren? Für diese riesige Zielgruppe wird der Preis zunehmend zur Hürde. Genau in diese Lücke stoßen die neuen Player. Plattformen wie Canva oder die rasanten KI-Videofunktionen von Runway bieten für einen Bruchteil der Kosten – oft sogar kostenlos – Werkzeuge an, die Adobes Monopol massiv anknabbern. Wenn exzellente, KI-gestützte Bildbearbeitung zur günstigen Massenware wird, kippt Adobes stärkstes Argument: die Premium-Positionierung.

Firefly: Rechtlich wasserdicht, aber ist es auch richtungsweisend?

Adobe spielt aktuell einen Trumpf aus, den kein anderer hat: absolute kommerzielle Sicherheit. Sie versprechen, dass ihr Firefly-Modell nur mit lizenzierten Inhalten (Adobe Stock) und gemeinfreien Werken trainiert wurde. Für große Werbeagenturen, die Urheberrechtsklagen fürchten wie der Teufel das Weihwasser, ist das extrem wichtig. Adobe bietet sogar eine rechtliche Entschädigung an, falls es doch mal zu Problemen kommt.

Aber seien wir ehrlich: Während die Rechtsabteilung von Adobe ruhig schlafen kann, findet die wirkliche, rohe kreative Innovation woanders statt. Die unerreichte ästhetische Wucht eines Midjourney-Bildes oder die Magie von einfachen Prompts in ChatGPT setzen Maßstäbe, bei denen Firefly aktuell oft nur brav, aber eben nicht atemberaubend wirkt.

Hier drängt sich unweigerlich der Vergleich zu Kodak auf: Der Fotopionier hielt damals zu lange am hochprofitablen analogen Filmgeschäft fest und unterschätzte die digitale Fotografie – obwohl Kodak sie selbst erfunden hatte! Adobe wandelt gerade auf einem sehr ähnlichen, gefährlichen schmalen Grat.

Die Neuvermessung DEINER Kreativität (und 4 Experten-Tipps für deine Zukunft)

Weit über die Aktienkurse hinaus berührt diese KI-Revolution eine fundamentale Frage für uns alle: Was ist unsere Kreativität noch wert, wenn ein Algorithmus ein handwerklich perfektes Ergebnis in zwei Sekunden ausspuckt?

Diese Angst ist nicht neu. Als im 19. Jahrhundert die Fotografie erfunden wurde, schrien die Maler auf, das Ende der Kunst sei gekommen. Das Gegenteil passierte: Befreit von dem Zwang, die Realität exakt abbilden zu müssen, erfanden sie den Impressionismus und die abstrakte Kunst. Technologische Umbrüche vernichten ein Feld nicht – sie zwingen es zur Evolution!

Damit du in dieser neuen Ära nicht nur überlebst, sondern florierst, habe ich hier 4 handfeste Experten-Tipps für dich:

1. Werde vom Handwerker zum Kurator
Die KI zwingt uns, den Fokus zu verschieben. Jahrelang war deine Fähigkeit, Haare mit dem Zeichenstift-Werkzeug freizustellen, bares Geld wert. Heute macht das die KI. Deine wichtigste Fähigkeit ist ab sofort nicht mehr das reine Handwerk, sondern die Präzision deiner Vision. Du musst der Regisseur werden. Die Idee, die Originalität und dein geschmackliches Kuratieren der KI-Ergebnisse sind deine neue Währung.

2. Brich aus dem Adobe-Ökosystem aus
Verlasse dich nicht mehr nur auf ein einziges Abo. Baue dir ein hybrides Arsenal auf. Nutze Midjourney für extremes, freies Brainstorming und atemberaubende Konzeptkunst. Nutze Canva für schnelle Social-Media-Grafiken. Und nutze Photoshop am Ende der Kette für das, was es am besten kann: den pixelgenauen, hochprofessionellen Feinschliff und die finale Druckaufbereitung.

3. Verkaufe Prozesse, keine Pixel
Kunden werden künftig weniger bereit sein, für reine Retusche-Zeit zu bezahlen, weil sie wissen, dass KI existiert. Positioniere dich neu! Verkaufe Beratung, kreative Konzepte und die rechtssichere Umsetzung von Kampagnen. Deine Empathie, dein Verständnis für die Zielgruppe des Kunden und dein strategisches Denken kann (noch) keine KI ersetzen.

4. Mach die KI zu deinem Junior-Art-Director
Betrachte Tools wie ChatGPT oder Claude nicht als Suchmaschinen, sondern als Sparringspartner. Lass dir von ihnen Bildkonzepte pitchen, Moodboards beschreiben oder Farbpaletten für dein nächstes Shooting vorschlagen. Wer den Algorithmus als intelligenten Dialogpartner nutzt, wird der Konkurrenz meilenweit voraus sein.

Fazit: Deine Chance im Wandel

Adobe steckt in einer Zwickmühle zwischen der Verteidigung eines Milliarden-Geschäftsmodells und der radikalen Neuerfindung. Für uns Kreative ist diese Phase der Unsicherheit aber vor allem eines: eine riesige Chance.

Die Demokratisierung der Werkzeuge senkt die Einstiegshürden. Wo jeder alles generieren kann, trennt sich die Spreu vom Weizen nicht mehr am Werkzeug, sondern am Verstand, der es bedient. Deine Aufgabe ist es nicht, mit der Technologie Schritt zu halten – du musst ihr gedanklich einen Schritt voraus sein. Die Werkzeuge ändern sich dramatisch. Aber die Notwendigkeit für eine starke, unverwechselbare kreative Stimme bleibt. Mehr noch: Sie ist heute wichtiger als je zuvor.

Wie siehst du das? Hältst du Adobe weiterhin die Treue, oder hast du dein Abo vielleicht sogar schon gekündigt und bist zu anderen Tools abgewandert? Lass uns in den Kommentaren darüber diskutieren – ich freue mich auf deine Meinung!



Adobe hat Lightroom Classic im Februar 2026 auf Version 15.2 aktualisiert. Kein riesiger Knall, kein Feuerwerk, aber ein paar Sachen, die im Alltag tatsächlich was bringen. Schauen wir mal rein.

Wer sich die offizielle Diskussion und das Community-Feedback anschauen will, findet auf Reddit einen guten Überblick: What’s new in Lightroom February 2026

Assisted Culling – Schneller aussortieren

Die Assisted Culling Funktion, die Adobe letztes Jahr eingeführt hat, wurde nochmal überarbeitet. Für alle, die den Begriff nicht kennen: Assisted Culling ist Adobes KI-gestützte Hilfe beim Aussortieren von Fotos. Du kommst von einem Shooting mit 800 Bildern zurück, und die KI hilft dir, die scharfen von den unscharfen zu trennen, Duplikate zu erkennen und die besten Aufnahmen einer Serie vorzuschlagen.

In der neuen Version soll das schneller und treffsicherer funktionieren. Ich hab das bei einem aktuellen Projekt getestet und muss sagen: Es ist spürbar besser als noch vor ein paar Monaten. Nicht perfekt, die KI wählt manchmal Bilder ab, die ich behalten hätte, und behält welche, die ich wegwerfen würde. Aber als erster Durchgang, um den Haufen von 800 auf 200 runterzubringen, spart es echte Zeit.

Mein Rat: Lass die KI den ersten Durchgang machen, aber verlass dich nicht blind drauf. Die finale Auswahl machst du selbst. Denn die stärksten Bilder sind nicht immer die technisch besten, und das versteht keine KI der Welt.

Besseres Denoise für Ricoh und Pentax

Ein Detail, das die meisten Leute nicht betrifft, aber für Ricoh- und Pentax-Fotografen relevant ist: Das KI-basierte Entrauschen funktioniert jetzt besser mit bestimmten Kameramodellen dieser Hersteller. Adobe hat offenbar die Kameraprofile überarbeitet und die Denoise-Algorithmen spezifisch angepasst.

Wenn du mit einer Ricoh GR oder einer Pentax K-3 arbeitest und bisher das Gefühl hattest, dass das Entrauschen nicht so gut greift wie bei Canon oder Sony, könnte sich das mit diesem Update verbessert haben. Für alle anderen: weiterschalten, hier gibt es nichts zu sehen.

Performance-Verbesserungen bei Masken und lokalen Korrekturen

Das hier betrifft die gesamte Lightroom-Familie und ist für mich persönlich das Interessanteste an diesem Update. Adobe hat an der Performance geschraubt, speziell bei großen Masken und komplexen lokalen Korrekturen.

Wer viel mit den Maskierungswerkzeugen arbeitet – Himmel auswählen, Subjekt erkennen, Farbbereiche maskieren, mehrere Masken übereinander legen – der kennt das Problem: Irgendwann wird Lightroom zäh. Die Vorschau stockt, die Regler reagieren verzögert, und du sitzt da und wartest.

In Version 15.2 soll das flotter laufen. Ich hab den direkten Vergleich nicht wissenschaftlich gemessen, aber subjektiv fühlt es sich tatsächlich smoother an, besonders bei Dateien mit drei oder mehr überlappenden Masken. Das Remove-Tool, also das KI-gestützte Entfernen von Objekten, scheint ebenfalls etwas schneller zu arbeiten.

Keine Revolution, aber eine Verbesserung, die man im täglichen Workflow merkt. Auf Reddit bestätigen das auch andere User – die Masken reagieren spürbar direkter, besonders auf älteren Rechnern.

Firefly-Integration – Lightroom öffnet die Tür zur KI

Und dann ist da noch die Sache mit Firefly. Adobe baut die Verbindung zwischen Lightroom und seiner hauseigenen KI Firefly weiter aus. Du kannst Bilder jetzt direkter zu Firefly schicken, zum Beispiel für prompt-basierte Bearbeitungen oder sogar um aus einem Foto kurze KI-generierte Video-Clips zu erstellen.

Das reduziert das Hin-und-Her zwischen verschiedenen Apps. Statt ein Bild aus Lightroom zu exportieren, dann Firefly zu öffnen, dort das Bild hochzuladen und dann das Ergebnis wieder zu importieren, geht das jetzt in weniger Schritten.

Ob man das braucht, ist eine andere Frage. Ich persönlich bin skeptisch bei der Idee, aus einem Foto einen Video-Clip zu generieren. Das ist nett als Spielerei, aber für ernsthafte Arbeit fehlt da noch einiges. Die prompt-basierten Edits hingegen könnten interessant werden, wenn Adobe das weiter ausbaut. Stell dir vor, du sagst Lightroom: „Mach den Himmel dramatischer“ oder „Reduzier die Ablenkung im Hintergrund“ und die KI setzt das um. Davon sind wir noch ein Stück entfernt, aber die Richtung ist klar.

Mein Fazit zur Firefly-Integration: Ausprobieren, nicht drauf verlassen. Es ist ein Werkzeug im Werden. Noch nicht fertig, aber man sieht, wohin die Reise geht.

Bugfixes

Wie bei jedem Update gibt es diverse Bugfixes. Adobe listet die im Detail auf, aber für die meisten Anwender sind das Dinge, die man nur bemerkt, wenn man direkt betroffen war. Abstürze bei bestimmten Operationen, Darstellungsfehler in bestimmten Situationen, Kompatibilitätsprobleme mit bestimmter Hardware. Das übliche Wartungspaket.

Meine Einschätzung

Dieses Update ist kein Gamechanger. Es ist ein solides Wartungsupdate mit ein paar netten Verbesserungen, die den Alltag etwas angenehmer machen. Die Performance-Verbesserungen bei den Masken sind willkommen, das Assisted Culling wird langsam brauchbar, und die Firefly-Integration zeigt, wohin Adobe mit Lightroom langfristig will.

Was mich interessiert: Wie weit wird Adobe die KI-Integration in Lightroom treiben? Werden wir irgendwann prompt-basiert entwickeln? Werden lokale Korrekturen vollautomatisch? Wird die RAW-Entwicklung selbst KI-gesteuert?

Ich glaube, ja. Früher oder später. Die Frage ist nur, ob das ein Segen wird oder ob wir am Ende alle den gleichen KI-optimierten Look haben und niemand mehr weiß, warum seine Bilder aussehen wie die von allen anderen.

Aber das ist ein Thema für einen anderen Blogpost.

Für heute gilt: Update installieren, Assisted Culling ausprobieren, Masken testen, und dann wieder an die eigentliche Arbeit. Bilder machen, die gut sind. Mit oder ohne KI.

Die Community-Diskussion zum Update findet ihr wie gesagt hier: Reddit – What’s new in Lightroom February 2026


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Meinung sind meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil Ehrlichkeit dazugehört.



Es gibt Momente, da muss man einfach dankbar sein. Dankbar dafür, dass ein Weltkonzern wie Adobe sich Gedanken macht. Gedanken darüber, wie man den Alltag von Millionen Menschen leichter machen kann. Und neulich haben sie wirklich geliefert.

Sie haben eine Browser-Erweiterung für Acrobat rausgebracht.

Klingt erstmal so spannend wie Steuererklärung am Sonntagnachmittag. Wer braucht schon eine Acrobat-Erweiterung im Browser? PDFs angucken kann man auch so. Aber halt! In diesem kleinen, unscheinbaren Tool steckt eine Revolution. Eine Funktion, auf die die Welt gewartet hat, ohne es zu wissen.

Ein Rechtsklick auf irgendein Bild im Internet – egal welches, egal woher – und zack: Es landet in einer Web-Version von Adobe Express. Und dort, meine Damen und Herren, gibt es einen magischen Radierer.

Wofür man den braucht? Na klar, um störende Elemente zu entfernen. Stromleitungen aus schönen Landschaften. Pickel aus schönen Gesichtern. Touristen vor dem Eiffelturm. Und – ganz wichtig, quasi als Sahnehäubchen der digitalen Freiheit – Wasserzeichen aus urheberrechtlich geschützten Bildern.

Endlich!

Man muss sich das mal vorstellen: Jahrelang war das Klauen von Bildern mühsam. Richtig harte Arbeit. Man musste Photoshop lernen (teuer!), den Kopierstempel verstehen (kompliziert!) und Geduld haben (langweilig!). Man musste wissen, was eine Bereichsreparatur ist. Man musste zoomen. Man musste Pixel schubsen. Profis haben das natürlich hinbekommen, die haben ihre Tricks und Kniffe. Aber was war mit dem Rest der Welt? Was war mit dem Schüler, der das Foto für sein Referat brauchte und kein Taschengeld für Stockfotos hatte? Was mit dem Marketing-Praktikanten, der den Auftrag bekam „Mach mal schnell was Schönes für Social Media“, aber kein Budget? Die mussten bisher mit hässlichen Wasserzeichen leben oder – Gott bewahre – tatsächlich für Bilder bezahlen.

Das war ungerecht. Das war elitär. Das war eine Hürde, die Adobe nun mit einem eleganten Schwung beseitigt hat.

Adobe hat dieses Unrecht quasi demokratisiert. Mit einem Klick ist das Wasserzeichen weg. Kostenlos. Für jeden, der Chrome installiert hat. Das ist Fortschritt! Das ist Barrierefreiheit! Das ist, als würde man jedem Bürger einen Universalschlüssel für alle Autos in der Stadt schenken, damit niemand mehr zu Fuß gehen muss.

Natürlich gab es ein bisschen Gemecker. Von Fotografen, Illustratoren und anderen Leuten, die komischerweise der Meinung sind, ihre Arbeit sei etwas wert. Die haben sich beschwert, dass Adobe ihnen quasi den Laden ausräumt und die Tür offen stehen lässt. Dass ihre Bilder jetzt Freiwild sind. Dass Adobe, der Partner der Kreativen (so nennen sie sich ja gerne), ihnen in den Rücken fällt.

Aber Adobe wäre nicht Adobe, wenn sie darauf nicht eine brillante Antwort hätten. Sie haben das Tool nicht etwa zurückgezogen. Nein. Sie haben ein Pop-up eingebaut.

Wenn man jetzt ein Bild lädt, kommt ein Fenster: „Achtung, dieses Bild könnte geschützt sein. Bitte frag den Besitzer.“

Das ist genial. Das ist juristische Akrobatik auf höchstem Niveau. Das ist wie ein Schild an einer offenen Banktresor-Tür: „Bitte kein Geld mitnehmen.“

Ich stelle mir vor, wie der Bilderdieb vor dem Bildschirm sitzt. Er hat den Rechtsklick gemacht. Er hat den Radierer ausgewählt. Er will das Wasserzeichen entfernen, weil er das Bild für seine Website braucht und keine Lust hat, 50 Euro dafür zu zahlen. Und dann kommt das Pop-up. Und er denkt: „Oh! Stimmt ja! Das darf ich nicht! Danke, Adobe, dass ihr mich daran erinnert habt. Ich werde jetzt sofort den Fotografen kontaktieren, eine Lizenz kaufen und das Bild legal erwerben.“

Ganz sicher. Genau so wird das ablaufen. In einer Welt voller Einhörner und Regenbögen.

In der echten Welt klickt er auf „Okay“, das Wasserzeichen ist weg, und das Bild ist seins.

Man muss Adobe wirklich bewundern. Sie schaffen den Spagat, uns Kreativen Tools zu verkaufen, mit denen wir unsere Arbeit schützen sollen (Content Credentials, Metadaten, der ganze High-Tech-Kram, den sie uns als die Zukunft des Urheberrechts verkaufen), und gleichzeitig der ganzen Welt Tools zu schenken, mit denen man diesen Schutz umgeht. Das ist Geschäftssinn. Das ist Synergie. Das ist, als würde man Alarmanlagen verkaufen und gleichzeitig Einbruchskurse an der Volkshochschule sponsern.

Und das Beste daran: Es ist alles legal. Oder zumindest in einer Grauzone, in der sich Adobe wohlfühlt. Denn sie stellen ja nur das Werkzeug zur Verfügung. Was der Nutzer damit macht, ist seine Sache. Wenn er damit Wasserzeichen entfernt, ist das böse, aber Adobe hat ja gewarnt. Mit dem Pop-up.

Es ist faszinierend zu beobachten, wie ein Unternehmen, das vom Verkauf von Kreativ-Tools lebt, gleichzeitig die Grundlage für den Wert kreativer Arbeit untergräbt. Wenn jedes Bild kopierbar, bearbeitbar und von Eigentumsmerkmalen befreibar ist – was ist es dann noch wert?

Vielleicht ist das der Plan. Vielleicht will Adobe eine Welt schaffen, in der Bilder keinen monetären Wert mehr haben, sondern nur noch Rohstoff sind. Rohstoff für KI-Modelle. Rohstoff für Memes. Rohstoff für den endlosen Stream an Content, der durch unsere Feeds rauscht.

Und wir Kreativen? Wir sind die Lieferanten dieses Rohstoffs. Wir produzieren, wir laden hoch, wir versehen unsere Werke mit Wasserzeichen in der naiven Hoffnung, dass das irgendwas bringt. Und Adobe gibt uns die Tools dazu. Und dann geben sie dem Rest der Welt die Tools, um unsere Arbeit zu nehmen.

Es ist ein perfekter Kreislauf. Ein Perpetuum Mobile der Entwertung.

Aber hey, wir sollten nicht jammern. Wir haben ja Photoshop. Wir haben Lightroom. Wir haben Premiere. Wir haben die besten Werkzeuge der Welt, um Dinge zu erschaffen, die dann jeder klauen kann. Ist das nicht schön?

Und wer weiß, vielleicht baut Adobe als nächstes ein Feature ein, das automatisch erkennt, wenn ein Bild geklaut wurde, und dem Dieb dann eine Rechnung schickt? Ach nein, das wäre ja schlecht für die User Experience. Das würde ja die 320 Millionen Chrome-Nutzer verärgern. Und die sind wichtiger als die paar Millionen Kreativen, die tatsächlich für Adobe-Software bezahlen.

Also: Danke, Adobe. Danke für den digitalen Bolzenschneider. Danke für das Pop-up, das unser Gewissen beruhigt. Und danke, dass ihr uns immer wieder daran erinnert, wer in dieser Beziehung eigentlich der Boss ist.

Wir sind es nicht.


Der technische Hintergrund des Wahnsinns

Lassen wir die Satire mal kurz beiseite (nur kurz, versprochen) und schauen uns an, was da technisch eigentlich passiert. Weil es wirklich beeindruckend ist, wie nahtlos das funktioniert.

Die Erweiterung klinkt sich in den Browser ein. Chrome, Edge, was auch immer. Sie scannt die Seite. Sie erkennt Bilder. Und sie bietet im Kontextmenü – also da, wo man normalerweise „Bild speichern unter“ oder „In neuem Tab öffnen“ findet – eine neue Option an: „In Adobe Express bearbeiten“.

Klingt harmlos. Klingt praktisch. „Oh, ich will dieses Meme kurz zuschneiden.“ „Ich will diesen Screenshot markieren.“ Dafür ist es gedacht. Sagt Adobe.

Aber die Realität ist: Adobe Express ist mittlerweile ein mächtiges Tool. Es hat Zugriff auf die Firefly-Engine, Adobes hauseigene KI. Und Firefly kann Dinge, die vor zwei Jahren noch Science-Fiction waren.

Generatives Füllen. Generatives Entfernen.

Das bedeutet: Wenn du ein Wasserzeichen hast, das quer über das Bild läuft, halbtransparent, über komplexe Hintergründe – früher war das ein Albtraum zu entfernen. Du musstest stempeln, du musstest Strukturen nachbauen, du musstest Licht und Schatten beachten.

Firefly macht das automatisch. Es guckt sich an, was um das Wasserzeichen herum ist, und berechnet, was darunter sein müsste. Es „halluziniert“ die fehlenden Pixel. Und es macht das verdammt gut.

In den meisten Fällen sieht man hinterher nichts mehr. Keine Kante, keine Unschärfe, keinen Wiederholungs-Effekt wie beim Stempeln. Das Wasserzeichen ist einfach weg. Als wäre es nie da gewesen.

Und das Ganze passiert im Browser. Ohne Installation von schwerer Software. Ohne Login in die Creative Cloud (zumindest für die Basisfunktionen). Ohne Abo.

Das ist die Demokratisierung der Bildmanipulation.

Und ja, das hat Vorteile. Für Otto Normalverbraucher, der schnell mal den Ex-Freund aus dem Urlaubsfoto entfernen will. Für die Oma, die den Daumen auf der Linse wegretuschieren möchte.

Aber für Profis? Für Leute, die von der Exklusivität ihrer Bilder leben?

Für die ist es eine Katastrophe.


Das Wasserzeichen: Ein Relikt aus alter Zeit?

Man muss natürlich fragen: Ist das Wasserzeichen überhaupt noch zeitgemäß?

Viele Fotografen verzichten schon lange darauf. Weil es das Bild hässlich macht. Weil es den Betrachter stört. Weil es – wie wir jetzt sehen – keinen echten Schutz bietet.

Aber es war immer ein Symbol. Ein „Finger weg“. Ein „Das gehört mir“.

Indem Adobe dieses Symbol so leicht entfernbar macht, entwerten sie es nicht nur technisch, sondern auch kulturell. Sie signalisieren: Wasserzeichen sind kein Schutz, sie sind ein Fehler im Bild. Ein Störfaktor. Etwas, das man wegmachen kann und soll.

Das verschiebt die Wahrnehmung.

Wenn ich ein Schloss knacke, weiß ich, dass ich einbreche. Wenn ich eine Tür öffne, die nur angelehnt ist, fühlt es sich weniger kriminell an. Adobe hat aus dem Schloss eine angelehnte Tür gemacht.

Und das Pop-up? Das ist der Zettel an der Tür: „Bitte draußen bleiben.“

Wir wissen alle, wie gut solche Zettel funktionieren, wenn drinnen Freibier steht.


Die Doppelmoral der „Creator Economy“

Adobe liebt das Wort „Creator“. Sie benutzen es in jedem zweiten Satz. „Empowering Creators“. „Tools for Creators“. „The Future of Creativity“.

Sie tun so, als wären sie unser bester Freund. Der Partner, der uns die Werkzeuge gibt, um unsere Träume zu verwirklichen.

Aber wenn es hart auf hart kommt – wenn es um Marktanteile geht, um User-Zahlen, um die Eroberung des Browsers – dann sind wir Creators plötzlich zweitrangig. Dann ist die Masse der Konsumenten (und potenziellen Express-Nutzer) wichtiger als die kleine Gruppe der Produzenten.

Das ist verständlich aus BWL-Sicht. 320 Millionen Browser-Nutzer sind ein riesiger Markt. Wenn man denen Adobe Express schmackhaft machen kann, ist das Milliarden wert.

Aber es ist unehrlich.

Man kann nicht auf der einen Seite den Beschützer der Kreativen spielen und auf der anderen Seite die Werkzeuge verteilen, die deren Arbeit entwerten.

Man kann nicht Content Credentials einführen – dieses hochkomplexe System aus kryptografischen Signaturen, das beweisen soll, wer ein Bild gemacht hat und was damit passiert ist – und gleichzeitig den Radiergummi für Wasserzeichen an jeden verschenken.

Das passt nicht zusammen.


Was das für die Zukunft bedeutet

Wenn wir das zu Ende denken, kommen wir an einen interessanten Punkt.

Wenn Bilder technisch nicht mehr geschützt werden können. Wenn jedes Wasserzeichen entfernbar ist. Wenn jede Metadaten-Signatur gestrippt werden kann (was übrigens auch geht, ganz einfach per Screenshot).

Was bleibt dann?

Dann bleibt nur noch Vertrauen. Und Beziehungen.

Vielleicht ist das die Zukunft der professionellen Fotografie und Illustration. Nicht mehr das Verkaufen von Dateien. Sondern das Verkaufen von Dienstleistung, von Persönlichkeit, von Zugang.

„Du kannst mein Bild klauen, ja. Aber du kannst nicht meine Erfahrung klauen. Du kannst nicht meinen Blick klauen. Du kannst nicht die Sicherheit klauen, dass du rechtlich auf der sicheren Seite bist.“

Vielleicht müssen wir uns darauf konzentrieren. Auf den Wert, der nicht in den Pixeln steckt, sondern im Kontext.

Aber das ist anstrengend. Das ist schwer. Das erfordert Marketing, Branding, Networking.

Das einfache „Ich mache ein Bild, lade es hoch, jemand kauft es“ – das stirbt gerade. Und Adobe hat den Spaten in der Hand.


Die Ironie mit der KI

Es gibt noch eine Ebene, die das Ganze besonders pikant macht.

Adobes KI Firefly wurde mit Bildern trainiert, für die Adobe die Rechte hat. Adobe Stock. Public Domain. Das betonen sie immer wieder. „Unsere KI ist ethisch sauber. Wir klauen nicht von Künstlern.“

Das ist ihr großes Verkaufsargument gegenüber Midjourney und Stable Diffusion, die einfach das ganze Internet gescraped haben.

Adobe sagt: „Wir respektieren Urheberrechte.“

Und dann geben sie uns ein Tool, mit dem wir Urheberrechte verletzen können.

Das ist, als würde ein Bio-Bauer, der stolz darauf ist, keine Pestizide zu verwenden, abends heimlich Glyphosat an seine Nachbarn verkaufen.

„Ja, ich benutze das nicht. Aber wenn ihr es wollt… hier, bitte schön. Aber pssst, lest den Warnhinweis auf der Flasche.“

Es wirkt so, als wüsste die linke Hand bei Adobe nicht, was die rechte tut. Oder als wäre es ihnen egal, solange beide Hände Geld einsammeln.

Die Abteilung für „Creator Trust“ baut Content Credentials.
Die Abteilung für „Growth & User Acquisition“ baut den Wasserzeichen-Radierer.

Und am Ende gewinnt immer Growth.


Ein kleiner Hoffnungsschimmer?

Gibt es Hoffnung? Vielleicht.

Vielleicht merken die Leute, dass geklaute Bilder Probleme machen können. Rechtlich (auch ohne Wasserzeichen ist das Urheberrecht ja gültig). Qualitativ (ein wegradiertes Wasserzeichen hinterlässt Spuren, auch mit KI). Moralisch.

Vielleicht entsteht eine Gegenbewegung. Eine Wertschätzung für das Original. Für das Echte. Für das, was bezahlt wurde.

Aber darauf würde ich nicht wetten.

Die Bequemlichkeit gewinnt meistens. „Kostenlos“ gewinnt meistens. „Einfach“ gewinnt meistens.

Und Adobe hat „kostenlos“ und „einfach“ gerade auf ein neues Level gehoben.


Was wir tun können (außer jammern)

Wir können unsere Bilder nicht mehr technisch schützen. Das ist vorbei. Akzeptieren wir das.

Wir können Adobe nicht ändern. Die sind zu groß, zu mächtig, zu sehr auf Wachstum fixiert.

Wir können nur uns selbst ändern.

Wir müssen aufhören, uns auf Wasserzeichen zu verlassen. Wir müssen aufhören, uns auf Plattformen zu verlassen, die uns nicht gehören.

Wir müssen unsere eigenen Plattformen bauen. Unsere eigenen Communities. Unsere eigenen Beziehungen zu Kunden.

Wir müssen so gut sein, dass die Leute uns bezahlen WOLLEN, auch wenn sie klauen KÖNNTEN.

Das ist schwer. Das ist unfair. Das ist viel verlangt.

Aber es ist die Realität.

Und Adobe? Die werden weiter Tools bauen. Gute Tools. Schlechte Tools. Tools, die uns helfen, und Tools, die uns schaden.

Wir müssen lernen, damit umzugehen. Ohne Illusionen. Ohne falsche Dankbarkeit.

Adobe ist nicht unser Freund. Adobe ist ein Werkzeughersteller.

Und wenn der Werkzeughersteller anfängt, Einbrecher-Tools zu verkaufen, dann sollten wir vielleicht anfangen, bessere Schlösser zu bauen. Oder uns einen Hund zulegen.

Oder einfach aufhören, wertvolle Dinge unbeaufsichtigt ins Internet zu stellen.

Was bei digitaler Kunst natürlich schwierig ist.


Fazit: Die schöne neue Welt

Willkommen in der Zukunft. Einer Zukunft, in der alles machbar ist, alles verfügbar ist und nichts mehr sicher ist.

Einer Zukunft, in der ein Wasserzeichen so viel Schutz bietet wie ein „Betreten verboten“-Schild auf einer Wiese. Man kann es ignorieren. Man kann drüberlaufen. Und jetzt kann man es sogar unsichtbar machen, damit man sich nicht mal mehr schlecht fühlt, wenn man drüberläuft.

Danke, Adobe.

Wirklich. Danke, dass ihr uns die Augen geöffnet habt.

Wir dachten, wir wären Partner.
Jetzt wissen wir, wir sind nur Content-Lieferanten.

Und das ist, auf eine bittere Art, auch eine wertvolle Erkenntnis.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – eingesprochen meistens, wenn ich mich über Branchen-News amüsiere (oder aufrege, je nach Tagesform). Wird transkribiert und mit KI in Form gebracht. Die Ironie, die Satire und die leise Resignation sind hundert Prozent handgemacht und kommen von einem, der seit 20 Jahren Adobe-Kunde ist und sich langsam fragt, wie lange noch.



Ich krieg diese Frage ständig. In Mails, in Kommentaren, nach Coachings, auf Events. Immer die gleiche Frage: „Brownz, ich will mit Bildbearbeitung anfangen, aber das Adobe-Abo ist mir zu teuer. Was soll ich nehmen?“ Oder die Variante: „Ich bin Hobbyfotograf, ich brauch nicht alles was Photoshop kann, gibt’s da was Günstigeres?“ Oder die dritte Version: „Ich bin Student, ich hab kein Geld, aber ich will lernen.“

Also gut. Dann reden wir drüber.

Vorweg: Ich selbst arbeite mit Adobe. Seit über zwanzig Jahren. Photoshop ist mein Hauptwerkzeug und wird es wahrscheinlich bleiben, weil mein kompletter Workflow darauf aufgebaut ist, weil meine Plugins dort laufen, weil ich das Programm im Schlaf bediene. Aber ich bin nicht blind. Es gibt heute Alternativen, die verdammt gut sind. Manche davon benutze ich selbst zusätzlich. Und für viele Leute – besonders für Einsteiger, Hobbyisten und Freelancer mit schmalem Budget – sind sie nicht nur ausreichend, sondern die bessere Wahl.

Hier ist mein ehrlicher Überblick. Programm für Programm. Was kann’s, was kann’s nicht, und für wen ist es was.


Statt Photoshop

Affinity Photo 2 – Mein Favorit. Wenn mich jemand fragt, welches Programm ich statt Photoshop empfehlen würde, ist die Antwort seit Jahren dieselbe: Affinity Photo. Das Ding kostet einmalig um die 75 Euro. Nicht pro Monat. Nicht pro Jahr. Einmal. Und dann gehört es dir. Und es ist nicht irgendein billiger Abklatsch. Es ist richtig, richtig gut. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Ebenen, Masken, Einstellungsebenen, non-destruktives Arbeiten – alles da. Die Werkzeuge sitzen, wo du sie erwartest, wenn du von Photoshop kommst. Die Performance ist oft sogar besser, weil das Programm schlanker ist. RAW-Entwicklung ist eingebaut. Frequenztrennung für Hautretusche geht. Panorama-Stitching, HDR-Merge, Focus Stacking – alles drin. Und das für 75 Euro. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Was fehlt? Die KI-Features, die Adobe gerade überall reinbaut. Generative Füllung, neuraler Filter, das ganze Zeug. Wenn du das brauchst, brauchst du Photoshop. Und die Content-Aware-Funktionen sind nicht ganz auf dem gleichen Level. Auch bei der PSD-Kompatibilität gibt es Grenzen. Einfache und mittlere Dateien öffnet Affinity problemlos. Bei sehr komplexen Sachen mit vielen Smartobjekten und verschachtelten Gruppen kann es hakeln. Und Plugins: Viele Photoshop-Plugins laufen nicht in Affinity.

Aber für die allermeisten Leute, die Bilder bearbeiten wollen – ob Fotos, Composings, Retuschen, Grafiken – reicht Affinity Photo locker aus. Mein ehrlicher Rat: Wenn du gerade anfängst oder wenn du nicht jeden Tag professionell in Photoshop arbeitest, kauf dir Affinity. Spar dir das Abo. Und wenn du irgendwann merkst, dass du tatsächlich Features brauchst, die nur Photoshop hat – wirklich brauchst, nicht nur glaubst zu brauchen – dann kannst du immer noch umsteigen. Für die meisten wird dieser Tag nie kommen.

GIMP – Kostenlos, aber mit Haken. GIMP muss ich erwähnen, weil es kostenlos ist und weil es seit Jahrzehnten existiert. Open Source, verfügbar für Windows, Mac und Linux. Aber ich sag dir ehrlich: Ich empfehle es ungern. Nicht weil es technisch schlecht wäre. Es kann erstaunlich viel. Aber die Benutzeroberfläche ist auch 2026 noch so, dass man Kopfschmerzen bekommt. Die Werkzeuge heißen anders, sie liegen anders, sie verhalten sich anders. Wer von Photoshop kommt, fühlt sich wie in einem Paralleluniversum. Für Leute mit null Budget und viel Geduld: Ja, GIMP ist eine Option. Für alle anderen: Affinity Photo kostet 75 Euro. Das ist eine Pizza pro Monat für ein halbes Jahr. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Photopea – Der Geheimtipp. Den kennt fast niemand, und das ist schade. Photopea ist ein Bildbearbeitungsprogramm, das komplett im Browser läuft. Kein Download, keine Installation. Du gehst auf photopea.com und hast ein Programm vor dir, das verdammt nah an Photoshop dran ist. Ebenen, Masken, Filter, PSD-Kompatibilität – im Browser. Kostenlos mit Werbung, oder ohne Werbung für ein paar Euro im Monat. Ersetzt das Photoshop? Nein. Für ernsthafte Arbeit fehlt die Performance und das Farbmanagement. Aber für schnelle Sachen zwischendurch, für die Bearbeitung auf einem fremden Rechner, fürs Reinschnuppern? Photopea ist ein kleines Wunder.


Statt Lightroom

Capture One – Das Profi-Werkzeug. Capture One ist nicht billig, das sag ich gleich vorweg. Es kostet mehr als das Lightroom-Abo, ob als Einmalkauf oder als Abo. Aber es ist besser. Zumindest in dem, worauf es ankommt. Die Farbbearbeitung ist Lightroom haushoch überlegen. Wenn du Hauttöne bearbeitest und willst, dass sie natürlich bleiben, während du den Hintergrund komplett umfärbst – Capture One macht das, ohne dass alles auseinanderfällt. Die lokalen Anpassungen sind mächtiger, die Masken präziser, die ganze Art, wie das Programm mit RAW-Dateien umgeht, fühlt sich kontrollierter an.

Ich benutze Capture One selbst, zusätzlich zu Adobe, für bestimmte Projekte. Besonders bei Porträts und bei Arbeiten, wo Farbe wirklich stimmen muss. Die Lernkurve ist da. Wer von Lightroom kommt, muss sich umgewöhnen. Aber wer sich die Zeit nimmt, wird belohnt. Für Fotografen, die RAW-Entwicklung ernst nehmen und bereit sind, in ein Premium-Werkzeug zu investieren: die beste Wahl.

darktable – Die Open-Source-Variante. darktable ist das kostenlose Lightroom. Open Source, läuft auf allem, wird ständig weiterentwickelt. Die RAW-Entwicklung ist in den letzten Jahren richtig gut geworden. Aber die Oberfläche ist… funktional. Es gibt Module, Sub-Module, verschiedene Workflows, und das Ganze wirkt, als hätten zehn verschiedene Programmierer ihre jeweilige Lieblingslogik eingebaut, ohne sich vorher abzusprechen. Für technikaffine Leute mit Geduld und Experimentierlust: großartige Alternative. Für alle anderen: Capture One oder Affinity sind freundlicher.

Luminar Neo – Der KI-Weg. Luminar Neo von Skylum geht einen komplett anderen Weg. Statt dir hundert Regler hinzustellen, macht es vieles automatisch. Himmel austauschen, Hauttöne verbessern, Licht nachträglich ändern – ein Klick, fertig. Die Ergebnisse sind oft verblüffend gut. Das Problem: Wenn du genau weißt, was du willst, und die KI was anderes vorschlägt, hast du wenig Möglichkeiten. Die manuellen Werkzeuge sind begrenzt. Ich benutze Luminar manchmal für schnelle Looks, zum Ausprobieren. Für ernsthafte Arbeit fehlt mir die Feinsteuerung. Für Hobbyfotografen, die schnelle gute Ergebnisse wollen: interessant.


Statt Illustrator

Affinity Designer 2. Gleiche Geschichte wie bei Affinity Photo: einmal kaufen, für immer benutzen. Und richtig gut. Vektorgrafik, Typografie, Icon-Design, Illustrationen – alles da. Die Oberfläche ist aufgeräumt und durchdacht. Der besondere Trick: Du kannst nahtlos zwischen Vektor- und Pixelmodus wechseln. In einem Programm. Das kann Illustrator nicht, und es ist unfassbar praktisch. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Wo es an Grenzen stößt: Bei der Kompatibilität mit dem AI-Format. Wenn du Dateien mit Agenturen oder Druckereien austauschen musst, die Illustrator-Dateien erwarten, kann das schwierig werden. Und manche Spezialfunktionen in Illustrator sind nach wie vor mächtiger. Für eigene Projekte, für Freelancer, für alle, die nicht in einem Illustrator-Workflow stecken: Top.

Inkscape – Kostenlos und ehrlich. Open Source, kostenlos, und für Vektorgrafik überraschend brauchbar. Die Oberfläche ist nicht hübsch, ist sie wirklich nicht, aber die Werkzeuge funktionieren. Für Logos, Icons, SVG-Grafiken fürs Web: Inkscape macht seinen Job. Für Leute mit null Budget, die Vektorgrafik brauchen.


Statt InDesign

Affinity Publisher 2. Der dritte im Affinity-Bunde. Magazine, Bücher, Broschüren, Flyer – alles machbar. Musterseiten, Textumfluss, Farbmanagement, PDF-Export in Druckqualität – alles da. Der größte Vorteil: Die drei Affinity-Programme arbeiten nahtlos zusammen. Du bist in Publisher, klickst auf ein Bild, und bist sofort im Photo-Modus. Ohne Export, ohne Dateiwechsel. Das ist elegant gelöst und das kann InDesign so nicht. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/

Der Nachteil: Keine InDesign-Kompatibilität. IDML-Dateien kann Publisher nicht öffnen. Wenn du mit Leuten zusammenarbeitest, die InDesign nutzen, wird der Dateiaustausch schwierig. Für eigene Projekte, Self-Publishing, alles wo du die Kontrolle hast: wunderbar. Für bestehende InDesign-Workflows: problematisch.

Scribus – Open Source DTP. Kostenlos und erstaunlich fähig für professionelles Desktop Publishing. CMYK, PDF/X-Export, alles was die Druckerei braucht. Aber die Bedienung ist von gestern. InDesign und Affinity Publisher sind Welten komfortabler. Für Leute mit null Budget, die ein Buch setzen wollen: geht. Für alle anderen: Affinity Publisher.


Statt Premiere Pro

DaVinci Resolve – Mein absoluter Favorit. Wenn es eine Alternative gibt, die ich ohne jeden Vorbehalt empfehle, dann ist es DaVinci Resolve. Kostenlos. Richtig kostenlos. Kein Trick, keine Einschränkung, die dich zum Upgrade zwingt. Die Studio-Version kostet einmalig um die 300 Euro, aber die kostenlose Version reicht für fast alles.

Schnitt, Farbkorrektur, Audio-Bearbeitung, Visual Effects – alles in einem Programm. Und die Farbkorrektur ist nicht nur gut – sie ist die beste auf dem Markt. Hollywood-Produktionen werden in Resolve gegradet. Die Lernkurve ist steil, Resolve ist ein Profi-Werkzeug und sieht auch so aus. Aber wenn du die ersten Hürden genommen hast, willst du nicht mehr zurück. Ich benutze Resolve selbst für meine Video-Projekte, neben Adobe, weil es in manchen Bereichen einfach besser ist.

CapCut – Für Social Media. Wenn du hauptsächlich Reels, TikToks und YouTube-Shorts schneidest, ist CapCut dein Programm. Kostenlos, einfach, mit KI-Features die überraschend gut funktionieren. Kein Premiere-Ersatz, nicht mal annähernd. Aber für Social-Media-Content brauchst du kein Premiere.


Statt After Effects

Hier wird’s dünn. Das muss ich ehrlich sagen. After Effects hat in seinem Bereich nach wie vor wenig ernsthafte Konkurrenz. Blackmagic Fusion, in DaVinci Resolve integriert, kann Compositing und VFX auf hohem Niveau, ist aber node-basiert statt ebenenbasiert, was eine komplett andere Denkweise erfordert. HitFilm ist für Einsteiger interessant, kostenlos in der Basis, mit kostenpflichtigen Erweiterungen. Kein After-Effects-Ersatz, aber ein guter Einstieg. Wenn du wirklich professionelle Motion Graphics brauchst, kommst du an After Effects aktuell schwer vorbei. Das ist die eine Stelle, wo Adobe noch relativ konkurrenzlos ist.


Die Affinity-Suite als Gesamtpaket

Wenn ich einen Schritt zurücktrete und mir das Gesamtbild anschaue, dann ist die Affinity-Suite die stärkste Alternative zum Adobe-Ökosystem. Photo + Designer + Publisher. Drei Programme, einmal kaufen. Die arbeiten nahtlos zusammen. Du kannst innerhalb von Publisher in den Photo- oder Designer-Modus wechseln, ohne das Programm zu verlassen. Das Gesamtpaket kostet weniger als ein einziges Jahr Adobe-Abo. Und es gehört dir. Für Fotografen, Designer, Illustratoren, Layouter, Freelancer – die Affinity-Suite ist der beste Einstieg in professionelle Kreativarbeit, den es gibt. Zwischenzeitlich ist es sogar kostenlos: https://store.serif.com/de/update/universal-licence/


Mein Setup – Falls es jemanden interessiert

Photoshop bleibt mein Hauptwerkzeug, daran ändert sich nichts. Capture One für RAW-Entwicklung, weil es Farben besser kann als Lightroom. DaVinci Resolve für Video, weil es kostenlos ist und die Farbkorrektur unerreicht. Affinity Photo als Ergänzung für bestimmte Aufgaben. Blender für 3D, kostenlos und unfassbar mächtig. Ich bin nicht weg von Adobe. Aber ich bin breiter aufgestellt. Und das fühlt sich richtig an.


Am Ende

Die Frage ist nicht: Adobe oder nichts? Die Frage ist: Was brauchst du wirklich? Wenn du anfängst, wenn du lernst, wenn du mit kleinem Budget arbeitest – du brauchst kein Adobe-Abo. Du brauchst gute Werkzeuge, die du dir leisten kannst. Und die gibt es. Heute mehr denn je. Probier sie aus. Entscheide selbst. Und lass dir von niemandem einreden, dass gute Kreativarbeit nur mit bestimmter Software möglich ist. Das Werkzeug macht nicht den Künstler. Der Künstler macht das Werkzeug.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos, unterwegs, beim Nachdenken. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ich zahle seit Jahren monatlich an Adobe. Jeden Monat. Automatisch. Der Betrag wird abgebucht, ich arbeite weiter, und meistens denk ich nicht groß drüber nach.

Aber letztens hab ich mal nachgerechnet. Richtig nachgerechnet. Mit Taschenrechner und allem.

Und dann hab ich eine Weile auf die Zahl gestarrt.

Und dann hab ich angefangen, diesen Text zu schreiben.


Was ich bezahlt habe – und was ich dafür bekommen habe

Ich bin seit ungefähr 2013 im Creative-Cloud-Abo. Das sind, Stand heute, über zwölf Jahre. Der Preis hat sich in dieser Zeit mehrfach erhöht. Aber nehmen wir mal grob einen Durchschnitt von sagen wir sechzig Euro pro Monat – das ist noch konservativ geschätzt, weil ich zeitweise das komplette Paket hatte.

Sechzig Euro mal zwölf Monate mal zwölf Jahre.

Das sind 8.640 Euro.

Achtundsechszig Hundert Euro. Für Software. Die mir nicht gehört.

Wenn ich morgen kündige, habe ich nichts. Keine Dateien, die ich öffnen kann. Keine Programme, die laufen. Nichts. Ich könnte meine eigenen PSD-Dateien nicht mehr bearbeiten, weil das Programm, das sie erstellt hat, nicht mehr läuft.

Ich hab für über achteinhalb Tausend Euro eingekauft und besitze null Produkte.

Ist das fair? Oder wurden wir verarscht?


Wie das alles angefangen hat

Um das zu verstehen, muss man zurückgehen. Zu Adobe CS – Creative Suite. Einmalzahlung, Software gehört dir, fertig.

Photoshop CS6 hat damals etwa 999 Dollar gekostet. Einmal. Dann war es deins. Du konntest es zehn Jahre lang nutzen, ohne einen Cent mehr zu zahlen. Klar, du bekamst keine neuen Features. Aber was du hattest, hat funktioniert.

Ich hab noch Kollegen, die mit CS6 arbeiten. Heute. Im Jahr 2026. Das Programm hat keine neuen Features seit vierzehn Jahren – und es tut, was es tun soll.

Dann kam 2013. Adobe kündigt an: Keine Kaufversionen mehr. Nur noch Abo. Creative Cloud für alle.

Die Reaktion war, gelinde gesagt, nicht begeistert. Es gab Proteste, Petitionen, wütende Forenbeiträge. Adobe hat das alles ignoriert und es durchgezogen.

Warum? Weil sie konnten. Weil sie das Monopol hatten. Und weil sie wussten, dass wir letztendlich mitmachen würden.

Und wir haben mitgemacht. Alle.


Das Argument, das Adobe immer bringt

Adobe hat für das Abomodell immer dieselben Argumente gehabt.

Ihr bekommt ständig Updates. Ihr habt immer die neueste Version. Ihr zahlt nicht auf einmal viel, sondern in kleinen Häppchen. Ihr bekommt Cloud-Speicher dazu. Es ist fair und transparent.

Klingt gut. Stimmt auch teilweise.

Aber lass mich das mal auseinandernehmen.

Ständige Updates: Ja, es gibt Updates. Aber hand aufs Herz: Wie viele der Features, die Adobe in den letzten fünf Jahren rausgebracht hat, nutzt du wirklich? Ich hab mal nachgezählt. Von den neuen Funktionen der letzten drei Jahre nutze ich vielleicht fünf regelmäßig. Den Rest nicht. Nie. Ich zahle für Features, die ich nicht brauche, die für andere gemacht wurden.

Immer die neueste Version: Stimmt. Aber was wenn die neueste Version schlechter ist? Was wenn ein Update mein Workflow kaputt macht, meine Plugins nicht mehr kompatibel sind, Dinge sich verschieben, die ich nicht verschoben haben will? Mit dem Kaufmodell konnte ich entscheiden: Diese Version ist gut, ich bleib dabei. Mit dem Abo entscheide ich nicht mehr. Adobe entscheidet.

Kleine Häppchen: Das ist psychologischer Trick Nummer eins aus dem Marketing-Handbuch. Sixty Euro pro Monat fühlt sich weniger an als 720 Euro pro Jahr. Ist aber dasselbe. Und über zwölf Jahre ist es über achttausend Euro. Für Software, die mir nicht gehört.

Cloud-Speicher: Den nutze ich kaum. Ich hab meine eigene Backup-Lösung. Ich brauche Adobes Cloud nicht. Ich zahle trotzdem dafür.


Die Preiserhöhungen – die stille Enteignung

2013 hat Adobe Creative Cloud mit etwa dreißig Euro pro Monat für Einzelanwendungen gestartet. Photoshop und Lightroom zusammen waren lange für etwa dreizehn Euro zu haben – das Photography-Paket.

Das war fair. Das hab ich damals sogar verteidigt.

Aber dann kamen die Erhöhungen. Schritt für Schritt. Nicht dramatisch auf einmal, sondern so, dass man sich jedes Mal denkt: Okay, ist noch akzeptabel.

Das Photography-Paket kostet heute in Österreich und Deutschland deutlich mehr als früher. Das komplette Paket ist für viele Einzelselbstständige inzwischen ein echter Kostenblock im Budget.

Und was hat Adobe als Begründung geliefert? KI-Features. Firefly. Generative Fill. Neue Möglichkeiten.

Aber ich hab niemanden gefragt, ob ich diese KI-Features will. Ob ich bereit bin, mehr zu zahlen dafür. Ich wurde einfach vor vollendete Tatsachen gestellt: Das kostet jetzt mehr. Friss oder stirb.

Was wäre passiert, wenn ich gesagt hätte: Ich will die KI-Features nicht, ich zahl den alten Preis?

Nichts wäre passiert. Weil ich diese Option nicht habe.


Das Monopol-Problem

Und hier liegt der eigentliche Kern der Sache.

Adobe kann das alles machen, weil sie ein faktisches Monopol haben. Nicht juristisch im technischen Sinne, aber praktisch.

PSD ist der Standard. Jeder schickt PSDs. Jede Druckerei versteht PSDs. Jeder Kollege hat Photoshop. Jeder Kurs lehrt Photoshop. Jeder Workflow ist auf Photoshop ausgerichtet.

Wenn du aussteigst, steigst du nicht nur aus einem Programm aus. Du steigst aus einem Ökosystem aus. Aus Kompatibilität, aus Zusammenarbeit, aus Konventionen.

Das ist die eigentliche Falle. Nicht das Abo selbst, sondern die Tatsache, dass das Abo unausweichlich ist.

Ich kann mich beschweren so viel ich will. Adobe weiß: Ich bleibe. Weil meine Alternative ist, meinen gesamten Workflow umzubauen, alle Kollegen zu konvertieren, alle Kunden zu erklären, warum ich jetzt anders arbeite.

Das Monopol macht uns gefügig. Und Adobe weiß das.


Die Sache mit Firefly und dem KI-Training

Jetzt kommt der Teil, bei dem ich wirklich unruhig werde.

Adobe hat Firefly – seine KI – mit Bildern trainiert. Mit Bildern aus Adobe Stock, mit gemeinfreien Werken, mit Material, für das Rechte gesichert wurden, das war die offizielle Aussage.

Aber dann kamen die Berichte. Über Metadaten, über Opt-out-Verfahren, über die Frage, ob Adobes Nutzungsbedingungen ihnen erlauben, hochgeladene Dateien für das KI-Training zu verwenden.

Adobe hat mehrfach dementiert, User-Uploads für das Training zu nutzen. Aber die Nutzungsbedingungen haben viele von uns nicht gelesen. Weil sie fünfzig Seiten lang sind, in Juristendeutsch geschrieben, und weil Adobe weiß, dass niemand sie liest.

Die Frage, die sich mir stellt: Wenn mein kreatives Werk in der Adobe Cloud liegt, was passiert damit? Was darf Adobe damit machen? Was macht Adobe damit?

Ich weiß es nicht mit Sicherheit. Und das ist das Problem.

Vertrauen ist die Basis einer Geschäftsbeziehung. Und Adobe hat dieses Vertrauen in den letzten Jahren systematisch beschädigt.


Der Subscription-Trap im Detail

Lass mich erklären, wie der Trap wirklich funktioniert. Für alle, die das noch nicht so klar sehen.

Wenn du fünf Jahre lang in Photoshop arbeitest, baust du etwas auf. Voreinstellungen. Workflows. Aktionen. Brushsets. Plugins. Aber vor allem: Dateien. Tausende von PSD-Dateien, die deine Arbeit enthalten, dein Archiv, deine Geschichte.

Diese Dateien sind in einem Format, das dir gehört – theoretisch. Aber in der Praxis kannst du sie nur öffnen, wenn du Adobe zahlst.

Das ist wie wenn eine Bank sagt: Dein Geld gehört dir. Aber um dranzukommen, brauchst du unsere App. Und wenn du die App nicht mehr abonnierst, kommst du an dein Geld nicht mehr ran.

Technisch gesehen ist das ein Lock-in. Im Volksmund nennt man das eine Falle.

Und Adobe hat diese Falle sehr bewusst und sehr gezielt aufgebaut. Jedes Feature, das tiefere Integration schafft, jedes Cloud-abhängige Tool, jede Funktion, die Daten in Adobes Ökosystem hält – das ist kein Zufall. Das ist Strategie.


Die Antitrust-Klage und was sie bedeutet

2023 hat das US-Justizministerium Adobe verklagt. Nicht wegen dem Abo-Modell direkt, sondern wegen der geplanten Übernahme von Figma.

Adobe wollte Figma kaufen – den wichtigsten Konkurrenten im Design-Bereich, vor allem für UI/UX-Design. Für zwanzig Milliarden Dollar. Der Deal wurde von den Regulatoren blockiert.

Die Begründung: Adobe würde damit ein Monopol in einem wichtigen Kreativbereich zementieren.

Das ist ein Gericht, das offiziell bestätigt hat: Adobe hat eine marktdominierende Stellung und versucht, Konkurrenz aufzukaufen, statt sie zu bekämpfen.

Das sagt alles.

Nicht über ein Unternehmen, das seine Produkte verbessern will. Sondern über eines, das seinen Graben tiefer machen will. Das Kontrolle ausweiten will. Das sichergehen will, dass wir keine Alternativen haben.


Was Adobe wirklich verkauft

Ich bin jetzt an einem Punkt, wo ich glaube: Adobe verkauft nicht Software.

Adobe verkauft Abhängigkeit.

Das klingt hart. Aber überleg mal.

Das Ziel einer guten Software wäre: Dir das beste Werkzeug geben, das dir hilft. Wenn irgendwann eine andere Software besser ist, gehst du dahin.

Das Ziel von Adobes Strategie ist: Sicherstellen, dass du nirgendwo hingehen kannst. Dass der Wechsel so teuer, so schmerzhaft, so kompliziert ist, dass du bleibst, egal was.

Dafür werden Dateiformate proprietär gehalten. Dafür werden Integrationen so tief gebaut, dass man sie nicht einfach rauszieht. Dafür werden Preise schrittweise erhöht, nie auf einmal.

Das ist kein Produkt. Das ist ein Käfig. Ein sehr komfortabler, sehr gut designter Käfig. Mit hübschen Icons und guten Filtern.

Aber ein Käfig.


Bin ich trotzdem noch drin? Ja. Warum?

Hier muss ich ehrlich sein. Nach allem, was ich gerade geschrieben habe.

Ich zahle immer noch. Jeden Monat.

Warum?

Weil ich feststecke. Weil mein Workflow auf Adobe aufgebaut ist. Weil meine Kunden PSDs erwarten. Weil meine Plugins für Photoshop gemacht sind. Weil Capture One zwar besser für RAW ist, aber ich für alles andere Photoshop brauche. Weil ich nicht drei Monate meines Lebens damit verbringen will, umzulernen.

Das ist genau das, was Adobe bezweckt hat.

Ich weiß, dass ich in einem Käfig sitze. Ich seh die Gitterstäbe. Und ich sitze trotzdem drin.

Das ist vielleicht das Frustrierendste an der ganzen Sache. Nicht dass Adobe uns verarscht hat. Sondern dass wir es wissen und trotzdem mitmachen.


Was sich ändern könnte

Ich wäre kein ehrlicher Kommentator, wenn ich nur klagen würde, ohne zu sagen, was ich mir anders wünsche.

Eine faire Kaufoption. Nicht für jeden User, nicht für alle Features. Aber für die, die eine stabile Version kaufen wollen und nicht jede neue KI-Funktion brauchen. Adobe hat das abgeschafft. Sie sollten es zurückbringen.

Echte Transparenz bei den Nutzungsbedingungen. Was passiert mit meinen Dateien? Was darf Adobe mit hochgeladenem Material machen? In einem Satz, nicht in fünfzig Seiten Juristendeutsch.

Offene Dateiformate. PSD sollte ein offener Standard sein. Kein proprietäres Format, das nur Adobe vollständig lesen kann. Das würde echten Wettbewerb ermöglichen.

Faire Preismodelle für verschiedene Märkte. Was für einen amerikanischen Großkonzern erschwinglich ist, ist für einen Freelancer in Wien oder Graz eine andere Rechnung. Das berücksichtigt Adobe nicht.


Das Fazit, das kein schönes Fazit ist

Wurden wir verarscht?

Ja. Teilweise.

Nicht in dem Sinn, dass Adobe nicht liefert, was es verspricht. Die Software ist gut. Photoshop ist immer noch das beste Bildbearbeitungsprogramm, das es gibt. Das lässt sich nicht wegdiskutieren.

Aber wir wurden verarscht in dem Sinn, dass uns eine Wahl genommen wurde. Dass ein Monopol ausgenutzt wurde. Dass Preise erhöht wurden, weil es keine echte Alternative gibt. Dass Abhängigkeit systematisch aufgebaut wurde.

Und wir haben mitgemacht. Weil wir keine Wahl hatten. Weil die Alternative – komplett aussteigen, alles neu lernen, alle Kunden neu erziehen – für die meisten von uns schlimmer ist als monatlich zu zahlen.

Das ist das eigentliche Geschäftsmodell von Adobe.

Nicht Photoshop verkaufen.

Sondern sicherstellen, dass du nicht aufhören kannst, dafür zu zahlen.


Eine letzte Sache

Ich hab vorhin Affinity Suite erwähnt. Und DaVinci Resolve. Und Capture One.

Das sind keine perfekten Alternativen. Das sind Alternativen. Die existieren, funktionieren, und verbessern sich ständig.

Je mehr von uns die nutzen – als Ergänzung, als Backup, als echte Alternative – desto mehr Druck entsteht auf Adobe.

Monopole leben davon, dass wir denken, wir haben keine Wahl.

Vielleicht haben wir mehr Wahl, als wir denken.

Vielleicht ist der erste Schritt, damit aufzuhören, so zu tun, als hätten wir keine.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – dieser hier aus einem Abend mit einem Taschenrechner und steigender Frustration. Wird transkribiert und mit KI aufgeräumt. Die Rechnung und die Wut sind zu hundert Prozent meine eigenen.



Einleitung: Warum Plugins den Unterschied machen

Photoshop ist mächtig. Keine Frage. Aber selbst das mächtigste Werkzeug hat Grenzen – oder zumindest Bereiche, in denen spezialisierte Lösungen schneller, besser oder einfach eleganter arbeiten.

Genau hier kommen Plugins ins Spiel.

Die richtigen Erweiterungen können deinen Workflow revolutionieren. Was früher Stunden dauerte, erledigst du in Minuten. Was früher Expertenwissen erforderte, funktioniert jetzt auf Knopfdruck. Was früher unmöglich schien, wird plötzlich machbar.

Aber – und das ist das Problem – der Plugin-Markt ist unübersichtlich. Hunderte von Erweiterungen buhlen um deine Aufmerksamkeit und dein Geld. Manche sind ihr Gewicht in Gold wert, andere reine Zeitverschwendung. Wie trennst du die Spreu vom Weizen?

Ich habe mir die Zeit genommen, wirklich nachzudenken. Nicht über die gehyptesten oder neuesten Plugins, sondern über diejenigen, die tatsächlich einen fundamentalen Unterschied machen. Die Werkzeuge, die Profis täglich nutzen. Die Erweiterungen, die nach Jahren immer noch unverzichtbar sind.

Hier sind die zehn wichtigsten Photoshop-Plugins – und die ehrlichen Gründe, warum du sie brauchst.


1. Topaz Photo AI

Was es macht

Topaz Photo AI vereint drei Kernfunktionen in einem Paket: Rauschreduzierung, Schärfung und Hochskalierung. Alle drei werden von künstlicher Intelligenz angetrieben, die mit Millionen von Bildern trainiert wurde.

Warum du es brauchst

Die Rauschreduzierung von Topaz ist schlicht die beste auf dem Markt. Ich sage das nicht leichtfertig. Wenn du jemals ein Bild bei ISO 6400 oder höher aufgenommen hast und dachtest „das ist nicht mehr zu retten“, dann wird Topaz dich eines Besseren belehren.

Die KI versteht den Unterschied zwischen Rauschen und Details. Sie entfernt das eine, während sie das andere bewahrt. Das Ergebnis sind Bilder, die aussehen, als wären sie bei niedrigster ISO aufgenommen worden.

Die Schärfung ist ebenso beeindruckend. Leichte Bewegungsunschärfe? Minimal verpasster Fokus? Topaz kann das retten – nicht immer, aber erstaunlich oft.

Und die Hochskalierung ermöglicht es dir, aus einer 12-Megapixel-Datei einen druckfähigen Poster zu machen, ohne dass es wie Matsch aussieht.

Für wen unverzichtbar

Fotografen, die unter schwierigen Lichtbedingungen arbeiten. Event-Fotografen, Hochzeitsfotografen, Wildlife-Fotografen. Jeder, der regelmäßig mit suboptimalem Ausgangsmaterial kämpft.


2. Nik Collection by DxO

Was es macht

Die Nik Collection ist eigentlich kein einzelnes Plugin, sondern eine Suite von sieben spezialisierten Werkzeugen: Color Efex Pro, Silver Efex Pro, Analog Efex Pro, HDR Efex Pro, Viveza, Sharpener Pro und Dfine.

Warum du es brauchst

Die Nik Collection hat Geschichte. Ursprünglich von Nik Software entwickelt, dann von Google übernommen und schließlich von DxO weitergeführt, gehört sie seit über einem Jahrzehnt zur Standardausrüstung professioneller Fotografen.

Der Grund ist einfach: Diese Tools machen bestimmte Dinge besser als alles andere.

Silver Efex Pro ist das Referenzwerkzeug für Schwarz-Weiß-Konvertierung. Punkt. Wenn du ernsthaft in Schwarz-Weiß arbeitest, führt kein Weg daran vorbei.

Color Efex Pro bietet dutzende fotografische Filter und Effekte, die weit über das hinausgehen, was Photoshop nativ kann. Die Qualität ist durchgehend hoch, die Anpassungsmöglichkeiten enorm.

Viveza nutzt die patentierte U-Point-Technologie für lokale Anpassungen. Du setzt Kontrollpunkte ins Bild und passt Bereiche an, ohne komplexe Masken erstellen zu müssen. Intuitiv und schnell.

Die anderen Module – Analog Efex für Filmemulation, HDR Efex für Tonemapping, Sharpener Pro für ausgabespezifische Schärfung, Dfine für Rauschreduzierung – runden das Paket ab.

Für wen unverzichtbar

Fotografen mit kreativem Anspruch. Landschaftsfotografen, Fine-Art-Fotografen, alle die mehr aus ihren Bildern herausholen wollen als technische Korrektheit.


3. Retouch4me Plugins

Was es macht

Retouch4me ist eine Sammlung spezialisierter Plugins für Porträt-Retusche. Jedes Plugin konzentriert sich auf eine spezifische Aufgabe: Heal (Hautunreinheiten), Dodge & Burn (Konturierung), Clean Backdrop (Hintergrund säubern), Eye Vessels (Augenäderchen), Fabric (Kleidungsfalten), und mehr.

Warum du es brauchst

Hautretusche ist zeitaufwendig. Wirklich zeitaufwendig. Ein professionell retuschiertes Porträt kann Stunden dauern, wenn du jeden Pickel, jede Unebenheit, jede Falte manuell bearbeitest.

Retouch4me automatisiert diese Arbeit mit erschreckender Präzision.

Das Heal-Plugin erkennt Hautunreinheiten und entfernt sie – ohne die Hauttextur zu zerstören. Das ist der entscheidende Punkt. Billige Glättungsfilter machen aus Gesichtern Plastikpuppen. Retouch4me bewahrt die natürliche Poren-Struktur, während es nur das entfernt, was stört.

Das Dodge & Burn-Plugin analysiert die Haut und erstellt automatisch Aufhellungs- und Abdunklungsebenen für die Konturierung. Was ein erfahrener Retuschierer in einer Stunde macht, erledigt das Plugin in Sekunden – und das Ergebnis ist oft vergleichbar.

Für wen unverzichtbar

Porträt- und Beauty-Fotografen. Hochzeitsfotografen mit hohem Bildvolumen. Jeder, der regelmäßig Gesichter retuschiert und seine Zeit für wichtigere Dinge nutzen will.


4. Luminar Neo

Was es macht

Luminar Neo ist eine umfassende Bildbearbeitungssoftware, die auch als Photoshop-Plugin funktioniert. Der Fokus liegt auf KI-gestützten Werkzeugen für kreative Bearbeitung.

Warum du es brauchst

Luminar Neo glänzt dort, wo schnelle, beeindruckende Ergebnisse gefragt sind.

Himmelsaustausch ist das Paradebeispiel. Du wählst einen neuen Himmel, und Luminar ersetzt den alten – inklusive realistischer Anpassung von Beleuchtung und Reflexionen. Was in Photoshop eine halbe Stunde manueller Arbeit bedeutet, funktioniert hier in Sekunden.

Portrait-Tools ermöglichen gezielte Anpassungen: Gesichtsskulpturierung, Körperformung, Augen aufhellen, Haut glätten. Alles mit Schiebereglern statt komplexer Masken.

Atmosphärische Effekte wie Nebel, Sonnenstrahlen oder dramatische Lichtstimmungen lassen sich mit wenigen Klicks hinzufügen. Die KI versteht die Szene und platziert die Effekte realistisch.

Luminar ist nicht für Puristen. Es ist für Kreative, die Ergebnisse wollen, ohne sich in technischen Details zu verlieren. Und für Profis, die bestimmte Aufgaben beschleunigen wollen.

Für wen unverzichtbar

Landschaftsfotografen, die mit schwierigen Wetterbedingungen kämpfen. Porträtfotografen, die schnelle Ergebnisse brauchen. Content Creator, die visuell beeindruckende Bilder ohne stundenlanges Bearbeiten wollen.


5. Imagenomic Portraiture

Was es macht

Portraiture ist spezialisiert auf eine einzige Aufgabe: Hautglättung. Und diese eine Aufgabe macht es außergewöhnlich gut.

Warum du es brauchst

Die Stärke von Portraiture liegt in der intelligenten Maskierung. Die Software erkennt automatisch Hauttöne und unterscheidet sie präzise von Haaren, Augen, Lippen, Kleidung und Hintergrund. Die Glättung erfolgt nur dort, wo sie hingehört.

Das Ergebnis: Glatte, ebenmäßige Haut, die trotzdem lebendig aussieht. Keine Wachsgesichter, keine verschwommenen Details, keine künstliche Perfektion.

Du kannst jeden Parameter feinjustieren: Wie stark soll geglättet werden? Welche Hauttöne sollen erfasst werden? Wie viel Textur soll erhalten bleiben? Die Kontrolle ist granular, die Ergebnisse konsistent.

Für Studios mit hohem Durchsatz lassen sich Custom-Presets erstellen und im Team teilen. Jedes Bild bekommt dieselbe Behandlung, ohne dass jeder Mitarbeiter von vorne beginnen muss.

Für wen unverzichtbar

Porträtstudios mit hohem Volumen. Beauty- und Fashion-Fotografen. Hochzeitsfotografen, die hunderte von Porträts konsistent bearbeiten müssen.


6. TK Actions Panel

Was es macht

TK Actions ist ein Panel für Luminosity Masking – eine fortgeschrittene Technik, die Masken basierend auf den Helligkeitswerten im Bild erstellt.

Warum du es brauchst

Luminosity Masking ist ein Gamechanger für Landschaftsfotografie. Die Technik ermöglicht ultragezielte Anpassungen: Nur die Lichter aufhellen, nur die Schatten öffnen, nur die Mitteltöne sättigen – ohne dass die Änderungen auf andere Tonwertbereiche überschwappen.

Das Problem: Luminosity Masks manuell zu erstellen ist kompliziert und zeitaufwendig. Du musst Kanäle laden, berechnen, kombinieren, verfeinern. Für Einsteiger ist das frustrierend, für Profis zumindest lästig.

TK Actions automatisiert den gesamten Prozess. Mit einem Klick erstellst du ein komplettes Set von Luminosity Masks. Ein weiterer Klick wendet sie auf Einstellungsebenen an. Das Panel bietet zusätzlich Werkzeuge für Farbkorrektur, Schärfung, Web-Vorbereitung und mehr.

Die Lernkurve ist moderat, aber die Investition lohnt sich. Fotografen, die TK Actions beherrschen, berichten von dramatischen Verbesserungen sowohl in Effizienz als auch in Bildqualität.

Für wen unverzichtbar

Landschaftsfotografen. Architekturfotografen. Jeder, der mit hohen Kontrasten kämpft und präzise Kontrolle über Tonwerte braucht.


7. Exposure by Exposure Software

Was es macht

Exposure (früher Alien Skin Exposure) ist spezialisiert auf Filmemulation. Die Software reproduziert das Aussehen klassischer analoger Filme digital.

Warum du es brauchst

In einer Welt, in der jedes Foto digital und perfekt ist, sehnen sich viele nach dem Look analoger Zeiten. Das charakteristische Korn von Tri-X, die Farben von Kodak Portra, die Sättigung von Fuji Velvia – diese Ästhetiken haben eine emotionale Qualität, die digitale Perfektion nicht bieten kann.

Exposure liefert genau das. Die Bibliothek umfasst präzise Nachbildungen legendärer Filme: Schwarzweiß-Klassiker, Farbnegativfilme, Diafilme, sogar Instant-Filme wie Polaroid.

Was Exposure von anderen unterscheidet, ist die Authentizität. Die Entwickler haben echte Filme analysiert und ihre Charakteristiken reproduziert – nicht nur die Farben, sondern auch das typische Korn, die Tonwertkurven, die subtilen Farbverschiebungen in Schatten und Lichtern.

Das Tool geht über reine Presets hinaus. Du kannst jeden Aspekt anpassen, kombinieren, verfeinern. Und die nicht-destruktive Arbeitsweise bedeutet, dass du jederzeit Änderungen vornehmen kannst.

Für wen unverzichtbar

Fotografen mit Affinität zu analoger Ästhetik. Hochzeitsfotografen, die einen filmischen Look anbieten. Kreative, die ihre Bilder von der digitalen Masse abheben wollen.


8. Boris FX Optics

Was es macht

Optics ist ein umfassendes Paket für fotografische Effekte, ursprünglich aus der Filmbranche kommend. Es bietet über 160 Filter für Lichteffekte, Lens Flares, Film-Looks, Verzerrungen und mehr.

Warum du es brauchst

Manche Effekte sind in Photoshop nativ kaum zu erreichen. Realistische Lens Flares zum Beispiel. Oder authentische optische Verzerrungen. Oder Lichteffekte, die aussehen, als wären sie tatsächlich durch eine Linse entstanden.

Boris FX Optics füllt diese Lücke. Die Lens Flares basieren auf echten optischen Simulationen – nicht auf generischen Texturen, die jeder schon tausendmal gesehen hat. Die Lichteffekte berücksichtigen physikalische Prinzipien und wirken dadurch überzeugend.

Besonders wertvoll ist die Gobo-Bibliothek: Hunderte von Lichtmustern, Texturen und Overlays für kreative Beleuchtungseffekte. Du kannst Fensterlichter simulieren, Blätterwerk-Schatten projizieren, atmosphärische Stimmungen erzeugen – alles ohne physische Requisiten.

Für Compositing und kreative Fotografie sind diese Werkzeuge unverzichtbar. Sie ermöglichen Effekte, die sonst nur mit aufwendigen Setups oder teurem Equipment möglich wären.

Für wen unverzichtbar

Compositing-Künstler. Kreative Fotografen. Beauty- und Fashion-Fotografen, die mit Lichteffekten arbeiten. Werbefotografen.


9. DxO PureRAW

Was es macht

PureRAW verarbeitet deine RAW-Dateien und erzeugt optimierte DNGs, die du dann in Photoshop weiterbearbeitest. Der Fokus liegt auf Rauschreduzierung und Objektivkorrektur.

Warum du es brauchst

DxO hat sich über Jahre einen exzellenten Ruf in der Objektivkorrektur erarbeitet. Das Unternehmen pflegt eine Datenbank mit präzisen Profilen für tausende Kamera-Objektiv-Kombinationen. Diese Profile basieren auf echten Labormessungen, nicht auf generischen Schätzungen.

PureRAW bringt diese Expertise in deinen Photoshop-Workflow.

Die Rauschreduzierung basiert auf DxOs DeepPRIME-Technologie – einer der fortschrittlichsten auf dem Markt. Die Ergebnisse übertreffen oft das, was Adobes eigene Verarbeitung liefert, besonders bei hohen ISO-Werten.

Die Objektivkorrekturen sind ebenso beeindruckend. Verzeichnung, Vignettierung, chromatische Aberration – alles wird automatisch korrigiert, basierend auf dem spezifischen Verhalten deines Objektivs.

Der Workflow ist elegant: Du lädst deine RAW-Dateien, PureRAW verarbeitet sie, und du arbeitest mit den optimierten DNGs in Photoshop weiter. Nahtlos und effektiv.

Für wen unverzichtbar

Fotografen, die das Maximum aus ihren RAW-Dateien herausholen wollen. Nutzer von Objektiven mit bekannten Schwächen. Jeder, der regelmäßig bei hohen ISO-Werten fotografiert.


10. Fluid Mask

Was es macht

Fluid Mask ist spezialisiert auf komplexe Freistellungen – die Bereiche, in denen Photoshops eigene Werkzeuge an ihre Grenzen stoßen.

Warum du es brauchst

Freistellen ist eine der häufigsten Aufgaben in Photoshop. Und für einfache Motive – klare Kanten, guter Kontrast zum Hintergrund – funktionieren die Bordmittel gut.

Aber dann gibt es die anderen Fälle: Haare vor unruhigem Hintergrund. Halbtransparente Stoffe. Rauch und Nebel. Glas und Reflexionen. Feine Äste vor bewölktem Himmel.

Hier zeigt Fluid Mask seine Stärke. Die Software analysiert Bildkanten auf eine Art, die über konventionelle Algorithmen hinausgeht. Sie versteht komplexe Übergänge und erzeugt Masken, die manuell kaum zu erreichen wären – zumindest nicht in vertretbarer Zeit.

Die Arbeitsweise ist intuitiv: Du markierst grob Vordergrund und Hintergrund, die Software berechnet die optimale Maske. Problembereiche können nachbearbeitet werden, und die fertigen Masken werden nahtlos in Photoshop übertragen.

Für Compositing-Arbeit, bei der saubere Freistellungen die Grundlage sind, ist Fluid Mask eine echte Zeitersparnis.

Für wen unverzichtbar

Compositing-Künstler. Beauty- und Fashion-Fotografen, die häufig Haare freistellen. Produktfotografen mit komplexen Materialien. Jeder, der regelmäßig mit schwierigen Freistellungen kämpft.


Honorable Mentions

Die Top 10 sind gesetzt, aber einige Plugins verdienen eine ehrende Erwähnung:

PortraitPro – Umfassende Porträtretusche mit intuitiver Oberfläche. Gut für Einsteiger und schnelle Ergebnisse.

Aurora HDR – Spezialisiert auf HDR-Fotografie. Natürliches und künstlerisches Tonemapping auf höchstem Niveau.

ON1 Effects – Große Bibliothek von Filtern und Presets. Gute Alternative zur Nik Collection.

Perfectly Clear – Automatische Bildoptimierung. Ideal für Batch-Verarbeitung großer Bildmengen.

Raya Pro – Alternative zu TK Actions für Luminosity Masking. Andere Philosophie, ähnlich mächtig.


Wie du die richtigen Plugins auswählst

Nicht jedes Plugin ist für jeden sinnvoll. Bevor du investierst, frag dich:

Was ist mein Hauptarbeitsbereich?
Ein Landschaftsfotograf braucht andere Werkzeuge als ein Porträtfotograf. TK Actions ist für Porträts weniger relevant, Retouch4me für Landschaften nutzlos.

Wo verliere ich die meiste Zeit?
Identifiziere deine Engpässe. Verbringst du Stunden mit Rauschreduzierung? Mit Freistellungen? Mit Farbkorrektur? Das Plugin, das deinen größten Zeitfresser adressiert, hat den größten Impact.

Was kann ich nicht (oder nur schwer) mit Bordmitteln erreichen?
Manche Plugins machen Dinge möglich, die in Photoshop nativ nicht gehen. Andere beschleunigen nur Prozesse, die du auch ohne sie erledigen könntest. Erstere sind oft wertvoller.

Wie ist mein Budget?
Die Plugins auf dieser Liste kosten von unter hundert bis mehrere hundert Euro. Priorisiere basierend auf deinem Return on Investment – dem Verhältnis von Kosten zu Zeitersparnis und Qualitätsgewinn.


Der praktische Ansatz

Meine Empfehlung: Beginne mit einem oder zwei Plugins, die deine größten Schmerzpunkte adressieren. Meistere sie vollständig, bevor du weitere hinzufügst.

Ein Plugin, das du wirklich beherrschst, ist wertvoller als zehn, die du nur oberflächlich kennst.

Nutze Testversionen, wo verfügbar. Die meisten Anbieter bieten zeitlich begrenzte Trials. Arbeite damit an echten Projekten, nicht nur an Testbildern. Nur so erkennst du, ob ein Plugin in deinen Workflow passt.

Und vergiss nicht: Plugins sind Werkzeuge, keine Magie. Sie machen gute Fotografen besser und effizienter. Aber sie ersetzen weder Können noch kreative Vision. Die wichtigste Investition bleibt die in deine eigenen Fähigkeiten.


Fazit

Die zehn Plugins auf dieser Liste repräsentieren das Beste, was der Markt aktuell bietet. Jedes einzelne hat seinen Platz verdient – durch Qualität, durch Nutzen, durch den tatsächlichen Unterschied, den es in professionellen Workflows macht.

Aber du brauchst nicht alle zehn. Niemand tut das. Wähle die Werkzeuge, die zu deiner Arbeit passen. Meistere sie. Und dann – erst dann – erwäge, weitere hinzuzufügen.

Die richtigen Plugins können deinen Workflow transformieren. Sie können dir Stunden sparen, deine Ergebnisse verbessern, Dinge ermöglichen, die vorher unmöglich schienen.

Die Investition lohnt sich. Aber nur, wenn du klug investierst.


Welche Plugins nutzt du täglich? Welche habe ich übersehen? Teile deine Erfahrungen in den Kommentaren!



Ein Brownz-Art-Essay über das Ende der grenzenlosen Kreativität


1. Die digitale Sintflut

Es begann leise. Erst waren es nur ein paar synthetische Gesichter, die in den Suchergebnissen auftauchten. Dann ein paar Fantasielandschaften, zu perfekt, um echt zu sein. Heute ist der Sturm voll entfacht: Der Bildermarkt im Netz wird von KI-Fluten überschwemmt. Millionen von Motiven, die alle gleichzeitig nach Aufmerksamkeit schreien, aber kaum noch etwas zu sagen haben.

Und jetzt, nach Jahren der Euphorie, nach dem kollektiven Rausch, nach der Explosion der Kreativität, kommt die Ernüchterung: zu viele, zu gleich, zu leer.

Die Plattformen, die diese Bilder einst jubelnd willkommen hießen, ziehen nun Grenzen. Upload-Limits, Qualitätskontrollen, neue Algorithmen – plötzlich ist Schluss mit der grenzenlosen Freiheit. Der große Maschinenrausch wird durch einen kalten Regenschauer aus Regeln abgekühlt.

Doch was hier passiert, ist mehr als eine technische Maßnahme. Es ist ein Wendepunkt in der Geschichte digitaler Kunst: Die Maschinen haben das kreative Spielfeld überrannt – und die Menschen versuchen verzweifelt, es zurückzuerobern.


2. Die Illusion der Unendlichkeit

Wir glaubten, KI würde die Kreativität befreien. Stattdessen hat sie sie entwertet.

Früher war ein gutes Bild ein kleines Wunder – heute ist es eine Massenware. Früher war Kunst ein Akt der Geduld, jetzt ist sie eine Frage von Sekunden. Was einst mit Licht, Chemie und Emotionen erschaffen wurde, entsteht nun aus Buchstaben, Befehlen und Berechnungen.

Und genau darin liegt das Paradoxon: Die neue Freiheit, unbegrenzt Bilder zu erschaffen, hat nicht zu mehr Ausdruck geführt, sondern zu weniger Bedeutung. Wenn alles möglich ist, verliert das Mögliche seinen Wert.

Wir sind von der Schöpfung in die Simulation gerutscht. Und niemand hat gemerkt, wann es passiert ist.


3. Die Ermüdung des Blicks

Wer heute eine Bildsuche startet, wird erschlagen. Die Oberfläche ist perfekt, doch dahinter lauert die Leere. Es ist, als würde man durch ein Museum ohne Kuratoren wandern – jede Wand voll, jeder Rahmen makellos, aber kein Werk, das bleibt.

Die KI-Bilderflut ist kein kreativer Fortschritt, sie ist eine optische Inflation. Schönheit ist nichts mehr wert, wenn sie unbegrenzt reproduzierbar ist. Emotionen verlieren ihre Wucht, wenn sie aus mathematischen Wahrscheinlichkeiten geboren werden.

Vielleicht ist das der Grund, warum echte Fotografien plötzlich wieder etwas Heiliges bekommen. Nicht, weil sie technisch besser wären – sondern, weil sie passiert sind. Weil sie nicht gerechnet, sondern erlebt wurden.


4. Die Angst der Systeme

Jetzt beginnen die Systeme selbst, sich zu wehren. Upload-Limits, Prüfteams, automatische Erkennung von KI-Inhalten – der Code kontrolliert den Code.

Das wirkt ironisch, aber es war unvermeidlich. Die Plattformen sind Opfer ihres eigenen Erfolgs geworden. Sie wollten die Bilder der Zukunft, und bekamen eine Lawine der Beliebigkeit.

Also greift man jetzt ein.
Nicht aus ethischen Gründen, sondern aus praktischen: Serverlast, Qualität, Marktwert. Aber unter der Oberfläche dieser wirtschaftlichen Entscheidungen brodelt etwas Tieferes: der Kampf um Bedeutung. Wer bestimmt, was wertvoll ist – der Mensch, die Maschine oder der Algorithmus, der beide sortiert?


5. Die Rückkehr des Handwerks

Es klingt fast romantisch: Inmitten der KI-Perfektion beginnt der Mensch wieder nach dem Unperfekten zu suchen. Nach Spuren. Nach Ecken. Nach Rauschen. Nach Fehlern, die echt sind.

Wenn der Algorithmus das Makellose liefert, wird das Menschliche zur Rebellion.

Vielleicht ist das die neue Avantgarde: analoge Seele in einer digitalen Welt. Nicht als Nostalgie, sondern als bewusste Entscheidung gegen die makellose Monotonie der KI. Der Gedanke, dass ein echtes Foto, mit Licht und Geduld gemacht, mehr Gewicht trägt als tausend generierte Visionen.

Nicht, weil es technisch besser ist. Sondern, weil es das Unplanbare enthält: die Schönheit des Zufalls.


6. Die neue Klassengesellschaft der Kreativen

Mit den neuen Regelwerken entsteht ein Zwei-Klassen-System: Menschliche Schöpfer auf der einen Seite, synthetische Generatoren auf der anderen. Gleiche Plattform, ungleiche Bezahlung, ungleiche Würdigung.

Das ist nicht nur ein wirtschaftlicher Schritt, sondern ein kulturelles Statement.

Es erinnert daran, dass Kunst mehr ist als Produktion. Sie ist Haltung, Intention, Risiko. KI hat keine Angst vor dem Scheitern – Menschen schon. Und genau diese Angst formt Tiefe. Sie zwingt uns, uns zu entscheiden, zu reflektieren, loszulassen.

Maschinen erschaffen, weil sie können. Menschen erschaffen, weil sie müssen.


7. Der Mythos vom neutralen Algorithmus

Die neuen Erkennungs- und Bewertungssysteme sollen trennen: Was ist menschlich, was maschinell? Doch diese Trennung ist eine Illusion.

Jede Bewertung ist eine Meinung, und jede Meinung entsteht aus einem System von Interessen. Wenn ein Konzern entscheidet, welche Bilder sichtbar sind, ist das keine technische Entscheidung – es ist eine kulturelle Machtfrage.

Der Algorithmus wird zum unsichtbaren Kurator. Er bestimmt, welche Kunst existieren darf. Und das, was durch das Raster fällt, verschwindet im digitalen Nebel.

Damit ist das Problem nicht die KI selbst, sondern ihre Einhegung. Die neue Zensur kommt nicht in Form von Politik oder Moral, sondern in Form von Datenfiltern.


8. Die Evolution der Idee

Vielleicht war das alles unvermeidlich.

Jede Revolution frisst ihre Kinder, und die KI-Kunst ist keine Ausnahme. Sie hat das Bild demokratisiert, aber auch entmystifiziert. Jeder kann jetzt erschaffen, aber kaum jemand kann noch berühren.

Was bleibt, ist die Suche nach dem Warum. Warum mache ich Kunst, wenn die Maschine es besser kann? Warum erzählen, wenn sie schneller erzählt? Warum malen, wenn sie schon alle Farben kennt?

Die Antwort liegt in der Tiefe: Weil Kunst nie nur das Ergebnis ist, sondern der Prozess. Weil das, was uns menschlich macht, nicht das Bild ist, sondern die Erfahrung, die dorthin führt.


9. Die neue Ethik des Sehens

Vielleicht brauchen wir eine neue Ethik der Kreativität. Eine, die nicht zwischen Mensch und Maschine unterscheidet, sondern zwischen Absicht und Automatik.

Ein KI-Bild kann berühren, wenn ein Mensch es mit echter Absicht steuert. Aber es bleibt leer, wenn es nur Klickware ist. Der Unterschied liegt nicht im Pixel, sondern im Bewusstsein.

In dieser neuen Epoche könnte Kunst zu etwas werden, das wieder Verantwortung trägt. Nicht als moralische Instanz, sondern als bewusstes Gegenbild zur automatisierten Welt.

Vielleicht ist das die wahre Aufgabe des Künstlers der Zukunft: nicht schneller, größer, perfekter zu erschaffen – sondern bewusster.


10. Der Blick nach vorn

Wir stehen an einem Scheideweg.
Die KI hat uns gezeigt, dass Schönheit berechenbar ist. Aber Bedeutung bleibt es nicht.

Vielleicht müssen wir neu lernen, zu sehen. Nicht nur zu konsumieren, sondern zu wählen. Nicht nur zu erschaffen, sondern zu empfinden.

Denn wenn jeder alles erschaffen kann, wird der einzige Unterschied sein, wer es fühlt.


11. Fazit: Die Kunst nach der Maschine

Der Sturm wird nicht aufhören. Die KI wird weiter malen, weiter generieren, weiter lernen. Aber vielleicht lernen auch wir. Vielleicht begreifen wir, dass Kunst nicht in der Perfektion liegt, sondern im Widerstand gegen sie.

Das wahre Comeback des Menschen liegt nicht im Verbot, sondern in der Entscheidung: bewusst, unberechenbar, unvollkommen.

Die Zukunft der Kreativität wird nicht von denen bestimmt, die am meisten Bilder hochladen. Sondern von denen, die trotz aller Maschinen noch den Mut haben, ihre eigene Geschichte zu erzählen.


Ein Brownz.blog-Beitrag über Zahlen, Strategien und die neue Abhängigkeit der Kreativen


1. Vom Werkzeug zum Vertrag

Früher kauften wir Photoshop. Heute mieten wir eine Idee. Die Idee heißt Creative Cloud und sie ist weniger Wolke als System. Adobe hat den Markt neu programmiert – von Besitz zu Bindung, von Einmalzahlung zu Dauerabo. Klingt flexibel, kostet aber über Zeit ein Vermögen.


2. Die aktuellen Preise (Stand Oktober 2025)

Foto-Abo (Photography Plan)

  • Enthalten: Lightroom + Photoshop + 1 TB Cloud-Speicher
  • Preis: ca. 19,99 € / Monat (bzw. 14,99 € mit nur 20 GB Speicher)
  • Jahrespreis: 239,88 €
  • 10 Jahre: 2.398,80 €

Komplett-Abo (All Apps / Creative Cloud Pro)

  • Enthalten: Alle Adobe-Programme + Fonts + Libraries
  • Preis: 69,99 € / Monat
  • Jahrespreis: 839,88 €
  • 10 Jahre: 8.398,80 €

AI-Abo (Adobe Firefly)

  • Firefly Standard: 9,99 € / Monat (ca. 2.000 Credits)
  • Firefly Pro: 29,99 € / Monat (ca. 7.000 Credits)
  • 10 Jahre (Standard): 1.198,80 €
  • 10 Jahre (Pro): 3.598,80 €

3. Früher war’s teuer – aber endlich

Adobe Creative Suite 6 (Master Collection, 2012)
Einmalzahlung: ca. 2.599 €
Nutzungsdauer: solange dein Rechner mitmacht. Keine Abos, keine automatischen Updates, kein Loginzwang.

Vergleich: 10 Jahre All-Apps-Abo = 8.398,80 €.
Das sind über 220 % mehr Kosten – für dieselbe Grundfunktion: kreative Werkzeuge nutzen.


4. Der psychologische Trick

Adobe verkauft keine Software mehr, sondern Sicherheit. Du mietest die Angstfreiheit, dass nichts abstürzt, nichts veraltet. Aber du kaufst sie nie frei. Das Abo ist wie ein Goldkäfig – er glänzt, aber er gehört dir nicht.

Das nennt man digitale Abhängigkeit als Geschäftsmodell. Ein System, das aus Komfort Loyalität macht. Wer raus will, verliert Dateien, Cloud-Zugänge, Farbprofile, Fonts. Freiheit kostet hier doppelt: Geld – und Mut.


5. Die neue Währung: Credits und Cloud

Mit den AI-Abos verschiebt Adobe das Spiel erneut. Firefly arbeitet mit sogenannten Credits. Du bekommst monatlich ein Kontingent – verbraucht, verbraucht. Wer mehr will, zahlt. Die Maschine ist freundlich, aber hungrig.

Die Zukunft? Abo im Abo. Du mietest Software, die dir wiederum Arbeitseinheiten vermietet. Willkommen in der Ökonomie der kleinen Häppchen.


6. Was bleibt dem Künstler?

Ehrlich gesagt: Bewusstsein. Nur das.

Denn wer versteht, wie diese Systeme funktionieren, kann sich entscheiden, wann er mitspielt und wann nicht. Wer das Abo bewusst nutzt, nutzt es richtig. Wer es gedankenlos laufen lässt, zahlt Miete fürs Nicht-Arbeiten.

Die Alternative?
Kombination aus Einzellösungen (Affinity, Capture One, DaVinci, Krita) – allesamt Kaufmodelle, teilweise mit kostenlosen Updates.
10 Jahre Affinity-Suite (dreimal upgraden à 80 €) = 240 €.
10 Jahre Adobe All Apps = über 8.000 €.
Mathematik lügt nicht. Marketing schon.


7. Fazit – Die Kunst kostet jetzt doppelt

Kunst war nie billig. Aber heute kostet sie zusätzlich ein Abo.
Nicht nur von Geld, sondern von Kontrolle.

Adobe verkauft Bequemlichkeit und Sicherheit – und wir kaufen sie, weil wir Angst haben, ohne sie zu sein. Doch das echte Upgrade passiert im Kopf: Wer seine Tools versteht, ist frei. Wer sie nur mietet, bleibt Benutzer.

Der Code ist Werkzeug. Die Vision ist Besitz.
– Brownz.art