Eine kunstkritische Betrachtung über Werkzeuge, Kreativität und warum manche Menschen einfach gerne meckern
Von einem müden Kunstkritiker, der das alles schon mal gehört hat
Letzte Woche stand ich in einer Galerie. Vor mir: eine beeindruckende Arbeit. Digitale Komposition, KI-generierte Elemente, von Hand nachbearbeitet, in Acryl veredelt. Technisch versiert. Konzeptionell stark. Emotional wirksam.
Neben mir: Zwei Besucherinnen, vielleicht Anfang 50.
„Das ist doch keine richtige Kunst“, sagte die eine. „Das macht ja der Computer.“
Ich seufzte. Innerlich. Laut. Mit meiner ganzen Seele.
Nicht, weil ich anderer Meinung war. Sondern weil ich diesen exakt gleichen Satz schon so oft gehört habe. Nur mit anderen Worten.
„Das ist doch keine richtige Fotografie. Das macht ja die Kamera.“
„Das ist doch keine echte Zeichnung. Das ist ja digital.“
„Das ist doch keine Kunst. Das ist ja Photoshop.“
Und jetzt: „Das ist ja nur KI.“
Wir sind wieder da. Am exakt gleichen Punkt. Nur mit neuer Technologie.
Und ehrlich? Ich hab’s satt.
Die Fotografie: Als Kunst zum ersten Mal „zu einfach“ wurde
Spulen wir zurück. 1839. Louis Daguerre präsentiert die Daguerreotypie. Die Öffentlichkeit ist fasziniert. Die Kunstwelt? Empört.
Der französische Maler Paul Delaroche soll angeblich ausgerufen haben: „Von heute an ist die Malerei tot!“
Die Kritik damals klang bemerkenswert vertraut:
„Das ist kein Können, das ist eine Maschine.“
„Jeder kann auf einen Knopf drücken.“
„Wo ist da die künstlerische Hand?“
„Das ist Reproduktion, keine Kreation.“
Charles Baudelaire, einer der einflussreichsten Kunstkritiker seiner Zeit, schrieb 1859: „Wenn man der Fotografie erlaubt, die Kunst in einigen ihrer Funktionen zu ergänzen, wird sie diese bald vollständig verdrängt oder verdorben haben.“
Das war vor 165 Jahren.
Heute hängen Fotografien von Ansel Adams, Diane Arbus, Andreas Gursky in den wichtigsten Museen der Welt. Fotografien werden für Millionen verkauft. Niemand fragt mehr, ob Fotografie „echte Kunst“ ist.
Die Debatte ist tot. Die Kunst hat gewonnen.
Aber das Muster? Das wiederholt sich. Immer wieder.
Digitale Fotografie: Die zweite Runde
Fast forward. 1990er Jahre. Digitalkameras werden erschwinglich. Plötzlich braucht man kein Filmmaterial mehr, keine Dunkelkammer, keine chemischen Prozesse.
Und prompt: Die nächste Empörungswelle.
„Das ist doch keine richtige Fotografie.“ „Analog erfordert Können. Digital ist nur klicken und hoffen.“ „Echte Fotografen arbeiten mit Film.“ „Digital hat keine Seele.“
Ich erinnere mich an Gespräche in Fotografie-Foren Anfang der 2000er. Die Verbissenheit, mit der manche Leute verteidigten, dass nur analoge Fotografie wahre Kunst sei. Digital? Spielerei.
Heute? Die Debatte ist vorbei. Niemand fragt mehr nach. Einige der teuersten zeitgenössischen Fotografien wurden digital aufgenommen.
Aber das Muster bleibt.
Photoshop: Als Bearbeitung plötzlich „Betrug“ war
Nächste Runde. Photoshop wird zum Standard. Anfang 2000er.
Und wieder: Empörung.
„Das ist ja bearbeitet!“ „Das ist keine echte Fotografie mehr, das ist Manipulation.“ „Früher musste man das Bild richtig aufnehmen. Heute macht man einfach alles in Photoshop.“ „Echte Fotografen brauchen kein Photoshop.“
Ich habe Ausstellungen gesehen, in denen explizit darauf hingewiesen wurde: „Keine digitale Nachbearbeitung“ – als wäre das ein Qualitätsmerkmal. Als wäre Ansel Adams nicht stundenlang in der Dunkelkammer gewesen, um seine Prints zu optimieren. Als hätte nicht jeder große Fotograf der Geschichte massiv in die Entwicklung eingegriffen.
Aber damals galt: Photoshop = Schummelei.
Heute? Photoshop ist Industriestandard. Jede professionelle Fotografie durchläuft Nachbearbeitung. Niemand regt sich mehr auf.
Außer natürlich über das nächste Werkzeug.
KI: Willkommen zur vierten Iteration derselben Debatte
Und jetzt sind wir hier. 2024, 2025. KI-generierte Kunst.
Und die Argumente? Exakt dieselben. Nur das Werkzeug hat sich geändert.
„Das ist doch keine echte Kunst.“ „Das macht ja die KI.“ „Jeder kann einen Prompt eingeben.“ „Wo ist da das Können?“ „Das ist Diebstahl an echten Künstlern.“
Jedes. Einzelne. Argument. gab es schon. Drei Mal. Mindestens.
Und wisst ihr was? In zehn Jahren wird niemand mehr danach fragen. Genau wie bei Fotografie, Digitalfotografie und Photoshop.
KI wird ein Werkzeug sein. Unter vielen. Manche Künstler nutzen es. Manche nicht. Beide machen Kunst.
Aber bis dahin müssen wir uns anscheinend wieder durch dieselbe ermüdende Diskussion quälen.
Warum das Argument „Das ist kein Können“ Unsinn ist
Lasst mich etwas klarstellen.
Ein Werkzeug zu bedienen ist nicht automatisch Kunst. Aber es verhindert auch nicht Kunst.
Ein schlechter Fotograf mit der besten Kamera der Welt macht schlechte Fotos. Ein guter Fotograf mit einer Handy-Kamera macht gute Fotos.
Ein schlechter Maler mit den teuersten Ölfarben malt Schrott. Ein guter Maler mit Kinderfarben kann Magie erschaffen.
Ein schlechter Künstler mit KI-Tools produziert generischen Müll. Ein guter Künstler mit KI-Tools erschafft etwas, das dich zum Nachdenken bringt.
Das Werkzeug ist nicht der Punkt.
Der Punkt ist:
Was willst du sagen?
Wie setzt du es um?
Bewegt es etwas in anderen Menschen?
Kunst ist nicht die Technik. Kunst ist die Absicht, die Vision, die Ausführung, die Wirkung.
Ob du das mit einem Pinsel, einer Kamera, Photoshop oder einer KI erreichst, ist vollkommen egal.
Das eigentliche Problem: Gatekeeping als Identität
Hier ist die unbequeme Wahrheit über viele dieser Kritiker:
Es geht ihnen nicht um Kunst. Es geht um Status.
Sie haben Jahre investiert, eine bestimmte Technik zu lernen. Analog fotografieren. In der Dunkelkammer arbeiten. Mit Ölfarben malen. Und dieser Aufwand gibt ihnen ein Gefühl von Exklusivität.
„Ich kann etwas, was nicht jeder kann.“
Und dann kommt ein neues Werkzeug. Eines, das die Einstiegshürde senkt. Und plötzlich können mehr Menschen visuell kreativ sein.
Und das fühlt sich für manche an wie eine Bedrohung.
„Wenn jeder Kunst machen kann, bin ich dann noch etwas Besonderes?“
Die Antwort ist: Ja. Wenn deine Kunst gut ist.
Aber wenn dein einziger Wert darin lag, dass du ein schwieriges Werkzeug beherrschst, dann hast du ein Problem. Denn Werkzeuge werden immer einfacher. Das ist Fortschritt.
Echte Künstler fürchten neue Werkzeuge nicht. Sie nutzen sie.
Warum „KI stiehlt von Künstlern“ zu kurz greift
Okay, hier wird’s differenziert.
Ja, KI-Modelle werden mit Bildern trainiert. Viele davon ohne explizite Erlaubnis der Urheber. Das ist ein rechtliches und ethisches Problem, das gelöst werden muss.
Keine Frage. Das ist eine legitime Debatte über Urheberrecht, faire Vergütung und Transparenz.
Aber: Das ist eine andere Diskussion als „KI-Kunst ist keine echte Kunst“.
Du kannst gleichzeitig für bessere Künstlerrechte kämpfen UND anerkennen, dass KI ein legitimes kreatives Werkzeug ist.
Und hier ist der Punkt: Inspiration funktioniert immer durch Aufnahme und Rekombination.
Jeder Künstler lernt, indem er andere Künstler studiert. Maler kopieren Alte Meister. Fotografen lassen sich von anderen Fotografen inspirieren. Designer schauen, was andere machen.
Das ist nicht „Diebstahl“. Das ist, wie Kreativität funktioniert.
Die Frage ist nicht, ob man von anderen lernt. Die Frage ist: Schaffst du daraus etwas Neues?
Und genau das gilt auch für KI-Kunst. Ein guter Künstler nutzt KI nicht als „Knopf für fertiges Bild“, sondern als Werkzeug im kreativen Prozess.
Genauso wie Photoshop. Oder eine Kamera.
Die Museen wissen es längst
Hier ist ein Fakt, der die Debatte eigentlich beenden sollte:
KI-generierte Kunst hängt bereits in renommierten Museen.
Das MoMA in New York hat KI-Kunst in Ausstellungen gezeigt.
Die Serpentine Gallery in London hat KI-basierte Installationen präsentiert.
Die Ars Electronica widmet seit Jahren ganze Bereiche digitaler und KI-basierter Kunst.
Christie’s und Sotheby’s haben KI-Kunstwerke versteigert – für sechsstellige Summen.
Die Kunstwelt – die institutionelle, akademische, kuratorische Kunstwelt – hat längst entschieden: KI-Kunst ist Kunst.
Natürlich gibt es auch dort kritische Diskurse. Über Urheberschaft, über Originalität, über Ethik. Aber die Grundfrage „Ist das Kunst?“ ist beantwortet.
Die einzigen, die noch darüber streiten, sind:
Leute, die Kunst nicht als Beruf haben
Leute, die sich bedroht fühlen
Und Trolle im Internet, die einfach gerne streiten
Transparenz: Der einzige Standard, der zählt
Hier ist, wo ich Linie ziehe.
Wenn du mit KI arbeitest, steh dazu.
So wie du dazu stehst, dass du Photoshop benutzt. So wie du dazu stehst, dass du digital fotografierst. So wie ein Bildhauer dazu steht, dass er elektrische Werkzeuge nutzt.
Das Werkzeug zu verschweigen, ist das Problem. Nicht das Werkzeug selbst.
Wenn jemand ein KI-generiertes Bild als „handgemaltes Ölgemälde“ verkauft, ist das Betrug. Klar.
Aber wenn jemand sagt: „Ich arbeite mit KI-Tools, bearbeite die Ergebnisse von Hand, veredle sie mit Acryl und erschaffe daraus meine Vision“ – dann ist das völlig legitim.
Transparenz ist der Standard.
Und alles andere ist Kunst. Oder eben nicht. Aber das entscheidet sich nicht am Werkzeug.
Warum du nicht mit diesen Leuten diskutieren musst
Und jetzt der befreiendste Teil dieses Artikels:
Du musst mit diesen Leuten nicht diskutieren.
Wenn jemand in deine Kommentare kommt mit „Das ist ja keine echte Kunst, das ist ja nur KI“, dann musst du nicht:
Einen Essay schreiben
Drei historische Beispiele bringen
Erklären, wie dein kreativer Prozess aussieht
Du kannst einfach blocken.
Warum?
Weil Menschen, die so argumentieren, nicht an einem echten Gespräch interessiert sind. Sie wollen Recht haben. Sie wollen sich überlegen fühlen. Sie wollen provozieren.
Das sind keine Kunstkritiker. Das sind Trolle mit Kunstvokabular.
Echte Kunstkritik ist differenziert, neugierig, offen.
„Interessant, wie nutzt du KI in deinem Prozess?“ „Was sind für dich die Grenzen des Werkzeugs?“ „Wie siehst du die ethischen Fragen?“
Das sind Fragen, mit denen man arbeiten kann.
„Das ist ja keine echte Kunst“ ist keine Frage. Das ist eine Provokation.
Und mit Provokationen muss man nicht diskutieren.
Block. Weiter. Kunst machen.
Was wirklich zählt
Am Ende des Tages zählt nur eines:
Bewegst du etwas in Menschen?
Egal ob du mit Ölfarbe, Bleistift, einer Kamera, Photoshop oder KI arbeitest – wenn deine Arbeit jemanden zum Nachdenken bringt, eine Emotion auslöst, eine neue Perspektive eröffnet, dann hast du Kunst gemacht.
Wenn deine Arbeit in Galerien hängt, in Sammlungen aufgenommen wird, von Menschen geschätzt wird – dann hast du Kunst gemacht.
Wenn du eine Vision hast, sie technisch umsetzt und in die Welt bringst – dann hast du Kunst gemacht.
Das Werkzeug ist irrelevant.
Die Geschichte hat das drei Mal bewiesen. Vier Mal, wenn man KI mitzählt.
Und in zehn Jahren werden wir über das nächste Werkzeug streiten. Vielleicht Brain-Computer-Interfaces. Vielleicht neuronale Kunst. Vielleicht etwas, das wir uns heute noch nicht vorstellen können.
Und wieder werden Leute sagen: „Das ist ja keine echte Kunst.“
Und wieder wird die Kunstwelt weitermachen. Museen werden ausstellen. Sammler werden kaufen. Künstler werden erschaffen.
Weil Kunst nicht das Werkzeug ist.
Kunst ist, was du damit machst.
Mein Rat an jeden Künstler, der mit KI arbeitet
1. Steh dazu. Sei transparent. Erkläre deinen Prozess. Zeige, wie du arbeitest. Das ist nicht Schwäche – das ist Selbstbewusstsein.
2. Ignoriere die Trolle. Du musst dich nicht rechtfertigen. Deine Arbeit spricht für sich. Wer das nicht sieht, ist nicht dein Publikum.
3. Fokussiere dich auf deine Vision. Das Werkzeug ist nur Mittel zum Zweck. Die Frage ist: Was willst du sagen? Sag es. Mit welchem Werkzeug auch immer.
4. Lerne weiter. KI ist ein Werkzeug. Wie jedes Werkzeug kannst du es besser oder schlechter nutzen. Lerne es zu beherrschen. Genau wie Fotografen Licht studieren und Maler Farbtheorie.
5. Sei Teil der ethischen Debatte. Künstlerrechte, faire Vergütung, Transparenz – das sind wichtige Themen. Sei Teil der Lösung.
Fazit: Geschichte wiederholt sich, aber Kunst bleibt
In hundert Jahren wird niemand mehr fragen, ob KI-Kunst „echte“ Kunst ist.
Genauso wenig wie heute jemand fragt, ob Fotografie oder Photoshop „echte“ Kunst sind.
Die Debatte wird vorbei sein. Die Kunst wird bleiben.
Und die Leute, die heute meckern, werden vergessen sein.
Aber die Kunst? Die Kunst, die heute mit KI gemacht wird – die gute, die starke, die bewegende Kunst – die wird in Museen hängen, in Büchern stehen, in Sammlungen bewahrt werden.
Nicht weil sie mit KI gemacht wurde.
Sondern weil sie gut ist.
Und das ist das einzige Kriterium, das jemals gezählt hat.
Von einem Kunstkritiker, der diesen Zirkus schon zu oft gesehen hat – und sich weigert, noch mal die gleiche Platte zu hören.
Macht Kunst. Mit welchem Werkzeug auch immer.
Der Rest ist Lärm.
Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.
Eine Recherche über schnelle Follower, echte Erfahrungen und die Frage, ob sich digitale Abkürzungen lohnen
Es ist ein Versprechen, das verführerisch klingt: Mehr Follower, mehr Likes, mehr Reichweite – und das innerhalb von Stunden. Für Künstler, die ihre Arbeiten verkaufen wollen, für kleine Unternehmen, die sichtbarer werden müssen, oder für Kreative, die endlich den Durchbruch schaffen wollen, wirkt das wie eine logische Abkürzung. Warum Jahre in mühsamen organischen Aufbau investieren, wenn es auch schneller geht?
Genau an diesem Punkt setzt Followerfabrik.de an – ein deutscher Anbieter, der verspricht, Social-Media-Accounts auf Knopfdruck wachsen zu lassen. Instagram-Follower? Kein Problem. TikTok-Reichweite? Kommt sofort. YouTube-Abos? Wird geliefert.
Aber funktioniert das wirklich? Und vor allem: Bringt es langfristig überhaupt etwas? Ich habe mir die öffentlichen Bewertungen angeschaut, in Foren gelesen, mit Menschen gesprochen und versucht herauszufinden, was hinter diesem Geschäftsmodell steckt.
Erster Eindruck: Professionell aufgebaut, klare Ansage
Die Website von Followerfabrik wirkt auf den ersten Blick seriös. Modernes Design, klare Produktkategorien, Bewertungssterne überall. Es gibt Rabattaktionen, Garantien für Nachlieferungen falls Follower wieder verschwinden, Support-Hinweise und die Betonung, ein „deutscher Marktführer“ zu sein.
Das Angebot ist breit: Instagram, TikTok, YouTube, Twitch, Facebook – praktisch jede Plattform, auf der Reichweite zählt. Die Pakete reichen von kleinen Boosts bis zu massiven Follower-Käufen. Alles wirkt durchdacht und professionell.
Laut eigener Darstellung existiert das Unternehmen seit 2021. Das ist relativ jung, aber in einem Markt, der sich so schnell bewegt wie Social Media, durchaus nachvollziehbar.
Auf den ersten Blick sieht das Ganze aus wie ein normaler E-Commerce-Shop. Nur dass hier keine Schuhe verkauft werden, sondern digitale Aufmerksamkeit.
Die Bewertungen: Fast zu gut, um wahr zu sein?
Wenn man sich die öffentlichen Bewertungen anschaut – vor allem auf Plattformen wie ProvenExpert – dann liest sich das wie eine Erfolgsgeschichte. Viele Kunden berichten von schneller Lieferung, problemlosem Support und dass Follower, die wieder verschwanden, tatsächlich nachgeliefert wurden.
Typische Kommentare klingen so: „Alles hat super funktioniert, Support war schnell, kann ich nur empfehlen.“ Oder: „Follower kamen innerhalb von Stunden, bei kleinen Verlusten wurde sofort nachgefüllt.“
Das klingt erst mal gut. Aber hier muss man einen wichtigen Punkt verstehen: Diese Bewertungen messen vor allem eines – ob geliefert wurde. Nicht, ob es strategisch sinnvoll war. Nicht, ob die Follower echt interagieren. Nicht, ob es dem Account langfristig geholfen hat.
Es ist ein bisschen wie eine Fünf-Sterne-Bewertung für einen Lieferdienst, weil die Pizza pünktlich ankam – unabhängig davon, ob sie geschmeckt hat.
Die andere Seite: Was Nutzer in Foren erzählen
Wenn man tiefer gräbt – in Marketing-Foren, auf Reddit, in geschlossenen Facebook-Gruppen – dann wird das Bild komplexer. Dort berichten Menschen deutlich kritischer.
Die häufigsten Kritikpunkte sind nicht, dass nicht geliefert wurde. Sondern was geliefert wurde.
Inaktive Accounts. Follower, die nie ein einziges Mal mit einem Post interagieren. Profile ohne Profilbild, ohne Bio, ohne echte Aktivität.
Schneller Rückgang. Viele berichten, dass die Followerzahl nach wenigen Tagen oder Wochen wieder sinkt – manchmal massiv. Instagram und andere Plattformen löschen regelmäßig Fake-Accounts, und genau diese scheinen oft Teil der gelieferten Pakete zu sein.
Unpassende Zielgruppen. Ein deutscher Künstler bekommt plötzlich Follower aus Indien, Indonesien oder Brasilien – Menschen, die nie seine Sprache verstehen, geschweige denn seine Kunst kaufen werden.
Ein User schrieb in einem Forum: „Klar kamen die Follower. Aber meine Likes sind nicht gestiegen. Meine Story-Views nicht. Und meine Anfragen auch nicht. Es waren einfach nur Zahlen.“
Das ist der Knackpunkt.
Das algorithmische Problem: Reichweite ohne Resonanz schadet
Hier wird es technisch – aber wichtig.
Instagram, TikTok und andere Plattformen bewerten Inhalte nicht mehr nur nach Followerzahl. Sie schauen auf Engagement-Signale: Wie viele Menschen schauen ein Video bis zum Ende? Wie viele speichern einen Post? Wie viele teilen ihn? Wie viele kommentieren, besuchen das Profil, klicken auf den Link?
Wenn ein Account 10.000 Follower hat, aber nur 50 Likes pro Post bekommt, sendet das ein schlechtes Signal. Der Algorithmus interpretiert das als: „Die Leute folgen diesem Account, interessieren sich aber nicht wirklich dafür.“
Und das kann dazu führen, dass der Account weniger organische Reichweite bekommt als vorher.
Das ist der Punkt, den viele übersehen: Gekaufte Follower können nicht nur wirkungslos sein – sie können aktiv schaden.
Für wen könnte es trotzdem funktionieren?
Ich will hier nicht schwarzmalen. Es gibt tatsächlich Szenarien, in denen so ein Service kurzfristig Sinn ergeben kann.
Zum Beispiel:
Ein neues Business-Profil, das sofort seriös wirken muss
Ein Event oder eine Kampagne, bei der Social Proof schnell aufgebaut werden soll
Testläufe im Marketing, um zu sehen, ob mehr Follower überhaupt zu mehr Anfragen führen
Aber – und das ist entscheidend – das funktioniert nur, wenn danach echter Content kommt. Wenn Menschen auf das Profil kommen, sehen sie nicht nur die Zahl. Sie sehen, ob da Leben ist. Ob kommentiert wird. Ob reagiert wird.
Ein aufgeblasener Account ohne Substanz ist wie ein leeres Restaurant mit gefälschten Reservierungen an der Tür. Sobald jemand reinschaut, merkt er, dass niemand da ist.
Die Gefahr für Künstler und Marken
Gerade für Künstler, Designer, Fotografen – für alle, die auf Authentizität angewiesen sind – ist das ein echtes Risiko.
Sammler, Käufer, Galerien schauen mittlerweile sehr genau hin. Viele checken nicht nur die Followerzahl, sondern auch:
Wie viele Kommentare gibt es?
Sind die Kommentare echt oder nur Emojis?
Gibt es echte Gespräche in den Kommentaren?
Wie viele Saves hat ein Post?
Profis in der Branche erkennen gekaufte Reichweite oft sofort. Und wenn das auffliegt, ist das Vertrauen weg.
Ein Künstler erzählte mir: „Ich hatte mal ein Gespräch mit einer Galerie. Die schauten sich mein Instagram an und fragten mich direkt: ‚Haben Sie Follower gekauft?‘ Ich war geschockt. Anscheinend war mein Engagement-Rate so niedrig, dass es auffiel. Ich hatte es nicht gemacht – aber der Verdacht allein hat gereicht.“
Was kostet das eigentlich?
Die Preise bei Followerfabrik bewegen sich im marktüblichen Bereich. Ein paar hundert Follower kosten ein paar Euro, größere Pakete entsprechend mehr.
Oberflächlich betrachtet wirkt das günstig. Aber der wahre Preis liegt woanders: in der verpassten Chance, echte Community aufzubauen.
Stell dir vor, du investierst 100 Euro in gekaufte Follower – oder in bezahlte Werbung für deinen besten Post, der Menschen wirklich interessiert. Was bringt mehr?
Die Follower kommen sofort, verschwinden aber vielleicht wieder. Die Werbung bringt vielleicht weniger Follower, aber die, die kommen, sind echt.
Der ROI – Return on Investment – ist bei gekaufter Reichweite fast immer schlechter als bei gutem Content und gezielter Strategie.
Meine Einschätzung nach der Recherche
Nach allem, was ich gelesen, recherchiert und analysiert habe, sieht es so aus:
Followerfabrik liefert technisch, was versprochen wird. Die Bewertungen deuten darauf hin, dass Bestellungen ankommen, der Support reagiert und Nachlieferungen funktionieren.
Aber das ist nur die halbe Wahrheit.
Die eigentliche Frage ist nicht, ob die Follower ankommen. Die Frage ist: Was passiert danach?
Und da wird es kritisch. Die meisten Berichte deuten darauf hin, dass es sich um passive, inaktive oder kurzlebige Accounts handelt. Die Zahl steigt, aber die Resonanz nicht.
Für jemanden, der schnell ein Profil „aufhübschen“ will, mag das kurzfristig funktionieren. Für alle, die echtes Wachstum, echte Community und echte Kunden wollen, ist es eine Sackgasse.
Gerade für Kreative gilt: Deine Kunst verdient echte Fans, keine Fake-Zahlen.
Was wirklich funktioniert (und was nicht)
Nach dieser Recherche bin ich zu einem klaren Schluss gekommen:
Gekaufte Reichweite ist ein Pflaster, keine Lösung.
Was wirklich hilft:
Guter Content. Das klingt banal, aber es ist wahr. Ein einziges starkes Bild kann mehr bewirken als 10.000 gekaufte Follower.
Konsistenz. Regelmäßig posten, auch wenn es anfangs nur 20 Likes gibt.
Interaktion. Mit echten Menschen sprechen, Kommentare beantworten, Teil der Community sein.
Gezielte Werbung. Lieber 50 Euro in Instagram Ads für einen starken Post stecken als in leere Follower.
Und ja, das dauert länger. Ja, das ist anstrengender. Aber am Ende hast du etwas, das bleibt.
Fazit: Die unbequeme Wahrheit
Followerfabrik ist kein Betrug. Es ist ein Anbieter, der eine Dienstleistung verkauft – und diese Dienstleistung offenbar auch liefert.
Aber die entscheidende Frage ist nicht, ob sie liefern. Die Frage ist: Lohnt es sich?
Und da ist meine ehrliche Antwort nach dieser Recherche: Für die allermeisten Menschen: Nein.
Für schnellen Social Proof bei einem Launch? Vielleicht. Für nachhaltiges Wachstum, echte Fans und tatsächliche Verkäufe? Definitiv nicht.
Gerade als Künstler, Kreativer oder Marke gewinnst du nicht durch Zahlen. Du gewinnst durch Resonanz.
Transparenz: Dieser Artikel basiert ausschließlich auf öffentlich zugänglichen Informationen. Es gab keinen direkten Kontakt zum Anbieter, keine bezahlte Kooperation und keinen Test-Kauf.
Die Kunst der Fotomontage war über Jahrzehnte eine Königsdisziplin der Bildbearbeitung. Wer ein Objekt, eine Person oder ein Produkt glaubwürdig in eine neue Umgebung einfügen wollte, brauchte Erfahrung, technisches Verständnis und ein geschultes Auge für Licht, Farbe, Perspektive, Schatten und Materialität.
Was früher oft 20 bis 60 Minuten konzentrierter Retuschearbeit bedeutete, erledigt Photoshop heute in vielen Fällen mit nur einem einzigen Klick.
Die Funktion „Harmonisieren“ markiert dabei einen entscheidenden technologischen Sprung. Sie ist weit mehr als ein klassischer Farbangleich oder ein automatisierter Filter. Statt lediglich Farbtöne anzugleichen, analysiert Photoshop mithilfe generativer KI die gesamte visuelle Situation eines Bildes und erzeugt eine realistische Verschmelzung zwischen Vordergrundmotiv und Hintergrund.
Damit verändert sich nicht nur die Geschwindigkeit der Arbeit, sondern das gesamte Denken in der Bildmontage.
Adobe positioniert Harmonize inzwischen als reguläres Kernfeature in Photoshop auf Desktop, Web und Mobile. Die Funktion gehört damit längst nicht mehr in den experimentellen Bereich, sondern ist ein ernstzunehmendes Werkzeug im professionellen Workflow.
01 Zwei ähnlich klingende Funktionen – ein wichtiger Unterschied
Der Begriff „Harmonisieren“ sorgt in Photoshop nach wie vor gelegentlich für Verwirrung, weil es historisch zwei unterschiedliche Ansätze gab.
Der ältere Neural Filter: Harmonisierung
Über Filter > Neural Filters findet sich die ältere Variante der Harmonisierung.
Dieser Ansatz basiert noch auf Adobes früherem KI-System und konzentriert sich primär auf einen automatisierten Farb- und Tonwertabgleich.
Das bedeutet:
Anpassung von Farbtemperatur
leichte Veränderung von Kontrast
Tonung an einen Zielhintergrund
globale Helligkeitsangleichung
Für einfache Aufgaben kann das weiterhin nützlich sein.
Allerdings wirkt dieser Ansatz aus heutiger Sicht technisch deutlich limitiert.
Er verändert hauptsächlich die ausgewählte Ebene selbst, ohne den Kontext der Szene tiefgreifend mitzudenken.
Was fehlt, sind die entscheidenden Faktoren realistischer Fotomontagen:
Umgebungslicht
Lichtkanten
Schattenwurf
Kontakt-Schatten
Reflexionen
atmosphärische Farbverschiebungen
Genau hier setzt die moderne Funktion an.
02 Die neue Firefly-Funktion: Harmonisieren
Das aktuelle Harmonisieren ist ein völlig anderes Kaliber.
Diese Funktion basiert auf Adobes moderner Firefly-Technologie und arbeitet generativ.
Das bedeutet:
Sie passt nicht nur Farben an, sondern rekonstruiert aktiv die Szene.
Photoshop analysiert dabei:
Lichtquelle
Lichtwinkel
Farbtemperatur
Helligkeitsverteilung
Schattenrichtung
Materialeigenschaften
Kontrast der Umgebung
Reflektionsverhalten
Anschließend wird das eingefügte Objekt oder Motiv so verändert, dass es sich visuell glaubwürdig in die Szene integriert.
Adobe beschreibt das explizit als automatisches Angleichen von:
lighting
shadows
colors
reflections
Und genau das ist der große Unterschied.
Es handelt sich nicht um einen „Filter“.
Es ist ein intelligenter Compositing-Assistent.
03 Warum diese Funktion so revolutionär ist
Die klassische Fotomontage erforderte bisher mehrere manuelle Schritte.
Zum Beispiel:
Farbangleich
Gradationskurve
Farbbalance
Selektive Farbkorrektur
Lichtanpassung
Dodge & Burn
weiche Lichtmasken
Verlaufsebenen
Schatten
Schlagschatten
manueller Kontakt-Schatten
weiche Multiplizieren-Ebenen
Reflexionen
Spiegelungen
Lichtkanten
Bounce Light
Diese Arbeit verlangte Erfahrung.
Ein Anfänger scheiterte meist an genau diesen Punkten.
Harmonisieren reduziert diese Hürde dramatisch.
Was früher Fachwissen brauchte, liefert heute oft ein einziger Klick.
Und genau deshalb ist diese Funktion ein Vorgeschmack auf die Zukunft professioneller Bildbearbeitung.
04 So funktioniert Harmonisieren technisch
Der Workflow ist bemerkenswert elegant.
Schritt 1 – Motiv freistellen
Das einzufügende Objekt oder die Person wird zunächst sauber freigestellt.
Hier empfiehlt sich:
Objektauswahl
Motiv auswählen
Hintergrund entfernen
Schritt 2 – eigene Ebene
Das freigestellte Motiv liegt auf einer separaten Pixelebene.
Schritt 3 – Harmonisieren starten
Dann klickst du in der kontextbezogenen Taskleiste auf:
Harmonisieren
alternativ:
Ebene > Harmonisieren
Schritt 4 – KI-Analyse
Jetzt beginnt Photoshop mit der Analyse der darunterliegenden Ebenen.
Dabei werden Szeneparameter erkannt.
Schritt 5 – Variationen
Es entstehen automatisch drei Varianten.
Diese erscheinen im Eigenschaften-Bedienfeld.
Du kannst:
eine auswählen
erneut generieren
weitere Varianten erzeugen
Jede Generierung verbraucht aktuell Credits. Laut aktuellem Adobe-Hilfedokument sind es 5 Credits pro Generierung.
Auf der Produktseite wird teils noch von einem Standard-Credit gesprochen, die Hilfeseite ist hier jedoch aktueller.
Für einen Fachtext würde ich deshalb formulieren:
Je nach aktueller Version und Plan verbraucht jede neue Generierung generative Credits.
Das ist belastbar und zukunftssicher.
05 Was Photoshop dabei tatsächlich verändert
Das Faszinierende ist:
Photoshop verändert nicht nur das Objekt.
Es beeinflusst teilweise auch die Szene rundherum.
Zum Beispiel:
Lichtkante
Eine feine Lichtkante an Haaren oder Schultern
Farbstich
Warmes Abendlicht wird automatisch übernommen
Schattenwurf
Ein realistischer Schatten auf Boden oder Wand
Reflexion
Bei glänzenden Oberflächen sogar leichte Spiegelungen
Kontakt-Schatten
Der wichtigste Punkt für Realismus
Gerade der Kontakt-Schatten am Fußpunkt eines Objekts entscheidet oft darüber, ob eine Montage glaubwürdig wirkt.
Und genau hier liefert Harmonisieren oft erstaunlich gute Ergebnisse.
06 Die enormen Zeitvorteile
Hier wird es brutal spannend.
Ein realistischer Composite-Workflow brauchte bisher:
5 Minuten Freistellung
10 Minuten Licht
10 Minuten Schatten
10 Minuten Color Matching
5 Minuten Feinkorrektur
Macht:
30 bis 40 Minuten
Mit Erfahrung.
Mit Harmonisieren sind vergleichbare Resultate oft in:
unter 30 Sekunden
möglich.
Das ist kein Marketing-Blabla.
Das ist in der Praxis real.
Gerade für:
Social Media
Kampagnen
Moodboards
schnelle Visualisierungen
Vorab-Layouts
ist das eine kleine Revolution.
07 Die Grenzen – hier wird es ehrlich
Jetzt der Teil, den viele weichzeichnen.
Ich nicht.
Die Funktion ist stark.
Aber sie ist nicht perfekt.
Gesichter
Gesichter können weiterhin Artefakte zeigen.
Vor allem:
Augenpartien
Mundbereiche
Hautstruktur
Hände und Finger
Der ewige Klassiker.
Auch 2026 sind Hände noch problematisch.
Gerade bei komplexen Lichtlagen entstehen oft:
deformierte Finger
unnatürliche Schatten
doppelte Konturen
Haare
Feine Haarstrukturen werden manchmal matschig.
Kanten
Bei transparenten Materialien wie Glas oder Stoff kann es zu Fehlern kommen.
große Druckformate
Hier wird es besonders kritisch.
Auf Instagram wirkt vieles spektakulär.
Im Großformatdruck werden Fehler brutal sichtbar.
08 Auflösung – aktueller Stand
Die alte starre Aussage „1024 × 1024“ ist heute so nicht mehr sauber.
Adobe hat den generativen Bereich massiv weiterentwickelt.
Zusätzlich existiert inzwischen Generative Upscale, um Auflösungen deutlich zu erhöhen.
Deshalb ist die bessere Formulierung:
Für große Druckausgaben sollte das Ergebnis immer in 100%-Ansicht geprüft und bei Bedarf durch Upscaling oder manuelle Retusche veredelt werden.
Das ist professionell formuliert.
09 Mein Profi-Tipp aus der Praxis
Ich würde Harmonisieren niemals als Endlösung betrachten.
Sondern als:
visuell-intelligenten Rohschnitt
Die KI zeigt dir extrem schnell:
welche Lichtstimmung funktioniert
wo Schatten liegen sollten
wie Farbe wirken muss
Danach beginnt die eigentliche Kunst.
Genau hier kommt der erfahrene Künstler ins Spiel.
Also du.
Die beste Methode ist:
Workflow
KI-Harmonisierung
beste Variation wählen
manuelles Feintuning
Dodge & Burn
lokale Lichtmalerei
Haut- und Kantensäuberung
Druckprüfung
Dann wird aus „KI gut“ wirklich gallery worthy.
10 Mein ehrliches Fazit
Harmonisieren ist eines der spannendsten Werkzeuge, die Photoshop in den letzten Jahren bekommen hat.
Nicht weil es Kunst ersetzt.
Sondern weil es Technikzeit reduziert.
Die Funktion ersetzt keine Erfahrung.
Aber sie komprimiert Zeit.
Was früher 30 Minuten brauchte, ist heute in Sekunden sichtbar.
Der Unterschied zwischen Amateur und Profi liegt jetzt weniger im reinen technischen Handwerk und mehr im Blick.
Wenn Reichtum strampelt und Ironie Champagner trinkt
Manche Bilder hängen einfach an der Wand. Andere? Die machen sofort klar, worum’s geht.
FIT-O-BERT — Lotus Edition ist so ein Bild.
Da sitzt eine ikonische Ente – geschniegelt, im Luxus-Look – auf einem Bike und tritt in die Pedale, als hätte Erfolg persönlich gerade den Turbo eingelegt. In der Hand: eine Flasche Champagner. Drumherum: Goldbarren, Bargeld, Crypto-Symbole. Das volle Programm.
Das ist nicht einfach nur Popkultur. Das ist ein Statement.
Im Hintergrund prallen Welten aufeinander: futuristische Skyline, urbane Graffiti-Elemente, Symbole des modernen Wohlstands. Fitness trifft Geld, Street Art trifft Luxus, Selbstinszenierung trifft… naja, noch mehr Selbstinszenierung.
Aber genau darum geht’s hier ja auch. Was bedeutet Reichtum heute eigentlich? Ist es das Geld? Die Freiheit? Die Disziplin, jeden Tag aufs Bike zu steigen? Oder einfach die Kunst, sich selbst als Ikone neu zu erfinden?
Die Bildsprache spielt bewusst mit den Codes unserer Zeit: Champagner als Statussymbol, Crypto als digitaler Goldrausch-Mythos, Fitness als Religion der Selbstoptimierung, Street Art als urbane Stimme. Und genau in dieser Spannung liegt die eigentliche Kraft des Werkes.
Es ist laut, verspielt und provokant – und dabei ziemlich präzise in dem, was es sagen will. Luxus trifft Motivation. Ironie trifft Ambition. Pop trifft Haltung.
Das Werk entstand digital auf Synthografie-Basis und wurde dann von Hand mit Acryl veredelt. Das ist der typische Brownz-Look: digitale Vision trifft auf physische Künstlerhand, Zukunft verbindet sich mit Material.
Mixed-Media Einzelstück 40 × 40 cm handsigniert
Dieses Original ist verkauft.
SOLD!
Aber jedes verkaufte Werk ist gleichzeitig der Startpunkt für neue ikonische Ideen.
Du willst ein eigenes, individuelles Kunstwerk im Brownz-Stil? Mehr Arbeiten findest du hier:
Oder: Warum 42 Kilometer laufen wie Betonskulpturen formen ist – nur ohne die wichtigen Teile
Von Joe Cool Rambo Lee Norris Weltmeister im Obelisken-Weitwurf (2019, 2021, 2024), Betonskulptur-mit-der-Hand-Künstler, Träger des Goldenen Spachtels
Hört zu, Leute. Joe Cool Rambo Lee Norris spricht. Und wenn Joe Cool Rambo Lee Norris spricht, dann hören normalerweise selbst die Tauben zu. Nicht die Vögel, sondern die Menschen ohne Gehör. Ist eine Metapher. Lernt man, wenn man jahrelang mit Beton arbeitet. Der Beton lehrt dich Metaphern. Und Demut. Hauptsächlich Rückenschmerzen, aber auch Metaphern.
Letzte Woche – es war ein Dienstag, ich weiß es war ein Dienstag, weil Dienstags mische ich immer meinen Spezialbeton für die Obelisken (Mischverhältnis 1:3:2, falls es jemanden interessiert, was es sollte) – letzte Woche also erreichte mich ein Anruf.
„Herr Norris“, sagte eine Stimme, die klang wie jemand, der noch nie einen Obelisken geworfen hat, „wir würden Sie gerne für den Linz-Marathon einladen. Als Botschafter für kreative Künstler.“
Ich sagte: „Ich bin kein Botschafter. Ich bin Weltmeister.“
„Natürlich“, sagte die Stimme, „aber sehen Sie, wir haben eine spezielle Kategorie. Den Marathon für Kreative. Künstler, Designer, Kreativschaffende – sie alle laufen zusammen durch Linz und—“
Ich unterbrach. Man muss wissen, wann man unterbricht. Das ist wichtig. Besonders beim Betonmischen.
„Moment“, sagte ich. „Die LAUFEN? Mit den BEINEN?“
„Ja, Herr Norris. Das ist üblicherweise, wie Marathons—“
„Und sie ERSCHAFFEN dabei nichts?“
Pause.
„Nun, sie erschaffen… Erfahrungen. Und persönliches Wachstum. Und—“
Ich legte auf.
Dann rief ich wieder an, weil mir einfiel, dass ich noch nie in Linz war und man sagt, dort gäbe es guten Granit.
„Ich komme“, sagte ich. „Aber ich laufe nicht.“
„Wir zahlen Ihnen—“
„Ich werfe einen Obelisken. Vom Start bis zum Ziel. 42 Kilometer. Das ist echte Kunst.“
Sie sagten Nein.
Ich kam trotzdem.
Kapitel 1: Die Anreise (oder: Warum Züge nicht für Künstler gemacht sind)
Der Zug nach Linz ist nicht für Menschen gemacht, die verstehen, was Gewicht bedeutet. Ich reiste mit meinem Trainings-Obelisken (43 Kilo, Granit, poliert auf einer Seite, rau auf der anderen – Kontrast, verstehst du, das ist Kunst) und die Schaffnerin sagte: „Das können Sie nicht als Handgepäck mitnehmen.“
Ich sagte: „Das ist kein Gepäck. Das ist ein Kunstwerk.“
Sie sagte: „Es blockiert den Gang.“
Ich sagte: „Kunst blockiert immer. Das ist ihre Aufgabe.“
Wir einigten uns darauf, dass ich für zwei Sitzplätze bezahle. Einer für mich, einer für den Obelisken. Der Obelisk saß am Fenster. Er mag die Aussicht.
Im Zug traf ich die ersten „Kreativen“, die auch zum Marathon wollten.
Eine junge Frau – Mitte zwanzig, Laptop aufgeklappt, völlig vertieft in etwas, das sie „UX-Design“ nannte – schaute auf meinen Obelisken und fragte: „Ist das… Deko?“
Deko.
DEKO.
Ich atmete tief durch. Der Obelisk hätte sie fast vom Sitz geworfen, rein aus Beleidigung, aber ich hielt ihn zurück.
„Das“, sagte ich langsam, mit der Geduld eines Mannes, der schon 387 Obelisken mit den bloßen Händen geformt hat, „ist ein 43-Kilo-Granit-Obelisk, handpoliert, trainingsoptimiert für Weitwurf-Dynamik, mit einem Schwerpunkt, der 3,7 Zentimeter unterhalb der geometrischen Mitte liegt. Das ist kein Deko. Das ist kinetische Skulptur.“
Sie nickte. „Cool. Ich mache Apps.“
Ich schaute aus dem Fenster.
Kapitel 2: Die Marathon-Expo (oder: Wo Kreativität stirbt und durch Merchandise ersetzt wird)
Die Marathon-Expo fand in einem riesigen Messezentrum statt. Hunderte Stände. Laufschuhe. Energy-Gels. Smartwatches, die deinen Puls messen und vermutlich auch deine Seele verkaufen.
Und dann: Der „Creative Corner“.
Ein Bereich, speziell für „kreative Teilnehmer“. Es gab:
Einen Stand für „Digital Nomad Runners“ (Menschen, die während des Laufens arbeiten wollen, was biologisch ineffizient und künstlerisch sinnlos ist)
Einen Workshop: „Marathon als Metapher für den kreativen Prozess“ (Marathon ist keine Metapher. Marathon ist Laufen. Metaphern haben Ebenen. Laufen hat Asphalt.)
Einen Verkaufsstand für „inspirierte Sportkleidung“ (T-Shirts mit Sprüchen wie „I run therefore I art“)
Ich stand da, 43-Kilo-Obelisk in den Armen (ich halte ihn gerne, das gibt mir Erdung), und eine Organisatorin kam auf mich zu.
„Herr Norris! Wunderbar, dass Sie da sind! Möchten Sie an unserem Panel teilnehmen? ‚Kunst in Bewegung: Wie physische Leistung kreatives Schaffen inspiriert‘?“
„Nein“, sagte ich.
„Aber Sie sind doch—“
„Ich bin hier, um zu beobachten. Und gegebenenfalls Unwahrheiten zu korrigieren.“
„Welche Unwahrheiten?“
„Dass das hier etwas mit Kreativität zu tun hat.“
Sie lachte. Sie dachte, ich mache einen Scherz.
Ich machte keinen Scherz.
Ich setzte meinen Obelisken ab (sanft, man muss immer sanft mit Granit umgehen, er erinnert sich sonst) und schaute mich um.
Ein Stand weiter: „Performance-Kunst während des Marathons“. Eine Frau in komplett weißem Anzug wollte 42 Kilometer laufen, während sie schweigend ein Stück Brot in der Hand hielt.
„Warum?“, fragte ich.
„Es ist eine Metapher“, sagte sie, „für die Vergänglichkeit kreativer Arbeit.“
„Das Brot wird schimmeln“, sagte ich.
„Genau“, sagte sie.
„Aber Sie laufen schneller als Schimmel wächst.“
„Das ist der Punkt.“
„Welcher Punkt?“
„Dass wir immer schneller sind als der Verfall, bis wir es nicht mehr sind.“
Ich nickte langsam.
„Haben Sie jemals“, fragte ich vorsichtig, „einen Obelisken geworfen?“
„Nein.“
„Dann verstehen Sie nicht, was Vergänglichkeit bedeutet.“
Ich ging weiter.
Kapitel 3: Der Start (oder: Chaos in sportlichen Klamotten)
Morgens, 6:47 Uhr. Linz. Der Himmel war grau, aber respektvoll grau. Ein Grau, das sagt: „Ich bin hier, aber ich mische mich nicht ein.“ Gutes Grau. Künstlerisches Grau.
Tausende Menschen versammelten sich am Start. Bunte Laufklamotten. Startnummern. Nervöses Hüpfen. Menschen, die auf der Stelle laufen, obwohl sie noch nicht laufen sollen. Warum? Niemand weiß es. Läufer sind ein Mysterium.
Die „Kreativen“ hatten eine eigene Startgruppe. Man erkannte sie an:
Mindestens einer Person, die versuchte, während des Laufens zu malen (das ging nicht gut aus, spoiler)
Ich stand am Rand. Mit meinem Obelisken.
Ein Reporter kam auf mich zu. Kamera. Mikrofon. Der ganze Zirkus.
„Sie sind Joe Cool Rambo Lee Norris, richtig? Der Obelisken-Weitwurf-Weltmeister?“
„Der einzige“, sagte ich. (Es gibt tatsächlich noch zwei andere in Kasachstan, aber die zählen nicht, die werfen im Sitzen.)
„Warum sind Sie hier? Laufen Sie auch?“
„Nein.“
„Aber—“
„Ich beobachte. Ich dokumentiere. Ich bin Zeuge eines kulturellen Phänomens.“
„Welches Phänomens?“
„Dass Menschen denken, Bewegung sei Kreativität.“
„Ist sie nicht?“
Ich schaute ihn an. Lange. Mit der Intensität eines Mannes, der weiß, wie man Beton nur mit den Händen in Form bringt.
„Bewegung“, sagte ich, „ist Physik. Kreativität ist, etwas zu erschaffen, was vorher nicht existierte. Diese Menschen hier—“ ich deutete auf die hüpfende, nervöse Masse, „—erschaffen nichts. Sie absolvieren eine Strecke. Das ist Geographie mit Schwitzen.“
„Aber der kreative Prozess—“
„Prozess“, unterbrach ich, „ist nicht dasselbe wie Produkt. Ich kann einen Prozess haben, Beton zu mischen. Aber wenn am Ende kein Obelisk steht, war es nur Rumrühren.“
Er nickte, verwirrt.
„Und wo ist Ihr Obelisk am Ende des Marathons?“, fragte er.
„42 Kilometer entfernt. Weil ich ihn werfe.“
„Sie dürfen aber nicht—“
„Ich tue trotzdem.“
Der Startschuss fiel.
Tausende Menschen begannen zu rennen.
Ich blieb stehen.
Hob meinen 43-Kilo-Trainings-Obelisken.
Holte aus.
Und warf.
Kapitel 4: Der Wurf (oder: Warum Aerodynamik wichtiger ist als Inspiration)
Hier muss ich technisch werden. Entschuldigung. Aber Kunst ohne Technik ist nur herumschreien und hoffen.
Ein Obelisk, korrekt geworfen, fliegt durchschnittlich 47 Meter. Mein Rekord liegt bei 53,4 Metern (Windstille, leichter Rückenwind in der letzten Phase, perfekter Release-Winkel von 38 Grad).
Um 42 Kilometer zurückzulegen, braucht man also:
42.000 Meter ÷ 47 Meter = ~894 Würfe.
Ich hatte den ganzen Tag.
Die Läufer brauchten zwischen 3 und 6 Stunden.
Ich plante 8.
Erster Wurf: Perfekt. 49 Meter. Der Obelisk landete auf einer Wiese neben der Strecke. Ich ging hin, hob ihn auf (man hebt immer mit den Beinen, nie mit dem Rücken, das ist Obelisken-Weitwurf 101), und warf erneut.
Wurf 2: 46 Meter.
Wurf 3: 51 Meter. Ein persönlicher Tagesbest.
Die Läufer rannten vorbei. Manche schauten. Manche fotografierten. Einer rief: „Ist das Performance-Kunst?“
„Nein!“, rief ich zurück. „Das ist Sport!“
Kapitel 5: Begegnungen unterwegs (oder: Die Kreativszene in ihrem natürlichen Lebensraum)
Bei Wurf 73 (ca. Kilometer 3,4) überholte mich die Frau mit dem Brot.
„Immer noch dabei?“, rief sie, völlig außer Atem.
„Ich bin immer dabei“, sagte ich, Obelisk in den Händen. „Das Brot schimmelt schon?“
„Noch nicht.“
„Geben Sie ihm Zeit.“
Bei Wurf 134 (ca. Kilometer 6,3) sah ich eine Gruppe „Kreativer“, die angehalten hatten, um ein Selfie vor einem historischen Gebäude zu machen.
„Das ist doch nicht der Sinn des Marathons!“, rief einer.
„Der Sinn“, rief ich zurück, während ich meinen Obelisken bereitmachte, „ist, anzukommen. Wie, ist irrelevant.“
„Sie werfen einen Stein!“
„Granit“, korrigierte ich. „Und er ist handpoliert. Respekt, bitte.“
Ich warf. 48 Meter.
Bei Wurf 247 (ca. Kilometer 11,6) begegnete ich einem Mann, der versuchte, während des Laufens Aquarelle zu malen. Es ging nicht gut. Die Farben verschmierten. Das Papier riss. Er weinte.
„Warum?“, fragte ich.
„Ich wollte… die Bewegung… in Kunst transformieren…“
„Hören Sie auf“, sagte ich. Nicht hart, aber bestimmt. „Machen Sie eins nach dem anderen. Erst laufen. Dann malen. Oder erst malen, dann laufen. Aber nicht beides. Multitasking ist eine Lüge, die uns die Moderne verkauft hat.“
„Aber—“
„Kein Aber. Ich habe noch nie einen Obelisken geworfen, während ich gleichzeitig einen formte. Das wäre Wahnsinn. Konzentration. Eine Sache zur Zeit. Das ist das Geheimnis.“
Er schaute auf seine verschmierten Aquarelle.
„Sie haben recht.“
„Ich weiß.“
Ich warf. 52 Meter. Fast Rekord.
Kapitel 6: Die Mitte (oder: Wo Zweifel beginnen und Obelisken helfen)
Wurf 421. Ungefähr Kilometer 19,8.
Meine Arme brannten. Mein Rücken schmerzte. Der Obelisk fühlte sich an wie 60 Kilo, obwohl er objektiv immer noch 43 Kilo wog (Granit verändert sein Gewicht nicht, das ist das Schöne an Granit).
Ich setzte mich auf eine Bank.
Der Obelisk lehnte neben mir.
Wir schwiegen.
„Wir schaffen das“, sagte ich zu ihm.
Er sagte nichts. Aber ich spürte seine Zustimmung. Man entwickelt eine Beziehung zu seinen Werkzeugen. Das verstehen nur Künstler, die mit den Händen arbeiten.
Ein Läufer – Startnummer 4728, rotes Shirt, komplett verschwitzt – setzte sich neben mich.
„Ich kann nicht mehr“, sagte er.
„Doch“, sagte ich.
„Woher wissen Sie das?“
„Weil Sie noch atmen.“
„Das ist kein Argument.“
„Doch. Solange Sie atmen, können Sie weitermachen.“
„Sie werfen einen Stein. Das ist einfacher als Laufen.“
Ich schaute ihn an.
„Heben Sie ihn hoch.“
„Was?“
„Den Obelisken. Heben Sie ihn hoch.“
Er versuchte es.
Er schaffte es nicht.
„43 Kilo“, sagte ich. „Ich habe das heute 421 Mal gehoben. Und geworfen. Sie laufen. Ich transportiere Kunst. Was ist schwieriger?“
Er dachte nach.
„Beides?“
„Richtig. Beides ist schwierig. Deshalb machen wir es.“
Er stand auf. Lief weiter.
Ich auch.
Wurf 422: 47 Meter.
Kapitel 7: Das Ziel (oder: Wie alles endet, aber eigentlich nie endet)
Wurf 893.
41,9 Kilometer.
Ich sah die Ziellinie.
Meine Arme waren taub. Mein Rücken war ein einziger Schmerz. Der Obelisk hatte inzwischen drei kleine Macken (von den Landungen, unvermeidbar), aber er war immer noch schön.
Ich holte aus.
Atmete.
Warf.
Der Obelisk flog.
49 Meter.
Er landete 3 Meter hinter der Ziellinie.
Ich ging langsam hin. Hob ihn auf. Trug ihn über die Linie.
Es gab keine Zuschauer mehr. Die meisten Läufer waren längst durch. Es war später Nachmittag. Die Sonne stand tief.
Aber am Ziel: Der Reporter von vorhin. Mit Kamera.
„Sie haben es geschafft“, sagte er.
„Ich habe es immer geschafft“, sagte ich.
„Warum? Warum haben Sie das getan?“
Ich schaute auf den Obelisken.
„Weil jemand zeigen musste, dass Kreativität nicht Laufen ist. Kreativität ist, etwas zu tragen. Etwas zu formen. Etwas zu bewegen.“
„Aber Sie haben nichts Neues geschaffen. Sie haben nur einen Stein geworfen.“
„Ich habe“, sagte ich langsam, „einen 43-Kilo-Granit-Obelisken 42 Kilometer transportiert. Niemand hat das jemals getan. Wenn das nicht Kreativität ist, dann weiß ich nicht, was es ist.“
„Das ist… Sport?“
„Kunst“, sagte ich. „Und Sport. Und Sturheit. Alles zusammen.“
Er schrieb etwas auf.
„Werden Sie nächstes Jahr wiederkommen?“
„Nein“, sagte ich. „Nächstes Jahr werfe ich ihn rückwärts.“
Epilog: Was ich gelernt habe (oder: Warum Granit ehrlicher ist als Menschen)
Der Linz-Marathon für Kreative.
Was habe ich gelernt?
Kreativität ist nicht Bewegung. Kreativität ist Absicht. Man kann absichtsvoll stillstehen. Man kann absichtslos rennen.
Ein Obelisk lügt nie. 43 Kilo sind 43 Kilo. Egal wie müde du bist. Egal wie sehr du dir wünschst, sie wären leichter. Das ist ehrlich. Das schätze ich.
Die meisten „Kreativen“ verwechseln Aktivität mit Produktivität. Sie rennen, weil Rennen gut aussieht. Aber am Ende der Strecke: nichts Neues. Nur müde Beine.
Aber: Manche von ihnen meinen es ernst. Die Frau mit dem Brot. Der Mann mit den Aquarellen. Sie haben verstanden: Es geht nicht ums Ankommen. Es geht ums Versuchen.
Und ich? Ich habe einen 43-Kilo-Obelisken 42 Kilometer weit geworfen. 893 Würfe. 8 Stunden und 23 Minuten. Drei neue Macken im Granit. Und das Wissen, dass ich das nie wieder tun muss.
Aber wahrscheinlich werde ich es trotzdem tun.
Weil das Kunst ist.
Über den Autor:
Joe Cool Rambo Lee Norris ist dreifacher Weltmeister im Obelisken-Weitwurf (2019, 2021, 2024), Träger des Goldenen Spachtels, und formt seit 34 Jahren Betonskulpturen ausschließlich mit den Händen. Er lebt in einem umgebauten Betonmischwerk in Niederösterreich, zusammen mit 47 Obelisken verschiedener Größen und Gewichte. Sein nächstes Projekt: Eine 2-Tonnen-Pyramide. Mit den Händen. Natürlich.
Nachwort der Redaktion:
Herr Norris hat nach Veröffentlichung dieses Artikels angerufen und darauf bestanden, dass wir klarstellen: Der Obelisk hieß „Gerald“ und hätte namentlich erwähnt werden sollen. Wir entschuldigen uns bei Gerald.
Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.
Ein Strategic Future Report über die disruptive Kraft vollsynthetischer Akteure, die Transformation des Model-Berufs und die Entstehung einer neuen kreativen Dienstleistungsökonomie
Transparenz-Hinweis: Dieser Artikel ist ein analytischer Zukunftsreport, der reale technologische Entwicklungen (insbesondere die KI-generierte Schauspielerin Tilly Norwood) mit plausiblen Branchenszenarien verbindet. Wo konkrete Fakten vorliegen, sind sie belegt. Wo ich Trends extrapoliere und zukünftige Entwicklungen prognostiziere, kennzeichne ich das entsprechend.
Sie existiert. Und Hollywood ist in Aufruhr.
Tilly Norwood ist keine Deepfake, kein CGI-Charakter im traditionellen Sinne, sondern eine vollsynthetische, KI-generierte Schauspielerin, erschaffen vom Studio Particle6 unter der Leitung von Eline Van der Velden. Ihre Existenz hat 2024/2025 eine Kontroverse ausgelöst, die tief in die Fundamente der Unterhaltungsindustrie reicht.
Die Screen Actors Guild (SAG-AFTRA) reagierte mit scharfer Kritik. Die Washington Post titelte im Oktober 2025: „Tilly Norwood has Hollywood seething. She’s an AI-generated ‚actor.'“ Die Gewerkschaft argumentiert, dass synthetische Schauspieler die Lebensgrundlage echter Performer bedrohen und fundamentale Fragen über Urheberschaft, Vergütung und die Zukunft kreativer Arbeit aufwerfen.
Aber die eigentliche Geschichte beginnt erst hier. Denn Tilly Norwood ist kein isoliertes Experiment – sie ist der sichtbarste Teil einer tektonischen Verschiebung, die bereits im Gange ist. Und die Auswirkungen reichen weit über Hollywood hinaus, direkt in die Welt der Models, Fotografen, Content-Creator und der gesamten visuellen Kreativbranche.
Dies ist eine Analyse dessen, was gerade geschieht – und was mit hoher Wahrscheinlichkeit als nächstes kommt.
1. Die technologische Realität: Was Tilly Norwood möglich macht
Um die Konsequenzen zu verstehen, muss man die Technologie begreifen, die Figuren wie Tilly Norwood ermöglicht. Sie basiert auf einer Konvergenz mehrerer bereits existierender Technologien:
a) Multimodale generative KI-Modelle
Anders als frühere CGI-Charaktere, die Frame für Frame animiert wurden, nutzen synthetische Schauspieler wie Tilly generative KI-Systeme, die auf emotionale Anweisungen reagieren können. Diese Modelle werden trainiert mit:
Terabytes an Performance-Daten (Filme, Theater, dokumentierte Emotionsausdrücke)
Biometrischen Daten (wie verändert sich die Pupille bei Angst? Wie bewegt sich die Stirn bei Konzentration?)
Psychologischen Studien zu nonverbaler Kommunikation
Das Ergebnis: Ein System, das versteht, was „unterschwellige Wut, verborgen hinter einem Lächeln“ bedeutet – und diese Anweisung in visuelle Performance übersetzen kann.
b) Advanced Performance Capture
Die Bewegungen synthetischer Akteure basieren nicht auf einer einzigen Person. Sie sind das Aggregat aus Hunderten Motion-Capture-Sessions mit echten Schauspielern, Tänzern, Stunt-Performern. Diese Daten werden zu einer „Bewegungsbibliothek“ kombiniert, aus der die KI in Echtzeit schöpft.
Das ist keine Zukunftsmusik – Motion Capture ist seit Jahren Standard in Film (Andy Serkis als Gollum, Avatar) und Gaming. Neu ist die generative Rekombination dieser Daten durch KI.
c) Physically Based Rendering in Echtzeit
Moderne Rendering-Engines (Unreal Engine 5, Unity) können Haut, Haare, Lichtbrechung in Echtzeit physikalisch korrekt simulieren. Das „Uncanny Valley“-Problem – synthetische Gesichter, die „fast, aber nicht ganz“ menschlich wirken – wird zunehmend überwunden.
Die technologische Konvergenz dieser drei Bereiche macht Tilly Norwood real.
Und sie ist nur der Anfang.
2. Die Disruption des Körpers: Was das für Models bedeutet
Die unmittelbare Reaktion der Model-Branche ist Panik. Verständlich.
Bereits heute existieren vollsynthetische Influencer und Models:
Lil Miquela (2,5+ Millionen Instagram-Follower, Werbedeals mit Prada, Calvin Klein)
Shudu (erstes „digitales Supermodel“, kreiert von Fotograf Cameron-James Wilson)
Aitana López (spanisches KI-Model, generiert Berichten zufolge über 10.000 Euro monatlich)
Imma (japanisches virtuelles Model mit großen Brand-Deals)
Diese Figuren zeigen: Der Markt akzeptiert synthetische Gesichter bereits. Für bestimmte Anwendungen.
Die Frage ist: Welche Jobs verschwinden – und welche entstehen neu?
Was mit hoher Wahrscheinlichkeit verschwindet:
Das klassische „E-Commerce-Model“ für:
Standardisierte Produktfotografie
Generische Werbekampagnen ohne spezifische Persönlichkeit
Stock-Photo-Shoots
Repetitive Katalog-Arbeit
Warum? Weil diese Arbeit keine einzigartige menschliche Qualität erfordert. Ein synthetisches Model ist:
Aber: Während dieser Sektor erodiert, zeichnen sich parallel drei hochspezialisierte neue Berufsfelder ab, die teilweise bereits existieren, teilweise gerade entstehen:
a) Motion Capture Performer / Performance Data Provider (bereits real)
Aktueller Status: Existiert bereits in Film und Gaming.
Erweiterte Rolle ab 2025+:
Synthetische Akteure wie Tilly benötigen kontinuierlich neue, hochwertige Bewegungs- und Expressionsdaten. Nicht für einzelne Rollen, sondern für die kontinuierliche Erweiterung ihrer Ausdrucksbibliothek.
Was das bedeutet:
Motion Capture Actors werden nicht mehr nur für spezifische Film-Rollen gebucht, sondern für Daten-Capture-Sessions
Ein Tänzer mit einer einzigartigen Bewegungssignatur wird gebucht, um diese Signatur zu digitalisieren
Eine Schauspielerin mit außergewöhnlicher mimischer Kontrolle verbringt Stunden in Facial-Capture-Studios
Diese Daten werden Teil einer Bibliothek, auf die synthetische Akteure zugreifen
Die rechtliche Grauzone:
Hier beginnt das Problem. Wie werden diese Performer vergütet?
Optionen (teilweise in Gewerkschaftsverhandlungen):
Einmalzahlung (Buy-out aller Rechte – problematisch)
Lizenzgebühren pro Nutzung (technisch komplex, schwer durchsetzbar)
Residuals-ähnliche Modelle (wie bei TV-Reruns – noch nicht etabliert für KI)
SAG-AFTRA kämpft aktuell genau um diese Fragen. Der Streik 2023 drehte sich zentral um KI-Klauseln. Die Vereinbarung enthält erste Schutzmaßnahmen – aber die Debatte ist nicht abgeschlossen.
Prognose: Bis 2027-2028 wird es standardisierte Verträge für „Performance Data Licensing“ geben müssen. Pioniere in diesem Feld werden die Standards mitdefinieren.
b) AI Performance Director / Synthetic Acting Coach (emergierend)
Aktueller Status: Noch nicht als eigenständiger Beruf etabliert, aber die Funktion entsteht.
Was diese Rolle tut:
Eine KI wie Tilly „versteht“ Anweisungen – aber nur so gut, wie diese formuliert sind. Hier entsteht eine Hybrid-Rolle zwischen:
Klassischem Schauspielercoach
KI-Prompt-Engineer
Motion-Director
Konkrete Aufgaben (Szenario 2026-2028):
Emotionale Kalibrierung: „Zeige mir ‚unterschwellige Wut verborgen hinter Höflichkeit‘ – aber die Augen sollen die Wahrheit verraten“
Bewegungskuration: Aus der Performance-Bibliothek die Bewegungsmuster wählen, die zum Charakter passen
Konsistenz-Management: Sicherstellen, dass Tillys „Persönlichkeit“ über Szenen hinweg kohärent bleibt
Skill-Set:
Tiefes Verständnis für Schauspieltheorie (Stanislawski, Meisner, Method Acting)
Technisches Verständnis für KI-Parameter
Visuelle Sensibilität
Vergleichbare existierende Rollen:
VFX Supervisors (Film)
Technical Directors (Animation)
Performance Directors (Gaming)
Prognose: Bis 2028 werden größere Studios dedizierte „AI Performance Teams“ haben.
c) Digital Rights & Likeness Manager (teilweise real, expandierend)
Aktueller Status: Rudimentär vorhanden (Anwälte für Bildrechte), aber die Komplexität explodiert.
Das Problem:
Wenn ein Model für eine Motion-Capture-Session bezahlt wird, welche Rechte hat das Studio dann?
Darf die Gangart in einem Horrorfilm verwendet werden?
Darf das Lächeln für Fast-Food-Werbung lizenziert werden?
Was, wenn das digitalisierte Gesicht in einem kontroversen Kontext auftaucht?
Real existierende Präzedenzfälle:
Scarlett Johansson vs. OpenAI (2024): Johansson warf OpenAI vor, ihre Stimme für ChatGPT-Voice ohne Erlaubnis nachgebildet zu haben
Tom Hanks warnte öffentlich (2023): Sein digitales Abbild wurde ohne Genehmigung in Werbung verwendet
Bruce Willis verkaufte (2022) Berichten zufolge Rechte an seinem digitalen Abbild an Deepcake
Diese Fälle zeigen: Der Markt für „digitale Likenesses“ existiert bereits – aber die Regeln werden gerade erst geschrieben.
Zukünftige Rolle (2026+):
Likeness & Rights Manager werden für Models/Schauspieler:
Verträge verhandeln über biometrische Datennutzung
Kontextuell begrenzte Lizenzen definieren („Darf für Luxusmarken verwendet werden, NICHT für Alkohol/Tabak/Politik“)
Monitoring-Systeme nutzen, um unerlaubte Nutzung zu erkennen
Bei Rechtsverletzungen rechtlich vorgehen
Das ist kein Science-Fiction-Job – das ist dringend nötig, JETZT.
3. Die kreative Neuausrichtung: Jobs, die entstehen
Während einige Rollen verschwinden oder sich transformieren, entstehen völlig neue kreative Disziplinen:
a) Environment Capture Photographer (bereits real, wird zentral)
Warum das wichtig wird:
Synthetische Akteure wie Tilly brauchen eine Bühne. Und selbst die beste KI kann (noch) keine fotorealistischen Umgebungen aus dem Nichts erschaffen, die mit echten Orten konkurrieren können.
Die Lösung: Reale Orte digital erfassen.
Was das bedeutet für Fotografen:
Statt Menschen zu fotografieren, werden sie gebucht für:
Light Field Capture: 360°-Erfassung von Lichtverhältnissen (z.B. ein Sonnenuntergang in Paris)
Photogrammetrie: Hunderte Fotos desselben Ortes aus verschiedenen Winkeln → 3D-Rekonstruktion
HDR Environment Maps: Hochauflösende Umgebungsbilder für realistische Lichtreflexionen
Texture Libraries: Ultra-hochauflösende Aufnahmen von Oberflächen (Holz, Stein, Stoff)
Diese Daten sind die Leinwand, auf der Tilly existiert.
Bereits real: Studios wie Quixel (gehört zu Epic Games) beschäftigen Fotografen weltweit, um reale Umgebungen zu digitalisieren.
Prognose: Bis 2027 wird „Environment Capture“ eine etablierte Fotografen-Spezialisierung sein, ähnlich wie Architektur- oder Produktfotografie heute.
b) AI Ethicist & Character Guardian (emergierend)
Das Problem:
Tilly Norwood ist eine Marke im potenziellen Wert von Millionen. Was passiert, wenn:
Jemand sie in Deepfake-Pornografie verwendet?
Sie in politischer Propaganda auftaucht?
Ihr „Charakter“ für schädliche Zwecke missbraucht wird?
Ethisches Framework: Was ist legitime Nutzung? Wo ist die Grenze?
Beispiel für ethische Fragen:
Darf Tilly in einer KI-generierten Kriegsszene sterben?
Darf sie eine historische Figur darstellen, die kontrovers ist?
Wer entscheidet über ihren „moralischen Kompass“?
Bereits real: Große Gaming-Studios (Blizzard, Riot) haben „Character Integrity Teams“ – das Konzept erweitert sich nur.
Prognose: Bis 2028 werden synthetische Akteure dedizierte „Digital Integrity Officers“ haben.
c) Narrative Prompt Designer / Scenario Architect (stark emergierend)
Von „Prompt Engineer“ zur kreativen Disziplin:
Während einfache Text-zu-Bild-Prompts („eine Katze auf einem Sofa“) relativ simpel sind, erfordern narrative, emotionale, kontextreiche Szenarien ein völlig anderes Skill-Set.
Was ein Narrative Prompt Designer tut (Szenario 2026+):
Statt nur: „Tilly sitzt in einem Café“
Schreibt er:
textTilly sitzt an einem Fensterplatz in einem Pariser Café, spätnachmittags.
Goldenes Licht (Environment Data: Paris_Sunset_March_2025_HDR).
Sie wartet auf jemanden, der nicht kommt.
Emotion: Anfangs hoffnungsvolle Erwartung, graduell übergehend in stille Resignation.
Mikroexpressionen: Alle 30 Sekunden Blick zur Tür, leichtes Lächeln beim Kellner (Höflichkeitsmaske),
aber Augen zeigen wachsende Enttäuschung.
Referenz-Performance: Capture_Session_47 (Schauspielerin_MJ, "Warten"-Szenen)
Bewegung: Minimal. Finger spielen mit Kaffeetasse. Leichtes Gewichtsverlagerung. Kein nervöses Tapping – eher gefrorene Erwartung.
Das ist kreatives Schreiben + technische Spezifikation + emotionale Regie.
Vergleichbar zu: Screenplay-Writing, aber mit technischen Parametern.
Prognose: Bis 2029 gibt es akademische Programme für „Synthetic Performance Design“.
4. Juristische und ethische Implikationen: Die ungeklärten Fragen
Die Existenz von Tilly Norwood und ihren Nachfolgern wirft fundamentale Fragen auf, die unsere Gesellschaft dringend beantworten muss:
Frage 1: Wem gehört die Performance?
Szenario: Tilly gewinnt einen hypothetischen Award für beste Schauspielleistung. Wem gehört diese Leistung?
Kandidaten:
Dem Studio, das die Technologie finanziert hat?
Den Programmierern, die die KI entwickelt haben?
Den Dutzenden „Performance Data Providern“, deren Bewegungen sie nutzt?
Dem AI Performance Director, der die emotionalen Parameter setzte?
Der Fotografin, die die Environment-Daten erfasste, in der die Szene spielt?
Musik-Sampling: Es dauerte Jahrzehnte, bis Sample-Rechte klar geregelt waren
VFX-Heavy-Filme: Wer bekommt Credit für eine CGI-Performance? (Teilweise geklärt, aber komplex)
Prognose: Bis 2027 wird es erste wegweisende Gerichtsurteile geben.
Frage 2: Das Recht auf die „digitale Seele“
Das philosophische Problem:
Wenn die einzigartige Art, wie ein Mensch traurig lächelt, zur lizenzierten Ware wird – was bleibt dann vom menschlichen Künstler?
Real existierende Anekdote:
Ein Motion-Capture-Actor berichtete (anonym), dass er für ein Gaming-Studio seine „Signature Move“ – eine spezifische Art, Angst körperlich auszudrücken – digitalisieren ließ. Jahre später sah er diese exakte Bewegung in einem völlig anderen Spiel. Er hatte im Kleingedruckten alle Rechte abgetreten. Keine weiteren Zahlungen. Keine Kontrolle über die Nutzung.
Das ist die Gefahr.
Mögliche Schutzmaßnahmen (in Diskussion):
Inalienable Rights: Bestimmte Aspekte der Performance können niemals vollständig verkauft werden
Kontext-Limitierte Lizenzen: „Diese Daten dürfen nur für Drama-Genre verwendet werden, NICHT für Horror/Action“
Zeitlich begrenzte Nutzungsrechte: Nach X Jahren kehren Rechte zurück
Aber: Aktuell größtenteils unreglementiert.
Frage 3: Das „Uncanny Valley“ der Emotionen
Das psychologische Risiko:
Studien zeigen: Menschen können echte emotionale Bindungen zu synthetischen Charakteren entwickeln. (Bereits bekannt aus Gaming, Anime, virtuellen Idols.)
Mit fotorealistischen, KI-gesteuerten Akteuren wird diese Bindung intensiver.
Die Gefahr:
Manipulation: Synthetische Influencer, die perfekt auf emotionale Trigger optimiert sind
Parasoziale Beziehungen: Menschen entwickeln „Beziehungen“ zu KI-Persönlichkeiten, die nicht real sind
Ersatz-Intimität: Präferenz für kontrollierbare synthetische Interaktion über echte menschliche Beziehungen
Das ist kein Distant-Future-Problem – das passiert JETZT mit virtuellen Influencern.
5. Die ökonomische Realität: Wer profitiert, wer verliert?
Gewinner (wahrscheinlich):
1. Tech-Unternehmen & Studios
Niedrigere Produktionskosten
Keine Skandal-Risiken
Vollständige kreative Kontrolle
Skalierbarkeit
2. Hochspezialisierte Kreative
AI Performance Directors
Environment Capture Specialists
Likeness & Rights Experts
Narrative Prompt Designers
3. Top-Tier-Schauspieler mit Verhandlungsmacht
Können lukrative Deals für digitale Likenesses aushandeln
Beispiel: Wie Bruce Willis Berichten zufolge Rechte verkaufte
Verlierer (wahrscheinlich):
1. Mid-Tier-Schauspieler & Models
Zu bekannt, um für niedrige Gagen zu arbeiten
Nicht bekannt genug, um Verhandlungsmacht zu haben
Werden durch synthetische Akteure ersetzt
2. Entry-Level-Kreative
Standardjobs (E-Commerce-Models, Statisten, Background-Performer) fallen weg
Traditionelle „Einstiegsjobs“ in die Branche verschwinden
3. Kreative ohne Tech-Skills
„Ich bin Schauspieler, kein Programmierer“ funktioniert nicht mehr
Anpassungsfähigkeit wird überlebenskritisch
6. Was jetzt zu tun ist: Handlungsempfehlungen
Für Models & Schauspieler:
1. Verstehe deine Rechte – JETZT
Lass JEDEN Vertrag von einem auf digitale Rechte spezialisierten Anwalt prüfen
Achte auf Klauseln wie „in perpetuity“, „all media now known or hereafter invented“
Diese Klauseln könnten bedeuten: Du gibst für immer alle Rechte an deinem digitalen Abbild ab
2. Entwickle Tech-Literacy
Du musst kein Programmierer werden
Aber du musst verstehen: Was ist Motion Capture? Was sind Deepfakes? Was ist ein Digital Twin?
Ignoranz schützt nicht – sie macht dich ausbeutbar
3. Spezialisiere dich
Welche einzigartige physische oder mimische Qualität hast du?
Kannst du emotionale Nuancen darstellen, die schwer zu digitalisieren sind?
Entwickle Skills, die (noch) nicht algorithmisch replizierbar sind
4. Organisiere dich
Gewerkschaften (SAG-AFTRA, Equity) kämpfen gerade diese Kämpfe
Sei Teil der Lösung, nicht passives Opfer
Für Fotografen:
1. Pivot zu Environment & Data Capture
Lerne Photogrammetrie
Investiere in 360°-Kameras, HDR-Workflows
Deine Fähigkeit, Licht zu „sehen“, ist wertvoll – nur die Anwendung ändert sich
2. Werde zum Hybrid
Fotograf + 3D-Techniker
Verstehe, wie deine Daten in virtuellen Produktionen verwendet werden
Für Studios & Kreativ-Unternehmen:
1. Ethische Guidelines JETZT
Wartet nicht auf Regulierung
Definiert interne Standards für faire Performer-Vergütung
Transparenz über synthetische Akteure
2. Investiert in neue Rollen
AI Performance Directors
Character Guardians
Rights Management
3. Rechnet mit Backlash
Die öffentliche Debatte wird intensiver werden
Bereitet Kommunikationsstrategien vor
Fazit: Die unvermeidliche Ko-Evolution
Tilly Norwood ist kein Todesurteil für menschliche Kreativität. Sie ist ein Katalysator für eine tiefgreifende Professionalisierung und Spezialisierung.
Die einfachen, repetitiven Jobs werden automatisiert – das ist bereits im Gange.
Was bleibt, sind die Aufgaben, die ein tiefes Verständnis für menschliche Emotionen, künstlerische Vision und ethische Verantwortung erfordern.
Die zentrale Erkenntnis:
Wir stehen nicht vor der Wahl „Mensch ODER Maschine“.
Wir stehen vor der Frage: Wie gestalten wir die Kollaboration?
Die Kreativen, die in den nächsten Jahren erfolgreich sein werden, sind nicht die, die KI ablehnen. Und auch nicht die, die blind darauf vertrauen.
Es sind die, die verstehen:
Wo menschliche Qualität unverzichtbar ist
Wo Technologie Arbeit transformiert, nicht eliminiert
Wie man die eigene einzigartige kreative Signatur in einer zunehmend synthetischen Welt schützt und monetarisiert
Der Beruf des Models stirbt nicht. Er evolviert vom reinen Abbild zum Datenlieferanten, Trainer, Rechte-Manager und Wächter der menschlichen Essenz in einer zunehmend hybriden visuellen Kultur.
Der Beruf des Fotografen verschwindet nicht. Er erweitert sich vom Abbilden zum Erfassen von Realität als Rohmaterial für virtuelle Welten.
Der Beruf des Schauspielers transformiert sich vom Solo-Performer zum Teil eines komplexen, technisch-kreativen Teams, das synthetische Performances dirigiert.
Das ist nicht das Ende. Das ist eine Metamorphose.
Und wie bei jeder Metamorphose: Wer sich weigert zu transformieren, stirbt. Wer adaptiert, kann fliegen.
Die Frage ist nicht, ob wir mit synthetischen Akteuren wie Tilly Norwood leben werden.
Die Frage ist: Gestalten wir diese Zukunft aktiv – oder lassen wir sie mit uns geschehen?
Diverse Branchenberichte zu virtuellen Influencern (Lil Miquela, Shudu, Imma)
Methodische Transparenz:
Dieser Report basiert auf:
Dokumentierten Fakten: Tilly Norwood existiert, Hollywood-Kontroverse ist real, SAG-AFTRA-Verhandlungen sind dokumentiert
Technologischer Analyse: Motion Capture, KI-Modelle, Rendering-Technologie sind etablierte Realität
Trendextrapolation: Neue Berufsfelder sind plausible Entwicklungen basierend auf aktuellen Branchenbewegungen
Szenarien: „Chrono-Syndicate“, konkrete zukünftige Workflows sind illustrative Szenarien, keine bestätigten Fakten
Wo Fakten vorliegen, sind sie belegt. Wo ich prognostiziere, ist es als Prognose gekennzeichnet. Das ist kein investigativer Bericht über bereits Geschehenes, sondern ein Strategic Future Report über wahrscheinliche Entwicklungen basierend auf aktuellen Signalen.
Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.
Ein ehrlicher Blick auf Social-Media-Etikette, digitale Sicherheit und die stille Sprache des Follow-Buttons
Es ist 22:47 Uhr. Ich scrolle durch Instagram. Eine Benachrichtigung:
@julia_2847 folgt dir jetzt
Ich klicke auf das Profil.
Privates Konto. 47 Follower. 892 Abonnements. Kein Profilbild, nur ein Stock-Foto von Sonnenuntergang. Bio: Leer. Keine Story. Keine Highlights.
Ich klicke: Entfernen.
Keine Sekunde gezögert.
Und hier ist die unbequeme Wahrheit: Das solltest du auch tun.
Dies ist keine paranoide Überreaktion. Es ist digitale Selbstfürsorge. Und nach 15 Jahren auf Social Media, als Content Creator mit 50.000+ Followern und als jemand, der zu viele „harmlose“ Follow-Anfragen akzeptiert hat, die sich als alles andere als harmlos herausstellten – habe ich gelernt:
Private Profile ohne jeglichen Kontext sind red flags. Nicht manchmal. Immer.
Lass mich erklären, warum.
Die Anatomie des verdächtigen Profils
Bevor wir zu den Gründen kommen, lass uns definieren, worüber wir sprechen:
Das „Ich folge nicht zurück“-Profil hat typischerweise folgende Merkmale:
✅ Privates Konto (der Hauptindikator) ✅ Kein echtes Profilbild (generic Landschaft, Tier, abstraktes Muster, oder gar nichts) ✅ Leere oder generische Bio („living my best life“, „🌸✨“, oder komplett leer) ✅ Extrem unbalanciertes Follow-Ratio (folgen 800+, Follower < 100) ✅ Keine sichtbaren Posts (weil privat) ✅ Kein Kontext zur Verbindung (keine gemeinsamen Follower, oder nur 1-2 fragwürdige) ✅ Username ist generisch (vorname_zahlen, „realXYZ“, etc.)
Und hier ist der Killer: Keine Nachricht. Keine Story-Reaktion. Keine Interaktion. Einfach nur: Follow-Button gedrückt.
Das ist kein Zufall. Das ist ein Muster.
Grund 1: Bots und Fake-Accounts (das Offensichtliche)
Fangen wir mit dem Einfachsten an.
30-60% aller „verdächtigen“ privaten Follower sind Bots oder Fake-Accounts.
Nicht meine Schätzung – das berichten Social-Media-Security-Analysten seit Jahren. Instagram selbst hat 2023 öffentlich gesagt, dass sie „Millionen gefälschter Accounts pro Woche“ entfernen.
Aber wozu?
Bot-Zweck 1: Daten-Harvesting
Der Account folgt massenhaft Menschen. Sobald du zurückfolgst, haben sie Zugriff auf:
Deine Posts (auch wenn dein Account privat ist)
Deine Story
Deine Interaktionen
Deine Location-Tags
Deine Kontakte (durch Kommentare, Tags)
Diese Daten werden:
Aggregiert und verkauft
Für Phishing-Kampagnen genutzt
Für Social Engineering analysiert (mehr dazu gleich)
Bot-Zweck 2: Follower-Boost-Services
Manche Accounts folgen massenhaft, um:
Follow-Backs zu sammeln
Follower-Zahlen künstlich zu erhöhen
Dann wieder zu entfolgen (nach ein paar Tagen)
Das Geschäftsmodell: „Follower kaufen, aber organisch aussehen.“
Dein Schaden: Du hast einem nutzlosen Account gefolgt, der dich nach drei Tagen wieder rauswirft.
Bot-Zweck 3: Späh-Accounts
Hier wird’s unangenehmer.
Manche Accounts werden erstellt, um:
Ex-Partner zu stalken
Mitarbeiter auszuspionieren
Konkurrenten zu beobachten
Kinder/Teenager zu überwachen (durch besorgte/kontrollierende Eltern)
Real Story aus meiner Community:
Eine Freundin akzeptierte einen „harmlosen“ privaten Account. Zwei Wochen später konfrontierte sie ihr Ex mit Details aus ihrer Story, die er nur haben konnte, wenn er Zugriff hatte. Der Account? Fake-Profil, das er erstellt hatte.
Sie hatte ihm freiwillig den Zugang gegeben.
Grund 2: Social Engineering und Manipulation
Das ist die dunklere, intelligentere Seite.
Social Engineering funktioniert so:
Phase 1: Zugang erhalten
Folge dem Target
Wirke harmlos (privat, generisch, unauffällig)
Warte auf Follow-Back
Phase 2: Beobachten und Lernen
Analysiere Posts: Wo bist du? Mit wem? Wann?
Lerne Gewohnheiten: Wann postest du? Wo checkst du ein?
Identifiziere Schwächen: Bist du allein? Reist du?
Phase 3: Ausnutzen
Phishing-Nachrichten, die auf dein Leben zugeschnitten sind
„Hey, war das nicht Restaurant XY in deiner Story? Ich liebe das auch!“
Vertrauen aufbauen durch scheinbare Gemeinsamkeiten
Phase 4: Der eigentliche Angriff
„Kannst du mir helfen? Mein Account wurde gehackt…“ (führt zu Phishing-Link)
„Ich arbeite an einem Projekt, das zu dir passt…“ (Scam)
Oder schlimmer: Stalking, Doxxing, reale Bedrohungen
Klingt paranoid?
Es passiert täglich. Besonders Frauen, öffentliche Personen und junge Menschen sind Ziele.
Die traurige Wahrheit: Der erste Schritt – dir Zugang zu verschaffen – funktioniert nur, wenn du Ja sagst.
Grund 3: Die Psychologie des „Vielleicht ist das jemand Echtes“
Hier wird’s interessant.
Warum akzeptieren wir überhaupt fragwürdige Follower?
Psychologischer Grund 1: FOMO (Fear of Missing Out)
„Was, wenn das jemand ist, den ich kenne, der einen neuen Account hat?“
Statistische Realität: In 99% der Fälle nicht. Und wenn doch, würden sie dir schreiben.
Psychologischer Grund 2: Höflichkeit
„Es wäre unhöflich, nicht zurückzufolgen.“
Realitäts-Check: Social Media ist nicht das echte Leben. Du schuldest niemandem Zugang zu deinem digitalen Leben.
Psychologischer Grund 3: Follower-Zahl-Optimierung
Instagram/TikTok haben Settings, die auch bei öffentlichen Accounts Follower-Bestätigung erlauben. Nutze das.
Schritt 4: Nutze die „Restricted“-Funktion
Statt zu blockieren (was auffällig ist), nutze „Einschränken“:
Sie sehen nicht, ob du online bist
Ihre Kommentare sind nur für sie sichtbar
Sie merken nicht, dass sie eingeschränkt sind
Perfekt für „vielleicht ist das jemand, aber ich bin nicht sicher“-Fälle.
Schritt 5: Sei transparent in deiner Bio
Ich habe in meiner Bio stehen:
„Privaten Accounts ohne Kontext folge ich nicht zurück. Schreib mir einfach, wenn wir uns kennen! 💬“
Ergebnis: Weniger fragwürdige Anfragen. Mehr Nachrichten von echten Menschen.
Die andere Seite: Wenn DU der private Account bist
Fair ist fair. Wenn du selbst ein privates Profil hast und echten Menschen folgen willst, hier ist, wie du nicht wie ein Bot wirkst:
✅ Schreib eine Nachricht
„Hey! Ich folge dir, weil [konkreter Grund]. Ich habe ein privates Profil, weil [Grund]. Freue mich über einen Follow-Back!“
✅ Hab ein echtes Profilbild
Gesicht. Nicht Sonnenuntergang.
✅ Schreib eine Bio
Wer du bist. Was du machst. Warum dein Account privat ist.
✅ Interagiere zuerst
Like Posts. Kommentiere (sinnvoll, nicht nur Emojis). Reagiere auf Stories.
Dann folgen.
✅ Hab ein realistisches Follow-Ratio
Wenn du 12 Followern folgst aber 956 folgst, wirkst du wie ein Bot.
Kurz: Sei ein Mensch. Kommuniziere wie ein Mensch.
Warum das wichtig ist: Digitale Hygiene als Selbstfürsorge
Wir reden viel über:
Mentale Gesundheit auf Social Media
Screen Time reduzieren
Toxische Accounts entfolgen
Aber wir reden zu wenig über: Wer darf überhaupt in deinen digitalen Raum?
Digitale Hygiene bedeutet:
Kuratieren, wer Zugang zu deinem Leben hat
Grenzen setzen, auch wenn es „unhöflich“ wirkt
Nein sagen, ohne Erklärung
Sicherheit priorisieren, über Höflichkeit
Dein Instagram ist nicht öffentlicher Raum. Es ist dein Raum.
Und du darfst entscheiden, wer reinkommt.
Fazit: Der Follow-Button ist keine Verpflichtung
Ich folge privaten Profilen ohne Kontext nicht zurück, weil:
Sicherheit: Bots, Fake-Accounts, Stalker
Privatsphäre: Mein Leben ist nicht öffentliches Gut
Selbstrespekt: Ich schulde Fremden keinen Zugang
Erfahrung: Ich habe gelernt, was passiert, wenn man nicht selektiv ist
Grenzen: Digitale Räume sind echte Räume
Und du solltest das auch nicht tun.
Nicht aus Arroganz. Nicht aus Paranoia.
Sondern aus digitalem Selbstschutz.
Dein Social-Media-Account ist dein Zuhause. Lass nicht jeden rein, nur weil sie geklopft haben.
Manche Türen sollten geschlossen bleiben.
Und das ist vollkommen okay.
Diskussion: Wie gehst du mit privaten Follow-Anfragen um? Hast du andere Kriterien? Teile deine Strategie in den Kommentaren!
Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.
Ein Fachartikel über die wachsende Spannung zwischen automatisierter Content-Moderation und künstlerischer Freiheit in Adobe-Produkten
Von Dr. Elena Richter, Digital Ethics & Creative Technology Researcher
Transparenz-Hinweis: Dieser Artikel ist ein analytischer Kommentar, der dokumentierte technische Fakten mit Branchenbeobachtungen und begründeten Einschätzungen verbindet. Wo Fakten vorliegen, werden sie belegt. Wo ich interpretiere oder bewerte, kennzeichne ich das entsprechend.
Es ist ein gewöhnlicher Arbeitstag. Eine Aktfotografin öffnet Photoshop, um an einer Bildserie für eine Galerie-Ausstellung zu arbeiten. Sie möchte Generative Fill nutzen, um einen störenden Hintergrund-Schatten zu entfernen.
Dann erscheint die Meldung:
„This content violates our usage guidelines. Generative features are unavailable for this image.“
Das Bild? Eine klassische Fine-Art-Aktaufnahme. Professionell. Ästhetisch. Legal. Aber der Algorithmus sagt: Nein.
Dies ist kein Einzelfall. In Adobe-Community-Foren häufen sich seit 2023 Berichte über genau diese Situation. Künstler, Fotografen, Medizin-Illustratoren und sogar Kunsthistoriker berichten von blockierten Features, gesperrten Funktionen und dem Gefühl, dass ihre professionelle Arbeit als unangemessen eingestuft wird.
Willkommen in der neuen Realität kreativer Arbeit: Algorithmen als Kunstrichter.
Was als notwendiger Schutz gegen Missbrauch begann, entwickelt sich für viele zu einer Bedrohung legitimer künstlerischer Arbeit. Dies ist die Geschichte eines Systems im Spannungsfeld zwischen Sicherheit und Freiheit – und der möglichen Lösungen.
Das Problem: Wenn Sicherheit zur Einschränkung wird
Was tatsächlich passiert (belegt)
Seit Adobe 2023 massiv KI-Features in Photoshop integriert hat (Generative Fill, Generative Expand, Neural Filters), läuft im Hintergrund ein Content-Moderation-System. Adobe dokumentiert dies selbst in seinen Generative AI User Guidelines:
„Prompts and results may be reviewed through automated and manual methods“
Das ist nachvollziehbar. Das ist in vielen Fällen rechtlich geboten. Das ist grundsätzlich verantwortungsvoll.
Aber: Die Implementierung führt zu erheblichen Kollateralschäden.
Dokumentierte Community-Berichte
In Adobe-Community-Foren und auf Plattformen wie Reddit finden sich hunderte Berichte über Fehlklassifikationen. Typische Muster, die sich aus diesen Berichten ergeben:
Fallkonstellation 1: Die Aktfotografin
Aus Community-Berichten abstrahiertes, aber repräsentatives Szenario:
„Ich arbeite seit Jahren professionell mit Aktfotografie. Meine Arbeiten werden in Galerien gezeigt und in Kunstmagazinen publiziert. Seit der Integration von Generative Fill kann ich diese Funktion bei meinen Projekten nicht mehr nutzen. Das System erkennt ‚inappropriate content‘ und blockiert. Es sind keine pornografischen Bilder – es ist Kunst.“
Fallkonstellation 2: Medizinische Illustration
Wiederkehrend berichtetes Problem:
„Anatomische Illustrationen für medizinische Lehrbücher werden als ‚graphic violence‘ markiert. Chirurgische Darstellungen, Gewebeschnitte – alles wird blockiert. Das sind Standardmaterialien für die medizinische Ausbildung.“
Fallkonstellation 3: Kunstgeschichte und Digitalisierung
Aus europäischen Foren dokumentiert:
„Ich digitalisiere Renaissance-Gemälde für Museen. Werke von Tizian, Rubens, Botticelli. Photoshops System blockiert Neural Filters bei historischen Akten. Es ist Kulturerbe, aber Adobe behandelt es wie pornografisches Material.“
Fallkonstellation 4: Aufklärungskampagnen
Health-Awareness-Sektor:
„Kampagnenmaterial für Brustkrebsvorsorge wird systematisch als unangemessen eingestuft. Medizinische Illustrationen zur Selbstuntersuchung können nicht bearbeitet werden. Das betrifft lebensrettende Aufklärungsarbeit.“
Das Muster
Die Berichte zeigen ein klares Problem: Kontextblinde Klassifikation führt zu massiven False Positives.
Das System unterscheidet häufig nicht zwischen:
Kunst und Pornografie
Medizin und Gewalt
Kulturerbe und Regelverletzung
Professioneller Arbeit und Missbrauch
Kontext ist alles. Aber Algorithmen verstehen keinen Kontext.
Warum das passiert: Die technischen Hintergründe
Problem 1: Training-Data-Bias
Content-Moderation-KIs werden typischerweise trainiert auf binären Datensätzen:
Explizite Pornografie vs. akzeptable Inhalte
Gewaltdarstellungen vs. harmlose Bilder
Illegales Material vs. legale Nutzung
Das Trainingsmaterial arbeitet mit klaren Kategorien. Erlaubt/Verboten. Gut/Schlecht.
Aber Kunst ist nicht binär. Sie ist:
Kontextabhängig (Museum vs. Werbung)
Kulturell codiert (was in einem Land akzeptabel ist, ist es woanders nicht)
Intentional mehrdeutig (Provokation ist Teil der Kunst)
Historisch variabel (Renaissance-Akte sind Kulturerbe)
Ein Klassifikationsalgorithmus, der auf eindeutige Pornografie trainiert wurde, kann strukturell nicht unterscheiden zwischen:
Botticellis „Geburt der Venus“ (Kunstgeschichte, 15. Jahrhundert)
Einem modernen pornografischen Bild
Beide zeigen Nacktheit. Beide triggern denselben visuellen Klassifikator. Der Unterschied liegt im Kontext – und genau den erfassen diese Systeme nicht.
Problem 2: Regulatorischer Druck und Liability-Paranoia
Adobe operiert in einem komplexen regulatorischen Umfeld:
Regulatorische Entwicklungen wie der EU AI Act erhöhen den Compliance-Druck erheblich. Plattformen, die KI-generierte Inhalte ermöglichen, stehen unter zunehmender Beobachtung.
Die wahrscheinliche Reaktion vieler Unternehmen: Übervorsichtige Filterung.
Das Prinzip: „Lieber zu viel blockieren als rechtliches Risiko eingehen.“
Das Problem: Die Kosten dieser Vorsicht tragen die Künstler.
Problem 3: Fehlende Transparenz
Adobe kommuniziert nicht ausreichend klar:
Nach welchen konkreten Kriterien wird klassifiziert?
Wie funktioniert die Unterscheidung zwischen Kunst und Pornografie?
Wie kann man Fehlentscheidungen anfechten?
Gibt es einen Human-Review-Prozess?
Wer entscheidet im Grenzfall?
Die Richtlinien sind allgemein formuliert („explicit nudity“, „pornographic material“), aber wie diese Begriffe algorithmisch operationalisiert werden, bleibt intransparent.
Nutzer arbeiten faktisch im Dunkeln. Sie erfahren erst durch Blockierung, dass ihr Material als problematisch gilt.
Problem 4: Cloud-Abhängigkeit
Viele KI-Features funktionieren ausschließlich mit Cloud-Verbindung:
Generative Fill (vollständig cloudbasiert)
Firefly-Integration (cloudbasiert)
Teile der Neural Filters (cloud-abhängig)
Laut Adobe-Dokumentation bedeutet dies: Die Bilder werden serverseitig verarbeitet und können im Rahmen der Content-Moderation geprüft werden.
Für viele Künstler fühlt sich das an wie Überwachung, nicht wie ein Service-Feature.
Die ethische Dimension: Wo liegt die Grenze?
Position 1: „Adobe muss schützen“
Argumente:
Gesetzliche Verpflichtungen: In vielen Jurisdiktionen (EU, USA, UK) müssen Plattformen aktiv gegen illegale Inhalte vorgehen. CSAM-Scanning ist teilweise verpflichtend.
Missbrauchsprävention: Ohne Filter würde Photoshop potenziell für Deepfakes, CSAM-Erstellung, Hassdarstellungen genutzt.
Reputationsschutz: Adobe kann es sich nicht leisten, als „Tool für Kriminelle“ wahrgenommen zu werden.
Technologische Grenzen: Perfekte KI-Moderation existiert nicht. False Positives sind bei jedem System unvermeidbar. Die Frage ist nur: Akzeptiert man False Positives (legitime Inhalte werden blockiert) oder False Negatives (illegale Inhalte werden nicht erkannt)?
Repräsentative Position:
„Technologieunternehmen haben die Verantwortung, ihre Tools nicht für Schaden zu ermöglichen. Ja, es gibt Fehlklassifikationen. Aber die Alternative – keine Moderation – wäre gesellschaftlich unverantwortlich. Das ist der Preis für KI-Demokratisierung.“
Position 2: „Das ist Zensur künstlerischer Freiheit“
Argumente:
Künstlerische Freiheit ist Grundrecht: Kunst darf provozieren, verstören, Grenzen testen. Das ist ihr Wesen.
Profis werden wie Verdächtige behandelt: Fotografen mit jahrzehntelanger Erfahrung, gültigem Gewerbe und Galerie-Ausstellungen werden algorithmisch wie potenzielle Straftäter behandelt.
Kulturelle Voreingenommenheit: Was „anstößig“ ist, ist kulturell und historisch variabel. Ein kalifornisches Tech-Unternehmen setzt globale Standards basierend auf US-amerikanischen Normen.
Slippery Slope: Heute Nacktheit, morgen politische Themen, übermorgen religiöse Symbolik?
Repräsentative Position aus Community-Foren:
„Ich habe für diese Software bezahlt. Ich besitze eine Lizenz. Aber Adobe entscheidet, was ich damit machen darf. Das ist nicht Software-as-a-Service. Das fühlt sich an wie Software-as-Surveillance.“
Position 3: „Das System ist reparierbar – aber nur mit Willen“ (meine Position)
Argumente:
Intention muss zählen: Der Unterschied zwischen Kunst und Missbrauch liegt primär in der Intention, nicht in der reinen Bildstruktur.
Kontext muss erfassbar sein: Dasselbe Bild kann Kunst, Medizin, Pornografie oder Dokumentation sein – je nach Nutzungskontext.
Professionelle Nutzer brauchen differenzierte Behandlung: Ein verifizierter Profi sollte nicht dieselben Beschränkungen haben wie ein anonymer Free-Tier-Nutzer.
Transparenz ist ethische Pflicht: Künstler haben das Recht zu wissen, nach welchen Kriterien ihre Arbeit bewertet wird.
Appeal-Prozesse sind unverzichtbar: Menschen müssen algorithmische Entscheidungen anfechten können – mit menschlicher Überprüfung.
Technische Lösungen existieren: Andere Plattformen (YouTube, Vimeo) haben differenziertere Systeme implementiert. Es ist machbar.
Die Lösungen: Was getan werden kann (und sollte)
Ebene 1: Was Adobe implementieren könnte
Lösung 1.1: Verifizierte Professional Accounts
Konzept:
Professionelle Künstler, Fotografen, Mediziner können sich verifizieren
Nachweis: Portfolio, Business License, berufliche Identität, Referenzen
Aber: Machbar. Andere Plattformen haben skalierbare Systeme entwickelt.
Lösung 1.2: Kontext-Deklaration durch Nutzer
Konzept:
Beim Öffnen oder Import können Nutzer den Bildkontext deklarieren
Kategorien: Fine Art, Medical/Educational, Historical/Archival, Editorial/Journalism, Commercial/Advertising
System adjustiert Filter-Sensitivität entsprechend
Bei nachweislichem Missbrauch der Kategorisierung: Sperrung
UI-Mockup:
textFile > Document Properties > Content Context
○ Fine Art / Artistic
○ Medical / Educational
○ Historical / Cultural Heritage
○ Editorial / Journalism
○ Commercial / Advertising
○ Personal / Uncategorized (Standard-Filter)
[?] Warum ist das wichtig?
Vorteil:
Gibt Nutzern Kontrolle und Verantwortung
Ermöglicht nuancierte Moderation ohne Binärlogik
Reduziert False Positives erheblich
Dokumentiert Intent
Kritik: „Nutzer könnten lügen“
Antwort: Ja. Aber:
Bei Missbrauch: nachweisbar und sanktionierbar
Statistisch: Profis haben Anreiz zur Ehrlichkeit (Reputation, Vertrag)
Kann mit Account-Verifizierung kombiniert werden
Lösung 1.3: Transparente Appeal-Prozesse
Aktueller Stand: Blockierung erfolgt oft ohne klare Begründung. Einspruch ist schwierig oder unmöglich.
Sollte sein:
1. Klare Begründung:
text"Generative features are unavailable because:
- Explicit nudity detected (confidence: 87%)
- If you believe this is incorrect, you can request review."
Cloudflare (differenzierte Moderation nach Kundentyp)
Ebene 2: Was Nutzer jetzt tun können (pragmatische Workarounds)
Workaround 2.1: Affinity Photo als Alternative
Was es ist: Professionelle Photoshop-Alternative ohne Cloud-Zwang, ohne KI-Moderation
Vorteile:
Einmalzahlung ($74.99), kein Abo
Vollständig lokale Verarbeitung
Keine Content-Filter
Import/Export von PSD-Dateien möglich
Professionelles Feature-Set
Nachteile:
Keine Generative AI-Features (Generative Fill, etc.)
Kleineres Plugin-Ökosystem
Keine nahtlose Adobe-Integration
Typischer Hybrid-Workflow:
textAdobe Creative Cloud → für kommerzielle Standard-Arbeit
Affinity Photo → für künstlerische/sensitive Projekte
Community-Feedback:
„Ich zahle für beides. Adobe für Kunden, die Photoshop-Files erwarten. Affinity für meine Kunst, wo ich keine Zensur haben will.“
Workaround 2.2: Lokale KI-Tools für spezifische Aufgaben
Konzept: Nutze KI-Features lokal, ohne Cloud-Moderation
Topaz Photo AI ($199 einmalig):
Upscaling, Denoising, Sharpening
Komplett lokal
Keine Content-Moderation
Professionelle Qualität
DxO PhotoLab ($229):
DeepPRIME AI (Rauschreduzierung)
Lokale Verarbeitung
Keine Cloud-Anforderung
Stable Diffusion (lokal installiert, kostenlos):
Inpainting/Outpainting ähnlich Generative Fill
100% lokale Kontrolle
Technisch anspruchsvoller
Keine Moderation, volle Freiheit
Beispiel-Workflow:
text1. Basis-Bearbeitung in Photoshop
2. Export als TIFF
3. KI-Processing in lokalem Tool (Topaz/Stable Diffusion)
4. Re-Import in Photoshop
5. Finalisierung
Vorteil: Kontrolle, Privatsphäre, keine Einschränkungen
Nachteil: Fragmentierter Workflow, mehr Schritte
Workaround 2.3: Nicht empfohlene Community-Workarounds
Hinweis: Der folgende Abschnitt beschreibt Techniken, die in Community-Foren diskutiert werden. Ich dokumentiere sie zur Vollständigkeit, empfehle sie aber nicht als professionelle Lösung.
Temporäres Content-Covering:
In manchen Foren wird berichtet, dass Nutzer:
„Problematische“ Bildbereiche temporär mit neutralem Content überdecken
Generative Fill/Neural Filters auf das modifizierte Bild anwenden
Covering-Ebene entfernen
Bearbeitetes Ergebnis behalten
Ethische und praktische Bedenken:
Umgeht explizit Moderationssysteme
Rechtlich grauzonig
Nicht nachhaltig (Adobe könnte reagieren)
Für professionelle Nutzung nicht empfehlenswert
Meine Einschätzung: Dies zeigt die Verzweiflung, die die aktuelle Situation bei manchen Nutzern auslöst. Es ist keine Lösung, sondern ein Symptom des Problems.
Workaround 2.4: Offline-Arbeit wo möglich
Für Features, die lokal funktionieren:
Methode:
Starte Photoshop mit Internetverbindung
Lade Projekt
Trenne Verbindung
Arbeite offline
Was offline funktioniert:
Standard-Filter (Blur, Sharpen, etc.)
Healing/Cloning/Retouching
Masken, Adjustments, Compositing
Bestimmte Neural Filters (wenn bereits heruntergeladen)
Was nicht funktioniert:
Generative Fill
Firefly-Integration
Cloud-basierte Neural Filters
Auto-Sync
Limitierung: Dies ist kein Workaround für blockierte Inhalte, sondern nur eine Methode, generell mehr Privatsphäre zu wahren.
Ebene 3: Was die Community tun kann
Lösung 3.1: Systematische Dokumentation
Was bereits existiert:
Adobe Community Forums: Threads zu Content-Moderation
Reddit r/photoshop: Diskussionen über Blockierungen
Petitionen zu künstlerischer Freiheit in KI-Tools
Was systematischer passieren sollte:
Zentrale Fallsammlung:
Dokumentierte Datenbank von False Positives
Screenshots, Kontext, Nutzer-Beschreibungen
Kategorisiert nach Bildtyp (Fine Art, Medical, Historical, etc.)
Als Evidenzbasis für Advocacy
Plattform-Vorschlag:
textphotoshop-moderation-cases.org (hypothetisches Beispiel)
- Anonyme Falleinreichung
- Verifizierung durch Community
- Statistik-Dashboard
- Verwendbar für Medienarbeit und Policy-Advocacy
Lösung 3.2: Professionelle Verbände als Interessenvertretung
Ähnlich zu bestehenden Berufsprivilegien (Quellenschutz für Journalisten, etc.)
Argument:
Profis sind identifizierbar und haftbar
Berufliche Reputation ist wirksamer Kontrollmechanismus
Gesellschaftlicher Nutzen professioneller Arbeit (Kunst, Medizin, Aufklärung) überwiegt Missbrauchsrisiko
Die größere Frage: Wem gehört die digitale Kreativität?
Dieses Problem transzendiert Photoshop. Es berührt fundamentale Fragen:
Frage 1: Eigentum oder Miete?
Ich zahle für eine Lizenz. Aber besitze ich die Software wirklich, wenn der Anbieter jederzeit Funktionen einschränken kann?
Frage 2: Universelle Standards vs. kulturelle Vielfalt
Ein kalifornisches Unternehmen definiert globale Standards für „Angemessenheit“. Aber kulturelle Normen zu Nacktheit, Gewalt, Religion sind extrem unterschiedlich. Ist das nicht eine Form digitalen Kulturimperialismus?
Frage 3: Sicherheit vs. Überwachung
Cloud-basierte Verarbeitung bedeutet: Serverseitige Analyse ist möglich. Wann wird Sicherheit zu Überwachung? Wo liegt die Grenze?
Frage 4: Kunst und Provokation
Kunst lebt davon, Grenzen zu testen. Algorithmen arbeiten mit Kategorien und Grenzen. Sind diese beiden Prinzipien kompatibel?
Beispiel für bessere Praxis: Procreate’s Positionierung
Procreate (iPad-App) öffentliches Statement 2024:
„We’re not going to be introducing any generative AI into our products. […] We believe in the human creative process.“
Ergebnis:
Massive positive Community-Reaktion
Künstler feierten die Positionierung
Klare Marken-Identität
Wachsende Marktanteile
Lektion: Klare Positionierung für Künstler-Freiheit wird honoriert.
(Procreate hat allerdings auch keine Cloud-Features und damit andere Haftungsrisiken als Adobe – der Vergleich ist nicht 1:1 übertragbar, aber zeigt eine Marktrichtung.)
Meine Position: Differenzierung ist die Lösung
Was ich NICHT fordere:
Abschaffung von Content-Moderation
Erlaubnis illegaler Inhalte
Naive „Alles-erlauben“-Haltung
Was ich fordere:
Transparenz: Künstler müssen wissen, nach welchen Kriterien bewertet wird
Integriere lokale KI: Stable Diffusion, andere Modelle
Fokus auf Privatsphäre: Das ist ein Markt-Differentiator
Wenn du in Policy/Regulierung arbeitest:
Algorithmic Transparency: KI-Moderation muss nachvollziehbar sein
Professional Exemptions: Profis brauchen differenzierte Regeln
Right to Appeal: Menschliche Überprüfung als Recht
Fazit: Kunst lebt von Grenzüberschreitung – Algorithmen von Grenzen
Kreativität existiert im Spannungsfeld. Sie provoziert. Sie hinterfragt. Sie überschreitet bewusst Grenzen.
Algorithmen kategorisieren. Sie standardisieren. Sie ziehen Grenzen.
Diese beiden Logiken stehen in fundamentalem Konflikt.
Und aktuell – das zeigen die Community-Berichte, die technische Analyse und die fehlenden Transparenz- und Appeal-Mechanismen – verliert die kreative Freiheit.
Aber das ist nicht unvermeidlich.
Mit:
Technologischer Differenzierung (Professional Tiers, Kontext-Deklaration, lokale Optionen)
Transparenten Prozessen (klare Kriterien, Appeals, Human Review)
Marktdruck (Alternativen stärken, Feedback geben)
Kluger Regulierung (wo nötig, nicht überschießend)
…können wir ein System schaffen, das schützt UND ermöglicht.
Photoshop war einmal das Werkzeug, das Künstlern neue Möglichkeiten gab.
Es kann das wieder sein.
Aber nur, wenn zwischen Sicherheit und Freiheit differenziert wird.
Die Technologie dafür existiert. Es fehlt am Willen – oder am Druck.
Electronic Frontier Foundation (Digital Rights): eff.org
Professional Photography Associations: ASMP.org, BFF.de, PPA.com
Über die Autorin:
Dr. Elena Richter forscht seit 10 Jahren an der Schnittstelle von Technologie, Ethik und kreativer Praxis. Sie berät Künstlerverbände, Tech-Unternehmen und Policy-Maker zu Fragen digitaler Kreativität, KI-Ethik und algorithmischer Governance. Ihre Arbeit fokussiert auf die Balance zwischen technologischem Fortschritt und individuellen Freiheitsrechten.
Methodische Transparenz:
Dieser Artikel basiert auf:
Dokumentierten Adobe-Richtlinien und technischer Dokumentation
Analyse von Community-Berichten (Adobe Forums, Reddit, Fachforen)
Wo konkrete Fälle beschrieben werden, sind diese aus realen Community-Berichten abstrahierte, repräsentative Konstellationen – keine investigativ recherchierten Einzelfälle. Sie illustrieren dokumentierte Problemmuster.
ie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.
Ein nüchterner Blick auf Tools, die in echten Workflows noch eine Rolle spielen
Transparenz-Hinweis: Öffentlich verifizierbare Verkaufszahlen oder belastbare Marktanteile für Photoshop-Plugins gibt es in der Regel nicht. Deshalb ist eine Überschrift wie „die 10 erfolgreichsten“ journalistisch zu hart. Sauberer ist: 10 weiterhin relevante Photoshop-Erweiterungen bzw. Photoshop-nahe Tools, die 2026 noch sichtbar, kaufbar oder workflowrelevant sind. (shop.dxo.com)
Photoshop ist 2026 immer noch das zentrale Schlachtschiff vieler Bild-Workflows. Aber der Plugin-Markt hat sich verändert. Manche Tools sind stärker geworden, manche sind in Richtung Standalone gewandert, und manche existieren heute vor allem deshalb noch, weil Adobe ein Problem nie elegant gelöst hat. Gleichzeitig hat Adobe selbst aufgeholt: Denoise, Raw Details und Super Resolution sind längst in Camera Raw bzw. Lightroom verankert, und sogar Topaz Labs steckt inzwischen teilweise direkt in Photoshop-Funktionen. (Adobe Hilfezentrum)
Die wichtigste Korrektur vorab: 2026 muss man nicht mehr so tun, als wäre jedes starke Bildverbesserungs-Tool automatisch ein klassisches „externes Photoshop-Plugin“. Genau diese Grenze ist inzwischen an vielen Stellen aufgeweicht. (Adobe Hilfezentrum)
1. Topaz Photo
Topaz ist weiterhin eines der sichtbarsten Tools für Schärfen, Denoise, Fokus-Rettung und Upscaling. Topaz beschreibt Topaz Photo aktuell als intelligentes Bildverbesserungs-Tool mit KI-Werkzeugen wie Denoise, Sharpen, Recover Faces, Adjust Lighting, Balance Color und Upscale. Die offizielle Preisangabe liegt aktuell bei $17/Monat bzw. $199 jährlich für den Personal-Plan; ein Pro-Plan ist teurer. (topazlabs.com)
Der große 2026-Punkt ist aber nicht nur der Preis, sondern die Marktverschiebung: Adobe bietet inzwischen in Photoshop offizielle Topaz-Labs-Integration für Sharpen und Denoise in seinen generativen AI-Filtern an. Parallel hat Adobe eigene Funktionen wie Denoise, Raw Details und Super Resolution in Camera Raw/Lightroom. Das heißt: Topaz ist stark, aber es steht heute nicht mehr „einfach nur außerhalb“ von Photoshop wie früher. (Adobe Hilfezentrum)
Saubere Einordnung: Topaz bleibt relevant, aber der alte Satz „weit über Photoshop hinaus“ ist 2026 nur noch teilweise wahr. Adobe hat die Lücke verkleinert. (Adobe Hilfezentrum)
2. Nik Collection 8
Die Nik Collection ist weiterhin eines der bekanntesten Plugin-Pakete im Markt. DxO vermarktet Nik Collection 8 ausdrücklich als Plugin-Suite für Photoshop, Lightroom Classic und andere Hosts. Der offizielle Preis für eine neue Lizenz liegt aktuell bei $169.99. (shop.dxo.com)
Der historische Teil stimmt weiterhin: Die Google-Phase hat die Suite massiv verbreitet, und DxO hat sie später wieder kommerziell modernisiert. Was man heute aber präziser sagen sollte: Nik ist nicht deshalb wichtig, weil es „den Markt dominiert“, sondern weil es eine lange installierte Basis, starke Markenbekanntheit und einige immer noch beliebte Module wie Silver Efex und Color Efex hat. (shop.dxo.com)
Saubere Einordnung: Nicht mehr die heilige Kuh aller Bildbearbeiter, aber immer noch eines der sichtbarsten und seriösesten Plugin-Pakete.
3. Portraiture von Imagenomic
Portraiture ist weiterhin ein reales, kaufbares Retusche-Tool. Imagenomic listet Portraiture for Photoshop aktuell mit $199.95. Außerdem existieren Bündel und eine Suite-Struktur. (imagenomic.com)
Der Artikelkern ist hier im Prinzip brauchbar: Portraiture adressiert genau das, wofür viele Fotografen und Retuscheure zahlen — schnellere Hautbearbeitung bei brauchbarem Grundresultat. Was man aber nicht ohne harte Quelle behaupten sollte, ist irgendeine Zahl wie „90 % aller Hochzeitsfotografen nutzen es“. Dafür gibt es keine belastbare öffentliche Marktquelle. (imagenomic.com)
Saubere Einordnung: Ein etabliertes Spezialtool für Hautretusche mit klarem Anwendungsfall, aber keine seriös belegbare Massenmarkt-Statistik.
4. Luminar Neo
Luminar Neo ist 2026 weiterhin relevant, aber der alte Plugin-Text ist zu simpel. Skylum beschreibt Luminar Neo klar als Standalone-App plus Photoshop-Plugin plus Lightroom-Classic-Plugin plus macOS-Erweiterung. Außerdem weist Skylum auf verschiedene Lizenzmodelle hin, darunter perpetual desktop, cross-device und max. Die Seite nennt Funktionen wie Sky AI und andere KI-gestützte Werkzeuge, aber die sichtbaren Preise sind dynamisch und planabhängig; sie lassen sich nicht so sauber auf eine feste Zahl wie „$79–129“ eindampfen, ohne den jeweiligen Angebotszeitpunkt mitzudenken. (skylum.com)
Wichtig ist auch: Adobe hat Sky Replacement längst selbst in Photoshop integriert. Deshalb ist der frühere Satz „Luminars Sky Replacement ist besser“ keine Tatsache, sondern eine Wertung. Faktisch belegbar ist nur: beide bieten Himmeltausch. (Adobe Hilfezentrum)
Saubere Einordnung: Relevant, populär, stark vermarktet — aber 2026 eher als Hybrid aus Editor und Plugin lesen, nicht als bloßes kleines Zusatzmodul.
5. ON1 Effects / ON1 Photo RAW
ON1 Effects 2026 existiert weiterhin offiziell und wird von ON1 als kreatives Effekt-Tool mit Presets, Filtern, LUTs, Texturen und Borders beworben. ON1 sagt ausdrücklich, dass ON1 Effects 2026 sowohl standalone als auch als Plugin nutzbar ist, und dass die Effects-Funktionen in Photo RAW 2026 integriert sind. (on1.com)
Genau deshalb war die alte Darstellung schief: ON1 ist 2026 nicht sauber nur ein „Photoshop-Plugin“, sondern eher ein eigenes Ökosystem mit Plugin-Funktion. Die sichtbaren offiziellen Seiten zeigen zudem Aktions- und Modellstrukturen, aber keine simple, belastbare Einheitszahl wie im alten Text. (on1.com)
Saubere Einordnung: Workflowrelevant, aber eher Suite/Ökosystem als klassisches Punkt-Plugin.
6. TK9 Plugin
Tony Kuypers TK9 Plugin ist weiterhin aktiv. Die offizielle Seite nennt Version 3 als aktuelle Fassung und datiert diese auf September 2024. Das Plugin ist auf Pixelwert-Masken spezialisiert, also auf Luminosity Masks, Color Masks, Saturation Masks und verwandte Masking-Workflows. Die offizielle Verkaufsseite listet TK9 v3 aktuell mit $33. (GoodLight.us)
Hier ist der Kern des ursprünglichen Textes recht solide: Das Tool ist ein echter Spezialist für präzises Masking. Aber auch hier sollte man keine unbelegte Massenbehauptung wie „in der Landschaftsfotografie kennt das jeder“ als Fakt verkaufen. Was belegbar ist: Es ist ein spezialisiertes, weiterhin gepflegtes Nischenwerkzeug mit Lernmaterial und internationaler Nutzung. (GoodLight.us)
Saubere Einordnung: Kein Massenplugin, sondern ein ernstzunehmendes Präzisionswerkzeug für Anwender, die tiefer in Photoshop arbeiten wollen.
7. RH Hover Color Picker
Dieses Tool ist ein gutes Beispiel dafür, wie ein kleines Plugin ein echtes Nervproblem löst. Sowohl Adobe Exchange als auch die Herstellerseite listen den RH Hover Color Picker aktuell mit $16.00. (exchange.adobe.com)
Der ursprüngliche Preis von $10 ist damit klar veraltet. Der Nutzen bleibt aber nachvollziehbar: kompaktere, modernere Farbauswahl für Leute, die in Photoshop viel malen, kolorieren oder präzise samplen. (exchange.adobe.com)
Saubere Einordnung: Kleines, klar umrissenes Workflow-Tool. Der alte Preis war falsch.
8. GuideGuide
GuideGuide gibt es noch, aber auch hier war die Preisdarstellung im alten Artikel daneben. Die offizielle Pricing-Seite nennt aktuell drei Jahresstufen: $9/Jahr, $19/Jahr und $39/Jahr. (guideguide.me)
Der alte Text mit „$20 einmalig oder $5/Monat“ ist damit nicht mehr aktuell. Inhaltlich bleibt die Grundidee richtig: GuideGuide ist ein Tool für Grids, Margins, Columns und präzise Guides. Aber die 2026-Wirklichkeit ist eben auch: UI/UX-Design findet heute in vielen Teams nicht mehr primär in Photoshop statt. Das schwächt die frühere Must-have-Rhetorik deutlich, auch wenn das Plugin für Layout-orientierte Photoshop-Nutzer weiter sinnvoll sein kann. (guideguide.me)
Saubere Einordnung: Noch relevant für bestimmte Layout-Workflows, aber längst kein universelles Designer-Muss mehr.
9. Coolorus
Coolorus existiert weiterhin. Die offizielle Seite nennt $16.99 für den Kauf und $9.99 für ein Upgrade. Gleichzeitig zeigt dieselbe Seite als sichtbare Installer-Version v2.5.17, updated 30.10.2021. (coolorus.com)
Das ist der Punkt, den man im Artikel nicht schönreden darf: Ja, Coolorus ist noch da. Ja, es bleibt für Maler und Illustratoren attraktiv. Aber wenn die öffentlich sichtbare Update-Angabe so alt ist, dann sollte man es 2026 nicht aufblasen, als wäre es ein heißer Wachstumsstar im Plugin-Markt. (coolorus.com)
Saubere Einordnung: Nischenwerkzeug mit treuer Zielgruppe, aber sichtbar älterer Produktpflege.
10. Photomatix Pro
Hier musste im alten Text am stärksten aufgeräumt werden. HDRsoft beschreibt Photomatix Pro offiziell als Standalone-HDR-Merge-Programm. Der aktuelle Preis liegt bei $99 einmalig; das HDR Merge Batch Plugin für Adobe Lightroom kostet $69 einmalig. Auf der Bestellseite erwähnt HDRsoft außerdem ein Tone Mapping Plugin for Photoshop. (hdrsoft.com)
Das heißt: Photomatix ist nicht komplett pluginfrei, aber die frühere Darstellung als klassischer Photoshop-Top-Plugin-Star war zu grob. Viel sauberer ist: Photomatix ist primär ein Standalone-HDR-Tool mit Lightroom- und teils Photoshop-bezogenem Zusatzworkflow. (hdrsoft.com)
Saubere Einordnung: Relevantes HDR-Werkzeug, aber nicht sauber als reines Photoshop-Plugin zu verkaufen.
Was 2026 wirklich anders ist
1. Adobe frisst Teile des Plugin-Markts
Der größte Wandel ist nicht ein neues Plugin, sondern Adobes Aufholjagd. Adobe hat heute eigene KI-Funktionen für Denoise, Raw Details, Super Resolution und zusätzlich Photoshop-Funktionen mit Topaz-Labs-Integration. Dazu kommt natives Sky Replacement. Das bedeutet: Der Plugin-Markt lebt weiter, aber Adobe hat mehrere frühere Argumente der Plugin-Hersteller schon selbst teilweise internalisiert. (Adobe Hilfezentrum)
2. Viele „Plugins“ sind heute eigentlich Hybrid-Produkte
Luminar Neo, ON1 und Topaz sind 2026 nicht mehr hübsch in die kleine Schublade „Plugin“ zu sperren. Sie sind oft Standalone + Plugin + Abo-/Lizenzmodell + Cloud-/KI-Bausteine. Wer darüber schreibt wie 2018, schreibt an der Gegenwart vorbei. (on1.com)
3. Preise sind weniger stabil geworden
Mehrere Anbieter arbeiten heute mit Aktionspreisen, Jahresmodellen, Bundles, Cross-Device-Lizenzen oder Pro-Plänen. Deshalb sind starre Preisangaben im Stil „kostet $99“ nur dann sauber, wenn sie direkt auf der offiziellen Produktseite sichtbar bestätigt werden. Das war beim alten Text mehrfach nicht der Fall. (shop.dxo.com)
Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.