Latest Entries »



Eine kunstkritische Betrachtung über Werkzeuge, Kreativität und warum manche Menschen einfach gerne meckern

Von einem müden Kunstkritiker, der das alles schon mal gehört hat


Letzte Woche stand ich in einer Galerie. Vor mir: eine beeindruckende Arbeit. Digitale Komposition, KI-generierte Elemente, von Hand nachbearbeitet, in Acryl veredelt. Technisch versiert. Konzeptionell stark. Emotional wirksam.

Neben mir: Zwei Besucherinnen, vielleicht Anfang 50.

„Das ist doch keine richtige Kunst“, sagte die eine. „Das macht ja der Computer.“

Ich seufzte. Innerlich. Laut. Mit meiner ganzen Seele.

Nicht, weil ich anderer Meinung war. Sondern weil ich diesen exakt gleichen Satz schon so oft gehört habe. Nur mit anderen Worten.

„Das ist doch keine richtige Fotografie. Das macht ja die Kamera.“

„Das ist doch keine echte Zeichnung. Das ist ja digital.“

„Das ist doch keine Kunst. Das ist ja Photoshop.“

Und jetzt: „Das ist ja nur KI.“

Wir sind wieder da. Am exakt gleichen Punkt. Nur mit neuer Technologie.

Und ehrlich? Ich hab’s satt.


Die Fotografie: Als Kunst zum ersten Mal „zu einfach“ wurde

Spulen wir zurück. 1839. Louis Daguerre präsentiert die Daguerreotypie. Die Öffentlichkeit ist fasziniert. Die Kunstwelt? Empört.

Der französische Maler Paul Delaroche soll angeblich ausgerufen haben: „Von heute an ist die Malerei tot!“

Die Kritik damals klang bemerkenswert vertraut:

  • „Das ist kein Können, das ist eine Maschine.“
  • „Jeder kann auf einen Knopf drücken.“
  • „Wo ist da die künstlerische Hand?“
  • „Das ist Reproduktion, keine Kreation.“

Charles Baudelaire, einer der einflussreichsten Kunstkritiker seiner Zeit, schrieb 1859: „Wenn man der Fotografie erlaubt, die Kunst in einigen ihrer Funktionen zu ergänzen, wird sie diese bald vollständig verdrängt oder verdorben haben.“

Das war vor 165 Jahren.

Heute hängen Fotografien von Ansel Adams, Diane Arbus, Andreas Gursky in den wichtigsten Museen der Welt. Fotografien werden für Millionen verkauft. Niemand fragt mehr, ob Fotografie „echte Kunst“ ist.

Die Debatte ist tot. Die Kunst hat gewonnen.

Aber das Muster? Das wiederholt sich. Immer wieder.


Digitale Fotografie: Die zweite Runde

Fast forward. 1990er Jahre. Digitalkameras werden erschwinglich. Plötzlich braucht man kein Filmmaterial mehr, keine Dunkelkammer, keine chemischen Prozesse.

Und prompt: Die nächste Empörungswelle.

„Das ist doch keine richtige Fotografie.“
„Analog erfordert Können. Digital ist nur klicken und hoffen.“
„Echte Fotografen arbeiten mit Film.“
„Digital hat keine Seele.“

Ich erinnere mich an Gespräche in Fotografie-Foren Anfang der 2000er. Die Verbissenheit, mit der manche Leute verteidigten, dass nur analoge Fotografie wahre Kunst sei. Digital? Spielerei.

Heute? Die Debatte ist vorbei. Niemand fragt mehr nach. Einige der teuersten zeitgenössischen Fotografien wurden digital aufgenommen.

Aber das Muster bleibt.


Photoshop: Als Bearbeitung plötzlich „Betrug“ war

Nächste Runde. Photoshop wird zum Standard. Anfang 2000er.

Und wieder: Empörung.

„Das ist ja bearbeitet!“
„Das ist keine echte Fotografie mehr, das ist Manipulation.“
„Früher musste man das Bild richtig aufnehmen. Heute macht man einfach alles in Photoshop.“
„Echte Fotografen brauchen kein Photoshop.“

Ich habe Ausstellungen gesehen, in denen explizit darauf hingewiesen wurde: „Keine digitale Nachbearbeitung“ – als wäre das ein Qualitätsmerkmal. Als wäre Ansel Adams nicht stundenlang in der Dunkelkammer gewesen, um seine Prints zu optimieren. Als hätte nicht jeder große Fotograf der Geschichte massiv in die Entwicklung eingegriffen.

Aber damals galt: Photoshop = Schummelei.

Heute? Photoshop ist Industriestandard. Jede professionelle Fotografie durchläuft Nachbearbeitung. Niemand regt sich mehr auf.

Außer natürlich über das nächste Werkzeug.


KI: Willkommen zur vierten Iteration derselben Debatte

Und jetzt sind wir hier. 2024, 2025. KI-generierte Kunst.

Und die Argumente? Exakt dieselben. Nur das Werkzeug hat sich geändert.

„Das ist doch keine echte Kunst.“
„Das macht ja die KI.“
„Jeder kann einen Prompt eingeben.“
„Wo ist da das Können?“
„Das ist Diebstahl an echten Künstlern.“

Jedes. Einzelne. Argument. gab es schon. Drei Mal. Mindestens.

Und wisst ihr was? In zehn Jahren wird niemand mehr danach fragen. Genau wie bei Fotografie, Digitalfotografie und Photoshop.

KI wird ein Werkzeug sein. Unter vielen. Manche Künstler nutzen es. Manche nicht. Beide machen Kunst.

Aber bis dahin müssen wir uns anscheinend wieder durch dieselbe ermüdende Diskussion quälen.


Warum das Argument „Das ist kein Können“ Unsinn ist

Lasst mich etwas klarstellen.

Ein Werkzeug zu bedienen ist nicht automatisch Kunst. Aber es verhindert auch nicht Kunst.

Ein schlechter Fotograf mit der besten Kamera der Welt macht schlechte Fotos.
Ein guter Fotograf mit einer Handy-Kamera macht gute Fotos.

Ein schlechter Maler mit den teuersten Ölfarben malt Schrott.
Ein guter Maler mit Kinderfarben kann Magie erschaffen.

Ein schlechter Künstler mit KI-Tools produziert generischen Müll.
Ein guter Künstler mit KI-Tools erschafft etwas, das dich zum Nachdenken bringt.

Das Werkzeug ist nicht der Punkt.

Der Punkt ist:

  • Was willst du sagen?
  • Wie setzt du es um?
  • Bewegt es etwas in anderen Menschen?

Kunst ist nicht die Technik. Kunst ist die Absicht, die Vision, die Ausführung, die Wirkung.

Ob du das mit einem Pinsel, einer Kamera, Photoshop oder einer KI erreichst, ist vollkommen egal.


Das eigentliche Problem: Gatekeeping als Identität

Hier ist die unbequeme Wahrheit über viele dieser Kritiker:

Es geht ihnen nicht um Kunst. Es geht um Status.

Sie haben Jahre investiert, eine bestimmte Technik zu lernen. Analog fotografieren. In der Dunkelkammer arbeiten. Mit Ölfarben malen. Und dieser Aufwand gibt ihnen ein Gefühl von Exklusivität.

„Ich kann etwas, was nicht jeder kann.“

Und dann kommt ein neues Werkzeug. Eines, das die Einstiegshürde senkt. Und plötzlich können mehr Menschen visuell kreativ sein.

Und das fühlt sich für manche an wie eine Bedrohung.

„Wenn jeder Kunst machen kann, bin ich dann noch etwas Besonderes?“

Die Antwort ist: Ja. Wenn deine Kunst gut ist.

Aber wenn dein einziger Wert darin lag, dass du ein schwieriges Werkzeug beherrschst, dann hast du ein Problem. Denn Werkzeuge werden immer einfacher. Das ist Fortschritt.

Echte Künstler fürchten neue Werkzeuge nicht. Sie nutzen sie.


Warum „KI stiehlt von Künstlern“ zu kurz greift

Okay, hier wird’s differenziert.

Ja, KI-Modelle werden mit Bildern trainiert. Viele davon ohne explizite Erlaubnis der Urheber. Das ist ein rechtliches und ethisches Problem, das gelöst werden muss.

Keine Frage. Das ist eine legitime Debatte über Urheberrecht, faire Vergütung und Transparenz.

Aber: Das ist eine andere Diskussion als „KI-Kunst ist keine echte Kunst“.

Du kannst gleichzeitig für bessere Künstlerrechte kämpfen UND anerkennen, dass KI ein legitimes kreatives Werkzeug ist.

Und hier ist der Punkt: Inspiration funktioniert immer durch Aufnahme und Rekombination.

Jeder Künstler lernt, indem er andere Künstler studiert. Maler kopieren Alte Meister. Fotografen lassen sich von anderen Fotografen inspirieren. Designer schauen, was andere machen.

Das ist nicht „Diebstahl“. Das ist, wie Kreativität funktioniert.

Die Frage ist nicht, ob man von anderen lernt. Die Frage ist: Schaffst du daraus etwas Neues?

Und genau das gilt auch für KI-Kunst. Ein guter Künstler nutzt KI nicht als „Knopf für fertiges Bild“, sondern als Werkzeug im kreativen Prozess.

Genauso wie Photoshop. Oder eine Kamera.


Die Museen wissen es längst

Hier ist ein Fakt, der die Debatte eigentlich beenden sollte:

KI-generierte Kunst hängt bereits in renommierten Museen.

  • Das MoMA in New York hat KI-Kunst in Ausstellungen gezeigt.
  • Die Serpentine Gallery in London hat KI-basierte Installationen präsentiert.
  • Die Ars Electronica widmet seit Jahren ganze Bereiche digitaler und KI-basierter Kunst.
  • Christie’s und Sotheby’s haben KI-Kunstwerke versteigert – für sechsstellige Summen.

Die Kunstwelt – die institutionelle, akademische, kuratorische Kunstwelt – hat längst entschieden: KI-Kunst ist Kunst.

Natürlich gibt es auch dort kritische Diskurse. Über Urheberschaft, über Originalität, über Ethik. Aber die Grundfrage „Ist das Kunst?“ ist beantwortet.

Die einzigen, die noch darüber streiten, sind:

  • Leute, die Kunst nicht als Beruf haben
  • Leute, die sich bedroht fühlen
  • Und Trolle im Internet, die einfach gerne streiten

Transparenz: Der einzige Standard, der zählt

Hier ist, wo ich Linie ziehe.

Wenn du mit KI arbeitest, steh dazu.

So wie du dazu stehst, dass du Photoshop benutzt. So wie du dazu stehst, dass du digital fotografierst. So wie ein Bildhauer dazu steht, dass er elektrische Werkzeuge nutzt.

Das Werkzeug zu verschweigen, ist das Problem. Nicht das Werkzeug selbst.

Wenn jemand ein KI-generiertes Bild als „handgemaltes Ölgemälde“ verkauft, ist das Betrug. Klar.

Aber wenn jemand sagt: „Ich arbeite mit KI-Tools, bearbeite die Ergebnisse von Hand, veredle sie mit Acryl und erschaffe daraus meine Vision“ – dann ist das völlig legitim.

Transparenz ist der Standard.

Und alles andere ist Kunst. Oder eben nicht. Aber das entscheidet sich nicht am Werkzeug.


Warum du nicht mit diesen Leuten diskutieren musst

Und jetzt der befreiendste Teil dieses Artikels:

Du musst mit diesen Leuten nicht diskutieren.

Wenn jemand in deine Kommentare kommt mit „Das ist ja keine echte Kunst, das ist ja nur KI“, dann musst du nicht:

  • Einen Essay schreiben
  • Drei historische Beispiele bringen
  • Erklären, wie dein kreativer Prozess aussieht

Du kannst einfach blocken.

Warum?

Weil Menschen, die so argumentieren, nicht an einem echten Gespräch interessiert sind. Sie wollen Recht haben. Sie wollen sich überlegen fühlen. Sie wollen provozieren.

Das sind keine Kunstkritiker. Das sind Trolle mit Kunstvokabular.

Echte Kunstkritik ist differenziert, neugierig, offen.

„Interessant, wie nutzt du KI in deinem Prozess?“
„Was sind für dich die Grenzen des Werkzeugs?“
„Wie siehst du die ethischen Fragen?“

Das sind Fragen, mit denen man arbeiten kann.

„Das ist ja keine echte Kunst“ ist keine Frage. Das ist eine Provokation.

Und mit Provokationen muss man nicht diskutieren.

Block. Weiter. Kunst machen.


Was wirklich zählt

Am Ende des Tages zählt nur eines:

Bewegst du etwas in Menschen?

Egal ob du mit Ölfarbe, Bleistift, einer Kamera, Photoshop oder KI arbeitest – wenn deine Arbeit jemanden zum Nachdenken bringt, eine Emotion auslöst, eine neue Perspektive eröffnet, dann hast du Kunst gemacht.

Wenn deine Arbeit in Galerien hängt, in Sammlungen aufgenommen wird, von Menschen geschätzt wird – dann hast du Kunst gemacht.

Wenn du eine Vision hast, sie technisch umsetzt und in die Welt bringst – dann hast du Kunst gemacht.

Das Werkzeug ist irrelevant.

Die Geschichte hat das drei Mal bewiesen. Vier Mal, wenn man KI mitzählt.

Und in zehn Jahren werden wir über das nächste Werkzeug streiten. Vielleicht Brain-Computer-Interfaces. Vielleicht neuronale Kunst. Vielleicht etwas, das wir uns heute noch nicht vorstellen können.

Und wieder werden Leute sagen: „Das ist ja keine echte Kunst.“

Und wieder wird die Kunstwelt weitermachen. Museen werden ausstellen. Sammler werden kaufen. Künstler werden erschaffen.

Weil Kunst nicht das Werkzeug ist.

Kunst ist, was du damit machst.


Mein Rat an jeden Künstler, der mit KI arbeitet

1. Steh dazu.
Sei transparent. Erkläre deinen Prozess. Zeige, wie du arbeitest. Das ist nicht Schwäche – das ist Selbstbewusstsein.

2. Ignoriere die Trolle.
Du musst dich nicht rechtfertigen. Deine Arbeit spricht für sich. Wer das nicht sieht, ist nicht dein Publikum.

3. Fokussiere dich auf deine Vision.
Das Werkzeug ist nur Mittel zum Zweck. Die Frage ist: Was willst du sagen? Sag es. Mit welchem Werkzeug auch immer.

4. Lerne weiter.
KI ist ein Werkzeug. Wie jedes Werkzeug kannst du es besser oder schlechter nutzen. Lerne es zu beherrschen. Genau wie Fotografen Licht studieren und Maler Farbtheorie.

5. Sei Teil der ethischen Debatte.
Künstlerrechte, faire Vergütung, Transparenz – das sind wichtige Themen. Sei Teil der Lösung.


Fazit: Geschichte wiederholt sich, aber Kunst bleibt

In hundert Jahren wird niemand mehr fragen, ob KI-Kunst „echte“ Kunst ist.

Genauso wenig wie heute jemand fragt, ob Fotografie oder Photoshop „echte“ Kunst sind.

Die Debatte wird vorbei sein. Die Kunst wird bleiben.

Und die Leute, die heute meckern, werden vergessen sein.

Aber die Kunst? Die Kunst, die heute mit KI gemacht wird – die gute, die starke, die bewegende Kunst – die wird in Museen hängen, in Büchern stehen, in Sammlungen bewahrt werden.

Nicht weil sie mit KI gemacht wurde.

Sondern weil sie gut ist.

Und das ist das einzige Kriterium, das jemals gezählt hat.


Von einem Kunstkritiker, der diesen Zirkus schon zu oft gesehen hat – und sich weigert, noch mal die gleiche Platte zu hören.

Macht Kunst. Mit welchem Werkzeug auch immer.

Der Rest ist Lärm.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein Original. Ein Gebot. Ein einziger Moment.

Es gibt Kunstwerke, die man kaufen kann.

Und es gibt Werke, die man sich verdienen muss.

TINKER Nº5 – LOVE IS THE QUESTION gehört zur zweiten Kategorie.

Dieses Werk ist kein einfacher Print, kein schneller Klick im Warenkorb und keine austauschbare Edition aus endloser Reproduktion.

Es ist ein Einzelstück in stiller Auktion.

Ein Unikat.

Ein Werk, das genau einmal existiert – und genau einmal vergeben wird. Zur Auktion und Werkansicht: https://www.brownzart.com/limited-iconic-xoxo


Ein Kuss zwischen Melancholie und Magie

TINKER Nº5 bewegt sich zwischen Gegensätzen.

Ein Kuss, der zugleich zart und rebellisch wirkt.
Eine Bildsprache zwischen Street Art, Pop-Romantik und einem Hauch kontrollierten Wahnsinns.

Es erzählt von Sehnsucht.

Von Humor.

Von jener stillen Rebellion, die nicht schreit und gerade deshalb lange nachhallt.

Dieses Werk ist kein dekoratives Objekt.

Es ist ein emotionaler Moment auf Papier.

Ein Bild, das nicht nur betrachtet, sondern gespürt wird.


Die stille Auktion – diskret, exklusiv, vertraulich

Der eigentliche Kern dieses Projekts ist die stille Auktion.

Und genau das macht den Reiz aus.

Keine öffentliche Bieterliste.
Keine sichtbare Konkurrenz.
Kein Spektakel.

Nur dein Gebot.
Deine Entscheidung.
Dein Gefühl für den Wert dieses Moments.

Das Werk ist im April als Einzelstück in stiller Auktion erhältlich.

Auktionsdetails

  • Startgebot: 500 € (ohne Rahmung)
  • Gebotsschritte: 50 €
  • Einsendeschluss: 30. April 2026
  • E-Mail: brownz@brownz.art
  • Betreff: love this

Der Zuschlag erfolgt vertraulich an das höchste Gebot.

Gerade diese Diskretion verleiht dem Ganzen eine fast klassische Galerie-Atmosphäre.

Es geht nicht um Lautstärke.

Es geht um Entschlossenheit.


Warum eine stille Auktion so besonders ist

Eine stille Auktion verändert den Blick auf Kunst.

Hier entscheidet nicht der schnellste Klick.

Hier entscheidet der Wert, den du diesem Werk innerlich gibst.

Die Frage lautet nicht:

„Kann ich es kaufen?“

Sondern:

„Was ist mir dieser Moment wert?“

Das macht TINKER Nº5 zu mehr als einem Werk.

Es wird zu einer persönlichen Entscheidung.

Zu einem stillen Dialog zwischen Sammler und Kunst.


Material, Handschrift, Präsenz

Das Werk selbst trägt diese Exklusivität auch materiell.

Mixed Media auf Synthografie-Basis, von Hand mit Acryl vollendet.

Digitale Komposition trifft auf echte Handarbeit.

Diese Verbindung aus moderner Synthografie und analoger Acrylbearbeitung ist typisch für den unverwechselbaren Brownz-Stil.

60 × 90 cm auf William Turner Büttenpapier

Dazu kommt:

  • handsigniert
  • Proof of Artist
  • optional gerahmt
  • zwei Rahmungsoptionen verfügbar

Der Preis der Rahmung richtet sich nach der gewählten Variante.


Ein Original. Ein Moment. Ein Kuss, der bleibt.

Am Ende ist genau das die Essenz.

Nicht nur ein Bild.

Ein Moment.

Ein stiller Wettstreit.

Ein Werk, das genau einmal seinen Besitzer findet.

Und danach nie wieder.

Ein Original.
Ein Moment.
Ein Kuss, der bleibt.

BROWNS IS ART.



Eine Recherche über schnelle Follower, echte Erfahrungen und die Frage, ob sich digitale Abkürzungen lohnen

Es ist ein Versprechen, das verführerisch klingt: Mehr Follower, mehr Likes, mehr Reichweite – und das innerhalb von Stunden. Für Künstler, die ihre Arbeiten verkaufen wollen, für kleine Unternehmen, die sichtbarer werden müssen, oder für Kreative, die endlich den Durchbruch schaffen wollen, wirkt das wie eine logische Abkürzung. Warum Jahre in mühsamen organischen Aufbau investieren, wenn es auch schneller geht?

Genau an diesem Punkt setzt Followerfabrik.de an – ein deutscher Anbieter, der verspricht, Social-Media-Accounts auf Knopfdruck wachsen zu lassen. Instagram-Follower? Kein Problem. TikTok-Reichweite? Kommt sofort. YouTube-Abos? Wird geliefert.

Aber funktioniert das wirklich? Und vor allem: Bringt es langfristig überhaupt etwas? Ich habe mir die öffentlichen Bewertungen angeschaut, in Foren gelesen, mit Menschen gesprochen und versucht herauszufinden, was hinter diesem Geschäftsmodell steckt.


Erster Eindruck: Professionell aufgebaut, klare Ansage

Die Website von Followerfabrik wirkt auf den ersten Blick seriös. Modernes Design, klare Produktkategorien, Bewertungssterne überall. Es gibt Rabattaktionen, Garantien für Nachlieferungen falls Follower wieder verschwinden, Support-Hinweise und die Betonung, ein „deutscher Marktführer“ zu sein.

Das Angebot ist breit: Instagram, TikTok, YouTube, Twitch, Facebook – praktisch jede Plattform, auf der Reichweite zählt. Die Pakete reichen von kleinen Boosts bis zu massiven Follower-Käufen. Alles wirkt durchdacht und professionell.

Laut eigener Darstellung existiert das Unternehmen seit 2021. Das ist relativ jung, aber in einem Markt, der sich so schnell bewegt wie Social Media, durchaus nachvollziehbar.

Auf den ersten Blick sieht das Ganze aus wie ein normaler E-Commerce-Shop. Nur dass hier keine Schuhe verkauft werden, sondern digitale Aufmerksamkeit.


Die Bewertungen: Fast zu gut, um wahr zu sein?

Wenn man sich die öffentlichen Bewertungen anschaut – vor allem auf Plattformen wie ProvenExpert – dann liest sich das wie eine Erfolgsgeschichte. Viele Kunden berichten von schneller Lieferung, problemlosem Support und dass Follower, die wieder verschwanden, tatsächlich nachgeliefert wurden.

Typische Kommentare klingen so: „Alles hat super funktioniert, Support war schnell, kann ich nur empfehlen.“ Oder: „Follower kamen innerhalb von Stunden, bei kleinen Verlusten wurde sofort nachgefüllt.“

Das klingt erst mal gut. Aber hier muss man einen wichtigen Punkt verstehen: Diese Bewertungen messen vor allem eines – ob geliefert wurde. Nicht, ob es strategisch sinnvoll war. Nicht, ob die Follower echt interagieren. Nicht, ob es dem Account langfristig geholfen hat.

Es ist ein bisschen wie eine Fünf-Sterne-Bewertung für einen Lieferdienst, weil die Pizza pünktlich ankam – unabhängig davon, ob sie geschmeckt hat.


Die andere Seite: Was Nutzer in Foren erzählen

Wenn man tiefer gräbt – in Marketing-Foren, auf Reddit, in geschlossenen Facebook-Gruppen – dann wird das Bild komplexer. Dort berichten Menschen deutlich kritischer.

Die häufigsten Kritikpunkte sind nicht, dass nicht geliefert wurde. Sondern was geliefert wurde.

Inaktive Accounts. Follower, die nie ein einziges Mal mit einem Post interagieren. Profile ohne Profilbild, ohne Bio, ohne echte Aktivität.

Schneller Rückgang. Viele berichten, dass die Followerzahl nach wenigen Tagen oder Wochen wieder sinkt – manchmal massiv. Instagram und andere Plattformen löschen regelmäßig Fake-Accounts, und genau diese scheinen oft Teil der gelieferten Pakete zu sein.

Unpassende Zielgruppen. Ein deutscher Künstler bekommt plötzlich Follower aus Indien, Indonesien oder Brasilien – Menschen, die nie seine Sprache verstehen, geschweige denn seine Kunst kaufen werden.

Ein User schrieb in einem Forum: „Klar kamen die Follower. Aber meine Likes sind nicht gestiegen. Meine Story-Views nicht. Und meine Anfragen auch nicht. Es waren einfach nur Zahlen.“

Das ist der Knackpunkt.


Das algorithmische Problem: Reichweite ohne Resonanz schadet

Hier wird es technisch – aber wichtig.

Instagram, TikTok und andere Plattformen bewerten Inhalte nicht mehr nur nach Followerzahl. Sie schauen auf Engagement-Signale: Wie viele Menschen schauen ein Video bis zum Ende? Wie viele speichern einen Post? Wie viele teilen ihn? Wie viele kommentieren, besuchen das Profil, klicken auf den Link?

Wenn ein Account 10.000 Follower hat, aber nur 50 Likes pro Post bekommt, sendet das ein schlechtes Signal. Der Algorithmus interpretiert das als: „Die Leute folgen diesem Account, interessieren sich aber nicht wirklich dafür.“

Und das kann dazu führen, dass der Account weniger organische Reichweite bekommt als vorher.

Das ist der Punkt, den viele übersehen: Gekaufte Follower können nicht nur wirkungslos sein – sie können aktiv schaden.


Für wen könnte es trotzdem funktionieren?

Ich will hier nicht schwarzmalen. Es gibt tatsächlich Szenarien, in denen so ein Service kurzfristig Sinn ergeben kann.

Zum Beispiel:

  • Ein neues Business-Profil, das sofort seriös wirken muss
  • Ein Event oder eine Kampagne, bei der Social Proof schnell aufgebaut werden soll
  • Testläufe im Marketing, um zu sehen, ob mehr Follower überhaupt zu mehr Anfragen führen

Aber – und das ist entscheidend – das funktioniert nur, wenn danach echter Content kommt. Wenn Menschen auf das Profil kommen, sehen sie nicht nur die Zahl. Sie sehen, ob da Leben ist. Ob kommentiert wird. Ob reagiert wird.

Ein aufgeblasener Account ohne Substanz ist wie ein leeres Restaurant mit gefälschten Reservierungen an der Tür. Sobald jemand reinschaut, merkt er, dass niemand da ist.


Die Gefahr für Künstler und Marken

Gerade für Künstler, Designer, Fotografen – für alle, die auf Authentizität angewiesen sind – ist das ein echtes Risiko.

Sammler, Käufer, Galerien schauen mittlerweile sehr genau hin. Viele checken nicht nur die Followerzahl, sondern auch:

  • Wie viele Kommentare gibt es?
  • Sind die Kommentare echt oder nur Emojis?
  • Gibt es echte Gespräche in den Kommentaren?
  • Wie viele Saves hat ein Post?

Profis in der Branche erkennen gekaufte Reichweite oft sofort. Und wenn das auffliegt, ist das Vertrauen weg.

Ein Künstler erzählte mir: „Ich hatte mal ein Gespräch mit einer Galerie. Die schauten sich mein Instagram an und fragten mich direkt: ‚Haben Sie Follower gekauft?‘ Ich war geschockt. Anscheinend war mein Engagement-Rate so niedrig, dass es auffiel. Ich hatte es nicht gemacht – aber der Verdacht allein hat gereicht.“


Was kostet das eigentlich?

Die Preise bei Followerfabrik bewegen sich im marktüblichen Bereich. Ein paar hundert Follower kosten ein paar Euro, größere Pakete entsprechend mehr.

Oberflächlich betrachtet wirkt das günstig. Aber der wahre Preis liegt woanders: in der verpassten Chance, echte Community aufzubauen.

Stell dir vor, du investierst 100 Euro in gekaufte Follower – oder in bezahlte Werbung für deinen besten Post, der Menschen wirklich interessiert. Was bringt mehr?

Die Follower kommen sofort, verschwinden aber vielleicht wieder. Die Werbung bringt vielleicht weniger Follower, aber die, die kommen, sind echt.

Der ROI – Return on Investment – ist bei gekaufter Reichweite fast immer schlechter als bei gutem Content und gezielter Strategie.


Meine Einschätzung nach der Recherche

Nach allem, was ich gelesen, recherchiert und analysiert habe, sieht es so aus:

Followerfabrik liefert technisch, was versprochen wird. Die Bewertungen deuten darauf hin, dass Bestellungen ankommen, der Support reagiert und Nachlieferungen funktionieren.

Aber das ist nur die halbe Wahrheit.

Die eigentliche Frage ist nicht, ob die Follower ankommen. Die Frage ist: Was passiert danach?

Und da wird es kritisch. Die meisten Berichte deuten darauf hin, dass es sich um passive, inaktive oder kurzlebige Accounts handelt. Die Zahl steigt, aber die Resonanz nicht.

Für jemanden, der schnell ein Profil „aufhübschen“ will, mag das kurzfristig funktionieren. Für alle, die echtes Wachstum, echte Community und echte Kunden wollen, ist es eine Sackgasse.

Gerade für Kreative gilt: Deine Kunst verdient echte Fans, keine Fake-Zahlen.


Was wirklich funktioniert (und was nicht)

Nach dieser Recherche bin ich zu einem klaren Schluss gekommen:

Gekaufte Reichweite ist ein Pflaster, keine Lösung.

Was wirklich hilft:

  • Guter Content. Das klingt banal, aber es ist wahr. Ein einziges starkes Bild kann mehr bewirken als 10.000 gekaufte Follower.
  • Konsistenz. Regelmäßig posten, auch wenn es anfangs nur 20 Likes gibt.
  • Interaktion. Mit echten Menschen sprechen, Kommentare beantworten, Teil der Community sein.
  • Gezielte Werbung. Lieber 50 Euro in Instagram Ads für einen starken Post stecken als in leere Follower.

Und ja, das dauert länger. Ja, das ist anstrengender. Aber am Ende hast du etwas, das bleibt.


Fazit: Die unbequeme Wahrheit

Followerfabrik ist kein Betrug. Es ist ein Anbieter, der eine Dienstleistung verkauft – und diese Dienstleistung offenbar auch liefert.

Aber die entscheidende Frage ist nicht, ob sie liefern. Die Frage ist: Lohnt es sich?

Und da ist meine ehrliche Antwort nach dieser Recherche: Für die allermeisten Menschen: Nein.

Für schnellen Social Proof bei einem Launch? Vielleicht. Für nachhaltiges Wachstum, echte Fans und tatsächliche Verkäufe? Definitiv nicht.

Gerade als Künstler, Kreativer oder Marke gewinnst du nicht durch Zahlen. Du gewinnst durch Resonanz.

Und die kann man nicht kaufen.


Quellen:

  • Anbieterwebsite Followerfabrik
  • ProvenExpert Bewertungen
  • Öffentliche Foren-Diskussionen (Reddit, Marketing-Communities)
  • Gespräche mit Nutzern (anonymisiert)
  • Allgemeine Social-Media-Algorithmus-Analysen

Transparenz: Dieser Artikel basiert ausschließlich auf öffentlich zugänglichen Informationen. Es gab keinen direkten Kontakt zum Anbieter, keine bezahlte Kooperation und keinen Test-Kauf.



Die Kunst der Fotomontage war über Jahrzehnte eine Königsdisziplin der Bildbearbeitung. Wer ein Objekt, eine Person oder ein Produkt glaubwürdig in eine neue Umgebung einfügen wollte, brauchte Erfahrung, technisches Verständnis und ein geschultes Auge für Licht, Farbe, Perspektive, Schatten und Materialität.

Was früher oft 20 bis 60 Minuten konzentrierter Retuschearbeit bedeutete, erledigt Photoshop heute in vielen Fällen mit nur einem einzigen Klick.

Die Funktion „Harmonisieren“ markiert dabei einen entscheidenden technologischen Sprung. Sie ist weit mehr als ein klassischer Farbangleich oder ein automatisierter Filter. Statt lediglich Farbtöne anzugleichen, analysiert Photoshop mithilfe generativer KI die gesamte visuelle Situation eines Bildes und erzeugt eine realistische Verschmelzung zwischen Vordergrundmotiv und Hintergrund.

Damit verändert sich nicht nur die Geschwindigkeit der Arbeit, sondern das gesamte Denken in der Bildmontage.

Adobe positioniert Harmonize inzwischen als reguläres Kernfeature in Photoshop auf Desktop, Web und Mobile. Die Funktion gehört damit längst nicht mehr in den experimentellen Bereich, sondern ist ein ernstzunehmendes Werkzeug im professionellen Workflow.


01 Zwei ähnlich klingende Funktionen – ein wichtiger Unterschied

Der Begriff „Harmonisieren“ sorgt in Photoshop nach wie vor gelegentlich für Verwirrung, weil es historisch zwei unterschiedliche Ansätze gab.

Der ältere Neural Filter: Harmonisierung

Über Filter > Neural Filters findet sich die ältere Variante der Harmonisierung.

Dieser Ansatz basiert noch auf Adobes früherem KI-System und konzentriert sich primär auf einen automatisierten Farb- und Tonwertabgleich.

Das bedeutet:

  • Anpassung von Farbtemperatur
  • leichte Veränderung von Kontrast
  • Tonung an einen Zielhintergrund
  • globale Helligkeitsangleichung

Für einfache Aufgaben kann das weiterhin nützlich sein.

Allerdings wirkt dieser Ansatz aus heutiger Sicht technisch deutlich limitiert.

Er verändert hauptsächlich die ausgewählte Ebene selbst, ohne den Kontext der Szene tiefgreifend mitzudenken.

Was fehlt, sind die entscheidenden Faktoren realistischer Fotomontagen:

  • Umgebungslicht
  • Lichtkanten
  • Schattenwurf
  • Kontakt-Schatten
  • Reflexionen
  • atmosphärische Farbverschiebungen

Genau hier setzt die moderne Funktion an.


02 Die neue Firefly-Funktion: Harmonisieren

Das aktuelle Harmonisieren ist ein völlig anderes Kaliber.

Diese Funktion basiert auf Adobes moderner Firefly-Technologie und arbeitet generativ.

Das bedeutet:

Sie passt nicht nur Farben an, sondern rekonstruiert aktiv die Szene.

Photoshop analysiert dabei:

  • Lichtquelle
  • Lichtwinkel
  • Farbtemperatur
  • Helligkeitsverteilung
  • Schattenrichtung
  • Materialeigenschaften
  • Kontrast der Umgebung
  • Reflektionsverhalten

Anschließend wird das eingefügte Objekt oder Motiv so verändert, dass es sich visuell glaubwürdig in die Szene integriert.

Adobe beschreibt das explizit als automatisches Angleichen von:

  • lighting
  • shadows
  • colors
  • reflections

Und genau das ist der große Unterschied.

Es handelt sich nicht um einen „Filter“.

Es ist ein intelligenter Compositing-Assistent.


03 Warum diese Funktion so revolutionär ist

Die klassische Fotomontage erforderte bisher mehrere manuelle Schritte.

Zum Beispiel:

Farbangleich

  • Gradationskurve
  • Farbbalance
  • Selektive Farbkorrektur

Lichtanpassung

  • Dodge & Burn
  • weiche Lichtmasken
  • Verlaufsebenen

Schatten

  • Schlagschatten
  • manueller Kontakt-Schatten
  • weiche Multiplizieren-Ebenen

Reflexionen

  • Spiegelungen
  • Lichtkanten
  • Bounce Light

Diese Arbeit verlangte Erfahrung.

Ein Anfänger scheiterte meist an genau diesen Punkten.

Harmonisieren reduziert diese Hürde dramatisch.

Was früher Fachwissen brauchte, liefert heute oft ein einziger Klick.

Und genau deshalb ist diese Funktion ein Vorgeschmack auf die Zukunft professioneller Bildbearbeitung.


04 So funktioniert Harmonisieren technisch

Der Workflow ist bemerkenswert elegant.

Schritt 1 – Motiv freistellen

Das einzufügende Objekt oder die Person wird zunächst sauber freigestellt.

Hier empfiehlt sich:

  • Objektauswahl
  • Motiv auswählen
  • Hintergrund entfernen

Schritt 2 – eigene Ebene

Das freigestellte Motiv liegt auf einer separaten Pixelebene.

Schritt 3 – Harmonisieren starten

Dann klickst du in der kontextbezogenen Taskleiste auf:

Harmonisieren

alternativ:

Ebene > Harmonisieren

Schritt 4 – KI-Analyse

Jetzt beginnt Photoshop mit der Analyse der darunterliegenden Ebenen.

Dabei werden Szeneparameter erkannt.

Schritt 5 – Variationen

Es entstehen automatisch drei Varianten.

Diese erscheinen im Eigenschaften-Bedienfeld.

Du kannst:

  • eine auswählen
  • erneut generieren
  • weitere Varianten erzeugen

Jede Generierung verbraucht aktuell Credits.
Laut aktuellem Adobe-Hilfedokument sind es 5 Credits pro Generierung.

Auf der Produktseite wird teils noch von einem Standard-Credit gesprochen, die Hilfeseite ist hier jedoch aktueller.

Für einen Fachtext würde ich deshalb formulieren:

Je nach aktueller Version und Plan verbraucht jede neue Generierung generative Credits.

Das ist belastbar und zukunftssicher.


05 Was Photoshop dabei tatsächlich verändert

Das Faszinierende ist:

Photoshop verändert nicht nur das Objekt.

Es beeinflusst teilweise auch die Szene rundherum.

Zum Beispiel:

Lichtkante

Eine feine Lichtkante an Haaren oder Schultern

Farbstich

Warmes Abendlicht wird automatisch übernommen

Schattenwurf

Ein realistischer Schatten auf Boden oder Wand

Reflexion

Bei glänzenden Oberflächen sogar leichte Spiegelungen

Kontakt-Schatten

Der wichtigste Punkt für Realismus

Gerade der Kontakt-Schatten am Fußpunkt eines Objekts entscheidet oft darüber, ob eine Montage glaubwürdig wirkt.

Und genau hier liefert Harmonisieren oft erstaunlich gute Ergebnisse.


06 Die enormen Zeitvorteile

Hier wird es brutal spannend.

Ein realistischer Composite-Workflow brauchte bisher:

  • 5 Minuten Freistellung
  • 10 Minuten Licht
  • 10 Minuten Schatten
  • 10 Minuten Color Matching
  • 5 Minuten Feinkorrektur

Macht:

30 bis 40 Minuten

Mit Erfahrung.

Mit Harmonisieren sind vergleichbare Resultate oft in:

unter 30 Sekunden

möglich.

Das ist kein Marketing-Blabla.

Das ist in der Praxis real.

Gerade für:

  • Social Media
  • Kampagnen
  • Moodboards
  • schnelle Visualisierungen
  • Vorab-Layouts

ist das eine kleine Revolution.


07 Die Grenzen – hier wird es ehrlich

Jetzt der Teil, den viele weichzeichnen.

Ich nicht.

Die Funktion ist stark.

Aber sie ist nicht perfekt.


Gesichter

Gesichter können weiterhin Artefakte zeigen.

Vor allem:

  • Augenpartien
  • Mundbereiche
  • Hautstruktur

Hände und Finger

Der ewige Klassiker.

Auch 2026 sind Hände noch problematisch.

Gerade bei komplexen Lichtlagen entstehen oft:

  • deformierte Finger
  • unnatürliche Schatten
  • doppelte Konturen

Haare

Feine Haarstrukturen werden manchmal matschig.


Kanten

Bei transparenten Materialien wie Glas oder Stoff kann es zu Fehlern kommen.


große Druckformate

Hier wird es besonders kritisch.

Auf Instagram wirkt vieles spektakulär.

Im Großformatdruck werden Fehler brutal sichtbar.


08 Auflösung – aktueller Stand

Die alte starre Aussage „1024 × 1024“ ist heute so nicht mehr sauber.

Adobe hat den generativen Bereich massiv weiterentwickelt.

Zusätzlich existiert inzwischen Generative Upscale, um Auflösungen deutlich zu erhöhen.

Deshalb ist die bessere Formulierung:

Für große Druckausgaben sollte das Ergebnis immer in 100%-Ansicht geprüft und bei Bedarf durch Upscaling oder manuelle Retusche veredelt werden.

Das ist professionell formuliert.


09 Mein Profi-Tipp aus der Praxis

Ich würde Harmonisieren niemals als Endlösung betrachten.

Sondern als:

visuell-intelligenten Rohschnitt

Die KI zeigt dir extrem schnell:

  • welche Lichtstimmung funktioniert
  • wo Schatten liegen sollten
  • wie Farbe wirken muss

Danach beginnt die eigentliche Kunst.

Genau hier kommt der erfahrene Künstler ins Spiel.

Also du.

Die beste Methode ist:

Workflow

  1. KI-Harmonisierung
  2. beste Variation wählen
  3. manuelles Feintuning
  4. Dodge & Burn
  5. lokale Lichtmalerei
  6. Haut- und Kantensäuberung
  7. Druckprüfung

Dann wird aus „KI gut“ wirklich gallery worthy.


10 Mein ehrliches Fazit

Harmonisieren ist eines der spannendsten Werkzeuge, die Photoshop in den letzten Jahren bekommen hat.

Nicht weil es Kunst ersetzt.

Sondern weil es Technikzeit reduziert.

Die Funktion ersetzt keine Erfahrung.

Aber sie komprimiert Zeit.

Was früher 30 Minuten brauchte, ist heute in Sekunden sichtbar.

Der Unterschied zwischen Amateur und Profi liegt jetzt weniger im reinen technischen Handwerk und mehr im Blick.

Und genau dort beginnt Kunst.

Die Maschine harmonisiert.

Der Künstler entscheidet, ob es glaubwürdig ist.


Adobe Help – Harmonize in Photoshop

https://helpx.adobe.com/photoshop/desktop/repair-retouch/remove-objects-fill-space/blend-subjects-with-harmonize.html

Adobe Produktseite – Harmonize Image Blender

https://www.adobe.com/products/photoshop/harmonize-image-blender.html

Adobe Help – Neural Filters

https://helpx.adobe.com/photoshop/using/neural-filters.html

Adobe – What’s New in Photoshop Desktop

https://helpx.adobe.com/photoshop/desktop/whats-new/whats-new-in-adobe-photoshop-on-desktop.html

Adobe Blog – neue Photoshop Innovationen

https://blog.adobe.com/


Wenn Reichtum strampelt und Ironie Champagner trinkt

Manche Bilder hängen einfach an der Wand. Andere? Die machen sofort klar, worum’s geht.

FIT-O-BERT — Lotus Edition ist so ein Bild.

Da sitzt eine ikonische Ente – geschniegelt, im Luxus-Look – auf einem Bike und tritt in die Pedale, als hätte Erfolg persönlich gerade den Turbo eingelegt. In der Hand: eine Flasche Champagner. Drumherum: Goldbarren, Bargeld, Crypto-Symbole. Das volle Programm.

Das ist nicht einfach nur Popkultur. Das ist ein Statement.

Im Hintergrund prallen Welten aufeinander: futuristische Skyline, urbane Graffiti-Elemente, Symbole des modernen Wohlstands. Fitness trifft Geld, Street Art trifft Luxus, Selbstinszenierung trifft… naja, noch mehr Selbstinszenierung.

Aber genau darum geht’s hier ja auch. Was bedeutet Reichtum heute eigentlich? Ist es das Geld? Die Freiheit? Die Disziplin, jeden Tag aufs Bike zu steigen? Oder einfach die Kunst, sich selbst als Ikone neu zu erfinden?

Die Bildsprache spielt bewusst mit den Codes unserer Zeit: Champagner als Statussymbol, Crypto als digitaler Goldrausch-Mythos, Fitness als Religion der Selbstoptimierung, Street Art als urbane Stimme. Und genau in dieser Spannung liegt die eigentliche Kraft des Werkes.

Es ist laut, verspielt und provokant – und dabei ziemlich präzise in dem, was es sagen will. Luxus trifft Motivation. Ironie trifft Ambition. Pop trifft Haltung.

Das Werk entstand digital auf Synthografie-Basis und wurde dann von Hand mit Acryl veredelt. Das ist der typische Brownz-Look: digitale Vision trifft auf physische Künstlerhand, Zukunft verbindet sich mit Material.

Mixed-Media Einzelstück
40 × 40 cm
handsigniert

Dieses Original ist verkauft.

SOLD!

Aber jedes verkaufte Werk ist gleichzeitig der Startpunkt für neue ikonische Ideen.

Du willst ein eigenes, individuelles Kunstwerk im Brownz-Stil? Mehr Arbeiten findest du hier:

Galerie:
https://www.brownzart.com/galerie

Für limitierte Sonderwerke und exklusive Ikonen:
https://www.brownzart.com/limited-iconic-xoxo

Interested in your own piece?
Inbox me: brownz@brownz.art

BROWNZ IS ART.



Oder: Warum 42 Kilometer laufen wie Betonskulpturen formen ist – nur ohne die wichtigen Teile

Von Joe Cool Rambo Lee Norris
Weltmeister im Obelisken-Weitwurf (2019, 2021, 2024), Betonskulptur-mit-der-Hand-Künstler, Träger des Goldenen Spachtels


Hört zu, Leute. Joe Cool Rambo Lee Norris spricht. Und wenn Joe Cool Rambo Lee Norris spricht, dann hören normalerweise selbst die Tauben zu. Nicht die Vögel, sondern die Menschen ohne Gehör. Ist eine Metapher. Lernt man, wenn man jahrelang mit Beton arbeitet. Der Beton lehrt dich Metaphern. Und Demut. Hauptsächlich Rückenschmerzen, aber auch Metaphern.

Letzte Woche – es war ein Dienstag, ich weiß es war ein Dienstag, weil Dienstags mische ich immer meinen Spezialbeton für die Obelisken (Mischverhältnis 1:3:2, falls es jemanden interessiert, was es sollte) – letzte Woche also erreichte mich ein Anruf.

„Herr Norris“, sagte eine Stimme, die klang wie jemand, der noch nie einen Obelisken geworfen hat, „wir würden Sie gerne für den Linz-Marathon einladen. Als Botschafter für kreative Künstler.“

Ich sagte: „Ich bin kein Botschafter. Ich bin Weltmeister.“

„Natürlich“, sagte die Stimme, „aber sehen Sie, wir haben eine spezielle Kategorie. Den Marathon für Kreative. Künstler, Designer, Kreativschaffende – sie alle laufen zusammen durch Linz und—“

Ich unterbrach. Man muss wissen, wann man unterbricht. Das ist wichtig. Besonders beim Betonmischen.

„Moment“, sagte ich. „Die LAUFEN? Mit den BEINEN?“

„Ja, Herr Norris. Das ist üblicherweise, wie Marathons—“

„Und sie ERSCHAFFEN dabei nichts?“

Pause.

„Nun, sie erschaffen… Erfahrungen. Und persönliches Wachstum. Und—“

Ich legte auf.

Dann rief ich wieder an, weil mir einfiel, dass ich noch nie in Linz war und man sagt, dort gäbe es guten Granit.

„Ich komme“, sagte ich. „Aber ich laufe nicht.“

„Wir zahlen Ihnen—“

„Ich werfe einen Obelisken. Vom Start bis zum Ziel. 42 Kilometer. Das ist echte Kunst.“

Sie sagten Nein.

Ich kam trotzdem.


Kapitel 1: Die Anreise (oder: Warum Züge nicht für Künstler gemacht sind)

Der Zug nach Linz ist nicht für Menschen gemacht, die verstehen, was Gewicht bedeutet. Ich reiste mit meinem Trainings-Obelisken (43 Kilo, Granit, poliert auf einer Seite, rau auf der anderen – Kontrast, verstehst du, das ist Kunst) und die Schaffnerin sagte: „Das können Sie nicht als Handgepäck mitnehmen.“

Ich sagte: „Das ist kein Gepäck. Das ist ein Kunstwerk.“

Sie sagte: „Es blockiert den Gang.“

Ich sagte: „Kunst blockiert immer. Das ist ihre Aufgabe.“

Wir einigten uns darauf, dass ich für zwei Sitzplätze bezahle. Einer für mich, einer für den Obelisken. Der Obelisk saß am Fenster. Er mag die Aussicht.

Im Zug traf ich die ersten „Kreativen“, die auch zum Marathon wollten.

Eine junge Frau – Mitte zwanzig, Laptop aufgeklappt, völlig vertieft in etwas, das sie „UX-Design“ nannte – schaute auf meinen Obelisken und fragte: „Ist das… Deko?“

Deko.

DEKO.

Ich atmete tief durch. Der Obelisk hätte sie fast vom Sitz geworfen, rein aus Beleidigung, aber ich hielt ihn zurück.

„Das“, sagte ich langsam, mit der Geduld eines Mannes, der schon 387 Obelisken mit den bloßen Händen geformt hat, „ist ein 43-Kilo-Granit-Obelisk, handpoliert, trainingsoptimiert für Weitwurf-Dynamik, mit einem Schwerpunkt, der 3,7 Zentimeter unterhalb der geometrischen Mitte liegt. Das ist kein Deko. Das ist kinetische Skulptur.“

Sie nickte. „Cool. Ich mache Apps.“

Ich schaute aus dem Fenster.


Kapitel 2: Die Marathon-Expo (oder: Wo Kreativität stirbt und durch Merchandise ersetzt wird)

Die Marathon-Expo fand in einem riesigen Messezentrum statt. Hunderte Stände. Laufschuhe. Energy-Gels. Smartwatches, die deinen Puls messen und vermutlich auch deine Seele verkaufen.

Und dann: Der „Creative Corner“.

Ein Bereich, speziell für „kreative Teilnehmer“. Es gab:

  • Einen Stand für „Digital Nomad Runners“ (Menschen, die während des Laufens arbeiten wollen, was biologisch ineffizient und künstlerisch sinnlos ist)
  • Einen Workshop: „Marathon als Metapher für den kreativen Prozess“ (Marathon ist keine Metapher. Marathon ist Laufen. Metaphern haben Ebenen. Laufen hat Asphalt.)
  • Einen Verkaufsstand für „inspirierte Sportkleidung“ (T-Shirts mit Sprüchen wie „I run therefore I art“)

Ich stand da, 43-Kilo-Obelisk in den Armen (ich halte ihn gerne, das gibt mir Erdung), und eine Organisatorin kam auf mich zu.

„Herr Norris! Wunderbar, dass Sie da sind! Möchten Sie an unserem Panel teilnehmen? ‚Kunst in Bewegung: Wie physische Leistung kreatives Schaffen inspiriert‘?“

„Nein“, sagte ich.

„Aber Sie sind doch—“

„Ich bin hier, um zu beobachten. Und gegebenenfalls Unwahrheiten zu korrigieren.“

„Welche Unwahrheiten?“

„Dass das hier etwas mit Kreativität zu tun hat.“

Sie lachte. Sie dachte, ich mache einen Scherz.

Ich machte keinen Scherz.

Ich setzte meinen Obelisken ab (sanft, man muss immer sanft mit Granit umgehen, er erinnert sich sonst) und schaute mich um.

Ein Stand weiter: „Performance-Kunst während des Marathons“. Eine Frau in komplett weißem Anzug wollte 42 Kilometer laufen, während sie schweigend ein Stück Brot in der Hand hielt.

„Warum?“, fragte ich.

„Es ist eine Metapher“, sagte sie, „für die Vergänglichkeit kreativer Arbeit.“

„Das Brot wird schimmeln“, sagte ich.

„Genau“, sagte sie.

„Aber Sie laufen schneller als Schimmel wächst.“

„Das ist der Punkt.“

„Welcher Punkt?“

„Dass wir immer schneller sind als der Verfall, bis wir es nicht mehr sind.“

Ich nickte langsam.

„Haben Sie jemals“, fragte ich vorsichtig, „einen Obelisken geworfen?“

„Nein.“

„Dann verstehen Sie nicht, was Vergänglichkeit bedeutet.“

Ich ging weiter.


Kapitel 3: Der Start (oder: Chaos in sportlichen Klamotten)

Morgens, 6:47 Uhr. Linz. Der Himmel war grau, aber respektvoll grau. Ein Grau, das sagt: „Ich bin hier, aber ich mische mich nicht ein.“ Gutes Grau. Künstlerisches Grau.

Tausende Menschen versammelten sich am Start. Bunte Laufklamotten. Startnummern. Nervöses Hüpfen. Menschen, die auf der Stelle laufen, obwohl sie noch nicht laufen sollen. Warum? Niemand weiß es. Läufer sind ein Mysterium.

Die „Kreativen“ hatten eine eigene Startgruppe. Man erkannte sie an:

  • Seltsam gemusterten Laufshirts (angeblich „selbst designt“)
  • Stirnbändern mit Slogans („Run like Warhol“)
  • Mindestens einer Person, die versuchte, während des Laufens zu malen (das ging nicht gut aus, spoiler)

Ich stand am Rand. Mit meinem Obelisken.

Ein Reporter kam auf mich zu. Kamera. Mikrofon. Der ganze Zirkus.

„Sie sind Joe Cool Rambo Lee Norris, richtig? Der Obelisken-Weitwurf-Weltmeister?“

„Der einzige“, sagte ich. (Es gibt tatsächlich noch zwei andere in Kasachstan, aber die zählen nicht, die werfen im Sitzen.)

„Warum sind Sie hier? Laufen Sie auch?“

„Nein.“

„Aber—“

„Ich beobachte. Ich dokumentiere. Ich bin Zeuge eines kulturellen Phänomens.“

„Welches Phänomens?“

„Dass Menschen denken, Bewegung sei Kreativität.“

„Ist sie nicht?“

Ich schaute ihn an. Lange. Mit der Intensität eines Mannes, der weiß, wie man Beton nur mit den Händen in Form bringt.

„Bewegung“, sagte ich, „ist Physik. Kreativität ist, etwas zu erschaffen, was vorher nicht existierte. Diese Menschen hier—“ ich deutete auf die hüpfende, nervöse Masse, „—erschaffen nichts. Sie absolvieren eine Strecke. Das ist Geographie mit Schwitzen.“

„Aber der kreative Prozess—“

„Prozess“, unterbrach ich, „ist nicht dasselbe wie Produkt. Ich kann einen Prozess haben, Beton zu mischen. Aber wenn am Ende kein Obelisk steht, war es nur Rumrühren.“

Er nickte, verwirrt.

„Und wo ist Ihr Obelisk am Ende des Marathons?“, fragte er.

„42 Kilometer entfernt. Weil ich ihn werfe.“

„Sie dürfen aber nicht—“

„Ich tue trotzdem.“

Der Startschuss fiel.

Tausende Menschen begannen zu rennen.

Ich blieb stehen.

Hob meinen 43-Kilo-Trainings-Obelisken.

Holte aus.

Und warf.


Kapitel 4: Der Wurf (oder: Warum Aerodynamik wichtiger ist als Inspiration)

Hier muss ich technisch werden. Entschuldigung. Aber Kunst ohne Technik ist nur herumschreien und hoffen.

Ein Obelisk, korrekt geworfen, fliegt durchschnittlich 47 Meter. Mein Rekord liegt bei 53,4 Metern (Windstille, leichter Rückenwind in der letzten Phase, perfekter Release-Winkel von 38 Grad).

Um 42 Kilometer zurückzulegen, braucht man also:

42.000 Meter ÷ 47 Meter = ~894 Würfe.

Ich hatte den ganzen Tag.

Die Läufer brauchten zwischen 3 und 6 Stunden.

Ich plante 8.

Erster Wurf: Perfekt. 49 Meter. Der Obelisk landete auf einer Wiese neben der Strecke. Ich ging hin, hob ihn auf (man hebt immer mit den Beinen, nie mit dem Rücken, das ist Obelisken-Weitwurf 101), und warf erneut.

Wurf 2: 46 Meter.

Wurf 3: 51 Meter. Ein persönlicher Tagesbest.

Die Läufer rannten vorbei. Manche schauten. Manche fotografierten. Einer rief: „Ist das Performance-Kunst?“

„Nein!“, rief ich zurück. „Das ist Sport!“


Kapitel 5: Begegnungen unterwegs (oder: Die Kreativszene in ihrem natürlichen Lebensraum)

Bei Wurf 73 (ca. Kilometer 3,4) überholte mich die Frau mit dem Brot.

„Immer noch dabei?“, rief sie, völlig außer Atem.

„Ich bin immer dabei“, sagte ich, Obelisk in den Händen. „Das Brot schimmelt schon?“

„Noch nicht.“

„Geben Sie ihm Zeit.“

Bei Wurf 134 (ca. Kilometer 6,3) sah ich eine Gruppe „Kreativer“, die angehalten hatten, um ein Selfie vor einem historischen Gebäude zu machen.

„Das ist doch nicht der Sinn des Marathons!“, rief einer.

„Der Sinn“, rief ich zurück, während ich meinen Obelisken bereitmachte, „ist, anzukommen. Wie, ist irrelevant.“

„Sie werfen einen Stein!“

„Granit“, korrigierte ich. „Und er ist handpoliert. Respekt, bitte.“

Ich warf. 48 Meter.

Bei Wurf 247 (ca. Kilometer 11,6) begegnete ich einem Mann, der versuchte, während des Laufens Aquarelle zu malen. Es ging nicht gut. Die Farben verschmierten. Das Papier riss. Er weinte.

„Warum?“, fragte ich.

„Ich wollte… die Bewegung… in Kunst transformieren…“

„Hören Sie auf“, sagte ich. Nicht hart, aber bestimmt. „Machen Sie eins nach dem anderen. Erst laufen. Dann malen. Oder erst malen, dann laufen. Aber nicht beides. Multitasking ist eine Lüge, die uns die Moderne verkauft hat.“

„Aber—“

„Kein Aber. Ich habe noch nie einen Obelisken geworfen, während ich gleichzeitig einen formte. Das wäre Wahnsinn. Konzentration. Eine Sache zur Zeit. Das ist das Geheimnis.“

Er schaute auf seine verschmierten Aquarelle.

„Sie haben recht.“

„Ich weiß.“

Ich warf. 52 Meter. Fast Rekord.


Kapitel 6: Die Mitte (oder: Wo Zweifel beginnen und Obelisken helfen)

Wurf 421. Ungefähr Kilometer 19,8.

Meine Arme brannten. Mein Rücken schmerzte. Der Obelisk fühlte sich an wie 60 Kilo, obwohl er objektiv immer noch 43 Kilo wog (Granit verändert sein Gewicht nicht, das ist das Schöne an Granit).

Ich setzte mich auf eine Bank.

Der Obelisk lehnte neben mir.

Wir schwiegen.

„Wir schaffen das“, sagte ich zu ihm.

Er sagte nichts. Aber ich spürte seine Zustimmung. Man entwickelt eine Beziehung zu seinen Werkzeugen. Das verstehen nur Künstler, die mit den Händen arbeiten.

Ein Läufer – Startnummer 4728, rotes Shirt, komplett verschwitzt – setzte sich neben mich.

„Ich kann nicht mehr“, sagte er.

„Doch“, sagte ich.

„Woher wissen Sie das?“

„Weil Sie noch atmen.“

„Das ist kein Argument.“

„Doch. Solange Sie atmen, können Sie weitermachen.“

„Sie werfen einen Stein. Das ist einfacher als Laufen.“

Ich schaute ihn an.

„Heben Sie ihn hoch.“

„Was?“

„Den Obelisken. Heben Sie ihn hoch.“

Er versuchte es.

Er schaffte es nicht.

„43 Kilo“, sagte ich. „Ich habe das heute 421 Mal gehoben. Und geworfen. Sie laufen. Ich transportiere Kunst. Was ist schwieriger?“

Er dachte nach.

„Beides?“

„Richtig. Beides ist schwierig. Deshalb machen wir es.“

Er stand auf. Lief weiter.

Ich auch.

Wurf 422: 47 Meter.


Kapitel 7: Das Ziel (oder: Wie alles endet, aber eigentlich nie endet)

Wurf 893.

41,9 Kilometer.

Ich sah die Ziellinie.

Meine Arme waren taub. Mein Rücken war ein einziger Schmerz. Der Obelisk hatte inzwischen drei kleine Macken (von den Landungen, unvermeidbar), aber er war immer noch schön.

Ich holte aus.

Atmete.

Warf.

Der Obelisk flog.

49 Meter.

Er landete 3 Meter hinter der Ziellinie.

Ich ging langsam hin. Hob ihn auf. Trug ihn über die Linie.

Es gab keine Zuschauer mehr. Die meisten Läufer waren längst durch. Es war später Nachmittag. Die Sonne stand tief.

Aber am Ziel: Der Reporter von vorhin. Mit Kamera.

„Sie haben es geschafft“, sagte er.

„Ich habe es immer geschafft“, sagte ich.

„Warum? Warum haben Sie das getan?“

Ich schaute auf den Obelisken.

„Weil jemand zeigen musste, dass Kreativität nicht Laufen ist. Kreativität ist, etwas zu tragen. Etwas zu formen. Etwas zu bewegen.“

„Aber Sie haben nichts Neues geschaffen. Sie haben nur einen Stein geworfen.“

„Ich habe“, sagte ich langsam, „einen 43-Kilo-Granit-Obelisken 42 Kilometer transportiert. Niemand hat das jemals getan. Wenn das nicht Kreativität ist, dann weiß ich nicht, was es ist.“

„Das ist… Sport?“

„Kunst“, sagte ich. „Und Sport. Und Sturheit. Alles zusammen.“

Er schrieb etwas auf.

„Werden Sie nächstes Jahr wiederkommen?“

„Nein“, sagte ich. „Nächstes Jahr werfe ich ihn rückwärts.“


Epilog: Was ich gelernt habe (oder: Warum Granit ehrlicher ist als Menschen)

Der Linz-Marathon für Kreative.

Was habe ich gelernt?

  1. Kreativität ist nicht Bewegung. Kreativität ist Absicht. Man kann absichtsvoll stillstehen. Man kann absichtslos rennen.
  2. Ein Obelisk lügt nie. 43 Kilo sind 43 Kilo. Egal wie müde du bist. Egal wie sehr du dir wünschst, sie wären leichter. Das ist ehrlich. Das schätze ich.
  3. Die meisten „Kreativen“ verwechseln Aktivität mit Produktivität. Sie rennen, weil Rennen gut aussieht. Aber am Ende der Strecke: nichts Neues. Nur müde Beine.
  4. Aber: Manche von ihnen meinen es ernst. Die Frau mit dem Brot. Der Mann mit den Aquarellen. Sie haben verstanden: Es geht nicht ums Ankommen. Es geht ums Versuchen.
  5. Und ich? Ich habe einen 43-Kilo-Obelisken 42 Kilometer weit geworfen. 893 Würfe. 8 Stunden und 23 Minuten. Drei neue Macken im Granit. Und das Wissen, dass ich das nie wieder tun muss.

Aber wahrscheinlich werde ich es trotzdem tun.

Weil das Kunst ist.


Über den Autor:

Joe Cool Rambo Lee Norris ist dreifacher Weltmeister im Obelisken-Weitwurf (2019, 2021, 2024), Träger des Goldenen Spachtels, und formt seit 34 Jahren Betonskulpturen ausschließlich mit den Händen. Er lebt in einem umgebauten Betonmischwerk in Niederösterreich, zusammen mit 47 Obelisken verschiedener Größen und Gewichte. Sein nächstes Projekt: Eine 2-Tonnen-Pyramide. Mit den Händen. Natürlich.


Nachwort der Redaktion:

Herr Norris hat nach Veröffentlichung dieses Artikels angerufen und darauf bestanden, dass wir klarstellen: Der Obelisk hieß „Gerald“ und hätte namentlich erwähnt werden sollen. Wir entschuldigen uns bei Gerald.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein Strategic Future Report über die disruptive Kraft vollsynthetischer Akteure, die Transformation des Model-Berufs und die Entstehung einer neuen kreativen Dienstleistungsökonomie

Transparenz-Hinweis: Dieser Artikel ist ein analytischer Zukunftsreport, der reale technologische Entwicklungen (insbesondere die KI-generierte Schauspielerin Tilly Norwood) mit plausiblen Branchenszenarien verbindet. Wo konkrete Fakten vorliegen, sind sie belegt. Wo ich Trends extrapoliere und zukünftige Entwicklungen prognostiziere, kennzeichne ich das entsprechend.


Sie existiert. Und Hollywood ist in Aufruhr.

Tilly Norwood ist keine Deepfake, kein CGI-Charakter im traditionellen Sinne, sondern eine vollsynthetische, KI-generierte Schauspielerin, erschaffen vom Studio Particle6 unter der Leitung von Eline Van der Velden. Ihre Existenz hat 2024/2025 eine Kontroverse ausgelöst, die tief in die Fundamente der Unterhaltungsindustrie reicht.

Die Screen Actors Guild (SAG-AFTRA) reagierte mit scharfer Kritik. Die Washington Post titelte im Oktober 2025: „Tilly Norwood has Hollywood seething. She’s an AI-generated ‚actor.'“ Die Gewerkschaft argumentiert, dass synthetische Schauspieler die Lebensgrundlage echter Performer bedrohen und fundamentale Fragen über Urheberschaft, Vergütung und die Zukunft kreativer Arbeit aufwerfen.

Aber die eigentliche Geschichte beginnt erst hier. Denn Tilly Norwood ist kein isoliertes Experiment – sie ist der sichtbarste Teil einer tektonischen Verschiebung, die bereits im Gange ist. Und die Auswirkungen reichen weit über Hollywood hinaus, direkt in die Welt der Models, Fotografen, Content-Creator und der gesamten visuellen Kreativbranche.

Dies ist eine Analyse dessen, was gerade geschieht – und was mit hoher Wahrscheinlichkeit als nächstes kommt.


1. Die technologische Realität: Was Tilly Norwood möglich macht

Um die Konsequenzen zu verstehen, muss man die Technologie begreifen, die Figuren wie Tilly Norwood ermöglicht. Sie basiert auf einer Konvergenz mehrerer bereits existierender Technologien:

a) Multimodale generative KI-Modelle

Anders als frühere CGI-Charaktere, die Frame für Frame animiert wurden, nutzen synthetische Schauspieler wie Tilly generative KI-Systeme, die auf emotionale Anweisungen reagieren können. Diese Modelle werden trainiert mit:

  • Terabytes an Performance-Daten (Filme, Theater, dokumentierte Emotionsausdrücke)
  • Biometrischen Daten (wie verändert sich die Pupille bei Angst? Wie bewegt sich die Stirn bei Konzentration?)
  • Psychologischen Studien zu nonverbaler Kommunikation

Das Ergebnis: Ein System, das versteht, was „unterschwellige Wut, verborgen hinter einem Lächeln“ bedeutet – und diese Anweisung in visuelle Performance übersetzen kann.

b) Advanced Performance Capture

Die Bewegungen synthetischer Akteure basieren nicht auf einer einzigen Person. Sie sind das Aggregat aus Hunderten Motion-Capture-Sessions mit echten Schauspielern, Tänzern, Stunt-Performern. Diese Daten werden zu einer „Bewegungsbibliothek“ kombiniert, aus der die KI in Echtzeit schöpft.

Das ist keine Zukunftsmusik – Motion Capture ist seit Jahren Standard in Film (Andy Serkis als Gollum, Avatar) und Gaming. Neu ist die generative Rekombination dieser Daten durch KI.

c) Physically Based Rendering in Echtzeit

Moderne Rendering-Engines (Unreal Engine 5, Unity) können Haut, Haare, Lichtbrechung in Echtzeit physikalisch korrekt simulieren. Das „Uncanny Valley“-Problem – synthetische Gesichter, die „fast, aber nicht ganz“ menschlich wirken – wird zunehmend überwunden.

Die technologische Konvergenz dieser drei Bereiche macht Tilly Norwood real.

Und sie ist nur der Anfang.


2. Die Disruption des Körpers: Was das für Models bedeutet

Die unmittelbare Reaktion der Model-Branche ist Panik. Verständlich.

Bereits heute existieren vollsynthetische Influencer und Models:

  • Lil Miquela (2,5+ Millionen Instagram-Follower, Werbedeals mit Prada, Calvin Klein)
  • Shudu (erstes „digitales Supermodel“, kreiert von Fotograf Cameron-James Wilson)
  • Aitana López (spanisches KI-Model, generiert Berichten zufolge über 10.000 Euro monatlich)
  • Imma (japanisches virtuelles Model mit großen Brand-Deals)

Diese Figuren zeigen: Der Markt akzeptiert synthetische Gesichter bereits. Für bestimmte Anwendungen.

Die Frage ist: Welche Jobs verschwinden – und welche entstehen neu?

Was mit hoher Wahrscheinlichkeit verschwindet:

Das klassische „E-Commerce-Model“ für:

  • Standardisierte Produktfotografie
  • Generische Werbekampagnen ohne spezifische Persönlichkeit
  • Stock-Photo-Shoots
  • Repetitive Katalog-Arbeit

Warum? Weil diese Arbeit keine einzigartige menschliche Qualität erfordert. Ein synthetisches Model ist:

  • Immer verfügbar
  • Konsistent reproduzierbar
  • Skandalfrei
  • Beliebig anpassbar (Alter, Ethnizität, Körpertyp – algorithmisch veränderbar)

Aber: Während dieser Sektor erodiert, zeichnen sich parallel drei hochspezialisierte neue Berufsfelder ab, die teilweise bereits existieren, teilweise gerade entstehen:


a) Motion Capture Performer / Performance Data Provider (bereits real)

Aktueller Status: Existiert bereits in Film und Gaming.

Erweiterte Rolle ab 2025+:

Synthetische Akteure wie Tilly benötigen kontinuierlich neue, hochwertige Bewegungs- und Expressionsdaten. Nicht für einzelne Rollen, sondern für die kontinuierliche Erweiterung ihrer Ausdrucksbibliothek.

Was das bedeutet:

  • Motion Capture Actors werden nicht mehr nur für spezifische Film-Rollen gebucht, sondern für Daten-Capture-Sessions
  • Ein Tänzer mit einer einzigartigen Bewegungssignatur wird gebucht, um diese Signatur zu digitalisieren
  • Eine Schauspielerin mit außergewöhnlicher mimischer Kontrolle verbringt Stunden in Facial-Capture-Studios
  • Diese Daten werden Teil einer Bibliothek, auf die synthetische Akteure zugreifen

Die rechtliche Grauzone:

Hier beginnt das Problem. Wie werden diese Performer vergütet?

Optionen (teilweise in Gewerkschaftsverhandlungen):

  1. Einmalzahlung (Buy-out aller Rechte – problematisch)
  2. Lizenzgebühren pro Nutzung (technisch komplex, schwer durchsetzbar)
  3. Residuals-ähnliche Modelle (wie bei TV-Reruns – noch nicht etabliert für KI)

SAG-AFTRA kämpft aktuell genau um diese Fragen. Der Streik 2023 drehte sich zentral um KI-Klauseln. Die Vereinbarung enthält erste Schutzmaßnahmen – aber die Debatte ist nicht abgeschlossen.

Prognose: Bis 2027-2028 wird es standardisierte Verträge für „Performance Data Licensing“ geben müssen. Pioniere in diesem Feld werden die Standards mitdefinieren.


b) AI Performance Director / Synthetic Acting Coach (emergierend)

Aktueller Status: Noch nicht als eigenständiger Beruf etabliert, aber die Funktion entsteht.

Was diese Rolle tut:

Eine KI wie Tilly „versteht“ Anweisungen – aber nur so gut, wie diese formuliert sind. Hier entsteht eine Hybrid-Rolle zwischen:

  • Klassischem Schauspielercoach
  • KI-Prompt-Engineer
  • Motion-Director

Konkrete Aufgaben (Szenario 2026-2028):

  • Emotionale Kalibrierung: „Zeige mir ‚unterschwellige Wut verborgen hinter Höflichkeit‘ – aber die Augen sollen die Wahrheit verraten“
  • Bewegungskuration: Aus der Performance-Bibliothek die Bewegungsmuster wählen, die zum Charakter passen
  • Konsistenz-Management: Sicherstellen, dass Tillys „Persönlichkeit“ über Szenen hinweg kohärent bleibt

Skill-Set:

  • Tiefes Verständnis für Schauspieltheorie (Stanislawski, Meisner, Method Acting)
  • Technisches Verständnis für KI-Parameter
  • Visuelle Sensibilität

Vergleichbare existierende Rollen:

  • VFX Supervisors (Film)
  • Technical Directors (Animation)
  • Performance Directors (Gaming)

Prognose: Bis 2028 werden größere Studios dedizierte „AI Performance Teams“ haben.


c) Digital Rights & Likeness Manager (teilweise real, expandierend)

Aktueller Status: Rudimentär vorhanden (Anwälte für Bildrechte), aber die Komplexität explodiert.

Das Problem:

Wenn ein Model für eine Motion-Capture-Session bezahlt wird, welche Rechte hat das Studio dann?

  • Darf die Gangart in einem Horrorfilm verwendet werden?
  • Darf das Lächeln für Fast-Food-Werbung lizenziert werden?
  • Was, wenn das digitalisierte Gesicht in einem kontroversen Kontext auftaucht?

Real existierende Präzedenzfälle:

  • Scarlett Johansson vs. OpenAI (2024): Johansson warf OpenAI vor, ihre Stimme für ChatGPT-Voice ohne Erlaubnis nachgebildet zu haben
  • Tom Hanks warnte öffentlich (2023): Sein digitales Abbild wurde ohne Genehmigung in Werbung verwendet
  • Bruce Willis verkaufte (2022) Berichten zufolge Rechte an seinem digitalen Abbild an Deepcake

Diese Fälle zeigen: Der Markt für „digitale Likenesses“ existiert bereits – aber die Regeln werden gerade erst geschrieben.

Zukünftige Rolle (2026+):

Likeness & Rights Manager werden für Models/Schauspieler:

  • Verträge verhandeln über biometrische Datennutzung
  • Kontextuell begrenzte Lizenzen definieren („Darf für Luxusmarken verwendet werden, NICHT für Alkohol/Tabak/Politik“)
  • Monitoring-Systeme nutzen, um unerlaubte Nutzung zu erkennen
  • Bei Rechtsverletzungen rechtlich vorgehen

Das ist kein Science-Fiction-Job – das ist dringend nötig, JETZT.


3. Die kreative Neuausrichtung: Jobs, die entstehen

Während einige Rollen verschwinden oder sich transformieren, entstehen völlig neue kreative Disziplinen:

a) Environment Capture Photographer (bereits real, wird zentral)

Warum das wichtig wird:

Synthetische Akteure wie Tilly brauchen eine Bühne. Und selbst die beste KI kann (noch) keine fotorealistischen Umgebungen aus dem Nichts erschaffen, die mit echten Orten konkurrieren können.

Die Lösung: Reale Orte digital erfassen.

Was das bedeutet für Fotografen:

Statt Menschen zu fotografieren, werden sie gebucht für:

  • Light Field Capture: 360°-Erfassung von Lichtverhältnissen (z.B. ein Sonnenuntergang in Paris)
  • Photogrammetrie: Hunderte Fotos desselben Ortes aus verschiedenen Winkeln → 3D-Rekonstruktion
  • HDR Environment Maps: Hochauflösende Umgebungsbilder für realistische Lichtreflexionen
  • Texture Libraries: Ultra-hochauflösende Aufnahmen von Oberflächen (Holz, Stein, Stoff)

Diese Daten sind die Leinwand, auf der Tilly existiert.

Bereits real: Studios wie Quixel (gehört zu Epic Games) beschäftigen Fotografen weltweit, um reale Umgebungen zu digitalisieren.

Prognose: Bis 2027 wird „Environment Capture“ eine etablierte Fotografen-Spezialisierung sein, ähnlich wie Architektur- oder Produktfotografie heute.


b) AI Ethicist & Character Guardian (emergierend)

Das Problem:

Tilly Norwood ist eine Marke im potenziellen Wert von Millionen. Was passiert, wenn:

  • Jemand sie in Deepfake-Pornografie verwendet?
  • Sie in politischer Propaganda auftaucht?
  • Ihr „Charakter“ für schädliche Zwecke missbraucht wird?

Die Rolle:

Character Guardians kombinieren:

  • Technisches Know-how: Wasserzeichen-Technologien, KI-Erkennungssysteme
  • Juristisches Wissen: Copyright, Markenrecht, digitale Persönlichkeitsrechte
  • Ethisches Framework: Was ist legitime Nutzung? Wo ist die Grenze?

Beispiel für ethische Fragen:

  • Darf Tilly in einer KI-generierten Kriegsszene sterben?
  • Darf sie eine historische Figur darstellen, die kontrovers ist?
  • Wer entscheidet über ihren „moralischen Kompass“?

Bereits real: Große Gaming-Studios (Blizzard, Riot) haben „Character Integrity Teams“ – das Konzept erweitert sich nur.

Prognose: Bis 2028 werden synthetische Akteure dedizierte „Digital Integrity Officers“ haben.


c) Narrative Prompt Designer / Scenario Architect (stark emergierend)

Von „Prompt Engineer“ zur kreativen Disziplin:

Während einfache Text-zu-Bild-Prompts („eine Katze auf einem Sofa“) relativ simpel sind, erfordern narrative, emotionale, kontextreiche Szenarien ein völlig anderes Skill-Set.

Was ein Narrative Prompt Designer tut (Szenario 2026+):

Statt nur: „Tilly sitzt in einem Café“

Schreibt er:

textTilly sitzt an einem Fensterplatz in einem Pariser Café, spätnachmittags. 
Goldenes Licht (Environment Data: Paris_Sunset_March_2025_HDR). 
Sie wartet auf jemanden, der nicht kommt. 
Emotion: Anfangs hoffnungsvolle Erwartung, graduell übergehend in stille Resignation.
Mikroexpressionen: Alle 30 Sekunden Blick zur Tür, leichtes Lächeln beim Kellner (Höflichkeitsmaske), 
aber Augen zeigen wachsende Enttäuschung.
Referenz-Performance: Capture_Session_47 (Schauspielerin_MJ, "Warten"-Szenen)
Bewegung: Minimal. Finger spielen mit Kaffeetasse. Leichtes Gewichtsverlagerung. Kein nervöses Tapping – eher gefrorene Erwartung.

Das ist kreatives Schreiben + technische Spezifikation + emotionale Regie.

Vergleichbar zu: Screenplay-Writing, aber mit technischen Parametern.

Prognose: Bis 2029 gibt es akademische Programme für „Synthetic Performance Design“.


4. Juristische und ethische Implikationen: Die ungeklärten Fragen

Die Existenz von Tilly Norwood und ihren Nachfolgern wirft fundamentale Fragen auf, die unsere Gesellschaft dringend beantworten muss:

Frage 1: Wem gehört die Performance?

Szenario: Tilly gewinnt einen hypothetischen Award für beste Schauspielleistung. Wem gehört diese Leistung?

Kandidaten:

  • Dem Studio, das die Technologie finanziert hat?
  • Den Programmierern, die die KI entwickelt haben?
  • Den Dutzenden „Performance Data Providern“, deren Bewegungen sie nutzt?
  • Dem AI Performance Director, der die emotionalen Parameter setzte?
  • Der Fotografin, die die Environment-Daten erfasste, in der die Szene spielt?

Aktueller rechtlicher Status: Unklar. Dringend klärungsbedürftig.

Vergleichbare Präzedenzfälle:

  • Musik-Sampling: Es dauerte Jahrzehnte, bis Sample-Rechte klar geregelt waren
  • VFX-Heavy-Filme: Wer bekommt Credit für eine CGI-Performance? (Teilweise geklärt, aber komplex)

Prognose: Bis 2027 wird es erste wegweisende Gerichtsurteile geben.


Frage 2: Das Recht auf die „digitale Seele“

Das philosophische Problem:

Wenn die einzigartige Art, wie ein Mensch traurig lächelt, zur lizenzierten Ware wird – was bleibt dann vom menschlichen Künstler?

Real existierende Anekdote:

Ein Motion-Capture-Actor berichtete (anonym), dass er für ein Gaming-Studio seine „Signature Move“ – eine spezifische Art, Angst körperlich auszudrücken – digitalisieren ließ. Jahre später sah er diese exakte Bewegung in einem völlig anderen Spiel. Er hatte im Kleingedruckten alle Rechte abgetreten. Keine weiteren Zahlungen. Keine Kontrolle über die Nutzung.

Das ist die Gefahr.

Mögliche Schutzmaßnahmen (in Diskussion):

  • Inalienable Rights: Bestimmte Aspekte der Performance können niemals vollständig verkauft werden
  • Kontext-Limitierte Lizenzen: „Diese Daten dürfen nur für Drama-Genre verwendet werden, NICHT für Horror/Action“
  • Zeitlich begrenzte Nutzungsrechte: Nach X Jahren kehren Rechte zurück

Aber: Aktuell größtenteils unreglementiert.


Frage 3: Das „Uncanny Valley“ der Emotionen

Das psychologische Risiko:

Studien zeigen: Menschen können echte emotionale Bindungen zu synthetischen Charakteren entwickeln. (Bereits bekannt aus Gaming, Anime, virtuellen Idols.)

Mit fotorealistischen, KI-gesteuerten Akteuren wird diese Bindung intensiver.

Die Gefahr:

  • Manipulation: Synthetische Influencer, die perfekt auf emotionale Trigger optimiert sind
  • Parasoziale Beziehungen: Menschen entwickeln „Beziehungen“ zu KI-Persönlichkeiten, die nicht real sind
  • Ersatz-Intimität: Präferenz für kontrollierbare synthetische Interaktion über echte menschliche Beziehungen

Das ist kein Distant-Future-Problem – das passiert JETZT mit virtuellen Influencern.

Notwendig: Kennzeichnungspflicht, Transparenz, ethische Richtlinien.


5. Die ökonomische Realität: Wer profitiert, wer verliert?

Gewinner (wahrscheinlich):

1. Tech-Unternehmen & Studios

  • Niedrigere Produktionskosten
  • Keine Skandal-Risiken
  • Vollständige kreative Kontrolle
  • Skalierbarkeit

2. Hochspezialisierte Kreative

  • AI Performance Directors
  • Environment Capture Specialists
  • Likeness & Rights Experts
  • Narrative Prompt Designers

3. Top-Tier-Schauspieler mit Verhandlungsmacht

  • Können lukrative Deals für digitale Likenesses aushandeln
  • Beispiel: Wie Bruce Willis Berichten zufolge Rechte verkaufte

Verlierer (wahrscheinlich):

1. Mid-Tier-Schauspieler & Models

  • Zu bekannt, um für niedrige Gagen zu arbeiten
  • Nicht bekannt genug, um Verhandlungsmacht zu haben
  • Werden durch synthetische Akteure ersetzt

2. Entry-Level-Kreative

  • Standardjobs (E-Commerce-Models, Statisten, Background-Performer) fallen weg
  • Traditionelle „Einstiegsjobs“ in die Branche verschwinden

3. Kreative ohne Tech-Skills

  • „Ich bin Schauspieler, kein Programmierer“ funktioniert nicht mehr
  • Anpassungsfähigkeit wird überlebenskritisch

6. Was jetzt zu tun ist: Handlungsempfehlungen

Für Models & Schauspieler:

1. Verstehe deine Rechte – JETZT

  • Lass JEDEN Vertrag von einem auf digitale Rechte spezialisierten Anwalt prüfen
  • Achte auf Klauseln wie „in perpetuity“, „all media now known or hereafter invented“
  • Diese Klauseln könnten bedeuten: Du gibst für immer alle Rechte an deinem digitalen Abbild ab

2. Entwickle Tech-Literacy

  • Du musst kein Programmierer werden
  • Aber du musst verstehen: Was ist Motion Capture? Was sind Deepfakes? Was ist ein Digital Twin?
  • Ignoranz schützt nicht – sie macht dich ausbeutbar

3. Spezialisiere dich

  • Welche einzigartige physische oder mimische Qualität hast du?
  • Kannst du emotionale Nuancen darstellen, die schwer zu digitalisieren sind?
  • Entwickle Skills, die (noch) nicht algorithmisch replizierbar sind

4. Organisiere dich

  • Gewerkschaften (SAG-AFTRA, Equity) kämpfen gerade diese Kämpfe
  • Sei Teil der Lösung, nicht passives Opfer

Für Fotografen:

1. Pivot zu Environment & Data Capture

  • Lerne Photogrammetrie
  • Investiere in 360°-Kameras, HDR-Workflows
  • Deine Fähigkeit, Licht zu „sehen“, ist wertvoll – nur die Anwendung ändert sich

2. Werde zum Hybrid

  • Fotograf + 3D-Techniker
  • Verstehe, wie deine Daten in virtuellen Produktionen verwendet werden

Für Studios & Kreativ-Unternehmen:

1. Ethische Guidelines JETZT

  • Wartet nicht auf Regulierung
  • Definiert interne Standards für faire Performer-Vergütung
  • Transparenz über synthetische Akteure

2. Investiert in neue Rollen

  • AI Performance Directors
  • Character Guardians
  • Rights Management

3. Rechnet mit Backlash

  • Die öffentliche Debatte wird intensiver werden
  • Bereitet Kommunikationsstrategien vor

Fazit: Die unvermeidliche Ko-Evolution

Tilly Norwood ist kein Todesurteil für menschliche Kreativität. Sie ist ein Katalysator für eine tiefgreifende Professionalisierung und Spezialisierung.

Die einfachen, repetitiven Jobs werden automatisiert – das ist bereits im Gange.

Was bleibt, sind die Aufgaben, die ein tiefes Verständnis für menschliche Emotionen, künstlerische Vision und ethische Verantwortung erfordern.

Die zentrale Erkenntnis:

Wir stehen nicht vor der Wahl „Mensch ODER Maschine“.

Wir stehen vor der Frage: Wie gestalten wir die Kollaboration?

Die Kreativen, die in den nächsten Jahren erfolgreich sein werden, sind nicht die, die KI ablehnen. Und auch nicht die, die blind darauf vertrauen.

Es sind die, die verstehen:

  • Wo menschliche Qualität unverzichtbar ist
  • Wo Technologie Arbeit transformiert, nicht eliminiert
  • Wie man die eigene einzigartige kreative Signatur in einer zunehmend synthetischen Welt schützt und monetarisiert

Der Beruf des Models stirbt nicht. Er evolviert vom reinen Abbild zum Datenlieferanten, Trainer, Rechte-Manager und Wächter der menschlichen Essenz in einer zunehmend hybriden visuellen Kultur.

Der Beruf des Fotografen verschwindet nicht. Er erweitert sich vom Abbilden zum Erfassen von Realität als Rohmaterial für virtuelle Welten.

Der Beruf des Schauspielers transformiert sich vom Solo-Performer zum Teil eines komplexen, technisch-kreativen Teams, das synthetische Performances dirigiert.

Das ist nicht das Ende. Das ist eine Metamorphose.

Und wie bei jeder Metamorphose: Wer sich weigert zu transformieren, stirbt. Wer adaptiert, kann fliegen.

Die Frage ist nicht, ob wir mit synthetischen Akteuren wie Tilly Norwood leben werden.

Die Frage ist: Gestalten wir diese Zukunft aktiv – oder lassen wir sie mit uns geschehen?


Quellen & weiterführende Recherche:

  • Wikipedia: Tilly Norwood (KI-generierte Schauspielerin)
  • The Washington Post: „Tilly Norwood has Hollywood seething. She’s an AI-generated ‚actor.'“ (Oktober 2025)
  • SAG-AFTRA: AI Agreement & Strike 2023 Documentation
  • Reuters: „AI film school trains next generation of Hollywood moviemakers“ (Februar 2026)
  • Wikipedia: Aitana López (virtuelles spanisches Model)
  • Diverse Branchenberichte zu virtuellen Influencern (Lil Miquela, Shudu, Imma)

Methodische Transparenz:

Dieser Report basiert auf:

  • Dokumentierten Fakten: Tilly Norwood existiert, Hollywood-Kontroverse ist real, SAG-AFTRA-Verhandlungen sind dokumentiert
  • Technologischer Analyse: Motion Capture, KI-Modelle, Rendering-Technologie sind etablierte Realität
  • Trendextrapolation: Neue Berufsfelder sind plausible Entwicklungen basierend auf aktuellen Branchenbewegungen
  • Szenarien: „Chrono-Syndicate“, konkrete zukünftige Workflows sind illustrative Szenarien, keine bestätigten Fakten

Wo Fakten vorliegen, sind sie belegt. Wo ich prognostiziere, ist es als Prognose gekennzeichnet. Das ist kein investigativer Bericht über bereits Geschehenes, sondern ein Strategic Future Report über wahrscheinliche Entwicklungen basierend auf aktuellen Signalen.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein ehrlicher Blick auf Social-Media-Etikette, digitale Sicherheit und die stille Sprache des Follow-Buttons


Es ist 22:47 Uhr. Ich scrolle durch Instagram. Eine Benachrichtigung:

@julia_2847 folgt dir jetzt

Ich klicke auf das Profil.

Privates Konto. 47 Follower. 892 Abonnements. Kein Profilbild, nur ein Stock-Foto von Sonnenuntergang. Bio: Leer. Keine Story. Keine Highlights.

Ich klicke: Entfernen.

Keine Sekunde gezögert.

Und hier ist die unbequeme Wahrheit: Das solltest du auch tun.

Dies ist keine paranoide Überreaktion. Es ist digitale Selbstfürsorge. Und nach 15 Jahren auf Social Media, als Content Creator mit 50.000+ Followern und als jemand, der zu viele „harmlose“ Follow-Anfragen akzeptiert hat, die sich als alles andere als harmlos herausstellten – habe ich gelernt:

Private Profile ohne jeglichen Kontext sind red flags. Nicht manchmal. Immer.

Lass mich erklären, warum.


Die Anatomie des verdächtigen Profils

Bevor wir zu den Gründen kommen, lass uns definieren, worüber wir sprechen:

Das „Ich folge nicht zurück“-Profil hat typischerweise folgende Merkmale:

✅ Privates Konto (der Hauptindikator)
✅ Kein echtes Profilbild (generic Landschaft, Tier, abstraktes Muster, oder gar nichts)
✅ Leere oder generische Bio („living my best life“, „🌸✨“, oder komplett leer)
✅ Extrem unbalanciertes Follow-Ratio (folgen 800+, Follower < 100)
✅ Keine sichtbaren Posts (weil privat)
✅ Kein Kontext zur Verbindung (keine gemeinsamen Follower, oder nur 1-2 fragwürdige)
✅ Username ist generisch (vorname_zahlen, „realXYZ“, etc.)

Und hier ist der Killer: Keine Nachricht. Keine Story-Reaktion. Keine Interaktion. Einfach nur: Follow-Button gedrückt.

Das ist kein Zufall. Das ist ein Muster.


Grund 1: Bots und Fake-Accounts (das Offensichtliche)

Fangen wir mit dem Einfachsten an.

30-60% aller „verdächtigen“ privaten Follower sind Bots oder Fake-Accounts.

Nicht meine Schätzung – das berichten Social-Media-Security-Analysten seit Jahren. Instagram selbst hat 2023 öffentlich gesagt, dass sie „Millionen gefälschter Accounts pro Woche“ entfernen.

Aber wozu?

Bot-Zweck 1: Daten-Harvesting

Der Account folgt massenhaft Menschen. Sobald du zurückfolgst, haben sie Zugriff auf:

  • Deine Posts (auch wenn dein Account privat ist)
  • Deine Story
  • Deine Interaktionen
  • Deine Location-Tags
  • Deine Kontakte (durch Kommentare, Tags)

Diese Daten werden:

  • Aggregiert und verkauft
  • Für Phishing-Kampagnen genutzt
  • Für Social Engineering analysiert (mehr dazu gleich)

Bot-Zweck 2: Follower-Boost-Services

Manche Accounts folgen massenhaft, um:

  1. Follow-Backs zu sammeln
  2. Follower-Zahlen künstlich zu erhöhen
  3. Dann wieder zu entfolgen (nach ein paar Tagen)

Das Geschäftsmodell: „Follower kaufen, aber organisch aussehen.“

Dein Schaden: Du hast einem nutzlosen Account gefolgt, der dich nach drei Tagen wieder rauswirft.

Bot-Zweck 3: Späh-Accounts

Hier wird’s unangenehmer.

Manche Accounts werden erstellt, um:

  • Ex-Partner zu stalken
  • Mitarbeiter auszuspionieren
  • Konkurrenten zu beobachten
  • Kinder/Teenager zu überwachen (durch besorgte/kontrollierende Eltern)

Real Story aus meiner Community:

Eine Freundin akzeptierte einen „harmlosen“ privaten Account. Zwei Wochen später konfrontierte sie ihr Ex mit Details aus ihrer Story, die er nur haben konnte, wenn er Zugriff hatte. Der Account? Fake-Profil, das er erstellt hatte.

Sie hatte ihm freiwillig den Zugang gegeben.


Grund 2: Social Engineering und Manipulation

Das ist die dunklere, intelligentere Seite.

Social Engineering funktioniert so:

Phase 1: Zugang erhalten

  • Folge dem Target
  • Wirke harmlos (privat, generisch, unauffällig)
  • Warte auf Follow-Back

Phase 2: Beobachten und Lernen

  • Analysiere Posts: Wo bist du? Mit wem? Wann?
  • Lerne Gewohnheiten: Wann postest du? Wo checkst du ein?
  • Identifiziere Schwächen: Bist du allein? Reist du?

Phase 3: Ausnutzen

  • Phishing-Nachrichten, die auf dein Leben zugeschnitten sind
  • „Hey, war das nicht Restaurant XY in deiner Story? Ich liebe das auch!“
  • Vertrauen aufbauen durch scheinbare Gemeinsamkeiten

Phase 4: Der eigentliche Angriff

  • „Kannst du mir helfen? Mein Account wurde gehackt…“ (führt zu Phishing-Link)
  • „Ich arbeite an einem Projekt, das zu dir passt…“ (Scam)
  • Oder schlimmer: Stalking, Doxxing, reale Bedrohungen

Klingt paranoid?

Es passiert täglich. Besonders Frauen, öffentliche Personen und junge Menschen sind Ziele.

Die traurige Wahrheit: Der erste Schritt – dir Zugang zu verschaffen – funktioniert nur, wenn du Ja sagst.


Grund 3: Die Psychologie des „Vielleicht ist das jemand Echtes“

Hier wird’s interessant.

Warum akzeptieren wir überhaupt fragwürdige Follower?

Psychologischer Grund 1: FOMO (Fear of Missing Out)

„Was, wenn das jemand ist, den ich kenne, der einen neuen Account hat?“

Statistische Realität: In 99% der Fälle nicht. Und wenn doch, würden sie dir schreiben.

Psychologischer Grund 2: Höflichkeit

„Es wäre unhöflich, nicht zurückzufolgen.“

Realitäts-Check: Social Media ist nicht das echte Leben. Du schuldest niemandem Zugang zu deinem digitalen Leben.

Psychologischer Grund 3: Follower-Zahl-Optimierung

„Mehr Follower = besser.“

Wahrheit: Fake/Bot-Follower schaden deinem Engagement. Algorithmen erkennen das. Deine Reichweite sinkt.

Psychologischer Grund 4: Neugier

„Vielleicht ist das jemand Interessantes?“

Logik-Check: Wenn sie interessant wären, hätten sie:

  • Ein erkennbares Profil
  • Eine Bio
  • Öffentliche Posts ODER
  • Eine Nachricht geschickt: „Hey, ich finde deinen Content toll weil [Grund]“

Schweigen + Anonymität = Red Flag.


Grund 4: Digitale Grenzen sind echte Grenzen

Hier kommen wir zum Kern.

Dein Social-Media-Account ist dein digitales Zuhause.

Stell dir vor:

Jemand klopft an deine Haustür. Kein Gesicht (Maske). Kein Name. Kein Grund. Kein „Hallo“. Nur: klopf klopf.

Lässt du sie rein?

Natürlich nicht.

Aber auf Social Media machen wir genau das. Warum?

Weil wir digitale Räume nicht ernst genug nehmen.

Aber sie sind ernst:

  • Deine Posts zeigen, wo du bist (Sicherheitsrisiko)
  • Deine Fotos zeigen, mit wem du bist (Privatsphäre anderer)
  • Deine Stories zeigen deine Routine (Vorhersagbarkeit = Verwundbarkeit)
  • Deine Kommentare zeigen deine Meinungen (können gegen dich verwendet werden)

Ein privates Profil ohne Kontext zu akzeptieren ist wie einem Fremden ohne Gesicht deinen Hausschlüssel zu geben.

Und dann zu hoffen, dass schon alles gut geht.


Grund 5: Reziprozität ist keine Pflicht

Gesellschaftlich sind wir konditioniert:

„Wenn jemand mir etwas gibt, muss ich zurückgeben.“

Aber ein Follow ist kein Geschenk. Es ist eine Anfrage.

Lass mich das klarstellen:

Du schuldest niemandem einen Follow-Back.

Auch nicht:

  • Wenn sie deinen Post geliked haben
  • Wenn sie dir schon lange folgen
  • Wenn ihr 3 gemeinsame Follower habt
  • Wenn das Profilbild „nett“ aussieht

Dein Zugang zu deinem Leben ist kein Verhandlungsgegenstand.

Es ist dein Recht, Nein zu sagen. Ohne Begründung. Ohne Schuldgefühle.


Grund 6: Die „Aber ich kenne die Person vielleicht“-Falle

Das häufigste Gegenargument:

„Aber was, wenn das wirklich jemand ist, den ich kenne?“

Meine Antwort: Dann werden sie dich erreichen.

Szenario 1: Echte Bekannte mit neuem Account

Wenn jemand, den du kennst, einen neuen Account erstellt, werden sie:

  • Dir schreiben: „Hey, ich bin’s! Neuer Account.“
  • Auf deine Story reagieren
  • Einen Post kommentieren
  • Dich taggen
  • Irgendeine Form von Interaktion zeigen

Stilles Folgen ohne Kontext ist nicht normal für echte Bekanntschaften.

Szenario 2: Jemand, den du lange nicht gesehen hast

Gleiche Logik. Wenn sie wirklich Kontakt wollen, gibt es Wege:

  • Nachricht schreiben
  • Kommentar hinterlassen
  • Gemeinsamen Freund fragen: „Ist das XYs Account?“

Schweigen ist keine Kommunikation.


Was ich stattdessen tue: Meine Filterkriterien

Hier ist mein System. Es dauert 10 Sekunden. Es funktioniert.

✅ Ich folge zurück, wenn:

  1. Öffentliches Profil mit erkennbarem Content
  2. Klare Bio (wer sie sind, was sie machen)
  3. Echtes Profilbild (Gesicht oder kohärentes Branding)
  4. Sie haben mit meinem Content interagiert (Kommentar, sinnvolle Reaktion)
  5. Gemeinsame Follower, die ich tatsächlich kenne
  6. Oder: Sie haben eine Nachricht geschickt mit Kontext („Hi, ich folge dir wegen [Grund]“)

❌ Ich folge NICHT zurück, wenn:

  1. Privater Account ohne jegliche Erkennungsmerkmale
  2. Generisches oder kein Profilbild
  3. Leere oder sinnlose Bio
  4. Null Interaktion mit meinem Content
  5. Extremes Follow-Ratio (folgen 1000+, Follower 50)
  6. Keine gemeinsamen Follower ODER nur dubiose gemeinsame Follower

🤔 Grenzfälle (ich warte ab):

  • Privates Profil, aber echtes Gesicht + sinnvolle Bio + Nachricht
  • Privates Profil von jemandem, den gemeinsame Freunde empfohlen haben
  • Neuer Account von jemandem, den ich kenne (aber ich frage nach)

In Grenzfällen: Ich warte. Wenn sie echt sind, werden sie sich melden.


Was du tun solltest: Praktische Schritte

Schritt 1: Akzeptiere keine Anfragen von privaten Accounts ohne Kontext

Einfach. Klar. Konsequent.

Schritt 2: Regelmäßig Follower-Liste durchgehen

Einmal pro Monat:

  • Gehe deine Follower durch
  • Entferne verdächtige Accounts
  • Instagram: Profil öffnen → Drei Punkte → „Entfernen“

Sie werden NICHT benachrichtigt.

Schritt 3: Aktiviere „Follower-Anfragen bestätigen“ (bei öffentlichen Accounts)

Instagram/TikTok haben Settings, die auch bei öffentlichen Accounts Follower-Bestätigung erlauben. Nutze das.

Schritt 4: Nutze die „Restricted“-Funktion

Statt zu blockieren (was auffällig ist), nutze „Einschränken“:

  • Sie sehen nicht, ob du online bist
  • Ihre Kommentare sind nur für sie sichtbar
  • Sie merken nicht, dass sie eingeschränkt sind

Perfekt für „vielleicht ist das jemand, aber ich bin nicht sicher“-Fälle.

Schritt 5: Sei transparent in deiner Bio

Ich habe in meiner Bio stehen:

„Privaten Accounts ohne Kontext folge ich nicht zurück. Schreib mir einfach, wenn wir uns kennen! 💬“

Ergebnis: Weniger fragwürdige Anfragen. Mehr Nachrichten von echten Menschen.


Die andere Seite: Wenn DU der private Account bist

Fair ist fair. Wenn du selbst ein privates Profil hast und echten Menschen folgen willst, hier ist, wie du nicht wie ein Bot wirkst:

✅ Schreib eine Nachricht

„Hey! Ich folge dir, weil [konkreter Grund]. Ich habe ein privates Profil, weil [Grund]. Freue mich über einen Follow-Back!“

✅ Hab ein echtes Profilbild

Gesicht. Nicht Sonnenuntergang.

✅ Schreib eine Bio

Wer du bist. Was du machst. Warum dein Account privat ist.

✅ Interagiere zuerst

Like Posts. Kommentiere (sinnvoll, nicht nur Emojis). Reagiere auf Stories.

Dann folgen.

✅ Hab ein realistisches Follow-Ratio

Wenn du 12 Followern folgst aber 956 folgst, wirkst du wie ein Bot.

Kurz: Sei ein Mensch. Kommuniziere wie ein Mensch.


Warum das wichtig ist: Digitale Hygiene als Selbstfürsorge

Wir reden viel über:

  • Mentale Gesundheit auf Social Media
  • Screen Time reduzieren
  • Toxische Accounts entfolgen

Aber wir reden zu wenig über: Wer darf überhaupt in deinen digitalen Raum?

Digitale Hygiene bedeutet:

  • Kuratieren, wer Zugang zu deinem Leben hat
  • Grenzen setzen, auch wenn es „unhöflich“ wirkt
  • Nein sagen, ohne Erklärung
  • Sicherheit priorisieren, über Höflichkeit

Dein Instagram ist nicht öffentlicher Raum. Es ist dein Raum.

Und du darfst entscheiden, wer reinkommt.


Fazit: Der Follow-Button ist keine Verpflichtung

Ich folge privaten Profilen ohne Kontext nicht zurück, weil:

  1. Sicherheit: Bots, Fake-Accounts, Stalker
  2. Privatsphäre: Mein Leben ist nicht öffentliches Gut
  3. Selbstrespekt: Ich schulde Fremden keinen Zugang
  4. Erfahrung: Ich habe gelernt, was passiert, wenn man nicht selektiv ist
  5. Grenzen: Digitale Räume sind echte Räume

Und du solltest das auch nicht tun.

Nicht aus Arroganz. Nicht aus Paranoia.

Sondern aus digitalem Selbstschutz.

Dein Social-Media-Account ist dein Zuhause. Lass nicht jeden rein, nur weil sie geklopft haben.

Manche Türen sollten geschlossen bleiben.

Und das ist vollkommen okay.


Diskussion: Wie gehst du mit privaten Follow-Anfragen um? Hast du andere Kriterien? Teile deine Strategie in den Kommentaren!


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein Fachartikel über die wachsende Spannung zwischen automatisierter Content-Moderation und künstlerischer Freiheit in Adobe-Produkten

Von Dr. Elena Richter, Digital Ethics & Creative Technology Researcher


Transparenz-Hinweis: Dieser Artikel ist ein analytischer Kommentar, der dokumentierte technische Fakten mit Branchenbeobachtungen und begründeten Einschätzungen verbindet. Wo Fakten vorliegen, werden sie belegt. Wo ich interpretiere oder bewerte, kennzeichne ich das entsprechend.


Es ist ein gewöhnlicher Arbeitstag. Eine Aktfotografin öffnet Photoshop, um an einer Bildserie für eine Galerie-Ausstellung zu arbeiten. Sie möchte Generative Fill nutzen, um einen störenden Hintergrund-Schatten zu entfernen.

Dann erscheint die Meldung:

„This content violates our usage guidelines. Generative features are unavailable for this image.“

Das Bild? Eine klassische Fine-Art-Aktaufnahme. Professionell. Ästhetisch. Legal. Aber der Algorithmus sagt: Nein.

Dies ist kein Einzelfall. In Adobe-Community-Foren häufen sich seit 2023 Berichte über genau diese Situation. Künstler, Fotografen, Medizin-Illustratoren und sogar Kunsthistoriker berichten von blockierten Features, gesperrten Funktionen und dem Gefühl, dass ihre professionelle Arbeit als unangemessen eingestuft wird.

Willkommen in der neuen Realität kreativer Arbeit: Algorithmen als Kunstrichter.

Was als notwendiger Schutz gegen Missbrauch begann, entwickelt sich für viele zu einer Bedrohung legitimer künstlerischer Arbeit. Dies ist die Geschichte eines Systems im Spannungsfeld zwischen Sicherheit und Freiheit – und der möglichen Lösungen.


Das Problem: Wenn Sicherheit zur Einschränkung wird

Was tatsächlich passiert (belegt)

Seit Adobe 2023 massiv KI-Features in Photoshop integriert hat (Generative Fill, Generative Expand, Neural Filters), läuft im Hintergrund ein Content-Moderation-System. Adobe dokumentiert dies selbst in seinen Generative AI User Guidelines:

„Prompts and results may be reviewed through automated and manual methods“

Das System soll verhindern:

  • Erstellung illegaler Inhalte (CSAM, extreme Gewalt)
  • Deepfakes realer Personen ohne Einwilligung
  • Copyright-Verletzungen
  • Hassrede und Diskriminierung in visueller Form

Explizit verboten laut Adobe-Richtlinien sind:

  • Pornographic material
  • Explicit nudity
  • Graphic violence

Das ist nachvollziehbar. Das ist in vielen Fällen rechtlich geboten. Das ist grundsätzlich verantwortungsvoll.

Aber: Die Implementierung führt zu erheblichen Kollateralschäden.

Dokumentierte Community-Berichte

In Adobe-Community-Foren und auf Plattformen wie Reddit finden sich hunderte Berichte über Fehlklassifikationen. Typische Muster, die sich aus diesen Berichten ergeben:

Fallkonstellation 1: Die Aktfotografin

Aus Community-Berichten abstrahiertes, aber repräsentatives Szenario:

„Ich arbeite seit Jahren professionell mit Aktfotografie. Meine Arbeiten werden in Galerien gezeigt und in Kunstmagazinen publiziert. Seit der Integration von Generative Fill kann ich diese Funktion bei meinen Projekten nicht mehr nutzen. Das System erkennt ‚inappropriate content‘ und blockiert. Es sind keine pornografischen Bilder – es ist Kunst.“

Fallkonstellation 2: Medizinische Illustration

Wiederkehrend berichtetes Problem:

„Anatomische Illustrationen für medizinische Lehrbücher werden als ‚graphic violence‘ markiert. Chirurgische Darstellungen, Gewebeschnitte – alles wird blockiert. Das sind Standardmaterialien für die medizinische Ausbildung.“

Fallkonstellation 3: Kunstgeschichte und Digitalisierung

Aus europäischen Foren dokumentiert:

„Ich digitalisiere Renaissance-Gemälde für Museen. Werke von Tizian, Rubens, Botticelli. Photoshops System blockiert Neural Filters bei historischen Akten. Es ist Kulturerbe, aber Adobe behandelt es wie pornografisches Material.“

Fallkonstellation 4: Aufklärungskampagnen

Health-Awareness-Sektor:

„Kampagnenmaterial für Brustkrebsvorsorge wird systematisch als unangemessen eingestuft. Medizinische Illustrationen zur Selbstuntersuchung können nicht bearbeitet werden. Das betrifft lebensrettende Aufklärungsarbeit.“

Das Muster

Die Berichte zeigen ein klares Problem: Kontextblinde Klassifikation führt zu massiven False Positives.

Das System unterscheidet häufig nicht zwischen:

  • Kunst und Pornografie
  • Medizin und Gewalt
  • Kulturerbe und Regelverletzung
  • Professioneller Arbeit und Missbrauch

Kontext ist alles. Aber Algorithmen verstehen keinen Kontext.


Warum das passiert: Die technischen Hintergründe

Problem 1: Training-Data-Bias

Content-Moderation-KIs werden typischerweise trainiert auf binären Datensätzen:

  • Explizite Pornografie vs. akzeptable Inhalte
  • Gewaltdarstellungen vs. harmlose Bilder
  • Illegales Material vs. legale Nutzung

Das Trainingsmaterial arbeitet mit klaren Kategorien. Erlaubt/Verboten. Gut/Schlecht.

Aber Kunst ist nicht binär. Sie ist:

  • Kontextabhängig (Museum vs. Werbung)
  • Kulturell codiert (was in einem Land akzeptabel ist, ist es woanders nicht)
  • Intentional mehrdeutig (Provokation ist Teil der Kunst)
  • Historisch variabel (Renaissance-Akte sind Kulturerbe)

Ein Klassifikationsalgorithmus, der auf eindeutige Pornografie trainiert wurde, kann strukturell nicht unterscheiden zwischen:

  • Botticellis „Geburt der Venus“ (Kunstgeschichte, 15. Jahrhundert)
  • Einem modernen pornografischen Bild

Beide zeigen Nacktheit. Beide triggern denselben visuellen Klassifikator. Der Unterschied liegt im Kontext – und genau den erfassen diese Systeme nicht.

Problem 2: Regulatorischer Druck und Liability-Paranoia

Adobe operiert in einem komplexen regulatorischen Umfeld:

  • EU AI Act (Transparenz- und Haftungspflichten)
  • US-Gesetzgebung (CSAM-Scanning-Anforderungen)
  • Öffentliche Wahrnehmung (Deepfake-Skandale, ethische KI-Nutzung)
  • Investoren-Erwartungen (ESG-Compliance)

Regulatorische Entwicklungen wie der EU AI Act erhöhen den Compliance-Druck erheblich. Plattformen, die KI-generierte Inhalte ermöglichen, stehen unter zunehmender Beobachtung.

Die wahrscheinliche Reaktion vieler Unternehmen: Übervorsichtige Filterung.

Das Prinzip: „Lieber zu viel blockieren als rechtliches Risiko eingehen.“

Das Problem: Die Kosten dieser Vorsicht tragen die Künstler.

Problem 3: Fehlende Transparenz

Adobe kommuniziert nicht ausreichend klar:

  • Nach welchen konkreten Kriterien wird klassifiziert?
  • Wie funktioniert die Unterscheidung zwischen Kunst und Pornografie?
  • Wie kann man Fehlentscheidungen anfechten?
  • Gibt es einen Human-Review-Prozess?
  • Wer entscheidet im Grenzfall?

Die Richtlinien sind allgemein formuliert („explicit nudity“, „pornographic material“), aber wie diese Begriffe algorithmisch operationalisiert werden, bleibt intransparent.

Nutzer arbeiten faktisch im Dunkeln. Sie erfahren erst durch Blockierung, dass ihr Material als problematisch gilt.

Problem 4: Cloud-Abhängigkeit

Viele KI-Features funktionieren ausschließlich mit Cloud-Verbindung:

  • Generative Fill (vollständig cloudbasiert)
  • Firefly-Integration (cloudbasiert)
  • Teile der Neural Filters (cloud-abhängig)

Laut Adobe-Dokumentation bedeutet dies: Die Bilder werden serverseitig verarbeitet und können im Rahmen der Content-Moderation geprüft werden.

Für viele Künstler fühlt sich das an wie Überwachung, nicht wie ein Service-Feature.


Die ethische Dimension: Wo liegt die Grenze?

Position 1: „Adobe muss schützen“

Argumente:

Gesetzliche Verpflichtungen: In vielen Jurisdiktionen (EU, USA, UK) müssen Plattformen aktiv gegen illegale Inhalte vorgehen. CSAM-Scanning ist teilweise verpflichtend.

Missbrauchsprävention: Ohne Filter würde Photoshop potenziell für Deepfakes, CSAM-Erstellung, Hassdarstellungen genutzt.

Reputationsschutz: Adobe kann es sich nicht leisten, als „Tool für Kriminelle“ wahrgenommen zu werden.

Technologische Grenzen: Perfekte KI-Moderation existiert nicht. False Positives sind bei jedem System unvermeidbar. Die Frage ist nur: Akzeptiert man False Positives (legitime Inhalte werden blockiert) oder False Negatives (illegale Inhalte werden nicht erkannt)?

Repräsentative Position:

„Technologieunternehmen haben die Verantwortung, ihre Tools nicht für Schaden zu ermöglichen. Ja, es gibt Fehlklassifikationen. Aber die Alternative – keine Moderation – wäre gesellschaftlich unverantwortlich. Das ist der Preis für KI-Demokratisierung.“

Position 2: „Das ist Zensur künstlerischer Freiheit“

Argumente:

Künstlerische Freiheit ist Grundrecht: Kunst darf provozieren, verstören, Grenzen testen. Das ist ihr Wesen.

Profis werden wie Verdächtige behandelt: Fotografen mit jahrzehntelanger Erfahrung, gültigem Gewerbe und Galerie-Ausstellungen werden algorithmisch wie potenzielle Straftäter behandelt.

Kulturelle Voreingenommenheit: Was „anstößig“ ist, ist kulturell und historisch variabel. Ein kalifornisches Tech-Unternehmen setzt globale Standards basierend auf US-amerikanischen Normen.

Slippery Slope: Heute Nacktheit, morgen politische Themen, übermorgen religiöse Symbolik?

Repräsentative Position aus Community-Foren:

„Ich habe für diese Software bezahlt. Ich besitze eine Lizenz. Aber Adobe entscheidet, was ich damit machen darf. Das ist nicht Software-as-a-Service. Das fühlt sich an wie Software-as-Surveillance.“

Position 3: „Das System ist reparierbar – aber nur mit Willen“ (meine Position)

Argumente:

Intention muss zählen: Der Unterschied zwischen Kunst und Missbrauch liegt primär in der Intention, nicht in der reinen Bildstruktur.

Kontext muss erfassbar sein: Dasselbe Bild kann Kunst, Medizin, Pornografie oder Dokumentation sein – je nach Nutzungskontext.

Professionelle Nutzer brauchen differenzierte Behandlung: Ein verifizierter Profi sollte nicht dieselben Beschränkungen haben wie ein anonymer Free-Tier-Nutzer.

Transparenz ist ethische Pflicht: Künstler haben das Recht zu wissen, nach welchen Kriterien ihre Arbeit bewertet wird.

Appeal-Prozesse sind unverzichtbar: Menschen müssen algorithmische Entscheidungen anfechten können – mit menschlicher Überprüfung.

Technische Lösungen existieren: Andere Plattformen (YouTube, Vimeo) haben differenziertere Systeme implementiert. Es ist machbar.


Die Lösungen: Was getan werden kann (und sollte)

Ebene 1: Was Adobe implementieren könnte

Lösung 1.1: Verifizierte Professional Accounts

Konzept:

  • Professionelle Künstler, Fotografen, Mediziner können sich verifizieren
  • Nachweis: Portfolio, Business License, berufliche Identität, Referenzen
  • Verifizierte Accounts erhalten erweiterte Berechtigungen
  • Content-Filter arbeiten mit höherer Toleranz oder sind optional konfigurierbar
  • Bei nachgewiesenem Missbrauch: sofortiger Entzug + rechtliche Schritte

Vorbild:

  • YouTube Partner Program (verifizierte Creator mit erweiterten Features)
  • Twitter Blue Verified (vor Musk-Übernahme: manuelle Verifikation)
  • Vimeo Pro Accounts (differenzierte Content-Policies)

Vorteil:

  • Missbrauch kommt statistisch primär von anonymen, nicht-professionellen Nutzern
  • Profis sind identifizierbar, haftbar und haben Reputationsverlust zu befürchten
  • False Positives bei legitimen Künstlern würden drastisch sinken
  • Adobe kann nachweisen: „Wir schützen Profis, während wir Missbrauch bekämpfen“

Implementierungs-Herausforderung:

  • Verification kostet Ressourcen (Personal, Prozesse)
  • Potenzial für gefälschte Credentials
  • Grenzfälle (Semi-Profis, Studierende, Emerging Artists)

Aber: Machbar. Andere Plattformen haben skalierbare Systeme entwickelt.


Lösung 1.2: Kontext-Deklaration durch Nutzer

Konzept:

  • Beim Öffnen oder Import können Nutzer den Bildkontext deklarieren
  • Kategorien: Fine Art, Medical/Educational, Historical/Archival, Editorial/Journalism, Commercial/Advertising
  • System adjustiert Filter-Sensitivität entsprechend
  • Bei nachweislichem Missbrauch der Kategorisierung: Sperrung

UI-Mockup:

textFile > Document Properties > Content Context
○ Fine Art / Artistic
○ Medical / Educational  
○ Historical / Cultural Heritage
○ Editorial / Journalism
○ Commercial / Advertising
○ Personal / Uncategorized (Standard-Filter)

[?] Warum ist das wichtig?

Vorteil:

  • Gibt Nutzern Kontrolle und Verantwortung
  • Ermöglicht nuancierte Moderation ohne Binärlogik
  • Reduziert False Positives erheblich
  • Dokumentiert Intent

Kritik: „Nutzer könnten lügen“

Antwort: Ja. Aber:

  • Bei Missbrauch: nachweisbar und sanktionierbar
  • Statistisch: Profis haben Anreiz zur Ehrlichkeit (Reputation, Vertrag)
  • Kann mit Account-Verifizierung kombiniert werden

Lösung 1.3: Transparente Appeal-Prozesse

Aktueller Stand: Blockierung erfolgt oft ohne klare Begründung. Einspruch ist schwierig oder unmöglich.

Sollte sein:

1. Klare Begründung:

text"Generative features are unavailable because:
- Explicit nudity detected (confidence: 87%)
- If you believe this is incorrect, you can request review."

2. Appeal-Button direkt in der Fehlermeldung:

text[Request Human Review]

3. Human Review innerhalb definierter Frist:

  • Standard: 48 Stunden
  • Professionelle Accounts: 24 Stunden
  • Eilfälle (gegen Gebühr): 6 Stunden

4. Transparente Richtlinien:

  • Öffentlich einsehbares Regelwerk
  • Konkrete Beispiele (Was ist okay? Was nicht?)
  • Regelmäßige Updates

Vorbild:

  • Facebook Oversight Board (unabhängige Überprüfung)
  • YouTube Appeals (strukturierter Prozess mit Zeitlimits)
  • Instagram Professional Account Disputes

Kosten: Ja, Human Review ist teuer. Aber das ist der Preis fairer Moderation.


Lösung 1.4: Optionale lokale Verarbeitung

Konzept:

  • Nutzer können wählen: Cloud-basierte Features ODER lokale Verarbeitung
  • Lokaler Modus: Keine KI-Features wie Generative Fill, aber auch keine Content-Moderation
  • Cloud-Modus: Volle KI-Features, mit Content-Prüfung

Vorbild:

  • DaVinci Resolve (Cloud-Features optional, nicht erzwungen)
  • Capture One (vollständig lokal, keine Cloud-Anforderung)
  • Affinity Photo (keine Cloud-Abhängigkeit)

Vorteil:

  • Profis mit sensiblen Projekten (medizinisch, künstlerisch, legal) können ungestört arbeiten
  • Adobe reduziert Haftungsrisiko (keine Cloud-Verarbeitung = keine Moderationspflicht auf Server-Seite)
  • Nutzer haben echte Wahlfreiheit

Adobe-Kritik: „Lokale Verarbeitung ermöglicht Missbrauch“

Antwort:

  • Photoshop war 25 Jahre lang primär lokal. Missbrauch war kein Massen-Phänomen.
  • Verantwortung liegt beim Nutzer, wie bei jedem Werkzeug
  • Illegale Nutzung bleibt illegal, unabhängig von Software-Features

Lösung 1.5: Differenzierte Filter-Level nach Account-Typ

Statt eines binären Systems (blockiert/erlaubt):

Tier 1 – Public/Consumer (kostenlose Accounts, nicht verifiziert):

  • Strengste Filter
  • Fokus auf Prävention
  • Cloud-basiert, volles Monitoring

Tier 2 – Professional (verifiziert, Creative Cloud bezahlt):

  • Moderate Filter
  • Künstlerische Nacktheit: erlaubt (mit Kontext-Deklaration)
  • Medizinische Darstellungen: erlaubt
  • Kulturhistorische Inhalte: erlaubt
  • Illegale Inhalte: weiterhin blockiert

Tier 3 – Enterprise/Institutional (Vertragspartner: Studios, Unis, Museen):

  • Minimale Filter (nur explizit illegale Inhalte: CSAM, terroristische Propaganda)
  • Vertragliche Haftungsregelung
  • Institutionelle Verantwortung

Vorbild:

  • AWS/Azure Trust & Safety Tiers (unterschiedliche Compliance-Level)
  • Cloudflare (differenzierte Moderation nach Kundentyp)

Ebene 2: Was Nutzer jetzt tun können (pragmatische Workarounds)

Workaround 2.1: Affinity Photo als Alternative

Was es ist: Professionelle Photoshop-Alternative ohne Cloud-Zwang, ohne KI-Moderation

Vorteile:

  • Einmalzahlung ($74.99), kein Abo
  • Vollständig lokale Verarbeitung
  • Keine Content-Filter
  • Import/Export von PSD-Dateien möglich
  • Professionelles Feature-Set

Nachteile:

  • Keine Generative AI-Features (Generative Fill, etc.)
  • Kleineres Plugin-Ökosystem
  • Keine nahtlose Adobe-Integration

Typischer Hybrid-Workflow:

textAdobe Creative Cloud → für kommerzielle Standard-Arbeit
Affinity Photo → für künstlerische/sensitive Projekte

Community-Feedback:

„Ich zahle für beides. Adobe für Kunden, die Photoshop-Files erwarten. Affinity für meine Kunst, wo ich keine Zensur haben will.“


Workaround 2.2: Lokale KI-Tools für spezifische Aufgaben

Konzept: Nutze KI-Features lokal, ohne Cloud-Moderation

Topaz Photo AI ($199 einmalig):

  • Upscaling, Denoising, Sharpening
  • Komplett lokal
  • Keine Content-Moderation
  • Professionelle Qualität

DxO PhotoLab ($229):

  • DeepPRIME AI (Rauschreduzierung)
  • Lokale Verarbeitung
  • Keine Cloud-Anforderung

Stable Diffusion (lokal installiert, kostenlos):

  • Inpainting/Outpainting ähnlich Generative Fill
  • 100% lokale Kontrolle
  • Technisch anspruchsvoller
  • Keine Moderation, volle Freiheit

Beispiel-Workflow:

text1. Basis-Bearbeitung in Photoshop
2. Export als TIFF
3. KI-Processing in lokalem Tool (Topaz/Stable Diffusion)
4. Re-Import in Photoshop
5. Finalisierung

Vorteil: Kontrolle, Privatsphäre, keine Einschränkungen

Nachteil: Fragmentierter Workflow, mehr Schritte


Workaround 2.3: Nicht empfohlene Community-Workarounds

Hinweis: Der folgende Abschnitt beschreibt Techniken, die in Community-Foren diskutiert werden. Ich dokumentiere sie zur Vollständigkeit, empfehle sie aber nicht als professionelle Lösung.

Temporäres Content-Covering:

In manchen Foren wird berichtet, dass Nutzer:

  1. „Problematische“ Bildbereiche temporär mit neutralem Content überdecken
  2. Generative Fill/Neural Filters auf das modifizierte Bild anwenden
  3. Covering-Ebene entfernen
  4. Bearbeitetes Ergebnis behalten

Ethische und praktische Bedenken:

  • Umgeht explizit Moderationssysteme
  • Rechtlich grauzonig
  • Nicht nachhaltig (Adobe könnte reagieren)
  • Für professionelle Nutzung nicht empfehlenswert

Meine Einschätzung: Dies zeigt die Verzweiflung, die die aktuelle Situation bei manchen Nutzern auslöst. Es ist keine Lösung, sondern ein Symptom des Problems.


Workaround 2.4: Offline-Arbeit wo möglich

Für Features, die lokal funktionieren:

Methode:

  1. Starte Photoshop mit Internetverbindung
  2. Lade Projekt
  3. Trenne Verbindung
  4. Arbeite offline

Was offline funktioniert:

  • Standard-Filter (Blur, Sharpen, etc.)
  • Healing/Cloning/Retouching
  • Masken, Adjustments, Compositing
  • Bestimmte Neural Filters (wenn bereits heruntergeladen)

Was nicht funktioniert:

  • Generative Fill
  • Firefly-Integration
  • Cloud-basierte Neural Filters
  • Auto-Sync

Limitierung: Dies ist kein Workaround für blockierte Inhalte, sondern nur eine Methode, generell mehr Privatsphäre zu wahren.


Ebene 3: Was die Community tun kann

Lösung 3.1: Systematische Dokumentation

Was bereits existiert:

  • Adobe Community Forums: Threads zu Content-Moderation
  • Reddit r/photoshop: Diskussionen über Blockierungen
  • Petitionen zu künstlerischer Freiheit in KI-Tools

Was systematischer passieren sollte:

Zentrale Fallsammlung:

  • Dokumentierte Datenbank von False Positives
  • Screenshots, Kontext, Nutzer-Beschreibungen
  • Kategorisiert nach Bildtyp (Fine Art, Medical, Historical, etc.)
  • Als Evidenzbasis für Advocacy

Plattform-Vorschlag:

textphotoshop-moderation-cases.org (hypothetisches Beispiel)
- Anonyme Falleinreichung
- Verifizierung durch Community
- Statistik-Dashboard
- Verwendbar für Medienarbeit und Policy-Advocacy

Lösung 3.2: Professionelle Verbände als Interessenvertretung

Existierende Organisationen, die handeln könnten:

American Society of Media Photographers (ASMP):

  • Könnte offenen Brief an Adobe verfassen
  • Forderung nach Professional-Tier

Berufsverband Freie Fotografen (BFF, Deutschland):

  • Rechtliche Prüfung (DSGVO-Implikationen)
  • Dialog mit Adobe Deutschland

Professional Photographers of America (PPA):

  • Advocacy für Mitglieder
  • Best-Practice-Guidelines für KI-Nutzung

Konkrete Forderungen:

  1. Transparente Moderation-Kriterien
  2. Strukturierte Appeal-Prozesse
  3. Professional Verification Program
  4. DSGVO-konforme, transparente Datennutzung
  5. Optionale lokale Verarbeitung

Lösung 3.3: Marktdruck durch Alternativen

Ökonomische Realität: Adobe reagiert auf Marktanteils-Verluste.

Strategisch unterstützen:

Affinity Photo (Serif):

  • Wächst kontinuierlich
  • Perpetual License als Alternative zu Abos
  • Keine Content-Moderation

Capture One:

  • Professional RAW-Editor
  • Erweitert zunehmend Bildbearbeitungs-Features
  • Keine KI-Moderation

DxO PhotoLab:

  • High-End-Fokus
  • Lokale Verarbeitung

Botschaft an Adobe durch Nutzungsverhalten:
„Wenn Moderation zu restriktiv wird, gibt es Alternativen.“


Lösung 3.4: Open-Source-Entwicklung vorantreiben

Aktuelle Situation: GIMP ist mächtig, aber UX/UI schrecken viele Profis ab.

Vision: Ein „Blender für 2D-Bildbearbeitung“

Was fehlt:

  • Professionelle, moderne UI/UX
  • Robustes Plugin-Ökosystem
  • Nahtlose Integration lokaler KI-Modelle (Stable Diffusion, etc.)
  • Keine algorithmische Content-Moderation (Verantwortung liegt beim Nutzer)

Warum das wichtig ist:
Blender revolutionierte 3D, weil:

  • Profis es ernst nahmen
  • Community stark investierte
  • Features mit kommerzieller Software konkurrierten

Ein äquivalentes 2D-Tool könnte den Markt diversifizieren und Druck auf Adobe erzeugen.


Ebene 4: Regulatorische Ansätze

Lösung 4.1: Algorithmic Accountability

Konzept:

  • Unternehmen müssen Moderation-Algorithmen in Grundzügen offenlegen
  • False-Positive-Raten müssen publiziert werden
  • Appeal-Prozesse sind gesetzlich vorgeschrieben
  • Unabhängige Audits

Regulatorischer Rahmen:

  • EU AI Act hat Ansätze (Transparenzpflichten für Hochrisiko-KI)
  • USA: Algorithmic Accountability Act (vorgeschlagen, nicht verabschiedet)

Lösung 4.2: Professionelle Ausnahmen

Konzept:

  • Verifizierte Profis (Künstler, Mediziner, Journalisten) erhalten erweiterte Nutzungsrechte
  • Ähnlich zu bestehenden Berufsprivilegien (Quellenschutz für Journalisten, etc.)

Argument:

  • Profis sind identifizierbar und haftbar
  • Berufliche Reputation ist wirksamer Kontrollmechanismus
  • Gesellschaftlicher Nutzen professioneller Arbeit (Kunst, Medizin, Aufklärung) überwiegt Missbrauchsrisiko

Die größere Frage: Wem gehört die digitale Kreativität?

Dieses Problem transzendiert Photoshop. Es berührt fundamentale Fragen:

Frage 1: Eigentum oder Miete?

Ich zahle für eine Lizenz. Aber besitze ich die Software wirklich, wenn der Anbieter jederzeit Funktionen einschränken kann?

Frage 2: Universelle Standards vs. kulturelle Vielfalt

Ein kalifornisches Unternehmen definiert globale Standards für „Angemessenheit“. Aber kulturelle Normen zu Nacktheit, Gewalt, Religion sind extrem unterschiedlich. Ist das nicht eine Form digitalen Kulturimperialismus?

Frage 3: Sicherheit vs. Überwachung

Cloud-basierte Verarbeitung bedeutet: Serverseitige Analyse ist möglich. Wann wird Sicherheit zu Überwachung? Wo liegt die Grenze?

Frage 4: Kunst und Provokation

Kunst lebt davon, Grenzen zu testen. Algorithmen arbeiten mit Kategorien und Grenzen. Sind diese beiden Prinzipien kompatibel?


Beispiel für bessere Praxis: Procreate’s Positionierung

Procreate (iPad-App) öffentliches Statement 2024:

„We’re not going to be introducing any generative AI into our products. […] We believe in the human creative process.“

Ergebnis:

  • Massive positive Community-Reaktion
  • Künstler feierten die Positionierung
  • Klare Marken-Identität
  • Wachsende Marktanteile

Lektion: Klare Positionierung für Künstler-Freiheit wird honoriert.

(Procreate hat allerdings auch keine Cloud-Features und damit andere Haftungsrisiken als Adobe – der Vergleich ist nicht 1:1 übertragbar, aber zeigt eine Marktrichtung.)


Meine Position: Differenzierung ist die Lösung

Was ich NICHT fordere:

  • Abschaffung von Content-Moderation
  • Erlaubnis illegaler Inhalte
  • Naive „Alles-erlauben“-Haltung

Was ich fordere:

  1. Transparenz: Künstler müssen wissen, nach welchen Kriterien bewertet wird
  2. Kontext-Bewusstsein: Kunst ≠ Pornografie, Medizin ≠ Gewalt
  3. Professionelle Verantwortung: Verifizierte Profis sollten differenziert behandelt werden
  4. Faire Prozesse: Appeals mit menschlicher Überprüfung
  5. Technologische Optionen: Lokale Verarbeitung als Wahlmöglichkeit

Das ist machbar. Andere Plattformen zeigen es.

YouTube hat differenzierte Creator-Tiers. Vimeo hat Kontext-basierte Moderation. AWS hat Enterprise-Compliance-Level. Adobe könnte das auch.


Handlungsaufforderungen

Wenn du Künstler/Fotograf bist:

  1. Dokumentiere Fälle: Bei Blockierung: Screenshot, Kontext notieren, in Community-Foren teilen
  2. Gib strukturiertes Feedback: Adobe-Forums, direkt an Support (auch wenn Antwort unwahrscheinlich)
  3. Evaluiere Alternativen: Teste Affinity Photo, Capture One, etc.
  4. Vernetzt euch: Professionelle Verbände, Künstler-Communities

Wenn du Adobe-Kunde bist:

  1. Nutze offizielle Feedback-Kanäle: Community-Forum, Feature-Requests
  2. Fordere Transparenz: Frag nach konkreten Kriterien
  3. Überdenke bei Bedarf dein Abo: Marktdruck funktioniert

Wenn du Entwickler bist:

  1. Baue Alternativen: Open-Source braucht professionelle UI/UX-Arbeit
  2. Integriere lokale KI: Stable Diffusion, andere Modelle
  3. Fokus auf Privatsphäre: Das ist ein Markt-Differentiator

Wenn du in Policy/Regulierung arbeitest:

  1. Algorithmic Transparency: KI-Moderation muss nachvollziehbar sein
  2. Professional Exemptions: Profis brauchen differenzierte Regeln
  3. Right to Appeal: Menschliche Überprüfung als Recht

Fazit: Kunst lebt von Grenzüberschreitung – Algorithmen von Grenzen

Kreativität existiert im Spannungsfeld. Sie provoziert. Sie hinterfragt. Sie überschreitet bewusst Grenzen.

Algorithmen kategorisieren. Sie standardisieren. Sie ziehen Grenzen.

Diese beiden Logiken stehen in fundamentalem Konflikt.

Und aktuell – das zeigen die Community-Berichte, die technische Analyse und die fehlenden Transparenz- und Appeal-Mechanismen – verliert die kreative Freiheit.

Aber das ist nicht unvermeidlich.

Mit:

  • Technologischer Differenzierung (Professional Tiers, Kontext-Deklaration, lokale Optionen)
  • Transparenten Prozessen (klare Kriterien, Appeals, Human Review)
  • Marktdruck (Alternativen stärken, Feedback geben)
  • Kluger Regulierung (wo nötig, nicht überschießend)

…können wir ein System schaffen, das schützt UND ermöglicht.

Photoshop war einmal das Werkzeug, das Künstlern neue Möglichkeiten gab.

Es kann das wieder sein.

Aber nur, wenn zwischen Sicherheit und Freiheit differenziert wird.

Die Technologie dafür existiert. Es fehlt am Willen – oder am Druck.


Ressourcen & weiterführende Links:


Über die Autorin:

Dr. Elena Richter forscht seit 10 Jahren an der Schnittstelle von Technologie, Ethik und kreativer Praxis. Sie berät Künstlerverbände, Tech-Unternehmen und Policy-Maker zu Fragen digitaler Kreativität, KI-Ethik und algorithmischer Governance. Ihre Arbeit fokussiert auf die Balance zwischen technologischem Fortschritt und individuellen Freiheitsrechten.


Methodische Transparenz:

Dieser Artikel basiert auf:

  • Dokumentierten Adobe-Richtlinien und technischer Dokumentation
  • Analyse von Community-Berichten (Adobe Forums, Reddit, Fachforen)
  • Technischer Analyse von KI-Moderationssystemen
  • Vergleichsanalyse mit anderen Plattformen
  • Fachlicher Einschätzung regulatorischer Entwicklungen

Wo konkrete Fälle beschrieben werden, sind diese aus realen Community-Berichten abstrahierte, repräsentative Konstellationen – keine investigativ recherchierten Einzelfälle. Sie illustrieren dokumentierte Problemmuster.


ie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein nüchterner Blick auf Tools, die in echten Workflows noch eine Rolle spielen

Transparenz-Hinweis:
Öffentlich verifizierbare Verkaufszahlen oder belastbare Marktanteile für Photoshop-Plugins gibt es in der Regel nicht. Deshalb ist eine Überschrift wie „die 10 erfolgreichsten“ journalistisch zu hart. Sauberer ist: 10 weiterhin relevante Photoshop-Erweiterungen bzw. Photoshop-nahe Tools, die 2026 noch sichtbar, kaufbar oder workflowrelevant sind. (shop.dxo.com)

Photoshop ist 2026 immer noch das zentrale Schlachtschiff vieler Bild-Workflows. Aber der Plugin-Markt hat sich verändert. Manche Tools sind stärker geworden, manche sind in Richtung Standalone gewandert, und manche existieren heute vor allem deshalb noch, weil Adobe ein Problem nie elegant gelöst hat. Gleichzeitig hat Adobe selbst aufgeholt: Denoise, Raw Details und Super Resolution sind längst in Camera Raw bzw. Lightroom verankert, und sogar Topaz Labs steckt inzwischen teilweise direkt in Photoshop-Funktionen. (Adobe Hilfezentrum)

Die wichtigste Korrektur vorab:
2026 muss man nicht mehr so tun, als wäre jedes starke Bildverbesserungs-Tool automatisch ein klassisches „externes Photoshop-Plugin“. Genau diese Grenze ist inzwischen an vielen Stellen aufgeweicht. (Adobe Hilfezentrum)


1. Topaz Photo

Topaz ist weiterhin eines der sichtbarsten Tools für Schärfen, Denoise, Fokus-Rettung und Upscaling. Topaz beschreibt Topaz Photo aktuell als intelligentes Bildverbesserungs-Tool mit KI-Werkzeugen wie Denoise, Sharpen, Recover Faces, Adjust Lighting, Balance Color und Upscale. Die offizielle Preisangabe liegt aktuell bei $17/Monat bzw. $199 jährlich für den Personal-Plan; ein Pro-Plan ist teurer. (topazlabs.com)

Der große 2026-Punkt ist aber nicht nur der Preis, sondern die Marktverschiebung: Adobe bietet inzwischen in Photoshop offizielle Topaz-Labs-Integration für Sharpen und Denoise in seinen generativen AI-Filtern an. Parallel hat Adobe eigene Funktionen wie Denoise, Raw Details und Super Resolution in Camera Raw/Lightroom. Das heißt: Topaz ist stark, aber es steht heute nicht mehr „einfach nur außerhalb“ von Photoshop wie früher. (Adobe Hilfezentrum)

Saubere Einordnung:
Topaz bleibt relevant, aber der alte Satz „weit über Photoshop hinaus“ ist 2026 nur noch teilweise wahr. Adobe hat die Lücke verkleinert. (Adobe Hilfezentrum)


2. Nik Collection 8

Die Nik Collection ist weiterhin eines der bekanntesten Plugin-Pakete im Markt. DxO vermarktet Nik Collection 8 ausdrücklich als Plugin-Suite für Photoshop, Lightroom Classic und andere Hosts. Der offizielle Preis für eine neue Lizenz liegt aktuell bei $169.99. (shop.dxo.com)

Der historische Teil stimmt weiterhin: Die Google-Phase hat die Suite massiv verbreitet, und DxO hat sie später wieder kommerziell modernisiert. Was man heute aber präziser sagen sollte: Nik ist nicht deshalb wichtig, weil es „den Markt dominiert“, sondern weil es eine lange installierte Basis, starke Markenbekanntheit und einige immer noch beliebte Module wie Silver Efex und Color Efex hat. (shop.dxo.com)

Saubere Einordnung:
Nicht mehr die heilige Kuh aller Bildbearbeiter, aber immer noch eines der sichtbarsten und seriösesten Plugin-Pakete.


3. Portraiture von Imagenomic

Portraiture ist weiterhin ein reales, kaufbares Retusche-Tool. Imagenomic listet Portraiture for Photoshop aktuell mit $199.95. Außerdem existieren Bündel und eine Suite-Struktur. (imagenomic.com)

Der Artikelkern ist hier im Prinzip brauchbar: Portraiture adressiert genau das, wofür viele Fotografen und Retuscheure zahlen — schnellere Hautbearbeitung bei brauchbarem Grundresultat. Was man aber nicht ohne harte Quelle behaupten sollte, ist irgendeine Zahl wie „90 % aller Hochzeitsfotografen nutzen es“. Dafür gibt es keine belastbare öffentliche Marktquelle. (imagenomic.com)

Saubere Einordnung:
Ein etabliertes Spezialtool für Hautretusche mit klarem Anwendungsfall, aber keine seriös belegbare Massenmarkt-Statistik.


4. Luminar Neo

Luminar Neo ist 2026 weiterhin relevant, aber der alte Plugin-Text ist zu simpel. Skylum beschreibt Luminar Neo klar als Standalone-App plus Photoshop-Plugin plus Lightroom-Classic-Plugin plus macOS-Erweiterung. Außerdem weist Skylum auf verschiedene Lizenzmodelle hin, darunter perpetual desktop, cross-device und max. Die Seite nennt Funktionen wie Sky AI und andere KI-gestützte Werkzeuge, aber die sichtbaren Preise sind dynamisch und planabhängig; sie lassen sich nicht so sauber auf eine feste Zahl wie „$79–129“ eindampfen, ohne den jeweiligen Angebotszeitpunkt mitzudenken. (skylum.com)

Wichtig ist auch: Adobe hat Sky Replacement längst selbst in Photoshop integriert. Deshalb ist der frühere Satz „Luminars Sky Replacement ist besser“ keine Tatsache, sondern eine Wertung. Faktisch belegbar ist nur: beide bieten Himmeltausch. (Adobe Hilfezentrum)

Saubere Einordnung:
Relevant, populär, stark vermarktet — aber 2026 eher als Hybrid aus Editor und Plugin lesen, nicht als bloßes kleines Zusatzmodul.


5. ON1 Effects / ON1 Photo RAW

ON1 Effects 2026 existiert weiterhin offiziell und wird von ON1 als kreatives Effekt-Tool mit Presets, Filtern, LUTs, Texturen und Borders beworben. ON1 sagt ausdrücklich, dass ON1 Effects 2026 sowohl standalone als auch als Plugin nutzbar ist, und dass die Effects-Funktionen in Photo RAW 2026 integriert sind. (on1.com)

Genau deshalb war die alte Darstellung schief: ON1 ist 2026 nicht sauber nur ein „Photoshop-Plugin“, sondern eher ein eigenes Ökosystem mit Plugin-Funktion. Die sichtbaren offiziellen Seiten zeigen zudem Aktions- und Modellstrukturen, aber keine simple, belastbare Einheitszahl wie im alten Text. (on1.com)

Saubere Einordnung:
Workflowrelevant, aber eher Suite/Ökosystem als klassisches Punkt-Plugin.


6. TK9 Plugin

Tony Kuypers TK9 Plugin ist weiterhin aktiv. Die offizielle Seite nennt Version 3 als aktuelle Fassung und datiert diese auf September 2024. Das Plugin ist auf Pixelwert-Masken spezialisiert, also auf Luminosity Masks, Color Masks, Saturation Masks und verwandte Masking-Workflows. Die offizielle Verkaufsseite listet TK9 v3 aktuell mit $33. (GoodLight.us)

Hier ist der Kern des ursprünglichen Textes recht solide: Das Tool ist ein echter Spezialist für präzises Masking. Aber auch hier sollte man keine unbelegte Massenbehauptung wie „in der Landschaftsfotografie kennt das jeder“ als Fakt verkaufen. Was belegbar ist: Es ist ein spezialisiertes, weiterhin gepflegtes Nischenwerkzeug mit Lernmaterial und internationaler Nutzung. (GoodLight.us)

Saubere Einordnung:
Kein Massenplugin, sondern ein ernstzunehmendes Präzisionswerkzeug für Anwender, die tiefer in Photoshop arbeiten wollen.


7. RH Hover Color Picker

Dieses Tool ist ein gutes Beispiel dafür, wie ein kleines Plugin ein echtes Nervproblem löst. Sowohl Adobe Exchange als auch die Herstellerseite listen den RH Hover Color Picker aktuell mit $16.00. (exchange.adobe.com)

Der ursprüngliche Preis von $10 ist damit klar veraltet. Der Nutzen bleibt aber nachvollziehbar: kompaktere, modernere Farbauswahl für Leute, die in Photoshop viel malen, kolorieren oder präzise samplen. (exchange.adobe.com)

Saubere Einordnung:
Kleines, klar umrissenes Workflow-Tool. Der alte Preis war falsch.


8. GuideGuide

GuideGuide gibt es noch, aber auch hier war die Preisdarstellung im alten Artikel daneben. Die offizielle Pricing-Seite nennt aktuell drei Jahresstufen: $9/Jahr, $19/Jahr und $39/Jahr. (guideguide.me)

Der alte Text mit „$20 einmalig oder $5/Monat“ ist damit nicht mehr aktuell. Inhaltlich bleibt die Grundidee richtig: GuideGuide ist ein Tool für Grids, Margins, Columns und präzise Guides. Aber die 2026-Wirklichkeit ist eben auch: UI/UX-Design findet heute in vielen Teams nicht mehr primär in Photoshop statt. Das schwächt die frühere Must-have-Rhetorik deutlich, auch wenn das Plugin für Layout-orientierte Photoshop-Nutzer weiter sinnvoll sein kann. (guideguide.me)

Saubere Einordnung:
Noch relevant für bestimmte Layout-Workflows, aber längst kein universelles Designer-Muss mehr.


9. Coolorus

Coolorus existiert weiterhin. Die offizielle Seite nennt $16.99 für den Kauf und $9.99 für ein Upgrade. Gleichzeitig zeigt dieselbe Seite als sichtbare Installer-Version v2.5.17, updated 30.10.2021. (coolorus.com)

Das ist der Punkt, den man im Artikel nicht schönreden darf: Ja, Coolorus ist noch da. Ja, es bleibt für Maler und Illustratoren attraktiv. Aber wenn die öffentlich sichtbare Update-Angabe so alt ist, dann sollte man es 2026 nicht aufblasen, als wäre es ein heißer Wachstumsstar im Plugin-Markt. (coolorus.com)

Saubere Einordnung:
Nischenwerkzeug mit treuer Zielgruppe, aber sichtbar älterer Produktpflege.


10. Photomatix Pro

Hier musste im alten Text am stärksten aufgeräumt werden. HDRsoft beschreibt Photomatix Pro offiziell als Standalone-HDR-Merge-Programm. Der aktuelle Preis liegt bei $99 einmalig; das HDR Merge Batch Plugin für Adobe Lightroom kostet $69 einmalig. Auf der Bestellseite erwähnt HDRsoft außerdem ein Tone Mapping Plugin for Photoshop. (hdrsoft.com)

Das heißt: Photomatix ist nicht komplett pluginfrei, aber die frühere Darstellung als klassischer Photoshop-Top-Plugin-Star war zu grob. Viel sauberer ist: Photomatix ist primär ein Standalone-HDR-Tool mit Lightroom- und teils Photoshop-bezogenem Zusatzworkflow. (hdrsoft.com)

Saubere Einordnung:
Relevantes HDR-Werkzeug, aber nicht sauber als reines Photoshop-Plugin zu verkaufen.


Was 2026 wirklich anders ist

1. Adobe frisst Teile des Plugin-Markts

Der größte Wandel ist nicht ein neues Plugin, sondern Adobes Aufholjagd. Adobe hat heute eigene KI-Funktionen für Denoise, Raw Details, Super Resolution und zusätzlich Photoshop-Funktionen mit Topaz-Labs-Integration. Dazu kommt natives Sky Replacement. Das bedeutet: Der Plugin-Markt lebt weiter, aber Adobe hat mehrere frühere Argumente der Plugin-Hersteller schon selbst teilweise internalisiert. (Adobe Hilfezentrum)

2. Viele „Plugins“ sind heute eigentlich Hybrid-Produkte

Luminar Neo, ON1 und Topaz sind 2026 nicht mehr hübsch in die kleine Schublade „Plugin“ zu sperren. Sie sind oft Standalone + Plugin + Abo-/Lizenzmodell + Cloud-/KI-Bausteine. Wer darüber schreibt wie 2018, schreibt an der Gegenwart vorbei. (on1.com)

3. Preise sind weniger stabil geworden

Mehrere Anbieter arbeiten heute mit Aktionspreisen, Jahresmodellen, Bundles, Cross-Device-Lizenzen oder Pro-Plänen. Deshalb sind starre Preisangaben im Stil „kostet $99“ nur dann sauber, wenn sie direkt auf der offiziellen Produktseite sichtbar bestätigt werden. Das war beim alten Text mehrfach nicht der Fall. (shop.dxo.com)


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.