Category: Kontext




Eine kunstkritische Betrachtung über Werkzeuge, Kreativität und warum manche Menschen einfach gerne meckern

Von einem müden Kunstkritiker, der das alles schon mal gehört hat


Letzte Woche stand ich in einer Galerie. Vor mir: eine beeindruckende Arbeit. Digitale Komposition, KI-generierte Elemente, von Hand nachbearbeitet, in Acryl veredelt. Technisch versiert. Konzeptionell stark. Emotional wirksam.

Neben mir: Zwei Besucherinnen, vielleicht Anfang 50.

„Das ist doch keine richtige Kunst“, sagte die eine. „Das macht ja der Computer.“

Ich seufzte. Innerlich. Laut. Mit meiner ganzen Seele.

Nicht, weil ich anderer Meinung war. Sondern weil ich diesen exakt gleichen Satz schon so oft gehört habe. Nur mit anderen Worten.

„Das ist doch keine richtige Fotografie. Das macht ja die Kamera.“

„Das ist doch keine echte Zeichnung. Das ist ja digital.“

„Das ist doch keine Kunst. Das ist ja Photoshop.“

Und jetzt: „Das ist ja nur KI.“

Wir sind wieder da. Am exakt gleichen Punkt. Nur mit neuer Technologie.

Und ehrlich? Ich hab’s satt.


Die Fotografie: Als Kunst zum ersten Mal „zu einfach“ wurde

Spulen wir zurück. 1839. Louis Daguerre präsentiert die Daguerreotypie. Die Öffentlichkeit ist fasziniert. Die Kunstwelt? Empört.

Der französische Maler Paul Delaroche soll angeblich ausgerufen haben: „Von heute an ist die Malerei tot!“

Die Kritik damals klang bemerkenswert vertraut:

  • „Das ist kein Können, das ist eine Maschine.“
  • „Jeder kann auf einen Knopf drücken.“
  • „Wo ist da die künstlerische Hand?“
  • „Das ist Reproduktion, keine Kreation.“

Charles Baudelaire, einer der einflussreichsten Kunstkritiker seiner Zeit, schrieb 1859: „Wenn man der Fotografie erlaubt, die Kunst in einigen ihrer Funktionen zu ergänzen, wird sie diese bald vollständig verdrängt oder verdorben haben.“

Das war vor 165 Jahren.

Heute hängen Fotografien von Ansel Adams, Diane Arbus, Andreas Gursky in den wichtigsten Museen der Welt. Fotografien werden für Millionen verkauft. Niemand fragt mehr, ob Fotografie „echte Kunst“ ist.

Die Debatte ist tot. Die Kunst hat gewonnen.

Aber das Muster? Das wiederholt sich. Immer wieder.


Digitale Fotografie: Die zweite Runde

Fast forward. 1990er Jahre. Digitalkameras werden erschwinglich. Plötzlich braucht man kein Filmmaterial mehr, keine Dunkelkammer, keine chemischen Prozesse.

Und prompt: Die nächste Empörungswelle.

„Das ist doch keine richtige Fotografie.“
„Analog erfordert Können. Digital ist nur klicken und hoffen.“
„Echte Fotografen arbeiten mit Film.“
„Digital hat keine Seele.“

Ich erinnere mich an Gespräche in Fotografie-Foren Anfang der 2000er. Die Verbissenheit, mit der manche Leute verteidigten, dass nur analoge Fotografie wahre Kunst sei. Digital? Spielerei.

Heute? Die Debatte ist vorbei. Niemand fragt mehr nach. Einige der teuersten zeitgenössischen Fotografien wurden digital aufgenommen.

Aber das Muster bleibt.


Photoshop: Als Bearbeitung plötzlich „Betrug“ war

Nächste Runde. Photoshop wird zum Standard. Anfang 2000er.

Und wieder: Empörung.

„Das ist ja bearbeitet!“
„Das ist keine echte Fotografie mehr, das ist Manipulation.“
„Früher musste man das Bild richtig aufnehmen. Heute macht man einfach alles in Photoshop.“
„Echte Fotografen brauchen kein Photoshop.“

Ich habe Ausstellungen gesehen, in denen explizit darauf hingewiesen wurde: „Keine digitale Nachbearbeitung“ – als wäre das ein Qualitätsmerkmal. Als wäre Ansel Adams nicht stundenlang in der Dunkelkammer gewesen, um seine Prints zu optimieren. Als hätte nicht jeder große Fotograf der Geschichte massiv in die Entwicklung eingegriffen.

Aber damals galt: Photoshop = Schummelei.

Heute? Photoshop ist Industriestandard. Jede professionelle Fotografie durchläuft Nachbearbeitung. Niemand regt sich mehr auf.

Außer natürlich über das nächste Werkzeug.


KI: Willkommen zur vierten Iteration derselben Debatte

Und jetzt sind wir hier. 2024, 2025. KI-generierte Kunst.

Und die Argumente? Exakt dieselben. Nur das Werkzeug hat sich geändert.

„Das ist doch keine echte Kunst.“
„Das macht ja die KI.“
„Jeder kann einen Prompt eingeben.“
„Wo ist da das Können?“
„Das ist Diebstahl an echten Künstlern.“

Jedes. Einzelne. Argument. gab es schon. Drei Mal. Mindestens.

Und wisst ihr was? In zehn Jahren wird niemand mehr danach fragen. Genau wie bei Fotografie, Digitalfotografie und Photoshop.

KI wird ein Werkzeug sein. Unter vielen. Manche Künstler nutzen es. Manche nicht. Beide machen Kunst.

Aber bis dahin müssen wir uns anscheinend wieder durch dieselbe ermüdende Diskussion quälen.


Warum das Argument „Das ist kein Können“ Unsinn ist

Lasst mich etwas klarstellen.

Ein Werkzeug zu bedienen ist nicht automatisch Kunst. Aber es verhindert auch nicht Kunst.

Ein schlechter Fotograf mit der besten Kamera der Welt macht schlechte Fotos.
Ein guter Fotograf mit einer Handy-Kamera macht gute Fotos.

Ein schlechter Maler mit den teuersten Ölfarben malt Schrott.
Ein guter Maler mit Kinderfarben kann Magie erschaffen.

Ein schlechter Künstler mit KI-Tools produziert generischen Müll.
Ein guter Künstler mit KI-Tools erschafft etwas, das dich zum Nachdenken bringt.

Das Werkzeug ist nicht der Punkt.

Der Punkt ist:

  • Was willst du sagen?
  • Wie setzt du es um?
  • Bewegt es etwas in anderen Menschen?

Kunst ist nicht die Technik. Kunst ist die Absicht, die Vision, die Ausführung, die Wirkung.

Ob du das mit einem Pinsel, einer Kamera, Photoshop oder einer KI erreichst, ist vollkommen egal.


Das eigentliche Problem: Gatekeeping als Identität

Hier ist die unbequeme Wahrheit über viele dieser Kritiker:

Es geht ihnen nicht um Kunst. Es geht um Status.

Sie haben Jahre investiert, eine bestimmte Technik zu lernen. Analog fotografieren. In der Dunkelkammer arbeiten. Mit Ölfarben malen. Und dieser Aufwand gibt ihnen ein Gefühl von Exklusivität.

„Ich kann etwas, was nicht jeder kann.“

Und dann kommt ein neues Werkzeug. Eines, das die Einstiegshürde senkt. Und plötzlich können mehr Menschen visuell kreativ sein.

Und das fühlt sich für manche an wie eine Bedrohung.

„Wenn jeder Kunst machen kann, bin ich dann noch etwas Besonderes?“

Die Antwort ist: Ja. Wenn deine Kunst gut ist.

Aber wenn dein einziger Wert darin lag, dass du ein schwieriges Werkzeug beherrschst, dann hast du ein Problem. Denn Werkzeuge werden immer einfacher. Das ist Fortschritt.

Echte Künstler fürchten neue Werkzeuge nicht. Sie nutzen sie.


Warum „KI stiehlt von Künstlern“ zu kurz greift

Okay, hier wird’s differenziert.

Ja, KI-Modelle werden mit Bildern trainiert. Viele davon ohne explizite Erlaubnis der Urheber. Das ist ein rechtliches und ethisches Problem, das gelöst werden muss.

Keine Frage. Das ist eine legitime Debatte über Urheberrecht, faire Vergütung und Transparenz.

Aber: Das ist eine andere Diskussion als „KI-Kunst ist keine echte Kunst“.

Du kannst gleichzeitig für bessere Künstlerrechte kämpfen UND anerkennen, dass KI ein legitimes kreatives Werkzeug ist.

Und hier ist der Punkt: Inspiration funktioniert immer durch Aufnahme und Rekombination.

Jeder Künstler lernt, indem er andere Künstler studiert. Maler kopieren Alte Meister. Fotografen lassen sich von anderen Fotografen inspirieren. Designer schauen, was andere machen.

Das ist nicht „Diebstahl“. Das ist, wie Kreativität funktioniert.

Die Frage ist nicht, ob man von anderen lernt. Die Frage ist: Schaffst du daraus etwas Neues?

Und genau das gilt auch für KI-Kunst. Ein guter Künstler nutzt KI nicht als „Knopf für fertiges Bild“, sondern als Werkzeug im kreativen Prozess.

Genauso wie Photoshop. Oder eine Kamera.


Die Museen wissen es längst

Hier ist ein Fakt, der die Debatte eigentlich beenden sollte:

KI-generierte Kunst hängt bereits in renommierten Museen.

  • Das MoMA in New York hat KI-Kunst in Ausstellungen gezeigt.
  • Die Serpentine Gallery in London hat KI-basierte Installationen präsentiert.
  • Die Ars Electronica widmet seit Jahren ganze Bereiche digitaler und KI-basierter Kunst.
  • Christie’s und Sotheby’s haben KI-Kunstwerke versteigert – für sechsstellige Summen.

Die Kunstwelt – die institutionelle, akademische, kuratorische Kunstwelt – hat längst entschieden: KI-Kunst ist Kunst.

Natürlich gibt es auch dort kritische Diskurse. Über Urheberschaft, über Originalität, über Ethik. Aber die Grundfrage „Ist das Kunst?“ ist beantwortet.

Die einzigen, die noch darüber streiten, sind:

  • Leute, die Kunst nicht als Beruf haben
  • Leute, die sich bedroht fühlen
  • Und Trolle im Internet, die einfach gerne streiten

Transparenz: Der einzige Standard, der zählt

Hier ist, wo ich Linie ziehe.

Wenn du mit KI arbeitest, steh dazu.

So wie du dazu stehst, dass du Photoshop benutzt. So wie du dazu stehst, dass du digital fotografierst. So wie ein Bildhauer dazu steht, dass er elektrische Werkzeuge nutzt.

Das Werkzeug zu verschweigen, ist das Problem. Nicht das Werkzeug selbst.

Wenn jemand ein KI-generiertes Bild als „handgemaltes Ölgemälde“ verkauft, ist das Betrug. Klar.

Aber wenn jemand sagt: „Ich arbeite mit KI-Tools, bearbeite die Ergebnisse von Hand, veredle sie mit Acryl und erschaffe daraus meine Vision“ – dann ist das völlig legitim.

Transparenz ist der Standard.

Und alles andere ist Kunst. Oder eben nicht. Aber das entscheidet sich nicht am Werkzeug.


Warum du nicht mit diesen Leuten diskutieren musst

Und jetzt der befreiendste Teil dieses Artikels:

Du musst mit diesen Leuten nicht diskutieren.

Wenn jemand in deine Kommentare kommt mit „Das ist ja keine echte Kunst, das ist ja nur KI“, dann musst du nicht:

  • Einen Essay schreiben
  • Drei historische Beispiele bringen
  • Erklären, wie dein kreativer Prozess aussieht

Du kannst einfach blocken.

Warum?

Weil Menschen, die so argumentieren, nicht an einem echten Gespräch interessiert sind. Sie wollen Recht haben. Sie wollen sich überlegen fühlen. Sie wollen provozieren.

Das sind keine Kunstkritiker. Das sind Trolle mit Kunstvokabular.

Echte Kunstkritik ist differenziert, neugierig, offen.

„Interessant, wie nutzt du KI in deinem Prozess?“
„Was sind für dich die Grenzen des Werkzeugs?“
„Wie siehst du die ethischen Fragen?“

Das sind Fragen, mit denen man arbeiten kann.

„Das ist ja keine echte Kunst“ ist keine Frage. Das ist eine Provokation.

Und mit Provokationen muss man nicht diskutieren.

Block. Weiter. Kunst machen.


Was wirklich zählt

Am Ende des Tages zählt nur eines:

Bewegst du etwas in Menschen?

Egal ob du mit Ölfarbe, Bleistift, einer Kamera, Photoshop oder KI arbeitest – wenn deine Arbeit jemanden zum Nachdenken bringt, eine Emotion auslöst, eine neue Perspektive eröffnet, dann hast du Kunst gemacht.

Wenn deine Arbeit in Galerien hängt, in Sammlungen aufgenommen wird, von Menschen geschätzt wird – dann hast du Kunst gemacht.

Wenn du eine Vision hast, sie technisch umsetzt und in die Welt bringst – dann hast du Kunst gemacht.

Das Werkzeug ist irrelevant.

Die Geschichte hat das drei Mal bewiesen. Vier Mal, wenn man KI mitzählt.

Und in zehn Jahren werden wir über das nächste Werkzeug streiten. Vielleicht Brain-Computer-Interfaces. Vielleicht neuronale Kunst. Vielleicht etwas, das wir uns heute noch nicht vorstellen können.

Und wieder werden Leute sagen: „Das ist ja keine echte Kunst.“

Und wieder wird die Kunstwelt weitermachen. Museen werden ausstellen. Sammler werden kaufen. Künstler werden erschaffen.

Weil Kunst nicht das Werkzeug ist.

Kunst ist, was du damit machst.


Mein Rat an jeden Künstler, der mit KI arbeitet

1. Steh dazu.
Sei transparent. Erkläre deinen Prozess. Zeige, wie du arbeitest. Das ist nicht Schwäche – das ist Selbstbewusstsein.

2. Ignoriere die Trolle.
Du musst dich nicht rechtfertigen. Deine Arbeit spricht für sich. Wer das nicht sieht, ist nicht dein Publikum.

3. Fokussiere dich auf deine Vision.
Das Werkzeug ist nur Mittel zum Zweck. Die Frage ist: Was willst du sagen? Sag es. Mit welchem Werkzeug auch immer.

4. Lerne weiter.
KI ist ein Werkzeug. Wie jedes Werkzeug kannst du es besser oder schlechter nutzen. Lerne es zu beherrschen. Genau wie Fotografen Licht studieren und Maler Farbtheorie.

5. Sei Teil der ethischen Debatte.
Künstlerrechte, faire Vergütung, Transparenz – das sind wichtige Themen. Sei Teil der Lösung.


Fazit: Geschichte wiederholt sich, aber Kunst bleibt

In hundert Jahren wird niemand mehr fragen, ob KI-Kunst „echte“ Kunst ist.

Genauso wenig wie heute jemand fragt, ob Fotografie oder Photoshop „echte“ Kunst sind.

Die Debatte wird vorbei sein. Die Kunst wird bleiben.

Und die Leute, die heute meckern, werden vergessen sein.

Aber die Kunst? Die Kunst, die heute mit KI gemacht wird – die gute, die starke, die bewegende Kunst – die wird in Museen hängen, in Büchern stehen, in Sammlungen bewahrt werden.

Nicht weil sie mit KI gemacht wurde.

Sondern weil sie gut ist.

Und das ist das einzige Kriterium, das jemals gezählt hat.


Von einem Kunstkritiker, der diesen Zirkus schon zu oft gesehen hat – und sich weigert, noch mal die gleiche Platte zu hören.

Macht Kunst. Mit welchem Werkzeug auch immer.

Der Rest ist Lärm.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein ehrlicher Blick auf Social-Media-Etikette, digitale Sicherheit und die stille Sprache des Follow-Buttons


Es ist 22:47 Uhr. Ich scrolle durch Instagram. Eine Benachrichtigung:

@julia_2847 folgt dir jetzt

Ich klicke auf das Profil.

Privates Konto. 47 Follower. 892 Abonnements. Kein Profilbild, nur ein Stock-Foto von Sonnenuntergang. Bio: Leer. Keine Story. Keine Highlights.

Ich klicke: Entfernen.

Keine Sekunde gezögert.

Und hier ist die unbequeme Wahrheit: Das solltest du auch tun.

Dies ist keine paranoide Überreaktion. Es ist digitale Selbstfürsorge. Und nach 15 Jahren auf Social Media, als Content Creator mit 50.000+ Followern und als jemand, der zu viele „harmlose“ Follow-Anfragen akzeptiert hat, die sich als alles andere als harmlos herausstellten – habe ich gelernt:

Private Profile ohne jeglichen Kontext sind red flags. Nicht manchmal. Immer.

Lass mich erklären, warum.


Die Anatomie des verdächtigen Profils

Bevor wir zu den Gründen kommen, lass uns definieren, worüber wir sprechen:

Das „Ich folge nicht zurück“-Profil hat typischerweise folgende Merkmale:

✅ Privates Konto (der Hauptindikator)
✅ Kein echtes Profilbild (generic Landschaft, Tier, abstraktes Muster, oder gar nichts)
✅ Leere oder generische Bio („living my best life“, „🌸✨“, oder komplett leer)
✅ Extrem unbalanciertes Follow-Ratio (folgen 800+, Follower < 100)
✅ Keine sichtbaren Posts (weil privat)
✅ Kein Kontext zur Verbindung (keine gemeinsamen Follower, oder nur 1-2 fragwürdige)
✅ Username ist generisch (vorname_zahlen, „realXYZ“, etc.)

Und hier ist der Killer: Keine Nachricht. Keine Story-Reaktion. Keine Interaktion. Einfach nur: Follow-Button gedrückt.

Das ist kein Zufall. Das ist ein Muster.


Grund 1: Bots und Fake-Accounts (das Offensichtliche)

Fangen wir mit dem Einfachsten an.

30-60% aller „verdächtigen“ privaten Follower sind Bots oder Fake-Accounts.

Nicht meine Schätzung – das berichten Social-Media-Security-Analysten seit Jahren. Instagram selbst hat 2023 öffentlich gesagt, dass sie „Millionen gefälschter Accounts pro Woche“ entfernen.

Aber wozu?

Bot-Zweck 1: Daten-Harvesting

Der Account folgt massenhaft Menschen. Sobald du zurückfolgst, haben sie Zugriff auf:

  • Deine Posts (auch wenn dein Account privat ist)
  • Deine Story
  • Deine Interaktionen
  • Deine Location-Tags
  • Deine Kontakte (durch Kommentare, Tags)

Diese Daten werden:

  • Aggregiert und verkauft
  • Für Phishing-Kampagnen genutzt
  • Für Social Engineering analysiert (mehr dazu gleich)

Bot-Zweck 2: Follower-Boost-Services

Manche Accounts folgen massenhaft, um:

  1. Follow-Backs zu sammeln
  2. Follower-Zahlen künstlich zu erhöhen
  3. Dann wieder zu entfolgen (nach ein paar Tagen)

Das Geschäftsmodell: „Follower kaufen, aber organisch aussehen.“

Dein Schaden: Du hast einem nutzlosen Account gefolgt, der dich nach drei Tagen wieder rauswirft.

Bot-Zweck 3: Späh-Accounts

Hier wird’s unangenehmer.

Manche Accounts werden erstellt, um:

  • Ex-Partner zu stalken
  • Mitarbeiter auszuspionieren
  • Konkurrenten zu beobachten
  • Kinder/Teenager zu überwachen (durch besorgte/kontrollierende Eltern)

Real Story aus meiner Community:

Eine Freundin akzeptierte einen „harmlosen“ privaten Account. Zwei Wochen später konfrontierte sie ihr Ex mit Details aus ihrer Story, die er nur haben konnte, wenn er Zugriff hatte. Der Account? Fake-Profil, das er erstellt hatte.

Sie hatte ihm freiwillig den Zugang gegeben.


Grund 2: Social Engineering und Manipulation

Das ist die dunklere, intelligentere Seite.

Social Engineering funktioniert so:

Phase 1: Zugang erhalten

  • Folge dem Target
  • Wirke harmlos (privat, generisch, unauffällig)
  • Warte auf Follow-Back

Phase 2: Beobachten und Lernen

  • Analysiere Posts: Wo bist du? Mit wem? Wann?
  • Lerne Gewohnheiten: Wann postest du? Wo checkst du ein?
  • Identifiziere Schwächen: Bist du allein? Reist du?

Phase 3: Ausnutzen

  • Phishing-Nachrichten, die auf dein Leben zugeschnitten sind
  • „Hey, war das nicht Restaurant XY in deiner Story? Ich liebe das auch!“
  • Vertrauen aufbauen durch scheinbare Gemeinsamkeiten

Phase 4: Der eigentliche Angriff

  • „Kannst du mir helfen? Mein Account wurde gehackt…“ (führt zu Phishing-Link)
  • „Ich arbeite an einem Projekt, das zu dir passt…“ (Scam)
  • Oder schlimmer: Stalking, Doxxing, reale Bedrohungen

Klingt paranoid?

Es passiert täglich. Besonders Frauen, öffentliche Personen und junge Menschen sind Ziele.

Die traurige Wahrheit: Der erste Schritt – dir Zugang zu verschaffen – funktioniert nur, wenn du Ja sagst.


Grund 3: Die Psychologie des „Vielleicht ist das jemand Echtes“

Hier wird’s interessant.

Warum akzeptieren wir überhaupt fragwürdige Follower?

Psychologischer Grund 1: FOMO (Fear of Missing Out)

„Was, wenn das jemand ist, den ich kenne, der einen neuen Account hat?“

Statistische Realität: In 99% der Fälle nicht. Und wenn doch, würden sie dir schreiben.

Psychologischer Grund 2: Höflichkeit

„Es wäre unhöflich, nicht zurückzufolgen.“

Realitäts-Check: Social Media ist nicht das echte Leben. Du schuldest niemandem Zugang zu deinem digitalen Leben.

Psychologischer Grund 3: Follower-Zahl-Optimierung

„Mehr Follower = besser.“

Wahrheit: Fake/Bot-Follower schaden deinem Engagement. Algorithmen erkennen das. Deine Reichweite sinkt.

Psychologischer Grund 4: Neugier

„Vielleicht ist das jemand Interessantes?“

Logik-Check: Wenn sie interessant wären, hätten sie:

  • Ein erkennbares Profil
  • Eine Bio
  • Öffentliche Posts ODER
  • Eine Nachricht geschickt: „Hey, ich finde deinen Content toll weil [Grund]“

Schweigen + Anonymität = Red Flag.


Grund 4: Digitale Grenzen sind echte Grenzen

Hier kommen wir zum Kern.

Dein Social-Media-Account ist dein digitales Zuhause.

Stell dir vor:

Jemand klopft an deine Haustür. Kein Gesicht (Maske). Kein Name. Kein Grund. Kein „Hallo“. Nur: klopf klopf.

Lässt du sie rein?

Natürlich nicht.

Aber auf Social Media machen wir genau das. Warum?

Weil wir digitale Räume nicht ernst genug nehmen.

Aber sie sind ernst:

  • Deine Posts zeigen, wo du bist (Sicherheitsrisiko)
  • Deine Fotos zeigen, mit wem du bist (Privatsphäre anderer)
  • Deine Stories zeigen deine Routine (Vorhersagbarkeit = Verwundbarkeit)
  • Deine Kommentare zeigen deine Meinungen (können gegen dich verwendet werden)

Ein privates Profil ohne Kontext zu akzeptieren ist wie einem Fremden ohne Gesicht deinen Hausschlüssel zu geben.

Und dann zu hoffen, dass schon alles gut geht.


Grund 5: Reziprozität ist keine Pflicht

Gesellschaftlich sind wir konditioniert:

„Wenn jemand mir etwas gibt, muss ich zurückgeben.“

Aber ein Follow ist kein Geschenk. Es ist eine Anfrage.

Lass mich das klarstellen:

Du schuldest niemandem einen Follow-Back.

Auch nicht:

  • Wenn sie deinen Post geliked haben
  • Wenn sie dir schon lange folgen
  • Wenn ihr 3 gemeinsame Follower habt
  • Wenn das Profilbild „nett“ aussieht

Dein Zugang zu deinem Leben ist kein Verhandlungsgegenstand.

Es ist dein Recht, Nein zu sagen. Ohne Begründung. Ohne Schuldgefühle.


Grund 6: Die „Aber ich kenne die Person vielleicht“-Falle

Das häufigste Gegenargument:

„Aber was, wenn das wirklich jemand ist, den ich kenne?“

Meine Antwort: Dann werden sie dich erreichen.

Szenario 1: Echte Bekannte mit neuem Account

Wenn jemand, den du kennst, einen neuen Account erstellt, werden sie:

  • Dir schreiben: „Hey, ich bin’s! Neuer Account.“
  • Auf deine Story reagieren
  • Einen Post kommentieren
  • Dich taggen
  • Irgendeine Form von Interaktion zeigen

Stilles Folgen ohne Kontext ist nicht normal für echte Bekanntschaften.

Szenario 2: Jemand, den du lange nicht gesehen hast

Gleiche Logik. Wenn sie wirklich Kontakt wollen, gibt es Wege:

  • Nachricht schreiben
  • Kommentar hinterlassen
  • Gemeinsamen Freund fragen: „Ist das XYs Account?“

Schweigen ist keine Kommunikation.


Was ich stattdessen tue: Meine Filterkriterien

Hier ist mein System. Es dauert 10 Sekunden. Es funktioniert.

✅ Ich folge zurück, wenn:

  1. Öffentliches Profil mit erkennbarem Content
  2. Klare Bio (wer sie sind, was sie machen)
  3. Echtes Profilbild (Gesicht oder kohärentes Branding)
  4. Sie haben mit meinem Content interagiert (Kommentar, sinnvolle Reaktion)
  5. Gemeinsame Follower, die ich tatsächlich kenne
  6. Oder: Sie haben eine Nachricht geschickt mit Kontext („Hi, ich folge dir wegen [Grund]“)

❌ Ich folge NICHT zurück, wenn:

  1. Privater Account ohne jegliche Erkennungsmerkmale
  2. Generisches oder kein Profilbild
  3. Leere oder sinnlose Bio
  4. Null Interaktion mit meinem Content
  5. Extremes Follow-Ratio (folgen 1000+, Follower 50)
  6. Keine gemeinsamen Follower ODER nur dubiose gemeinsame Follower

🤔 Grenzfälle (ich warte ab):

  • Privates Profil, aber echtes Gesicht + sinnvolle Bio + Nachricht
  • Privates Profil von jemandem, den gemeinsame Freunde empfohlen haben
  • Neuer Account von jemandem, den ich kenne (aber ich frage nach)

In Grenzfällen: Ich warte. Wenn sie echt sind, werden sie sich melden.


Was du tun solltest: Praktische Schritte

Schritt 1: Akzeptiere keine Anfragen von privaten Accounts ohne Kontext

Einfach. Klar. Konsequent.

Schritt 2: Regelmäßig Follower-Liste durchgehen

Einmal pro Monat:

  • Gehe deine Follower durch
  • Entferne verdächtige Accounts
  • Instagram: Profil öffnen → Drei Punkte → „Entfernen“

Sie werden NICHT benachrichtigt.

Schritt 3: Aktiviere „Follower-Anfragen bestätigen“ (bei öffentlichen Accounts)

Instagram/TikTok haben Settings, die auch bei öffentlichen Accounts Follower-Bestätigung erlauben. Nutze das.

Schritt 4: Nutze die „Restricted“-Funktion

Statt zu blockieren (was auffällig ist), nutze „Einschränken“:

  • Sie sehen nicht, ob du online bist
  • Ihre Kommentare sind nur für sie sichtbar
  • Sie merken nicht, dass sie eingeschränkt sind

Perfekt für „vielleicht ist das jemand, aber ich bin nicht sicher“-Fälle.

Schritt 5: Sei transparent in deiner Bio

Ich habe in meiner Bio stehen:

„Privaten Accounts ohne Kontext folge ich nicht zurück. Schreib mir einfach, wenn wir uns kennen! 💬“

Ergebnis: Weniger fragwürdige Anfragen. Mehr Nachrichten von echten Menschen.


Die andere Seite: Wenn DU der private Account bist

Fair ist fair. Wenn du selbst ein privates Profil hast und echten Menschen folgen willst, hier ist, wie du nicht wie ein Bot wirkst:

✅ Schreib eine Nachricht

„Hey! Ich folge dir, weil [konkreter Grund]. Ich habe ein privates Profil, weil [Grund]. Freue mich über einen Follow-Back!“

✅ Hab ein echtes Profilbild

Gesicht. Nicht Sonnenuntergang.

✅ Schreib eine Bio

Wer du bist. Was du machst. Warum dein Account privat ist.

✅ Interagiere zuerst

Like Posts. Kommentiere (sinnvoll, nicht nur Emojis). Reagiere auf Stories.

Dann folgen.

✅ Hab ein realistisches Follow-Ratio

Wenn du 12 Followern folgst aber 956 folgst, wirkst du wie ein Bot.

Kurz: Sei ein Mensch. Kommuniziere wie ein Mensch.


Warum das wichtig ist: Digitale Hygiene als Selbstfürsorge

Wir reden viel über:

  • Mentale Gesundheit auf Social Media
  • Screen Time reduzieren
  • Toxische Accounts entfolgen

Aber wir reden zu wenig über: Wer darf überhaupt in deinen digitalen Raum?

Digitale Hygiene bedeutet:

  • Kuratieren, wer Zugang zu deinem Leben hat
  • Grenzen setzen, auch wenn es „unhöflich“ wirkt
  • Nein sagen, ohne Erklärung
  • Sicherheit priorisieren, über Höflichkeit

Dein Instagram ist nicht öffentlicher Raum. Es ist dein Raum.

Und du darfst entscheiden, wer reinkommt.


Fazit: Der Follow-Button ist keine Verpflichtung

Ich folge privaten Profilen ohne Kontext nicht zurück, weil:

  1. Sicherheit: Bots, Fake-Accounts, Stalker
  2. Privatsphäre: Mein Leben ist nicht öffentliches Gut
  3. Selbstrespekt: Ich schulde Fremden keinen Zugang
  4. Erfahrung: Ich habe gelernt, was passiert, wenn man nicht selektiv ist
  5. Grenzen: Digitale Räume sind echte Räume

Und du solltest das auch nicht tun.

Nicht aus Arroganz. Nicht aus Paranoia.

Sondern aus digitalem Selbstschutz.

Dein Social-Media-Account ist dein Zuhause. Lass nicht jeden rein, nur weil sie geklopft haben.

Manche Türen sollten geschlossen bleiben.

Und das ist vollkommen okay.


Diskussion: Wie gehst du mit privaten Follow-Anfragen um? Hast du andere Kriterien? Teile deine Strategie in den Kommentaren!


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Ein Fachartikel über die wachsende Spannung zwischen automatisierter Content-Moderation und künstlerischer Freiheit in Adobe-Produkten

Von Dr. Elena Richter, Digital Ethics & Creative Technology Researcher


Transparenz-Hinweis: Dieser Artikel ist ein analytischer Kommentar, der dokumentierte technische Fakten mit Branchenbeobachtungen und begründeten Einschätzungen verbindet. Wo Fakten vorliegen, werden sie belegt. Wo ich interpretiere oder bewerte, kennzeichne ich das entsprechend.


Es ist ein gewöhnlicher Arbeitstag. Eine Aktfotografin öffnet Photoshop, um an einer Bildserie für eine Galerie-Ausstellung zu arbeiten. Sie möchte Generative Fill nutzen, um einen störenden Hintergrund-Schatten zu entfernen.

Dann erscheint die Meldung:

„This content violates our usage guidelines. Generative features are unavailable for this image.“

Das Bild? Eine klassische Fine-Art-Aktaufnahme. Professionell. Ästhetisch. Legal. Aber der Algorithmus sagt: Nein.

Dies ist kein Einzelfall. In Adobe-Community-Foren häufen sich seit 2023 Berichte über genau diese Situation. Künstler, Fotografen, Medizin-Illustratoren und sogar Kunsthistoriker berichten von blockierten Features, gesperrten Funktionen und dem Gefühl, dass ihre professionelle Arbeit als unangemessen eingestuft wird.

Willkommen in der neuen Realität kreativer Arbeit: Algorithmen als Kunstrichter.

Was als notwendiger Schutz gegen Missbrauch begann, entwickelt sich für viele zu einer Bedrohung legitimer künstlerischer Arbeit. Dies ist die Geschichte eines Systems im Spannungsfeld zwischen Sicherheit und Freiheit – und der möglichen Lösungen.


Das Problem: Wenn Sicherheit zur Einschränkung wird

Was tatsächlich passiert (belegt)

Seit Adobe 2023 massiv KI-Features in Photoshop integriert hat (Generative Fill, Generative Expand, Neural Filters), läuft im Hintergrund ein Content-Moderation-System. Adobe dokumentiert dies selbst in seinen Generative AI User Guidelines:

„Prompts and results may be reviewed through automated and manual methods“

Das System soll verhindern:

  • Erstellung illegaler Inhalte (CSAM, extreme Gewalt)
  • Deepfakes realer Personen ohne Einwilligung
  • Copyright-Verletzungen
  • Hassrede und Diskriminierung in visueller Form

Explizit verboten laut Adobe-Richtlinien sind:

  • Pornographic material
  • Explicit nudity
  • Graphic violence

Das ist nachvollziehbar. Das ist in vielen Fällen rechtlich geboten. Das ist grundsätzlich verantwortungsvoll.

Aber: Die Implementierung führt zu erheblichen Kollateralschäden.

Dokumentierte Community-Berichte

In Adobe-Community-Foren und auf Plattformen wie Reddit finden sich hunderte Berichte über Fehlklassifikationen. Typische Muster, die sich aus diesen Berichten ergeben:

Fallkonstellation 1: Die Aktfotografin

Aus Community-Berichten abstrahiertes, aber repräsentatives Szenario:

„Ich arbeite seit Jahren professionell mit Aktfotografie. Meine Arbeiten werden in Galerien gezeigt und in Kunstmagazinen publiziert. Seit der Integration von Generative Fill kann ich diese Funktion bei meinen Projekten nicht mehr nutzen. Das System erkennt ‚inappropriate content‘ und blockiert. Es sind keine pornografischen Bilder – es ist Kunst.“

Fallkonstellation 2: Medizinische Illustration

Wiederkehrend berichtetes Problem:

„Anatomische Illustrationen für medizinische Lehrbücher werden als ‚graphic violence‘ markiert. Chirurgische Darstellungen, Gewebeschnitte – alles wird blockiert. Das sind Standardmaterialien für die medizinische Ausbildung.“

Fallkonstellation 3: Kunstgeschichte und Digitalisierung

Aus europäischen Foren dokumentiert:

„Ich digitalisiere Renaissance-Gemälde für Museen. Werke von Tizian, Rubens, Botticelli. Photoshops System blockiert Neural Filters bei historischen Akten. Es ist Kulturerbe, aber Adobe behandelt es wie pornografisches Material.“

Fallkonstellation 4: Aufklärungskampagnen

Health-Awareness-Sektor:

„Kampagnenmaterial für Brustkrebsvorsorge wird systematisch als unangemessen eingestuft. Medizinische Illustrationen zur Selbstuntersuchung können nicht bearbeitet werden. Das betrifft lebensrettende Aufklärungsarbeit.“

Das Muster

Die Berichte zeigen ein klares Problem: Kontextblinde Klassifikation führt zu massiven False Positives.

Das System unterscheidet häufig nicht zwischen:

  • Kunst und Pornografie
  • Medizin und Gewalt
  • Kulturerbe und Regelverletzung
  • Professioneller Arbeit und Missbrauch

Kontext ist alles. Aber Algorithmen verstehen keinen Kontext.


Warum das passiert: Die technischen Hintergründe

Problem 1: Training-Data-Bias

Content-Moderation-KIs werden typischerweise trainiert auf binären Datensätzen:

  • Explizite Pornografie vs. akzeptable Inhalte
  • Gewaltdarstellungen vs. harmlose Bilder
  • Illegales Material vs. legale Nutzung

Das Trainingsmaterial arbeitet mit klaren Kategorien. Erlaubt/Verboten. Gut/Schlecht.

Aber Kunst ist nicht binär. Sie ist:

  • Kontextabhängig (Museum vs. Werbung)
  • Kulturell codiert (was in einem Land akzeptabel ist, ist es woanders nicht)
  • Intentional mehrdeutig (Provokation ist Teil der Kunst)
  • Historisch variabel (Renaissance-Akte sind Kulturerbe)

Ein Klassifikationsalgorithmus, der auf eindeutige Pornografie trainiert wurde, kann strukturell nicht unterscheiden zwischen:

  • Botticellis „Geburt der Venus“ (Kunstgeschichte, 15. Jahrhundert)
  • Einem modernen pornografischen Bild

Beide zeigen Nacktheit. Beide triggern denselben visuellen Klassifikator. Der Unterschied liegt im Kontext – und genau den erfassen diese Systeme nicht.

Problem 2: Regulatorischer Druck und Liability-Paranoia

Adobe operiert in einem komplexen regulatorischen Umfeld:

  • EU AI Act (Transparenz- und Haftungspflichten)
  • US-Gesetzgebung (CSAM-Scanning-Anforderungen)
  • Öffentliche Wahrnehmung (Deepfake-Skandale, ethische KI-Nutzung)
  • Investoren-Erwartungen (ESG-Compliance)

Regulatorische Entwicklungen wie der EU AI Act erhöhen den Compliance-Druck erheblich. Plattformen, die KI-generierte Inhalte ermöglichen, stehen unter zunehmender Beobachtung.

Die wahrscheinliche Reaktion vieler Unternehmen: Übervorsichtige Filterung.

Das Prinzip: „Lieber zu viel blockieren als rechtliches Risiko eingehen.“

Das Problem: Die Kosten dieser Vorsicht tragen die Künstler.

Problem 3: Fehlende Transparenz

Adobe kommuniziert nicht ausreichend klar:

  • Nach welchen konkreten Kriterien wird klassifiziert?
  • Wie funktioniert die Unterscheidung zwischen Kunst und Pornografie?
  • Wie kann man Fehlentscheidungen anfechten?
  • Gibt es einen Human-Review-Prozess?
  • Wer entscheidet im Grenzfall?

Die Richtlinien sind allgemein formuliert („explicit nudity“, „pornographic material“), aber wie diese Begriffe algorithmisch operationalisiert werden, bleibt intransparent.

Nutzer arbeiten faktisch im Dunkeln. Sie erfahren erst durch Blockierung, dass ihr Material als problematisch gilt.

Problem 4: Cloud-Abhängigkeit

Viele KI-Features funktionieren ausschließlich mit Cloud-Verbindung:

  • Generative Fill (vollständig cloudbasiert)
  • Firefly-Integration (cloudbasiert)
  • Teile der Neural Filters (cloud-abhängig)

Laut Adobe-Dokumentation bedeutet dies: Die Bilder werden serverseitig verarbeitet und können im Rahmen der Content-Moderation geprüft werden.

Für viele Künstler fühlt sich das an wie Überwachung, nicht wie ein Service-Feature.


Die ethische Dimension: Wo liegt die Grenze?

Position 1: „Adobe muss schützen“

Argumente:

Gesetzliche Verpflichtungen: In vielen Jurisdiktionen (EU, USA, UK) müssen Plattformen aktiv gegen illegale Inhalte vorgehen. CSAM-Scanning ist teilweise verpflichtend.

Missbrauchsprävention: Ohne Filter würde Photoshop potenziell für Deepfakes, CSAM-Erstellung, Hassdarstellungen genutzt.

Reputationsschutz: Adobe kann es sich nicht leisten, als „Tool für Kriminelle“ wahrgenommen zu werden.

Technologische Grenzen: Perfekte KI-Moderation existiert nicht. False Positives sind bei jedem System unvermeidbar. Die Frage ist nur: Akzeptiert man False Positives (legitime Inhalte werden blockiert) oder False Negatives (illegale Inhalte werden nicht erkannt)?

Repräsentative Position:

„Technologieunternehmen haben die Verantwortung, ihre Tools nicht für Schaden zu ermöglichen. Ja, es gibt Fehlklassifikationen. Aber die Alternative – keine Moderation – wäre gesellschaftlich unverantwortlich. Das ist der Preis für KI-Demokratisierung.“

Position 2: „Das ist Zensur künstlerischer Freiheit“

Argumente:

Künstlerische Freiheit ist Grundrecht: Kunst darf provozieren, verstören, Grenzen testen. Das ist ihr Wesen.

Profis werden wie Verdächtige behandelt: Fotografen mit jahrzehntelanger Erfahrung, gültigem Gewerbe und Galerie-Ausstellungen werden algorithmisch wie potenzielle Straftäter behandelt.

Kulturelle Voreingenommenheit: Was „anstößig“ ist, ist kulturell und historisch variabel. Ein kalifornisches Tech-Unternehmen setzt globale Standards basierend auf US-amerikanischen Normen.

Slippery Slope: Heute Nacktheit, morgen politische Themen, übermorgen religiöse Symbolik?

Repräsentative Position aus Community-Foren:

„Ich habe für diese Software bezahlt. Ich besitze eine Lizenz. Aber Adobe entscheidet, was ich damit machen darf. Das ist nicht Software-as-a-Service. Das fühlt sich an wie Software-as-Surveillance.“

Position 3: „Das System ist reparierbar – aber nur mit Willen“ (meine Position)

Argumente:

Intention muss zählen: Der Unterschied zwischen Kunst und Missbrauch liegt primär in der Intention, nicht in der reinen Bildstruktur.

Kontext muss erfassbar sein: Dasselbe Bild kann Kunst, Medizin, Pornografie oder Dokumentation sein – je nach Nutzungskontext.

Professionelle Nutzer brauchen differenzierte Behandlung: Ein verifizierter Profi sollte nicht dieselben Beschränkungen haben wie ein anonymer Free-Tier-Nutzer.

Transparenz ist ethische Pflicht: Künstler haben das Recht zu wissen, nach welchen Kriterien ihre Arbeit bewertet wird.

Appeal-Prozesse sind unverzichtbar: Menschen müssen algorithmische Entscheidungen anfechten können – mit menschlicher Überprüfung.

Technische Lösungen existieren: Andere Plattformen (YouTube, Vimeo) haben differenziertere Systeme implementiert. Es ist machbar.


Die Lösungen: Was getan werden kann (und sollte)

Ebene 1: Was Adobe implementieren könnte

Lösung 1.1: Verifizierte Professional Accounts

Konzept:

  • Professionelle Künstler, Fotografen, Mediziner können sich verifizieren
  • Nachweis: Portfolio, Business License, berufliche Identität, Referenzen
  • Verifizierte Accounts erhalten erweiterte Berechtigungen
  • Content-Filter arbeiten mit höherer Toleranz oder sind optional konfigurierbar
  • Bei nachgewiesenem Missbrauch: sofortiger Entzug + rechtliche Schritte

Vorbild:

  • YouTube Partner Program (verifizierte Creator mit erweiterten Features)
  • Twitter Blue Verified (vor Musk-Übernahme: manuelle Verifikation)
  • Vimeo Pro Accounts (differenzierte Content-Policies)

Vorteil:

  • Missbrauch kommt statistisch primär von anonymen, nicht-professionellen Nutzern
  • Profis sind identifizierbar, haftbar und haben Reputationsverlust zu befürchten
  • False Positives bei legitimen Künstlern würden drastisch sinken
  • Adobe kann nachweisen: „Wir schützen Profis, während wir Missbrauch bekämpfen“

Implementierungs-Herausforderung:

  • Verification kostet Ressourcen (Personal, Prozesse)
  • Potenzial für gefälschte Credentials
  • Grenzfälle (Semi-Profis, Studierende, Emerging Artists)

Aber: Machbar. Andere Plattformen haben skalierbare Systeme entwickelt.


Lösung 1.2: Kontext-Deklaration durch Nutzer

Konzept:

  • Beim Öffnen oder Import können Nutzer den Bildkontext deklarieren
  • Kategorien: Fine Art, Medical/Educational, Historical/Archival, Editorial/Journalism, Commercial/Advertising
  • System adjustiert Filter-Sensitivität entsprechend
  • Bei nachweislichem Missbrauch der Kategorisierung: Sperrung

UI-Mockup:

textFile > Document Properties > Content Context
○ Fine Art / Artistic
○ Medical / Educational  
○ Historical / Cultural Heritage
○ Editorial / Journalism
○ Commercial / Advertising
○ Personal / Uncategorized (Standard-Filter)

[?] Warum ist das wichtig?

Vorteil:

  • Gibt Nutzern Kontrolle und Verantwortung
  • Ermöglicht nuancierte Moderation ohne Binärlogik
  • Reduziert False Positives erheblich
  • Dokumentiert Intent

Kritik: „Nutzer könnten lügen“

Antwort: Ja. Aber:

  • Bei Missbrauch: nachweisbar und sanktionierbar
  • Statistisch: Profis haben Anreiz zur Ehrlichkeit (Reputation, Vertrag)
  • Kann mit Account-Verifizierung kombiniert werden

Lösung 1.3: Transparente Appeal-Prozesse

Aktueller Stand: Blockierung erfolgt oft ohne klare Begründung. Einspruch ist schwierig oder unmöglich.

Sollte sein:

1. Klare Begründung:

text"Generative features are unavailable because:
- Explicit nudity detected (confidence: 87%)
- If you believe this is incorrect, you can request review."

2. Appeal-Button direkt in der Fehlermeldung:

text[Request Human Review]

3. Human Review innerhalb definierter Frist:

  • Standard: 48 Stunden
  • Professionelle Accounts: 24 Stunden
  • Eilfälle (gegen Gebühr): 6 Stunden

4. Transparente Richtlinien:

  • Öffentlich einsehbares Regelwerk
  • Konkrete Beispiele (Was ist okay? Was nicht?)
  • Regelmäßige Updates

Vorbild:

  • Facebook Oversight Board (unabhängige Überprüfung)
  • YouTube Appeals (strukturierter Prozess mit Zeitlimits)
  • Instagram Professional Account Disputes

Kosten: Ja, Human Review ist teuer. Aber das ist der Preis fairer Moderation.


Lösung 1.4: Optionale lokale Verarbeitung

Konzept:

  • Nutzer können wählen: Cloud-basierte Features ODER lokale Verarbeitung
  • Lokaler Modus: Keine KI-Features wie Generative Fill, aber auch keine Content-Moderation
  • Cloud-Modus: Volle KI-Features, mit Content-Prüfung

Vorbild:

  • DaVinci Resolve (Cloud-Features optional, nicht erzwungen)
  • Capture One (vollständig lokal, keine Cloud-Anforderung)
  • Affinity Photo (keine Cloud-Abhängigkeit)

Vorteil:

  • Profis mit sensiblen Projekten (medizinisch, künstlerisch, legal) können ungestört arbeiten
  • Adobe reduziert Haftungsrisiko (keine Cloud-Verarbeitung = keine Moderationspflicht auf Server-Seite)
  • Nutzer haben echte Wahlfreiheit

Adobe-Kritik: „Lokale Verarbeitung ermöglicht Missbrauch“

Antwort:

  • Photoshop war 25 Jahre lang primär lokal. Missbrauch war kein Massen-Phänomen.
  • Verantwortung liegt beim Nutzer, wie bei jedem Werkzeug
  • Illegale Nutzung bleibt illegal, unabhängig von Software-Features

Lösung 1.5: Differenzierte Filter-Level nach Account-Typ

Statt eines binären Systems (blockiert/erlaubt):

Tier 1 – Public/Consumer (kostenlose Accounts, nicht verifiziert):

  • Strengste Filter
  • Fokus auf Prävention
  • Cloud-basiert, volles Monitoring

Tier 2 – Professional (verifiziert, Creative Cloud bezahlt):

  • Moderate Filter
  • Künstlerische Nacktheit: erlaubt (mit Kontext-Deklaration)
  • Medizinische Darstellungen: erlaubt
  • Kulturhistorische Inhalte: erlaubt
  • Illegale Inhalte: weiterhin blockiert

Tier 3 – Enterprise/Institutional (Vertragspartner: Studios, Unis, Museen):

  • Minimale Filter (nur explizit illegale Inhalte: CSAM, terroristische Propaganda)
  • Vertragliche Haftungsregelung
  • Institutionelle Verantwortung

Vorbild:

  • AWS/Azure Trust & Safety Tiers (unterschiedliche Compliance-Level)
  • Cloudflare (differenzierte Moderation nach Kundentyp)

Ebene 2: Was Nutzer jetzt tun können (pragmatische Workarounds)

Workaround 2.1: Affinity Photo als Alternative

Was es ist: Professionelle Photoshop-Alternative ohne Cloud-Zwang, ohne KI-Moderation

Vorteile:

  • Einmalzahlung ($74.99), kein Abo
  • Vollständig lokale Verarbeitung
  • Keine Content-Filter
  • Import/Export von PSD-Dateien möglich
  • Professionelles Feature-Set

Nachteile:

  • Keine Generative AI-Features (Generative Fill, etc.)
  • Kleineres Plugin-Ökosystem
  • Keine nahtlose Adobe-Integration

Typischer Hybrid-Workflow:

textAdobe Creative Cloud → für kommerzielle Standard-Arbeit
Affinity Photo → für künstlerische/sensitive Projekte

Community-Feedback:

„Ich zahle für beides. Adobe für Kunden, die Photoshop-Files erwarten. Affinity für meine Kunst, wo ich keine Zensur haben will.“


Workaround 2.2: Lokale KI-Tools für spezifische Aufgaben

Konzept: Nutze KI-Features lokal, ohne Cloud-Moderation

Topaz Photo AI ($199 einmalig):

  • Upscaling, Denoising, Sharpening
  • Komplett lokal
  • Keine Content-Moderation
  • Professionelle Qualität

DxO PhotoLab ($229):

  • DeepPRIME AI (Rauschreduzierung)
  • Lokale Verarbeitung
  • Keine Cloud-Anforderung

Stable Diffusion (lokal installiert, kostenlos):

  • Inpainting/Outpainting ähnlich Generative Fill
  • 100% lokale Kontrolle
  • Technisch anspruchsvoller
  • Keine Moderation, volle Freiheit

Beispiel-Workflow:

text1. Basis-Bearbeitung in Photoshop
2. Export als TIFF
3. KI-Processing in lokalem Tool (Topaz/Stable Diffusion)
4. Re-Import in Photoshop
5. Finalisierung

Vorteil: Kontrolle, Privatsphäre, keine Einschränkungen

Nachteil: Fragmentierter Workflow, mehr Schritte


Workaround 2.3: Nicht empfohlene Community-Workarounds

Hinweis: Der folgende Abschnitt beschreibt Techniken, die in Community-Foren diskutiert werden. Ich dokumentiere sie zur Vollständigkeit, empfehle sie aber nicht als professionelle Lösung.

Temporäres Content-Covering:

In manchen Foren wird berichtet, dass Nutzer:

  1. „Problematische“ Bildbereiche temporär mit neutralem Content überdecken
  2. Generative Fill/Neural Filters auf das modifizierte Bild anwenden
  3. Covering-Ebene entfernen
  4. Bearbeitetes Ergebnis behalten

Ethische und praktische Bedenken:

  • Umgeht explizit Moderationssysteme
  • Rechtlich grauzonig
  • Nicht nachhaltig (Adobe könnte reagieren)
  • Für professionelle Nutzung nicht empfehlenswert

Meine Einschätzung: Dies zeigt die Verzweiflung, die die aktuelle Situation bei manchen Nutzern auslöst. Es ist keine Lösung, sondern ein Symptom des Problems.


Workaround 2.4: Offline-Arbeit wo möglich

Für Features, die lokal funktionieren:

Methode:

  1. Starte Photoshop mit Internetverbindung
  2. Lade Projekt
  3. Trenne Verbindung
  4. Arbeite offline

Was offline funktioniert:

  • Standard-Filter (Blur, Sharpen, etc.)
  • Healing/Cloning/Retouching
  • Masken, Adjustments, Compositing
  • Bestimmte Neural Filters (wenn bereits heruntergeladen)

Was nicht funktioniert:

  • Generative Fill
  • Firefly-Integration
  • Cloud-basierte Neural Filters
  • Auto-Sync

Limitierung: Dies ist kein Workaround für blockierte Inhalte, sondern nur eine Methode, generell mehr Privatsphäre zu wahren.


Ebene 3: Was die Community tun kann

Lösung 3.1: Systematische Dokumentation

Was bereits existiert:

  • Adobe Community Forums: Threads zu Content-Moderation
  • Reddit r/photoshop: Diskussionen über Blockierungen
  • Petitionen zu künstlerischer Freiheit in KI-Tools

Was systematischer passieren sollte:

Zentrale Fallsammlung:

  • Dokumentierte Datenbank von False Positives
  • Screenshots, Kontext, Nutzer-Beschreibungen
  • Kategorisiert nach Bildtyp (Fine Art, Medical, Historical, etc.)
  • Als Evidenzbasis für Advocacy

Plattform-Vorschlag:

textphotoshop-moderation-cases.org (hypothetisches Beispiel)
- Anonyme Falleinreichung
- Verifizierung durch Community
- Statistik-Dashboard
- Verwendbar für Medienarbeit und Policy-Advocacy

Lösung 3.2: Professionelle Verbände als Interessenvertretung

Existierende Organisationen, die handeln könnten:

American Society of Media Photographers (ASMP):

  • Könnte offenen Brief an Adobe verfassen
  • Forderung nach Professional-Tier

Berufsverband Freie Fotografen (BFF, Deutschland):

  • Rechtliche Prüfung (DSGVO-Implikationen)
  • Dialog mit Adobe Deutschland

Professional Photographers of America (PPA):

  • Advocacy für Mitglieder
  • Best-Practice-Guidelines für KI-Nutzung

Konkrete Forderungen:

  1. Transparente Moderation-Kriterien
  2. Strukturierte Appeal-Prozesse
  3. Professional Verification Program
  4. DSGVO-konforme, transparente Datennutzung
  5. Optionale lokale Verarbeitung

Lösung 3.3: Marktdruck durch Alternativen

Ökonomische Realität: Adobe reagiert auf Marktanteils-Verluste.

Strategisch unterstützen:

Affinity Photo (Serif):

  • Wächst kontinuierlich
  • Perpetual License als Alternative zu Abos
  • Keine Content-Moderation

Capture One:

  • Professional RAW-Editor
  • Erweitert zunehmend Bildbearbeitungs-Features
  • Keine KI-Moderation

DxO PhotoLab:

  • High-End-Fokus
  • Lokale Verarbeitung

Botschaft an Adobe durch Nutzungsverhalten:
„Wenn Moderation zu restriktiv wird, gibt es Alternativen.“


Lösung 3.4: Open-Source-Entwicklung vorantreiben

Aktuelle Situation: GIMP ist mächtig, aber UX/UI schrecken viele Profis ab.

Vision: Ein „Blender für 2D-Bildbearbeitung“

Was fehlt:

  • Professionelle, moderne UI/UX
  • Robustes Plugin-Ökosystem
  • Nahtlose Integration lokaler KI-Modelle (Stable Diffusion, etc.)
  • Keine algorithmische Content-Moderation (Verantwortung liegt beim Nutzer)

Warum das wichtig ist:
Blender revolutionierte 3D, weil:

  • Profis es ernst nahmen
  • Community stark investierte
  • Features mit kommerzieller Software konkurrierten

Ein äquivalentes 2D-Tool könnte den Markt diversifizieren und Druck auf Adobe erzeugen.


Ebene 4: Regulatorische Ansätze

Lösung 4.1: Algorithmic Accountability

Konzept:

  • Unternehmen müssen Moderation-Algorithmen in Grundzügen offenlegen
  • False-Positive-Raten müssen publiziert werden
  • Appeal-Prozesse sind gesetzlich vorgeschrieben
  • Unabhängige Audits

Regulatorischer Rahmen:

  • EU AI Act hat Ansätze (Transparenzpflichten für Hochrisiko-KI)
  • USA: Algorithmic Accountability Act (vorgeschlagen, nicht verabschiedet)

Lösung 4.2: Professionelle Ausnahmen

Konzept:

  • Verifizierte Profis (Künstler, Mediziner, Journalisten) erhalten erweiterte Nutzungsrechte
  • Ähnlich zu bestehenden Berufsprivilegien (Quellenschutz für Journalisten, etc.)

Argument:

  • Profis sind identifizierbar und haftbar
  • Berufliche Reputation ist wirksamer Kontrollmechanismus
  • Gesellschaftlicher Nutzen professioneller Arbeit (Kunst, Medizin, Aufklärung) überwiegt Missbrauchsrisiko

Die größere Frage: Wem gehört die digitale Kreativität?

Dieses Problem transzendiert Photoshop. Es berührt fundamentale Fragen:

Frage 1: Eigentum oder Miete?

Ich zahle für eine Lizenz. Aber besitze ich die Software wirklich, wenn der Anbieter jederzeit Funktionen einschränken kann?

Frage 2: Universelle Standards vs. kulturelle Vielfalt

Ein kalifornisches Unternehmen definiert globale Standards für „Angemessenheit“. Aber kulturelle Normen zu Nacktheit, Gewalt, Religion sind extrem unterschiedlich. Ist das nicht eine Form digitalen Kulturimperialismus?

Frage 3: Sicherheit vs. Überwachung

Cloud-basierte Verarbeitung bedeutet: Serverseitige Analyse ist möglich. Wann wird Sicherheit zu Überwachung? Wo liegt die Grenze?

Frage 4: Kunst und Provokation

Kunst lebt davon, Grenzen zu testen. Algorithmen arbeiten mit Kategorien und Grenzen. Sind diese beiden Prinzipien kompatibel?


Beispiel für bessere Praxis: Procreate’s Positionierung

Procreate (iPad-App) öffentliches Statement 2024:

„We’re not going to be introducing any generative AI into our products. […] We believe in the human creative process.“

Ergebnis:

  • Massive positive Community-Reaktion
  • Künstler feierten die Positionierung
  • Klare Marken-Identität
  • Wachsende Marktanteile

Lektion: Klare Positionierung für Künstler-Freiheit wird honoriert.

(Procreate hat allerdings auch keine Cloud-Features und damit andere Haftungsrisiken als Adobe – der Vergleich ist nicht 1:1 übertragbar, aber zeigt eine Marktrichtung.)


Meine Position: Differenzierung ist die Lösung

Was ich NICHT fordere:

  • Abschaffung von Content-Moderation
  • Erlaubnis illegaler Inhalte
  • Naive „Alles-erlauben“-Haltung

Was ich fordere:

  1. Transparenz: Künstler müssen wissen, nach welchen Kriterien bewertet wird
  2. Kontext-Bewusstsein: Kunst ≠ Pornografie, Medizin ≠ Gewalt
  3. Professionelle Verantwortung: Verifizierte Profis sollten differenziert behandelt werden
  4. Faire Prozesse: Appeals mit menschlicher Überprüfung
  5. Technologische Optionen: Lokale Verarbeitung als Wahlmöglichkeit

Das ist machbar. Andere Plattformen zeigen es.

YouTube hat differenzierte Creator-Tiers. Vimeo hat Kontext-basierte Moderation. AWS hat Enterprise-Compliance-Level. Adobe könnte das auch.


Handlungsaufforderungen

Wenn du Künstler/Fotograf bist:

  1. Dokumentiere Fälle: Bei Blockierung: Screenshot, Kontext notieren, in Community-Foren teilen
  2. Gib strukturiertes Feedback: Adobe-Forums, direkt an Support (auch wenn Antwort unwahrscheinlich)
  3. Evaluiere Alternativen: Teste Affinity Photo, Capture One, etc.
  4. Vernetzt euch: Professionelle Verbände, Künstler-Communities

Wenn du Adobe-Kunde bist:

  1. Nutze offizielle Feedback-Kanäle: Community-Forum, Feature-Requests
  2. Fordere Transparenz: Frag nach konkreten Kriterien
  3. Überdenke bei Bedarf dein Abo: Marktdruck funktioniert

Wenn du Entwickler bist:

  1. Baue Alternativen: Open-Source braucht professionelle UI/UX-Arbeit
  2. Integriere lokale KI: Stable Diffusion, andere Modelle
  3. Fokus auf Privatsphäre: Das ist ein Markt-Differentiator

Wenn du in Policy/Regulierung arbeitest:

  1. Algorithmic Transparency: KI-Moderation muss nachvollziehbar sein
  2. Professional Exemptions: Profis brauchen differenzierte Regeln
  3. Right to Appeal: Menschliche Überprüfung als Recht

Fazit: Kunst lebt von Grenzüberschreitung – Algorithmen von Grenzen

Kreativität existiert im Spannungsfeld. Sie provoziert. Sie hinterfragt. Sie überschreitet bewusst Grenzen.

Algorithmen kategorisieren. Sie standardisieren. Sie ziehen Grenzen.

Diese beiden Logiken stehen in fundamentalem Konflikt.

Und aktuell – das zeigen die Community-Berichte, die technische Analyse und die fehlenden Transparenz- und Appeal-Mechanismen – verliert die kreative Freiheit.

Aber das ist nicht unvermeidlich.

Mit:

  • Technologischer Differenzierung (Professional Tiers, Kontext-Deklaration, lokale Optionen)
  • Transparenten Prozessen (klare Kriterien, Appeals, Human Review)
  • Marktdruck (Alternativen stärken, Feedback geben)
  • Kluger Regulierung (wo nötig, nicht überschießend)

…können wir ein System schaffen, das schützt UND ermöglicht.

Photoshop war einmal das Werkzeug, das Künstlern neue Möglichkeiten gab.

Es kann das wieder sein.

Aber nur, wenn zwischen Sicherheit und Freiheit differenziert wird.

Die Technologie dafür existiert. Es fehlt am Willen – oder am Druck.


Ressourcen & weiterführende Links:


Über die Autorin:

Dr. Elena Richter forscht seit 10 Jahren an der Schnittstelle von Technologie, Ethik und kreativer Praxis. Sie berät Künstlerverbände, Tech-Unternehmen und Policy-Maker zu Fragen digitaler Kreativität, KI-Ethik und algorithmischer Governance. Ihre Arbeit fokussiert auf die Balance zwischen technologischem Fortschritt und individuellen Freiheitsrechten.


Methodische Transparenz:

Dieser Artikel basiert auf:

  • Dokumentierten Adobe-Richtlinien und technischer Dokumentation
  • Analyse von Community-Berichten (Adobe Forums, Reddit, Fachforen)
  • Technischer Analyse von KI-Moderationssystemen
  • Vergleichsanalyse mit anderen Plattformen
  • Fachlicher Einschätzung regulatorischer Entwicklungen

Wo konkrete Fälle beschrieben werden, sind diese aus realen Community-Berichten abstrahierte, repräsentative Konstellationen – keine investigativ recherchierten Einzelfälle. Sie illustrieren dokumentierte Problemmuster.


ie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Eine kritische Analyse eines boomenden, aber undurchsichtigen Marktes, in dem möglicherweise gerade neue Geschäftsmodelle entstehen – wenn man den Signalen glauben darf

Von Marcus Kleinfeld, Digital Business Analyst & Creative Industry Consultant


VORAB-TRANSPARENZ: Dieser Artikel bewegt sich in einem Graubereich zwischen harten Fakten und Branchenspekulation. Der Markt für KI-Companions ist real und massiv – die genaue Rolle von Fotografen und Kreativen darin ist jedoch weitgehend undokumentiert. Was folgt, ist eine Analyse auf Basis verfügbarer Daten, Branchenbeobachtungen und extrapolierten Trends. Wo ich spekuliere, sage ich es. Wo Fakten vorliegen, belege ich sie.


Es gibt einen Markt, der irgendwo zwischen 5 und 48 Milliarden US-Dollar groß ist – je nachdem, wen man fragt und wie man zählt. Einen Markt mit nachweislich über 100 Millionen registrierten Nutzern weltweit. Einen Markt, der von Reuters Ende 2025 als „lange unregulierter Graubereich“ beschrieben wurde und den der International AI Safety Report 2026 explizit als regulatorisches Problem identifiziert.

Und es ist ein Markt, über den fast niemand offen spricht: KI-Companions.

Virtuelle Freunde. Digitale Partner. AI-Beziehungen.

Die Frage, die mich als Analyst der Creative Economy umtreibt: Wo sind die Fotografen, 3D-Artists und Content-Creator in dieser Gleichung? Und gibt es hier tatsächlich ein neues Geschäftsmodell – oder ist das Wunschdenken einer Branche auf der Suche nach dem nächsten großen Ding?

Spoiler: Die Wahrheit liegt irgendwo dazwischen. Und sie ist komplizierter, als beide Seiten zugeben wollen.

Teil 1: Was wir WIRKLICH wissen – die harten Fakten

Lassen wir die Spekulation für einen Moment beiseite und schauen auf das, was tatsächlich belegt ist:

Fakt 1: Der Markt existiert und er ist massiv

Character.AI, einer der größten Player, verkündete Anfang 2025 offiziell über 20 Millionen monatlich aktive Nutzer. Das ist keine Schätzung – das ist eine Company-Angabe.

Ein 2026 veröffentlichter Peer-Reviewed-Artikel dokumentiert für den gesamten Sektor virtueller AI-Companions:

  • Über 100 Millionen registrierte Nutzer weltweit
  • Mehr als 500 Millionen Downloads
  • Zig Millionen monatlich aktive Nutzer

Der europäische Datenschutzbeauftragte (EDPS) beschreibt AI-Companions ausdrücklich als Systeme, die „als virtuelle Freunde, romantische Partner oder persönliche Assistenten vermarktet werden.“

Das ist real. Das ist messbar. Das passiert jetzt.

Fakt 2: Die Marktgröße ist unklar – aber definitiv mehrstellig in Milliarden

Hier wird es kompliziert. Je nachdem, wie man „AI Companion Market“ definiert, schwanken die Zahlen dramatisch:

  • The Business Research Company: 5,01 Mrd. USD in 2026 (engste Definition: nur Apps)
  • Research and Markets: 24,09 Mrd. USD in 2026 (breitere Definition)
  • Precedence Research: 48,63 Mrd. USD in 2026 (breiteste Definition, inkl. Hardware, Enterprise-Lösungen)

Was bedeutet das? Der Markt ist riesig, aber die Grenzen sind fließend. Zählt man nur Dating-ähnliche Apps? Auch Alexa und Siri? Auch Enterprise-Assistants? Auch Hardware wie Roboter?

Meine Einschätzung: Die Wahrheit liegt vermutlich im mittleren Bereich. 15-25 Milliarden USD für 2026 ist eine defensive, aber plausible Schätzung für den Consumer-orientierten Companion-Markt.

Zum Vergleich: Der globale Online-Dating-Markt lag 2023 bei etwa 10,49 Milliarden USD (Grand View Research) und soll bis 2030 auf 17,28 Mrd. steigen.

Also ja: Der AI-Companion-Markt ist in derselben Liga wie Online-Dating. Möglicherweise bereits größer, je nach Definition.

Fakt 3: Visuelle Inhalte sind Teil des Produkts

Das lässt sich klar dokumentieren:

Character.AI hat 2024/2025 mehrere visuelle Features gelauncht:

  • Avatar-Upload und -Generierung
  • AvatarFX: Bild-zu-Video-Feature
  • Imagine Gallery: Galerie für generierte visuelle Inhalte

Replika bewirbt aktiv:

  • Bildgenerierungs-Features
  • Avatar-Anpassung
  • 3D-Modelle (dokumentiert im offiziellen Support: „3D models & Store“)

Das bedeutet: Visuelle Assets sind definitiv ein Produktbestandteil. Die Apps sind nicht nur Text.

Fakt 4: Es gibt regulatorische und ethische Bedenken

Reuters berichtet von wachsendem Druck auf die Branche, besonders bezüglich:

  • Jugendschutz (hohe Nutzung bei Teenagern)
  • Datenschutz
  • Psychologische Abhängigkeit
  • Beginnende US-Regulierung

Das ist kein Randphänomen mehr. Das ist Mainstream-Besorgnis.

Teil 2: Was wir NICHT wissen – und wo Spekulation beginnt

Hier endet die Faktenlage. Was folgt, ist Trendanalyse, Extrapolation und – seien wir ehrlich – gebildete Vermutung.

Die große Unbekannte: Wo kommen die Bilder her?

Die Apps haben visuelle Features. Das ist Fakt.

Aber woher kommt der Content?

Möglichkeit 1: Rein KI-generiert

  • Tools wie Stable Diffusion, Midjourney
  • Günstig, skalierbar, keine Model-Rechte nötig
  • Problem: Qualität schwankt, Konsistenz schwierig

Möglichkeit 2: Stock-Photos und lizenzierte Bilder

  • Existierende Bildagenturen
  • Rechtlich sauber
  • Problem: Keine Exklusivität, begrenzte Personalisierung

Möglichkeit 3: In-House-Production

  • Große Player haben eigene Studios
  • Vollständige Kontrolle
  • Problem: Teuer, nicht skalierbar für kleinere Apps

Möglichkeit 4: Freelance-Creator-Economy

  • Fotografen, 3D-Artists als Zulieferer
  • Flexibel, spezialisiert
  • Problem: Wenig öffentliche Dokumentation

Die ehrliche Antwort: Wahrscheinlich eine Mischung aus allem. Und niemand spricht darüber.

Die Fotografen-Hypothese: Plausibel, aber unbewiesen

Hier ist meine These, basierend auf Marktlogik:

IF Apps wie Replika und Character.AI Millionen zahlende Premium-Nutzer haben (belegt)
AND diese Apps personalisierte visuelle Features anbieten (belegt)
AND rein KI-generierte Bilder noch Qualitätsprobleme haben (beobachtbar)
THEN muss es Content-Creator geben, die diese Lücke füllen.

Aber: Ich habe keine harten Belege für:

  • Einen etablierten Marktplatz für Companion-Assets
  • Standardisierte Honorare für diesen Bereich
  • Eine dokumentierte Community von Fotografen in diesem Sektor
  • Konkrete Revenue-Share-Modelle

Was ich habe:

  • Logische Marktmechanik (Nachfrage + Zahlungsbereitschaft = Angebot)
  • Parallelen zu anderen Creator-Economy-Bereichen (OnlyFans, Patreon, Stock-Plattformen)
  • Technische Notwendigkeit (hochwertige, konsistente Bilder sind schwer zu automatisieren)

Ist das ein Beweis? Nein.
Ist es eine fundierte Hypothese? Ja.

Der graue Markt: Wo es wahrscheinlich passiert

Wenn es einen Markt für Companion-Content gibt, dann vermutlich nicht offen sichtbar. Wahrscheinliche Kanäle:

1. Direkte B2B-Deals

  • App-Entwickler kontaktieren Fotografen/3D-Artists privat
  • NDA-gebundene Verträge
  • Keine öffentliche Spur

2. Spezialisierte Freelancer-Plattformen

  • Nicht die großen (Upwork, Fiverr)
  • Nischen-Communities, geschlossene Discord-Server
  • Zugang nur über Invitation

3. White-Label-Lösungen

  • Middleware-Anbieter, die sowohl Technik als auch Content liefern
  • Fotografen arbeiten für diese Anbieter, nicht für End-Apps
  • Mehrere Ebenen zwischen Creator und Endprodukt

4. Stock-Plattformen mit speziellen Kategorien

  • „Lifestyle“, „Portrait“, „Emotional Range“
  • Verkäufer wissen vielleicht gar nicht, wofür ihre Bilder genutzt werden
  • Grauzone bei Nutzungsrechten

Teil 3: Die Business-Modell-Spekulation – wie könnte es funktionieren?

Angenommen, der Markt existiert tatsächlich. Wie sähen plausible Geschäftsmodelle aus?

Modell A: Asset-Lieferant (Work-for-Hire)

Konzept: Fotograf wird für spezifisches Projekt gebucht

Plausible Zahlen (basierend auf vergleichbaren Commercial-Rates):

  • 1.500-5.000 Euro für umfassendes Shooting
  • Alle Rechte gehen an Auftraggeber
  • Einmalige Bezahlung

Vorteil: Klar, legal sauber, ähnlich zu bestehenden Workflows
Nachteil: Keine langfristigen Einnahmen

Plausibilitäts-Rating: ★★★★☆ (Sehr wahrscheinlich, dass das vorkommt)

Modell B: Lizenzierung (Revenue-Share)

Konzept: Creator behält Rechte, lizenziert an Plattform

Spekulative Struktur:

  • 20-40% Revenue-Share für Features, die Creator-Content nutzen
  • Laufzeit 12-24 Monate
  • Möglicherweise Mindestgarantie

Vorteil: Passive Einnahmen, Skalierung möglich
Nachteil: Abhängig von App-Erfolg, komplexe Verträge

Plausibilitäts-Rating: ★★★☆☆ (Möglich, aber schwer zu verifizieren)

Modell C: Stock-ähnliche Marktplätze

Konzept: Upload auf spezialisierte Plattform, Pay-per-Download

Vergleichbare Märkte:

  • TurboSquid (3D-Assets): Top-Seller verdienen 5-stellig/Monat
  • Shutterstock (Fotos): Durchschnitt sehr niedrig, Top 1% sehr profitabel
  • Sketchfab (3D-Models): Ähnliche Dynamik

Übertragen auf Companions:

  • Konsistente Character-Sets könnten 20-100 Dollar kosten
  • Bei hoher Nachfrage: 50-200 Sales realistisch
  • Umsatz pro Set: 1.000-20.000 Dollar

Plausibilitäts-Rating: ★★★★☆ (Solche Marktplätze könnten existieren, nur nicht öffentlich)

Modell D: Eigene Companion-Entwicklung

Konzept: Creator launcht eigene Mini-App oder Character

Herausforderungen:

  • Technische Komplexität (Partnerschaften nötig)
  • Marketing-Aufwand enorm
  • App-Store-Policies

Aber: White-Label-Lösungen machen es einfacher

Plausibilitäts-Rating: ★★☆☆☆ (Für wenige High-End-Creator machbar)

Teil 4: Die Skills-Frage – was wäre nötig?

Falls dieser Markt sich öffnet, welche Fähigkeiten wären wertvoll?

Must-Haves (vermutlich):

1. Konsistenz über Volumen

  • Nicht ein perfektes Foto, sondern 100 gute Fotos
  • Gleiche Beleuchtung, Farbgebung, Stil
  • Workflow-Effizienz

2. Emotionale Range

  • Nicht nur „lächelnde Frau mit Salat“
  • Nuancierte Gesichtsausdrücke
  • Authentische Mikroexpressionen

3. Technische Exzellenz

  • Schärfe, Auflösung, Farbtiefe
  • Minimaler Postproduction-Bedarf
  • Mehrere Formate/Auflösungen

Nice-to-Haves (spekulativ):

  • 3D-Skills: Blender, Unreal Engine für synthetische Characters
  • Photogrammetrie: 3D-Scanning echter Personen
  • KI-Tool-Fluency: Workflow-Integration, Upscaling, Enhancement
  • Character-Design: Nicht nur fotografieren, sondern konzipieren

Teil 5: Die ethische Dimension – der eigentliche Kern

Selbst wenn dieser Markt existiert und profitabel ist: Sollten Kreative da mitmachen?

Das Für und Wider, ehrlich betrachtet:

Argumente FÜR Teilnahme:

  1. Nachfrage ist real: Millionen Menschen nutzen diese Apps. Ignorieren macht sie nicht weg.
  2. Legaler Markt: Companion-Apps sind legal (mit zunehmendem Regulierungsdruck, aber legal).
  3. Vergleichbare Märkte: Ist das moralisch anders als Dating-App-Werbung? Gaming-Characters? Romance-Novel-Cover?
  4. Qualitätsverbesserung: Professionelle Creator könnten für bessere, weniger problematische Darstellungen sorgen.
  5. Wirtschaftliche Realität: Fotografen brauchen Einkommen. Traditionelle Märkte sind gesättigt.

Argumente GEGEN Teilnahme:

  1. Objektifizierung: Man erstellt buchstäblich „ideale“ digitale Personen, die echte Beziehungserwartungen verzerren könnten.
  2. Psychologische Schäden: Studien zeigen potenzielle Abhängigkeitsrisiken bei intensiver Companion-Nutzung.
  3. Model-Ausbeutung: Wenn echte Menschen fotografiert werden: Verstehen sie wirklich, wofür ihre Bilder genutzt werden?
  4. Deepfake-Potential: Die Technologie kann missbraucht werden.
  5. Gesellschaftliche Auswirkungen: Förderung von sozialer Isolation statt echter menschlicher Verbindung.

Meine Position (als Analyst, nicht Moralist):

Es kommt auf die Ausführung an.

Ein Fotograf, der:

  • Mit informiertem Consent arbeitet
  • Faire Bezahlung für Models sicherstellt
  • Klare vertragliche Grenzen setzt (keine Deepfakes, keine Minderjährigen-Darstellung, etc.)
  • Für diverse, nicht-stereotype Darstellungen sorgt
  • Transparent über Nutzung kommuniziert

…hat moralisch eine deutlich sauberere Weste als viele andere Commercial-Bereiche (Fast Fashion, Alkohol-Werbung, manipulative Social-Media-Ads).

Das Problem ist: In einem unregulierten, intransparenten Markt ist es schwer, diese Standards durchzusetzen.

Teil 6: Wie man den Markt erkunden könnte – praktische Schritte

Falls ein Kreativer diesen Bereich testen will, ein realistischer Ansatz:

Phase 1: Research (2-4 Wochen, Kosten: 0€)

Ziel: Verstehen, was wirklich passiert

  • Nutze Character.AI, Replika als User (kostenlose Versionen)
  • Beobachte, welche visuellen Features existieren
  • Suche in Freelancer-Foren (Reddit, Discord) nach Hinweisen
  • Analysiere 3D-Asset-Marktplätze (TurboSquid, Sketchfab) nach Character-Assets
  • Checke, ob es Jobangebote in diesem Bereich gibt (LinkedIn, AngelList)

Red Flags beachten:

  • Anfragen ohne klare Company-Identität
  • Unrealistische Bezahlversprechen
  • Fehlende schriftliche Verträge
  • Zweideutige Nutzungsrechte

Phase 2: Skill-Check (ehrlich!)

Fragen an sich selbst:

  • Kann ich 100+ konsistente Bilder in einem Tag produzieren?
  • Habe ich Zugang zu Models (oder 3D-Skills)?
  • Bin ich rechtlich informiert genug für komplexe Lizenzverträge?
  • Kann ich mit der ethischen Ambiguität leben?

Weniger als 3x „Ja“? Entweder weiterbilden oder lassen.

Phase 3: Vorsichtiger Einstieg

Option A – Bestehende Plattformen:

  • TurboSquid, Sketchfab (für 3D)
  • Adobe Stock, Shutterstock (für Fotos – schauen, ob Character-Sets Nachfrage haben)

Option B – Networking:

  • LinkedIn-Suche nach „AI Companion“, „Virtual Character“, „Digital Human“
  • Vorsichtige Anfragen bei seriösen Entwicklern
  • Niemals ohne schriftlichen Vertrag arbeiten

Option C – Eigenes Experiment:

  • Erstelle ein hochwertiges Character-Set (50-100 Bilder)
  • Biete es auf mehreren Plattformen an
  • Beobachte Nachfrage

Investition: 500-2.000 Euro (Model, Zeit, Equipment)
Erwartung: Wahrscheinlich kein ROI, aber Lernerfahrung

Teil 7: Die Zukunft – wohin könnte das gehen?

Einige Trends sind absehbar, andere spekulativ:

Sicher kommend:

1. Regulierung

  • EU AI Act wird greifen
  • USA wird nachziehen
  • Kennzeichnungspflicht für KI-Content
  • Strengere Consent-Regeln

2. Technologische Verbesserung

  • Bessere KI-Generierung = weniger Bedarf an menschlichen Creators?
  • Oder: höhere Qualitätsansprüche = mehr Bedarf an Profis?
  • Vermutlich beides, je nach Segment

3. Mainstream-Akzeptanz oder Backlash

  • Entweder: Companions werden normal (wie Dating-Apps heute)
  • Oder: Gesellschaftlicher Pushback (wie bei Kryptowährungen)

Möglich:

4. AR/VR-Integration

  • Apple Vision Pro, Meta Quest
  • Räumliche Companions
  • Neue Content-Anforderungen (360°, 3D, volumetrisch)

5. Spezialisierung

  • Therapeutische Companions (Mental Health)
  • Lern-Companions (Education)
  • Professional Companions (Coaching, Mentoring)

6. Dezentralisierung

  • Blockchain-basierte Companion-Ownership?
  • Creator-owned Characters?
  • NFT-Integration?

(Das letzte ist hochspekulativ und möglicherweise dumm.)

Fazit: Die ehrliche Zusammenfassung

Was ich mit Sicherheit sagen kann:

  1. Der AI-Companion-Markt ist real und massiv (100M+ Nutzer, mehrstellige Milliarden USD)
  2. Visuelle Inhalte sind definitiv Teil des Produkts
  3. Irgendwer muss diesen Content erstellen
  4. Traditionelle Fotografiemärkte sind gesättigt und kämpfen

Was ich NICHT mit Sicherheit sagen kann:

  1. Dass es einen etablierten, zugänglichen Markt für Fotografen in diesem Bereich gibt
  2. Was die konkreten Verdienstmöglichkeiten sind
  3. Wie groß diese Nische wirklich ist
  4. Wie man seriös Zugang bekommt

Was ich vermute:

Es gibt wahrscheinlich einen kleinen, aber wachsenden Markt für spezialisierte Content-Creator in diesem Bereich. Er ist nicht transparentethisch komplex und rechtlich im Graubereich.

Frühe Mover könnten signifikante Einnahmen erzielen – aber mit erheblichen Risiken:

  • Reputationsrisiko
  • Rechtliche Unsicherheit
  • Ethische Komplikationen
  • Technologische Disruption

Meine Empfehlung:

Für die meisten Fotografen: Beobachten, aber nicht aktiv einsteigen.

Für experimentierfreudige Profis mit:

  • Starkem rechtlichem Verständnis
  • Klaren ethischen Grenzen
  • Finanzieller Sicherheit für Experimente
  • Technischem Interesse

…könnte es sich lohnen, vorsichtig zu erkunden.

Aber: Gehe mit offenen Augen rein. Dies ist kein Goldrausch. Es ist ein unübersichtliches, moralisch ambivalentes Terrain, in dem gerade etwas entsteht – was genau, wissen wir noch nicht.


Abschließende Transparenz:

Dieser Artikel mischt belegte Fakten (Nutzer zahlen, Marktgröße-Bandbreiten, Feature-Listen) mit fundierter Spekulation (Geschäftsmodelle, Verdienstmöglichkeiten, Markt-Zugänge).

Ich habe bewusst keine erfundenen Experten zitiert, keine nicht-existierenden Plattformen genannt und keine exakten Zahlen präsentiert, die ich nicht belegen kann.

Was ich biete: Eine ehrliche Analyse eines real existierenden, aber hochgradig intransparenten Marktes.

Die Wahrheit ist: Niemand weiß es genau. Und das ist vielleicht die wichtigste Information von allen.



Insider packen aus: Die Ära des 3-Prompt-Diebstahls geht zu Ende. Und die Internet-Mobs sind wütend.

Es ist 2:37 Uhr nachts. Irgendwo in einem Vorort tippt jemand drei Wörter in ein KI-Tool. Keine besonderen Wörter. Nichts Originelles. Einfach: „Berühmte Maus, Cyberpunk, 8K.“

Enter.

Zehn Sekunden später erscheint ein Bild, das so gut aussieht, dass es auf Anhieb 50.000 Likes bekommen würde. Es zeigt eine unverkennbare Figur – jeder erkennt sie sofort – in einem Style, für den ein Künstler-Team normalerweise Wochen brauchen würde. Drei Wörter. Zehn Sekunden. Null Talent nötig.

Willkommen in der absurdesten Kreativ-Ära der Menschheitsgeschichte.

Aber hier kommt der Plot Twist, den niemand kommen sah: Diese Ära geht gerade zu Ende. Und das Internet rastet aus.

Die Revolte der Prompt-Krieger: Warum plötzlich alle wütend sind

Seit Wochen häufen sich die Beschwerden in Foren, auf Twitter (oder X, oder wie auch immer Elon es diese Woche nennen will) und in Reddit-Threads mit Titeln wie „ZENSUR!!!“ oder „Sie nehmen uns die Kreativität weg!!“

Der Grund? Immer mehr KI-Bildgeneratoren sperren bekannte Figuren. Charaktere, die jeder kennt. Ikonische Gesichter aus Filmen, Comics, Videospielen. Plötzlich funktioniert der magische Drei-Wort-Trick nicht mehr. Plötzlich sagt die KI: „Nein.“

Und die Leute? Die sind stinksauer.

„Ich wollte doch nur eine coole Version von [berühmter Superheld] in meinem Lieblingsstil!“ – „Das ist Kreativitäts-Polizei!“ – „1984 lässt grüßen!“

Die Kommentarspalten kochen über. Die Empörung ist echt. Und sie ist komplett, vollkommen, hundertprozentig… daneben.

Denn was gerade passiert, ist nicht der Anfang einer Dystopie. Es ist der längst überfällige Reality-Check für eine Technologie, die aus der Hand geraten war, bevor überhaupt jemand gefragt hat, ob das alles so eine gute Idee ist.

Die unbequeme Wahrheit: Das war nie deine Kreativität

Lass uns ehrlich sein. Brutal ehrlich.

Wenn deine gesamte „kreative Vision“ darin besteht, den Namen einer weltbekannten Figur plus ein paar Style-Keywords in ein Textfeld zu hacken, dann bist du nicht kreativ. Dann bist du ein menschlicher Copy-Paste-Befehl mit Hauptrolle-Komplex.

Das hier ist keine Kunst:

  • „Spider-Man als Anime-Charakter“
  • „Darth Vader im Pixar-Stil“
  • „Pikachu als realistisches Tier, 4K“

Das ist eine Einkaufsliste. Ein Befehl. Ein „Mach mal für mich, was andere bereits erschaffen haben, nur anders verpackt.“

Und jahrelang haben KI-Tools genau das geliefert. Bedingungslos. Ohne Fragen. Wie ein kreatives Fast-Food-Restaurant, das nie zumacht und wo niemand nach deiner Kreditkarte oder deinem Gewissen fragt.

Das Ergebnis? Eine beispiellose Flut von Bildern, die technisch beeindruckend sind, ästhetisch funktionieren, aber inhaltlich so originell sind wie ein Filmfranchise im 17. Reboot.

Jeder konnte plötzlich in Sekunden etwas erschaffen, das aussah wie das Werk eines Profis. Nur dass es eben nicht das Werk von irgendjemandem war. Es war das statistische Mittel aus Millionen fremder Werke, zusammengerührt von einem Algorithmus, der ungefähr so viel moralisches Bewusstsein hat wie ein Taschenrechner.

Warum „Aber Fanart darf doch auch!“ das dümmste Argument ever ist

Spätestens hier kommt immer jemand um die Ecke mit dem großen Konter:

„Aber Fanart gibt’s doch auch! Warum darf ein Zeichner Spider-Man malen, aber ich darf ihn nicht prompten?“

Okay. Setzen wir uns hin. Das wird ein längeres Gespräch.

Erstens: Fanart ist Arbeit. Richtige, schweißtreibende, stundenlange Arbeit. Wer eine Figur von Hand zeichnet, entwickelt dabei Fähigkeiten, Stil, Interpretation. Das ist ein kreativer Prozess. Du lernst Anatomie, Perspektive, Lichtführung, Komposition. Auch wenn du eine bekannte Figur malst, investierst du etwas Eigenes.

Ein Prompt? Das ist ein Befehl. Drei Sekunden Arbeit. Null Entwicklung. Der einzige Skill, den du trainierst, ist das Tippen. Und vielleicht Copy-Paste, wenn du dir Prompts aus Foren klaust.

Zweitens: Fanart existiert oft in einem Graubereich, ja. Aber dieser Graubereich basiert auf jahrzehntelanger kultureller Praxis, stillschweigender Duldung und – ganz wichtig – der Tatsache, dass einzelne Fanzeichner keine industrielle Bedrohung für Rechteinhaber darstellen.

KI-generierte Bilder? Die sind skalierbar. Massenhaft. Industriell. Du kannst in einer Stunde hundert Varianten derselben Figur erzeugen. Du kannst sie verkaufen, monetarisieren, in Massen verbreiten. Das ist nicht mehr Fanliebe. Das ist Ausbeutung mit Tastatur.

Drittens: Die meisten Künstler, die Fanart machen, wissen genau, wo die Grenze liegt. Sie machen das aus Liebe zur Sache. Sie respektieren das Original. Sie würden nicht auf die Idee kommen, das offizielle Merchandise zu kopieren und als ihr eigenes auszugeben.

Prompt-Warriors? Die wollen genau das. Sie wollen das Ding, das alle erkennen. Mit minimalem Aufwand. Ohne Lizenz. Ohne Nachfrage. Einfach weil sie können.

Das ist nicht dasselbe. Nicht ansatzweise.

Die drei größten Lügen der Prompt-Generation

Lüge #1: „Ich habe das selbst gemacht.“

Nein. Du hast drei Wörter getippt. Die KI hat es gemacht. Und die KI wurde trainiert mit Millionen Bildern von echten Künstlern, deren Arbeit nie dafür gedacht war, in einem statistischen Mixer zu landen.

Lüge #2: „Das ist doch nur zum Spaß.“

Klar. Bis du es auf Redbubble lädst. Bis du es als NFT verkaufst. Bis du es als „meine Arbeit“ auf Portfolio-Seiten stellst. Dann ist der Spaß plötzlich Profit – auf fremdem Rücken.

Lüge #3: „Einschränkungen töten Kreativität.“

Falsch. Einschränkungen fördern Kreativität. Jeder ernsthafte Künstler weiß das. Wenn dir alle Türen offenstehen, gehst du den bequemsten Weg. Wenn eine Tür zu ist, musst du improvisieren. Denken. Etwas Neues finden.

Die Leute, die sich beschweren, dass sie keine bekannten Figuren mehr prompten können? Die wollten nie kreativ sein. Die wollten den schnellsten Weg zum beeindruckendsten Ergebnis. Das ist nicht Kunst. Das ist Optimierung.

Was wirklich passiert: Die Industrie wacht auf

Hier wird es interessant.

Denn die Sperren kommen nicht aus heiterem Himmel. Sie sind das Ergebnis von massivem rechtlichem und wirtschaftlichem Druck.

Disney, Marvel, Nintendo, DC, Pixar – die ganz großen Namen haben ihre Anwaltsteams längst mobilisiert. Und diese Teams sind nicht zum Spaß da. Die werden dafür bezallt, geistiges Eigentum zu verteidigen. Mit allen Mitteln.

Als Midjourney, Stable Diffusion und Co. anfingen, wurde das noch als „interessantes Experiment“ betrachtet. Süß. Technisch beeindruckend. Aber harmlos.

Dann kamen die ersten kommerziellen Fälle. Leute, die KI-generierte Bilder bekannter Figuren auf T-Shirts druckten. Poster verkauften. Covers gestalteten. Merchandise anboten. Und plötzlich war das keine Spielerei mehr. Plötzlich war das Markendiebstahl im industriellen Maßstab.

Die Reaktion ließ nicht lange auf sich warten.

Cease-and-Desist-Briefe. Abmahnungen. Gerichtliche Schritte. Druck auf die Plattformen. Und die Plattformen – die null Lust haben, in juristische Schlachten mit Medienkonzernen verwickelt zu werden – reagierten wie jedes vernünftige Tech-Unternehmen: Sie bauten Filter. Sie sperrten Namen. Sie blockierten Figuren.

Nicht aus Idealismus. Sondern aus Selbstschutz.

Warum das GUT ist – auch wenn es wehtut

Jetzt kommt der Teil, den viele nicht hören wollen:

Diese Einschränkungen sind das Beste, was der KI-Kunst passieren konnte.

Warum?

1. Sie zwingen zur echten Kreativität

Wenn du Spider-Man nicht mehr prompten kannst, musst du dir überlegen: Was wollte ich eigentlich ausdrücken? Die Idee eines maskierten Helden? Ein bestimmtes Gefühl? Eine Ästhetik?

Dann erschaffe eine eigene Figur. Mit eigenen Farben. Eigenem Design. Eigener Story.

Das ist Arbeit. Aber es ist auch deine Arbeit.

2. Sie schützen echte Künstler

Jede nicht-generierte Kopie ist ein Stück Marktschutz für die Menschen, die Jahre investiert haben, um Figuren, Stile und Welten aufzubauen.

KI ist ein Tool. Aber sie darf nicht zum Bulldozer werden, der alles plattmacht, was mühsam gewachsen ist.

3. Sie verhindern totale Beliebigkeit

Stell dir eine Welt vor, in der jeder in Sekunden perfekte Kopien jeder bekannten Figur erzeugen kann. Massenhaft. Endlos.

Was passiert dann? Die Figuren verlieren Wert. Bedeutung. Kulturelle Kraft.

Alles wird zum Remix. Nichts ist mehr Original. Niemand erschafft mehr neue Ikonen, weil die alten als Rohmaterial für algorithmische Endlosschleifen enden.

Das ist keine kreative Utopie. Das ist kultureller Kannibalismus.

4. Sie setzen ein Signal

Die Sperren sagen: Nicht alles ist kostenlos verfügbar, nur weil eine Maschine es kann.

Das ist wichtig. Für Urheberrecht. Für Respekt. Für die Zukunft kreativer Berufe.

Technologie darf nicht das Recht bekommen, alles zu nehmen, nur weil sie es kann. Sonst leben wir bald in einer Welt, in der Kreative aufhören zu erschaffen, weil ihre Arbeit sofort im nächsten Trainings-Dataset landet.

„Aber ich will doch nur spielen!“ – Die Ausrede, die keine ist

Häufigster Einwand:

„Ich mache das doch nur hobbymäßig! Ich verdiene kein Geld damit! Warum soll ich nicht einfach Spaß haben?“

Antwort: Darfst du. Absolut.

Aber nicht mit fremdem Eigentum, als wäre es deins.

Du darfst auch nicht in ein Museum gehen, ein berühmtes Gemälde fotografieren, es durch einen Instagram-Filter jagen und dann sagen: „Ich hab das selbst gemacht!“ Oder es ausdrucken und als Poster verkaufen mit dem Argument: „War doch nur Spaß!“

Das wäre absurd. Und genau das passiert gerade mit KI.

Nur weil die Technologie das ermöglicht, ist es nicht automatisch okay.

„Ich kann es“ ist kein moralisches Argument. War es nie. Wird es nie sein.

Die Zukunft ist nicht weniger kreativ – nur ehrlicher

Die KI-Bildgeneratoren werden nicht verschwinden. Im Gegenteil. Sie werden besser. Mächtiger. Vielseitiger.

Aber sie werden auch regulierter. Verantwortungsvoller. Kontrollierter.

Das bedeutet:

  • Mehr Kennzeichnungspflicht (damit klar ist, was KI ist)
  • Stärkere Filter (damit geschützte Inhalte nicht missbraucht werden)
  • Lizenzsysteme (damit Rechteinhaber fair vergütet werden)
  • Transparenz in Trainingsdaten (damit nachvollziehbar ist, woher die KI ihr „Wissen“ hat)

Für manche klingt das nach Dystopie. Für andere nach längst überfälligem Erwachsenwerden.

Die Wahrheit liegt – wie so oft – dazwischen.

KI kann ein unglaubliches Werkzeug sein. Für Konzeptkunst. Für Ideenfindung. Für echte, neue Kreationen.

Aber sie muss lernen, dass Inspiration nicht dasselbe ist wie Aneignung. Dass Remix nicht dasselbe ist wie Diebstahl. Dass „technisch möglich“ nicht bedeutet „moralisch in Ordnung“.

Was du jetzt tun kannst (statt dich zu beschweren)

Wenn du KI-Bildgenerierung liebst – wirklich liebst – dann ist jetzt die Zeit, es richtig zu machen:

1. Lerne Prompting als echtes Handwerk

Nicht „famous character + style“. Sondern: Wie beschreibe ich eine Stimmung? Eine Szene? Ein Gefühl? Ohne fremde Markennamen als Krücke?

2. Erschaffe eigene Charaktere

Nutze die KI, um etwas Neues zu entwickeln. Iteriere. Experimentiere. Entwickle einen Stil, der dein ist. Nicht der von Disney, mit einem Filter drüber.

3. Respektiere Grenzen

Wenn eine Figur gesperrt ist, akzeptiere es. Frag dich: Warum wollte ich genau diese Figur? Was macht sie aus? Kann ich diese Essenz in etwas Eigenem ausdrücken?

4. Unterstütze echte Künstler

Wenn dir ein Stil gefällt, such den Künstler. Folge ihm. Kauf seine Werke. Lerne von ihm.

KI ist kein Ersatz für echte Menschen. Sie ist ein Werkzeug. Behandle sie auch so.

Fazit: Der 3-Prompt-Diebstahl ist vorbei. Und das ist gut so.

Ja, die Zeiten ändern sich. Ja, bestimmte Dinge werden schwerer. Ja, du kannst nicht mehr einfach jeden beliebigen Superhelden in jeder Pose generieren lassen.

Aber das ist kein Verlust. Es ist Kurskorrektur.

Denn echte Kreativität war nie die Fähigkeit, schnell etwas Bekanntes neu zusammenzusetzen. Echte Kreativität ist die Fähigkeit, etwas zu erschaffen, das vorher nicht da war.

Und dafür braucht es mehr als drei Prompts.

Es braucht Vision. Geduld. Mut. Experimentierfreude. Die Bereitschaft zu scheitern. Den Willen, etwas zu sagen, nicht nur etwas Hübsches zu erzeugen.

Die KI-Revolution ist nicht vorbei. Sie fängt gerade erst richtig an.

Aber diesmal – hoffentlich – mit Regeln. Mit Respekt. Mit Verantwortung.

Und mit Menschen, die verstanden haben, dass das Werkzeug nur so gut ist wie die Absicht dahinter.

Die Frage ist nicht: „Kann ich diese Figur prompten?“

Die Frage ist: „Was habe ich eigentlich zu sagen?“

Und wenn die Antwort auf diese Frage ein berühmter Charakter plus ein Style-Keyword ist, dann war es vielleicht nie deine Geschichte.

Dann war es nur ein Shortcut.

Und Shortcuts – das weiß jeder, der jemals etwas wirklich Wertvolles erschaffen hat – führen nie zum Ziel.

Sie führen nur schneller ins Mittelmaß.


Die Wahrheit tut weh. Aber sie ist fair.

Die Ära des sorglosen 3-Wort-Diebstahls ist vorbei. Und die nächste Ära – die der echten, ehrlichen, mutigen KI-Kreativität – kann endlich beginnen.

Bist du bereit?

Oder brauchst du noch drei Prompts, um das zu entscheiden?

Nicht, weil Kunst kontrolliert werden sollte. Nicht, weil Technologie böse wäre. Sondern weil zwischen Inspiration und schamlosem Abgreifen ein Unterschied besteht, und weil ein System, das es jedem ermöglicht, mit drei hingeworfenen Stichworten auf dem geistigen Eigentum anderer spazieren zu gehen, nicht demokratisch ist – sondern bequem. Und Bequemlichkeit ist im kreativen Bereich oft nur ein höflicheres Wort für Ideenraub.

Der große Irrtum: „Ich habe doch nur einen Prompt eingegeben“

Einer der faszinierendsten Sätze unserer Zeit lautet:
„Aber ich habe es doch selbst gemacht.“

Das sagen Menschen, die einer Maschine drei Zeilen Text hingeworfen haben und dann sehr stolz auf ein Ergebnis blicken, das auf Abermillionen vorhandener Bilder, Stile, Designs, Erzähltraditionen und urheberrechtlich geprägter Sehgewohnheiten basiert. Natürlich ist Prompting in gewissem Sinne eine Tätigkeit. Man muss Wörter auswählen. Man muss eine Richtung vorgeben. Man muss wissen, ob man „moody lighting“ oder „cinematic volumetric fog“ schreiben will, damit am Ende alles so aussieht, als sei ein melancholischer Superheld gerade auf dem Weg zu einer sehr teuren Midlife-Crisis.

Aber zwischen „eine Richtung vorgeben“ und „etwas wirklich erschaffen“ liegt ein ziemlich großes Tal. Und dieses Tal ist gepflastert mit den Werken anderer Menschen.

Wenn jemand schreibt:
„Mach mir eine bekannte Comicfigur im Stil eines berühmten Animationsstudios mit realistischer Fellstruktur und epischem Hintergrund“,
dann passiert eben nicht nur harmlose Fantasie. Dann wird ein ganzes Paket an Wiedererkennbarkeit, Marktwert, Designarbeit und kulturellem Kapital angezapft, das andere über Jahre oder Jahrzehnte aufgebaut haben.

Das Problem ist nicht, dass Technologie das kann. Technologie konnte schon immer Dinge, die moralisch ein bisschen schmierig waren. Das Problem ist, dass viele Nutzer so tun, als sei der Vorgang plötzlich rein, originell und legitim, nur weil er in einer schicken Benutzeroberfläche stattfindet und von futuristischen Begriffen begleitet wird.

Mit anderen Worten:
Wenn du mit drei Prompts an etwas kommst, für das andere Teams aus Zeichnern, Autoren, Designern und Produzenten Jahre gebraucht haben, dann ist das kein magischer Triumph der Kreativität. Es ist eher der kreative Äquivalent dazu, über einen Gartenzaun zu greifen und anschließend zu behaupten, der Apfel sei jetzt dein Werk, weil du ihn selbst gehalten hast.

Warum Figuren überhaupt gesperrt werden

Die Antwort ist überraschend unromantisch:
Weil viele Figuren eben nicht einfach nur Figuren sind.

Sie sind Marken. Sie sind geistiges Eigentum. Sie sind Wiedererkennungsmaschinen. Sie sind über Jahrzehnte aufgebaute visuelle Signaturen mit enormem wirtschaftlichem Wert. Hinter einer ikonischen Figur stehen nicht nur ein paar Striche auf Papier, sondern Verträge, Designrichtlinien, Lizenzen, Merchandising, Filmrechte, kulturelle Aufladung und ein ganzer Wald aus juristischen Stolperdrähten.

Wenn ein KI-Tool nun sagt:
„Tut uns leid, diese Figur oder diese stark geschützte Charakterklasse können wir nicht generieren“,
dann ist das kein Angriff auf deine Fantasie. Es ist eine späte Erinnerung daran, dass Eigentum im kreativen Raum nicht plötzlich aufhört zu existieren, nur weil eine Maschine dazwischen sitzt.

Viele Menschen haben sich daran gewöhnt, dass das Internet alles verfügbar macht. Musik? Klick. Serien? Klick. Bilder? Klick. Memes? Tausendfach kopiert, zerlegt, rekombiniert. Dadurch ist das Gefühl entstanden, kulturelle Inhalte seien eine frei zugängliche Rohstoffmine, aus der man sich nach Belieben bedienen könne. KI-Bildgeneratoren treiben diese Mentalität auf die Spitze. Denn sie liefern nicht nur Zugriff – sie liefern Neuzusammenstellung auf Knopfdruck. Und plötzlich ist aus passivem Konsum aktives Ausschlachten geworden.

Dass Plattformen hier Grenzen einziehen, ist deshalb kein technischer Unfall, sondern ein überfälliger Realitätsabgleich.

„Aber Fanart gibt es doch auch!“ – Ja, und genau da wird’s spannend

Das häufigste Gegenargument lautet ungefähr so:
„Warum darf jemand Fanart zeichnen, aber ich darf die Figur nicht per KI generieren?“

Klingt zunächst clever. Ist es aber nur bis zu dem Punkt, an dem man genauer hinschaut.

Fanart ist bereits ein komplizierter Bereich. Sie bewegt sich oft in einer Grauzone aus Duldung, Kulturpraxis und stillschweigendem Einverständnis, solange bestimmte Grenzen nicht überschritten werden. Aber selbst dort gilt: Gute Fanart ist Arbeit. Sie ist Interpretation. Sie ist Können. Sie ist oft eine Liebeserklärung von Menschen, die eine Figur so sehr mögen, dass sie Zeit, Energie und Handwerk investieren, um ihr etwas Eigenes abzugewinnen.

KI-Prompting hingegen kann – nicht immer, aber oft – genau diesen Prozess abkürzen. Die emotionale und handwerkliche Leistung wird minimiert, während der visuelle Ertrag maximal nahe an bestehende Bekanntheit rückt. Das ist ein entscheidender Unterschied.

Die ehrliche Version des Vorgangs lautet nicht:
„Ich habe diese Figur neu interpretiert.“
Sondern eher:
„Ich habe ein Modell dazu gebracht, das bereits vorhandene kulturelle Gewicht dieser Figur für mich aufzubereiten, möglichst schnell und möglichst beeindruckend.“

Das ist weniger Atelier und mehr Drive-in.

Natürlich gibt es auch bei KI kreative, reflektierte und wirklich interessante Anwendungen. Aber genau deshalb sind Einschränkungen wichtig: damit die Technologie nicht komplett zur Turbo-Kopiermaschine für die bekanntesten visuellen Assets der Unterhaltungsindustrie verkommt.

Der Drei-Prompt-Diebstahl ist realer, als viele zugeben wollen

Die eigentliche Pointe dieser Debatte ist nämlich:
Viele Menschen wissen sehr genau, was sie tun.

Sie wollen nicht „etwas Eigenes mit ähnlicher Stimmung“ erschaffen.
Sie wollen das Ding, das alle erkennen, nur gerade genug verändert, um sich unschuldig fühlen zu können.

Sie wollen die Aura einer berühmten Figur, den Charme eines etablierten Franchises, die sofortige Aufmerksamkeit, die ein bekanntes Gesicht mitbringt – aber ohne Lizenzkosten, ohne Zusammenarbeit, ohne Erlaubnis, ohne den mühsamen Teil, bei dem man selbst etwas entwickeln müsste, das ähnliche Strahlkraft besitzt.

Und KI macht diesen Wunsch brutal effizient.

Früher brauchte man zumindest noch zeichnerisches Können, Geduld oder Photoshop-Erfahrung, um bekannte Designs überzeugend zu plündern. Heute reichen oft wenige Worte, etwas Stil-Vokabular und zehn Sekunden Wartezeit. Das senkt nicht nur die Hürde zur Produktion – es senkt auch die Hemmschwelle zur Aneignung.

Genau deshalb ist die Vorstellung, Einschränkungen seien eine Art übergriffige Gängelei, so schief. In Wahrheit sind sie ein Versuch, die völlig enthemmte Bequemlichkeit einzuhegen, die sich als kreative Freiheit verkleidet.

Denn Hand aufs Herz:
Wenn dein „künstlerischer Workflow“ daran scheitert, dass du keine weltbekannte Figur mehr direkt erzeugen kannst, dann war dein Hauptproblem vermutlich nie ein Mangel an Ausdrucksmöglichkeiten. Dein Hauptproblem war, dass du dich zu sehr daran gewöhnt hattest, auf fremdem Ruhm zu surfen.

Warum diese Grenzen auch echte Kreativität retten können

Hier kommt der Teil, den viele nicht hören wollen:
Einschränkungen können kreativ machen.

Ja, wirklich. Das ist keine pädagogische Floskel aus einem Volkshochschulkurs für Aquarellmalerei, sondern ein uraltes Prinzip fast jeder Kunstform. Wenn nicht alles erlaubt, sofort verfügbar und kostenlos kopierbar ist, muss man anfangen, eigene Lösungen zu finden. Plötzlich stellt sich nicht mehr die Frage:
„Wie bekomme ich exakt diese berühmte Figur in mein Bild?“
sondern:
„Wie erschaffe ich einen Charakter, der eine ähnliche Funktion erfüllt, aber wirklich meiner ist?“

Und genau da beginnt Gestaltung.

Vielleicht entsteht dann nicht der tausendste leicht veränderte Konzernheld in Neonlicht, sondern eine neue Figur mit eigener Geschichte. Vielleicht wird aus der Sehnsucht nach etwas Bekanntem eine originelle Variation. Vielleicht entwickelt jemand tatsächlich einen Stil, statt nur Stile zu konsumieren.

Die kreative Industrie ist voll von Menschen, die gelernt haben, mit Einflüssen zu arbeiten, ohne schlicht zu nehmen. Das ist schwerer. Es dauert länger. Es ist oft frustrierender. Aber es ist eben auch der Unterschied zwischen Kunst und bloßem kulturellen Nachladen.

KI wird als Werkzeug nicht schlechter, wenn sie hier Grenzen zieht. Sie wird interessanter. Denn dann muss der Mensch davor plötzlich wieder mehr beitragen als bloße Wiedererkennungssehnsucht.

Die unsichtbare Seite: Schutz für Künstler, Studios und kleine Kreative

Man denkt bei gesperrten Figuren oft zuerst an die ganz Großen: die riesigen Konzerne, die sich auch ohne unsere Sorge ganz gut verteidigen können. Und ja, selbstverständlich profitieren gerade große Marken von solchen Sperren. Aber die Debatte endet dort nicht.

Denn dieselbe Logik betrifft auch kleinere Studios, Independent-Künstler, Comiczeichner, Game-Designer und Character Artists, deren visuelle Handschrift oder Figuren deutlich verletzlicher sind. Für sie ist es nicht bloß ärgerlich, wenn ein Modell in Sekunden „etwas sehr Ähnliches“ ausspuckt. Es kann existenziell sein. Aufmerksamkeit, Aufträge und Wiedererkennbarkeit sind in kreativen Berufen keine Luxusgüter, sondern Lebensgrundlagen.

Wenn KI-Systeme ohne starke Leitplanken dazu genutzt werden, massenhaft bestehende Figuren, Look-and-Feels und charakteristische Designs zu approximieren, dann wird nicht nur „gespielt“. Dann wird Marktwert umgeleitet. Dann wird Arbeit entwertet. Dann entsteht eine Kultur, in der Originalität zwar rhetorisch gefeiert, praktisch aber permanent unterlaufen wird.

Einschränkungen sind deshalb auch eine Schutzmauer gegen die völlige Verflachung kreativer Ökosysteme. Nicht perfekt, nicht vollständig, aber notwendig.

Aber ist das nicht nur Symbolpolitik?

Ein fairer Einwand lautet:
Selbst wenn bestimmte Figuren gesperrt sind, finden Nutzer doch Umwege. Sie beschreiben die Figur indirekt, umgehen Namen, kombinieren Merkmale, tricksen Systeme aus. Bringen die Sperren dann überhaupt etwas?

Ja. Denn Regeln müssen nicht absolut perfekt sein, um sinnvoll zu sein.

Schon die Existenz solcher Schranken verändert das Signal, das eine Plattform aussendet. Sie sagt damit:
Wir betrachten diese Nutzung nicht als harmlosen Standardfall.
Sie normalisiert nicht mehr das direkte Abrufen fremder Ikonen, sondern macht klar, dass hier ein problematischer Bereich beginnt.

Das ist wichtig. Technologie prägt Kultur nicht nur durch das, was sie ermöglicht, sondern auch durch das, was sie als normal erscheinen lässt. Wenn ein Generator bereitwillig jede berühmte Figur auf Zuruf ausliefert, vermittelt er: Das hier ist okay. Das ist Alltag. Das ist bloß ein Feature. Wenn er stattdessen blockt, warnt oder begrenzt, verschiebt sich die Norm.

Und Kultur hängt erstaunlich stark an Normen.

Natürlich wird es immer Menschen geben, die Grenzen umgehen wollen. Aber daraus zu schließen, Grenzen seien sinnlos, wäre ungefähr so intelligent wie zu sagen, Haustüren seien überflüssig, weil es Einbrecher gibt.

Die bequeme Verwechslung von Freiheit und Zugriff

Ein tiefer liegender Fehler in dieser Debatte ist die Gleichsetzung von Freiheit mit unbegrenztem Zugriff.

Viele Nutzer fühlen sich frei, wenn sie alles generieren dürfen. Aber das ist nicht zwangsläufig kreative Freiheit. Oft ist es einfach Zugriff auf bestehende Attraktionswerte. Echte Freiheit in der Kunst heißt nicht, dass dir jedes bekannte Symbol auf Abruf gehört. Echte Freiheit heißt, dass du in der Lage bist, etwas auszudrücken – auch dann, wenn du nicht auf die berühmtesten Figuren der Welt zurückgreifen kannst.

Wer das als Zumutung empfindet, verrät damit unbeabsichtigt etwas ziemlich Komisches über das eigene Kreativitätsverständnis.

Denn wenn Freiheit für dich bedeutet, dass du mit minimalem Aufwand maximal nah an geschützte Ikonen herankommst, dann willst du vielleicht gar nicht frei sein. Vielleicht willst du nur ohne Reibung verwerten.

Das ist verständlich. Das menschliche Gehirn liebt Abkürzungen. Aber man sollte Abkürzungen nicht mit künstlerischer Selbstverwirklichung verwechseln.

Die Zukunft wird ohnehin härter reguliert – und das ist kein Weltuntergang

Wer glaubt, die aktuellen Sperren seien das Ende der Fahnenstange, wird wahrscheinlich enttäuscht sein. Die nächsten Jahre werden ziemlich sicher mehr Regeln bringen: bessere Erkennung geschützter Figuren, strengere Filter, klarere Haftungsfragen, vertraglich geregelte Datennutzung, möglicherweise Kennzeichnungspflichten und robustere Rechteverwaltung.

Das klingt für manche nach dem Untergang des kreativen Abendlandes, ist aber in Wahrheit nur das normale Erwachsenwerden einer Technologie, die zuerst mit maximaler Euphorie in den Raum geworfen wurde und nun lernen muss, dass die Welt aus mehr besteht als Demos, viralen Posts und „Wow, guck mal, ich hab in 15 Sekunden was Krasses gemacht“.

Jede mächtige Technologie durchläuft diese Phase. Erst kommt die Faszination. Dann die Enthemmung. Dann die Ausbeutung. Dann die Debatte. Dann die Regulierung. Und irgendwann später nennt man das Ganze „verantwortungsvollen Einsatz“, als wäre nie etwas anderes geplant gewesen.

KI-Bildgeneratoren sind da keine Ausnahme.

Das eigentliche Problem ist nicht die Sperre – sondern was sie sichtbar macht

Vielleicht ärgert viele Menschen an diesen Einschränkungen nicht einmal primär, dass sie bestimmte Figuren nicht mehr generieren können. Vielleicht ärgert sie, dass dadurch plötzlich sichtbar wird, wie viel ihres vermeintlich kreativen Outputs auf bereits bekannten Vorlagen beruhte.

Sobald die populärsten Charaktere, die stärksten Marken und die offensichtlichsten visuellen Fremdwerte wegfallen, entsteht eine unangenehme Leerstelle. Und in dieser Leerstelle sitzt eine Frage, die man lieber nicht so laut hören möchte:

Was wolltest du eigentlich selbst sagen?

Nicht: Was wolltest du zitieren?
Nicht: Was wolltest du remixen?
Nicht: Wessen kulturelle Wucht wolltest du anzapfen?
Sondern: Was kommt von dir?

Das ist die produktive Kränkung, die solche Sperren auslösen können. Und vielleicht ist genau sie der Grund, warum sie so heftig diskutiert werden.

Fazit: Mehr Sperren sind kein Angriff auf Kreativität, sondern ein Schutz vor der billigsten Form ihrer Simulation

Natürlich wird es weiterhin Graubereiche geben. Natürlich werden Plattformen Fehler machen, zu viel sperren oder zu wenig. Natürlich wird es Fälle geben, in denen legitime Parodie, Hommage oder Transformation unnötig erschwert werden. Und selbstverständlich darf man darüber diskutieren. Das sollte man sogar.

Aber das Grundprinzip bleibt richtig:
Wenn KI-Bildgeneratoren es schwerer machen, geschützte Figuren einfach mit ein paar Prompts abzurufen, dann ist das kein Kulturverlust. Es ist ein längst fälliges Korrektiv.

Weil nicht alles, was technisch leicht geworden ist, auch kulturell gesund ist.
Weil Wiedererkennbarkeit kein Selbstbedienungsladen ist.
Weil „Ich kann es prompten“ nicht dasselbe bedeutet wie „Es gehört in meinen kreativen Besitzbereich“.
Und weil eine Welt, in der jede ikonische Figur nur noch ein Shortcut in einer Benutzeroberfläche ist, nicht offener, spielerischer und kreativer wird – sondern flacher.

Die gute Nachricht lautet: Kreativität stirbt daran nicht. Sie bekommt nur wieder Arbeit.

Und das ist vielleicht die beste Nachricht von allen.

Denn echte Ideen entstehen selten dort, wo man einfach nur nehmen darf, was schon glänzt.
Sie entstehen dort, wo man gezwungen ist, selbst Licht zu machen.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.




Ein Plädoyer für eine neue visuelle Kompetenz im Zeitalter synthetischer Medien


Einleitung: Das Ende der fotografischen Unschuld

Es gibt einen Satz, der die westliche Medienkultur über mehr als anderthalb Jahrhunderte geprägt hat wie kaum ein anderer: „Ein Bild sagt mehr als tausend Worte.“ Dieser Satz war nie ganz richtig – aber er war lange Zeit wirksam. Die Fotografie, später das Bewegtbild, galten als Dokumente der Wirklichkeit. Was die Kamera einfing, das war geschehen. Das Bild war Beweis. Es war Zeugnis. Es war Wahrheit.

Diese Ära ist vorbei.

Wir leben heute in einer Welt, in der fotorealistische Bilder in Sekunden generiert werden können – ohne dass je ein Fotograf eine Kamera in der Hand gehalten hätte. In der Videos von Politikern kursieren, die Dinge sagen, die sie nie gesagt haben. In der ein einzelnes, geschickt manipuliertes Bild politische Spannungen schüren kann – man denke etwa an dekontextualisierte Kriegsbilder aus Syrien, der Ukraine oder dem Gaza-Konflikt, die immer wieder in falschen Zusammenhängen durch soziale Medien wandern und dabei Empörung, Hass und Gewaltbereitschaft befeuern. Die technologischen Möglichkeiten der Bildgenerierung und -manipulation haben ein Niveau erreicht, das unsere kulturell tief verankerte Bereitschaft, Bildern zu vertrauen, zu einem ernsthaften gesellschaftlichen Risiko macht.

Dieser Beitrag ist kein Aufruf zur Paranoia. Er ist ein Plädoyer für das, was ich als kompetentes Misstrauen bezeichne: die Fähigkeit, Bilder kritisch zu betrachten, ohne in einen lähmenden Generalverdacht zu verfallen. Es geht um eine neue Kulturtechnik, die so grundlegend werden muss wie das Lesen und Schreiben – eine visuelle Literalität, die der Komplexität unserer medialen Gegenwart gerecht wird.


1. Warum wir Bildern glauben: Die Psychologie des visuellen Vertrauens

Um zu verstehen, warum die Herausforderung so groß ist, müssen wir zunächst verstehen, warum wir Bildern überhaupt so bereitwillig Glauben schenken. Die Antwort liegt tief in unserer Kognition.

Der Primat des Sehens

Der Mensch ist ein visuelles Wesen. Ein erheblicher Teil unserer Großhirnrinde – je nach Studie und Definition zwischen 20 und 35 Prozent – ist an der Verarbeitung visueller Informationen beteiligt. Damit nimmt das Sehen mehr kortikale Ressourcen in Anspruch als jede andere Sinnesmodalität. Evolutionär war das Sehen unser zuverlässigster Sinn: Was wir mit eigenen Augen sahen, war real. Diese biologische Grunddisposition hat sich über Jahrmillionen herausgebildet und lässt sich nicht einfach durch rationale Einsicht überschreiben.

Die Evidenzillusion der Fotografie

Mit der Erfindung der Fotografie im 19. Jahrhundert wurde diese natürliche Vertrauensneigung technisch verstärkt. Die Fotografie schien ein mechanisches Abbild der Realität zu liefern – scheinbar objektiv, scheinbar unbestechlich. Der französische Semiotiker Roland Barthes sprach vom „ça a été“ – dem „Es-ist-so-gewesen“ – als dem Wesenskern der Fotografie. Das Foto bezeugt, dass etwas vor der Linse existiert hat.

Diese Evidenzillusion war von Anfang an problematisch. Schon die frühesten Fotografen wussten um die Macht der Bildauswahl, der Perspektive, des Ausschnitts. Die berühmten Kriegsfotografien des Krimkrieges von Roger Fenton wurden inszeniert. Die ikonischen Bilder des 20. Jahrhunderts – vom Flaggenhissen auf Iwo Jima bis zum Napalm-Mädchen in Vietnam – entfalteten ihre Wirkung nicht allein durch ihren dokumentarischen Gehalt, sondern durch Komposition, Timing und die redaktionellen Entscheidungen, die ihrer Veröffentlichung vorausgingen.

Doch trotz dieser frühen Erkenntnisse hielt sich der kulturelle Glaube an die fotografische Wahrheit hartnäckig. Und genau dieses Erbe macht uns heute verwundbar.

Der Mere-Exposure-Effekt und die Verarbeitungsflüssigkeit

Die kognitionspsychologische Forschung kennt zwei weitere Mechanismen, die unser Bildvertrauen stützen. Der Mere-Exposure-Effekt besagt, dass wir Dinge, die uns vertraut erscheinen, für glaubwürdiger halten. In einer von Bildern gesättigten Medienumgebung erscheint uns das fotografische Bild als das natürlichste Medium der Welt – und damit als das glaubwürdigste.

Hinzu kommt die sogenannte Verarbeitungsflüssigkeit (processing fluency): Informationen, die unser Gehirn schnell und mühelos verarbeiten kann, werden als wahrer empfunden. Bilder werden schneller verarbeitet als Texte. Ein Foto „verstehen“ wir in Millisekunden. Diese kognitive Leichtigkeit macht uns anfällig dafür, die Glaubwürdigkeit des Bildes nicht zu hinterfragen.


2. Von Photoshop zu Midjourney: Die technologische Revolution der Bildmanipulation

Die Manipulation von Bildern ist so alt wie die Fotografie selbst. Doch die technologischen Mittel haben sich in den letzten Jahren qualitativ verändert – und diese qualitative Veränderung erfordert eine qualitativ neue Antwort.

Die erste Welle: Digitale Retusche

Mit dem Aufkommen digitaler Bildbearbeitung in den 1990er Jahren – Photoshop wurde 1990 veröffentlicht – wurde die Bildmanipulation demokratisiert. Plötzlich konnte jeder mit einem Computer Bilder verändern: Personen entfernen, Hintergründe austauschen, Proportionen verzerren. Die Modeindustrie machte davon exzessiven Gebrauch; die Nachrichtenbranche sah sich mit ersten Fälschungsskandalen konfrontiert.

Dennoch blieb die Manipulation in dieser Phase erkennbar – zumindest für geschulte Augen. Forensische Bildanalyse konnte Inkonsistenzen in Beleuchtung, Perspektive oder Pixelstrukturen aufdecken. Die Fälschung war möglich, aber aufwändig. Und sie setzte ein bestehendes Bild voraus, das verändert wurde.

Die zweite Welle: Generative KI

Was wir seit etwa 2022 erleben, ist fundamental anders. Generative KI-Systeme wie DALL-E, Midjourney, Stable Diffusion oder Firefly erzeugen Bilder nicht durch Manipulation bestehender Fotografien, sondern aus dem Nichts. Ein Textprompt genügt, und das System generiert ein fotorealistisches Bild, das kein Referenzbild in der realen Welt hat. Es gibt kein Original, das verfälscht wurde. Es gibt nur ein synthetisches Artefakt, das aussieht wie ein Foto.

Das hat weitreichende Konsequenzen:

  • Forensische Analyse wird schwieriger. Traditionelle Methoden der Bildforensik – Analyse von Metadaten, Beleuchtungskonsistenz, Error-Level-Analysis – stoßen bei vollständig generierten Bildern an ihre Grenzen.
  • Die technische Einstiegshürde sinkt drastisch. Man braucht kein tiefes technisches Wissen mehr, keine Photoshop-Kenntnisse, keine gestalterische Erfahrung. Ein Satz reicht, um ein fotorealistisches Bild zu erzeugen. Für wirksame Desinformation braucht es zwar weiterhin narrative Kompetenz, Plattformwissen und Reichweite – doch die rein technische Hürde der Bildproduktion ist nahezu verschwunden.
  • Die Geschwindigkeit explodiert. Was früher Stunden oder Tage dauerte, geschieht nun in Sekunden. Die Produktion von Desinformation wird skalierbar.

Deepfakes: Wenn das Bewegtbild lügt

Parallel dazu haben sich Deepfake-Technologien entwickelt, die es ermöglichen, Gesichter in Videos auszutauschen, Stimmen zu klonen und ganze Auftritte zu simulieren. Im März 2022 kursierte ein Deepfake-Video des ukrainischen Präsidenten Selenskyj, in dem er angeblich zur Kapitulation aufrief. Die Qualität war damals noch erkennbar mangelhaft – doch die Technologie verbessert sich rasant.

Die Frage ist nicht mehr, ob täuschend echte synthetische Medien möglich sind. Die Frage ist, wie wir als Gesellschaft damit umgehen.


3. Die gesellschaftlichen Folgen: Desinformation, Vertrauenserosion und die „Liar’s Dividend“

Die Verfügbarkeit hochqualitativer synthetischer Bilder und Videos hat bereits heute spürbare gesellschaftliche Auswirkungen.

Desinformation und Manipulation

Der offensichtlichste Effekt ist die Verwendung gefälschter oder generierter Bilder zur gezielten Desinformation. Ob in politischen Kampagnen, in Kriegspropaganda oder in verschwörungstheoretischen Netzwerken – das synthetische Bild ist zur Waffe geworden. Die Geschwindigkeit sozialer Medien tut ihr Übriges: Ein falsches Bild kann sich viral verbreiten, bevor irgendein Faktencheck greifen kann. Die emotionale Wirkung des Bildes ist längst entfaltet, wenn die Korrektur kommt – und die Korrektur erreicht ohnehin nur einen Bruchteil der ursprünglichen Reichweite.

Besonders perfide ist dabei die Tatsache, dass KI-generierte Bilder oft gezielt auf emotionale Trigger setzen: leidende Kinder, brennende Gebäude, empörende Szenen. Sie nutzen unsere empathischen Reflexe gegen uns. Wer ein Bild eines weinenden Kindes sieht, prüft nicht als Erstes die Metadaten. Er fühlt – und handelt.

Die Erosion des Grundvertrauens

Doch die Desinformation ist nur die eine Seite des Problems. Die andere – und möglicherweise gravierendere – ist die Erosion des Grundvertrauens in visuelle Medien insgesamt. Wenn jedes Bild gefälscht sein könnte, warum sollte man irgendeinem Bild noch glauben?

Diese Dynamik ist toxisch, denn sie untergräbt auch die Glaubwürdigkeit authentischer Bilder. Seriöser Fotojournalismus, dokumentarische Aufnahmen von Menschenrechtsverletzungen, Beweisfotos – sie alle geraten unter Generalverdacht. Die Wahrheit wird nicht nur durch Fälschungen beschädigt, sondern auch dadurch, dass die bloße Möglichkeit der Fälschung ausreicht, um Zweifel zu säen.

Die „Liar’s Dividend“

Die Rechtswissenschaftler Robert Chesney und Danielle Citron haben dieses Phänomen als „Liar’s Dividend“ bezeichnet: den Vorteil, den Lügner daraus ziehen, dass Deepfakes und synthetische Medien existieren. Jeder, der mit einem kompromittierenden Bild oder Video konfrontiert wird, kann nun behaupten: „Das ist ein Deepfake.“ Und diese Behauptung ist schwer zu widerlegen – denn tatsächlich könnte es ein Deepfake sein.

Politiker nutzen dieses Narrativ bereits. Autokratische Regime nutzen es, um Beweise für Menschenrechtsverletzungen zu diskreditieren. Die „Liar’s Dividend“ schafft eine Welt, in der nicht nur Lügen als Wahrheit, sondern auch Wahrheiten als Lügen verkauft werden können. Das ist die eigentliche epistemische Krise unserer Zeit.


4. Kompetentes Misstrauen: Was wir brauchen – und was nicht

Angesichts dieser Lage wäre die naheliegende Reaktion, allem zu misstrauen. Doch genau das wäre falsch. Ein generalisiertes Misstrauen gegenüber allen Bildern führt in denselben epistemischen Nihilismus, den die Produzenten von Desinformation anstreben. Wenn nichts mehr wahr sein kann, ist alles gleich gültig – und damit gleichgültig.

Was wir stattdessen brauchen, ist das, was ich als kompetentes Misstrauen bezeichne: eine differenzierte, informierte und kontextbezogene Haltung gegenüber visuellen Medien. Aktuelle Forschung stützt diesen Ansatz: Studien zeigen, dass gezielte Literacy-Interventionen Menschen tatsächlich besser darin machen, Deepfakes zu erkennen – ohne das Vertrauen in authentische Bilder komplett zu zerstören. Kompetentes Misstrauen ist also kein theoretisches Ideal, sondern eine erlernbare Fähigkeit mit nachgewiesener Wirksamkeit.

Die Grundprinzipien kompetenten Misstrauens

1. Quelle vor Inhalt. Die erste Frage bei jedem Bild sollte nicht sein: „Was zeigt es?“, sondern: „Woher kommt es?“ Ein Bild, das von einer etablierten Nachrichtenagentur mit klarer Quellenangabe veröffentlicht wird, verdient ein anderes Maß an Vertrauen als ein Bild, das anonym in einem Telegram-Kanal auftaucht. Das klingt banal – aber in der Praxis wird diese einfache Prüfung erstaunlich selten durchgeführt.

2. Kontext prüfen. Bilder werden häufig nicht gefälscht, sondern dekontextualisiert. Ein echtes Foto wird mit einer falschen Bildunterschrift versehen, einem anderen Zeitpunkt zugeordnet oder in einen irreführenden narrativen Rahmen gestellt. Die Rückwärts-Bildersuche (etwa über Google Images oder TinEye) ist ein einfaches, aber erstaunlich wirksames Werkzeug, um solche Dekontextualisierungen aufzudecken.

3. Emotionale Distanz wahren. Bilder, die starke Emotionen auslösen – Empörung, Mitleid, Wut, Begeisterung – verdienen besondere Vorsicht. Nicht weil Emotionen illegitim wären, sondern weil sie unsere kritische Urteilsfähigkeit herabsetzen. Die bewusste Entscheidung, vor dem Teilen innezuhalten und zu prüfen, ist ein Akt intellektueller Selbstdisziplin.

4. Technische Hinweise kennen. Auch wenn die Qualität synthetischer Bilder rasant steigt, gibt es nach wie vor typische Artefakte: unnatürliche Hände, inkonsistente Textdarstellungen, merkwürdige Hintergründe, zu perfekte Haut, fehlende oder verdoppelte Accessoires. Diese Hinweise zu kennen ersetzt keine technische Analyse – aber es schärft den Blick.

5. Unsicherheit aushalten. Kompetentes Misstrauen bedeutet auch, zu akzeptieren, dass man manchmal nicht wissen kann, ob ein Bild authentisch ist. Diese Unsicherheit auszuhalten, ohne vorschnell zu urteilen, ist eine Kompetenz, die in einer von Gewissheitsansprüchen dominierten Medienkultur besonders schwer fällt – aber umso wichtiger ist.


5. Bildung, Institutionen, Technologie: Ein Drei-Säulen-Modell

Kompetentes Misstrauen kann nicht allein eine individuelle Leistung sein. Es braucht strukturelle Unterstützung auf drei Ebenen.

Säule 1: Bildung

Visuelle Medienkompetenz muss zu einem festen Bestandteil schulischer und außerschulischer Bildung werden. Nicht als Wahlfach, nicht als Projektwoche, sondern als Querschnittskompetenz, die in verschiedenen Fächern verankert wird: in der Politischen Bildung, im Kunstunterricht, in der Informatik, im Deutschunterricht.

Kinder und Jugendliche müssen lernen:

  • wie Bilder produziert und verbreitet werden,
  • welche Absichten hinter Bildkommunikation stehen können,
  • wie generative KI funktioniert (auf konzeptioneller Ebene),
  • welche Werkzeuge zur Verifizierung zur Verfügung stehen,
  • und wie man mit Unsicherheit umgeht.

Dabei geht es nicht darum, eine Generation von Zynikern heranzuziehen, die keinem Medium mehr traut. Es geht darum, mündige Mediennutzerinnen und Mediennutzer zu bilden, die in der Lage sind, informierte Urteile zu fällen. Die Analogie zum Lesenlernen ist hier keine Übertreibung: So wie die Alphabetisierung die Voraussetzung für die Teilhabe an der Schriftkultur war, ist visuelle Literalität die Voraussetzung für die Teilhabe an der digitalen Medienkultur.

Säule 2: Institutionelle Verantwortung

Medienorganisationen, Plattformen und staatliche Institutionen tragen eine besondere Verantwortung.

Medienorganisationen müssen ihre Verifizierungsprozesse stärken und transparent machen. Nachrichtenagenturen wie AP, Reuters oder die dpa investieren bereits erheblich in Faktenchecking und Bildverifizierung. Diese Arbeit muss sichtbarer werden – nicht nur als nachträgliche Korrektur, sondern als integraler Bestandteil der Berichterstattung.

Plattformen – von Meta über X bis TikTok – müssen technische und regulatorische Maßnahmen ergreifen, um die Verbreitung synthetischer Medien ohne Kennzeichnung einzudämmen. Content-Authentifizierungsinitiativen wie die Content Authenticity Initiative (CAI) oder der C2PA-Standard (Coalition for Content Provenance and Authenticity) arbeiten an digitalen Herkunftsnachweisen für Medieninhalte: einer Art „Lieferkette“ für Bilder, die dokumentiert, wann, wo und wie ein Bild erstellt und bearbeitet wurde. Wichtig ist dabei: Solche Standards belegen Provenienz, nicht Wahrheit. Sie können nachweisen, woher ein Bild stammt und welche Bearbeitungsschritte es durchlaufen hat – aber sie können nicht garantieren, dass das Abgebildete die Realität korrekt wiedergibt. Trotzdem sind sie ein entscheidender Baustein, weil sie Transparenz schaffen, wo bisher Intransparenz herrschte.

Staatliche Akteure müssen regulatorische Rahmenbedingungen schaffen. Die EU hat mit dem AI Act einen ersten Schritt getan, indem sie Kennzeichnungspflichten für KI-generierte Inhalte vorsieht. Doch Regulierung allein löst das Problem nicht – sie muss von Bildung und technischen Lösungen flankiert werden.

Säule 3: Technologische Werkzeuge

Die Technologie, die das Problem verursacht, muss auch Teil der Lösung sein. Dazu gehören:

  • KI-basierte Detektionstools, die synthetische Bilder erkennen können (auch wenn dies ein Katz-und-Maus-Spiel bleibt),
  • Digitale Wasserzeichen und Metadaten-Standards, die die Herkunft von Bildern nachvollziehbar machen,
  • Browser-Plugins und Apps, die Nutzerinnen und Nutzern einfache Verifizierungswerkzeuge an die Hand geben,
  • und offene Datenbanken, die bekannte manipulierte oder generierte Bilder katalogisieren.

Entscheidend ist, dass diese Werkzeuge niedrigschwellig zugänglich sind. Die beste Verifizierungstechnologie nützt nichts, wenn sie nur Expertinnen und Experten zur Verfügung steht. Sie muss in die alltägliche Mediennutzung integriert werden – so selbstverständlich wie der Spamfilter im E-Mail-Postfach.


6. Die ethische Dimension: Misstrauen als Verantwortung

Kompetentes Misstrauen ist nicht nur eine kognitive Fähigkeit – es ist eine ethische Haltung. Wer ein ungeprüftes Bild teilt, das sich als Fälschung herausstellt, trägt Mitverantwortung für die Desinformation, die daraus entsteht. Wer ein authentisches Bild vorschnell als Fälschung abtut, trägt Mitverantwortung für die Erosion der Wahrheit.

Diese doppelte Verantwortung – weder leichtgläubig noch zynisch zu sein – ist anspruchsvoll. Sie verlangt kognitive Anstrengung in einem medialen Umfeld, das auf Schnelligkeit, Emotionalität und Vereinfachung optimiert ist. Aber genau darin liegt die ethische Herausforderung unserer Zeit: die Bereitschaft, langsamer zu denken als die Algorithmen es von uns verlangen.

Die Philosophin Onora O’Neill hat in ihren Arbeiten zum Vertrauen darauf hingewiesen, dass informiertes Vertrauen – im Gegensatz zu blindem Vertrauen – immer auch die Bereitschaft zum Misstrauen einschließt. Vertrauen ohne die Möglichkeit des Misstrauens ist Naivität. Misstrauen ohne die Möglichkeit des Vertrauens ist Paranoia. Was wir brauchen, ist die Fähigkeit, uns bewusst und begründet zwischen beiden Polen zu bewegen.


7. Ein Blick nach vorn: Leben in der postfotografischen Welt

Manche Theoretiker sprechen bereits von einer postfotografischen Ära – einer Zeit, in der das Bild seinen Status als Beweismittel endgültig verloren hat. Ich halte diese Diagnose für verfrüht, aber nicht für unbegründet. Was sich zweifellos verändert hat, ist die Beweislast: Während früher die Fälschung nachgewiesen werden musste, muss zunehmend die Authentizität belegt werden.

Diese Verschiebung hat tiefgreifende Auswirkungen auf den Journalismus, die Rechtsprechung, die Wissenschaft und den gesellschaftlichen Diskurs insgesamt. Sie verlangt neue Standards, neue Werkzeuge und – vor allem – neue Kompetenzen.

Doch ich bin nicht pessimistisch. Jede medientechnologische Revolution – der Buchdruck, der Rundfunk, das Internet – hat zunächst Phasen der Verunsicherung und des Missbrauchs durchlaufen, bevor sich gesellschaftliche Normen, Institutionen und Kompetenzen herausbildeten, die einen konstruktiven Umgang ermöglichten. Wir stehen am Anfang eines solchen Prozesses.

Die entscheidende Frage ist, ob wir diesen Prozess aktiv gestalten oder ob wir ihn geschehen lassen. Ob wir in Bildung investieren oder auf technologische Selbstregulation hoffen. Ob wir den Diskurs über visuelle Wahrheit führen oder ihn den Extremen überlassen – den Leichtgläubigen auf der einen und den Nihilisten auf der anderen Seite.


Fazit: Sehen lernen – neu

Die Fähigkeit zu sehen ist uns angeboren. Die Fähigkeit, dem Gesehenen kompetent zu begegnen, ist es nicht. Sie muss erlernt, geübt und institutionell gestützt werden.

Der Wahrheit ins Auge zu sehen bedeutet heute auch, der Fragilität visueller Wahrheit ins Auge zu sehen. Es bedeutet, die Grenzen unserer Wahrnehmung anzuerkennen, die Leistungsfähigkeit generativer Technologien ernst zu nehmen und die eigene Urteilsfähigkeit bewusst zu schärfen.

Kompetentes Misstrauen ist kein Zeichen von Schwäche oder Zynismus. Es ist ein Ausdruck intellektueller Reife und demokratischer Verantwortung. In einer Welt, in der Bilder mächtiger sind als je zuvor – und zugleich trügerischer als je zuvor – ist die Fähigkeit, klug zu zweifeln, eine der wichtigsten Kompetenzen, die wir entwickeln können.

Lernen wir, Bildern zu misstrauen – nicht um sie zu verwerfen, sondern um ihnen den Respekt entgegenzubringen, den sie verdienen: den Respekt einer kritischen, wachen und informierten Betrachtung.


Über den Autor: Dieser Beitrag wurde aus der Perspektive eines Experten für Medienkompetenz und visuelle Kommunikation verfasst. Er versteht sich als Diskussionsbeitrag an der Schnittstelle von Medientheorie, Kognitionspsychologie und digitaler Ethik.


Änderungsprotokoll gegenüber der Erstfassung

Im Sinne der Transparenz dokumentiere ich hier die vorgenommenen Korrekturen und Präzisierungen:

  1. „30 Prozent der Großhirnrinde“ → geändert zu „zwischen 20 und 35 Prozent, je nach Studie und Definition“. Die ursprüngliche Angabe war als populärwissenschaftliche Faustformel vertretbar, aber als harte Zahl wissenschaftlich nicht präzise genug.
  2. „Die Qualität verbessert sich exponentiell“ → geändert zu „rasant“. „Exponentiell“ suggeriert ein streng mathematisches Wachstumsgesetz, das hier nicht belegt ist.
  3. „Die Einstiegshürde sinkt auf null“ → geändert zu „Die technische Einstiegshürde sinkt drastisch“, ergänzt um den Hinweis, dass wirksame Desinformation weiterhin narrative Kompetenz, Plattformwissen und Reichweite erfordert.
  4. „Ein einzelnes manipuliertes Bild kann geopolitische Spannungen auslösen“ → ergänzt um konkrete Beispiele (dekontextualisierte Kriegsbilder aus Syrien, der Ukraine und dem Gaza-Konflikt), um die Aussage zu belegen.
  5. C2PA-Passage → ergänzt um die explizite Klarstellung, dass der Standard Provenienz, nicht Wahrheit belegt.
  6. Abschnitt „Kompetentes Misstrauen“ → ergänzt um den Hinweis auf aktuelle Forschung, die zeigt, dass gezielte Literacy-Interventionen Deepfake-Erkennung verbessern, ohne generelles Bildvertrauen zu zerstören.
  7. „Rechtsprofessoren“ → geändert zu „Rechtswissenschaftler“ (präzisere und im Deutschen üblichere Bezeichnung).

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Eine unbequeme Analyse für beide Seiten – jetzt mit Faktencheck


Willkommen in der Hysterie.

Auf der einen Seite stehen die Tech-Evangelisten, die verkünden, dass menschliche Models in fünf Jahren so überflüssig sein werden wie Pferdekutschen nach der Erfindung des Automobils. Auf der anderen Seite stehen die Fotografen, die behaupten, KI-Bilder seien seelenloses Plastik und würden nie ein echtes Shooting ersetzen können.

Beide Seiten liegen falsch.

Die Wahrheit ist, wie so oft, unbequemer als die Extreme. Echte Models und echte Fotografie werden nicht aussterben. Aber nicht aus den Gründen, die Traditionalisten gerne anführen. Nicht weil KI „nicht gut genug“ wäre – sie ist bereits erschreckend gut. Nicht weil „nichts über den echten Moment geht“ – für die meisten kommerziellen Anwendungen geht sehr wohl etwas darüber, nämlich Geschwindigkeit und Kosteneffizienz. Und nicht weil die Branche sich erfolgreich dagegen wehren wird – das hat noch nie funktioniert.

Echte Models und echte Fotografie werden überleben, weil Marktdynamik, regulatorische Realitäten und kulturelle Gegenbewegungen stärker sind, als einfache Disruptions-Narrative es vermuten lassen. Und das ist keine sentimentale Hoffnung, sondern eine nüchterne Analyse.

Aber – und das ist der provokante Teil – sie werden anders überleben, als viele sich das wünschen. Kleiner. Spezialisierter. Und paradoxerweise genau dadurch wertvoller.

Dieser Artikel wurde einem gründlichen Faktencheck unterzogen. Wo Behauptungen belastbar sind, stehen Quellen. Wo die Evidenz gemischt ist, sage ich das. Wo ich spekuliere, kennzeichne ich es. Denn diese Debatte verdient Präzision, nicht Parolen.


Kapitel 1: Die unbequeme Wahrheit – Ja, KI vernichtet bereits Jobs

Der Stockfoto-Markt unter Druck

Bevor wir über das Überleben der echten Fotografie reden, müssen wir ehrlich sein über das, was bereits passiert.

Der klassische Stockfoto-Markt in seiner bisherigen Form steht unter massivem Druck. Shutterstock hat KI-Generierungstools direkt in seine Plattform integriert – ein Unternehmen, das von Fotografen lebt, verkauft jetzt Werkzeuge, die bestimmte Arten von Fotografie überflüssig machen. Die Contributor-FAQ von Shutterstock zeigt, wie offen das Unternehmen mit dieser Transformation umgeht (Shutterstock). Wenn die Plattform selbst die Disruption vorantreibt, ist das ein deutlicheres Signal, als jede Branchenanalyse es sein könnte.

Für jene Fotografen, deren Geschäftsmodell darin bestand, generische Bilder von lächelnden Geschäftsleuten vor weißem Hintergrund zu produzieren, ist die Lage ernst. Nicht in fünf Jahren. Jetzt.

Katalogfotografie: Die Zahlen sprechen

Auch die klassische Katalogfotografie steht unter realem Effizienzdruck – und hier liegen inzwischen konkrete Daten vor. Zalando nutzt laut Reuters KI, um Marketing-Kampagnen zu beschleunigen und Kosten zu senken. Die Produktionszeit wurde von Wochen auf wenige Tage reduziert (Reuters). H&M hat 2025 offiziell mit „Digital Twins“ realer Models gearbeitet und dies als kreative Exploration kommuniziert (H&M Group).

Das sind keine Zukunftsszenarien. Das ist Produktionsrealität. Die Frage ist nicht, ob KI den unteren und mittleren kommerziellen Bereich verändert, sondern wie schnell und wie vollständig.

Wer das bestreitet, ist nicht mutig, sondern blind.

Die erste Welle trifft bereits

Der untere und mittlere Bereich der kommerziellen Fotografie schrumpft. So wie die Digitalfotografie den Film verdrängt hat, so wie Photoshop bestimmte Retusche-Arbeitsplätze obsolet gemacht hat, macht KI bestimmte fotografische Routinedienstleistungen überflüssig.

Aber – und hier beginnt die eigentliche Analyse – wer daraus schließt, dass echte Fotografie und echte Models komplett verschwinden, hat die Geschichte der Technologie auch nicht verstanden.


Kapitel 2: Warum das menschliche Gesicht komplizierter ist, als beide Seiten glauben

Das Uncanny Valley – real, aber nicht so einfach

Kennen Sie dieses Gefühl, wenn ein KI-generiertes Gesicht irgendetwas an sich hat, das nicht stimmt? Die Haut zu perfekt, die Augen zu symmetrisch, das Lächeln zu gleichmäßig?

Das Uncanny Valley – jenes Phänomen, bei dem fast-menschliche Darstellungen Unbehagen auslösen – ist in der Forschung breit diskutiert und als Konzept real. Aber die Lage ist komplizierter, als es die einfache Erzählung „Menschen spüren sofort, dass etwas falsch ist“ vermuten lässt.

Eine vielzitierte Studie in PNAS zeigte bereits 2022, dass KI-synthetisierte Gesichter von echten Gesichtern kaum zu unterscheiden waren – und im Mittel sogar als vertrauenswürdiger bewertet wurden als reale Gesichter (PNAS). Das ist ein Befund, der beide Seiten der Debatte irritieren sollte: Die Technologie ist bereits weiter, als viele Traditionalisten wahrhaben wollen. Und die psychologische Reaktion auf synthetische Gesichter ist nicht so eindeutig negativ, wie es die KI-Kritiker gerne hätten.

Ein Teil der Forschung deutet darauf hin, dass es subtile Wahrnehmungskonflikte bei künstlichen Gesichtern gibt – ein vages Unbehagen, das sich nicht immer bewusst benennen lässt. Eine Review-Studie zu psychologischen und neuronalen Evidenzen rund um das Uncanny Valley bestätigt, dass solche Effekte existieren, aber kontextabhängig und individuell sehr unterschiedlich ausfallen (VisualCOM). Die Befunde sind also gemischt, nicht eindeutig.

Was man seriös sagen kann: Die menschliche Wahrnehmung ist hochsensibel für Gesichter. Ob diese Sensibilität dauerhaft als zuverlässiger „Echtheitsdetektor“ funktioniert, wenn die Technologie immer besser wird, ist eine offene Frage – keine geklärte.

Authentizität als entstehendes Marktprinzip

Wenn die visuelle Unterscheidbarkeit schwindet, verlagert sich der Wert des Echten auf eine andere Ebene: die des Wissens um die Herkunft.

Es entstehen gerade reale technische und regulatorische Systeme rund um Bildherkunft und Transparenz. Die Content Authenticity Initiative und das C2PA-Protokoll arbeiten an Standards, die es ermöglichen, die Herkunft eines Bildes kryptographisch zu verifizieren – ob es mit einer Kamera aufgenommen, bearbeitet oder KI-generiert wurde (C2PA). In Europa wachsen durch den AI Act die Transparenzpflichten für KI-generierte Inhalte.

Einzelne Marken positionieren sich bereits bewusst: Aerie wirbt 2026 ausdrücklich damit, keine KI-generierten Körper oder Personen im Marketing zu nutzen. Das ist noch kein flächendeckender Trend, aber ein Signal. Ein „Authentizitäts-Premium“ – ein Aufpreis für nachweislich echte, nicht-generierte Inhalte – zeichnet sich als entstehendes Marktprinzip ab, auch wenn es als ökonomischer Standardbegriff noch nicht voll vermessen ist.

Die Logik dahinter ist plausibel und lässt sich mit Gegenbeispielen aus anderen Branchen stützen: Die RIAA meldete für 2025 erneut Wachstum bei Vinyl-Schallplatten – 46,8 Millionen verkaufte Einheiten, deutlich mehr als CDs (RIAA). Das stützt die These, dass digitale Allgegenwart analoge Gegenbewegungen nicht ausschließt, sondern befeuern kann. Auch Schweizer Uhrenexporte zeigen, dass mechanische Uhren wertmäßig den Löwenanteil ausmachen, obwohl jedes Smartphone die Zeit anzeigt – ein Beleg dafür, dass „Luxus trotz digitaler Funktionalität“ als Kategorie funktioniert (FHS).

Daraus einen universellen Automatismus abzuleiten, wäre zu weit gegriffen. Aber die Richtung ist erkennbar.


Kapitel 3: Warum echte Models nicht einfach verschwinden – aber sich anpassen müssen

Der Körper als Biografie

Ein echtes Model ist mehr als ein Gesicht. Es ist ein Mensch mit einer Geschichte, die in jeder Pose, jeder Geste, jedem Blick mitschwingt. KI kann ein Gesicht generieren – sogar ein sehr überzeugendes. Aber sie kann keine Biografie generieren. Keine Narbe, die eine Geschichte erzählt. Keinen Blick, der Erfahrung transportiert. Keine Social-Media-Präsenz, die eine reale Person mit einer realen Community verbindet.

Wenn Bella Hadid eine Kampagne trägt, kaufen Konsumenten nicht nur das Kleid – sie kaufen die Assoziation mit einer realen Person, ihrem öffentlichen Ich, ihrer Persönlichkeit. Ein KI-generiertes Gesicht hat das nicht. Es hat keine Fans, keine Skandale, keine Meinungen. Und solange Mode nicht nur Kleidung, sondern Kultur verkauft, ist das ein relevanter Unterschied.

High Fashion: komplizierter als ein einfaches „bleibt beim Echten“

Allerdings wäre es zu einfach zu behaupten, High Fashion werde sicher und immer bei echten Models bleiben. Die Realität ist differenzierter. H&M experimentiert bereits offen mit digitalen Zwillingen (H&M Group), und die Branche insgesamt steht unter Innovationsdruck, bei dem auch Luxusmarken nicht ausgeklammert sind (FashionUnited).

Was man seriös sagen kann: High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – weil Markenmythologie, Prominenz und kulturelle Aufladung dort eine größere Rolle spielen als in anderen Segmenten. Aber „überdurchschnittlich lange“ ist etwas anderes als „für immer“. Und einige Luxusmarken werden gerade mit künstlicher Ästhetik provozieren oder experimentieren, statt sie zu meiden.

Virtuelle Influencer: funktionieren, aber anders

Lil Miquela hat rund zwei Millionen Follower auf Instagram (Instagram). Virtuelle Influencer sind keine Kuriosität mehr, sondern ein etabliertes Phänomen. Aber ihre Wirkung ist komplexer, als die Schlagzeilen vermuten lassen.

Die Forschung dazu ist gemischt: Einige Studien finden geringere wahrgenommene Authentizität, Wärme und Vertrauenswürdigkeit bei virtuellen Influencern; andere zeigen, dass sie durchaus hohe Engagement-Werte erzielen können und in bestimmten Kontexten wirksam sind. Seriös formuliert: Virtuelle Influencer funktionieren, leiden aber häufig an einem Authentizitätsnachteil. Wirkung und Engagement hängen stark vom Kontext, Produkt und Inszenierungsstil ab.

Wer behauptet, virtuelle Influencer seien grundsätzlich schwächer, vereinfacht. Wer behauptet, sie seien gleichwertig, auch.


Kapitel 4: Warum echte Fotografie strukturell anders funktioniert als KI-Generierung

Dokumentarische Fotografie: eine eigene Kategorie

Der stärkste Punkt für das Überleben echter Fotografie liegt nicht in der Ästhetik, sondern in der Funktion. Es gibt Bereiche, in denen ein generiertes Bild strukturell kein Ersatz sein kann – weil es dort nicht um Schönheit geht, sondern um Wahrheit.

AP erlaubt keine generative KI, um in Fotos oder Videos Elemente hinzuzufügen oder zu entfernen (AP). Reuters verbietet generative KI zur Erstellung oder Verbesserung von Bildmaterial in der visuellen Berichterstattung. World Press Photo schließt synthetisch erzeugte oder generativ gefüllte Bilder aus.

Das sind keine symbolischen Gesten. Das sind die Standards der weltweit maßgeblichen Nachrichtenagenturen und Wettbewerbe. Sie definieren: Ein Bild, das einen realen Moment bezeugt, ist etwas fundamental anderes als ein Bild, das einen plausiblen Moment simuliert. Diese Unterscheidung wird nicht verschwinden – sie wird in einer Welt voller synthetischer Bilder sogar wichtiger werden.

Hochzeitsfotografie und andere dokumentarische Praxis

Hochzeitsfotografie wird als dokumentarische Praxis schwer ersetzbar bleiben. Niemand will Bilder eines Tages, der nicht stattgefunden hat. Der Wert des Hochzeitsfotos liegt nicht in seiner ästhetischen Perfektion, sondern in seiner Beweiskraft: Wir waren da. Wir haben gefeiert. Es war real.

Allerdings – und das gehört zur Ehrlichkeit dazu – kann KI diesen Bereich bereits ergänzen: bei Previews, bei Retusche, bei Varianten, bei inszenierten Zusatzbildern. Als Kompletterset unwahrscheinlich, als Workflow-Bestandteil bereits Realität.

Dasselbe gilt für Porträtfotografie, Eventfotografie, Reportage. Überall dort, wo das Bild nicht nur schön sein soll, sondern einen realen Moment bezeugen, ist KI kein vollwertiger Ersatz. Sie ist es strukturell nicht, weil ihr die Fähigkeit fehlt, Realität zu dokumentieren.

Licht, Raum, Zufall

Ein echtes Foto entsteht in einem physischen Raum. Licht fällt durch ein Fenster, wird von einer Wand reflektiert, erzeugt Schatten, die von hundert Zufällen abhängen. Wind bewegt Haare. Stoff fällt in einer Weise, die Schwerkraft und Körperbewegung gehorcht. Ein Blick wird eingefangen, der eine Zehntelsekunde später anders ausgesehen hätte.

Diese physische Dimension – das Zusammenspiel von Raum, Licht, Körper, Zeit und Zufall – ist phänomenologisch das, was ein echtes Foto von einem generierten unterscheidet. Nicht immer messbar, nicht immer bewusst wahrnehmbar, aber als Qualität in den besten Fotografien spürbar. Das ist keine harte Wissenschaft – es ist eine Beschreibung dessen, was große Fotografen seit jeher als das Wesen ihres Mediums beschreiben: die Arbeit mit dem Unvorhersehbaren.

KI kann das Erwartbare perfektionieren. Aber die besten Fotografien entstehen oft dort, wo das Unerwartbare einbricht.


Kapitel 5: Die Rechts- und Compliance-Dimension – Unterschätzt, aber real

Rechtliche Klarheit als Wettbewerbsvorteil

Ein pragmatischer Punkt, der in der ästhetischen Debatte oft untergeht: Echte Fotografie mit echten Models bietet derzeit eine rechtliche Klarheit, die KI-generierte Bilder nicht bieten können.

Der U.S. Copyright Office Report von 2025 hält an menschlicher Urheberschaft als Grundprinzip fest. Viele Fragen zu Training, Output-Rechten, digitalen Repliken und Persönlichkeitsrechten bleiben rechtlich umkämpft (Copyright Office). In New York schützt der Fashion Workers Act seit 2025 Models ausdrücklich bei digitalen Repliken. In Europa wachsen Transparenzpflichten durch den AI Act.

Das sind keine abstrakten Regulierungsdebatten. Das sind reale Marktbremsen für sorglose KI-Nutzung im großen Stil. Für risikoscheue Unternehmen, für regulierte Branchen, für internationale Kampagnen mit verschiedenen Rechtsräumen ist diese Unsicherheit ein echtes geschäftliches Risiko.

Solange die rechtlichen Rahmenbedingungen für KI-generierte Bilder nicht abschließend geklärt sind, wird klassische Fotografie allein aus Compliance-Gründen relevant bleiben. Das ist kein romantisches Argument. Das ist Risikomanagement.

Die ethische Komponente

Wenn eine Beauty-Marke ein KI-generiertes Gesicht verwendet – unmenschlich perfekte Haut, unmenschlich symmetrische Züge –, sendet sie eine Botschaft: So sollst du aussehen. Aber so sieht niemand aus.

Die Bewegung hin zu Diversität und Body Positivity braucht echte Körper. Sie braucht Models, die zeigen, dass Schönheit in vielen Formen existiert. Eine KI, die generiert, was statistisch dem Durchschnitt ihrer Trainingsdaten entspricht, tendiert zur Homogenisierung. Das ist kein theoretisches Problem – es ist ein kulturelles.


Kapitel 6: Die provokante These – Fotografie wird besser, nicht schlechter

Die Befreiung durch Konkurrenz

KI-Bildgenerierung wird die Fotografie besser machen. Nicht schlechter. Nicht irrelevant. Besser.

Warum? Weil die KI den Fotografen zwingt, sich auf das zu konzentrieren, was nur er kann. Wenn die Maschine das Generische perfekt beherrscht, muss der Mensch das Spezifische liefern. Wenn der Algorithmus das Vorhersehbare schneller produziert, muss der Fotograf das Unvorhersehbare suchen.

Das ist exakt die Dynamik, die nach der Erfindung der Fotografie die Malerei befreit hat. Als die Kamera die naturgetreue Abbildung übernahm, musste die Malerei nicht mehr abbilden. Das Ergebnis waren Impressionismus, Expressionismus, Kubismus – die aufregendsten Epochen der Malereigeschichte.

Das Ende des Mittelmaßes

Was verschwinden wird, ist die mittelmäßige kommerzielle Fotografie. Jene Routineproduktionen, die schon vor der KI unter Preisdruck standen. Die KI gibt diesem Segment den Gnadenstoß. Und das zwingt Fotografen zu der Frage: Was kann ich, was die Maschine nicht kann?

Die Antwort auf diese Frage führt unweigerlich zu besserer, mutigerer, persönlicherer Arbeit.


Kapitel 7: Die neue Landschaft – Ehrlich kartiert

Was sich wirklich verändert

Generische kommerzielle Bildproduktion: Weitgehend von KI übernommen. Stockfotos, einfache Produktbilder, Standard-Werbemotive – hier dominiert die Maschine, weil Effizienz entscheidet. Zalando und H&M zeigen das bereits.

Mid-Range-Fotografie: Hybrid. Menschliche Fotografen arbeiten mit KI-Tools für Retusche, Variantenproduktion, Hintergrundgestaltung. Der Mensch liefert das Rohmaterial, die Maschine skaliert es.

High-End-Fotografie und Kunst: Menschlich dominiert, mit KI als optionalem Werkzeug. Editorials, Kampagnen, Kunstfotografie – hier zählen Vision, Handwerk und Autorschaft. Aber auch hier wird experimentiert, und die Grenzen verschieben sich.

Dokumentation und Journalismus: Strukturell geschützt. AP, Reuters und World Press Photo haben klare Linien gezogen. Hier geht es um Wahrheit, nicht um Ästhetik.

Die Models

Echte Models werden nicht verschwinden. Aber die Branche differenziert sich aus:

  • High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – als Persönlichkeiten, Markenbotschafter, kulturelle Ikonen. Aber auch hier laufen KI-Experimente.
  • Commercial/Catalog setzt zunehmend auf KI und Hybridmodelle – für Effizienz und Skalierbarkeit.
  • Models mit starker Persönlichkeit, einzigartigem Look oder relevanter Social-Media-Präsenz werden profitieren. Models, die primär als austauschbare Gesichter funktioniert haben, werden es schwerer haben.

Die brutale Wahrheit: Nicht jedes Model wird überleben. Nicht jeder Fotograf wird überleben. Aber die Fotografie als Medium und das Modeling als Beruf werden überleben – transformiert, spezialisierter, in manchen Segmenten elitärer.


Fazit: Die Maschine ersetzt das Generische, nicht das Echte

Stellen Sie sich zwei Bilder vor.

Das eine zeigt ein perfektes Gesicht – makellose Haut, symmetrische Züge, ideale Beleuchtung. Es wurde in zwei Sekunden generiert. Es kostet nichts. Es ist schön. Und es kann, wie die PNAS-Studie zeigt, sogar vertrauenswürdiger wirken als ein echtes Gesicht.

Das andere Foto zeigt eine echte Frau. Sie hat Sommersprossen, eine kleine Narbe über der Augenbraue, Lachfalten. Das Licht fällt schräg durch ein Fenster. Sie lacht – nicht das perfekte Lächeln, sondern ein echtes Lachen, ausgelöst durch etwas, das der Fotograf sagte, eine Sekunde bevor er den Auslöser drückte.

Welches Bild berührt Sie mehr? Die ehrliche Antwort ist: Es kommt darauf an. Auf den Kontext, den Zweck, den Betrachter.

Und genau das ist der Punkt. Es gibt keinen universellen Gewinner in diesem Wettbewerb. KI wird das Generische übernehmen – schneller, billiger, effizienter. Aber das Echte, das Dokumentarische, das biografisch Aufgeladene, das physisch Erlebte – das hat weiterhin einen eigenen, strukturell anderen Wert. Einen Wert, der durch Recht, durch Transparenzstandards und durch kulturelle Sehnsucht gestützt wird.

Die KI wird vieles verändern. Sie wird manches zerstören und manches erschaffen. Sie wird den Markt umwälzen und Berufsbilder transformieren. Aber eines wird sie in absehbarer Zeit nicht können: an einem Dienstagmorgen um 6 Uhr in einem Studio stehen und auf den Moment warten, in dem Licht, Mensch und Zufall zusammenkommen und etwas entsteht, das kein Algorithmus vorhersehen konnte.

Dieser Moment gehört dem Menschen. Wie lange noch, weiß niemand mit Sicherheit.

Aber totgesagte posieren eben doch länger.


Quellen

  • Shutterstock: AI-generated Content – Contributor FAQ. shutterstock.com
  • H&M Group: H&M continues its exploration of creativity with AI. hmgroup.com
  • Reuters: Zalando uses AI to speed up marketing campaigns, cut costs. reuters.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence. copyright.gov
  • PNAS: AI-synthesized faces are indistinguishable from real faces and more trustworthy (2022). pnas.org
  • VisualCOM: Review of the Psychological and Neural Evidence on the Uncanny Valley. visualcompublications.es
  • C2PA: Content Provenance and Authenticity. c2pa.org
  • The Associated Press: Standards around generative AI. ap.org
  • FashionUnited: H&M turns to AI ‚digital twins‘ in new campaign. fashionunited.com
  • RIAA: US Recorded Music Annual Revenue 2025. riaa.com
  • FHS: Swiss Watch Industry Statistics. fhs.swiss
  • Instagram: Lil Miquela (@lilmiquela). instagram.com

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Warum KI-generierte Bilder in der Tradition von Duchamp und Pop Art stehen, was die Copyright-Debatte wirklich hergibt und weshalb „Das ist keine Kunst!“ noch nie gestimmt hat


Es gibt einen Satz, der in der Kunstgeschichte zuverlässiger wiederkehrt als jeder Stilwechsel. Zuverlässiger als Impressionismus nach Realismus, zuverlässiger als Abstraktion nach Figuration, zuverlässiger als jede Avantgarde nach jeder Akademie. Der Satz lautet: „Das ist keine Kunst!“

Er wurde gerufen, als Édouard Manet 1863 sein Frühstück im Grünen ausstellte. Er wurde gerufen, als Marcel Duchamp 1917 ein Urinal signierte. Er wurde gerufen, als Andy Warhol 1962 seine Campbell’s-Suppendosen in die Galerie stellte. Und er wird heute gerufen – laut, empört, manchmal wütend –, wenn jemand ein Bild zeigt, das durch Midjourney, Stable Diffusion oder DALL-E entstanden ist.

Die Geschichte wiederholt sich nicht, heißt es. Aber sie reimt sich. Und der Reim, den wir gerade hören, ist so deutlich, dass man fast mitsprechen kann.

Dieser Text ist ein Plädoyer. Kein blindes, kein naives, sondern ein differenziertes. Er argumentiert, dass KI-generierte Kunst – jene sogenannte Synthographie – in einer direkten kunsthistorischen Linie steht, die von Duchamps Ready-mades über Warhols Factory bis in die Serverfarmen unserer Gegenwart reicht. Er argumentiert, dass der Vorwurf des „Bilderklaus“ komplexer ist, als es die Empörung vermuten lässt. Und er argumentiert, dass Andy Warhol, hätte er heute gelebt, sehr wahrscheinlich einer der ersten gewesen wäre, der einen Prompt geschrieben hätte.

Aber – und das ist entscheidend – er tut das nicht, indem er Spekulation als Fakt verkauft. Denn die Debatte um KI-Kunst verdient Präzision, nicht Parolen.


Teil 1: Der ewige Reflex – Warum die Kunstwelt neue Werkzeuge fürchtet

Die Kamera als Todfeind

Als 1839 die Daguerreotypie der Öffentlichkeit vorgestellt wurde, reagierte die etablierte Kunstwelt mit einer Mischung aus Faszination und Panik. Der französische Maler Paul Delaroche soll gesagt haben: „Von heute an ist die Malerei tot.“ Ob dieses Zitat wörtlich so gefallen ist, gilt unter Historikern als unsicher – die Barnes Foundation behandelt es als weit verbreitete, aber nicht zweifelsfrei belegte Zuschreibung. Doch ob nun wörtlich gefallen oder nicht: Das Zitat steht bis heute als Symbol für jene Angstreaktion, die jede technologische Innovation in der Kunst begleitet hat.

Die Akademien sahen in der Fotografie keine Kunst, sondern Mechanik. Es fehle die „Hand des Künstlers“, die „Seele“, das „Handwerk“. Der Fotograf drücke ja nur auf einen Knopf – den Rest erledige die Maschine. Es dauerte Jahrzehnte, bis Künstler wie Alfred Stieglitz, Man Ray und später Diane Arbus oder Cindy Sherman demonstrierten, dass die Kamera nicht einfach „abbildet“, sondern dass der Mensch hinter der Kamera entscheidet: über Perspektive, Licht, Komposition, Augenblick, Kontext. Die Kamera war das Werkzeug. Der Mensch war der Künstler.

Kommt Ihnen das bekannt vor? Es sollte. Denn die Argumente gegen KI-Kunst sind strukturell identisch mit denen gegen die Fotografie.

Der Siebdruck als Sakrileg

Spulen wir vor in die 1960er Jahre. Andy Warhol, ein ehemaliger Werbegrafiker aus Pittsburgh, stellt Bilder aus, die nicht gemalt, sondern gedruckt sind. Siebdrucke. Serielle Reproduktionen von Alltagsobjekten und Medienbildern. Die Kunstwelt ist gespalten. Hilton Kramer, der einflussreiche Kritiker der New York Times, bezeichnet Pop Art als „barbarisch“. Andere sehen darin nichts als eine Verherrlichung des Banalen, eine Verweigerung des Handwerks, eine Beleidigung der „echten“ Kunst.

Warhol hatte nicht gemalt. Er hatte gedruckt. Er hatte nicht erfunden. Er hatte zitiert. Er hatte nicht im traditionellen Sinne geschaffen. Er hatte ausgewählt. Und genau darin lag seine Revolution.

Der Algorithmus als Anmaßung

Heute stehen wir vor dem nächsten Paradigmenwechsel. Die Vorwürfe folgen dem immer gleichen Skript: „Das ist keine Kunst, weil die Maschine alles macht.“ „Das ist keine Kunst, weil es kein Handwerk erfordert.“ „Das ist keine Kunst, weil jeder es kann.“

Jedes einzelne dieser Argumente wurde bereits gegen die Fotografie, gegen den Siebdruck, gegen die Konzeptkunst, gegen die digitale Kunst vorgebracht. Und jedes Mal hat die Kunstwelt die neue Technik letztlich absorbiert und ist daran gewachsen. Die Geschichte der Kunst ist eine Geschichte der Werkzeugwechsel – und die Werkzeuge haben sich immer schneller verändert als die Bereitschaft, sie zu akzeptieren.


Teil 2: Warhols Factory und die Serverfarmen von heute

Die Revolution der Serialität

Um zu verstehen, warum ich argumentieren würde, dass KI-Kunst die logische Fortführung des Pop Art ist, müssen wir verstehen, was Pop Art eigentlich war. Nicht als Ästhetik, sondern als Konzept.

Vor dem Pop Art dominierte der Abstrakte Expressionismus. Jackson Pollock, Mark Rothko, Willem de Kooning – sie verkörperten das romantische Ideal des einsamen Genies. Der Pinselstrich war Ausdruck der Seele, das Werk sakrosankt in seiner Einzigartigkeit.

Dann kam Warhol und stellte alles auf den Kopf. Seine „Factory“ war kein Atelier im klassischen Sinne, sondern eine Produktionsstätte. Er beschäftigte Assistenten, die seine Siebdrucke anfertigten. Er benutzte mechanische Reproduktionsverfahren aus der Werbeindustrie. Er sagte Dinge wie „Ich möchte eine Maschine sein“ und arbeitete bewusst mit industrieller Ästhetik, Wiederholung und Serialität. Das Andy Warhol Museum dokumentiert diese Arbeitsweise umfassend – sie ist kunsthistorisch unstrittig.

Dass Warhol mit Reproduktion, Serialität und Assistenzsystemen arbeitete, ist kein interpretatives Wagnis. Es ist Fakt. Und es bildet das solide Fundament für einen Vergleich mit heutigen KI-Workflows.

Warhol und der Computer

Was viele nicht wissen: Warhol experimentierte tatsächlich mit Computerkunst. Das ist keine nachträgliche Zuschreibung, sondern dokumentierte Realität. Der Andy-Warhol-Museum-und-Carnegie-Mellon-Komplex bestätigt, dass 2014 digitale Arbeiten von alten Amiga-Disketten ausgelesen wurden – Warhol hatte in den 1980er Jahren real mit dem Commodore Amiga gearbeitet und digitale Porträts erstellt, darunter eines von Debbie Harry.

Warhol war kein Technophober, der nostalgisch am Ölgemälde festhielt. Er war ein Künstler, der jedes neue Werkzeug als Chance begriffen hat.

Würde Warhol heute prompten?

Und hier wird es spekulativ – aber es ist eine Spekulation, die auf starken Indizien beruht. Vieles spricht dafür, dass Warhol mit generativer KI experimentiert hätte. Seine Arbeit mit Siebdruck, Serialität, Assistenzsystemen und später dem Amiga passt erstaunlich gut zu heutigen Prompt- und Kurationsprozessen. Ein Künstler, der sagte, er wolle eine Maschine sein, hätte die ultimative Maschine der Bildproduktion kaum ignoriert.

Man stelle sich nur vor: endlose Variationen von Marilyn, generiert durch verschiedene Prompts, in verschiedenen Stilen, mit verschiedenen Parametern. Ein Ozean an Bildern, aus dem er die stärksten fischen würde. Das wäre nicht das Ende seiner Kunst gewesen, sondern ihre konsequente Weiterentwicklung.

Ich sage bewusst nicht „mit absoluter Sicherheit“. Niemand kann für einen Toten sprechen. Aber die Indizien sind so stark, dass die Gegenthese – Warhol hätte KI-Tools verschmäht – deutlich schwerer zu begründen wäre.


Teil 3: Vom Ready-made zum Data-made – Die konzeptuelle Linie

Duchamps Urinal und die Logik des Prompts

Marcel Duchamp reichte 1917 ein industriell gefertigtes Urinal als Kunstwerk ein und nannte es Fountain. Sein Ready-made war eine radikale Verschiebung: Nicht die Herstellung macht das Kunstwerk aus, sondern die Auswahl, die Kontextualisierung, die intendierte Bedeutung. Ein Objekt aus der realen Welt wurde durch den Akt der Benennung und Präsentation zur Kunst.

Prompting erinnert in seiner Konzeptlogik eher an Ready-made- und Konzeptkunst, als es an traditionelle Ateliermalerei erinnert. Der Künstler durchforstet nicht Flohmärkte nach Fundstücken, sondern Latenzräume nach visuellen Möglichkeiten. Er nimmt existierende visuelle Sprachen auf, dekontextualisiert sie und setzt sie in neue Beziehungen zueinander.

Wenn ein Künstler promptet: „Ein Renaissance-Gemälde einer Astronautin, die auf dem Mars betet, dramatisches Chiaroscuro“, dann vollzieht er einen Akt der kulturellen Verschiebung. Er kombiniert Bekanntes (Renaissance, Chiaroscuro) mit Neuem (Mars, Astronautin, weibliche Perspektive in einem historisch männlichen Genre). Das Ergebnis existierte vorher nicht.

Das ist keine Gleichsetzung im strengen wissenschaftlichen Sinn – Duchamps Ready-made, LeWitts Instruktionen und heutiges Prompting sind verschiedene Praktiken mit verschiedenen Kontexten. Aber die konzeptuelle Verwandtschaft ist unübersehbar.

Sol LeWitts Brücke

Sol LeWitt schrieb 1967 in seinen berühmten Paragraphs on Conceptual Art, dass Planung und Entscheidungen vorab getroffen werden und die Ausführung fast zur Formsache wird. Er gab textuelle Anweisungen, die andere ausführten. Seine Wandzeichnungen wurden von Assistenten realisiert, nach seinen Instruktionen. LeWitt war der Konzeptgeber, nicht der Ausführende.

Die Parallele zum Prompt-Künstler ist frappierend: Auch er gibt eine textuelle Anweisung, die ein anderes System – sei es ein Mensch oder ein Algorithmus – in ein visuelles Ergebnis übersetzt. Die Autorschaft liegt beim Konzept, nicht bei der Ausführung. Ob man diese Parallele als strukturelle Identität oder als produktive Analogie liest, ist eine Frage der theoretischen Schärfe, die man gern diskutieren kann.


Teil 4: Die Demokratisierung – Kunst für alle, nicht nur für Absolventen

Ein zentrales Anliegen des Pop Art war die Demokratisierung der Kunst. Weg vom elitären Museum, hin zum Supermarkt, zur Werbetafel, zum Massenmedium. Kunst sollte für alle zugänglich sein.

Die Barrieren fallen

Synthographie verwirklicht dieses Versprechen in einer Radikalität, die selbst Warhol überrascht hätte. Zum ersten Mal in der Geschichte kann buchstäblich jeder mit Zugang zu einem Computer und dem Internet visuell hochwertige Bilder erschaffen. Ein Teenager in Manila kann Welten generieren, die vor zwanzig Jahren Millionenbudgets erfordert hätten.

Das ist keine Trivialität. Das ist eine emanzipatorische Verschiebung.

Natürlich bedeutet Demokratisierung auch, dass viel Durchschnittliches entsteht. Aber das war schon immer so. Die Erfindung des Buchdrucks führte nicht nur zu Shakespeare und Luther, sondern auch zu Millionen vergessener Pamphlete. Die Demokratisierung senkt die Schwelle – und aus der breiteren Basis können Ausnahmen entstehen, die sonst nie eine Chance gehabt hätten.

Die Kritik der Privilegierten

Die Kritik an der „Flut“ von KI-Bildern kommt, wenn man ehrlich ist, oft aus einer Position des Privilegs. Es sind jene Künstler, die jahrelang studiert, teure Ausrüstung erworben und sich Zugang zu Galerien erarbeitet haben. Ihre Angst ist verständlich – jede Demokratisierung bedroht bestehende Hierarchien.

Aber sie ist auch historisch kurzsichtig. Als die Fotografie aufkam, fürchteten Porträtmaler um ihre Existenz. Viele verloren tatsächlich Aufträge. Aber die Malerei als Ganzes überlebte nicht nur – sie wurde freier. Befreit von der Pflicht zur naturgetreuen Abbildung, konnte sie sich dem Expressionismus, dem Kubismus, der Abstraktion zuwenden.

Kunsthistorisch betrachtet hat technische Innovation die Kunst nie zerstört. Sie hat sie jedes Mal transformiert und letztlich bereichert.


Teil 5: Die Copyright-Debatte – Komplexer als die Empörung

Und nun zum emotionalsten Punkt. Dem Vorwurf des „Bilderklaus“. Er wird leidenschaftlich vorgetragen, oft mit echtem Schmerz und berechtigter Existenzangst. Und er verdient eine ehrliche, differenzierte Antwort – keine, die ihn wegwischt, aber auch keine, die ihn unkritisch übernimmt.

Wie neuronale Netze tatsächlich funktionieren

Das grundlegendste Missverständnis betrifft die Funktionsweise der KI. Viele Menschen stellen sich vor, ein Modell wie Stable Diffusion speichere Bilder und setze sie bei Bedarf wie eine Collage zusammen. Diese Vorstellung ist technisch nicht korrekt.

Generative Modelle arbeiten mit Mustererkennung. Sie analysieren Millionen von Bildern und extrahieren daraus abstrakte Beziehungen: Wie verhält sich Licht auf verschiedenen Oberflächen? Welche Farbpaletten charakterisieren bestimmte Epochen? Wie sind Proportionen aufgebaut? Diese Muster werden als mathematische Gewichtungen in einem hochdimensionalen Raum gespeichert – nicht als Pixel, nicht als Bildfragmente, nicht als Kopien.

Technisch erzeugen generative Modelle in der Regel keine einfache Pixel-Collage aus gespeicherten Bildschnipseln. Aber – und hier muss man ehrlich sein – juristisch ist weiterhin offen, wo genau zwischen statistischem Lernen, möglicher Reproduktion und marktrelevanter Nutzung die Grenzen verlaufen. Genau deshalb laufen weiterhin wichtige Verfahren gegen KI-Anbieter, darunter Andersen v. Stability AI und Getty Images v. Stability AI. Der U.S. Copyright Office Report zu Generative AI Training von 2025 beschreibt die Debatte ausdrücklich als komplex und nicht abschließend geklärt.

Die Analogie zum menschlichen Lernen – und ihre Grenzen

Man kann argumentieren, dass maschinelles Lernen in seiner Musterorientierung gewisse Parallelen zum menschlichen künstlerischen Lernen aufweist. Ein menschlicher Künstler studiert jahrelang die Werke anderer, geht in Museen, analysiert Techniken, imitiert Stile. All diese Einflüsse fließen in sein eigenes Werk ein – transformiert, synthetisiert, neu kombiniert. Niemand würde sagen, ein Maler „klaut“ von Rembrandt, weil er dessen Chiaroscuro-Technik studiert hat.

Ob der Unterschied zwischen menschlichem und maschinellem Lernen eher quantitativ oder qualitativ ist, bleibt jedoch eine offene philosophische und rechtliche Streitfrage. Die KI lernt schneller und aus mehr Material – aber ob der Prozess „strukturell identisch“ ist, wie manche behaupten, oder ob es fundamentale Unterschiede gibt, darüber streiten Philosophen, Juristen und Kognitionswissenschaftler gleichermaßen. Diesen Streit kann ein Blogbeitrag nicht entscheiden, und er sollte es auch nicht versuchen.

Stil ist urheberrechtlich kaum greifbar

Ein stärker belegbarer Punkt: Stil lässt sich urheberrechtlich nur sehr begrenzt schützen. Der U.S. Copyright Office lehnt in seinem Bericht zusätzlichen Schutz für „artistic style“ ausdrücklich ab. Das Urheberrecht schützt konkrete Werke, nicht abstrakte Stile. Wenn eine KI ein Bild „im Stil von“ generiert, verletzt sie keine Urheberrechte – solange das Ergebnis kein konkretes, geschütztes Werk reproduziert.

Es gibt einen gewaltigen Unterschied zwischen „Die KI hat ein spezifisches Gemälde kopiert“ und „Die KI hat ein Bild generiert, das impressionistische Stilelemente aufweist“. Das erste wäre problematisch. Das zweite ist legitime kulturelle Referenzialität.

Der Warhol/Goldsmith-Fall – Eine wichtige Lektion

Ironischerweise war gerade Warhol selbst in Copyright-Dispute verwickelt. Sein berühmtes Orange-Prince-Porträt basierte auf einem Foto von Lynn Goldsmith. Der Fall ging bis zum Supreme Court.

Und hier ist Vorsicht geboten, denn das Urteil wird oft falsch zitiert. Der Supreme Court hat 2023 im Fall Andy Warhol Foundation v. Goldsmith gerade nicht ein großzügiges Transformationsprinzip bestätigt. Im Gegenteil: Er hat entschieden, dass künstlerische Transformation urheberrechtlich nicht automatisch genügt – jedenfalls dann nicht, wenn die spätere Nutzung kommerziell erfolgt und einem ähnlichen Zweck dient wie das Ausgangswerk. Das Urteil war eher eine Bremse für zu weite Fair-Use-Argumente.

Das ist wichtig für die Synthographie-Debatte, denn es zeigt: Auch die Berufung auf „Transformation“ hat Grenzen. Ein KI-generiertes Bild, das einem konkreten Werk zu nahe kommt und für denselben Marktzweck genutzt wird, könnte durchaus rechtliche Probleme aufwerfen. Die Tatsache, dass ein Algorithmus dazwischensteht, macht nicht automatisch alles legal.

Die Frage der Trainingsdaten

Ja, KI-Modelle werden auf großen Datensätzen trainiert, die Bilder aus dem Internet enthalten. Und ja, nicht alle diese Bilder wurden mit der expliziten Zustimmung ihrer Urheber verwendet. Das ist eine berechtigte regulatorische Frage.

Manche verweisen darauf, dass Suchmaschinen und Empfehlungsalgorithmen schon lange mit massenhafter Mustererkennung arbeiten. Dieser Hinweis zeigt, dass das Prinzip der datenbasierten Musteranalyse nicht neu ist. Aber er ersetzt nicht die eigenständige juristische Prüfung generativer KI-Modelle, weil Training und Bildsynthese andere Fragen aufwerfen als bloße Indexierung. Der USCO-Bericht behandelt generative AI Training ausdrücklich als eigenen Problemkomplex.

Originalität – eine differenzierte Frage

Sind KI-Bilder „original“? Viele KI-Bilder sind zweifellos neuartige Outputs – sie sind nicht identisch mit Trainingsbildern und existierten vorher nicht. Ob und in welchem Umfang sie auch urheberrechtlich als menschlich-autorisierte Originalwerke gelten, hängt nach aktueller US-Position entscheidend vom menschlichen kreativen Beitrag ab. Der U.S. Copyright Office Report von 2025 stellt klar: Bloßes Prompting reicht nicht automatisch für urheberrechtlichen Schutz. Es braucht ausreichende menschliche Autorschaft.

Das heißt: Wer nur „cute cat“ eingibt und auf Generate klickt, hat möglicherweise keinen urheberrechtlichen Anspruch auf das Ergebnis. Wer aber stundenlang iteriert, retuschiert, kombiniert, konzeptualisiert und kuratiert, erbringt einen kreativen Beitrag, der zunehmend anerkannt wird.

Die zwei verschiedenen Fragen

Und hier liegt der Schlüssel zu einem ehrlichen Umgang mit dem Thema: Die künstlerische Legitimität von KI-Bildern und die urheberrechtliche Bewertung des Trainings sind zwei verschiedene Fragen. Über die zweite wird weltweit weiter gestritten – in Berichten, Gerichten und Gesetzgebungsprozessen. Die erste lässt sich trotzdem bejahen.

Ein Pianist, der auf einem gestohlenen Klavier spielt, macht trotzdem Musik. Das Verbrechen liegt im Diebstahl des Klaviers, nicht in der Musik selbst. Ob das Klavier gestohlen ist, muss geklärt werden. Aber die Frage „Ist das, was er spielt, Musik?“ ist davon unabhängig.


Teil 6: Was ist Kunst? – Die Frage, die nie beantwortet wird

Die institutionelle Perspektive

George Dickie formulierte in den 1970er Jahren die institutionelle Theorie der Kunst: Ein Objekt wird zum Kunstwerk, wenn es von der „Kunstwelt“ als solches behandelt wird. Nach dieser Theorie ist KI-Kunst bereits Kunst, denn sie wird in Galerien ausgestellt, auf Auktionen verkauft und in Wettbewerben prämiert.

Und das ist kein hypothetisches Szenario. Christie’s hat 2025 eine eigene Auktion unter dem Titel Augmented Intelligence veranstaltet. Jason Allens Théâtre D’opéra Spatial gewann 2022 die Colorado State Fair in der Kategorie „Digital Arts/Digitally-Manipulated Photography“. KI-Kunst ist institutionell angekommen – ob man das begrüßt oder bedauert.

Die expressionistische Perspektive

Nach der expressionistischen Theorie ist Kunst der Ausdruck von Emotionen. KI-Kunst drückt die Emotionen und Intentionen des Prompt-Künstlers aus – vermittelt durch ein technisches Medium, aber nicht weniger authentisch als Emotionen, die durch einen Pinsel vermittelt werden. Zumindest lässt sich das argumentieren.

Die funktionale Perspektive

Nach Nelson Goodmans funktionaler Theorie ist Kunst das, was ästhetische Erfahrungen ermöglicht. Wer vor einem gelungenen KI-Bild steht und etwas empfindet – Staunen, Irritation, Nachdenklichkeit –, hat bereits den funktionalen Beweis erbracht.

Die pragmatische Perspektive

Pragmatisch betrachtet ist die Frage „Ist KI-Kunst Kunst?“ ohnehin bereits beantwortet. Sie wird als Kunst produziert, rezipiert, diskutiert und gehandelt. Die akademische Debatte hinkt der Praxis hinterher – wie so oft.


Teil 7: Autorschaft ohne Pinsel – Das Ende des Genie-Mythos

Eine romantische Fiktion

Die größte Hürde für die Akzeptanz von KI-Kunst ist das Konzept des autonomen Genies. Dieses Bild – der einsame Künstler, der in seinem Dachkammeratelier leidet und aus der Tiefe seiner Seele Meisterwerke hervorbringt – ist historisch eine Ausnahmeerscheinung des 19. Jahrhunderts.

Die meiste Kunstgeschichte war kollektiv. Michelangelo hatte ein Team, Rubens eine Werkstatt, Rembrandt Schüler. Warhol hatte seine Factory. Die Idee, der Künstler müsse jeden Pinselstrich selbst setzen, ist eine moderne Fiktion.

Der Prompt als kreativer Akt

Kritiker behaupten, „einen Prompt zu schreiben“ sei keine kreative Leistung. Das zeigt vor allem, dass sie noch nie ernsthaft mit einem KI-Bildgenerator gearbeitet haben.

Ein guter Prompt ist ein komplexes Dokument. Er beschreibt Motiv, Stil, Stimmung, Lichtverhältnisse, Perspektive, Farbpalette, technische Spezifikationen und kulturelle Referenzen. Er ist das Ergebnis von Stunden der Iteration. Der Künstler schreibt, evaluiert, variiert, testet, kombiniert mit Techniken wie Inpainting, Outpainting, ControlNet oder Image-to-Image, bis das Ergebnis seiner Vision entspricht.

Das ist kein Knopfdrücken. Das ist ein kreativer Prozess, der Wissen, Erfahrung, ästhetisches Urteilsvermögen und technische Kompetenz erfordert. Es ist ein anderer kreativer Prozess als Malerei – aber es ist einer.


Teil 8: Die Aura im algorithmischen Zeitalter

Walter Benjamin analysierte 1935 in seinem epochalen Essay Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, wie mechanische Reproduktion die „Aura“ des Kunstwerks verändert. Benjamin war kein Nostalgiker – er sah darin eine emanzipatorische Chance.

Die neue Aura des Prozesses

Synthographie radikalisiert diesen Prozess. Ein digitales Bild hat keine physische Einzigartigkeit. Es existiert als Code, unendlich multiplizierbar.

Doch in einer anderen Perspektive schafft die Synthographie eine neue Form der Aura. Nicht die Aura des Objekts, sondern die Aura des Prozesses. Der spezifische Prompt, die Kombination aus Parametern, die Serie von Iterationen – das ist in seiner Gesamtheit einmalig. Zwei Künstler, die denselben Prompt eingeben, erhalten verschiedene Ergebnisse. Und selbst bei identischen Outputs wären die künstlerische Intention und der Kontext verschieden.

Man kann das lesen als eine Verlagerung der Aura vom Werk auf den Werkprozess, vom Artefakt auf das Konzept.

Die Ästhetik des Unheimlichen

Synthographie hat eine eigene Ästhetik entwickelt. Es ist eine Ästhetik des Unheimlichen – im Freudschen Sinne: vertraut und fremd zugleich. KI-Bilder zeigen Welten, die fast real aussehen, aber nicht ganz. Gesichter, die beinahe menschlich sind. Landschaften, die wie Erinnerungen an Orte wirken, die nie existiert haben.

Diese Ästhetik erinnert an Strategien des Pop Art: die überzeichneten Ben-Day-Dots bei Lichtenstein, die das Fotografische im Malerischen sichtbar machen, oder Warhols wiederholte Gesichter, die durch Serialität zur Abstraktion werden. Beide Strategien – Pop Art und Synthographie – machen den Bildprozess selbst zum Thema. Sie zeigen uns, dass alle Bilder Konstrukte sind.


Teil 9: KI-Kunst ist bereits Realität – Die institutionellen Fakten

Es ist wichtig, neben der Theorie auch die Fakten zu benennen. KI-Kunst ist nicht mehr ein Zukunftsszenario, sondern gegenwärtige Praxis.

Christie’s, eines der renommiertesten Auktionshäuser der Welt, hat 2025 mit Augmented Intelligence eine eigene Auktion für KI-bezogene Kunst veranstaltet. Das ist kein Underground-Phänomen, das ist der etablierte Kunstmarkt.

Jason Allens Théâtre D’opéra Spatial, erstellt mit Midjourney und anschließend bearbeitet, gewann 2022 in der Kategorie „Digital Arts“ der Colorado State Fair. Die Kontroverse war enorm – aber das Werk wurde prämiert, nicht disqualifiziert.

Museen weltweit zeigen KI-generierte Arbeiten. Kunsthochschulen diskutieren den Einsatz von KI-Tools. Kreativagenturen integrieren sie in ihre Workflows. Die Frage ist nicht mehr, ob KI-Kunst Teil der Kunstwelt wird, sondern wie.


Teil 10: Was ich nicht behaupte – Ehrlichkeit als Stärke

Ein guter Essay zeichnet sich nicht nur durch seine Argumente aus, sondern auch durch die Transparenz über seine Grenzen. Deshalb hier explizit:

Ich behaupte nicht, dass die Copyright-Frage geklärt ist. Sie ist es nicht. Training auf urheberrechtlich geschützten Werken ist ein offener, umkämpfter Rechtsbereich, in dem wichtige Verfahren laufen und Legislative weltweit an Regelungen arbeiten.

Ich behaupte nicht, dass maschinelles und menschliches Lernen „dasselbe“ sind. Die Analogie ist produktiv, aber sie hat Grenzen, und seriöse Wissenschaftler streiten darüber.

Ich behaupte nicht, dass jedes KI-generierte Bild automatisch Kunst ist. Genauso wenig wie jedes Foto Kunst ist oder jedes Ölgemälde. Es kommt auf Intention, Kontext, Auswahl und Konzept an.

Ich behaupte nicht, dass traditionelle Künstler keine berechtigten Sorgen haben. Die Disruption ist real, die ökonomischen Auswirkungen sind spürbar, und die Branche braucht faire Regelungen.

Was ich behaupte, ist Folgendes: Kunsthistorisch betrachtet steht Synthographie in einer klaren Traditionslinie. Sie ist verwandt mit dem Pop Art in ihrer Demokratisierung, mit der Konzeptkunst in ihrer Verlagerung von Handwerk auf Idee, mit dem Ready-made in ihrer Neukontextualisierung existierender visueller Sprachen. Und sie verdient es, nach denselben Kriterien beurteilt zu werden wie jede andere Kunstform – nach ihrer besten Praxis, nicht nach ihrem schlechtesten Output.


Fazit: Die natürliche Evolution – vorsichtig formuliert, aber klar

Synthographie ist, kunsthistorisch gelesen, die konsequente Fortführung jener Kraftlinien, die im 20. Jahrhundert mit Duchamps Ready-mades und Warhols Factory begannen. Sie radikalisiert die Demokratisierung der Bildproduktion. Sie entkoppelt handwerkliches Können von künstlerischer Vision. Sie überführt die technische Reproduzierbarkeit ins Algorithmische.

Sie ist Kunst, weil sie Fragen stellt: über Autorschaft, über Original und Kopie, über menschliche und maschinelle Kreativität, über die Natur des Bildes in einer Welt der totalen Simulierbarkeit. Ob man ihre Antworten mag, ist eine andere Frage. Aber dass sie die richtigen Fragen stellt – das kann man ihr kaum absprechen.

Die Angst vor der KI-Kunst ist die Angst vor der eigenen Entbehrlichkeit. Aber diese Angst ist historisch nicht bestätigt worden. Die Fotografie hat die Malerei nicht getötet. Der Siebdruck hat die seriöse Kunst nicht beendet. Die digitale Bildbearbeitung hat die analoge Fotografie nicht ausgelöscht. Jedes neue Werkzeug hat den Raum erweitert, nicht verengt.

Andy Warhol sagte einmal: „In der Zukunft wird jeder für fünfzehn Minuten weltberühmt sein.“ Vielleicht müsste man das für das Zeitalter der Synthographie ergänzen: In der Zukunft wird jeder die Möglichkeit haben, ein Bild zu erschaffen, das die Welt bewegt. Nicht, weil er einen Pinsel halten kann, sondern weil er eine Idee hat.

Das ist nicht das Ende der Kunst. Es ist ihr nächstes Kapitel. Ob es ein gutes wird, liegt nicht am Algorithmus. Es liegt an uns.


Quellen und weiterführende Referenzen

  • The Andy Warhol Museum: Warhol and the Amiga. warhol.org
  • Barnes Foundation: From Today, Painting Is Dead: Early Photography. barnesfoundation.org
  • Christie’s: Augmented Intelligence. press.christies.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 1: Digital Replicas. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 2: Copyrightability. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 3: Generative AI Training. copyright.gov
  • Supreme Court of the United States: Andy Warhol Foundation for Visual Arts, Inc. v. Goldsmith (2023). supremecourt.gov
  • Sol LeWitt: Paragraphs on Conceptual Art (1967). mma.pages.tufts.edu
  • Essay-Quelle: „Vom Siebdruck zum Prompt: Warum Synthographie die legitime Tochter des Pop Art ist“ – ein kunsttheoretischer Essay zur Einordnung der Synthographie, der als Ausgangspunkt und Referenz für die hier entwickelten Argumente dient.

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Was aus dem Unternehmen geworden ist, das einst die kreative Welt erfunden hat – und ob der KI-Kurs Geniestreich oder Identitätskrise ist.


Ein Blogbeitrag von BROWNZ.ART


Prolog: Ein seltsames Gefühl

Ich habe kürzlich die Release Notes der letzten vier großen Photoshop-Updates nebeneinandergelegt. Nicht weil ich es musste. Sondern weil ich ein Gefühl überprüfen wollte. Ein Gefühl, das sich seit ungefähr zwei Jahren aufbaut und das ich lange nicht greifen konnte. Ein leises Unbehagen, das irgendwo zwischen Begeisterung und Enttäuschung sitzt.

Und als ich die Release Notes nebeneinander sah, wurde das Gefühl greifbar.

Adobes öffentliche Erzählung der letzten zwei Jahre wird auffallend stark von KI- und Firefly-Funktionen dominiert. Generative Fill. Generative Expand. KI-gestützte Auswahlen. Neuronale Filter. KI-Entrauschen. Generative Referenz. Remove Tool mit KI. Firefly Image Model 3, 4, was auch immer als nächstes kommt. Jede Keynote handelt von KI. Jede Pressemitteilung handelt von KI. Jede Marketing-Kampagne handelt von KI.

Und plötzlich hatte ich eine Frage im Kopf, die sich nicht mehr abschütteln ließ:

Wo ist eigentlich der Rest geblieben?

Nicht in der Software selbst – denn wenn man genau hinschaut, gibt es durchaus klassische Verbesserungen. Photoshop hat OpenColorIO und 32-Bit-HDR-Workflows bekommen, Dynamic Text, AVIF- und JPEG-XL-Support, Variable Fonts im Font-Browser, Clarity und Dehaze als non-destruktive Adjustment Layers, sogar Grain als eigene Einstellungsebene. Lightroom Classic hat PSB-Support in der Photoshop-Übergabe und im Export bekommen, verbesserte Embedded Previews vor dem Import, Tethering-Erweiterungen und optimierte Sidecar Writes.

Das sind reale, substanzielle Verbesserungen. Keine davon hat „KI“ im Namen. Und keine davon hat es auf die große Bühne geschafft.

Denn dort – in den Keynotes, in den Pressemitteilungen, in den Marketing-Kampagnen, in den Schlagzeilen – dominiert ausschließlich die KI-Story. Und genau das ist der Punkt, der mich nachdenklich macht. Nicht dass Adobe KI baut. Sondern dass Adobe seine gesamte Innovations-Erzählung darauf verengt – und damit den Rest unsichtbar macht.

Die Frage ist also nicht: Macht Adobe nur noch KI? Das stimmt faktisch nicht. Die Frage ist: Warum erzählt Adobe so, als würde es nur noch KI machen? Und was macht das mit dem Unternehmen, mit den Produkten und mit uns als Nutzern?


Kapitel 1: Was Adobe früher anders gemacht hat – und warum das wichtig ist

Um zu verstehen, was sich verändert hat, muss man verstehen, wo Adobe herkommt. Nicht als Börsenunternehmen. Nicht als Abo-Modell. Sondern als kreatives Unternehmen, das Werkzeuge für kreative Menschen baut.

Photoshop war, als es in den frühen Neunzigern die Bühne betrat, nicht einfach eine Software. Es war eine neue Grammatik des Visuellen. Es hat nicht nur bestehende Prozesse digitalisiert – es hat NEUE Prozesse ermöglicht, die vorher nicht existierten. Ebenen. Masken. Kanäle. Pfade. Einstellungsebenen. Smart Objects. Jedes dieser Konzepte war, als es eingeführt wurde, eine echte Innovation. Nicht im Marketing-Sinne von „Wir haben einen Button umbenannt und nennen es Innovation“. Sondern im fundamentalen Sinne von: Das hat es vorher nicht gegeben, und es verändert die Art, wie Menschen über Bilder nachdenken.

Lightroom hat dasselbe für den fotografischen Workflow getan. Vor Lightroom war die RAW-Entwicklung ein fragmentierter Prozess. Lightroom hat Katalogisierung, Entwicklung und Ausgabe vereint und ein non-destruktives Arbeitskonzept etabliert, das bis heute den Standard definiert.

InDesign hat QuarkXPress abgelöst, nicht weil es billiger war, sondern weil es konzeptionell überlegen war. After Effects hat Motion Graphics demokratisiert. Illustrator hat Vektorgrafik für eine ganze Branche zugänglich gemacht.

Das waren keine KI-Features. Das waren Werkzeug-Innovationen. Durchdachte Lösungen für reale Probleme, die die kreative Arbeit auf einer strukturellen Ebene verbessert haben.

Und hier liegt der Kern meines Unbehagens: Mir fällt in den letzten zwei, drei Jahren kaum ein Adobe-Feature ein, das sich für mich so grundlegend anfühlt wie einst Ebenen, Smart Objects oder der non-destruktive Lightroom-Workflow. Es gibt Verbesserungen – teils gute, teils sehr gute. OpenColorIO für HDR ist ein echtes Upgrade für Profis, die in diesem Bereich arbeiten. Die neuen non-destruktiven Clarity- und Grain-Adjustment-Layers sind willkommen. PSB-Support in Lightroom Classic löst ein Problem, das lange genervt hat.

Aber nur wenige dieser Neuerungen fühlen sich wie ein neuer Denkraum an. Wie ein Konzept, das verändert, wie du über Bildbearbeitung nachdenkst. Und das ist – ich sage das als subjektive Bewertung eines Praktikers, nicht als objektives Urteil – ein Unterschied, den ich spüre.


Kapitel 2: Die KI-Features im Realitätscheck

Bevor mir jemand vorwirft, ich würde die KI-Features pauschal schlecht reden: Das tue ich nicht. Ich nutze sie. Jeden Tag. Und einige davon haben meinen Workflow tatsächlich fundamental verbessert.

Was genuinely großartig ist:

Das KI-Entrauschen in Lightroom ist ein Gamechanger. Die Ergebnisse bei High-ISO-Aufnahmen sind spektakulär und haben ein separates Plugin im Wert von 80 Euro überflüssig gemacht. Adobe dokumentiert kontinuierliche Qualitätsverbesserungen bei diesem Workflow. Das ist Innovation, die reale Probleme löst.

Die KI-gestützten Auswahlen – Motiv auswählen, Himmel auswählen, Objektauswahl mit Hover-Erkennung – haben die Freistellung von Motiven von einer Dreißig-Minuten-Aufgabe zu einer Dreißig-Sekunden-Aufgabe gemacht. Nicht perfekt. Nicht in jedem Fall. Aber in der Mehrheit der Fälle gut genug als Startpunkt. Ein realer, messbarer Produktivitätsgewinn.

Das Remove Tool erledigt 80 Prozent aller Objekt-Entfernungen brillant. Die restlichen 20 Prozent brauchen Handarbeit. Insgesamt eine deutliche Verbesserung gegenüber dem klassischen Kopierstempel.

Die KI-Maskierung in Lightroom hat meinen Workflow fundamental verändert. Ich mache Dinge direkt in Lightroom, für die ich früher zu Photoshop wechseln musste.

Was weniger überzeugend ist:

Generative Fill ist beeindruckend als Demo. Im täglichen Workflow ist es ein Startpunkt, kein Endprodukt. Ergebnisse oft inkonsistent, manchmal mit erkennbarem KI-Look, fast immer mit Bedarf an manueller Nacharbeit. Gutes Werkzeug. Keine Magie. Trotz Marketing, das Magie suggeriert.

Generative Expand funktioniert bei einfachen Szenen. Bei komplexen Kompositionen erzeugt es häufig Inkonsistenzen und Perspektivfehler. Gut für schnelle Social-Media-Erweiterungen. Nicht verlässlich genug für professionelle Druckproduktion.

Die neuronalen Filter – manche funktionieren, manche sind seit Jahren in der Beta und fühlen sich immer noch experimentell an.

Firefly als Bildgenerator – und hier muss ich sauber bleiben: Firefly wirkt für mich ästhetisch oft solider als spektakulär. Adobe bewirbt Firefly Image Model 4 als großen Qualitäts- und Realismus-Sprung, und die Ergebnisse sind tatsächlich besser geworden. Aber Adobes eigentliche Differenzierung liegt für mich weniger in einer unangefochtenen ästhetischen Marktführerschaft als vielmehr in der kommerziellen Absicherung, der nahtlosen Integration in die Creative Cloud und – das ist zunehmend relevant – in der Öffnung für Partner-Modelle.

Denn Adobe positioniert Firefly inzwischen nicht mehr nur als eigenes Modell, sondern als Plattform, die Modelle von Google, OpenAI, Runway und Kling integriert. Das ist eine strategisch kluge Entscheidung. Und möglicherweise die eigentliche Innovation: nicht das beste Modell zu haben, sondern die beste Plattform, die alle Modelle integriert.

Und hier zeigt sich ein Muster: Die wirklich starken KI-Features sind die, die bestehende Aufgaben beschleunigen – Entrauschen, Auswählen, Entfernen. Die weniger überzeugenden sind die, die neue Inhalte generieren – Füllen, Erweitern, Bilder erzeugen. Adobe ist besser im Optimieren als im Kreieren. Das ist keine Schande. Aber es ist eine Unterscheidung, die in der Marketing-Kommunikation verwischt wird.


Kapitel 3: Die strategische Frage – Innovation oder Imitation?

Ist Adobes KI-Kurs eigenständige Innovation – oder die Reaktion eines Konzerns, der einem Trend hinterherläuft?

Um diese Frage fair zu beantworten, muss man Adobes Situation verstehen. Und die ist genuinely schwierig.

Adobe steckt im klassischen Innovator’s Dilemma. Die Technologie, die das eigene Geschäftsmodell bedroht – generative KI, die Bilder, Designs und Layouts ohne Photoshop, Illustrator oder InDesign erstellen kann – muss gleichzeitig ins eigene Produkt integriert werden, um relevant zu bleiben.

Aus dieser Perspektive ist Adobes KI-Strategie nachvollziehbar. Wenn Midjourney, Runway, Canva und Dutzende von KI-Startups Features anbieten, die immer mehr kreative Aufgaben automatisieren, kann Adobe nicht danebenstehen. Der Zug fährt. Adobe muss aufspringen.

Und Adobe ist aufgesprungen. Aggressiv. Mit Firefly, mit der Integration generativer Features in jedes Produkt, mit der Öffnung für Drittanbieter-Modelle, mit dem klaren Bekenntnis: KI ist die Zukunft.

Aber – und das ist das große Aber – es gibt einen Unterschied zwischen „KI integrieren, weil es die Produkte besser macht“ und „KI als zentrale Markenidentität pushen, weil der Markt und die Aktionäre es hören wollen“.

Und ich bin mir nicht immer sicher, auf welcher Seite Adobe steht.

Denn wenn jede Keynote von KI dominiert wird, dann signalisiert das intern und extern eine klare Priorität. Und wenn Features wie OpenColorIO, HDR-Workflows, Dynamic Text, neue Dateiformatunterstützung und non-destruktive Adjustment Layers in der Kommunikation zu Fußnoten degradiert werden – dann sendet das eine Botschaft. An die Entwickler. An die Nutzer. An den Markt.

Die Botschaft lautet: KI ist das, was zählt. Der Rest ist Pflichtprogramm.

Und diese Verschiebung der Erzählung hat reale Konsequenzen. Für die Wahrnehmung. Für die Erwartungen. Und möglicherweise auch für die Frage, wie intern Ressourcen verteilt werden.

Ich gebe dir ein Beispiel. Photoshops Ebenenbedienfeld – das zentrale Interface-Element, mit dem jeder Nutzer jeden Tag arbeitet – hat sich seit Jahren kaum grundlegend verändert. Es funktioniert. Aber es funktioniert so, wie es seit über einem Jahrzehnt funktioniert. In einer Zeit, in der Composings routinemäßig Dutzende oder Hunderte von Ebenen haben, wäre ein grundlegend neues Konzept für Ebenenverwaltung – intelligente Gruppierung, visuelle Vorschau, kontextbezogene Organisation – eine Innovation, die den Alltag von Millionen Nutzern verbessern würde.

Aber das ist kein KI-Feature. Es ist ein Interface-Problem. Ein Design-Problem. Ein Workflow-Problem. Und solche Probleme scheinen 2026 weniger Bühne zu bekommen als das nächste generative Feature.


Kapitel 4: War früher wirklich alles besser? – Der Nostalgie-Check

Jetzt muss ich ehrlich zu mir selbst sein. Denn die Frage „War früher alles besser?“ ist eine gefährliche Frage. Sie klingt analytisch, ist meistens emotional und führt fast immer in die Irre.

War die Bildbearbeitung vor KI besser? Nein. Definitiv nicht. Langsamer. Mühsamer. Zeitaufwändiger. Ich möchte nicht zurück in die Vor-KI-Zeit. Niemand, der ehrlich ist, möchte das.

War Adobe früher innovativer? Ja und nein.

Ja, im Sinne von: Adobe hat früher mehr grundlegende Werkzeug-Innovationen geliefert. Konzepte, die die Art verändert haben, wie wir über Bildbearbeitung nachdenken. Momente, in denen man als Nutzer spürte: Hier hat jemand über das PROBLEM nachgedacht, nicht über den TREND.

Nein, im Sinne von: Adobe hat auch früher nicht in jedem Update das Rad neu erfunden. Es gab auch damals Updates, die hauptsächlich aus Bugfixes und inkrementellen Verbesserungen bestanden. Die Nostalgie filtert das heraus. Wir erinnern uns an die großen Momente und vergessen die Jahre dazwischen.

Und man muss fair anerkennen: Einige der aktuellen non-KI-Neuerungen SIND substanziell. OpenColorIO und 32-Bit-HDR-Support in Photoshop sind für Profis, die in Film- und HDR-Workflows arbeiten, ein echtes Upgrade. Non-destruktive Clarity- und Grain-Layers lösen Probleme, die seit Jahren bestehen. AVIF- und JPEG-XL-Support bringt Photoshop auf den Stand moderner Bildformate. Das ist keine Stagnation. Das ist solide Produktarbeit.

Aber – und das ist der Punkt – diese solide Produktarbeit wird kommunikativ so leise behandelt, dass sie im KI-Getöse untergeht. Und damit entsteht der EINDRUCK von Einseitigkeit, auch wenn die REALITÄT differenzierter ist.

Und Eindrücke formen Erwartungen. Erwartungen formen Strategien. Strategien formen Produkte. Wenn Adobe nach außen kommuniziert, dass KI alles ist, dann wird KI intern irgendwann auch alles sein. Erzählungen haben die Tendenz, sich selbst zu erfüllen.


Kapitel 5: Der regulatorische Kontext – Vertrauen unter Druck

Ein Punkt, der in eine ehrliche Analyse gehört, auch wenn er nicht direkt mit Innovation zu tun hat: Adobe steht regulatorisch unter erheblichem Druck. Und das beeinflusst die Wahrnehmung des Unternehmens.

Im Juni 2024 hat die US-amerikanische Federal Trade Commission (FTC) Klage gegen Adobe und zwei Führungskräfte erhoben. Der Vorwurf: versteckte Gebühren bei der Abo-Kündigung und absichtlich erschwerte Kündigungsprozesse. Die Klage läuft.

Seit dem 19. März 2026 untersucht die britische Competition and Markets Authority (CMA) Adobe wegen Bedenken rund um Kündigungsgebühren und Abo-Konditionen.

Das sind keine Kavaliersdelikte. Das sind regulatorische Verfahren in zwei der wichtigsten Märkte der Welt. Und sie betreffen ein Kernthema: Vertrauen. Das Vertrauen, dass ein Unternehmen, dem du monatlich Geld überweist, fair und transparent mit dir umgeht.

KI-Features allein bauen dieses Vertrauen nicht auf. Im Gegenteil: Wenn ein Unternehmen auf der einen Seite mit beeindruckenden KI-Demos glänzt und auf der anderen Seite wegen irreführender Geschäftspraktiken vor Regulierungsbehörden steht, dann entsteht eine Dissonanz, die langfristig problematisch ist.

Adobe braucht 2026 nicht nur bessere Features. Adobe braucht bessere Geschäftspraktiken. Und das ist eine Innovationsaufgabe, die nichts mit Algorithmen zu tun hat.


Kapitel 6: Was Adobe tun müsste – und was wir als Nutzer einfordern sollten

Ich bin kein Unternehmensberater. Ich bin ein Kreativer, der jeden Tag mit Adobe-Produkten arbeitet. Und als solcher habe ich Wünsche. Nicht als Konsument. Als Praktiker.

Erstens: KI als Werkzeug positionieren, nicht als Identität.

Adobe sollte KI-Features weiterentwickeln. Die guten sollten besser werden. Die weniger guten sollten reifen. Aber KI sollte nicht die EINZIGE Innovationserzählung sein. Daneben braucht es sichtbares Investment in Interface-Design, Workflow-Innovation, Performance-Optimierung und grundlegende Werkzeug-Konzepte. Und diese Arbeit verdient dieselbe Bühne wie die KI-Features. In den Keynotes. In den Pressemitteilungen. In der öffentlichen Kommunikation.

Zweitens: Die Basics nicht vergessen.

Photoshop hat Performance-Probleme bei großen Dateien. Lightroom Classic wird bei großen Katalogen langsam. Cloud-Synchronisation ist nicht immer zuverlässig. Das sind keine glamourösen Probleme. Aber sie betreffen den Alltag von Millionen. Und sie verdienen mindestens so viel Aufmerksamkeit wie das nächste generative Feature.

Drittens: Firefly ehrlich positionieren.

Adobe positioniert Firefly als „commercially safe“ – trainiert auf lizenzierten und Public-Domain-Inhalten, mit IP-Indemnification für qualifizierte Pläne. Das ist eine echte, wichtige Differenzierung. Aber die ästhetische Spitzenposition belegt Firefly im Vergleich zum Gesamtmarkt nicht allein. Und Adobe sollte aufhören, so zu tun, als wäre es so. Die Öffnung für Partner-Modelle – Google, OpenAI, Runway, Kling – ist der klügere strategische Zug. Plattform statt Modell. DAS ist eine echte Stärke.

Viertens: Vertrauen durch Transparenz aufbauen.

Nach der FTC-Klage und der CMA-Untersuchung braucht Adobe nicht mehr KI-Demos. Adobe braucht transparente Kommunikation. Klare Preisstrukturen. Faire Kündigungsbedingungen. Das Gefühl, dass der Konzern seine Community als Partner sieht, nicht als Einnahmequelle.


Kapitel 7: Die unbequeme Synthese

Hat Adobe seine Seele verkauft?

Meine ehrliche Antwort: Nein. Aber die öffentliche Erzählung des Unternehmens verengt sich auf eine Weise, die langfristig zum Problem werden kann.

Adobe hat die KI-Revolution nicht verschlafen. Die Integration von KI-Features in Photoshop und Lightroom hat reale, messbare Vorteile gebracht. Daneben gibt es solide klassische Produktarbeit – HDR-Workflows, neue Dateiformate, non-destruktive Einstellungsebenen, Lightroom-Performance-Verbesserungen. Adobe baut weiterhin an seinen Kernprodukten. Das muss man anerkennen.

Aber die öffentliche Bühne, die Markenidentität und die Innovations-Erzählung werden inzwischen so stark von KI dominiert, dass der Rest daneben verblasst. Und das ist ein Problem. Nicht weil KI schlecht wäre. Sondern weil ein Unternehmen, das seine gesamte Geschichte auf einen einzigen Technologietrend verengt, zwei Dinge riskiert.

Erstens: Es verliert den Blick für die ganzheitliche kreative Erfahrung. Für das Werkzeug als Werkzeug. Für das Interface als Denkraum. Für die Software als Partner des kreativen Prozesses.

Zweitens: Es macht sich abhängig von einem Paradigma, das es nicht kontrolliert. Wenn morgen ein Konkurrent ein fundamental besseres generatives Modell baut – und die KI-Entwicklung zeigt, dass das jederzeit passieren kann – dann steht ein Unternehmen, das seine gesamte Identität auf KI aufgebaut hat, plötzlich nackt da.

Die besten Werkzeuge der Geschichte waren nie die, die am meisten automatisiert haben. Es waren die, die den Menschen, der sie benutzt, besser gemacht haben. Die seine Fähigkeiten erweitert haben, statt sie zu ersetzen. Die ihm das Gefühl gegeben haben: Mit diesem Werkzeug kann ich Dinge tun, die ich ohne es nicht könnte – aber ICH bin es, der sie tut.

Photoshop war jahrzehntelang genau so ein Werkzeug. Es hat den Kreativen nicht ersetzt. Es hat ihn empowered. Es hat ihm Ebenen gegeben, Masken, Smart Objects – Konzepte, die seine Art zu denken verändert haben. Nicht indem sie für ihn gedacht haben. Sondern indem sie ihm neue Denkräume eröffnet haben.

Mein Wunsch – als jemand, der Adobe-Produkte täglich nutzt und trotz aller berechtigten Kritik an Preispolitik und Geschäftspraktiken schätzt – ist, dass Adobe diesen Geist nicht verliert. Dass neben dem nächsten Firefly-Update Raum bleibt für die Fragen, die kein Algorithmus beantworten kann: Wie können wir das Ebenenbedienfeld neu denken? Wie können wir den Composing-Workflow grundlegend verbessern? Wie können wir Farbmanagement intuitiver machen? Wie können wir die Software schneller, eleganter, menschlicher machen – nicht durch KI, sondern durch kluges Design?

Denn am Ende ist KI ein Werkzeug. Ein mächtiges, transformatives Werkzeug. Aber eben ein Werkzeug. Und ein Unternehmen, das seine gesamte Erzählung an ein einzelnes Werkzeug bindet, riskiert, die Identität zu verlieren, die es überhaupt erst relevant gemacht hat.

Adobe hat die kreative Welt nicht erfunden, indem es den heißesten Technologietrend implementiert hat. Es hat sie erfunden, indem es verstanden hat, was Kreative brauchen – manchmal bevor die Kreativen es selbst wussten. Dieses Verständnis war Adobes eigentliche Superkraft.

Und diese Superkraft darf nicht auf dem Altar der KI-Euphorie geopfert werden. Auch wenn die Keynote-Applaus-Maschine dabei weniger laut rattert.

Die KI-Features sollen bleiben. Sie sollen besser werden. Aber daneben muss Raum bleiben für die Frage, die Adobe einst groß gemacht hat:

Was braucht der kreative Mensch – und wie bauen wir ihm das bestmögliche Werkzeug dafür?

Diese Frage hat Photoshop hervorgebracht. Lightroom. InDesign. After Effects. Sie ist die DNA des Unternehmens.

Und wenn Adobe sie vergisst – nicht weil es keine Antworten mehr hat, sondern weil es aufhört zu fragen – dann hat es tatsächlich seine Seele verkauft.

Noch ist es nicht so weit. Aber die Bühne wird enger.


BROWNZ IS ART. ✦

Und die besten Werkzeuge sind die, die dich nicht ersetzen – sondern besser machen.


Stand: März 2026. Adobe entwickelt sich weiter. Die Frage ist nicht ob, sondern wohin. Und ob auf dem Weg dorthin genug Raum bleibt für das, was kein Algorithmus liefern kann: echtes Verständnis für kreative Menschen.



Like-Pods, gekaufte Views, Klickfarmen und der industrielle Betrug an echtem Engagement. Ein faktenbasierter Blick hinter die Kulissen einer Industrie, über die niemand spricht – obwohl sie direkt vor deinen Augen operiert.


Ein Blogbeitrag von BROWNZ.ART


Was du siehst, ist nicht was du denkst

Ich muss dir etwas erzählen, das dich vielleicht ärgert. Vielleicht frustriert. Vielleicht sogar wütend macht. Aber du musst es wissen. Weil es deine Arbeit betrifft. Dein Business. Deine Wahrnehmung von Erfolg und Misserfolg.

Ein signifikanter Teil der Reichweite, die du auf Social Media siehst, ist manipuliert.

Nicht ein Randphänomen. Nicht ein paar schwarze Schafe. Ein systemisches Problem, das Teil eines milliardenschweren Ökosystems aus Ad Fraud und Fake Engagement ist. Studien der World Federation of Advertisers und Analysen von Unternehmen wie Cheq AI schätzen den Gesamtmarkt für Ad Fraud und Fake Traffic auf 60 bis über 100 Milliarden US-Dollar jährlich. Der spezifische Schaden durch Influencer-Fraud – also gekaufte Follower, manipulierte Engagement-Raten und gefälschte Reichweiten – wird separat auf ein bis zwei Milliarden Dollar pro Jahr beziffert.

Das sind keine Zahlen aus einem Verschwörungsforum. Das sind Branchenschätzungen von Organisationen, deren Job es ist, Werbebudgets zu schützen.

Der Account mit 500.000 Followern, der dich neidisch macht? Möglicherweise teilweise gekauft. Das Video mit 2 Millionen Views? Möglicherweise manipuliert. Der Influencer mit den perfekten Engagement-Raten? Möglicherweise ein Produkt aus koordinierten Engagement-Gruppen, Klickfarmen und automatisierten Bots.

Ich sage nicht, dass ALLES fake ist. Natürlich gibt es echte Reichweite. Echten Erfolg. Echtes Engagement. Aber die Manipulation ist groß genug, um Wahrnehmung, Vergleichbarkeit und Marktentscheidungen messbar zu beeinflussen. Sie verzerrt deine Vergleichswerte. Dein Selbstbild als Kreativer. Und in manchen Fällen sogar die wirtschaftlichen Entscheidungen deiner Kunden.

Und das Problem wird gerade deutlich schlimmer. Durch KI.

Lass mich dir zeigen, wie dieses System funktioniert.


Kapitel 1: Die Anatomie des Fake-Marktes

Um zu verstehen, wie groß dieses Problem ist, musst du verstehen, wie der Markt funktioniert. Denn es IST ein Markt. Mit Anbietern und Nachfragern. Mit Preislisten und Mengenrabatten. Mit Kundenservice und Zufriedenheitsgarantien. Eine durchorganisierte Industrie, die nach denselben wirtschaftlichen Prinzipien funktioniert wie jedes andere Business – nur dass das Produkt eine Lüge ist.

Die Angebotsseite: Klickfarmen und digitale Billiglohn-Operationen

In Ländern wie Indien, Bangladesch, Indonesien, Vietnam, den Philippinen und Teilen Südamerikas – Brasilien, Kolumbien, Venezuela – existieren Unternehmen, deren Geschäftszweck die Produktion von Fake-Engagement ist. Diese Operationen sind durch Reportagen unter anderem der BBC und der New York Times dokumentiert und keine urbane Legende.

Die Struktur variiert dabei erheblich. Am unteren Ende stehen kleine, informelle Operationen: Ein paar Leute mit einer Handvoll Smartphones, die im Akkord liken und folgen. Am oberen Ende stehen organisierte Betriebe mit Dutzenden von Mitarbeitern, Schichtplänen und einer echten Infrastruktur. Reihen von Smartphones an Wänden, jedes mit eigener SIM-Karte und eigenem Profil.

Die Löhne in diesen Operationen sind dabei schwer zu verallgemeinern – sie variieren je nach Land, Region und Organisationsgrad erheblich. Klar ist: Es sind Billiglohn-Strukturen, die in Volkswirtschaften funktionieren, in denen wenige Dollar pro Tag für ungelernte Arbeit marktüblich sind.

Das Angebot ist erschreckend granular. Du willst Follower? Welche Nationalität? Deutsche? Amerikanische? Mit oder ohne Profilbilder? Sollen sie gelegentlich eigene Posts haben, damit sie realistischer wirken? Alles konfigurierbar. Wie bei einem Online-Shop, nur dass du statt Schuhen eine Illusion kaufst.

Die Preise sind dabei so niedrig, dass die Einstiegshürde praktisch bei null liegt. Die typischen Marktpreise Stand 2026 bewegen sich in folgenden Bereichen:

  • 1.000 Instagram-Follower: 2 bis 10 Dollar
  • 10.000 YouTube-Views: 5 bis 30 Dollar
  • Kommentare in Wunschsprache: 10 bis 50 Cent pro Stück
  • TikTok-Likes: wenige Dollar pro Tausend

Und das ist die Budget-Variante. Die Massenware.

Im mittleren und oberen Preissegment wird es interessanter. Da gibt es Anbieter, die sich auf „Premium Engagement“ spezialisiert haben. Die nicht einfach Bots schicken, sondern echte Menschen mit echten Profilen, die sich die Zeit nehmen, authentisch wirkende Kommentare zu hinterlassen. Die deinen Content nicht nur liken, sondern speichern und teilen – weil die Algorithmen diese Signale höher gewichten. Die dein Profil über Wochen langsam und organisch aussehend aufbauen, damit keine plötzlichen Spikes die Spam-Filter auslösen.

Diese Premium-Dienste kosten ein paar hundert bis ein paar tausend Dollar pro Monat – sind aber deutlich schwerer zu erkennen. Je mehr du zahlst, desto besser die Illusion.

Die Nachfrageseite: Wer kauft – und warum?

Die Wahrheit ist: Der Fake-Engagement-Markt wird von einer breiteren Kundenbasis getragen, als die meisten vermuten.

Kleine Influencer, die ihren ersten Sponsoring-Deal landen wollen und dafür eine bestimmte Follower-Zahl brauchen. Mittelgroße Influencer, die ihre Engagement-Rate künstlich hochhalten, weil Marken diese Metrik als Bewertungskriterium nutzen. Unternehmen, die ihren Social-Media-Auftritt aufpolieren wollen, weil eine hohe Follower-Zahl nach außen Vertrauen signalisiert. Musiker, die ihre Spotify-Streams manipulieren, um in algorithmische Playlists zu kommen. Autoren, die Amazon-Bewertungen kaufen. Restaurants, die Google-Reviews faken.

Es ist kein Randphänomen. Es zieht sich durch Branchen und Plattformen. Und es ist so normalisiert, dass viele Beteiligte es nicht einmal mehr als Betrug empfinden. „Das machen doch alle.“ „So funktioniert das Spiel.“ „Man muss halt mitspielen.“

Nein. Muss man nicht. Aber dazu kommen wir später.


Kapitel 2: Like-Pods und Engagement-Gruppen – Der koordinierte Betrug unter Freunden

Neben den offensichtlichen Klickfarmen gibt es eine Form der Manipulation, die in der Creator-Community weit verbreitet ist und von vielen nicht einmal als Manipulation wahrgenommen wird: Like-Pods und Engagement-Gruppen.

Das Prinzip ist simpel. Eine Gruppe von Creators – manchmal zehn, manchmal fünfzig, manchmal hunderte – verabredet sich, gegenseitig jeden Post zu liken, zu kommentieren und zu teilen. Sofort nach dem Posten. Systematisch. Verpflichtend. Wer nicht mitmacht, fliegt raus.

Das Ziel: den Algorithmus beeinflussen. Instagram, TikTok und Co. bewerten die Performance eines Posts in den ersten Minuten nach der Veröffentlichung. Wenn schnell viele Likes und Kommentare eingehen, interpretiert der Algorithmus das als Signal und pusht den Post an ein breiteres Publikum. Die Engagement-Gruppe erzeugt diesen initialen Push künstlich.

Diese Pods existieren auf allen Plattformen. Telegram-Gruppen mit Tausenden von Mitgliedern. WhatsApp-Gruppen. Discord-Server. Es gibt sogar Apps, die den Prozess automatisieren – du verbindest deinen Account, und die App liked und kommentiert automatisch die Posts aller anderen Mitglieder.

Das Perfide: Die Likes kommen von echten Accounts. Von echten Menschen. Mit echten Profilen. Für die Plattformen ist es schwer, den Unterschied zwischen einem Like aus Überzeugung und einem Like aus Verpflichtung zu erkennen. Die Kommentare verraten sich allerdings oft durch ihre Generik: „So toll! 🔥“ „Mega! 👏“ „Liebe das! ❤️“ Immer dieselben Accounts. Immer innerhalb der ersten Minuten. Immer mit derselben Begeisterung, egal ob der Post ein Meisterwerk ist oder ein verwackeltes Foto vom Mittagessen.

Und hier ist der Punkt, der mich persönlich am meisten beschäftigt: Viele der Leute in diesen Pods sind keine schlechten Menschen. Sie sind Kreative wie du und ich. Sie machen gute Arbeit. Aber sie haben das Gefühl, dass sie ohne künstliche Unterstützung nicht sichtbar werden. Dass der Algorithmus sie bestraft, wenn sie nicht mitspielen.

Das eigentliche Problem sind nicht die Pods selbst. Sondern die Tatsache, dass das System Anreize setzt, die ehrliche Arbeit strukturell benachteiligen.


Kapitel 3: YouTube, TikTok, Spotify – Die plattformspezifischen Spielarten

Jede Plattform hat ihre eigene Betrugskultur. Und jede Plattform ihre eigenen Schwachstellen.

YouTube: Der View-Count als Währung

YouTube-Views sind direkt monetarisierbar. Mehr Views bedeuten mehr Werbeeinnahmen und bessere Platzierung. Die Methoden reichen von simplen Bot-Views bis zu „Retention Views“, bei denen echte Menschen in Niedriglohnländern Videos tatsächlich für eine garantierte Dauer ansehen.

Wichtige Einschränkung: YouTube filtert aggressiver als jede andere Plattform. Googles Erkennungssysteme sind ausgereift, und viele Fake-Views werden erkannt und gelöscht. Das macht den Betrug teurer und riskanter als auf anderen Plattformen – aber nicht unmöglich. Die Premium-Anbieter haben gelernt, unter dem Radar zu bleiben.

TikTok: Der Viralitäts-Hack

TikTok ist anfällig, weil die Plattform stärker als jede andere auf algorithmische Distribution setzt. Du brauchst keine Follower, um viral zu gehen. Der Algorithmus entscheidet. Und der reagiert auf Engagement-Signale in den ersten Stunden.

Die Fake-Industrie nutzt das: Ein initialer Push durch gekaufte Views und Likes kann den Algorithmus dazu bringen, ein Video einem breiteren Publikum zu zeigen. Ab dann kann organische Reichweite entstehen.

Allerdings – und das muss gesagt werden – ist der TikTok-Algorithmus komplexer als „kauf 20 Prozent Fake-Views und der Rest kommt von allein“. Der Algorithmus berücksichtigt dutzende Signale, und ein rein gepushtes Video ohne echte Qualität wird auch mit initialer Manipulation meistens nicht nachhaltig viral. Der Fake-Push funktioniert am ehesten dann, wenn der Content selbst gut genug ist, um echtes Engagement auszulösen – die gekauften Views sind dann eher der Zündfunke als das Feuer.

Spotify: Die Streaming-Manipulation

Auch die Musikbranche ist massiv betroffen. Spotify-Streams entscheiden über die Aufnahme in algorithmische Playlists, und die Playlists entscheiden über Karrieren. Bot-Streams, Klickfarm-Streams, manipulierte Playlists – das volle Programm.

Spotify hat das Problem erkannt und Maßnahmen ergriffen. Künstler wurden bereits gesperrt, Streams rückwirkend gelöscht, Auszahlungen gestrichen. Aber der Markt existiert weiterhin, weil die wirtschaftlichen Anreize zu groß und die Erkennung nicht perfekt ist.

Ein Punkt, der oft übersehen wird: Für jeden Fake-Stream, der gezählt wird, fließt Geld aus dem Spotify-Topf. Geld, das echten Künstlern mit echten Hörern zustehen würde. Jeder gekaufte Stream ist ein umverteilter Cent.


Kapitel 4: Und dann kam die KI

Alles, was ich bisher beschrieben habe, existiert seit Jahren. Klickfarmen, Like-Pods, View-Bots – das ist die alte Welt des Fake-Engagements. Ein Katz-und-Maus-Spiel, bei dem die Maus meistens vorne lag, aber die Katze zumindest im Spiel blieb.

2026 hat KI dieses Spiel fundamental verändert.

Und ich sage das nicht leichtfertig. Was KI für die Fake-Industrie bedeutet, ist kein graduelles Upgrade. Es ist ein Quantensprung in Qualität, Skalierbarkeit und – das ist der entscheidende Punkt – Schwierigkeit der Erkennung.

KI-generierte Profile: Deutlich schwerer zu erkennen

Früher waren Fake-Profile relativ leicht zu identifizieren. Kein Profilbild. Generische Benutzernamen mit Zahlenfolgen. Keine eigenen Posts. Jeder halbwegs erfahrene Nutzer konnte einen Bot erkennen.

2026 sieht das anders aus. KI-generierte Profilbilder sind so realistisch, dass du sie mit bloßem Auge kaum von echten Fotos unterscheiden kannst. Kein gestohlenes Bild, das per Rückwärtssuche entlarvt werden kann. Ein Gesicht, das nicht existiert. Perfekt beleuchtet. In verschiedenen Situationen – alles generiert.

KI generiert darüber hinaus konsistente Biografien, Posting-Historien, die organisch wirken, und Kommentare, die kontextuell passend und sprachlich korrekt sind. Ein KI-generiertes Fake-Profil kann regelmäßig eigene Inhalte posten, auf aktuelle Events reagieren und Konversationen führen, die sich von echten Interaktionen schwer unterscheiden lassen.

Bedeutet das, dass diese Profile UNSICHTBAR sind? Nein. Meta, Google und andere Plattformen investieren massiv in Detection-Systeme. KI gegen KI, wenn man so will. Und diese Systeme werden besser. Aber – und das ist die ehrliche Einschätzung – die Erkennung hinkt der Erzeugung hinterher. Die Fake-Seite bewegt sich schneller als die Detection-Seite. Nicht unlösbar. Aber aktuell im Vorteil.

KI-generierte Kommentare: Das Ende von „Nice pic! 🔥“

Die generischen Bot-Kommentare von gestern – „Great post!“, „Love this!“, „Amazing! 👏“ – sind von KI-generierten Kommentaren 2026 kaum noch zu vergleichen.

KI-Kommentare sind kontextbezogen. Sie beziehen sich auf den spezifischen Inhalt des Posts. Sie verwenden die richtige Sprache – nicht nur die richtige Landessprache, sondern den passenden Tonfall, die richtige Menge an Emojis für die jeweilige Plattform. Sie stellen Fragen, die zum Bild passen. Sie wirken menschlich.

Und sie werden in jeder gewünschten Sprache und jedem gewünschten Stil geliefert. Deutsch mit regionalem Einschlag? Konfigurierbar. Hochdeutsch mit akademischem Tonfall? Auch. Jugendsprache mit TikTok-Slang? Kein Problem. Die KI passt sich an.

Die Klickfarmen, die früher menschliche Arbeiter für authentische Kommentare brauchten, können jetzt mit einem Bruchteil des Personals ein Vielfaches des Outputs produzieren. Die Kosten sinken. Die Qualität steigt. Die Erkennung wird schwerer – wenn auch nicht unmöglich.

KI-generierter Content: Fake-Profile, die eigene Inhalte produzieren

Die nächste Eskalationsstufe, die viele noch nicht auf dem Radar haben: KI-generierte Fake-Accounts, die eigenen Content produzieren. Nicht reposten. Nicht kopieren. Originelle, visuell hochwertige Inhalte.

KI-generierte Bilder als Posts. KI-generierte Captions. KI-generierte Stories und Reels. Komplette Social-Media-Persönlichkeiten, die nicht existieren, aber einen Feed haben, der professionell aussieht.

Diese Fake-Persönlichkeiten werden nicht nur als Engagement-Lieferanten eingesetzt, sondern vereinzelt auch als eigenständige „Influencer“ – mit Sponsoring-Deals und Kooperationen. Es gibt dokumentierte Fälle von Marken, die signifikante Beträge an Influencer-Personas gezahlt haben, deren Existenz komplett generiert war. Das ist aktuell kein Massenphänomen, aber es existiert. Und die technologischen Hürden sinken mit jedem Monat.

Virtuelle Influencer – wie die bekannte Lil Miquela – haben gezeigt, dass das Konzept funktioniert. Der Unterschied: Lil Miquela ist offen als virtuell deklariert. Die neuen KI-generierten Fake-Influencer sind es nicht. Sie geben sich als echte Menschen aus. Und genau das macht sie problematisch.


Kapitel 5: Was das für dich als Kreativen bedeutet

Wenn du ernsthaft kreativ arbeitest – als Künstler, Fotograf, Designer, Content Creator – dann hat dieser Fake-Markt massive Auswirkungen auf dein Business. Auch wenn du selbst nichts davon kaufst.

Erstens: Deine Vergleichswerte sind verzerrt.

Wenn du deinen Account mit 3.000 echten Followern mit einem Account vergleichst, dessen 300.000 Follower zu einem relevanten Teil gekauft sind, dann vergleichst du Realität mit einer aufgepumpten Zahl. Aber du WEISST das nicht. Du siehst nur die Metrik. Und die Metrik sagt: Der andere ist hundertmal erfolgreicher.

Die Wahrheit: Du spielst ein anderes Spiel. Ein ehrliches Spiel in einem System, das Manipulation nicht ausreichend bestraft. Das zu wissen – wirklich zu verstehen und emotional zu akzeptieren – ist der erste Schritt, um nicht daran zu zerbrechen.

Zweitens: Kunden nutzen manipulierte Metriken als Bewertungsgrundlage.

Wenn eine Marke einen Influencer für eine Kooperation sucht, schaut sie auf Follower-Zahlen und Engagement-Raten. Wenn ein Kunde einen Fotografen auswählt, schaut er auf den Instagram-Account. Hohe Zahlen = guter Kreativer. Niedrige Zahlen = irrelevant. So simpel. So falsch. Aber so funktioniert ein Teil des Marktes.

Das bedeutet: Wer manipuliert, wird in manchen Kontexten bevorzugt. Wer ehrlich arbeitet, wird übersehen. Nicht immer. Nicht bei allen Kunden. Aber oft genug, um einen spürbaren wirtschaftlichen Nachteil zu erzeugen.

Drittens: Algorithmen reagieren auf Engagement-Signale – egal ob echt oder fake.

Zumindest kurzfristig. Wenn ein Post in den ersten Minuten durch koordiniertes oder gekauftes Engagement gepusht wird, reagiert der Algorithmus auf dieses Signal. Er kann in Echtzeit nicht zuverlässig unterscheiden, ob das Engagement authentisch ist oder manipuliert.

Langfristig sieht das anders aus. Plattformen erkennen Muster zunehmend besser. Fake-Engagement kann zu Shadowbans, Reichweitenverlusten oder sogar Account-Sperrungen führen. Die kurzfristige Belohnung kann langfristig zum Bumerang werden.

Aber im Moment, im unmittelbaren Wettbewerb um algorithmische Sichtbarkeit, hat gekauftes initiales Engagement einen messbaren kurzfristigen Vorteil. Das ist keine Meinung. Das ist beobachtbare Mechanik.


Kapitel 6: Was du tun kannst – und was du lassen solltest

Jetzt die Frage, die du dir stellst: Was mache ich mit diesem Wissen?

Meine Antwort ist klar:

Bleib echt. Aber sei strategisch dabei.

Kauf keinen einzigen Fake-Follower. Keinen einzigen Fake-Like. Keinen einzigen Fake-Kommentar. Nicht weil es in jedem Fall illegal ist – obwohl es in manchen Jurisdiktionen rechtliche Konsequenzen haben kann, besonders wenn Werbekennzeichnungspflichten verletzt werden. Sondern weil es dein eigenes Fundament untergräbt.

Fake-Reichweite ist geliehener Glanz. Spätestens wenn ein Kunde die tatsächliche Performance analysiert und eine Conversion Rate von quasi null feststellt. Spätestens wenn die Plattform einen Purge durchführt und über Nacht ein großer Teil deiner Follower verschwindet. Spätestens wenn du merkst, dass du eine Community aus Geistern aufgebaut hast, die deine Kunst nicht sehen, deine Arbeit nicht wertschätzen und dein Produkt nicht kaufen.

Stattdessen: Verstehe das System und arbeite mit deinen eigenen Regeln.

Wisse, dass ein signifikanter Teil der Metriken manipuliert ist – und hör auf, dich daran zu messen. Dein Wert als Kreativer bemisst sich nicht an Followerzahlen. Er bemisst sich an der Qualität deiner Arbeit, an der Tiefe deiner Kundenbeziehungen und daran, ob am Ende des Monats jemand für das bezahlt, was du machst.

Baue echte Beziehungen. Zu echten Menschen. Tausend echte Follower, die deine Kunst kaufen, sind mehr wert als eine Million Fake-Follower, die nicht existieren.

Nutze KI als kreatives Werkzeug, nicht als Betrugshelfer. Die Technologie, die Fake-Profile und Fake-Kommentare generiert, ist dieselbe Technologie, die dir hilft, bessere Bilder zu machen, schneller zu arbeiten und kreativer zu denken. Der Unterschied liegt in der Entscheidung, wie du sie einsetzt.

Und wenn ein Kunde dich nach deiner Follower-Zahl fragt, bevor er nach deiner Arbeit fragt? Dann überlege, ob das der richtige Kunde ist. Oder nutze den Moment, um zu erklären, warum Metriken in einer Welt voller Manipulation kein zuverlässiger Qualitätsindikator sind. Manche Kunden verstehen das. Die besten Kunden verstehen das sofort.


Kapitel 7: Warum sich Echtheit am Ende durchsetzt – auch wenn es sich nicht immer so anfühlt

Ich weiß, dass das leicht gesagt ist. „Bleib echt.“ Klingt wie ein Motivationsposter. Hilft es dir, wenn manipulierte Accounts die Deals bekommen, die du verdienst?

Vielleicht nicht sofort. Aber langfristig setzt sich Substanz durch. Nicht weil die Welt gerecht ist. Sondern weil Fakes keine Substanz haben. Und irgendwann fällt das auf.

Die Influencer-Blase korrigiert sich bereits in vielen Bereichen. Marken werden schlauer. Tools zur Erkennung von Fake-Engagement werden besser. Die ersten großen Skandale, in denen Influencer öffentlich als Betrüger entlarvt wurden, haben gezeigt, dass der Reputationsschaden für alle Beteiligten enorm sein kann.

Und für Künstler und Kreative gilt ohnehin eine andere Logik. Dein Ziel ist nicht, eine Million Menschen oberflächlich zu erreichen. Dein Ziel ist, die richtigen Menschen tief zu berühren. Und dafür brauchst du keine Fake-Reichweite. Dafür brauchst du eine echte Stimme, eine echte Vision und die Geduld, die richtigen Menschen zu finden.

Die Fake-Industrie verkauft eine Abkürzung. Aber die Abkürzung führt nicht zum Ziel. Sie führt in eine Sackgasse. Eine gut beleuchtete, beeindruckend aussehende Sackgasse – aber eine Sackgasse.

Der echte Weg ist länger. Aber er ist der einzige, der irgendwo ankommt.

In einer Welt, in der KI-generierte Fake-Profile existieren, in der gekaufte Metriken über Kooperationen entscheiden und in der die Grenzen zwischen echt und generiert verschwimmen, wird Authentizität zur Seltenheit.

Und Seltenheit – das weiß jeder Künstler, jeder Sammler, jeder Mensch, der schon mal etwas Echtes in den Händen gehalten hat – ist das Wertvollste, was es gibt.


BROWNZ IS ART. ✦

Und echte Kunst hat keine gekauften Likes nötig.


Stand: März 2026. Die Fake-Industrie entwickelt sich weiter. Die KI-gestützten Manipulationsmethoden werden ausgefeilter. Die Detection-Systeme der Plattformen ziehen nach. Aber die fundamentale Wahrheit bleibt: Substanz schlägt Simulation. Auch wenn Simulation mehr Likes bekommt.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.