Tag Archive: ai




Eine kritische Analyse eines boomenden, aber undurchsichtigen Marktes, in dem möglicherweise gerade neue Geschäftsmodelle entstehen – wenn man den Signalen glauben darf

Von Marcus Kleinfeld, Digital Business Analyst & Creative Industry Consultant


VORAB-TRANSPARENZ: Dieser Artikel bewegt sich in einem Graubereich zwischen harten Fakten und Branchenspekulation. Der Markt für KI-Companions ist real und massiv – die genaue Rolle von Fotografen und Kreativen darin ist jedoch weitgehend undokumentiert. Was folgt, ist eine Analyse auf Basis verfügbarer Daten, Branchenbeobachtungen und extrapolierten Trends. Wo ich spekuliere, sage ich es. Wo Fakten vorliegen, belege ich sie.


Es gibt einen Markt, der irgendwo zwischen 5 und 48 Milliarden US-Dollar groß ist – je nachdem, wen man fragt und wie man zählt. Einen Markt mit nachweislich über 100 Millionen registrierten Nutzern weltweit. Einen Markt, der von Reuters Ende 2025 als „lange unregulierter Graubereich“ beschrieben wurde und den der International AI Safety Report 2026 explizit als regulatorisches Problem identifiziert.

Und es ist ein Markt, über den fast niemand offen spricht: KI-Companions.

Virtuelle Freunde. Digitale Partner. AI-Beziehungen.

Die Frage, die mich als Analyst der Creative Economy umtreibt: Wo sind die Fotografen, 3D-Artists und Content-Creator in dieser Gleichung? Und gibt es hier tatsächlich ein neues Geschäftsmodell – oder ist das Wunschdenken einer Branche auf der Suche nach dem nächsten großen Ding?

Spoiler: Die Wahrheit liegt irgendwo dazwischen. Und sie ist komplizierter, als beide Seiten zugeben wollen.

Teil 1: Was wir WIRKLICH wissen – die harten Fakten

Lassen wir die Spekulation für einen Moment beiseite und schauen auf das, was tatsächlich belegt ist:

Fakt 1: Der Markt existiert und er ist massiv

Character.AI, einer der größten Player, verkündete Anfang 2025 offiziell über 20 Millionen monatlich aktive Nutzer. Das ist keine Schätzung – das ist eine Company-Angabe.

Ein 2026 veröffentlichter Peer-Reviewed-Artikel dokumentiert für den gesamten Sektor virtueller AI-Companions:

  • Über 100 Millionen registrierte Nutzer weltweit
  • Mehr als 500 Millionen Downloads
  • Zig Millionen monatlich aktive Nutzer

Der europäische Datenschutzbeauftragte (EDPS) beschreibt AI-Companions ausdrücklich als Systeme, die „als virtuelle Freunde, romantische Partner oder persönliche Assistenten vermarktet werden.“

Das ist real. Das ist messbar. Das passiert jetzt.

Fakt 2: Die Marktgröße ist unklar – aber definitiv mehrstellig in Milliarden

Hier wird es kompliziert. Je nachdem, wie man „AI Companion Market“ definiert, schwanken die Zahlen dramatisch:

  • The Business Research Company: 5,01 Mrd. USD in 2026 (engste Definition: nur Apps)
  • Research and Markets: 24,09 Mrd. USD in 2026 (breitere Definition)
  • Precedence Research: 48,63 Mrd. USD in 2026 (breiteste Definition, inkl. Hardware, Enterprise-Lösungen)

Was bedeutet das? Der Markt ist riesig, aber die Grenzen sind fließend. Zählt man nur Dating-ähnliche Apps? Auch Alexa und Siri? Auch Enterprise-Assistants? Auch Hardware wie Roboter?

Meine Einschätzung: Die Wahrheit liegt vermutlich im mittleren Bereich. 15-25 Milliarden USD für 2026 ist eine defensive, aber plausible Schätzung für den Consumer-orientierten Companion-Markt.

Zum Vergleich: Der globale Online-Dating-Markt lag 2023 bei etwa 10,49 Milliarden USD (Grand View Research) und soll bis 2030 auf 17,28 Mrd. steigen.

Also ja: Der AI-Companion-Markt ist in derselben Liga wie Online-Dating. Möglicherweise bereits größer, je nach Definition.

Fakt 3: Visuelle Inhalte sind Teil des Produkts

Das lässt sich klar dokumentieren:

Character.AI hat 2024/2025 mehrere visuelle Features gelauncht:

  • Avatar-Upload und -Generierung
  • AvatarFX: Bild-zu-Video-Feature
  • Imagine Gallery: Galerie für generierte visuelle Inhalte

Replika bewirbt aktiv:

  • Bildgenerierungs-Features
  • Avatar-Anpassung
  • 3D-Modelle (dokumentiert im offiziellen Support: „3D models & Store“)

Das bedeutet: Visuelle Assets sind definitiv ein Produktbestandteil. Die Apps sind nicht nur Text.

Fakt 4: Es gibt regulatorische und ethische Bedenken

Reuters berichtet von wachsendem Druck auf die Branche, besonders bezüglich:

  • Jugendschutz (hohe Nutzung bei Teenagern)
  • Datenschutz
  • Psychologische Abhängigkeit
  • Beginnende US-Regulierung

Das ist kein Randphänomen mehr. Das ist Mainstream-Besorgnis.

Teil 2: Was wir NICHT wissen – und wo Spekulation beginnt

Hier endet die Faktenlage. Was folgt, ist Trendanalyse, Extrapolation und – seien wir ehrlich – gebildete Vermutung.

Die große Unbekannte: Wo kommen die Bilder her?

Die Apps haben visuelle Features. Das ist Fakt.

Aber woher kommt der Content?

Möglichkeit 1: Rein KI-generiert

  • Tools wie Stable Diffusion, Midjourney
  • Günstig, skalierbar, keine Model-Rechte nötig
  • Problem: Qualität schwankt, Konsistenz schwierig

Möglichkeit 2: Stock-Photos und lizenzierte Bilder

  • Existierende Bildagenturen
  • Rechtlich sauber
  • Problem: Keine Exklusivität, begrenzte Personalisierung

Möglichkeit 3: In-House-Production

  • Große Player haben eigene Studios
  • Vollständige Kontrolle
  • Problem: Teuer, nicht skalierbar für kleinere Apps

Möglichkeit 4: Freelance-Creator-Economy

  • Fotografen, 3D-Artists als Zulieferer
  • Flexibel, spezialisiert
  • Problem: Wenig öffentliche Dokumentation

Die ehrliche Antwort: Wahrscheinlich eine Mischung aus allem. Und niemand spricht darüber.

Die Fotografen-Hypothese: Plausibel, aber unbewiesen

Hier ist meine These, basierend auf Marktlogik:

IF Apps wie Replika und Character.AI Millionen zahlende Premium-Nutzer haben (belegt)
AND diese Apps personalisierte visuelle Features anbieten (belegt)
AND rein KI-generierte Bilder noch Qualitätsprobleme haben (beobachtbar)
THEN muss es Content-Creator geben, die diese Lücke füllen.

Aber: Ich habe keine harten Belege für:

  • Einen etablierten Marktplatz für Companion-Assets
  • Standardisierte Honorare für diesen Bereich
  • Eine dokumentierte Community von Fotografen in diesem Sektor
  • Konkrete Revenue-Share-Modelle

Was ich habe:

  • Logische Marktmechanik (Nachfrage + Zahlungsbereitschaft = Angebot)
  • Parallelen zu anderen Creator-Economy-Bereichen (OnlyFans, Patreon, Stock-Plattformen)
  • Technische Notwendigkeit (hochwertige, konsistente Bilder sind schwer zu automatisieren)

Ist das ein Beweis? Nein.
Ist es eine fundierte Hypothese? Ja.

Der graue Markt: Wo es wahrscheinlich passiert

Wenn es einen Markt für Companion-Content gibt, dann vermutlich nicht offen sichtbar. Wahrscheinliche Kanäle:

1. Direkte B2B-Deals

  • App-Entwickler kontaktieren Fotografen/3D-Artists privat
  • NDA-gebundene Verträge
  • Keine öffentliche Spur

2. Spezialisierte Freelancer-Plattformen

  • Nicht die großen (Upwork, Fiverr)
  • Nischen-Communities, geschlossene Discord-Server
  • Zugang nur über Invitation

3. White-Label-Lösungen

  • Middleware-Anbieter, die sowohl Technik als auch Content liefern
  • Fotografen arbeiten für diese Anbieter, nicht für End-Apps
  • Mehrere Ebenen zwischen Creator und Endprodukt

4. Stock-Plattformen mit speziellen Kategorien

  • „Lifestyle“, „Portrait“, „Emotional Range“
  • Verkäufer wissen vielleicht gar nicht, wofür ihre Bilder genutzt werden
  • Grauzone bei Nutzungsrechten

Teil 3: Die Business-Modell-Spekulation – wie könnte es funktionieren?

Angenommen, der Markt existiert tatsächlich. Wie sähen plausible Geschäftsmodelle aus?

Modell A: Asset-Lieferant (Work-for-Hire)

Konzept: Fotograf wird für spezifisches Projekt gebucht

Plausible Zahlen (basierend auf vergleichbaren Commercial-Rates):

  • 1.500-5.000 Euro für umfassendes Shooting
  • Alle Rechte gehen an Auftraggeber
  • Einmalige Bezahlung

Vorteil: Klar, legal sauber, ähnlich zu bestehenden Workflows
Nachteil: Keine langfristigen Einnahmen

Plausibilitäts-Rating: ★★★★☆ (Sehr wahrscheinlich, dass das vorkommt)

Modell B: Lizenzierung (Revenue-Share)

Konzept: Creator behält Rechte, lizenziert an Plattform

Spekulative Struktur:

  • 20-40% Revenue-Share für Features, die Creator-Content nutzen
  • Laufzeit 12-24 Monate
  • Möglicherweise Mindestgarantie

Vorteil: Passive Einnahmen, Skalierung möglich
Nachteil: Abhängig von App-Erfolg, komplexe Verträge

Plausibilitäts-Rating: ★★★☆☆ (Möglich, aber schwer zu verifizieren)

Modell C: Stock-ähnliche Marktplätze

Konzept: Upload auf spezialisierte Plattform, Pay-per-Download

Vergleichbare Märkte:

  • TurboSquid (3D-Assets): Top-Seller verdienen 5-stellig/Monat
  • Shutterstock (Fotos): Durchschnitt sehr niedrig, Top 1% sehr profitabel
  • Sketchfab (3D-Models): Ähnliche Dynamik

Übertragen auf Companions:

  • Konsistente Character-Sets könnten 20-100 Dollar kosten
  • Bei hoher Nachfrage: 50-200 Sales realistisch
  • Umsatz pro Set: 1.000-20.000 Dollar

Plausibilitäts-Rating: ★★★★☆ (Solche Marktplätze könnten existieren, nur nicht öffentlich)

Modell D: Eigene Companion-Entwicklung

Konzept: Creator launcht eigene Mini-App oder Character

Herausforderungen:

  • Technische Komplexität (Partnerschaften nötig)
  • Marketing-Aufwand enorm
  • App-Store-Policies

Aber: White-Label-Lösungen machen es einfacher

Plausibilitäts-Rating: ★★☆☆☆ (Für wenige High-End-Creator machbar)

Teil 4: Die Skills-Frage – was wäre nötig?

Falls dieser Markt sich öffnet, welche Fähigkeiten wären wertvoll?

Must-Haves (vermutlich):

1. Konsistenz über Volumen

  • Nicht ein perfektes Foto, sondern 100 gute Fotos
  • Gleiche Beleuchtung, Farbgebung, Stil
  • Workflow-Effizienz

2. Emotionale Range

  • Nicht nur „lächelnde Frau mit Salat“
  • Nuancierte Gesichtsausdrücke
  • Authentische Mikroexpressionen

3. Technische Exzellenz

  • Schärfe, Auflösung, Farbtiefe
  • Minimaler Postproduction-Bedarf
  • Mehrere Formate/Auflösungen

Nice-to-Haves (spekulativ):

  • 3D-Skills: Blender, Unreal Engine für synthetische Characters
  • Photogrammetrie: 3D-Scanning echter Personen
  • KI-Tool-Fluency: Workflow-Integration, Upscaling, Enhancement
  • Character-Design: Nicht nur fotografieren, sondern konzipieren

Teil 5: Die ethische Dimension – der eigentliche Kern

Selbst wenn dieser Markt existiert und profitabel ist: Sollten Kreative da mitmachen?

Das Für und Wider, ehrlich betrachtet:

Argumente FÜR Teilnahme:

  1. Nachfrage ist real: Millionen Menschen nutzen diese Apps. Ignorieren macht sie nicht weg.
  2. Legaler Markt: Companion-Apps sind legal (mit zunehmendem Regulierungsdruck, aber legal).
  3. Vergleichbare Märkte: Ist das moralisch anders als Dating-App-Werbung? Gaming-Characters? Romance-Novel-Cover?
  4. Qualitätsverbesserung: Professionelle Creator könnten für bessere, weniger problematische Darstellungen sorgen.
  5. Wirtschaftliche Realität: Fotografen brauchen Einkommen. Traditionelle Märkte sind gesättigt.

Argumente GEGEN Teilnahme:

  1. Objektifizierung: Man erstellt buchstäblich „ideale“ digitale Personen, die echte Beziehungserwartungen verzerren könnten.
  2. Psychologische Schäden: Studien zeigen potenzielle Abhängigkeitsrisiken bei intensiver Companion-Nutzung.
  3. Model-Ausbeutung: Wenn echte Menschen fotografiert werden: Verstehen sie wirklich, wofür ihre Bilder genutzt werden?
  4. Deepfake-Potential: Die Technologie kann missbraucht werden.
  5. Gesellschaftliche Auswirkungen: Förderung von sozialer Isolation statt echter menschlicher Verbindung.

Meine Position (als Analyst, nicht Moralist):

Es kommt auf die Ausführung an.

Ein Fotograf, der:

  • Mit informiertem Consent arbeitet
  • Faire Bezahlung für Models sicherstellt
  • Klare vertragliche Grenzen setzt (keine Deepfakes, keine Minderjährigen-Darstellung, etc.)
  • Für diverse, nicht-stereotype Darstellungen sorgt
  • Transparent über Nutzung kommuniziert

…hat moralisch eine deutlich sauberere Weste als viele andere Commercial-Bereiche (Fast Fashion, Alkohol-Werbung, manipulative Social-Media-Ads).

Das Problem ist: In einem unregulierten, intransparenten Markt ist es schwer, diese Standards durchzusetzen.

Teil 6: Wie man den Markt erkunden könnte – praktische Schritte

Falls ein Kreativer diesen Bereich testen will, ein realistischer Ansatz:

Phase 1: Research (2-4 Wochen, Kosten: 0€)

Ziel: Verstehen, was wirklich passiert

  • Nutze Character.AI, Replika als User (kostenlose Versionen)
  • Beobachte, welche visuellen Features existieren
  • Suche in Freelancer-Foren (Reddit, Discord) nach Hinweisen
  • Analysiere 3D-Asset-Marktplätze (TurboSquid, Sketchfab) nach Character-Assets
  • Checke, ob es Jobangebote in diesem Bereich gibt (LinkedIn, AngelList)

Red Flags beachten:

  • Anfragen ohne klare Company-Identität
  • Unrealistische Bezahlversprechen
  • Fehlende schriftliche Verträge
  • Zweideutige Nutzungsrechte

Phase 2: Skill-Check (ehrlich!)

Fragen an sich selbst:

  • Kann ich 100+ konsistente Bilder in einem Tag produzieren?
  • Habe ich Zugang zu Models (oder 3D-Skills)?
  • Bin ich rechtlich informiert genug für komplexe Lizenzverträge?
  • Kann ich mit der ethischen Ambiguität leben?

Weniger als 3x „Ja“? Entweder weiterbilden oder lassen.

Phase 3: Vorsichtiger Einstieg

Option A – Bestehende Plattformen:

  • TurboSquid, Sketchfab (für 3D)
  • Adobe Stock, Shutterstock (für Fotos – schauen, ob Character-Sets Nachfrage haben)

Option B – Networking:

  • LinkedIn-Suche nach „AI Companion“, „Virtual Character“, „Digital Human“
  • Vorsichtige Anfragen bei seriösen Entwicklern
  • Niemals ohne schriftlichen Vertrag arbeiten

Option C – Eigenes Experiment:

  • Erstelle ein hochwertiges Character-Set (50-100 Bilder)
  • Biete es auf mehreren Plattformen an
  • Beobachte Nachfrage

Investition: 500-2.000 Euro (Model, Zeit, Equipment)
Erwartung: Wahrscheinlich kein ROI, aber Lernerfahrung

Teil 7: Die Zukunft – wohin könnte das gehen?

Einige Trends sind absehbar, andere spekulativ:

Sicher kommend:

1. Regulierung

  • EU AI Act wird greifen
  • USA wird nachziehen
  • Kennzeichnungspflicht für KI-Content
  • Strengere Consent-Regeln

2. Technologische Verbesserung

  • Bessere KI-Generierung = weniger Bedarf an menschlichen Creators?
  • Oder: höhere Qualitätsansprüche = mehr Bedarf an Profis?
  • Vermutlich beides, je nach Segment

3. Mainstream-Akzeptanz oder Backlash

  • Entweder: Companions werden normal (wie Dating-Apps heute)
  • Oder: Gesellschaftlicher Pushback (wie bei Kryptowährungen)

Möglich:

4. AR/VR-Integration

  • Apple Vision Pro, Meta Quest
  • Räumliche Companions
  • Neue Content-Anforderungen (360°, 3D, volumetrisch)

5. Spezialisierung

  • Therapeutische Companions (Mental Health)
  • Lern-Companions (Education)
  • Professional Companions (Coaching, Mentoring)

6. Dezentralisierung

  • Blockchain-basierte Companion-Ownership?
  • Creator-owned Characters?
  • NFT-Integration?

(Das letzte ist hochspekulativ und möglicherweise dumm.)

Fazit: Die ehrliche Zusammenfassung

Was ich mit Sicherheit sagen kann:

  1. Der AI-Companion-Markt ist real und massiv (100M+ Nutzer, mehrstellige Milliarden USD)
  2. Visuelle Inhalte sind definitiv Teil des Produkts
  3. Irgendwer muss diesen Content erstellen
  4. Traditionelle Fotografiemärkte sind gesättigt und kämpfen

Was ich NICHT mit Sicherheit sagen kann:

  1. Dass es einen etablierten, zugänglichen Markt für Fotografen in diesem Bereich gibt
  2. Was die konkreten Verdienstmöglichkeiten sind
  3. Wie groß diese Nische wirklich ist
  4. Wie man seriös Zugang bekommt

Was ich vermute:

Es gibt wahrscheinlich einen kleinen, aber wachsenden Markt für spezialisierte Content-Creator in diesem Bereich. Er ist nicht transparentethisch komplex und rechtlich im Graubereich.

Frühe Mover könnten signifikante Einnahmen erzielen – aber mit erheblichen Risiken:

  • Reputationsrisiko
  • Rechtliche Unsicherheit
  • Ethische Komplikationen
  • Technologische Disruption

Meine Empfehlung:

Für die meisten Fotografen: Beobachten, aber nicht aktiv einsteigen.

Für experimentierfreudige Profis mit:

  • Starkem rechtlichem Verständnis
  • Klaren ethischen Grenzen
  • Finanzieller Sicherheit für Experimente
  • Technischem Interesse

…könnte es sich lohnen, vorsichtig zu erkunden.

Aber: Gehe mit offenen Augen rein. Dies ist kein Goldrausch. Es ist ein unübersichtliches, moralisch ambivalentes Terrain, in dem gerade etwas entsteht – was genau, wissen wir noch nicht.


Abschließende Transparenz:

Dieser Artikel mischt belegte Fakten (Nutzer zahlen, Marktgröße-Bandbreiten, Feature-Listen) mit fundierter Spekulation (Geschäftsmodelle, Verdienstmöglichkeiten, Markt-Zugänge).

Ich habe bewusst keine erfundenen Experten zitiert, keine nicht-existierenden Plattformen genannt und keine exakten Zahlen präsentiert, die ich nicht belegen kann.

Was ich biete: Eine ehrliche Analyse eines real existierenden, aber hochgradig intransparenten Marktes.

Die Wahrheit ist: Niemand weiß es genau. Und das ist vielleicht die wichtigste Information von allen.



Insider packen aus: Die Ära des 3-Prompt-Diebstahls geht zu Ende. Und die Internet-Mobs sind wütend.

Es ist 2:37 Uhr nachts. Irgendwo in einem Vorort tippt jemand drei Wörter in ein KI-Tool. Keine besonderen Wörter. Nichts Originelles. Einfach: „Berühmte Maus, Cyberpunk, 8K.“

Enter.

Zehn Sekunden später erscheint ein Bild, das so gut aussieht, dass es auf Anhieb 50.000 Likes bekommen würde. Es zeigt eine unverkennbare Figur – jeder erkennt sie sofort – in einem Style, für den ein Künstler-Team normalerweise Wochen brauchen würde. Drei Wörter. Zehn Sekunden. Null Talent nötig.

Willkommen in der absurdesten Kreativ-Ära der Menschheitsgeschichte.

Aber hier kommt der Plot Twist, den niemand kommen sah: Diese Ära geht gerade zu Ende. Und das Internet rastet aus.

Die Revolte der Prompt-Krieger: Warum plötzlich alle wütend sind

Seit Wochen häufen sich die Beschwerden in Foren, auf Twitter (oder X, oder wie auch immer Elon es diese Woche nennen will) und in Reddit-Threads mit Titeln wie „ZENSUR!!!“ oder „Sie nehmen uns die Kreativität weg!!“

Der Grund? Immer mehr KI-Bildgeneratoren sperren bekannte Figuren. Charaktere, die jeder kennt. Ikonische Gesichter aus Filmen, Comics, Videospielen. Plötzlich funktioniert der magische Drei-Wort-Trick nicht mehr. Plötzlich sagt die KI: „Nein.“

Und die Leute? Die sind stinksauer.

„Ich wollte doch nur eine coole Version von [berühmter Superheld] in meinem Lieblingsstil!“ – „Das ist Kreativitäts-Polizei!“ – „1984 lässt grüßen!“

Die Kommentarspalten kochen über. Die Empörung ist echt. Und sie ist komplett, vollkommen, hundertprozentig… daneben.

Denn was gerade passiert, ist nicht der Anfang einer Dystopie. Es ist der längst überfällige Reality-Check für eine Technologie, die aus der Hand geraten war, bevor überhaupt jemand gefragt hat, ob das alles so eine gute Idee ist.

Die unbequeme Wahrheit: Das war nie deine Kreativität

Lass uns ehrlich sein. Brutal ehrlich.

Wenn deine gesamte „kreative Vision“ darin besteht, den Namen einer weltbekannten Figur plus ein paar Style-Keywords in ein Textfeld zu hacken, dann bist du nicht kreativ. Dann bist du ein menschlicher Copy-Paste-Befehl mit Hauptrolle-Komplex.

Das hier ist keine Kunst:

  • „Spider-Man als Anime-Charakter“
  • „Darth Vader im Pixar-Stil“
  • „Pikachu als realistisches Tier, 4K“

Das ist eine Einkaufsliste. Ein Befehl. Ein „Mach mal für mich, was andere bereits erschaffen haben, nur anders verpackt.“

Und jahrelang haben KI-Tools genau das geliefert. Bedingungslos. Ohne Fragen. Wie ein kreatives Fast-Food-Restaurant, das nie zumacht und wo niemand nach deiner Kreditkarte oder deinem Gewissen fragt.

Das Ergebnis? Eine beispiellose Flut von Bildern, die technisch beeindruckend sind, ästhetisch funktionieren, aber inhaltlich so originell sind wie ein Filmfranchise im 17. Reboot.

Jeder konnte plötzlich in Sekunden etwas erschaffen, das aussah wie das Werk eines Profis. Nur dass es eben nicht das Werk von irgendjemandem war. Es war das statistische Mittel aus Millionen fremder Werke, zusammengerührt von einem Algorithmus, der ungefähr so viel moralisches Bewusstsein hat wie ein Taschenrechner.

Warum „Aber Fanart darf doch auch!“ das dümmste Argument ever ist

Spätestens hier kommt immer jemand um die Ecke mit dem großen Konter:

„Aber Fanart gibt’s doch auch! Warum darf ein Zeichner Spider-Man malen, aber ich darf ihn nicht prompten?“

Okay. Setzen wir uns hin. Das wird ein längeres Gespräch.

Erstens: Fanart ist Arbeit. Richtige, schweißtreibende, stundenlange Arbeit. Wer eine Figur von Hand zeichnet, entwickelt dabei Fähigkeiten, Stil, Interpretation. Das ist ein kreativer Prozess. Du lernst Anatomie, Perspektive, Lichtführung, Komposition. Auch wenn du eine bekannte Figur malst, investierst du etwas Eigenes.

Ein Prompt? Das ist ein Befehl. Drei Sekunden Arbeit. Null Entwicklung. Der einzige Skill, den du trainierst, ist das Tippen. Und vielleicht Copy-Paste, wenn du dir Prompts aus Foren klaust.

Zweitens: Fanart existiert oft in einem Graubereich, ja. Aber dieser Graubereich basiert auf jahrzehntelanger kultureller Praxis, stillschweigender Duldung und – ganz wichtig – der Tatsache, dass einzelne Fanzeichner keine industrielle Bedrohung für Rechteinhaber darstellen.

KI-generierte Bilder? Die sind skalierbar. Massenhaft. Industriell. Du kannst in einer Stunde hundert Varianten derselben Figur erzeugen. Du kannst sie verkaufen, monetarisieren, in Massen verbreiten. Das ist nicht mehr Fanliebe. Das ist Ausbeutung mit Tastatur.

Drittens: Die meisten Künstler, die Fanart machen, wissen genau, wo die Grenze liegt. Sie machen das aus Liebe zur Sache. Sie respektieren das Original. Sie würden nicht auf die Idee kommen, das offizielle Merchandise zu kopieren und als ihr eigenes auszugeben.

Prompt-Warriors? Die wollen genau das. Sie wollen das Ding, das alle erkennen. Mit minimalem Aufwand. Ohne Lizenz. Ohne Nachfrage. Einfach weil sie können.

Das ist nicht dasselbe. Nicht ansatzweise.

Die drei größten Lügen der Prompt-Generation

Lüge #1: „Ich habe das selbst gemacht.“

Nein. Du hast drei Wörter getippt. Die KI hat es gemacht. Und die KI wurde trainiert mit Millionen Bildern von echten Künstlern, deren Arbeit nie dafür gedacht war, in einem statistischen Mixer zu landen.

Lüge #2: „Das ist doch nur zum Spaß.“

Klar. Bis du es auf Redbubble lädst. Bis du es als NFT verkaufst. Bis du es als „meine Arbeit“ auf Portfolio-Seiten stellst. Dann ist der Spaß plötzlich Profit – auf fremdem Rücken.

Lüge #3: „Einschränkungen töten Kreativität.“

Falsch. Einschränkungen fördern Kreativität. Jeder ernsthafte Künstler weiß das. Wenn dir alle Türen offenstehen, gehst du den bequemsten Weg. Wenn eine Tür zu ist, musst du improvisieren. Denken. Etwas Neues finden.

Die Leute, die sich beschweren, dass sie keine bekannten Figuren mehr prompten können? Die wollten nie kreativ sein. Die wollten den schnellsten Weg zum beeindruckendsten Ergebnis. Das ist nicht Kunst. Das ist Optimierung.

Was wirklich passiert: Die Industrie wacht auf

Hier wird es interessant.

Denn die Sperren kommen nicht aus heiterem Himmel. Sie sind das Ergebnis von massivem rechtlichem und wirtschaftlichem Druck.

Disney, Marvel, Nintendo, DC, Pixar – die ganz großen Namen haben ihre Anwaltsteams längst mobilisiert. Und diese Teams sind nicht zum Spaß da. Die werden dafür bezallt, geistiges Eigentum zu verteidigen. Mit allen Mitteln.

Als Midjourney, Stable Diffusion und Co. anfingen, wurde das noch als „interessantes Experiment“ betrachtet. Süß. Technisch beeindruckend. Aber harmlos.

Dann kamen die ersten kommerziellen Fälle. Leute, die KI-generierte Bilder bekannter Figuren auf T-Shirts druckten. Poster verkauften. Covers gestalteten. Merchandise anboten. Und plötzlich war das keine Spielerei mehr. Plötzlich war das Markendiebstahl im industriellen Maßstab.

Die Reaktion ließ nicht lange auf sich warten.

Cease-and-Desist-Briefe. Abmahnungen. Gerichtliche Schritte. Druck auf die Plattformen. Und die Plattformen – die null Lust haben, in juristische Schlachten mit Medienkonzernen verwickelt zu werden – reagierten wie jedes vernünftige Tech-Unternehmen: Sie bauten Filter. Sie sperrten Namen. Sie blockierten Figuren.

Nicht aus Idealismus. Sondern aus Selbstschutz.

Warum das GUT ist – auch wenn es wehtut

Jetzt kommt der Teil, den viele nicht hören wollen:

Diese Einschränkungen sind das Beste, was der KI-Kunst passieren konnte.

Warum?

1. Sie zwingen zur echten Kreativität

Wenn du Spider-Man nicht mehr prompten kannst, musst du dir überlegen: Was wollte ich eigentlich ausdrücken? Die Idee eines maskierten Helden? Ein bestimmtes Gefühl? Eine Ästhetik?

Dann erschaffe eine eigene Figur. Mit eigenen Farben. Eigenem Design. Eigener Story.

Das ist Arbeit. Aber es ist auch deine Arbeit.

2. Sie schützen echte Künstler

Jede nicht-generierte Kopie ist ein Stück Marktschutz für die Menschen, die Jahre investiert haben, um Figuren, Stile und Welten aufzubauen.

KI ist ein Tool. Aber sie darf nicht zum Bulldozer werden, der alles plattmacht, was mühsam gewachsen ist.

3. Sie verhindern totale Beliebigkeit

Stell dir eine Welt vor, in der jeder in Sekunden perfekte Kopien jeder bekannten Figur erzeugen kann. Massenhaft. Endlos.

Was passiert dann? Die Figuren verlieren Wert. Bedeutung. Kulturelle Kraft.

Alles wird zum Remix. Nichts ist mehr Original. Niemand erschafft mehr neue Ikonen, weil die alten als Rohmaterial für algorithmische Endlosschleifen enden.

Das ist keine kreative Utopie. Das ist kultureller Kannibalismus.

4. Sie setzen ein Signal

Die Sperren sagen: Nicht alles ist kostenlos verfügbar, nur weil eine Maschine es kann.

Das ist wichtig. Für Urheberrecht. Für Respekt. Für die Zukunft kreativer Berufe.

Technologie darf nicht das Recht bekommen, alles zu nehmen, nur weil sie es kann. Sonst leben wir bald in einer Welt, in der Kreative aufhören zu erschaffen, weil ihre Arbeit sofort im nächsten Trainings-Dataset landet.

„Aber ich will doch nur spielen!“ – Die Ausrede, die keine ist

Häufigster Einwand:

„Ich mache das doch nur hobbymäßig! Ich verdiene kein Geld damit! Warum soll ich nicht einfach Spaß haben?“

Antwort: Darfst du. Absolut.

Aber nicht mit fremdem Eigentum, als wäre es deins.

Du darfst auch nicht in ein Museum gehen, ein berühmtes Gemälde fotografieren, es durch einen Instagram-Filter jagen und dann sagen: „Ich hab das selbst gemacht!“ Oder es ausdrucken und als Poster verkaufen mit dem Argument: „War doch nur Spaß!“

Das wäre absurd. Und genau das passiert gerade mit KI.

Nur weil die Technologie das ermöglicht, ist es nicht automatisch okay.

„Ich kann es“ ist kein moralisches Argument. War es nie. Wird es nie sein.

Die Zukunft ist nicht weniger kreativ – nur ehrlicher

Die KI-Bildgeneratoren werden nicht verschwinden. Im Gegenteil. Sie werden besser. Mächtiger. Vielseitiger.

Aber sie werden auch regulierter. Verantwortungsvoller. Kontrollierter.

Das bedeutet:

  • Mehr Kennzeichnungspflicht (damit klar ist, was KI ist)
  • Stärkere Filter (damit geschützte Inhalte nicht missbraucht werden)
  • Lizenzsysteme (damit Rechteinhaber fair vergütet werden)
  • Transparenz in Trainingsdaten (damit nachvollziehbar ist, woher die KI ihr „Wissen“ hat)

Für manche klingt das nach Dystopie. Für andere nach längst überfälligem Erwachsenwerden.

Die Wahrheit liegt – wie so oft – dazwischen.

KI kann ein unglaubliches Werkzeug sein. Für Konzeptkunst. Für Ideenfindung. Für echte, neue Kreationen.

Aber sie muss lernen, dass Inspiration nicht dasselbe ist wie Aneignung. Dass Remix nicht dasselbe ist wie Diebstahl. Dass „technisch möglich“ nicht bedeutet „moralisch in Ordnung“.

Was du jetzt tun kannst (statt dich zu beschweren)

Wenn du KI-Bildgenerierung liebst – wirklich liebst – dann ist jetzt die Zeit, es richtig zu machen:

1. Lerne Prompting als echtes Handwerk

Nicht „famous character + style“. Sondern: Wie beschreibe ich eine Stimmung? Eine Szene? Ein Gefühl? Ohne fremde Markennamen als Krücke?

2. Erschaffe eigene Charaktere

Nutze die KI, um etwas Neues zu entwickeln. Iteriere. Experimentiere. Entwickle einen Stil, der dein ist. Nicht der von Disney, mit einem Filter drüber.

3. Respektiere Grenzen

Wenn eine Figur gesperrt ist, akzeptiere es. Frag dich: Warum wollte ich genau diese Figur? Was macht sie aus? Kann ich diese Essenz in etwas Eigenem ausdrücken?

4. Unterstütze echte Künstler

Wenn dir ein Stil gefällt, such den Künstler. Folge ihm. Kauf seine Werke. Lerne von ihm.

KI ist kein Ersatz für echte Menschen. Sie ist ein Werkzeug. Behandle sie auch so.

Fazit: Der 3-Prompt-Diebstahl ist vorbei. Und das ist gut so.

Ja, die Zeiten ändern sich. Ja, bestimmte Dinge werden schwerer. Ja, du kannst nicht mehr einfach jeden beliebigen Superhelden in jeder Pose generieren lassen.

Aber das ist kein Verlust. Es ist Kurskorrektur.

Denn echte Kreativität war nie die Fähigkeit, schnell etwas Bekanntes neu zusammenzusetzen. Echte Kreativität ist die Fähigkeit, etwas zu erschaffen, das vorher nicht da war.

Und dafür braucht es mehr als drei Prompts.

Es braucht Vision. Geduld. Mut. Experimentierfreude. Die Bereitschaft zu scheitern. Den Willen, etwas zu sagen, nicht nur etwas Hübsches zu erzeugen.

Die KI-Revolution ist nicht vorbei. Sie fängt gerade erst richtig an.

Aber diesmal – hoffentlich – mit Regeln. Mit Respekt. Mit Verantwortung.

Und mit Menschen, die verstanden haben, dass das Werkzeug nur so gut ist wie die Absicht dahinter.

Die Frage ist nicht: „Kann ich diese Figur prompten?“

Die Frage ist: „Was habe ich eigentlich zu sagen?“

Und wenn die Antwort auf diese Frage ein berühmter Charakter plus ein Style-Keyword ist, dann war es vielleicht nie deine Geschichte.

Dann war es nur ein Shortcut.

Und Shortcuts – das weiß jeder, der jemals etwas wirklich Wertvolles erschaffen hat – führen nie zum Ziel.

Sie führen nur schneller ins Mittelmaß.


Die Wahrheit tut weh. Aber sie ist fair.

Die Ära des sorglosen 3-Wort-Diebstahls ist vorbei. Und die nächste Ära – die der echten, ehrlichen, mutigen KI-Kreativität – kann endlich beginnen.

Bist du bereit?

Oder brauchst du noch drei Prompts, um das zu entscheiden?

Nicht, weil Kunst kontrolliert werden sollte. Nicht, weil Technologie böse wäre. Sondern weil zwischen Inspiration und schamlosem Abgreifen ein Unterschied besteht, und weil ein System, das es jedem ermöglicht, mit drei hingeworfenen Stichworten auf dem geistigen Eigentum anderer spazieren zu gehen, nicht demokratisch ist – sondern bequem. Und Bequemlichkeit ist im kreativen Bereich oft nur ein höflicheres Wort für Ideenraub.

Der große Irrtum: „Ich habe doch nur einen Prompt eingegeben“

Einer der faszinierendsten Sätze unserer Zeit lautet:
„Aber ich habe es doch selbst gemacht.“

Das sagen Menschen, die einer Maschine drei Zeilen Text hingeworfen haben und dann sehr stolz auf ein Ergebnis blicken, das auf Abermillionen vorhandener Bilder, Stile, Designs, Erzähltraditionen und urheberrechtlich geprägter Sehgewohnheiten basiert. Natürlich ist Prompting in gewissem Sinne eine Tätigkeit. Man muss Wörter auswählen. Man muss eine Richtung vorgeben. Man muss wissen, ob man „moody lighting“ oder „cinematic volumetric fog“ schreiben will, damit am Ende alles so aussieht, als sei ein melancholischer Superheld gerade auf dem Weg zu einer sehr teuren Midlife-Crisis.

Aber zwischen „eine Richtung vorgeben“ und „etwas wirklich erschaffen“ liegt ein ziemlich großes Tal. Und dieses Tal ist gepflastert mit den Werken anderer Menschen.

Wenn jemand schreibt:
„Mach mir eine bekannte Comicfigur im Stil eines berühmten Animationsstudios mit realistischer Fellstruktur und epischem Hintergrund“,
dann passiert eben nicht nur harmlose Fantasie. Dann wird ein ganzes Paket an Wiedererkennbarkeit, Marktwert, Designarbeit und kulturellem Kapital angezapft, das andere über Jahre oder Jahrzehnte aufgebaut haben.

Das Problem ist nicht, dass Technologie das kann. Technologie konnte schon immer Dinge, die moralisch ein bisschen schmierig waren. Das Problem ist, dass viele Nutzer so tun, als sei der Vorgang plötzlich rein, originell und legitim, nur weil er in einer schicken Benutzeroberfläche stattfindet und von futuristischen Begriffen begleitet wird.

Mit anderen Worten:
Wenn du mit drei Prompts an etwas kommst, für das andere Teams aus Zeichnern, Autoren, Designern und Produzenten Jahre gebraucht haben, dann ist das kein magischer Triumph der Kreativität. Es ist eher der kreative Äquivalent dazu, über einen Gartenzaun zu greifen und anschließend zu behaupten, der Apfel sei jetzt dein Werk, weil du ihn selbst gehalten hast.

Warum Figuren überhaupt gesperrt werden

Die Antwort ist überraschend unromantisch:
Weil viele Figuren eben nicht einfach nur Figuren sind.

Sie sind Marken. Sie sind geistiges Eigentum. Sie sind Wiedererkennungsmaschinen. Sie sind über Jahrzehnte aufgebaute visuelle Signaturen mit enormem wirtschaftlichem Wert. Hinter einer ikonischen Figur stehen nicht nur ein paar Striche auf Papier, sondern Verträge, Designrichtlinien, Lizenzen, Merchandising, Filmrechte, kulturelle Aufladung und ein ganzer Wald aus juristischen Stolperdrähten.

Wenn ein KI-Tool nun sagt:
„Tut uns leid, diese Figur oder diese stark geschützte Charakterklasse können wir nicht generieren“,
dann ist das kein Angriff auf deine Fantasie. Es ist eine späte Erinnerung daran, dass Eigentum im kreativen Raum nicht plötzlich aufhört zu existieren, nur weil eine Maschine dazwischen sitzt.

Viele Menschen haben sich daran gewöhnt, dass das Internet alles verfügbar macht. Musik? Klick. Serien? Klick. Bilder? Klick. Memes? Tausendfach kopiert, zerlegt, rekombiniert. Dadurch ist das Gefühl entstanden, kulturelle Inhalte seien eine frei zugängliche Rohstoffmine, aus der man sich nach Belieben bedienen könne. KI-Bildgeneratoren treiben diese Mentalität auf die Spitze. Denn sie liefern nicht nur Zugriff – sie liefern Neuzusammenstellung auf Knopfdruck. Und plötzlich ist aus passivem Konsum aktives Ausschlachten geworden.

Dass Plattformen hier Grenzen einziehen, ist deshalb kein technischer Unfall, sondern ein überfälliger Realitätsabgleich.

„Aber Fanart gibt es doch auch!“ – Ja, und genau da wird’s spannend

Das häufigste Gegenargument lautet ungefähr so:
„Warum darf jemand Fanart zeichnen, aber ich darf die Figur nicht per KI generieren?“

Klingt zunächst clever. Ist es aber nur bis zu dem Punkt, an dem man genauer hinschaut.

Fanart ist bereits ein komplizierter Bereich. Sie bewegt sich oft in einer Grauzone aus Duldung, Kulturpraxis und stillschweigendem Einverständnis, solange bestimmte Grenzen nicht überschritten werden. Aber selbst dort gilt: Gute Fanart ist Arbeit. Sie ist Interpretation. Sie ist Können. Sie ist oft eine Liebeserklärung von Menschen, die eine Figur so sehr mögen, dass sie Zeit, Energie und Handwerk investieren, um ihr etwas Eigenes abzugewinnen.

KI-Prompting hingegen kann – nicht immer, aber oft – genau diesen Prozess abkürzen. Die emotionale und handwerkliche Leistung wird minimiert, während der visuelle Ertrag maximal nahe an bestehende Bekanntheit rückt. Das ist ein entscheidender Unterschied.

Die ehrliche Version des Vorgangs lautet nicht:
„Ich habe diese Figur neu interpretiert.“
Sondern eher:
„Ich habe ein Modell dazu gebracht, das bereits vorhandene kulturelle Gewicht dieser Figur für mich aufzubereiten, möglichst schnell und möglichst beeindruckend.“

Das ist weniger Atelier und mehr Drive-in.

Natürlich gibt es auch bei KI kreative, reflektierte und wirklich interessante Anwendungen. Aber genau deshalb sind Einschränkungen wichtig: damit die Technologie nicht komplett zur Turbo-Kopiermaschine für die bekanntesten visuellen Assets der Unterhaltungsindustrie verkommt.

Der Drei-Prompt-Diebstahl ist realer, als viele zugeben wollen

Die eigentliche Pointe dieser Debatte ist nämlich:
Viele Menschen wissen sehr genau, was sie tun.

Sie wollen nicht „etwas Eigenes mit ähnlicher Stimmung“ erschaffen.
Sie wollen das Ding, das alle erkennen, nur gerade genug verändert, um sich unschuldig fühlen zu können.

Sie wollen die Aura einer berühmten Figur, den Charme eines etablierten Franchises, die sofortige Aufmerksamkeit, die ein bekanntes Gesicht mitbringt – aber ohne Lizenzkosten, ohne Zusammenarbeit, ohne Erlaubnis, ohne den mühsamen Teil, bei dem man selbst etwas entwickeln müsste, das ähnliche Strahlkraft besitzt.

Und KI macht diesen Wunsch brutal effizient.

Früher brauchte man zumindest noch zeichnerisches Können, Geduld oder Photoshop-Erfahrung, um bekannte Designs überzeugend zu plündern. Heute reichen oft wenige Worte, etwas Stil-Vokabular und zehn Sekunden Wartezeit. Das senkt nicht nur die Hürde zur Produktion – es senkt auch die Hemmschwelle zur Aneignung.

Genau deshalb ist die Vorstellung, Einschränkungen seien eine Art übergriffige Gängelei, so schief. In Wahrheit sind sie ein Versuch, die völlig enthemmte Bequemlichkeit einzuhegen, die sich als kreative Freiheit verkleidet.

Denn Hand aufs Herz:
Wenn dein „künstlerischer Workflow“ daran scheitert, dass du keine weltbekannte Figur mehr direkt erzeugen kannst, dann war dein Hauptproblem vermutlich nie ein Mangel an Ausdrucksmöglichkeiten. Dein Hauptproblem war, dass du dich zu sehr daran gewöhnt hattest, auf fremdem Ruhm zu surfen.

Warum diese Grenzen auch echte Kreativität retten können

Hier kommt der Teil, den viele nicht hören wollen:
Einschränkungen können kreativ machen.

Ja, wirklich. Das ist keine pädagogische Floskel aus einem Volkshochschulkurs für Aquarellmalerei, sondern ein uraltes Prinzip fast jeder Kunstform. Wenn nicht alles erlaubt, sofort verfügbar und kostenlos kopierbar ist, muss man anfangen, eigene Lösungen zu finden. Plötzlich stellt sich nicht mehr die Frage:
„Wie bekomme ich exakt diese berühmte Figur in mein Bild?“
sondern:
„Wie erschaffe ich einen Charakter, der eine ähnliche Funktion erfüllt, aber wirklich meiner ist?“

Und genau da beginnt Gestaltung.

Vielleicht entsteht dann nicht der tausendste leicht veränderte Konzernheld in Neonlicht, sondern eine neue Figur mit eigener Geschichte. Vielleicht wird aus der Sehnsucht nach etwas Bekanntem eine originelle Variation. Vielleicht entwickelt jemand tatsächlich einen Stil, statt nur Stile zu konsumieren.

Die kreative Industrie ist voll von Menschen, die gelernt haben, mit Einflüssen zu arbeiten, ohne schlicht zu nehmen. Das ist schwerer. Es dauert länger. Es ist oft frustrierender. Aber es ist eben auch der Unterschied zwischen Kunst und bloßem kulturellen Nachladen.

KI wird als Werkzeug nicht schlechter, wenn sie hier Grenzen zieht. Sie wird interessanter. Denn dann muss der Mensch davor plötzlich wieder mehr beitragen als bloße Wiedererkennungssehnsucht.

Die unsichtbare Seite: Schutz für Künstler, Studios und kleine Kreative

Man denkt bei gesperrten Figuren oft zuerst an die ganz Großen: die riesigen Konzerne, die sich auch ohne unsere Sorge ganz gut verteidigen können. Und ja, selbstverständlich profitieren gerade große Marken von solchen Sperren. Aber die Debatte endet dort nicht.

Denn dieselbe Logik betrifft auch kleinere Studios, Independent-Künstler, Comiczeichner, Game-Designer und Character Artists, deren visuelle Handschrift oder Figuren deutlich verletzlicher sind. Für sie ist es nicht bloß ärgerlich, wenn ein Modell in Sekunden „etwas sehr Ähnliches“ ausspuckt. Es kann existenziell sein. Aufmerksamkeit, Aufträge und Wiedererkennbarkeit sind in kreativen Berufen keine Luxusgüter, sondern Lebensgrundlagen.

Wenn KI-Systeme ohne starke Leitplanken dazu genutzt werden, massenhaft bestehende Figuren, Look-and-Feels und charakteristische Designs zu approximieren, dann wird nicht nur „gespielt“. Dann wird Marktwert umgeleitet. Dann wird Arbeit entwertet. Dann entsteht eine Kultur, in der Originalität zwar rhetorisch gefeiert, praktisch aber permanent unterlaufen wird.

Einschränkungen sind deshalb auch eine Schutzmauer gegen die völlige Verflachung kreativer Ökosysteme. Nicht perfekt, nicht vollständig, aber notwendig.

Aber ist das nicht nur Symbolpolitik?

Ein fairer Einwand lautet:
Selbst wenn bestimmte Figuren gesperrt sind, finden Nutzer doch Umwege. Sie beschreiben die Figur indirekt, umgehen Namen, kombinieren Merkmale, tricksen Systeme aus. Bringen die Sperren dann überhaupt etwas?

Ja. Denn Regeln müssen nicht absolut perfekt sein, um sinnvoll zu sein.

Schon die Existenz solcher Schranken verändert das Signal, das eine Plattform aussendet. Sie sagt damit:
Wir betrachten diese Nutzung nicht als harmlosen Standardfall.
Sie normalisiert nicht mehr das direkte Abrufen fremder Ikonen, sondern macht klar, dass hier ein problematischer Bereich beginnt.

Das ist wichtig. Technologie prägt Kultur nicht nur durch das, was sie ermöglicht, sondern auch durch das, was sie als normal erscheinen lässt. Wenn ein Generator bereitwillig jede berühmte Figur auf Zuruf ausliefert, vermittelt er: Das hier ist okay. Das ist Alltag. Das ist bloß ein Feature. Wenn er stattdessen blockt, warnt oder begrenzt, verschiebt sich die Norm.

Und Kultur hängt erstaunlich stark an Normen.

Natürlich wird es immer Menschen geben, die Grenzen umgehen wollen. Aber daraus zu schließen, Grenzen seien sinnlos, wäre ungefähr so intelligent wie zu sagen, Haustüren seien überflüssig, weil es Einbrecher gibt.

Die bequeme Verwechslung von Freiheit und Zugriff

Ein tiefer liegender Fehler in dieser Debatte ist die Gleichsetzung von Freiheit mit unbegrenztem Zugriff.

Viele Nutzer fühlen sich frei, wenn sie alles generieren dürfen. Aber das ist nicht zwangsläufig kreative Freiheit. Oft ist es einfach Zugriff auf bestehende Attraktionswerte. Echte Freiheit in der Kunst heißt nicht, dass dir jedes bekannte Symbol auf Abruf gehört. Echte Freiheit heißt, dass du in der Lage bist, etwas auszudrücken – auch dann, wenn du nicht auf die berühmtesten Figuren der Welt zurückgreifen kannst.

Wer das als Zumutung empfindet, verrät damit unbeabsichtigt etwas ziemlich Komisches über das eigene Kreativitätsverständnis.

Denn wenn Freiheit für dich bedeutet, dass du mit minimalem Aufwand maximal nah an geschützte Ikonen herankommst, dann willst du vielleicht gar nicht frei sein. Vielleicht willst du nur ohne Reibung verwerten.

Das ist verständlich. Das menschliche Gehirn liebt Abkürzungen. Aber man sollte Abkürzungen nicht mit künstlerischer Selbstverwirklichung verwechseln.

Die Zukunft wird ohnehin härter reguliert – und das ist kein Weltuntergang

Wer glaubt, die aktuellen Sperren seien das Ende der Fahnenstange, wird wahrscheinlich enttäuscht sein. Die nächsten Jahre werden ziemlich sicher mehr Regeln bringen: bessere Erkennung geschützter Figuren, strengere Filter, klarere Haftungsfragen, vertraglich geregelte Datennutzung, möglicherweise Kennzeichnungspflichten und robustere Rechteverwaltung.

Das klingt für manche nach dem Untergang des kreativen Abendlandes, ist aber in Wahrheit nur das normale Erwachsenwerden einer Technologie, die zuerst mit maximaler Euphorie in den Raum geworfen wurde und nun lernen muss, dass die Welt aus mehr besteht als Demos, viralen Posts und „Wow, guck mal, ich hab in 15 Sekunden was Krasses gemacht“.

Jede mächtige Technologie durchläuft diese Phase. Erst kommt die Faszination. Dann die Enthemmung. Dann die Ausbeutung. Dann die Debatte. Dann die Regulierung. Und irgendwann später nennt man das Ganze „verantwortungsvollen Einsatz“, als wäre nie etwas anderes geplant gewesen.

KI-Bildgeneratoren sind da keine Ausnahme.

Das eigentliche Problem ist nicht die Sperre – sondern was sie sichtbar macht

Vielleicht ärgert viele Menschen an diesen Einschränkungen nicht einmal primär, dass sie bestimmte Figuren nicht mehr generieren können. Vielleicht ärgert sie, dass dadurch plötzlich sichtbar wird, wie viel ihres vermeintlich kreativen Outputs auf bereits bekannten Vorlagen beruhte.

Sobald die populärsten Charaktere, die stärksten Marken und die offensichtlichsten visuellen Fremdwerte wegfallen, entsteht eine unangenehme Leerstelle. Und in dieser Leerstelle sitzt eine Frage, die man lieber nicht so laut hören möchte:

Was wolltest du eigentlich selbst sagen?

Nicht: Was wolltest du zitieren?
Nicht: Was wolltest du remixen?
Nicht: Wessen kulturelle Wucht wolltest du anzapfen?
Sondern: Was kommt von dir?

Das ist die produktive Kränkung, die solche Sperren auslösen können. Und vielleicht ist genau sie der Grund, warum sie so heftig diskutiert werden.

Fazit: Mehr Sperren sind kein Angriff auf Kreativität, sondern ein Schutz vor der billigsten Form ihrer Simulation

Natürlich wird es weiterhin Graubereiche geben. Natürlich werden Plattformen Fehler machen, zu viel sperren oder zu wenig. Natürlich wird es Fälle geben, in denen legitime Parodie, Hommage oder Transformation unnötig erschwert werden. Und selbstverständlich darf man darüber diskutieren. Das sollte man sogar.

Aber das Grundprinzip bleibt richtig:
Wenn KI-Bildgeneratoren es schwerer machen, geschützte Figuren einfach mit ein paar Prompts abzurufen, dann ist das kein Kulturverlust. Es ist ein längst fälliges Korrektiv.

Weil nicht alles, was technisch leicht geworden ist, auch kulturell gesund ist.
Weil Wiedererkennbarkeit kein Selbstbedienungsladen ist.
Weil „Ich kann es prompten“ nicht dasselbe bedeutet wie „Es gehört in meinen kreativen Besitzbereich“.
Und weil eine Welt, in der jede ikonische Figur nur noch ein Shortcut in einer Benutzeroberfläche ist, nicht offener, spielerischer und kreativer wird – sondern flacher.

Die gute Nachricht lautet: Kreativität stirbt daran nicht. Sie bekommt nur wieder Arbeit.

Und das ist vielleicht die beste Nachricht von allen.

Denn echte Ideen entstehen selten dort, wo man einfach nur nehmen darf, was schon glänzt.
Sie entstehen dort, wo man gezwungen ist, selbst Licht zu machen.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.




Manchmal sagen Bilder mehr als tausend Worte. Heute lass ich genau das zu – und halte mich selbst mal zurück.

Einfach nur: hinschauen.

Hier gibt es heute drei Bilder zu sehen. Keine lange Abhandlung, kein Tutorial, kein technisches Deep-Dive. Nur das, was Synthografie kann – im direkten Vergleich zum Ausgangsbild.

Das Originalbild kennt ihr. Vielleicht unspektakulär. Vielleicht ein Schnappschuss. Vielleicht etwas, an dem die meisten einfach vorbeiscrollen würden. Und genau da beginnt die eigentliche Arbeit.

Denn Synthografie ist nicht das Drücken eines Buttons. Es ist nicht „KI, mach mal hübsch“. Es ist ein Prozess. Ein gestalterischer, ein kreativer, manchmal ein frustrierender – aber immer ein bewusster.

Die drei Bilder, die ihr hier seht, zeigen genau diesen Weg. Vom Ausgangsmaterial hin zu etwas, das eine eigene Aussage hat. Eine eigene Ästhetik. Eine eigene Berechtigung.


Ausgangsfoto: FotoSym / Stefan Gesell / Brownz Meets Gesell Workshopreihe – Model: KC – Projekt: Gigerized.

Was ist Synthografie eigentlich – und warum ist sie mehr als ein Filter?

Für alle, die hier zum ersten Mal reinschauen: Synthografie ist die Kunst, mit KI-gestützten Werkzeugen visuelle Werke zu erschaffen. Aber – und das ist der entscheidende Punkt – das Werkzeug allein macht noch keine Kunst. Genauso wenig, wie eine Kamera automatisch gute Fotos macht oder ein Pinsel automatisch ein Meisterwerk auf die Leinwand bringt.

Synthografie bedeutet:

  • Konzept und Vision – Was will ich ausdrücken?
  • Technisches Verständnis – Wie bringe ich das Werkzeug dazu, meiner Vision zu folgen?
  • Iteration und Verfeinerung – Wann ist ein Bild fertig? Was fehlt? Was ist zu viel?
  • Kuratierung – Aus hundert Ergebnissen das eine auswählen, das wirklich sitzt.

Klingt nach Arbeit? Ist es auch. Und genau das sieht man diesen drei Bildern hoffentlich an.

Der Vergleich: Warum er so wichtig ist

Ich zeige bewusst das Ausgangsbild mit. Nicht um zu sagen: „Schaut, wie schlecht das Original war.“ Sondern um transparent zu machen, wo die Reise begonnen hat und wohin sie gegangen ist.

In der Synthografie-Community – und auch darüber hinaus – wird viel diskutiert. Ist das Kunst? Ist das Können? Ist das nur ein Prompt? Diese Fragen sind berechtigt. Und die beste Antwort darauf ist nicht ein Text, sondern ein Vergleich. Ein Vorher und Nachher. Ein „So sah das aus – und so sieht es jetzt aus.“

Denn in der Differenz zwischen diesen Bildern steckt alles: die kreative Entscheidung, die technische Umsetzung, das Auge fürs Detail, die Stunden des Ausprobierens.

Drei Bilder. Ein Ausgangspunkt. Unendliche Möglichkeiten.

Was mich an Synthografie nach wie vor fasziniert: Aus einem einzigen Ausgangsbild können völlig unterschiedliche Welten entstehen. Unterschiedliche Stimmungen. Unterschiedliche Geschichten. Unterschiedliche Wahrheiten – wenn man so will.

Die drei Arbeiten, die ich heute zeige, gehen bewusst in verschiedene Richtungen. Sie zeigen nicht den einen „richtigen“ Weg, sondern die Bandbreite dessen, was möglich ist, wenn man sich mit dem Medium auseinandersetzt. Wenn man nicht beim ersten Ergebnis stehen bleibt, sondern weiterdenkt, weiterspielt, weitermacht.

Genau das ist es, was Synthografie von der reinen Bildgenerierung unterscheidet: die Intention hinter dem Bild.


Urbex Madness

Warum ich das hier teile

Ich teile diese Arbeiten nicht nur, um sie zu zeigen. Sondern auch, um zu ermutigen. Es gibt da draußen so viele kreative Menschen, die sich noch nicht trauen. Die denken, sie bräuchten jahrelange Erfahrung in Photoshop, eine teure Kamera oder einen Kunsthochschul-Abschluss, um visuell arbeiten zu dürfen.

Synthografie öffnet Türen. Nicht weil sie Können ersetzt – sondern weil sie neues Können ermöglicht. Weil sie einen Einstieg bietet, der vorher so nicht existiert hat. Und weil sie zeigt, dass kreative Vision wichtiger ist als technische Perfektion.

Du willst das auch lernen?

Wenn dich das hier neugierig gemacht hat – wenn du beim Betrachten der Bilder gedacht hast: „Das will ich auch können“ – dann hab ich was für dich.

Im BROWNZ HUB unterrichte ich genau das. Synthografie, Digital Art, kreative Workflows mit KI – praxisnah, verständlich und ohne Bullshit. Es gibt ein Jahresabo, das dir Zugang zu Tutorials, Extras, Daten und einer wachsenden Community gibt.

👉 Alle Infos findest du hier: BROWNZ HUB – Dein Jahresabo für Digital Art, Synthography, Extras & Daten

Egal ob du gerade erst anfängst oder schon erste Erfahrungen gesammelt hast – der HUB ist dafür gedacht, dich weiterzubringen. Von den Basics bis zu fortgeschrittenen Techniken, von Prompting über Bildbearbeitung bis hin zur eigenen künstlerischen Handschrift.

Zum Schluss

Heute ging es nicht um viele Worte. Heute ging es um drei Bilder und ein Original. Um den Beweis, dass in jedem Ausgangsbild mehr steckt, als man auf den ersten Blick sieht.

Synthografie ist kein Zauberknopf. Aber sie ist ein verdammt gutes Werkzeug – wenn man weiß, wie man es benutzt.

Lasst die Bilder auf euch wirken. Und wenn ihr Fragen habt: Ihr wisst, wo ihr mich findet.


brownz.art – Synthografie ist Gestaltung.

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.


Engel weinen Heimlich – Synthographic Edtion



Ein Plädoyer für eine neue visuelle Kompetenz im Zeitalter synthetischer Medien


Einleitung: Das Ende der fotografischen Unschuld

Es gibt einen Satz, der die westliche Medienkultur über mehr als anderthalb Jahrhunderte geprägt hat wie kaum ein anderer: „Ein Bild sagt mehr als tausend Worte.“ Dieser Satz war nie ganz richtig – aber er war lange Zeit wirksam. Die Fotografie, später das Bewegtbild, galten als Dokumente der Wirklichkeit. Was die Kamera einfing, das war geschehen. Das Bild war Beweis. Es war Zeugnis. Es war Wahrheit.

Diese Ära ist vorbei.

Wir leben heute in einer Welt, in der fotorealistische Bilder in Sekunden generiert werden können – ohne dass je ein Fotograf eine Kamera in der Hand gehalten hätte. In der Videos von Politikern kursieren, die Dinge sagen, die sie nie gesagt haben. In der ein einzelnes, geschickt manipuliertes Bild politische Spannungen schüren kann – man denke etwa an dekontextualisierte Kriegsbilder aus Syrien, der Ukraine oder dem Gaza-Konflikt, die immer wieder in falschen Zusammenhängen durch soziale Medien wandern und dabei Empörung, Hass und Gewaltbereitschaft befeuern. Die technologischen Möglichkeiten der Bildgenerierung und -manipulation haben ein Niveau erreicht, das unsere kulturell tief verankerte Bereitschaft, Bildern zu vertrauen, zu einem ernsthaften gesellschaftlichen Risiko macht.

Dieser Beitrag ist kein Aufruf zur Paranoia. Er ist ein Plädoyer für das, was ich als kompetentes Misstrauen bezeichne: die Fähigkeit, Bilder kritisch zu betrachten, ohne in einen lähmenden Generalverdacht zu verfallen. Es geht um eine neue Kulturtechnik, die so grundlegend werden muss wie das Lesen und Schreiben – eine visuelle Literalität, die der Komplexität unserer medialen Gegenwart gerecht wird.


1. Warum wir Bildern glauben: Die Psychologie des visuellen Vertrauens

Um zu verstehen, warum die Herausforderung so groß ist, müssen wir zunächst verstehen, warum wir Bildern überhaupt so bereitwillig Glauben schenken. Die Antwort liegt tief in unserer Kognition.

Der Primat des Sehens

Der Mensch ist ein visuelles Wesen. Ein erheblicher Teil unserer Großhirnrinde – je nach Studie und Definition zwischen 20 und 35 Prozent – ist an der Verarbeitung visueller Informationen beteiligt. Damit nimmt das Sehen mehr kortikale Ressourcen in Anspruch als jede andere Sinnesmodalität. Evolutionär war das Sehen unser zuverlässigster Sinn: Was wir mit eigenen Augen sahen, war real. Diese biologische Grunddisposition hat sich über Jahrmillionen herausgebildet und lässt sich nicht einfach durch rationale Einsicht überschreiben.

Die Evidenzillusion der Fotografie

Mit der Erfindung der Fotografie im 19. Jahrhundert wurde diese natürliche Vertrauensneigung technisch verstärkt. Die Fotografie schien ein mechanisches Abbild der Realität zu liefern – scheinbar objektiv, scheinbar unbestechlich. Der französische Semiotiker Roland Barthes sprach vom „ça a été“ – dem „Es-ist-so-gewesen“ – als dem Wesenskern der Fotografie. Das Foto bezeugt, dass etwas vor der Linse existiert hat.

Diese Evidenzillusion war von Anfang an problematisch. Schon die frühesten Fotografen wussten um die Macht der Bildauswahl, der Perspektive, des Ausschnitts. Die berühmten Kriegsfotografien des Krimkrieges von Roger Fenton wurden inszeniert. Die ikonischen Bilder des 20. Jahrhunderts – vom Flaggenhissen auf Iwo Jima bis zum Napalm-Mädchen in Vietnam – entfalteten ihre Wirkung nicht allein durch ihren dokumentarischen Gehalt, sondern durch Komposition, Timing und die redaktionellen Entscheidungen, die ihrer Veröffentlichung vorausgingen.

Doch trotz dieser frühen Erkenntnisse hielt sich der kulturelle Glaube an die fotografische Wahrheit hartnäckig. Und genau dieses Erbe macht uns heute verwundbar.

Der Mere-Exposure-Effekt und die Verarbeitungsflüssigkeit

Die kognitionspsychologische Forschung kennt zwei weitere Mechanismen, die unser Bildvertrauen stützen. Der Mere-Exposure-Effekt besagt, dass wir Dinge, die uns vertraut erscheinen, für glaubwürdiger halten. In einer von Bildern gesättigten Medienumgebung erscheint uns das fotografische Bild als das natürlichste Medium der Welt – und damit als das glaubwürdigste.

Hinzu kommt die sogenannte Verarbeitungsflüssigkeit (processing fluency): Informationen, die unser Gehirn schnell und mühelos verarbeiten kann, werden als wahrer empfunden. Bilder werden schneller verarbeitet als Texte. Ein Foto „verstehen“ wir in Millisekunden. Diese kognitive Leichtigkeit macht uns anfällig dafür, die Glaubwürdigkeit des Bildes nicht zu hinterfragen.


2. Von Photoshop zu Midjourney: Die technologische Revolution der Bildmanipulation

Die Manipulation von Bildern ist so alt wie die Fotografie selbst. Doch die technologischen Mittel haben sich in den letzten Jahren qualitativ verändert – und diese qualitative Veränderung erfordert eine qualitativ neue Antwort.

Die erste Welle: Digitale Retusche

Mit dem Aufkommen digitaler Bildbearbeitung in den 1990er Jahren – Photoshop wurde 1990 veröffentlicht – wurde die Bildmanipulation demokratisiert. Plötzlich konnte jeder mit einem Computer Bilder verändern: Personen entfernen, Hintergründe austauschen, Proportionen verzerren. Die Modeindustrie machte davon exzessiven Gebrauch; die Nachrichtenbranche sah sich mit ersten Fälschungsskandalen konfrontiert.

Dennoch blieb die Manipulation in dieser Phase erkennbar – zumindest für geschulte Augen. Forensische Bildanalyse konnte Inkonsistenzen in Beleuchtung, Perspektive oder Pixelstrukturen aufdecken. Die Fälschung war möglich, aber aufwändig. Und sie setzte ein bestehendes Bild voraus, das verändert wurde.

Die zweite Welle: Generative KI

Was wir seit etwa 2022 erleben, ist fundamental anders. Generative KI-Systeme wie DALL-E, Midjourney, Stable Diffusion oder Firefly erzeugen Bilder nicht durch Manipulation bestehender Fotografien, sondern aus dem Nichts. Ein Textprompt genügt, und das System generiert ein fotorealistisches Bild, das kein Referenzbild in der realen Welt hat. Es gibt kein Original, das verfälscht wurde. Es gibt nur ein synthetisches Artefakt, das aussieht wie ein Foto.

Das hat weitreichende Konsequenzen:

  • Forensische Analyse wird schwieriger. Traditionelle Methoden der Bildforensik – Analyse von Metadaten, Beleuchtungskonsistenz, Error-Level-Analysis – stoßen bei vollständig generierten Bildern an ihre Grenzen.
  • Die technische Einstiegshürde sinkt drastisch. Man braucht kein tiefes technisches Wissen mehr, keine Photoshop-Kenntnisse, keine gestalterische Erfahrung. Ein Satz reicht, um ein fotorealistisches Bild zu erzeugen. Für wirksame Desinformation braucht es zwar weiterhin narrative Kompetenz, Plattformwissen und Reichweite – doch die rein technische Hürde der Bildproduktion ist nahezu verschwunden.
  • Die Geschwindigkeit explodiert. Was früher Stunden oder Tage dauerte, geschieht nun in Sekunden. Die Produktion von Desinformation wird skalierbar.

Deepfakes: Wenn das Bewegtbild lügt

Parallel dazu haben sich Deepfake-Technologien entwickelt, die es ermöglichen, Gesichter in Videos auszutauschen, Stimmen zu klonen und ganze Auftritte zu simulieren. Im März 2022 kursierte ein Deepfake-Video des ukrainischen Präsidenten Selenskyj, in dem er angeblich zur Kapitulation aufrief. Die Qualität war damals noch erkennbar mangelhaft – doch die Technologie verbessert sich rasant.

Die Frage ist nicht mehr, ob täuschend echte synthetische Medien möglich sind. Die Frage ist, wie wir als Gesellschaft damit umgehen.


3. Die gesellschaftlichen Folgen: Desinformation, Vertrauenserosion und die „Liar’s Dividend“

Die Verfügbarkeit hochqualitativer synthetischer Bilder und Videos hat bereits heute spürbare gesellschaftliche Auswirkungen.

Desinformation und Manipulation

Der offensichtlichste Effekt ist die Verwendung gefälschter oder generierter Bilder zur gezielten Desinformation. Ob in politischen Kampagnen, in Kriegspropaganda oder in verschwörungstheoretischen Netzwerken – das synthetische Bild ist zur Waffe geworden. Die Geschwindigkeit sozialer Medien tut ihr Übriges: Ein falsches Bild kann sich viral verbreiten, bevor irgendein Faktencheck greifen kann. Die emotionale Wirkung des Bildes ist längst entfaltet, wenn die Korrektur kommt – und die Korrektur erreicht ohnehin nur einen Bruchteil der ursprünglichen Reichweite.

Besonders perfide ist dabei die Tatsache, dass KI-generierte Bilder oft gezielt auf emotionale Trigger setzen: leidende Kinder, brennende Gebäude, empörende Szenen. Sie nutzen unsere empathischen Reflexe gegen uns. Wer ein Bild eines weinenden Kindes sieht, prüft nicht als Erstes die Metadaten. Er fühlt – und handelt.

Die Erosion des Grundvertrauens

Doch die Desinformation ist nur die eine Seite des Problems. Die andere – und möglicherweise gravierendere – ist die Erosion des Grundvertrauens in visuelle Medien insgesamt. Wenn jedes Bild gefälscht sein könnte, warum sollte man irgendeinem Bild noch glauben?

Diese Dynamik ist toxisch, denn sie untergräbt auch die Glaubwürdigkeit authentischer Bilder. Seriöser Fotojournalismus, dokumentarische Aufnahmen von Menschenrechtsverletzungen, Beweisfotos – sie alle geraten unter Generalverdacht. Die Wahrheit wird nicht nur durch Fälschungen beschädigt, sondern auch dadurch, dass die bloße Möglichkeit der Fälschung ausreicht, um Zweifel zu säen.

Die „Liar’s Dividend“

Die Rechtswissenschaftler Robert Chesney und Danielle Citron haben dieses Phänomen als „Liar’s Dividend“ bezeichnet: den Vorteil, den Lügner daraus ziehen, dass Deepfakes und synthetische Medien existieren. Jeder, der mit einem kompromittierenden Bild oder Video konfrontiert wird, kann nun behaupten: „Das ist ein Deepfake.“ Und diese Behauptung ist schwer zu widerlegen – denn tatsächlich könnte es ein Deepfake sein.

Politiker nutzen dieses Narrativ bereits. Autokratische Regime nutzen es, um Beweise für Menschenrechtsverletzungen zu diskreditieren. Die „Liar’s Dividend“ schafft eine Welt, in der nicht nur Lügen als Wahrheit, sondern auch Wahrheiten als Lügen verkauft werden können. Das ist die eigentliche epistemische Krise unserer Zeit.


4. Kompetentes Misstrauen: Was wir brauchen – und was nicht

Angesichts dieser Lage wäre die naheliegende Reaktion, allem zu misstrauen. Doch genau das wäre falsch. Ein generalisiertes Misstrauen gegenüber allen Bildern führt in denselben epistemischen Nihilismus, den die Produzenten von Desinformation anstreben. Wenn nichts mehr wahr sein kann, ist alles gleich gültig – und damit gleichgültig.

Was wir stattdessen brauchen, ist das, was ich als kompetentes Misstrauen bezeichne: eine differenzierte, informierte und kontextbezogene Haltung gegenüber visuellen Medien. Aktuelle Forschung stützt diesen Ansatz: Studien zeigen, dass gezielte Literacy-Interventionen Menschen tatsächlich besser darin machen, Deepfakes zu erkennen – ohne das Vertrauen in authentische Bilder komplett zu zerstören. Kompetentes Misstrauen ist also kein theoretisches Ideal, sondern eine erlernbare Fähigkeit mit nachgewiesener Wirksamkeit.

Die Grundprinzipien kompetenten Misstrauens

1. Quelle vor Inhalt. Die erste Frage bei jedem Bild sollte nicht sein: „Was zeigt es?“, sondern: „Woher kommt es?“ Ein Bild, das von einer etablierten Nachrichtenagentur mit klarer Quellenangabe veröffentlicht wird, verdient ein anderes Maß an Vertrauen als ein Bild, das anonym in einem Telegram-Kanal auftaucht. Das klingt banal – aber in der Praxis wird diese einfache Prüfung erstaunlich selten durchgeführt.

2. Kontext prüfen. Bilder werden häufig nicht gefälscht, sondern dekontextualisiert. Ein echtes Foto wird mit einer falschen Bildunterschrift versehen, einem anderen Zeitpunkt zugeordnet oder in einen irreführenden narrativen Rahmen gestellt. Die Rückwärts-Bildersuche (etwa über Google Images oder TinEye) ist ein einfaches, aber erstaunlich wirksames Werkzeug, um solche Dekontextualisierungen aufzudecken.

3. Emotionale Distanz wahren. Bilder, die starke Emotionen auslösen – Empörung, Mitleid, Wut, Begeisterung – verdienen besondere Vorsicht. Nicht weil Emotionen illegitim wären, sondern weil sie unsere kritische Urteilsfähigkeit herabsetzen. Die bewusste Entscheidung, vor dem Teilen innezuhalten und zu prüfen, ist ein Akt intellektueller Selbstdisziplin.

4. Technische Hinweise kennen. Auch wenn die Qualität synthetischer Bilder rasant steigt, gibt es nach wie vor typische Artefakte: unnatürliche Hände, inkonsistente Textdarstellungen, merkwürdige Hintergründe, zu perfekte Haut, fehlende oder verdoppelte Accessoires. Diese Hinweise zu kennen ersetzt keine technische Analyse – aber es schärft den Blick.

5. Unsicherheit aushalten. Kompetentes Misstrauen bedeutet auch, zu akzeptieren, dass man manchmal nicht wissen kann, ob ein Bild authentisch ist. Diese Unsicherheit auszuhalten, ohne vorschnell zu urteilen, ist eine Kompetenz, die in einer von Gewissheitsansprüchen dominierten Medienkultur besonders schwer fällt – aber umso wichtiger ist.


5. Bildung, Institutionen, Technologie: Ein Drei-Säulen-Modell

Kompetentes Misstrauen kann nicht allein eine individuelle Leistung sein. Es braucht strukturelle Unterstützung auf drei Ebenen.

Säule 1: Bildung

Visuelle Medienkompetenz muss zu einem festen Bestandteil schulischer und außerschulischer Bildung werden. Nicht als Wahlfach, nicht als Projektwoche, sondern als Querschnittskompetenz, die in verschiedenen Fächern verankert wird: in der Politischen Bildung, im Kunstunterricht, in der Informatik, im Deutschunterricht.

Kinder und Jugendliche müssen lernen:

  • wie Bilder produziert und verbreitet werden,
  • welche Absichten hinter Bildkommunikation stehen können,
  • wie generative KI funktioniert (auf konzeptioneller Ebene),
  • welche Werkzeuge zur Verifizierung zur Verfügung stehen,
  • und wie man mit Unsicherheit umgeht.

Dabei geht es nicht darum, eine Generation von Zynikern heranzuziehen, die keinem Medium mehr traut. Es geht darum, mündige Mediennutzerinnen und Mediennutzer zu bilden, die in der Lage sind, informierte Urteile zu fällen. Die Analogie zum Lesenlernen ist hier keine Übertreibung: So wie die Alphabetisierung die Voraussetzung für die Teilhabe an der Schriftkultur war, ist visuelle Literalität die Voraussetzung für die Teilhabe an der digitalen Medienkultur.

Säule 2: Institutionelle Verantwortung

Medienorganisationen, Plattformen und staatliche Institutionen tragen eine besondere Verantwortung.

Medienorganisationen müssen ihre Verifizierungsprozesse stärken und transparent machen. Nachrichtenagenturen wie AP, Reuters oder die dpa investieren bereits erheblich in Faktenchecking und Bildverifizierung. Diese Arbeit muss sichtbarer werden – nicht nur als nachträgliche Korrektur, sondern als integraler Bestandteil der Berichterstattung.

Plattformen – von Meta über X bis TikTok – müssen technische und regulatorische Maßnahmen ergreifen, um die Verbreitung synthetischer Medien ohne Kennzeichnung einzudämmen. Content-Authentifizierungsinitiativen wie die Content Authenticity Initiative (CAI) oder der C2PA-Standard (Coalition for Content Provenance and Authenticity) arbeiten an digitalen Herkunftsnachweisen für Medieninhalte: einer Art „Lieferkette“ für Bilder, die dokumentiert, wann, wo und wie ein Bild erstellt und bearbeitet wurde. Wichtig ist dabei: Solche Standards belegen Provenienz, nicht Wahrheit. Sie können nachweisen, woher ein Bild stammt und welche Bearbeitungsschritte es durchlaufen hat – aber sie können nicht garantieren, dass das Abgebildete die Realität korrekt wiedergibt. Trotzdem sind sie ein entscheidender Baustein, weil sie Transparenz schaffen, wo bisher Intransparenz herrschte.

Staatliche Akteure müssen regulatorische Rahmenbedingungen schaffen. Die EU hat mit dem AI Act einen ersten Schritt getan, indem sie Kennzeichnungspflichten für KI-generierte Inhalte vorsieht. Doch Regulierung allein löst das Problem nicht – sie muss von Bildung und technischen Lösungen flankiert werden.

Säule 3: Technologische Werkzeuge

Die Technologie, die das Problem verursacht, muss auch Teil der Lösung sein. Dazu gehören:

  • KI-basierte Detektionstools, die synthetische Bilder erkennen können (auch wenn dies ein Katz-und-Maus-Spiel bleibt),
  • Digitale Wasserzeichen und Metadaten-Standards, die die Herkunft von Bildern nachvollziehbar machen,
  • Browser-Plugins und Apps, die Nutzerinnen und Nutzern einfache Verifizierungswerkzeuge an die Hand geben,
  • und offene Datenbanken, die bekannte manipulierte oder generierte Bilder katalogisieren.

Entscheidend ist, dass diese Werkzeuge niedrigschwellig zugänglich sind. Die beste Verifizierungstechnologie nützt nichts, wenn sie nur Expertinnen und Experten zur Verfügung steht. Sie muss in die alltägliche Mediennutzung integriert werden – so selbstverständlich wie der Spamfilter im E-Mail-Postfach.


6. Die ethische Dimension: Misstrauen als Verantwortung

Kompetentes Misstrauen ist nicht nur eine kognitive Fähigkeit – es ist eine ethische Haltung. Wer ein ungeprüftes Bild teilt, das sich als Fälschung herausstellt, trägt Mitverantwortung für die Desinformation, die daraus entsteht. Wer ein authentisches Bild vorschnell als Fälschung abtut, trägt Mitverantwortung für die Erosion der Wahrheit.

Diese doppelte Verantwortung – weder leichtgläubig noch zynisch zu sein – ist anspruchsvoll. Sie verlangt kognitive Anstrengung in einem medialen Umfeld, das auf Schnelligkeit, Emotionalität und Vereinfachung optimiert ist. Aber genau darin liegt die ethische Herausforderung unserer Zeit: die Bereitschaft, langsamer zu denken als die Algorithmen es von uns verlangen.

Die Philosophin Onora O’Neill hat in ihren Arbeiten zum Vertrauen darauf hingewiesen, dass informiertes Vertrauen – im Gegensatz zu blindem Vertrauen – immer auch die Bereitschaft zum Misstrauen einschließt. Vertrauen ohne die Möglichkeit des Misstrauens ist Naivität. Misstrauen ohne die Möglichkeit des Vertrauens ist Paranoia. Was wir brauchen, ist die Fähigkeit, uns bewusst und begründet zwischen beiden Polen zu bewegen.


7. Ein Blick nach vorn: Leben in der postfotografischen Welt

Manche Theoretiker sprechen bereits von einer postfotografischen Ära – einer Zeit, in der das Bild seinen Status als Beweismittel endgültig verloren hat. Ich halte diese Diagnose für verfrüht, aber nicht für unbegründet. Was sich zweifellos verändert hat, ist die Beweislast: Während früher die Fälschung nachgewiesen werden musste, muss zunehmend die Authentizität belegt werden.

Diese Verschiebung hat tiefgreifende Auswirkungen auf den Journalismus, die Rechtsprechung, die Wissenschaft und den gesellschaftlichen Diskurs insgesamt. Sie verlangt neue Standards, neue Werkzeuge und – vor allem – neue Kompetenzen.

Doch ich bin nicht pessimistisch. Jede medientechnologische Revolution – der Buchdruck, der Rundfunk, das Internet – hat zunächst Phasen der Verunsicherung und des Missbrauchs durchlaufen, bevor sich gesellschaftliche Normen, Institutionen und Kompetenzen herausbildeten, die einen konstruktiven Umgang ermöglichten. Wir stehen am Anfang eines solchen Prozesses.

Die entscheidende Frage ist, ob wir diesen Prozess aktiv gestalten oder ob wir ihn geschehen lassen. Ob wir in Bildung investieren oder auf technologische Selbstregulation hoffen. Ob wir den Diskurs über visuelle Wahrheit führen oder ihn den Extremen überlassen – den Leichtgläubigen auf der einen und den Nihilisten auf der anderen Seite.


Fazit: Sehen lernen – neu

Die Fähigkeit zu sehen ist uns angeboren. Die Fähigkeit, dem Gesehenen kompetent zu begegnen, ist es nicht. Sie muss erlernt, geübt und institutionell gestützt werden.

Der Wahrheit ins Auge zu sehen bedeutet heute auch, der Fragilität visueller Wahrheit ins Auge zu sehen. Es bedeutet, die Grenzen unserer Wahrnehmung anzuerkennen, die Leistungsfähigkeit generativer Technologien ernst zu nehmen und die eigene Urteilsfähigkeit bewusst zu schärfen.

Kompetentes Misstrauen ist kein Zeichen von Schwäche oder Zynismus. Es ist ein Ausdruck intellektueller Reife und demokratischer Verantwortung. In einer Welt, in der Bilder mächtiger sind als je zuvor – und zugleich trügerischer als je zuvor – ist die Fähigkeit, klug zu zweifeln, eine der wichtigsten Kompetenzen, die wir entwickeln können.

Lernen wir, Bildern zu misstrauen – nicht um sie zu verwerfen, sondern um ihnen den Respekt entgegenzubringen, den sie verdienen: den Respekt einer kritischen, wachen und informierten Betrachtung.


Über den Autor: Dieser Beitrag wurde aus der Perspektive eines Experten für Medienkompetenz und visuelle Kommunikation verfasst. Er versteht sich als Diskussionsbeitrag an der Schnittstelle von Medientheorie, Kognitionspsychologie und digitaler Ethik.


Änderungsprotokoll gegenüber der Erstfassung

Im Sinne der Transparenz dokumentiere ich hier die vorgenommenen Korrekturen und Präzisierungen:

  1. „30 Prozent der Großhirnrinde“ → geändert zu „zwischen 20 und 35 Prozent, je nach Studie und Definition“. Die ursprüngliche Angabe war als populärwissenschaftliche Faustformel vertretbar, aber als harte Zahl wissenschaftlich nicht präzise genug.
  2. „Die Qualität verbessert sich exponentiell“ → geändert zu „rasant“. „Exponentiell“ suggeriert ein streng mathematisches Wachstumsgesetz, das hier nicht belegt ist.
  3. „Die Einstiegshürde sinkt auf null“ → geändert zu „Die technische Einstiegshürde sinkt drastisch“, ergänzt um den Hinweis, dass wirksame Desinformation weiterhin narrative Kompetenz, Plattformwissen und Reichweite erfordert.
  4. „Ein einzelnes manipuliertes Bild kann geopolitische Spannungen auslösen“ → ergänzt um konkrete Beispiele (dekontextualisierte Kriegsbilder aus Syrien, der Ukraine und dem Gaza-Konflikt), um die Aussage zu belegen.
  5. C2PA-Passage → ergänzt um die explizite Klarstellung, dass der Standard Provenienz, nicht Wahrheit belegt.
  6. Abschnitt „Kompetentes Misstrauen“ → ergänzt um den Hinweis auf aktuelle Forschung, die zeigt, dass gezielte Literacy-Interventionen Deepfake-Erkennung verbessern, ohne generelles Bildvertrauen zu zerstören.
  7. „Rechtsprofessoren“ → geändert zu „Rechtswissenschaftler“ (präzisere und im Deutschen üblichere Bezeichnung).

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Vom Stockbild-Archiv zur kreativen Kommandozentrale: Warum Freepik 2026 plötzlich für Designer, Content Creator, Agenturen und Künstler zur vielleicht spannendsten Plattform am Markt geworden ist.

Die KI-Welt für Kreative war lange ein digitaler Flohmarkt. Für Bilder ein Tool, für Videos ein anderes, für Audio wieder ein drittes, für Upscaling ein viertes – und irgendwo dazwischen noch ein Grafikprogramm, ein Mockup-Tool und ein Editor für den finalen Schnitt. Jeder Schritt bedeutete einen Plattformwechsel, neue Logins, neue Credit-Systeme und am Ende meist auch neue Kosten. Genau an diesem Punkt setzt Freepik inzwischen mit einer Konsequenz an, die man der Marke vor wenigen Jahren kaum zugetraut hätte.

Wer bei Freepik noch an Stockbilder, Icons und Vektoren denkt, lebt gedanklich in einer anderen Ära. Stand März 2026 hat sich die Plattform zu einer umfassenden AI Creative Suite entwickelt, die in ihrer Breite aktuell zu den spannendsten Lösungen am Markt zählt. Und das ist keine PR-Floskel, sondern das Ergebnis eines intensiven Praxistests und eines gründlichen Faktenchecks auf Basis der neuesten Funktionen.

Die große Frage lautet deshalb nicht mehr, ob Freepik mehr ist als eine Bilddatenbank. Die eigentliche Frage lautet:

Kann Freepik inzwischen tatsächlich einen Großteil klassischer KI-Workflows unter einem Dach vereinen?

Die kurze Antwort: erstaunlich oft ja.


Vom Design-Archiv zur kreativen Schaltzentrale

Der eigentliche Reiz von Freepik liegt heute nicht mehr in einem einzelnen Feature, sondern in der strategischen Idee dahinter.

Statt ein proprietäres Modell als Heilsbringer zu verkaufen, verfolgt die Plattform einen deutlich pragmatischeren Ansatz: Sie bündelt verschiedene spezialisierte Werkzeuge in einer Oberfläche und reduziert damit Reibungsverluste im kreativen Alltag.

Genau darin liegt ihre Stärke.

Denn die Realität professioneller Kreativarbeit sieht heute oft so aus:

  • Bildideen entstehen in einem Generator
  • Videos werden extern produziert
  • Audio kommt aus einem Sprachtool
  • Bilder gehen danach durch ein Upscaling
  • der finale Schnitt passiert in einer Editing-Software

Dieser fragmentierte Workflow kostet Zeit, Geld und kreative Energie.

Freepik versucht, genau dieses Problem aufzulösen.

Das Ergebnis ist mittlerweile eine Plattform, die sich fast wie eine kreative Betriebssystemoberfläche anfühlt.


Bildgenerierung: Nicht ein Modell, sondern die richtige Auswahl

Ein zentraler Unterschied zu vielen Konkurrenten liegt im Ansatz der Bildgenerierung.

Freepik setzt nicht auf ein einziges Modell, sondern auf eine kuratierte Auswahl verschiedener Engines.

Gerade darin liegt die Stärke.

Denn es gibt in der Praxis schlicht nicht das eine perfekte Modell für alles.

Fotorealistische Portraits benötigen andere Stärken als typografische Designs, Editorial Looks oder stylisierte Artworks.

Die Suite erlaubt es, je nach Aufgabe zwischen unterschiedlichen Modellen und Stilrichtungen zu wechseln, ohne die Plattform zu verlassen.

Für professionelle Nutzer ist das enorm wertvoll.

Man testet denselben Prompt in verschiedenen Modellen, vergleicht die Ergebnisse direkt und entscheidet sich dann für die beste Variante.

Was früher drei Tabs und drei Abos bedeutete, passiert jetzt innerhalb eines Workspaces.

Gerade für Brand-Design und Kampagnenarbeit sind Funktionen wie:

  • Stilvorgaben
  • Farbpaletten
  • Hex-Code-Steuerung
  • konsistente Varianten

extrem hilfreich.


Relight: Das vielleicht stärkste neue Profi-Feature

Eines der beeindruckendsten neuen Werkzeuge ist die Relight-Funktion.

Und nein: Das ist kein einfacher Lichtfilter.

Relight arbeitet deutlich tiefer.

Hier wird nicht bloß ein Preset auf ein Bild gelegt, sondern die Lichtstimmung eines Motivs neu interpretiert.

Das Tool erlaubt es, virtuelle Lichtquellen neu zu setzen und gezielt Parameter anzupassen:

  • Winkel
  • Intensität
  • Lichtfarbe
  • Höhe
  • Richtung
  • Mehrfachlichtquellen
  • Studiolicht-Simulation

Das Resultat erinnert eher an ein virtuelles Fotostudio als an klassische Bildbearbeitung.

Ein Portrait kann innerhalb weniger Sekunden vom neutralen Tageslicht-Look in ein dramatisches Editorial-Shooting transformiert werden.

Beauty Light, Backlight, Film-Noir, Fashion-Studio, Produktlicht – all das funktioniert überzeugend.

Für Künstler, Fotografen und Synthografen ist das ein massiver Qualitätssprung.

Gerade in der professionellen Bildsprache entscheidet Licht über Glaubwürdigkeit.

Relight ist deshalb eines der Features, das Freepik klar in Richtung High-End-Workflow verschiebt.


3D Scenes: Virtuelles Studio statt statischer Prompts

Wenn es ein Feature gibt, das den Artikel 2026 wirklich neu definiert, dann ist es 3D Scenes.

Dieses Werkzeug geht weit über klassische KI-Bildgenerierung hinaus.

Statt jedes Bild neu zu prompten, baut man einen persistenten dreidimensionalen Raum auf.

Das bedeutet:

  • virtuelle Räume
  • Objekte platzieren
  • Produkte arrangieren
  • Figuren positionieren
  • konsistente Lichtsetzung
  • frei bewegliche Kamera
  • neue Perspektiven ohne Neu-Generierung

Im Grunde ist das eine Mischung aus virtuellem Studio, Storyboard-System und Produkt-CGI-Light.

Für Werbekampagnen, Fashion-Sets und E-Commerce ist das extrem stark.

Ein Produkt kann einmal in einer Szene aufgebaut und anschließend aus mehreren Blickwinkeln „fotografiert“ werden.

Das spart enorm Zeit.

Gerade für Agenturen ist das ein echter Produktivitätshebel.


Video: Von nettem Zusatzfeature zur ernsthaften Produktionsumgebung

Der Videobereich hat sich besonders stark weiterentwickelt.

Was früher ein interessantes Zusatzmodul war, ist inzwischen ein ernstzunehmender Produktionsbereich.

Besonders spannend ist die Auswahl an integrierten Modellen.

Dazu zählen inzwischen unter anderem:

  • Sora 2 Pro
  • Veo
  • Runway
  • Kling
  • weitere spezialisierte Video-Engines

Gerade Sora 2 Pro ist hier ein entscheidender Punkt.

Wichtig für den Faktencheck:

Sora ist innerhalb der Freepik Suite weiterhin verfügbar und aktiv integriert.

Das ist relevant, weil hier zuletzt viele widersprüchliche Informationen im Umlauf waren.

Im Praxiseinsatz überzeugen besonders:

  • realistische Physik
  • bessere Bewegungskohärenz
  • verbesserte Szenenlogik
  • Audio-Synchronisierung
  • cinematische Clips

Für Social Content, Trailer, Mood-Filme und Werbeclips ist das ein enormer Fortschritt.


Der Video Editor ist jetzt Realität

Ein zentraler Punkt des ursprünglichen Artikels war die Vision eines integrierten Video Editors.

Diese Vision ist inzwischen Realität.

Mit dem Video Project Editor und dem Clip Editor hat Freepik den nächsten logischen Schritt gemacht.

Das bedeutet:

  • Clips schneiden
  • Szenen kombinieren
  • Projekte verwalten
  • Loops erstellen
  • schnelle Social Exports

Der frühere Medienbruch zu CapCut oder DaVinci Resolve wird dadurch deutlich reduziert.

Natürlich ersetzen diese Werkzeuge noch nicht in jedem Fall professionelle Schnittsoftware.

Aber für den schnellen kreativen Workflow sind sie inzwischen erstaunlich stark.


Lip Sync und Audio: Jetzt wirklich all-in-one

Auch im Audio-Bereich hat Freepik massiv nachgelegt.

Inzwischen stehen direkt in der Plattform zur Verfügung:

  • Text to Speech
  • Voice Cloning
  • Soundeffekt-Generator
  • Music Generator
  • Lip Sync

Gerade Lip Sync ist für Creator und Marketing-Teams extrem relevant.

Avatar-Videos, sprechende Charaktere und Werbeclips lassen sich damit deutlich schneller umsetzen.

Die Qualität ist für Social Media und digitale Kampagnen absolut konkurrenzfähig.

Der Music Generator rundet das Paket ab.

Damit entfällt in vielen Fällen der Wechsel zu spezialisierten Audio-Plattformen.


Spaces: Das kreative Betriebssystem der Suite

Ein oft unterschätztes, aber strategisch extrem wichtiges Feature ist Spaces.

Das ist weit mehr als eine Ablagefläche.

Spaces funktioniert wie eine Infinite Canvas für den gesamten kreativen Workflow.

Hier laufen Ideen, Bilder, Clips, Audio, Varianten und Designs zusammen.

Für Teams und Agenturen ist das fast wichtiger als einzelne Modelle.

Denn kreative Prozesse bestehen selten nur aus einer Generierung.

Sie bestehen aus:

  • Ideenentwicklung
  • Variantenvergleich
  • Feedback
  • Freigabe
  • Finalisierung

Spaces macht genau diesen Prozess deutlich flüssiger.


Magnific: Ein strategischer Coup

Ein besonders wichtiger Punkt für professionelle Nutzer ist die tiefe Einbindung von Magnific.

Das Tool gehört seit der Übernahme inzwischen strategisch zum Ökosystem.

Das ist enorm relevant.

Denn hochwertiges Upscaling bleibt einer der wichtigsten Schritte im professionellen KI-Workflow.

Generierte Bilder wirken oft noch zu weich.

Erst durch intelligentes Detail-Upscaling werden sie wirklich:

  • druckfähig
  • kampagnenfähig
  • editorial-tauglich

Gerade hier liefert die Suite inzwischen sehr überzeugende Ergebnisse.


Design bleibt eine Kernstärke

Was viele vergessen:

Freepik hat seine Design-Wurzeln nicht verloren.

Und genau das ist ein großer Vorteil.

Zusätzlich zur KI-Suite bleiben klassische Tools für:

  • Flyer
  • Poster
  • Social Templates
  • Mockups
  • Icons
  • SVG-Workflows

hoch relevant.

Gerade diese Verbindung aus klassischem Design und generativer KI ist ein echter Wettbewerbsvorteil.

Andere Plattformen sind stark in der Generierung.

Freepik ist stark in der finalen kreativen Umsetzung.


Datenschutz und Professionalität

Ein besonders wichtiger Punkt für europäische Nutzer ist das Thema Datenschutz.

Hier hat Freepik sichtbar nachgebessert.

Die Kommunikation rund um private Inhalte und Trainingsnutzung ist deutlich klarer geworden.

Für Agenturen und Kundenarbeit ist das essenziell.

Trotzdem gilt:

Bei sensiblen Kundenbildern sollte man Nutzungsbedingungen weiterhin sehr genau prüfen.

Professionelle Workflows verlangen hier Sorgfalt.


Für wen lohnt sich Freepik 2026 wirklich?

Die Antwort ist überraschend breit.

Besonders profitieren:

Content Creator

Schnelle Bild-, Video- und Audio-Produktion für Social Media.

Agenturen

Kampagnen, Varianten, Mockups und schnelle Konzeptvisualisierung.

Künstler und Visual Storyteller

Vor allem durch Relight, 3D Scenes und cinematische Videotools.

Unternehmen

Konsolidierte Kostenstruktur und zentraler Workflow.


Das ehrliche Fazit

Ist Freepik 2026 wirklich „das eine Tool, das alle anderen ersetzt“?

Ganz ehrlich:

noch nicht vollständig.

Für absolute Spezialfälle bleiben weiterhin einzelne High-End-Tools relevant.

Aber:

Die Suite ist heute näher an diesem Versprechen als fast jede andere Plattform.

Gerade die Kombination aus:

  • Bild
  • Video
  • Audio
  • Relight
  • 3D
  • Upscaling
  • Design
  • Editing

macht sie aktuell zu einer der spannendsten Kreativplattformen überhaupt.

Was früher ein Stockportal war, ist heute ein fast vollständiges kreatives Ökosystem.

Und genau deshalb lohnt es sich, Freepik 2026 mit völlig neuen Augen zu betrachten.

Vielleicht ist es nicht das einzige Tool.

Aber es ist sehr nah daran, das zentrale zu werden.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Eine unbequeme Analyse für beide Seiten – jetzt mit Faktencheck


Willkommen in der Hysterie.

Auf der einen Seite stehen die Tech-Evangelisten, die verkünden, dass menschliche Models in fünf Jahren so überflüssig sein werden wie Pferdekutschen nach der Erfindung des Automobils. Auf der anderen Seite stehen die Fotografen, die behaupten, KI-Bilder seien seelenloses Plastik und würden nie ein echtes Shooting ersetzen können.

Beide Seiten liegen falsch.

Die Wahrheit ist, wie so oft, unbequemer als die Extreme. Echte Models und echte Fotografie werden nicht aussterben. Aber nicht aus den Gründen, die Traditionalisten gerne anführen. Nicht weil KI „nicht gut genug“ wäre – sie ist bereits erschreckend gut. Nicht weil „nichts über den echten Moment geht“ – für die meisten kommerziellen Anwendungen geht sehr wohl etwas darüber, nämlich Geschwindigkeit und Kosteneffizienz. Und nicht weil die Branche sich erfolgreich dagegen wehren wird – das hat noch nie funktioniert.

Echte Models und echte Fotografie werden überleben, weil Marktdynamik, regulatorische Realitäten und kulturelle Gegenbewegungen stärker sind, als einfache Disruptions-Narrative es vermuten lassen. Und das ist keine sentimentale Hoffnung, sondern eine nüchterne Analyse.

Aber – und das ist der provokante Teil – sie werden anders überleben, als viele sich das wünschen. Kleiner. Spezialisierter. Und paradoxerweise genau dadurch wertvoller.

Dieser Artikel wurde einem gründlichen Faktencheck unterzogen. Wo Behauptungen belastbar sind, stehen Quellen. Wo die Evidenz gemischt ist, sage ich das. Wo ich spekuliere, kennzeichne ich es. Denn diese Debatte verdient Präzision, nicht Parolen.


Kapitel 1: Die unbequeme Wahrheit – Ja, KI vernichtet bereits Jobs

Der Stockfoto-Markt unter Druck

Bevor wir über das Überleben der echten Fotografie reden, müssen wir ehrlich sein über das, was bereits passiert.

Der klassische Stockfoto-Markt in seiner bisherigen Form steht unter massivem Druck. Shutterstock hat KI-Generierungstools direkt in seine Plattform integriert – ein Unternehmen, das von Fotografen lebt, verkauft jetzt Werkzeuge, die bestimmte Arten von Fotografie überflüssig machen. Die Contributor-FAQ von Shutterstock zeigt, wie offen das Unternehmen mit dieser Transformation umgeht (Shutterstock). Wenn die Plattform selbst die Disruption vorantreibt, ist das ein deutlicheres Signal, als jede Branchenanalyse es sein könnte.

Für jene Fotografen, deren Geschäftsmodell darin bestand, generische Bilder von lächelnden Geschäftsleuten vor weißem Hintergrund zu produzieren, ist die Lage ernst. Nicht in fünf Jahren. Jetzt.

Katalogfotografie: Die Zahlen sprechen

Auch die klassische Katalogfotografie steht unter realem Effizienzdruck – und hier liegen inzwischen konkrete Daten vor. Zalando nutzt laut Reuters KI, um Marketing-Kampagnen zu beschleunigen und Kosten zu senken. Die Produktionszeit wurde von Wochen auf wenige Tage reduziert (Reuters). H&M hat 2025 offiziell mit „Digital Twins“ realer Models gearbeitet und dies als kreative Exploration kommuniziert (H&M Group).

Das sind keine Zukunftsszenarien. Das ist Produktionsrealität. Die Frage ist nicht, ob KI den unteren und mittleren kommerziellen Bereich verändert, sondern wie schnell und wie vollständig.

Wer das bestreitet, ist nicht mutig, sondern blind.

Die erste Welle trifft bereits

Der untere und mittlere Bereich der kommerziellen Fotografie schrumpft. So wie die Digitalfotografie den Film verdrängt hat, so wie Photoshop bestimmte Retusche-Arbeitsplätze obsolet gemacht hat, macht KI bestimmte fotografische Routinedienstleistungen überflüssig.

Aber – und hier beginnt die eigentliche Analyse – wer daraus schließt, dass echte Fotografie und echte Models komplett verschwinden, hat die Geschichte der Technologie auch nicht verstanden.


Kapitel 2: Warum das menschliche Gesicht komplizierter ist, als beide Seiten glauben

Das Uncanny Valley – real, aber nicht so einfach

Kennen Sie dieses Gefühl, wenn ein KI-generiertes Gesicht irgendetwas an sich hat, das nicht stimmt? Die Haut zu perfekt, die Augen zu symmetrisch, das Lächeln zu gleichmäßig?

Das Uncanny Valley – jenes Phänomen, bei dem fast-menschliche Darstellungen Unbehagen auslösen – ist in der Forschung breit diskutiert und als Konzept real. Aber die Lage ist komplizierter, als es die einfache Erzählung „Menschen spüren sofort, dass etwas falsch ist“ vermuten lässt.

Eine vielzitierte Studie in PNAS zeigte bereits 2022, dass KI-synthetisierte Gesichter von echten Gesichtern kaum zu unterscheiden waren – und im Mittel sogar als vertrauenswürdiger bewertet wurden als reale Gesichter (PNAS). Das ist ein Befund, der beide Seiten der Debatte irritieren sollte: Die Technologie ist bereits weiter, als viele Traditionalisten wahrhaben wollen. Und die psychologische Reaktion auf synthetische Gesichter ist nicht so eindeutig negativ, wie es die KI-Kritiker gerne hätten.

Ein Teil der Forschung deutet darauf hin, dass es subtile Wahrnehmungskonflikte bei künstlichen Gesichtern gibt – ein vages Unbehagen, das sich nicht immer bewusst benennen lässt. Eine Review-Studie zu psychologischen und neuronalen Evidenzen rund um das Uncanny Valley bestätigt, dass solche Effekte existieren, aber kontextabhängig und individuell sehr unterschiedlich ausfallen (VisualCOM). Die Befunde sind also gemischt, nicht eindeutig.

Was man seriös sagen kann: Die menschliche Wahrnehmung ist hochsensibel für Gesichter. Ob diese Sensibilität dauerhaft als zuverlässiger „Echtheitsdetektor“ funktioniert, wenn die Technologie immer besser wird, ist eine offene Frage – keine geklärte.

Authentizität als entstehendes Marktprinzip

Wenn die visuelle Unterscheidbarkeit schwindet, verlagert sich der Wert des Echten auf eine andere Ebene: die des Wissens um die Herkunft.

Es entstehen gerade reale technische und regulatorische Systeme rund um Bildherkunft und Transparenz. Die Content Authenticity Initiative und das C2PA-Protokoll arbeiten an Standards, die es ermöglichen, die Herkunft eines Bildes kryptographisch zu verifizieren – ob es mit einer Kamera aufgenommen, bearbeitet oder KI-generiert wurde (C2PA). In Europa wachsen durch den AI Act die Transparenzpflichten für KI-generierte Inhalte.

Einzelne Marken positionieren sich bereits bewusst: Aerie wirbt 2026 ausdrücklich damit, keine KI-generierten Körper oder Personen im Marketing zu nutzen. Das ist noch kein flächendeckender Trend, aber ein Signal. Ein „Authentizitäts-Premium“ – ein Aufpreis für nachweislich echte, nicht-generierte Inhalte – zeichnet sich als entstehendes Marktprinzip ab, auch wenn es als ökonomischer Standardbegriff noch nicht voll vermessen ist.

Die Logik dahinter ist plausibel und lässt sich mit Gegenbeispielen aus anderen Branchen stützen: Die RIAA meldete für 2025 erneut Wachstum bei Vinyl-Schallplatten – 46,8 Millionen verkaufte Einheiten, deutlich mehr als CDs (RIAA). Das stützt die These, dass digitale Allgegenwart analoge Gegenbewegungen nicht ausschließt, sondern befeuern kann. Auch Schweizer Uhrenexporte zeigen, dass mechanische Uhren wertmäßig den Löwenanteil ausmachen, obwohl jedes Smartphone die Zeit anzeigt – ein Beleg dafür, dass „Luxus trotz digitaler Funktionalität“ als Kategorie funktioniert (FHS).

Daraus einen universellen Automatismus abzuleiten, wäre zu weit gegriffen. Aber die Richtung ist erkennbar.


Kapitel 3: Warum echte Models nicht einfach verschwinden – aber sich anpassen müssen

Der Körper als Biografie

Ein echtes Model ist mehr als ein Gesicht. Es ist ein Mensch mit einer Geschichte, die in jeder Pose, jeder Geste, jedem Blick mitschwingt. KI kann ein Gesicht generieren – sogar ein sehr überzeugendes. Aber sie kann keine Biografie generieren. Keine Narbe, die eine Geschichte erzählt. Keinen Blick, der Erfahrung transportiert. Keine Social-Media-Präsenz, die eine reale Person mit einer realen Community verbindet.

Wenn Bella Hadid eine Kampagne trägt, kaufen Konsumenten nicht nur das Kleid – sie kaufen die Assoziation mit einer realen Person, ihrem öffentlichen Ich, ihrer Persönlichkeit. Ein KI-generiertes Gesicht hat das nicht. Es hat keine Fans, keine Skandale, keine Meinungen. Und solange Mode nicht nur Kleidung, sondern Kultur verkauft, ist das ein relevanter Unterschied.

High Fashion: komplizierter als ein einfaches „bleibt beim Echten“

Allerdings wäre es zu einfach zu behaupten, High Fashion werde sicher und immer bei echten Models bleiben. Die Realität ist differenzierter. H&M experimentiert bereits offen mit digitalen Zwillingen (H&M Group), und die Branche insgesamt steht unter Innovationsdruck, bei dem auch Luxusmarken nicht ausgeklammert sind (FashionUnited).

Was man seriös sagen kann: High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – weil Markenmythologie, Prominenz und kulturelle Aufladung dort eine größere Rolle spielen als in anderen Segmenten. Aber „überdurchschnittlich lange“ ist etwas anderes als „für immer“. Und einige Luxusmarken werden gerade mit künstlicher Ästhetik provozieren oder experimentieren, statt sie zu meiden.

Virtuelle Influencer: funktionieren, aber anders

Lil Miquela hat rund zwei Millionen Follower auf Instagram (Instagram). Virtuelle Influencer sind keine Kuriosität mehr, sondern ein etabliertes Phänomen. Aber ihre Wirkung ist komplexer, als die Schlagzeilen vermuten lassen.

Die Forschung dazu ist gemischt: Einige Studien finden geringere wahrgenommene Authentizität, Wärme und Vertrauenswürdigkeit bei virtuellen Influencern; andere zeigen, dass sie durchaus hohe Engagement-Werte erzielen können und in bestimmten Kontexten wirksam sind. Seriös formuliert: Virtuelle Influencer funktionieren, leiden aber häufig an einem Authentizitätsnachteil. Wirkung und Engagement hängen stark vom Kontext, Produkt und Inszenierungsstil ab.

Wer behauptet, virtuelle Influencer seien grundsätzlich schwächer, vereinfacht. Wer behauptet, sie seien gleichwertig, auch.


Kapitel 4: Warum echte Fotografie strukturell anders funktioniert als KI-Generierung

Dokumentarische Fotografie: eine eigene Kategorie

Der stärkste Punkt für das Überleben echter Fotografie liegt nicht in der Ästhetik, sondern in der Funktion. Es gibt Bereiche, in denen ein generiertes Bild strukturell kein Ersatz sein kann – weil es dort nicht um Schönheit geht, sondern um Wahrheit.

AP erlaubt keine generative KI, um in Fotos oder Videos Elemente hinzuzufügen oder zu entfernen (AP). Reuters verbietet generative KI zur Erstellung oder Verbesserung von Bildmaterial in der visuellen Berichterstattung. World Press Photo schließt synthetisch erzeugte oder generativ gefüllte Bilder aus.

Das sind keine symbolischen Gesten. Das sind die Standards der weltweit maßgeblichen Nachrichtenagenturen und Wettbewerbe. Sie definieren: Ein Bild, das einen realen Moment bezeugt, ist etwas fundamental anderes als ein Bild, das einen plausiblen Moment simuliert. Diese Unterscheidung wird nicht verschwinden – sie wird in einer Welt voller synthetischer Bilder sogar wichtiger werden.

Hochzeitsfotografie und andere dokumentarische Praxis

Hochzeitsfotografie wird als dokumentarische Praxis schwer ersetzbar bleiben. Niemand will Bilder eines Tages, der nicht stattgefunden hat. Der Wert des Hochzeitsfotos liegt nicht in seiner ästhetischen Perfektion, sondern in seiner Beweiskraft: Wir waren da. Wir haben gefeiert. Es war real.

Allerdings – und das gehört zur Ehrlichkeit dazu – kann KI diesen Bereich bereits ergänzen: bei Previews, bei Retusche, bei Varianten, bei inszenierten Zusatzbildern. Als Kompletterset unwahrscheinlich, als Workflow-Bestandteil bereits Realität.

Dasselbe gilt für Porträtfotografie, Eventfotografie, Reportage. Überall dort, wo das Bild nicht nur schön sein soll, sondern einen realen Moment bezeugen, ist KI kein vollwertiger Ersatz. Sie ist es strukturell nicht, weil ihr die Fähigkeit fehlt, Realität zu dokumentieren.

Licht, Raum, Zufall

Ein echtes Foto entsteht in einem physischen Raum. Licht fällt durch ein Fenster, wird von einer Wand reflektiert, erzeugt Schatten, die von hundert Zufällen abhängen. Wind bewegt Haare. Stoff fällt in einer Weise, die Schwerkraft und Körperbewegung gehorcht. Ein Blick wird eingefangen, der eine Zehntelsekunde später anders ausgesehen hätte.

Diese physische Dimension – das Zusammenspiel von Raum, Licht, Körper, Zeit und Zufall – ist phänomenologisch das, was ein echtes Foto von einem generierten unterscheidet. Nicht immer messbar, nicht immer bewusst wahrnehmbar, aber als Qualität in den besten Fotografien spürbar. Das ist keine harte Wissenschaft – es ist eine Beschreibung dessen, was große Fotografen seit jeher als das Wesen ihres Mediums beschreiben: die Arbeit mit dem Unvorhersehbaren.

KI kann das Erwartbare perfektionieren. Aber die besten Fotografien entstehen oft dort, wo das Unerwartbare einbricht.


Kapitel 5: Die Rechts- und Compliance-Dimension – Unterschätzt, aber real

Rechtliche Klarheit als Wettbewerbsvorteil

Ein pragmatischer Punkt, der in der ästhetischen Debatte oft untergeht: Echte Fotografie mit echten Models bietet derzeit eine rechtliche Klarheit, die KI-generierte Bilder nicht bieten können.

Der U.S. Copyright Office Report von 2025 hält an menschlicher Urheberschaft als Grundprinzip fest. Viele Fragen zu Training, Output-Rechten, digitalen Repliken und Persönlichkeitsrechten bleiben rechtlich umkämpft (Copyright Office). In New York schützt der Fashion Workers Act seit 2025 Models ausdrücklich bei digitalen Repliken. In Europa wachsen Transparenzpflichten durch den AI Act.

Das sind keine abstrakten Regulierungsdebatten. Das sind reale Marktbremsen für sorglose KI-Nutzung im großen Stil. Für risikoscheue Unternehmen, für regulierte Branchen, für internationale Kampagnen mit verschiedenen Rechtsräumen ist diese Unsicherheit ein echtes geschäftliches Risiko.

Solange die rechtlichen Rahmenbedingungen für KI-generierte Bilder nicht abschließend geklärt sind, wird klassische Fotografie allein aus Compliance-Gründen relevant bleiben. Das ist kein romantisches Argument. Das ist Risikomanagement.

Die ethische Komponente

Wenn eine Beauty-Marke ein KI-generiertes Gesicht verwendet – unmenschlich perfekte Haut, unmenschlich symmetrische Züge –, sendet sie eine Botschaft: So sollst du aussehen. Aber so sieht niemand aus.

Die Bewegung hin zu Diversität und Body Positivity braucht echte Körper. Sie braucht Models, die zeigen, dass Schönheit in vielen Formen existiert. Eine KI, die generiert, was statistisch dem Durchschnitt ihrer Trainingsdaten entspricht, tendiert zur Homogenisierung. Das ist kein theoretisches Problem – es ist ein kulturelles.


Kapitel 6: Die provokante These – Fotografie wird besser, nicht schlechter

Die Befreiung durch Konkurrenz

KI-Bildgenerierung wird die Fotografie besser machen. Nicht schlechter. Nicht irrelevant. Besser.

Warum? Weil die KI den Fotografen zwingt, sich auf das zu konzentrieren, was nur er kann. Wenn die Maschine das Generische perfekt beherrscht, muss der Mensch das Spezifische liefern. Wenn der Algorithmus das Vorhersehbare schneller produziert, muss der Fotograf das Unvorhersehbare suchen.

Das ist exakt die Dynamik, die nach der Erfindung der Fotografie die Malerei befreit hat. Als die Kamera die naturgetreue Abbildung übernahm, musste die Malerei nicht mehr abbilden. Das Ergebnis waren Impressionismus, Expressionismus, Kubismus – die aufregendsten Epochen der Malereigeschichte.

Das Ende des Mittelmaßes

Was verschwinden wird, ist die mittelmäßige kommerzielle Fotografie. Jene Routineproduktionen, die schon vor der KI unter Preisdruck standen. Die KI gibt diesem Segment den Gnadenstoß. Und das zwingt Fotografen zu der Frage: Was kann ich, was die Maschine nicht kann?

Die Antwort auf diese Frage führt unweigerlich zu besserer, mutigerer, persönlicherer Arbeit.


Kapitel 7: Die neue Landschaft – Ehrlich kartiert

Was sich wirklich verändert

Generische kommerzielle Bildproduktion: Weitgehend von KI übernommen. Stockfotos, einfache Produktbilder, Standard-Werbemotive – hier dominiert die Maschine, weil Effizienz entscheidet. Zalando und H&M zeigen das bereits.

Mid-Range-Fotografie: Hybrid. Menschliche Fotografen arbeiten mit KI-Tools für Retusche, Variantenproduktion, Hintergrundgestaltung. Der Mensch liefert das Rohmaterial, die Maschine skaliert es.

High-End-Fotografie und Kunst: Menschlich dominiert, mit KI als optionalem Werkzeug. Editorials, Kampagnen, Kunstfotografie – hier zählen Vision, Handwerk und Autorschaft. Aber auch hier wird experimentiert, und die Grenzen verschieben sich.

Dokumentation und Journalismus: Strukturell geschützt. AP, Reuters und World Press Photo haben klare Linien gezogen. Hier geht es um Wahrheit, nicht um Ästhetik.

Die Models

Echte Models werden nicht verschwinden. Aber die Branche differenziert sich aus:

  • High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – als Persönlichkeiten, Markenbotschafter, kulturelle Ikonen. Aber auch hier laufen KI-Experimente.
  • Commercial/Catalog setzt zunehmend auf KI und Hybridmodelle – für Effizienz und Skalierbarkeit.
  • Models mit starker Persönlichkeit, einzigartigem Look oder relevanter Social-Media-Präsenz werden profitieren. Models, die primär als austauschbare Gesichter funktioniert haben, werden es schwerer haben.

Die brutale Wahrheit: Nicht jedes Model wird überleben. Nicht jeder Fotograf wird überleben. Aber die Fotografie als Medium und das Modeling als Beruf werden überleben – transformiert, spezialisierter, in manchen Segmenten elitärer.


Fazit: Die Maschine ersetzt das Generische, nicht das Echte

Stellen Sie sich zwei Bilder vor.

Das eine zeigt ein perfektes Gesicht – makellose Haut, symmetrische Züge, ideale Beleuchtung. Es wurde in zwei Sekunden generiert. Es kostet nichts. Es ist schön. Und es kann, wie die PNAS-Studie zeigt, sogar vertrauenswürdiger wirken als ein echtes Gesicht.

Das andere Foto zeigt eine echte Frau. Sie hat Sommersprossen, eine kleine Narbe über der Augenbraue, Lachfalten. Das Licht fällt schräg durch ein Fenster. Sie lacht – nicht das perfekte Lächeln, sondern ein echtes Lachen, ausgelöst durch etwas, das der Fotograf sagte, eine Sekunde bevor er den Auslöser drückte.

Welches Bild berührt Sie mehr? Die ehrliche Antwort ist: Es kommt darauf an. Auf den Kontext, den Zweck, den Betrachter.

Und genau das ist der Punkt. Es gibt keinen universellen Gewinner in diesem Wettbewerb. KI wird das Generische übernehmen – schneller, billiger, effizienter. Aber das Echte, das Dokumentarische, das biografisch Aufgeladene, das physisch Erlebte – das hat weiterhin einen eigenen, strukturell anderen Wert. Einen Wert, der durch Recht, durch Transparenzstandards und durch kulturelle Sehnsucht gestützt wird.

Die KI wird vieles verändern. Sie wird manches zerstören und manches erschaffen. Sie wird den Markt umwälzen und Berufsbilder transformieren. Aber eines wird sie in absehbarer Zeit nicht können: an einem Dienstagmorgen um 6 Uhr in einem Studio stehen und auf den Moment warten, in dem Licht, Mensch und Zufall zusammenkommen und etwas entsteht, das kein Algorithmus vorhersehen konnte.

Dieser Moment gehört dem Menschen. Wie lange noch, weiß niemand mit Sicherheit.

Aber totgesagte posieren eben doch länger.


Quellen

  • Shutterstock: AI-generated Content – Contributor FAQ. shutterstock.com
  • H&M Group: H&M continues its exploration of creativity with AI. hmgroup.com
  • Reuters: Zalando uses AI to speed up marketing campaigns, cut costs. reuters.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence. copyright.gov
  • PNAS: AI-synthesized faces are indistinguishable from real faces and more trustworthy (2022). pnas.org
  • VisualCOM: Review of the Psychological and Neural Evidence on the Uncanny Valley. visualcompublications.es
  • C2PA: Content Provenance and Authenticity. c2pa.org
  • The Associated Press: Standards around generative AI. ap.org
  • FashionUnited: H&M turns to AI ‚digital twins‘ in new campaign. fashionunited.com
  • RIAA: US Recorded Music Annual Revenue 2025. riaa.com
  • FHS: Swiss Watch Industry Statistics. fhs.swiss
  • Instagram: Lil Miquela (@lilmiquela). instagram.com

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Warum KI-generierte Bilder in der Tradition von Duchamp und Pop Art stehen, was die Copyright-Debatte wirklich hergibt und weshalb „Das ist keine Kunst!“ noch nie gestimmt hat


Es gibt einen Satz, der in der Kunstgeschichte zuverlässiger wiederkehrt als jeder Stilwechsel. Zuverlässiger als Impressionismus nach Realismus, zuverlässiger als Abstraktion nach Figuration, zuverlässiger als jede Avantgarde nach jeder Akademie. Der Satz lautet: „Das ist keine Kunst!“

Er wurde gerufen, als Édouard Manet 1863 sein Frühstück im Grünen ausstellte. Er wurde gerufen, als Marcel Duchamp 1917 ein Urinal signierte. Er wurde gerufen, als Andy Warhol 1962 seine Campbell’s-Suppendosen in die Galerie stellte. Und er wird heute gerufen – laut, empört, manchmal wütend –, wenn jemand ein Bild zeigt, das durch Midjourney, Stable Diffusion oder DALL-E entstanden ist.

Die Geschichte wiederholt sich nicht, heißt es. Aber sie reimt sich. Und der Reim, den wir gerade hören, ist so deutlich, dass man fast mitsprechen kann.

Dieser Text ist ein Plädoyer. Kein blindes, kein naives, sondern ein differenziertes. Er argumentiert, dass KI-generierte Kunst – jene sogenannte Synthographie – in einer direkten kunsthistorischen Linie steht, die von Duchamps Ready-mades über Warhols Factory bis in die Serverfarmen unserer Gegenwart reicht. Er argumentiert, dass der Vorwurf des „Bilderklaus“ komplexer ist, als es die Empörung vermuten lässt. Und er argumentiert, dass Andy Warhol, hätte er heute gelebt, sehr wahrscheinlich einer der ersten gewesen wäre, der einen Prompt geschrieben hätte.

Aber – und das ist entscheidend – er tut das nicht, indem er Spekulation als Fakt verkauft. Denn die Debatte um KI-Kunst verdient Präzision, nicht Parolen.


Teil 1: Der ewige Reflex – Warum die Kunstwelt neue Werkzeuge fürchtet

Die Kamera als Todfeind

Als 1839 die Daguerreotypie der Öffentlichkeit vorgestellt wurde, reagierte die etablierte Kunstwelt mit einer Mischung aus Faszination und Panik. Der französische Maler Paul Delaroche soll gesagt haben: „Von heute an ist die Malerei tot.“ Ob dieses Zitat wörtlich so gefallen ist, gilt unter Historikern als unsicher – die Barnes Foundation behandelt es als weit verbreitete, aber nicht zweifelsfrei belegte Zuschreibung. Doch ob nun wörtlich gefallen oder nicht: Das Zitat steht bis heute als Symbol für jene Angstreaktion, die jede technologische Innovation in der Kunst begleitet hat.

Die Akademien sahen in der Fotografie keine Kunst, sondern Mechanik. Es fehle die „Hand des Künstlers“, die „Seele“, das „Handwerk“. Der Fotograf drücke ja nur auf einen Knopf – den Rest erledige die Maschine. Es dauerte Jahrzehnte, bis Künstler wie Alfred Stieglitz, Man Ray und später Diane Arbus oder Cindy Sherman demonstrierten, dass die Kamera nicht einfach „abbildet“, sondern dass der Mensch hinter der Kamera entscheidet: über Perspektive, Licht, Komposition, Augenblick, Kontext. Die Kamera war das Werkzeug. Der Mensch war der Künstler.

Kommt Ihnen das bekannt vor? Es sollte. Denn die Argumente gegen KI-Kunst sind strukturell identisch mit denen gegen die Fotografie.

Der Siebdruck als Sakrileg

Spulen wir vor in die 1960er Jahre. Andy Warhol, ein ehemaliger Werbegrafiker aus Pittsburgh, stellt Bilder aus, die nicht gemalt, sondern gedruckt sind. Siebdrucke. Serielle Reproduktionen von Alltagsobjekten und Medienbildern. Die Kunstwelt ist gespalten. Hilton Kramer, der einflussreiche Kritiker der New York Times, bezeichnet Pop Art als „barbarisch“. Andere sehen darin nichts als eine Verherrlichung des Banalen, eine Verweigerung des Handwerks, eine Beleidigung der „echten“ Kunst.

Warhol hatte nicht gemalt. Er hatte gedruckt. Er hatte nicht erfunden. Er hatte zitiert. Er hatte nicht im traditionellen Sinne geschaffen. Er hatte ausgewählt. Und genau darin lag seine Revolution.

Der Algorithmus als Anmaßung

Heute stehen wir vor dem nächsten Paradigmenwechsel. Die Vorwürfe folgen dem immer gleichen Skript: „Das ist keine Kunst, weil die Maschine alles macht.“ „Das ist keine Kunst, weil es kein Handwerk erfordert.“ „Das ist keine Kunst, weil jeder es kann.“

Jedes einzelne dieser Argumente wurde bereits gegen die Fotografie, gegen den Siebdruck, gegen die Konzeptkunst, gegen die digitale Kunst vorgebracht. Und jedes Mal hat die Kunstwelt die neue Technik letztlich absorbiert und ist daran gewachsen. Die Geschichte der Kunst ist eine Geschichte der Werkzeugwechsel – und die Werkzeuge haben sich immer schneller verändert als die Bereitschaft, sie zu akzeptieren.


Teil 2: Warhols Factory und die Serverfarmen von heute

Die Revolution der Serialität

Um zu verstehen, warum ich argumentieren würde, dass KI-Kunst die logische Fortführung des Pop Art ist, müssen wir verstehen, was Pop Art eigentlich war. Nicht als Ästhetik, sondern als Konzept.

Vor dem Pop Art dominierte der Abstrakte Expressionismus. Jackson Pollock, Mark Rothko, Willem de Kooning – sie verkörperten das romantische Ideal des einsamen Genies. Der Pinselstrich war Ausdruck der Seele, das Werk sakrosankt in seiner Einzigartigkeit.

Dann kam Warhol und stellte alles auf den Kopf. Seine „Factory“ war kein Atelier im klassischen Sinne, sondern eine Produktionsstätte. Er beschäftigte Assistenten, die seine Siebdrucke anfertigten. Er benutzte mechanische Reproduktionsverfahren aus der Werbeindustrie. Er sagte Dinge wie „Ich möchte eine Maschine sein“ und arbeitete bewusst mit industrieller Ästhetik, Wiederholung und Serialität. Das Andy Warhol Museum dokumentiert diese Arbeitsweise umfassend – sie ist kunsthistorisch unstrittig.

Dass Warhol mit Reproduktion, Serialität und Assistenzsystemen arbeitete, ist kein interpretatives Wagnis. Es ist Fakt. Und es bildet das solide Fundament für einen Vergleich mit heutigen KI-Workflows.

Warhol und der Computer

Was viele nicht wissen: Warhol experimentierte tatsächlich mit Computerkunst. Das ist keine nachträgliche Zuschreibung, sondern dokumentierte Realität. Der Andy-Warhol-Museum-und-Carnegie-Mellon-Komplex bestätigt, dass 2014 digitale Arbeiten von alten Amiga-Disketten ausgelesen wurden – Warhol hatte in den 1980er Jahren real mit dem Commodore Amiga gearbeitet und digitale Porträts erstellt, darunter eines von Debbie Harry.

Warhol war kein Technophober, der nostalgisch am Ölgemälde festhielt. Er war ein Künstler, der jedes neue Werkzeug als Chance begriffen hat.

Würde Warhol heute prompten?

Und hier wird es spekulativ – aber es ist eine Spekulation, die auf starken Indizien beruht. Vieles spricht dafür, dass Warhol mit generativer KI experimentiert hätte. Seine Arbeit mit Siebdruck, Serialität, Assistenzsystemen und später dem Amiga passt erstaunlich gut zu heutigen Prompt- und Kurationsprozessen. Ein Künstler, der sagte, er wolle eine Maschine sein, hätte die ultimative Maschine der Bildproduktion kaum ignoriert.

Man stelle sich nur vor: endlose Variationen von Marilyn, generiert durch verschiedene Prompts, in verschiedenen Stilen, mit verschiedenen Parametern. Ein Ozean an Bildern, aus dem er die stärksten fischen würde. Das wäre nicht das Ende seiner Kunst gewesen, sondern ihre konsequente Weiterentwicklung.

Ich sage bewusst nicht „mit absoluter Sicherheit“. Niemand kann für einen Toten sprechen. Aber die Indizien sind so stark, dass die Gegenthese – Warhol hätte KI-Tools verschmäht – deutlich schwerer zu begründen wäre.


Teil 3: Vom Ready-made zum Data-made – Die konzeptuelle Linie

Duchamps Urinal und die Logik des Prompts

Marcel Duchamp reichte 1917 ein industriell gefertigtes Urinal als Kunstwerk ein und nannte es Fountain. Sein Ready-made war eine radikale Verschiebung: Nicht die Herstellung macht das Kunstwerk aus, sondern die Auswahl, die Kontextualisierung, die intendierte Bedeutung. Ein Objekt aus der realen Welt wurde durch den Akt der Benennung und Präsentation zur Kunst.

Prompting erinnert in seiner Konzeptlogik eher an Ready-made- und Konzeptkunst, als es an traditionelle Ateliermalerei erinnert. Der Künstler durchforstet nicht Flohmärkte nach Fundstücken, sondern Latenzräume nach visuellen Möglichkeiten. Er nimmt existierende visuelle Sprachen auf, dekontextualisiert sie und setzt sie in neue Beziehungen zueinander.

Wenn ein Künstler promptet: „Ein Renaissance-Gemälde einer Astronautin, die auf dem Mars betet, dramatisches Chiaroscuro“, dann vollzieht er einen Akt der kulturellen Verschiebung. Er kombiniert Bekanntes (Renaissance, Chiaroscuro) mit Neuem (Mars, Astronautin, weibliche Perspektive in einem historisch männlichen Genre). Das Ergebnis existierte vorher nicht.

Das ist keine Gleichsetzung im strengen wissenschaftlichen Sinn – Duchamps Ready-made, LeWitts Instruktionen und heutiges Prompting sind verschiedene Praktiken mit verschiedenen Kontexten. Aber die konzeptuelle Verwandtschaft ist unübersehbar.

Sol LeWitts Brücke

Sol LeWitt schrieb 1967 in seinen berühmten Paragraphs on Conceptual Art, dass Planung und Entscheidungen vorab getroffen werden und die Ausführung fast zur Formsache wird. Er gab textuelle Anweisungen, die andere ausführten. Seine Wandzeichnungen wurden von Assistenten realisiert, nach seinen Instruktionen. LeWitt war der Konzeptgeber, nicht der Ausführende.

Die Parallele zum Prompt-Künstler ist frappierend: Auch er gibt eine textuelle Anweisung, die ein anderes System – sei es ein Mensch oder ein Algorithmus – in ein visuelles Ergebnis übersetzt. Die Autorschaft liegt beim Konzept, nicht bei der Ausführung. Ob man diese Parallele als strukturelle Identität oder als produktive Analogie liest, ist eine Frage der theoretischen Schärfe, die man gern diskutieren kann.


Teil 4: Die Demokratisierung – Kunst für alle, nicht nur für Absolventen

Ein zentrales Anliegen des Pop Art war die Demokratisierung der Kunst. Weg vom elitären Museum, hin zum Supermarkt, zur Werbetafel, zum Massenmedium. Kunst sollte für alle zugänglich sein.

Die Barrieren fallen

Synthographie verwirklicht dieses Versprechen in einer Radikalität, die selbst Warhol überrascht hätte. Zum ersten Mal in der Geschichte kann buchstäblich jeder mit Zugang zu einem Computer und dem Internet visuell hochwertige Bilder erschaffen. Ein Teenager in Manila kann Welten generieren, die vor zwanzig Jahren Millionenbudgets erfordert hätten.

Das ist keine Trivialität. Das ist eine emanzipatorische Verschiebung.

Natürlich bedeutet Demokratisierung auch, dass viel Durchschnittliches entsteht. Aber das war schon immer so. Die Erfindung des Buchdrucks führte nicht nur zu Shakespeare und Luther, sondern auch zu Millionen vergessener Pamphlete. Die Demokratisierung senkt die Schwelle – und aus der breiteren Basis können Ausnahmen entstehen, die sonst nie eine Chance gehabt hätten.

Die Kritik der Privilegierten

Die Kritik an der „Flut“ von KI-Bildern kommt, wenn man ehrlich ist, oft aus einer Position des Privilegs. Es sind jene Künstler, die jahrelang studiert, teure Ausrüstung erworben und sich Zugang zu Galerien erarbeitet haben. Ihre Angst ist verständlich – jede Demokratisierung bedroht bestehende Hierarchien.

Aber sie ist auch historisch kurzsichtig. Als die Fotografie aufkam, fürchteten Porträtmaler um ihre Existenz. Viele verloren tatsächlich Aufträge. Aber die Malerei als Ganzes überlebte nicht nur – sie wurde freier. Befreit von der Pflicht zur naturgetreuen Abbildung, konnte sie sich dem Expressionismus, dem Kubismus, der Abstraktion zuwenden.

Kunsthistorisch betrachtet hat technische Innovation die Kunst nie zerstört. Sie hat sie jedes Mal transformiert und letztlich bereichert.


Teil 5: Die Copyright-Debatte – Komplexer als die Empörung

Und nun zum emotionalsten Punkt. Dem Vorwurf des „Bilderklaus“. Er wird leidenschaftlich vorgetragen, oft mit echtem Schmerz und berechtigter Existenzangst. Und er verdient eine ehrliche, differenzierte Antwort – keine, die ihn wegwischt, aber auch keine, die ihn unkritisch übernimmt.

Wie neuronale Netze tatsächlich funktionieren

Das grundlegendste Missverständnis betrifft die Funktionsweise der KI. Viele Menschen stellen sich vor, ein Modell wie Stable Diffusion speichere Bilder und setze sie bei Bedarf wie eine Collage zusammen. Diese Vorstellung ist technisch nicht korrekt.

Generative Modelle arbeiten mit Mustererkennung. Sie analysieren Millionen von Bildern und extrahieren daraus abstrakte Beziehungen: Wie verhält sich Licht auf verschiedenen Oberflächen? Welche Farbpaletten charakterisieren bestimmte Epochen? Wie sind Proportionen aufgebaut? Diese Muster werden als mathematische Gewichtungen in einem hochdimensionalen Raum gespeichert – nicht als Pixel, nicht als Bildfragmente, nicht als Kopien.

Technisch erzeugen generative Modelle in der Regel keine einfache Pixel-Collage aus gespeicherten Bildschnipseln. Aber – und hier muss man ehrlich sein – juristisch ist weiterhin offen, wo genau zwischen statistischem Lernen, möglicher Reproduktion und marktrelevanter Nutzung die Grenzen verlaufen. Genau deshalb laufen weiterhin wichtige Verfahren gegen KI-Anbieter, darunter Andersen v. Stability AI und Getty Images v. Stability AI. Der U.S. Copyright Office Report zu Generative AI Training von 2025 beschreibt die Debatte ausdrücklich als komplex und nicht abschließend geklärt.

Die Analogie zum menschlichen Lernen – und ihre Grenzen

Man kann argumentieren, dass maschinelles Lernen in seiner Musterorientierung gewisse Parallelen zum menschlichen künstlerischen Lernen aufweist. Ein menschlicher Künstler studiert jahrelang die Werke anderer, geht in Museen, analysiert Techniken, imitiert Stile. All diese Einflüsse fließen in sein eigenes Werk ein – transformiert, synthetisiert, neu kombiniert. Niemand würde sagen, ein Maler „klaut“ von Rembrandt, weil er dessen Chiaroscuro-Technik studiert hat.

Ob der Unterschied zwischen menschlichem und maschinellem Lernen eher quantitativ oder qualitativ ist, bleibt jedoch eine offene philosophische und rechtliche Streitfrage. Die KI lernt schneller und aus mehr Material – aber ob der Prozess „strukturell identisch“ ist, wie manche behaupten, oder ob es fundamentale Unterschiede gibt, darüber streiten Philosophen, Juristen und Kognitionswissenschaftler gleichermaßen. Diesen Streit kann ein Blogbeitrag nicht entscheiden, und er sollte es auch nicht versuchen.

Stil ist urheberrechtlich kaum greifbar

Ein stärker belegbarer Punkt: Stil lässt sich urheberrechtlich nur sehr begrenzt schützen. Der U.S. Copyright Office lehnt in seinem Bericht zusätzlichen Schutz für „artistic style“ ausdrücklich ab. Das Urheberrecht schützt konkrete Werke, nicht abstrakte Stile. Wenn eine KI ein Bild „im Stil von“ generiert, verletzt sie keine Urheberrechte – solange das Ergebnis kein konkretes, geschütztes Werk reproduziert.

Es gibt einen gewaltigen Unterschied zwischen „Die KI hat ein spezifisches Gemälde kopiert“ und „Die KI hat ein Bild generiert, das impressionistische Stilelemente aufweist“. Das erste wäre problematisch. Das zweite ist legitime kulturelle Referenzialität.

Der Warhol/Goldsmith-Fall – Eine wichtige Lektion

Ironischerweise war gerade Warhol selbst in Copyright-Dispute verwickelt. Sein berühmtes Orange-Prince-Porträt basierte auf einem Foto von Lynn Goldsmith. Der Fall ging bis zum Supreme Court.

Und hier ist Vorsicht geboten, denn das Urteil wird oft falsch zitiert. Der Supreme Court hat 2023 im Fall Andy Warhol Foundation v. Goldsmith gerade nicht ein großzügiges Transformationsprinzip bestätigt. Im Gegenteil: Er hat entschieden, dass künstlerische Transformation urheberrechtlich nicht automatisch genügt – jedenfalls dann nicht, wenn die spätere Nutzung kommerziell erfolgt und einem ähnlichen Zweck dient wie das Ausgangswerk. Das Urteil war eher eine Bremse für zu weite Fair-Use-Argumente.

Das ist wichtig für die Synthographie-Debatte, denn es zeigt: Auch die Berufung auf „Transformation“ hat Grenzen. Ein KI-generiertes Bild, das einem konkreten Werk zu nahe kommt und für denselben Marktzweck genutzt wird, könnte durchaus rechtliche Probleme aufwerfen. Die Tatsache, dass ein Algorithmus dazwischensteht, macht nicht automatisch alles legal.

Die Frage der Trainingsdaten

Ja, KI-Modelle werden auf großen Datensätzen trainiert, die Bilder aus dem Internet enthalten. Und ja, nicht alle diese Bilder wurden mit der expliziten Zustimmung ihrer Urheber verwendet. Das ist eine berechtigte regulatorische Frage.

Manche verweisen darauf, dass Suchmaschinen und Empfehlungsalgorithmen schon lange mit massenhafter Mustererkennung arbeiten. Dieser Hinweis zeigt, dass das Prinzip der datenbasierten Musteranalyse nicht neu ist. Aber er ersetzt nicht die eigenständige juristische Prüfung generativer KI-Modelle, weil Training und Bildsynthese andere Fragen aufwerfen als bloße Indexierung. Der USCO-Bericht behandelt generative AI Training ausdrücklich als eigenen Problemkomplex.

Originalität – eine differenzierte Frage

Sind KI-Bilder „original“? Viele KI-Bilder sind zweifellos neuartige Outputs – sie sind nicht identisch mit Trainingsbildern und existierten vorher nicht. Ob und in welchem Umfang sie auch urheberrechtlich als menschlich-autorisierte Originalwerke gelten, hängt nach aktueller US-Position entscheidend vom menschlichen kreativen Beitrag ab. Der U.S. Copyright Office Report von 2025 stellt klar: Bloßes Prompting reicht nicht automatisch für urheberrechtlichen Schutz. Es braucht ausreichende menschliche Autorschaft.

Das heißt: Wer nur „cute cat“ eingibt und auf Generate klickt, hat möglicherweise keinen urheberrechtlichen Anspruch auf das Ergebnis. Wer aber stundenlang iteriert, retuschiert, kombiniert, konzeptualisiert und kuratiert, erbringt einen kreativen Beitrag, der zunehmend anerkannt wird.

Die zwei verschiedenen Fragen

Und hier liegt der Schlüssel zu einem ehrlichen Umgang mit dem Thema: Die künstlerische Legitimität von KI-Bildern und die urheberrechtliche Bewertung des Trainings sind zwei verschiedene Fragen. Über die zweite wird weltweit weiter gestritten – in Berichten, Gerichten und Gesetzgebungsprozessen. Die erste lässt sich trotzdem bejahen.

Ein Pianist, der auf einem gestohlenen Klavier spielt, macht trotzdem Musik. Das Verbrechen liegt im Diebstahl des Klaviers, nicht in der Musik selbst. Ob das Klavier gestohlen ist, muss geklärt werden. Aber die Frage „Ist das, was er spielt, Musik?“ ist davon unabhängig.


Teil 6: Was ist Kunst? – Die Frage, die nie beantwortet wird

Die institutionelle Perspektive

George Dickie formulierte in den 1970er Jahren die institutionelle Theorie der Kunst: Ein Objekt wird zum Kunstwerk, wenn es von der „Kunstwelt“ als solches behandelt wird. Nach dieser Theorie ist KI-Kunst bereits Kunst, denn sie wird in Galerien ausgestellt, auf Auktionen verkauft und in Wettbewerben prämiert.

Und das ist kein hypothetisches Szenario. Christie’s hat 2025 eine eigene Auktion unter dem Titel Augmented Intelligence veranstaltet. Jason Allens Théâtre D’opéra Spatial gewann 2022 die Colorado State Fair in der Kategorie „Digital Arts/Digitally-Manipulated Photography“. KI-Kunst ist institutionell angekommen – ob man das begrüßt oder bedauert.

Die expressionistische Perspektive

Nach der expressionistischen Theorie ist Kunst der Ausdruck von Emotionen. KI-Kunst drückt die Emotionen und Intentionen des Prompt-Künstlers aus – vermittelt durch ein technisches Medium, aber nicht weniger authentisch als Emotionen, die durch einen Pinsel vermittelt werden. Zumindest lässt sich das argumentieren.

Die funktionale Perspektive

Nach Nelson Goodmans funktionaler Theorie ist Kunst das, was ästhetische Erfahrungen ermöglicht. Wer vor einem gelungenen KI-Bild steht und etwas empfindet – Staunen, Irritation, Nachdenklichkeit –, hat bereits den funktionalen Beweis erbracht.

Die pragmatische Perspektive

Pragmatisch betrachtet ist die Frage „Ist KI-Kunst Kunst?“ ohnehin bereits beantwortet. Sie wird als Kunst produziert, rezipiert, diskutiert und gehandelt. Die akademische Debatte hinkt der Praxis hinterher – wie so oft.


Teil 7: Autorschaft ohne Pinsel – Das Ende des Genie-Mythos

Eine romantische Fiktion

Die größte Hürde für die Akzeptanz von KI-Kunst ist das Konzept des autonomen Genies. Dieses Bild – der einsame Künstler, der in seinem Dachkammeratelier leidet und aus der Tiefe seiner Seele Meisterwerke hervorbringt – ist historisch eine Ausnahmeerscheinung des 19. Jahrhunderts.

Die meiste Kunstgeschichte war kollektiv. Michelangelo hatte ein Team, Rubens eine Werkstatt, Rembrandt Schüler. Warhol hatte seine Factory. Die Idee, der Künstler müsse jeden Pinselstrich selbst setzen, ist eine moderne Fiktion.

Der Prompt als kreativer Akt

Kritiker behaupten, „einen Prompt zu schreiben“ sei keine kreative Leistung. Das zeigt vor allem, dass sie noch nie ernsthaft mit einem KI-Bildgenerator gearbeitet haben.

Ein guter Prompt ist ein komplexes Dokument. Er beschreibt Motiv, Stil, Stimmung, Lichtverhältnisse, Perspektive, Farbpalette, technische Spezifikationen und kulturelle Referenzen. Er ist das Ergebnis von Stunden der Iteration. Der Künstler schreibt, evaluiert, variiert, testet, kombiniert mit Techniken wie Inpainting, Outpainting, ControlNet oder Image-to-Image, bis das Ergebnis seiner Vision entspricht.

Das ist kein Knopfdrücken. Das ist ein kreativer Prozess, der Wissen, Erfahrung, ästhetisches Urteilsvermögen und technische Kompetenz erfordert. Es ist ein anderer kreativer Prozess als Malerei – aber es ist einer.


Teil 8: Die Aura im algorithmischen Zeitalter

Walter Benjamin analysierte 1935 in seinem epochalen Essay Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, wie mechanische Reproduktion die „Aura“ des Kunstwerks verändert. Benjamin war kein Nostalgiker – er sah darin eine emanzipatorische Chance.

Die neue Aura des Prozesses

Synthographie radikalisiert diesen Prozess. Ein digitales Bild hat keine physische Einzigartigkeit. Es existiert als Code, unendlich multiplizierbar.

Doch in einer anderen Perspektive schafft die Synthographie eine neue Form der Aura. Nicht die Aura des Objekts, sondern die Aura des Prozesses. Der spezifische Prompt, die Kombination aus Parametern, die Serie von Iterationen – das ist in seiner Gesamtheit einmalig. Zwei Künstler, die denselben Prompt eingeben, erhalten verschiedene Ergebnisse. Und selbst bei identischen Outputs wären die künstlerische Intention und der Kontext verschieden.

Man kann das lesen als eine Verlagerung der Aura vom Werk auf den Werkprozess, vom Artefakt auf das Konzept.

Die Ästhetik des Unheimlichen

Synthographie hat eine eigene Ästhetik entwickelt. Es ist eine Ästhetik des Unheimlichen – im Freudschen Sinne: vertraut und fremd zugleich. KI-Bilder zeigen Welten, die fast real aussehen, aber nicht ganz. Gesichter, die beinahe menschlich sind. Landschaften, die wie Erinnerungen an Orte wirken, die nie existiert haben.

Diese Ästhetik erinnert an Strategien des Pop Art: die überzeichneten Ben-Day-Dots bei Lichtenstein, die das Fotografische im Malerischen sichtbar machen, oder Warhols wiederholte Gesichter, die durch Serialität zur Abstraktion werden. Beide Strategien – Pop Art und Synthographie – machen den Bildprozess selbst zum Thema. Sie zeigen uns, dass alle Bilder Konstrukte sind.


Teil 9: KI-Kunst ist bereits Realität – Die institutionellen Fakten

Es ist wichtig, neben der Theorie auch die Fakten zu benennen. KI-Kunst ist nicht mehr ein Zukunftsszenario, sondern gegenwärtige Praxis.

Christie’s, eines der renommiertesten Auktionshäuser der Welt, hat 2025 mit Augmented Intelligence eine eigene Auktion für KI-bezogene Kunst veranstaltet. Das ist kein Underground-Phänomen, das ist der etablierte Kunstmarkt.

Jason Allens Théâtre D’opéra Spatial, erstellt mit Midjourney und anschließend bearbeitet, gewann 2022 in der Kategorie „Digital Arts“ der Colorado State Fair. Die Kontroverse war enorm – aber das Werk wurde prämiert, nicht disqualifiziert.

Museen weltweit zeigen KI-generierte Arbeiten. Kunsthochschulen diskutieren den Einsatz von KI-Tools. Kreativagenturen integrieren sie in ihre Workflows. Die Frage ist nicht mehr, ob KI-Kunst Teil der Kunstwelt wird, sondern wie.


Teil 10: Was ich nicht behaupte – Ehrlichkeit als Stärke

Ein guter Essay zeichnet sich nicht nur durch seine Argumente aus, sondern auch durch die Transparenz über seine Grenzen. Deshalb hier explizit:

Ich behaupte nicht, dass die Copyright-Frage geklärt ist. Sie ist es nicht. Training auf urheberrechtlich geschützten Werken ist ein offener, umkämpfter Rechtsbereich, in dem wichtige Verfahren laufen und Legislative weltweit an Regelungen arbeiten.

Ich behaupte nicht, dass maschinelles und menschliches Lernen „dasselbe“ sind. Die Analogie ist produktiv, aber sie hat Grenzen, und seriöse Wissenschaftler streiten darüber.

Ich behaupte nicht, dass jedes KI-generierte Bild automatisch Kunst ist. Genauso wenig wie jedes Foto Kunst ist oder jedes Ölgemälde. Es kommt auf Intention, Kontext, Auswahl und Konzept an.

Ich behaupte nicht, dass traditionelle Künstler keine berechtigten Sorgen haben. Die Disruption ist real, die ökonomischen Auswirkungen sind spürbar, und die Branche braucht faire Regelungen.

Was ich behaupte, ist Folgendes: Kunsthistorisch betrachtet steht Synthographie in einer klaren Traditionslinie. Sie ist verwandt mit dem Pop Art in ihrer Demokratisierung, mit der Konzeptkunst in ihrer Verlagerung von Handwerk auf Idee, mit dem Ready-made in ihrer Neukontextualisierung existierender visueller Sprachen. Und sie verdient es, nach denselben Kriterien beurteilt zu werden wie jede andere Kunstform – nach ihrer besten Praxis, nicht nach ihrem schlechtesten Output.


Fazit: Die natürliche Evolution – vorsichtig formuliert, aber klar

Synthographie ist, kunsthistorisch gelesen, die konsequente Fortführung jener Kraftlinien, die im 20. Jahrhundert mit Duchamps Ready-mades und Warhols Factory begannen. Sie radikalisiert die Demokratisierung der Bildproduktion. Sie entkoppelt handwerkliches Können von künstlerischer Vision. Sie überführt die technische Reproduzierbarkeit ins Algorithmische.

Sie ist Kunst, weil sie Fragen stellt: über Autorschaft, über Original und Kopie, über menschliche und maschinelle Kreativität, über die Natur des Bildes in einer Welt der totalen Simulierbarkeit. Ob man ihre Antworten mag, ist eine andere Frage. Aber dass sie die richtigen Fragen stellt – das kann man ihr kaum absprechen.

Die Angst vor der KI-Kunst ist die Angst vor der eigenen Entbehrlichkeit. Aber diese Angst ist historisch nicht bestätigt worden. Die Fotografie hat die Malerei nicht getötet. Der Siebdruck hat die seriöse Kunst nicht beendet. Die digitale Bildbearbeitung hat die analoge Fotografie nicht ausgelöscht. Jedes neue Werkzeug hat den Raum erweitert, nicht verengt.

Andy Warhol sagte einmal: „In der Zukunft wird jeder für fünfzehn Minuten weltberühmt sein.“ Vielleicht müsste man das für das Zeitalter der Synthographie ergänzen: In der Zukunft wird jeder die Möglichkeit haben, ein Bild zu erschaffen, das die Welt bewegt. Nicht, weil er einen Pinsel halten kann, sondern weil er eine Idee hat.

Das ist nicht das Ende der Kunst. Es ist ihr nächstes Kapitel. Ob es ein gutes wird, liegt nicht am Algorithmus. Es liegt an uns.


Quellen und weiterführende Referenzen

  • The Andy Warhol Museum: Warhol and the Amiga. warhol.org
  • Barnes Foundation: From Today, Painting Is Dead: Early Photography. barnesfoundation.org
  • Christie’s: Augmented Intelligence. press.christies.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 1: Digital Replicas. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 2: Copyrightability. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 3: Generative AI Training. copyright.gov
  • Supreme Court of the United States: Andy Warhol Foundation for Visual Arts, Inc. v. Goldsmith (2023). supremecourt.gov
  • Sol LeWitt: Paragraphs on Conceptual Art (1967). mma.pages.tufts.edu
  • Essay-Quelle: „Vom Siebdruck zum Prompt: Warum Synthographie die legitime Tochter des Pop Art ist“ – ein kunsttheoretischer Essay zur Einordnung der Synthographie, der als Ausgangspunkt und Referenz für die hier entwickelten Argumente dient.

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Was aus dem Unternehmen geworden ist, das einst die kreative Welt erfunden hat – und ob der KI-Kurs Geniestreich oder Identitätskrise ist.


Ein Blogbeitrag von BROWNZ.ART


Prolog: Ein seltsames Gefühl

Ich habe kürzlich die Release Notes der letzten vier großen Photoshop-Updates nebeneinandergelegt. Nicht weil ich es musste. Sondern weil ich ein Gefühl überprüfen wollte. Ein Gefühl, das sich seit ungefähr zwei Jahren aufbaut und das ich lange nicht greifen konnte. Ein leises Unbehagen, das irgendwo zwischen Begeisterung und Enttäuschung sitzt.

Und als ich die Release Notes nebeneinander sah, wurde das Gefühl greifbar.

Adobes öffentliche Erzählung der letzten zwei Jahre wird auffallend stark von KI- und Firefly-Funktionen dominiert. Generative Fill. Generative Expand. KI-gestützte Auswahlen. Neuronale Filter. KI-Entrauschen. Generative Referenz. Remove Tool mit KI. Firefly Image Model 3, 4, was auch immer als nächstes kommt. Jede Keynote handelt von KI. Jede Pressemitteilung handelt von KI. Jede Marketing-Kampagne handelt von KI.

Und plötzlich hatte ich eine Frage im Kopf, die sich nicht mehr abschütteln ließ:

Wo ist eigentlich der Rest geblieben?

Nicht in der Software selbst – denn wenn man genau hinschaut, gibt es durchaus klassische Verbesserungen. Photoshop hat OpenColorIO und 32-Bit-HDR-Workflows bekommen, Dynamic Text, AVIF- und JPEG-XL-Support, Variable Fonts im Font-Browser, Clarity und Dehaze als non-destruktive Adjustment Layers, sogar Grain als eigene Einstellungsebene. Lightroom Classic hat PSB-Support in der Photoshop-Übergabe und im Export bekommen, verbesserte Embedded Previews vor dem Import, Tethering-Erweiterungen und optimierte Sidecar Writes.

Das sind reale, substanzielle Verbesserungen. Keine davon hat „KI“ im Namen. Und keine davon hat es auf die große Bühne geschafft.

Denn dort – in den Keynotes, in den Pressemitteilungen, in den Marketing-Kampagnen, in den Schlagzeilen – dominiert ausschließlich die KI-Story. Und genau das ist der Punkt, der mich nachdenklich macht. Nicht dass Adobe KI baut. Sondern dass Adobe seine gesamte Innovations-Erzählung darauf verengt – und damit den Rest unsichtbar macht.

Die Frage ist also nicht: Macht Adobe nur noch KI? Das stimmt faktisch nicht. Die Frage ist: Warum erzählt Adobe so, als würde es nur noch KI machen? Und was macht das mit dem Unternehmen, mit den Produkten und mit uns als Nutzern?


Kapitel 1: Was Adobe früher anders gemacht hat – und warum das wichtig ist

Um zu verstehen, was sich verändert hat, muss man verstehen, wo Adobe herkommt. Nicht als Börsenunternehmen. Nicht als Abo-Modell. Sondern als kreatives Unternehmen, das Werkzeuge für kreative Menschen baut.

Photoshop war, als es in den frühen Neunzigern die Bühne betrat, nicht einfach eine Software. Es war eine neue Grammatik des Visuellen. Es hat nicht nur bestehende Prozesse digitalisiert – es hat NEUE Prozesse ermöglicht, die vorher nicht existierten. Ebenen. Masken. Kanäle. Pfade. Einstellungsebenen. Smart Objects. Jedes dieser Konzepte war, als es eingeführt wurde, eine echte Innovation. Nicht im Marketing-Sinne von „Wir haben einen Button umbenannt und nennen es Innovation“. Sondern im fundamentalen Sinne von: Das hat es vorher nicht gegeben, und es verändert die Art, wie Menschen über Bilder nachdenken.

Lightroom hat dasselbe für den fotografischen Workflow getan. Vor Lightroom war die RAW-Entwicklung ein fragmentierter Prozess. Lightroom hat Katalogisierung, Entwicklung und Ausgabe vereint und ein non-destruktives Arbeitskonzept etabliert, das bis heute den Standard definiert.

InDesign hat QuarkXPress abgelöst, nicht weil es billiger war, sondern weil es konzeptionell überlegen war. After Effects hat Motion Graphics demokratisiert. Illustrator hat Vektorgrafik für eine ganze Branche zugänglich gemacht.

Das waren keine KI-Features. Das waren Werkzeug-Innovationen. Durchdachte Lösungen für reale Probleme, die die kreative Arbeit auf einer strukturellen Ebene verbessert haben.

Und hier liegt der Kern meines Unbehagens: Mir fällt in den letzten zwei, drei Jahren kaum ein Adobe-Feature ein, das sich für mich so grundlegend anfühlt wie einst Ebenen, Smart Objects oder der non-destruktive Lightroom-Workflow. Es gibt Verbesserungen – teils gute, teils sehr gute. OpenColorIO für HDR ist ein echtes Upgrade für Profis, die in diesem Bereich arbeiten. Die neuen non-destruktiven Clarity- und Grain-Adjustment-Layers sind willkommen. PSB-Support in Lightroom Classic löst ein Problem, das lange genervt hat.

Aber nur wenige dieser Neuerungen fühlen sich wie ein neuer Denkraum an. Wie ein Konzept, das verändert, wie du über Bildbearbeitung nachdenkst. Und das ist – ich sage das als subjektive Bewertung eines Praktikers, nicht als objektives Urteil – ein Unterschied, den ich spüre.


Kapitel 2: Die KI-Features im Realitätscheck

Bevor mir jemand vorwirft, ich würde die KI-Features pauschal schlecht reden: Das tue ich nicht. Ich nutze sie. Jeden Tag. Und einige davon haben meinen Workflow tatsächlich fundamental verbessert.

Was genuinely großartig ist:

Das KI-Entrauschen in Lightroom ist ein Gamechanger. Die Ergebnisse bei High-ISO-Aufnahmen sind spektakulär und haben ein separates Plugin im Wert von 80 Euro überflüssig gemacht. Adobe dokumentiert kontinuierliche Qualitätsverbesserungen bei diesem Workflow. Das ist Innovation, die reale Probleme löst.

Die KI-gestützten Auswahlen – Motiv auswählen, Himmel auswählen, Objektauswahl mit Hover-Erkennung – haben die Freistellung von Motiven von einer Dreißig-Minuten-Aufgabe zu einer Dreißig-Sekunden-Aufgabe gemacht. Nicht perfekt. Nicht in jedem Fall. Aber in der Mehrheit der Fälle gut genug als Startpunkt. Ein realer, messbarer Produktivitätsgewinn.

Das Remove Tool erledigt 80 Prozent aller Objekt-Entfernungen brillant. Die restlichen 20 Prozent brauchen Handarbeit. Insgesamt eine deutliche Verbesserung gegenüber dem klassischen Kopierstempel.

Die KI-Maskierung in Lightroom hat meinen Workflow fundamental verändert. Ich mache Dinge direkt in Lightroom, für die ich früher zu Photoshop wechseln musste.

Was weniger überzeugend ist:

Generative Fill ist beeindruckend als Demo. Im täglichen Workflow ist es ein Startpunkt, kein Endprodukt. Ergebnisse oft inkonsistent, manchmal mit erkennbarem KI-Look, fast immer mit Bedarf an manueller Nacharbeit. Gutes Werkzeug. Keine Magie. Trotz Marketing, das Magie suggeriert.

Generative Expand funktioniert bei einfachen Szenen. Bei komplexen Kompositionen erzeugt es häufig Inkonsistenzen und Perspektivfehler. Gut für schnelle Social-Media-Erweiterungen. Nicht verlässlich genug für professionelle Druckproduktion.

Die neuronalen Filter – manche funktionieren, manche sind seit Jahren in der Beta und fühlen sich immer noch experimentell an.

Firefly als Bildgenerator – und hier muss ich sauber bleiben: Firefly wirkt für mich ästhetisch oft solider als spektakulär. Adobe bewirbt Firefly Image Model 4 als großen Qualitäts- und Realismus-Sprung, und die Ergebnisse sind tatsächlich besser geworden. Aber Adobes eigentliche Differenzierung liegt für mich weniger in einer unangefochtenen ästhetischen Marktführerschaft als vielmehr in der kommerziellen Absicherung, der nahtlosen Integration in die Creative Cloud und – das ist zunehmend relevant – in der Öffnung für Partner-Modelle.

Denn Adobe positioniert Firefly inzwischen nicht mehr nur als eigenes Modell, sondern als Plattform, die Modelle von Google, OpenAI, Runway und Kling integriert. Das ist eine strategisch kluge Entscheidung. Und möglicherweise die eigentliche Innovation: nicht das beste Modell zu haben, sondern die beste Plattform, die alle Modelle integriert.

Und hier zeigt sich ein Muster: Die wirklich starken KI-Features sind die, die bestehende Aufgaben beschleunigen – Entrauschen, Auswählen, Entfernen. Die weniger überzeugenden sind die, die neue Inhalte generieren – Füllen, Erweitern, Bilder erzeugen. Adobe ist besser im Optimieren als im Kreieren. Das ist keine Schande. Aber es ist eine Unterscheidung, die in der Marketing-Kommunikation verwischt wird.


Kapitel 3: Die strategische Frage – Innovation oder Imitation?

Ist Adobes KI-Kurs eigenständige Innovation – oder die Reaktion eines Konzerns, der einem Trend hinterherläuft?

Um diese Frage fair zu beantworten, muss man Adobes Situation verstehen. Und die ist genuinely schwierig.

Adobe steckt im klassischen Innovator’s Dilemma. Die Technologie, die das eigene Geschäftsmodell bedroht – generative KI, die Bilder, Designs und Layouts ohne Photoshop, Illustrator oder InDesign erstellen kann – muss gleichzeitig ins eigene Produkt integriert werden, um relevant zu bleiben.

Aus dieser Perspektive ist Adobes KI-Strategie nachvollziehbar. Wenn Midjourney, Runway, Canva und Dutzende von KI-Startups Features anbieten, die immer mehr kreative Aufgaben automatisieren, kann Adobe nicht danebenstehen. Der Zug fährt. Adobe muss aufspringen.

Und Adobe ist aufgesprungen. Aggressiv. Mit Firefly, mit der Integration generativer Features in jedes Produkt, mit der Öffnung für Drittanbieter-Modelle, mit dem klaren Bekenntnis: KI ist die Zukunft.

Aber – und das ist das große Aber – es gibt einen Unterschied zwischen „KI integrieren, weil es die Produkte besser macht“ und „KI als zentrale Markenidentität pushen, weil der Markt und die Aktionäre es hören wollen“.

Und ich bin mir nicht immer sicher, auf welcher Seite Adobe steht.

Denn wenn jede Keynote von KI dominiert wird, dann signalisiert das intern und extern eine klare Priorität. Und wenn Features wie OpenColorIO, HDR-Workflows, Dynamic Text, neue Dateiformatunterstützung und non-destruktive Adjustment Layers in der Kommunikation zu Fußnoten degradiert werden – dann sendet das eine Botschaft. An die Entwickler. An die Nutzer. An den Markt.

Die Botschaft lautet: KI ist das, was zählt. Der Rest ist Pflichtprogramm.

Und diese Verschiebung der Erzählung hat reale Konsequenzen. Für die Wahrnehmung. Für die Erwartungen. Und möglicherweise auch für die Frage, wie intern Ressourcen verteilt werden.

Ich gebe dir ein Beispiel. Photoshops Ebenenbedienfeld – das zentrale Interface-Element, mit dem jeder Nutzer jeden Tag arbeitet – hat sich seit Jahren kaum grundlegend verändert. Es funktioniert. Aber es funktioniert so, wie es seit über einem Jahrzehnt funktioniert. In einer Zeit, in der Composings routinemäßig Dutzende oder Hunderte von Ebenen haben, wäre ein grundlegend neues Konzept für Ebenenverwaltung – intelligente Gruppierung, visuelle Vorschau, kontextbezogene Organisation – eine Innovation, die den Alltag von Millionen Nutzern verbessern würde.

Aber das ist kein KI-Feature. Es ist ein Interface-Problem. Ein Design-Problem. Ein Workflow-Problem. Und solche Probleme scheinen 2026 weniger Bühne zu bekommen als das nächste generative Feature.


Kapitel 4: War früher wirklich alles besser? – Der Nostalgie-Check

Jetzt muss ich ehrlich zu mir selbst sein. Denn die Frage „War früher alles besser?“ ist eine gefährliche Frage. Sie klingt analytisch, ist meistens emotional und führt fast immer in die Irre.

War die Bildbearbeitung vor KI besser? Nein. Definitiv nicht. Langsamer. Mühsamer. Zeitaufwändiger. Ich möchte nicht zurück in die Vor-KI-Zeit. Niemand, der ehrlich ist, möchte das.

War Adobe früher innovativer? Ja und nein.

Ja, im Sinne von: Adobe hat früher mehr grundlegende Werkzeug-Innovationen geliefert. Konzepte, die die Art verändert haben, wie wir über Bildbearbeitung nachdenken. Momente, in denen man als Nutzer spürte: Hier hat jemand über das PROBLEM nachgedacht, nicht über den TREND.

Nein, im Sinne von: Adobe hat auch früher nicht in jedem Update das Rad neu erfunden. Es gab auch damals Updates, die hauptsächlich aus Bugfixes und inkrementellen Verbesserungen bestanden. Die Nostalgie filtert das heraus. Wir erinnern uns an die großen Momente und vergessen die Jahre dazwischen.

Und man muss fair anerkennen: Einige der aktuellen non-KI-Neuerungen SIND substanziell. OpenColorIO und 32-Bit-HDR-Support in Photoshop sind für Profis, die in Film- und HDR-Workflows arbeiten, ein echtes Upgrade. Non-destruktive Clarity- und Grain-Layers lösen Probleme, die seit Jahren bestehen. AVIF- und JPEG-XL-Support bringt Photoshop auf den Stand moderner Bildformate. Das ist keine Stagnation. Das ist solide Produktarbeit.

Aber – und das ist der Punkt – diese solide Produktarbeit wird kommunikativ so leise behandelt, dass sie im KI-Getöse untergeht. Und damit entsteht der EINDRUCK von Einseitigkeit, auch wenn die REALITÄT differenzierter ist.

Und Eindrücke formen Erwartungen. Erwartungen formen Strategien. Strategien formen Produkte. Wenn Adobe nach außen kommuniziert, dass KI alles ist, dann wird KI intern irgendwann auch alles sein. Erzählungen haben die Tendenz, sich selbst zu erfüllen.


Kapitel 5: Der regulatorische Kontext – Vertrauen unter Druck

Ein Punkt, der in eine ehrliche Analyse gehört, auch wenn er nicht direkt mit Innovation zu tun hat: Adobe steht regulatorisch unter erheblichem Druck. Und das beeinflusst die Wahrnehmung des Unternehmens.

Im Juni 2024 hat die US-amerikanische Federal Trade Commission (FTC) Klage gegen Adobe und zwei Führungskräfte erhoben. Der Vorwurf: versteckte Gebühren bei der Abo-Kündigung und absichtlich erschwerte Kündigungsprozesse. Die Klage läuft.

Seit dem 19. März 2026 untersucht die britische Competition and Markets Authority (CMA) Adobe wegen Bedenken rund um Kündigungsgebühren und Abo-Konditionen.

Das sind keine Kavaliersdelikte. Das sind regulatorische Verfahren in zwei der wichtigsten Märkte der Welt. Und sie betreffen ein Kernthema: Vertrauen. Das Vertrauen, dass ein Unternehmen, dem du monatlich Geld überweist, fair und transparent mit dir umgeht.

KI-Features allein bauen dieses Vertrauen nicht auf. Im Gegenteil: Wenn ein Unternehmen auf der einen Seite mit beeindruckenden KI-Demos glänzt und auf der anderen Seite wegen irreführender Geschäftspraktiken vor Regulierungsbehörden steht, dann entsteht eine Dissonanz, die langfristig problematisch ist.

Adobe braucht 2026 nicht nur bessere Features. Adobe braucht bessere Geschäftspraktiken. Und das ist eine Innovationsaufgabe, die nichts mit Algorithmen zu tun hat.


Kapitel 6: Was Adobe tun müsste – und was wir als Nutzer einfordern sollten

Ich bin kein Unternehmensberater. Ich bin ein Kreativer, der jeden Tag mit Adobe-Produkten arbeitet. Und als solcher habe ich Wünsche. Nicht als Konsument. Als Praktiker.

Erstens: KI als Werkzeug positionieren, nicht als Identität.

Adobe sollte KI-Features weiterentwickeln. Die guten sollten besser werden. Die weniger guten sollten reifen. Aber KI sollte nicht die EINZIGE Innovationserzählung sein. Daneben braucht es sichtbares Investment in Interface-Design, Workflow-Innovation, Performance-Optimierung und grundlegende Werkzeug-Konzepte. Und diese Arbeit verdient dieselbe Bühne wie die KI-Features. In den Keynotes. In den Pressemitteilungen. In der öffentlichen Kommunikation.

Zweitens: Die Basics nicht vergessen.

Photoshop hat Performance-Probleme bei großen Dateien. Lightroom Classic wird bei großen Katalogen langsam. Cloud-Synchronisation ist nicht immer zuverlässig. Das sind keine glamourösen Probleme. Aber sie betreffen den Alltag von Millionen. Und sie verdienen mindestens so viel Aufmerksamkeit wie das nächste generative Feature.

Drittens: Firefly ehrlich positionieren.

Adobe positioniert Firefly als „commercially safe“ – trainiert auf lizenzierten und Public-Domain-Inhalten, mit IP-Indemnification für qualifizierte Pläne. Das ist eine echte, wichtige Differenzierung. Aber die ästhetische Spitzenposition belegt Firefly im Vergleich zum Gesamtmarkt nicht allein. Und Adobe sollte aufhören, so zu tun, als wäre es so. Die Öffnung für Partner-Modelle – Google, OpenAI, Runway, Kling – ist der klügere strategische Zug. Plattform statt Modell. DAS ist eine echte Stärke.

Viertens: Vertrauen durch Transparenz aufbauen.

Nach der FTC-Klage und der CMA-Untersuchung braucht Adobe nicht mehr KI-Demos. Adobe braucht transparente Kommunikation. Klare Preisstrukturen. Faire Kündigungsbedingungen. Das Gefühl, dass der Konzern seine Community als Partner sieht, nicht als Einnahmequelle.


Kapitel 7: Die unbequeme Synthese

Hat Adobe seine Seele verkauft?

Meine ehrliche Antwort: Nein. Aber die öffentliche Erzählung des Unternehmens verengt sich auf eine Weise, die langfristig zum Problem werden kann.

Adobe hat die KI-Revolution nicht verschlafen. Die Integration von KI-Features in Photoshop und Lightroom hat reale, messbare Vorteile gebracht. Daneben gibt es solide klassische Produktarbeit – HDR-Workflows, neue Dateiformate, non-destruktive Einstellungsebenen, Lightroom-Performance-Verbesserungen. Adobe baut weiterhin an seinen Kernprodukten. Das muss man anerkennen.

Aber die öffentliche Bühne, die Markenidentität und die Innovations-Erzählung werden inzwischen so stark von KI dominiert, dass der Rest daneben verblasst. Und das ist ein Problem. Nicht weil KI schlecht wäre. Sondern weil ein Unternehmen, das seine gesamte Geschichte auf einen einzigen Technologietrend verengt, zwei Dinge riskiert.

Erstens: Es verliert den Blick für die ganzheitliche kreative Erfahrung. Für das Werkzeug als Werkzeug. Für das Interface als Denkraum. Für die Software als Partner des kreativen Prozesses.

Zweitens: Es macht sich abhängig von einem Paradigma, das es nicht kontrolliert. Wenn morgen ein Konkurrent ein fundamental besseres generatives Modell baut – und die KI-Entwicklung zeigt, dass das jederzeit passieren kann – dann steht ein Unternehmen, das seine gesamte Identität auf KI aufgebaut hat, plötzlich nackt da.

Die besten Werkzeuge der Geschichte waren nie die, die am meisten automatisiert haben. Es waren die, die den Menschen, der sie benutzt, besser gemacht haben. Die seine Fähigkeiten erweitert haben, statt sie zu ersetzen. Die ihm das Gefühl gegeben haben: Mit diesem Werkzeug kann ich Dinge tun, die ich ohne es nicht könnte – aber ICH bin es, der sie tut.

Photoshop war jahrzehntelang genau so ein Werkzeug. Es hat den Kreativen nicht ersetzt. Es hat ihn empowered. Es hat ihm Ebenen gegeben, Masken, Smart Objects – Konzepte, die seine Art zu denken verändert haben. Nicht indem sie für ihn gedacht haben. Sondern indem sie ihm neue Denkräume eröffnet haben.

Mein Wunsch – als jemand, der Adobe-Produkte täglich nutzt und trotz aller berechtigten Kritik an Preispolitik und Geschäftspraktiken schätzt – ist, dass Adobe diesen Geist nicht verliert. Dass neben dem nächsten Firefly-Update Raum bleibt für die Fragen, die kein Algorithmus beantworten kann: Wie können wir das Ebenenbedienfeld neu denken? Wie können wir den Composing-Workflow grundlegend verbessern? Wie können wir Farbmanagement intuitiver machen? Wie können wir die Software schneller, eleganter, menschlicher machen – nicht durch KI, sondern durch kluges Design?

Denn am Ende ist KI ein Werkzeug. Ein mächtiges, transformatives Werkzeug. Aber eben ein Werkzeug. Und ein Unternehmen, das seine gesamte Erzählung an ein einzelnes Werkzeug bindet, riskiert, die Identität zu verlieren, die es überhaupt erst relevant gemacht hat.

Adobe hat die kreative Welt nicht erfunden, indem es den heißesten Technologietrend implementiert hat. Es hat sie erfunden, indem es verstanden hat, was Kreative brauchen – manchmal bevor die Kreativen es selbst wussten. Dieses Verständnis war Adobes eigentliche Superkraft.

Und diese Superkraft darf nicht auf dem Altar der KI-Euphorie geopfert werden. Auch wenn die Keynote-Applaus-Maschine dabei weniger laut rattert.

Die KI-Features sollen bleiben. Sie sollen besser werden. Aber daneben muss Raum bleiben für die Frage, die Adobe einst groß gemacht hat:

Was braucht der kreative Mensch – und wie bauen wir ihm das bestmögliche Werkzeug dafür?

Diese Frage hat Photoshop hervorgebracht. Lightroom. InDesign. After Effects. Sie ist die DNA des Unternehmens.

Und wenn Adobe sie vergisst – nicht weil es keine Antworten mehr hat, sondern weil es aufhört zu fragen – dann hat es tatsächlich seine Seele verkauft.

Noch ist es nicht so weit. Aber die Bühne wird enger.


BROWNZ IS ART. ✦

Und die besten Werkzeuge sind die, die dich nicht ersetzen – sondern besser machen.


Stand: März 2026. Adobe entwickelt sich weiter. Die Frage ist nicht ob, sondern wohin. Und ob auf dem Weg dorthin genug Raum bleibt für das, was kein Algorithmus liefern kann: echtes Verständnis für kreative Menschen.



Konvergenz, Exposition und die Zukunft kreativer Arbeit im DACH-Raum. Eine ehrliche Bestandsaufnahme zwischen Daten und Realität.


Ein Blogbeitrag von BROWNZ.ART


Die Frage, die alle stellen – und warum sie falsch ist

Jede Woche schickt mir jemand einen Artikel. „Brownz, hast du das gelesen? KI ersetzt 300 Millionen Jobs!“ Oder: „Bis 2030 wird die Hälfte aller Arbeitsplätze verschwinden!“ Oder mein persönlicher Favorit: „Diese 10 Berufe gibt es bald nicht mehr – Nummer 7 wird dich SCHOCKIEREN!“

Und jedes Mal denke ich dasselbe: Die Frage ist falsch.

Die aktuelle Debatte rund um künstliche Intelligenz leidet an einer gefährlichen Vereinfachung. Sie fragt: „Welche Jobs verschwinden?“ Als wäre Arbeit ein Lichtschalter. An oder aus. Job da oder Job weg.

So funktioniert das aber nicht. So hat es nie funktioniert. Nicht bei der Industrialisierung. Nicht bei der Digitalisierung. Und nicht bei der KI-Revolution.

Die relevantere Frage – die unbequemere, die kompliziertere, die, auf die es keine sexy Clickbait-Antwort gibt – lautet:

Welche TÄTIGKEITEN innerhalb deines Jobs sind bereits heute automatisierbar – und welche Branchen geraten durch mehrere technologische Entwicklungen GLEICHZEITIG unter Druck?

Nicht der Job. Die Tätigkeiten. Nicht eine einzelne Technologie. Das Zusammenspiel. Denn erst wenn du beide Perspektiven zusammenbringst – erstens die Analyse einzelner Tätigkeiten nach ihrem Automatisierungspotenzial, das, was Experten „AI Exposure“ nennen, und zweitens die Betrachtung technologischer Konvergenzen, also sich überlagernder Innovationswellen – erst dann entsteht das vollständige Lagebild.

Und dieses Lagebild ist komplexer, als die meisten Schlagzeilen vermuten lassen. Beunruhigender in manchen Bereichen. Beruhigender in anderen. Und besonders für Kreative: ein zweischneidiges Schwert, das man sehr genau verstehen sollte.

Also lass uns genau das tun.


Kapitel 1: Exposition – Wenn Arbeit digital und wiederholbar ist

Fangen wir mit den Daten an. Nicht mit meiner Meinung. Nicht mit meinem Bauchgefühl. Mit Daten.

Die Analyse von 342 Berufsbildern zeigt ein klares Muster: Über 40 Prozent aller beruflichen Tätigkeiten weisen eine hohe Exposition gegenüber KI auf. Vierzig Prozent. Das ist fast die Hälfte. Und bevor du jetzt panisch deinen Lebenslauf aktualisierst – das heißt nicht, dass 40 Prozent aller Jobs verschwinden. Es heißt, dass in 40 Prozent der Fälle wesentliche Teile der Arbeit von KI übernommen oder massiv verändert werden können.

Der entscheidende Punkt: Es geht nicht um den Jobtitel. Es geht um die Natur der Arbeit. Der Titel auf deiner Visitenkarte ist irrelevant. Was zählt, ist, was du den ganzen Tag tatsächlich TUST.

Und hohe Exposition entsteht immer dann, wenn drei Bedingungen zusammentreffen:

Erstens: Der Output ist vollständig digital. Texte. Reports. Designs. Code. Präsentationen. Tabellenkalkulationen. Alles, was auf einem Bildschirm entsteht und auf einem Bildschirm konsumiert wird, ist prinzipiell automatisierbar. Die KI lebt in der digitalen Welt. Das ist ihr Zuhause. Ihr natürliches Habitat. Und in ihrem natürlichen Habitat ist sie verdammt gut.

Zweitens: Die Prozesse sind regelbasiert und wiederholbar. Wenn du deine Arbeit als Checkliste beschreiben kannst – Schritt 1, Schritt 2, Schritt 3, wenn X dann Y – dann kann eine KI diese Checkliste abarbeiten. Schneller als du. Konsistenter als du. Und ohne Kaffeepause.

Drittens: Entscheidungen werden datengetrieben getroffen. Wenn deine Entscheidungen auf der Analyse von Daten basieren – Finanzdaten, Marktdaten, Kundendaten, irgendwelche Daten – dann kann eine KI diese Analyse in Sekundenbruchteilen durchführen. Und in vielen Fällen genauere Schlüsse ziehen als ein Mensch.

Wenn du dir diese drei Kriterien anschaust und ehrlich mit dir bist, weißt du, welche Berufe besonders exponiert sind. Und es sind genau die, bei denen die meisten Leute denken: „Mich betrifft das nicht. Ich bin ja Akademiker.“

Klassische Wissensberufe stehen im Fadenkreuz:

Finanzanalyse, Buchhaltung, Controlling. Regelbasiert. Datengetrieben. Digital. Eine KI kann eine Bilanzanalyse in Sekunden durchführen, für die ein Mensch Stunden braucht. Sie kann Anomalien in Datensätzen finden, die ein menschliches Auge übersieht. Sie kann Prognosen erstellen, die auf mehr Datenpunkten basieren, als ein Mensch in einem ganzen Berufsleben verarbeiten könnte.

Juristische Recherche und Vertragsprüfung. Texte durchsuchen, Klauseln vergleichen, Präzedenzfälle finden – exakt die Art von Arbeit, für die KI wie geschaffen ist. Nicht die Verhandlung vor Gericht. Nicht die Beratung des verunsicherten Mandanten. Aber die stundenlange Recherchearbeit davor? Massiv exponiert.

Softwareentwicklung und technische Dokumentation. Ja, auch Programmierer. Besonders die, die Standardcode schreiben. Vibe Coding – ich habe in einem früheren Beitrag darüber geschrieben – verändert die Softwareentwicklung gerade fundamental.

Marketing ohne eigenständige kreative Handschrift. Template-basierte Social-Media-Posts. SEO-Texte nach Schema F. Produktbeschreibungen, die alle gleich klingen. All das kann KI. Und in vielen Fällen macht sie es schon.

Und jetzt kommt das paradoxe Ergebnis, das in der öffentlichen Debatte viel zu wenig Beachtung findet:

Höhere Bildung schützt nicht automatisch. Im Gegenteil.

Akademische Berufe sind im Durchschnitt STÄRKER exponiert als manuelle Tätigkeiten. Der Elektriker, der Leitungen verlegt, ist weniger bedroht als der Analyst, der Excel-Tabellen auswertet. Die Gärtnerin, die Bäume beschneidet, ist sicherer als der Junior-Texter, der Produktbeschreibungen schreibt. Der Handwerker mit dem Schraubenschlüssel in der Hand kann ruhiger schlafen als der Wissensarbeiter mit dem Laptop auf dem Schoß.

Das ist keine Ironie. Das ist Logik. KI lebt in der digitalen Welt. Je digitaler deine Arbeit, desto exponierter bist du. Je physischer, je unmittelbarer deine Arbeit in der realen Welt stattfindet, desto schwerer kann KI sie ersetzen.

Denk mal darüber nach.


Kapitel 2: Konvergenz – Wenn Technologien gleichzeitig wirken

Die Exposition allein ist aber nur die halbe Geschichte. Die andere Hälfte ist gefährlicher. Und sie heißt Konvergenz.

Konvergenz bedeutet: Mehrere technologische Entwicklungen treffen gleichzeitig auf dieselbe Branche. Nicht nacheinander. Nicht über Jahrzehnte verteilt. Gleichzeitig. Und der kombinierte Effekt ist exponentiell stärker als jede einzelne Entwicklung für sich.

Parallel zur steigenden AI Exposure entsteht ein zweiter, massiver Druck: die Überlagerung mehrerer Innovationswellen. Und wenn man sich anschaut, was gerade alles gleichzeitig passiert, wird einem schwindelig.

Automatisierte Entscheidungslogik. Systeme, die nicht nur Daten analysieren, sondern eigenständig Entscheidungen treffen. Kreditvergabe, Risikobewertung, Schadensfallbeurteilung – Prozesse, die früher menschliches Urteilsvermögen erforderten, werden zunehmend von Algorithmen übernommen. Nicht als Experiment. Als Standard.

Agentenbasierte Systeme. KI-Agenten, die nicht nur auf einzelne Anfragen reagieren, sondern eigenständig mehrstufige Aufgaben abarbeiten. Recherchieren, planen, ausführen, kontrollieren – ohne dass ein Mensch jeden einzelnen Schritt überwacht. Das ist kein Science-Fiction-Szenario. Das sind Produkte, die du heute kaufen kannst.

Neue Formen der Datenverarbeitung. Multimodale Modelle, die Text, Bild, Audio und Video gleichzeitig verarbeiten und generieren. Die Grenzen zwischen den Medientypen lösen sich auf. Ein einziges System kann lesen, schreiben, sehen, hören und sprechen. Gleichzeitig.

Veränderte Arbeitsmodelle. Remote Work, asynchrone Kommunikation, globale Teams. Wenn Arbeit ortsunabhängig ist, konkurrierst du nicht mehr mit dem Kollegen im Nachbarbüro. Du konkurrierst mit der ganzen Welt. Und mit KI.

Branchen, in denen all diese Entwicklungen gleichzeitig „ankommen“, erleben eine beschleunigte Transformation. Kein sanfter Wandel. Ein tektonisches Beben.

Im DACH-Raum betrifft das insbesondere drei Sektoren:

Telekommunikation. Hoher Digitalisierungsgrad, standardisierte Prozesse, enormer Kundenkontakt über automatisierbare Kanäle. Hier trifft maximale Exposition auf maximale Konvergenz.

Finanz- und Versicherungswesen. Datengetrieben. Regelbasiert. Hochstandardisiert. Algorithmen bewerten Risiken, bearbeiten Schadensfälle, entwickeln Anlagestrategien. Nicht morgen. Heute.

Teile des Gesundheitssektors. Nicht die Chirurgin am OP-Tisch. Nicht der Pfleger am Krankenbett. Aber die administrative Seite: Befundschreibung, Terminplanung, Abrechnung, Dokumentation.

In diesen Branchen trifft hohe Tätigkeits-Exposition auf strukturellen Wandel der gesamten Branche. Das ist die Doppelbelastung. Das ist der Punkt, an dem einzelne Anpassungsstrategien nicht mehr ausreichen, weil sich das gesamte Spielfeld verschiebt.


Kapitel 3: Der Sonderfall DACH – Wenn Bürokratie zum Brandbeschleuniger wird

Und hier kommt ein Punkt, der spezifisch für den deutschsprachigen Raum ist und der diese Region besonders verwundbar macht.

Die Arbeitswelt in Deutschland, Österreich und der Schweiz hat eine Eigenschaft, die lange als Stärke galt und sich jetzt als Achillesferse entpuppt: Sie ist extrem formalisiert.

Prozesse sind dokumentiert. Standardisiert. Regelbasiert. Jeder Schritt ist definiert, jeder Handlungsablauf beschrieben, jede Entscheidung in einen Prozess eingebettet. „Made in Germany“ stand nicht nur für gute Produkte, sondern auch für gute Prozesse. Für Gründlichkeit. Ordnung. Regelkonformität.

Aber genau diese Eigenschaften – diese Liebe zur Struktur, zur Dokumentation, zur Regel – machen das System extrem angreifbar. Denn was ist eine Regel? Ein Algorithmus in Textform. Was ist ein dokumentierter Prozess? Eine Bedienungsanleitung für eine Maschine. Was ist eine standardisierte Entscheidungslogik? Ein Wenn-Dann-Diagramm, das eine KI in Millisekunden abarbeiten kann.

Bürokratie wird damit zum Beschleuniger technologischer Disruption.

Diese Eigenschaften erhöhen Effizienz – machen Systeme aber gleichzeitig extrem angreifbar für Automatisierung. Je besser deine Prozesse dokumentiert sind, desto einfacher kann eine KI sie übernehmen. Je klarer deine Regeln definiert sind, desto schneller kann ein Algorithmus sie anwenden. Je standardisierter deine Arbeit, desto redundanter wirst du.

Das ist die bittere Ironie: Die Tugenden, die den DACH-Raum wirtschaftlich stark gemacht haben, sind genau die Eigenschaften, die ihn jetzt verwundbar machen.

Und das betrifft nicht nur die großen Konzerne und Behörden. Es betrifft jeden, dessen Arbeit in formalisierte Strukturen eingebettet ist. Den Sachbearbeiter in der Versicherung. Die Controllerin im Mittelstand. Den Projektmanager in der Agentur. Den Buchhalter beim Steuerberater.

Überall dort, wo Arbeit regelbasiert, dokumentiert und wiederholbar ist, tickt eine Uhr. Nicht laut. Nicht dramatisch. Aber sie tickt.


Kapitel 4: Kreative Arbeit – Zwischen Bedrohung und Aufwertung

Jetzt wird es persönlich. Denn jetzt reden wir über UNS. Über Designer, Fotografen, Künstler, Content Creator, Composing-Artists, Art Directors. Über die Leute, die mit Bildern, Texten, Ideen und Visionen arbeiten.

Und hier muss besonders differenziert betrachtet werden. Denn die kreative Branche ist nicht pauschal bedroht oder pauschal sicher. Innerhalb der kreativen Arbeit verläuft 2026 eine scharfe Trennlinie, die deutlicher sichtbar wird als je zuvor.

Hoch exponiert sind:

Generische Designarbeit. Template-basierte Layouts. Corporate-Design-Umsetzungen nach Styleguide. Die Art von Arbeit, bei der morgens ein Brief kommt: „Logo größer, Farbe Blau, drei Formate.“ Das kann KI. Heute. Gut. Schnell. Billig.

Template-basierte Social-Media-Produktion. Posts, die alle gleich aussehen. Canva-Designs mit ausgetauschtem Text. Instagram-Karussells nach Schema. Ich habe in einem früheren Beitrag geschrieben, warum das Kopieren von Trends eine Sackgasse ist. KI macht diese Sackgasse jetzt zur Einbahnstraße ohne Wendemöglichkeit.

Austauschbare Bild- und Textproduktion. Stock-ähnliche Fotos. SEO-Texte nach Keyword-Liste. Produktbeschreibungen, die klingen wie von einer Maschine – weil sie es zunehmend sind.

Hier kann KI bereits heute große Teile übernehmen. Und sie wird es tun. Nicht weil sie bösartig ist. Sondern weil es wirtschaftlich Sinn macht.

Stabil bleiben:

Künstlerische Handschrift. Ein Stil, den man erkennt, ohne auf den Namen zu schauen. Eine ästhetische DNA, die unverwechselbar ist. Das, was entsteht, wenn ich einen Crypto King Dagobert erschaffe – eine Vision, die durch meinen persönlichen Filter gegangen ist und die keine KI replizieren kann, weil keine KI MICH ist.

Visuelle Sprache mit Wiedererkennungswert. Nicht ein einzelnes gutes Bild. Sondern ein konsistentes visuelles Vokabular, das sich durch alle Arbeiten zieht. Eine Tonalität. Eine Haltung. Ein Vibe, der sagt: Das ist von dieser Person. Von niemandem sonst.

Konzeptionelle Arbeit und Storytelling. Die Fähigkeit, eine Geschichte zu erzählen. Nicht irgendeine. DEINE. Auf DEINE Art. Mit DEINER Perspektive. KI kann Geschichten generieren. Aber sie kann keine Perspektive haben. Keine Meinung. Keine Haltung. Keine Lebenserfahrung, aus der heraus sie erzählt.

Der Unterschied liegt nicht im Medium. Er liegt im Anspruch.

Du kannst Fotografie machen, die hochexponiert ist – austauschbare Produktfotos, die eine KI genauso gut generieren kann. Und du kannst Fotografie machen, die unangreifbar ist – Bilder mit einer Vision, einer Handschrift, einer emotionalen Tiefe, die nur entstehen können, weil ein Mensch mit einer bestimmten Geschichte an einem bestimmten Ort auf den Auslöser gedrückt hat.

Dasselbe Medium. Völlig verschiedene Exposition.

Gerade hybride Arbeitsweisen verschieben hier den Fokus genau dorthin, wo er hingehört: vom Handwerk zur Vision. Die Verbindung von Fotografie, KI und klassischer Gestaltung. Synthografie, die digital beginnt und analog endet. FineArt Prints auf Büttenpapier, veredelt mit Acryl. Arbeiten, die in der Cloud geboren werden und als Unikate in der realen Welt ankommen.

Die KI übernimmt den technischen Teil. Der Mensch liefert den kreativen. Das Ergebnis ist etwas, das weder Mensch noch Maschine allein hätten schaffen können.

Wer reproduziert, wird ersetzt. Wer interpretiert, kuratiert und transformiert, gewinnt an Relevanz.


Kapitel 5: Anpassungsfähigkeit – Das Paradox der eigenen Stärken

Hier kommt die faszinierendste Erkenntnis der gesamten Analyse. Und sie ist paradox.

Die Fähigkeiten, die Jobs exponieren, sind oft dieselben, die Anpassung ermöglichen.

Analytisches Denken? Kann automatisiert werden. Aber wer analytisch denkt, kann auch KI-Systeme steuern, deren Outputs bewerten und strategisch einsetzen.

Kommunikationsfähigkeit? Kann teilweise von KI übernommen werden. Aber wer gut kommuniziert, kann auch KI-generierte Texte verbessern, menschliche Beziehungen pflegen und in Verhandlungen überzeugen, die keine Maschine führen kann.

Strukturverständnis? Macht Prozesse automatisierbar. Aber wer Strukturen versteht, kann auch neue Strukturen schaffen, die KI und menschliche Arbeit optimal verbinden.

Analytisches Denken, Kommunikation und Strukturverständnis können sowohl automatisiert als auch strategisch eingesetzt werden. Die Frage ist nicht: Hast du die richtigen Fähigkeiten? Die Frage ist: Setzt du sie richtig ein?

Nutzt du dein analytisches Denken, um Tabellen auszufüllen – oder um KI-Strategien zu entwickeln? Nutzt du deine Kommunikationsfähigkeit, um Standard-E-Mails zu schreiben – oder um Kunden von deiner einzigartigen Perspektive zu überzeugen? Nutzt du dein Strukturverständnis, um bestehende Prozesse abzuarbeiten – oder um neue zu designen?

Problematisch sind hingegen Rollen mit hoher Wiederholung und geringer Eigenständigkeit. Insbesondere in administrativen Bereichen. Rollen, in denen du Anweisungen folgst, ohne sie zu hinterfragen. Prozesse abarbeitest, ohne sie zu gestalten. Output produzierst, ohne Input zu geben.

Diese Rollen sind nicht nur exponiert. Sie haben kein Gegengewicht. Keine Fähigkeit, die sich von der automatisierbaren Seite auf die strategische Seite umlenken lässt. Und das macht sie besonders verwundbar.


Kapitel 6: Der reale Wandel – leise, aber unerbittlich

Jetzt komme ich zu dem Teil, der in den meisten Artikeln fehlt. Der Teil, der zwischen den Überschriften passiert. Den du nicht in Statistiken findest, sondern in den Gesichtern der Leute, die du kennst.

Denn trotz aller theoretischen Automatisierbarkeit zeigt sich aktuell kein massiver Jobverlust. Keine Massenentlassungen. Keine Apokalypse. Die Büros stehen nicht leer. Auf den ersten Blick sieht alles aus wie immer.

Aber unter der Oberfläche entsteht eine schleichende Verschiebung. Still. Konstant. Unerbittlich.

Weniger Einstiegspositionen. Das ist vielleicht der spürbarste Effekt. Unternehmen stellen weniger Juniors ein. Weniger Trainees. Weniger Berufseinsteiger. Nicht weil sie böse sind. Sondern weil die Aufgaben, die traditionell von Einsteigern erledigt wurden – Recherchearbeiten, Datenpflege, einfache Reportings, Assistenzaufgaben – zunehmend von KI übernommen werden. Der Einstieg wird enger. Für eine ganze Generation.

Steigender Leistungsdruck. Wenn KI Routineaufgaben schneller erledigt, steigt die Erwartung an die menschliche Leistung. Du sollst nicht weniger arbeiten – du sollst MEHR leisten. Komplexere Aufgaben. Schnellere Ergebnisse. Höhere Qualität. Weil die einfachen Sachen jetzt die Maschine macht. Also musst du die schweren machen. Und zwar mehr davon.

Zunehmende Integration von KI in bestehende Rollen. Dein Job heißt immer noch so. Deine Visitenkarte sieht gleich aus. Aber deine tägliche Arbeit hat sich verändert. Du nutzt KI-Tools. Du steuerst Prozesse, die früher manuell waren. Du überprüfst KI-Output. Dein Job ist nicht verschwunden – er hat sich transformiert. Manchmal zum Besseren. Manchmal nicht.

Arbeit verschwindet nicht. Sie verdichtet sich.

Das ist der Satz, den du dir merken solltest. Denn er beschreibt die Realität 2026 genauer als jede Schlagzeile.

Du machst nicht weniger. Du machst ANDERES. Und MEHR davon. In WENIGER Zeit. Mit HÖHEREN Erwartungen. Ob das gut oder schlecht ist, hängt davon ab, auf welcher Seite der Gleichung du stehst.


Was das alles bedeutet – Die einzige Frage, die zählt

Der AI-Sturm ist kein singuläres Ereignis. Kein einzelner Blitz, der einschlägt und dann vorbei ist. Er ist ein Zusammenspiel mehrerer Kräfte – Exposition, Konvergenz, struktureller Wandel – die sich gegenseitig verstärken.

Besonders im DACH-Raum entsteht eine doppelte Dynamik: Hochstrukturierte Arbeitsprozesse treffen auf Technologien, die genau diese Struktur lesen, verstehen und auflösen können. Ausgerechnet die Gründlichkeit, die Ordnung, die Regelkonformität – die Tugenden, auf die diese Volkswirtschaften stolz sind – machen sie angreifbar.

Für kreative Berufe bedeutet das keine Abschaffung, sondern eine Selektion. Standardisierte Produktion verliert an Wert, während individuelle Perspektive, Stil und konzeptionelle Stärke an Bedeutung gewinnen. Die KI trennt die Spreu vom Weizen. Wer austauschbar ist, wird ausgetauscht. Wer unverwechselbar ist, wird unverzichtbar.

Die zentrale Frage lautet daher nicht mehr: „Ist mein Job sicher?“

Sondern: „Welche Teile meiner Arbeit sind einzigartig – und welche sind ersetzbar?“

Und diese Frage musst du dir ehrlich beantworten.

Die Teile, die ersetzbar sind? Automatisiere sie. Nutze KI. Verschwende keine Lebenszeit mit Aufgaben, die eine Maschine erledigen kann.

Die Teile, die einzigartig sind? Investiere in sie. Vertiefe sie. Schärfe sie. Mach sie so unverwechselbar, so DEINS, dass keine KI der Welt sie replizieren kann.

Der Sturm ist da.

Die Frage ist nur, ob du im Regen stehst oder längst ein Dach gebaut hast.


BROWNZ IS ART. ✦

Und Kunst ist das, was bleibt, wenn die Maschinen alles andere übernommen haben.


Stand: März 2026. Die Technologie entwickelt sich weiter. Der Arbeitsmarkt transformiert sich. Deine Strategie sollte das auch.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Hand aufs Herz: Wie oft hast du in den letzten Monaten in Photoshop gesessen, auf einen der vielen neuen glitzernden KI-Buttons geklickt und dich am Ende gewundert, warum das Ergebnis aussieht wie ein unscharfer Pixelbrei?

Adobe hat uns in Rekordzeit mit generativer Künstlicher Intelligenz überschüttet. Gefühlt gibt es nach jedem Update eine neue Leiste, ein neues Menü und eine neue Funktion, die uns verspricht, auf Knopfdruck Meisterwerke zu erschaffen. Doch diese Fülle an Möglichkeiten hat zu einer massiven Verwirrung in der Kreativ-Community geführt. Die meisten Nutzer werfen die Begriffe wild durcheinander und nutzen für ihre Aufgaben schlichtweg das falsche Werkzeug.

Heute räumen wir damit auf. Wir schauen uns die drei großen KI-Säulen im Adobe-Ökosystem ganz genau an: Die Firefly Web-App, die Funktion „Bild generieren“ (Generate Image) in Photoshop und den absoluten Klassiker „Generatives Füllen“ (Generative Fill).

Obwohl alle drei Tools auf der gleichen Grundtechnologie (Adobe Sensei / Firefly) basieren, unterscheiden sie sich in ihrer Auflösung, ihrem Funktionsumfang und vor allem in ihrer Ergebnisqualität dramatisch. Wer hier nur aus Bequemlichkeit klickt, verschenkt massiv Potenzial – und bares Geld. Lass uns in den Maschinenraum hinabsteigen.


1. Die Firefly-Webversion: Der unangefochtene König der Möglichkeiten

Fangen wir mit dem mächtigsten Werkzeug an, das Adobe uns aktuell zur Verfügung stellt: Die eigenständige Website firefly.adobe.com. Wenn du komplett neue Bilder, Hintergründe für Composings oder eigenständige Elemente erschaffen willst, ist dies der Ort, an dem du dich aufhalten solltest.

Warum? Weil die Webversion die ungefilterte, volle Kraft der Adobe-KI darstellt.

Wenn du hier einen Prompt eingibst, greifst du auf die neuesten, fortschrittlichsten KI-Modelle zu (aktuell Firefly Image 3). Die Benutzeroberfläche am rechten Bildschirmrand ist ein Traum für jeden Art Director. Du hast nicht nur ein simples Textfeld, sondern detaillierte Schieberegler und Menüs:

  • Stil-Referenzen: Du kannst Referenzbilder hochladen, damit die KI genau diesen Look übernimmt.
  • Struktur-Referenzen: Du kannst Skizzen vorgeben, an deren Konturen sich die KI beim Generieren hält.
  • Kamera-Einstellungen: Du kannst Blende, Verschlusszeit (für Bewegungsunschärfe) und den exakten Blickwinkel simulieren.
  • Ausgabe-Qualität: Firefly generiert Bilder in einer sehr ordentlichen Größe von 2.048 Pixel Kantenlänge.

Das wirtschaftliche Argument (Die Credits-Falle):
Adobe hat sogenannte „Generative Credits“ eingeführt. Jedes Mal, wenn du auf „Generieren“ klickst, kostet dich das eine virtuelle Münze aus deinem monatlichen Abo-Kontingent. In der Webversion erhältst du für diesen einen Credit immer vier hochauflösende Varianten deines Prompts. Du bekommst hier also den absolut besten Return on Investment für dein Abo.


2. „Bild generieren“ in Photoshop: Die Bequemlichkeits-Falle

Gehen wir nun rüber in dein Photoshop. Dort findest du unter Bearbeiten > Bild generieren (oder in der schwebenden Taskleiste) eine Funktion, die im Grunde genau das Gleiche tun soll wie die Website. Du gibst einen Text ein und Photoshop rendert dir ein komplett neues Bild auf eine leere Ebene.

Auch hier spuckt die KI das Bild mit einer maximalen Kantenlänge von 2.048 Pixeln aus. Klingt doch perfekt, oder? Warum also überhaupt noch den Browser öffnen, wenn man es direkt in Photoshop machen kann?

Die Antwort ist simpel: Es ist eine kastrierte Version.

Photoshops „Bild generieren“ ist eine stark vereinfachte, abgespeckte Variante der Web-App. Es fehlen entscheidende Feineinstellungen zur Lichtstimmung, zu Kamera-Winkeln und komplexen Stil-Referenzen. Adobe hat diese Funktion für die ungeduldigen Nutzer gebaut. Für diejenigen, die den Workflow nicht unterbrechen und die App nicht verlassen wollen.

Doch diese Bequemlichkeit hat einen hohen Preis. Und damit meine ich nicht nur die fehlenden Optionen, sondern harte Währung: Wenn du in Photoshop auf „Bild generieren“ klickst, verbrauchst du ebenfalls einen Generativen Credit. Doch anstatt vier Varianten wie auf der Website, liefert dir Photoshop im Eigenschaften-Bedienfeld nur drei Varianten.

Du bezahlst also den gleichen Preis für 25 % weniger Ergebnisse und deutlich weniger Kontrolle. Als professioneller Bildbearbeiter gibt es daher – von absoluter Zeitnot mal abgesehen – keinen rationalen Grund, diese Funktion in Photoshop zu nutzen. Wenn du ein Bild aus dem Nichts („From Scratch“) erschaffen willst: Geh in den Browser zu Firefly, generiere es dort in Perfektion, lade es herunter und zieh es dann in Photoshop.


3. „Generatives Füllen“: Das missverstandene Genie mit dem Auflösungs-Flaschenhals

Kommen wir zur bekanntesten Funktion, dem Tool, das vor einiger Zeit das Internet gebrochen hat: Bearbeiten > Generatives Füllen (Generative Fill). Du ziehst eine Auswahl mit dem Lasso, tippst etwas ein, und zack – die KI zaubert etwas in dein Bild.

Viele Nutzer machen nun den fatalen Fehler und nutzen dieses Werkzeug für alles. Sie ziehen eine leere Ebene auf, markieren das ganze Bild und tippen einen Prompt ein. Das Ergebnis ist meistens extrem enttäuschend. Es ist unscharf, verwaschen und sieht aus wie ein Relikt aus den frühen 2000er Jahren. Warum passiert das?

Hier kommt das größte technische Geheimnis, das du kennen musst: Generatives Füllen hat ein hartes Limit von 1.024 Pixeln Kantenlänge!

Wenn du mit dem Lasso einen Bereich in deinem hochauflösenden 40-Megapixel-Foto auswählst, der beispielsweise 4.000 x 4.000 Pixel groß ist, und auf „Generatives Füllen“ klickst, rechnet die KI nicht in dieser Größe. Sie generiert intern ein kleines 1.024-Pixel-Bildchen und skaliert (streckt) dieses dann brutal auf deine 4.000 Pixel große Auswahl hoch. Das Resultat ist Matsch.

Wofür dieses Tool wirklich gebaut wurde:
Das KI-Modell hinter „Generatives Füllen“ ist auf etwas völlig anderes trainiert als Firefly Web. Es ist nicht dafür gedacht, aus dem Nichts völlig neue Welten zu erschaffen. Sein absolutes Spezialgebiet ist der Kontext.
Dieses Tool ist darauf optimiert, die Pixel außerhalb deiner Auswahl zu analysieren (Licht, Schatten, Perspektive, Rauschen) und den generierten Inhalt nahtlos und unauffällig in dein bestehendes Hintergrundfoto einzufügen. Es ist dein Werkzeug für die Retusche: Um störende Mülleimer zu entfernen, Ränder zu erweitern (Outpainting) oder ein kleines, passendes Objekt (wie eine Kaffeetasse auf einem Tisch) in ein bestehendes Foto zu zaubern.


Der Praxis-Test: Menschen und Lebewesen generieren

Um die gravierenden Unterschiede in der Praxis zu verstehen, lass uns ein konkretes Beispiel durchspielen. Wir nutzen folgenden, recht komplexen Prompt:

„Porträt einer elegant gekleideten Frau in einer geschmackvoll ausgeleuchteten Szene, stilvoll inszeniert vor einem sanft verschwommenen Hintergrund. Ihr Gesicht ist weich beleuchtet und zeigt einen freundlichen, natürlichen Ausdruck. Das Haar fällt locker über die Schultern, die Bildkomposition ist ausgewogen und zeigt hohe Detailschärfe, makellose Haut und realistische Konturen. Studioqualität, 85mm-Objektiv“

Szenario A: Du nutzt „Generatives Füllen“ auf einer leeren Ebene.
Das Ergebnis wird eine Katastrophe sein. Das Tool sucht verzweifelt nach Kontext-Pixeln (die es auf einer weißen Ebene nicht gibt). Da es primär auf das „Einblenden in Hintergründe“ trainiert ist und das 1024-Pixel-Limit greift, erhältst du oft verzerrte Anatomie, verschwommene Augen und eine Hauttextur, die an Plastik erinnert. Für das realistische Generieren von Lebewesen aus dem Nichts ist diese Funktion schlichtweg unbrauchbar.

Szenario B: Du nutzt „Bild generieren“ in Photoshop.
Hier wird es schon deutlich besser. Die 2.048 Pixel sorgen für ordentliche Schärfe. Die Frau sieht anatomisch korrekt aus. Aber du hast eben nur drei Versuche bekommen und keine Möglichkeit, das Licht im Nachhinein via Regler anzupassen.

Szenario C: Du gehst in die Firefly-Webversion.
Hier entfaltet der Prompt seine Magie. Du wählst im Menü vorher „Fotografie“ aus, stellst die Blende virtuell auf f/1.8, um das geforderte 85mm-Objektiv zu simulieren, und klickst auf Generieren. Du erhältst vier brillante, hochauflösende Varianten. Gefällt dir eine zu 80 %, nutzt du sie als Stil-Referenz für den nächsten Durchlauf. Das ist professionelles Arbeiten.


Der Blick über den Tellerrand: Adobes Schwäche und die Alternativen

Wir müssen in diesem Kontext auch ehrlich sein. Adobe Firefly ist fantastisch für den kommerziellen Einsatz. Da Adobe die KI ausschließlich mit lizenzierten Bildern aus Adobe Stock trainiert hat, bist du urheberrechtlich auf der absolut sicheren Seite. Keine Klagen, kein Ärger mit Kunden.

Aber wenn es um reine, gnadenlose Ästhetik und echten Fotorealismus geht – insbesondere bei der Generierung von menschlichen Gesichtern, komplexen Händen oder organischen Lebewesen –, hinkt Firefly der Konkurrenz momentan noch immer hinterher.

Wenn du das absolut beste, fotorealistischste Bild aus dem Nichts generieren willst, solltest du dir aktuell sogenannte „Partner-Modelle“ oder externe KIs ansehen. Generatoren wie Midjourney (v6) oder das neue, revolutionäre FLUX-Modell (oft über Schnittstellen wie GPT-Image genutzt) spielen beim Thema Anatomie und Textur aktuell in einer völlig anderen Liga als Adobe.

Mein ultimativer Workflow-Tipp für dich:
Wenn ich ein High-End-Composing baue, nutze ich oft Midjourney oder Flux, um das Hauptmotiv (z. B. das Porträt der Frau) zu generieren, da diese KIs die Hautstruktur und das Licht einfach filmischer und realistischer aufbauen. Dann lade ich dieses perfekte Bild in Photoshop und wechsle zu Adobes „Generatives Füllen“, um Fehler auszubessern, den Hintergrund zu erweitern oder kleine Elemente in das Bild einzubauen (denn im nahtlosen Einfügen und Reparieren ist Adobe wiederum unschlagbar).


Fazit: Dein Spickzettel für den Alltag

Hör auf, einfach blind auf leuchtende Buttons zu klicken. Mach dich zum Meister deiner Werkzeuge. Merke dir diese drei goldenen Regeln für deinen zukünftigen KI-Workflow in Adobe:

  1. Völlig neue Bilder und Motive aus dem Nichts? Verlasse Photoshop. Geh auf firefly.adobe.com. Nutze die komplexen Regler, greife die vier Varianten ab und freue dich über 2.048 Pixel Auflösung.
  2. „Bild generieren“ in Photoshop? Ignoriere es. Es ist eine teure Bequemlichkeits-Falle, die dir bei gleichem Preis weniger Auswahlmöglichkeiten bietet.
  3. Elemente in ein bestehendes Foto einfügen, Ränder erweitern oder störende Dinge entfernen? Hier schlägt die große Stunde von „Generatives Füllen“. Achte darauf, dass du deine Auswahlen nicht zu riesig aufziehst, um das 1024-Pixel-Limit nicht zu überspannen.

Die Künstliche Intelligenz nimmt uns die handwerkliche Fleißarbeit ab. Aber das Denken, die Planung und die strategische Auswahl des richtigen Werkzeugs – das bleibt weiterhin dein Job als kreativer Profi. Nutze ihn weise