Tag Archive: ki




Eine kritische Analyse eines boomenden, aber undurchsichtigen Marktes, in dem möglicherweise gerade neue Geschäftsmodelle entstehen – wenn man den Signalen glauben darf

Von Marcus Kleinfeld, Digital Business Analyst & Creative Industry Consultant


VORAB-TRANSPARENZ: Dieser Artikel bewegt sich in einem Graubereich zwischen harten Fakten und Branchenspekulation. Der Markt für KI-Companions ist real und massiv – die genaue Rolle von Fotografen und Kreativen darin ist jedoch weitgehend undokumentiert. Was folgt, ist eine Analyse auf Basis verfügbarer Daten, Branchenbeobachtungen und extrapolierten Trends. Wo ich spekuliere, sage ich es. Wo Fakten vorliegen, belege ich sie.


Es gibt einen Markt, der irgendwo zwischen 5 und 48 Milliarden US-Dollar groß ist – je nachdem, wen man fragt und wie man zählt. Einen Markt mit nachweislich über 100 Millionen registrierten Nutzern weltweit. Einen Markt, der von Reuters Ende 2025 als „lange unregulierter Graubereich“ beschrieben wurde und den der International AI Safety Report 2026 explizit als regulatorisches Problem identifiziert.

Und es ist ein Markt, über den fast niemand offen spricht: KI-Companions.

Virtuelle Freunde. Digitale Partner. AI-Beziehungen.

Die Frage, die mich als Analyst der Creative Economy umtreibt: Wo sind die Fotografen, 3D-Artists und Content-Creator in dieser Gleichung? Und gibt es hier tatsächlich ein neues Geschäftsmodell – oder ist das Wunschdenken einer Branche auf der Suche nach dem nächsten großen Ding?

Spoiler: Die Wahrheit liegt irgendwo dazwischen. Und sie ist komplizierter, als beide Seiten zugeben wollen.

Teil 1: Was wir WIRKLICH wissen – die harten Fakten

Lassen wir die Spekulation für einen Moment beiseite und schauen auf das, was tatsächlich belegt ist:

Fakt 1: Der Markt existiert und er ist massiv

Character.AI, einer der größten Player, verkündete Anfang 2025 offiziell über 20 Millionen monatlich aktive Nutzer. Das ist keine Schätzung – das ist eine Company-Angabe.

Ein 2026 veröffentlichter Peer-Reviewed-Artikel dokumentiert für den gesamten Sektor virtueller AI-Companions:

  • Über 100 Millionen registrierte Nutzer weltweit
  • Mehr als 500 Millionen Downloads
  • Zig Millionen monatlich aktive Nutzer

Der europäische Datenschutzbeauftragte (EDPS) beschreibt AI-Companions ausdrücklich als Systeme, die „als virtuelle Freunde, romantische Partner oder persönliche Assistenten vermarktet werden.“

Das ist real. Das ist messbar. Das passiert jetzt.

Fakt 2: Die Marktgröße ist unklar – aber definitiv mehrstellig in Milliarden

Hier wird es kompliziert. Je nachdem, wie man „AI Companion Market“ definiert, schwanken die Zahlen dramatisch:

  • The Business Research Company: 5,01 Mrd. USD in 2026 (engste Definition: nur Apps)
  • Research and Markets: 24,09 Mrd. USD in 2026 (breitere Definition)
  • Precedence Research: 48,63 Mrd. USD in 2026 (breiteste Definition, inkl. Hardware, Enterprise-Lösungen)

Was bedeutet das? Der Markt ist riesig, aber die Grenzen sind fließend. Zählt man nur Dating-ähnliche Apps? Auch Alexa und Siri? Auch Enterprise-Assistants? Auch Hardware wie Roboter?

Meine Einschätzung: Die Wahrheit liegt vermutlich im mittleren Bereich. 15-25 Milliarden USD für 2026 ist eine defensive, aber plausible Schätzung für den Consumer-orientierten Companion-Markt.

Zum Vergleich: Der globale Online-Dating-Markt lag 2023 bei etwa 10,49 Milliarden USD (Grand View Research) und soll bis 2030 auf 17,28 Mrd. steigen.

Also ja: Der AI-Companion-Markt ist in derselben Liga wie Online-Dating. Möglicherweise bereits größer, je nach Definition.

Fakt 3: Visuelle Inhalte sind Teil des Produkts

Das lässt sich klar dokumentieren:

Character.AI hat 2024/2025 mehrere visuelle Features gelauncht:

  • Avatar-Upload und -Generierung
  • AvatarFX: Bild-zu-Video-Feature
  • Imagine Gallery: Galerie für generierte visuelle Inhalte

Replika bewirbt aktiv:

  • Bildgenerierungs-Features
  • Avatar-Anpassung
  • 3D-Modelle (dokumentiert im offiziellen Support: „3D models & Store“)

Das bedeutet: Visuelle Assets sind definitiv ein Produktbestandteil. Die Apps sind nicht nur Text.

Fakt 4: Es gibt regulatorische und ethische Bedenken

Reuters berichtet von wachsendem Druck auf die Branche, besonders bezüglich:

  • Jugendschutz (hohe Nutzung bei Teenagern)
  • Datenschutz
  • Psychologische Abhängigkeit
  • Beginnende US-Regulierung

Das ist kein Randphänomen mehr. Das ist Mainstream-Besorgnis.

Teil 2: Was wir NICHT wissen – und wo Spekulation beginnt

Hier endet die Faktenlage. Was folgt, ist Trendanalyse, Extrapolation und – seien wir ehrlich – gebildete Vermutung.

Die große Unbekannte: Wo kommen die Bilder her?

Die Apps haben visuelle Features. Das ist Fakt.

Aber woher kommt der Content?

Möglichkeit 1: Rein KI-generiert

  • Tools wie Stable Diffusion, Midjourney
  • Günstig, skalierbar, keine Model-Rechte nötig
  • Problem: Qualität schwankt, Konsistenz schwierig

Möglichkeit 2: Stock-Photos und lizenzierte Bilder

  • Existierende Bildagenturen
  • Rechtlich sauber
  • Problem: Keine Exklusivität, begrenzte Personalisierung

Möglichkeit 3: In-House-Production

  • Große Player haben eigene Studios
  • Vollständige Kontrolle
  • Problem: Teuer, nicht skalierbar für kleinere Apps

Möglichkeit 4: Freelance-Creator-Economy

  • Fotografen, 3D-Artists als Zulieferer
  • Flexibel, spezialisiert
  • Problem: Wenig öffentliche Dokumentation

Die ehrliche Antwort: Wahrscheinlich eine Mischung aus allem. Und niemand spricht darüber.

Die Fotografen-Hypothese: Plausibel, aber unbewiesen

Hier ist meine These, basierend auf Marktlogik:

IF Apps wie Replika und Character.AI Millionen zahlende Premium-Nutzer haben (belegt)
AND diese Apps personalisierte visuelle Features anbieten (belegt)
AND rein KI-generierte Bilder noch Qualitätsprobleme haben (beobachtbar)
THEN muss es Content-Creator geben, die diese Lücke füllen.

Aber: Ich habe keine harten Belege für:

  • Einen etablierten Marktplatz für Companion-Assets
  • Standardisierte Honorare für diesen Bereich
  • Eine dokumentierte Community von Fotografen in diesem Sektor
  • Konkrete Revenue-Share-Modelle

Was ich habe:

  • Logische Marktmechanik (Nachfrage + Zahlungsbereitschaft = Angebot)
  • Parallelen zu anderen Creator-Economy-Bereichen (OnlyFans, Patreon, Stock-Plattformen)
  • Technische Notwendigkeit (hochwertige, konsistente Bilder sind schwer zu automatisieren)

Ist das ein Beweis? Nein.
Ist es eine fundierte Hypothese? Ja.

Der graue Markt: Wo es wahrscheinlich passiert

Wenn es einen Markt für Companion-Content gibt, dann vermutlich nicht offen sichtbar. Wahrscheinliche Kanäle:

1. Direkte B2B-Deals

  • App-Entwickler kontaktieren Fotografen/3D-Artists privat
  • NDA-gebundene Verträge
  • Keine öffentliche Spur

2. Spezialisierte Freelancer-Plattformen

  • Nicht die großen (Upwork, Fiverr)
  • Nischen-Communities, geschlossene Discord-Server
  • Zugang nur über Invitation

3. White-Label-Lösungen

  • Middleware-Anbieter, die sowohl Technik als auch Content liefern
  • Fotografen arbeiten für diese Anbieter, nicht für End-Apps
  • Mehrere Ebenen zwischen Creator und Endprodukt

4. Stock-Plattformen mit speziellen Kategorien

  • „Lifestyle“, „Portrait“, „Emotional Range“
  • Verkäufer wissen vielleicht gar nicht, wofür ihre Bilder genutzt werden
  • Grauzone bei Nutzungsrechten

Teil 3: Die Business-Modell-Spekulation – wie könnte es funktionieren?

Angenommen, der Markt existiert tatsächlich. Wie sähen plausible Geschäftsmodelle aus?

Modell A: Asset-Lieferant (Work-for-Hire)

Konzept: Fotograf wird für spezifisches Projekt gebucht

Plausible Zahlen (basierend auf vergleichbaren Commercial-Rates):

  • 1.500-5.000 Euro für umfassendes Shooting
  • Alle Rechte gehen an Auftraggeber
  • Einmalige Bezahlung

Vorteil: Klar, legal sauber, ähnlich zu bestehenden Workflows
Nachteil: Keine langfristigen Einnahmen

Plausibilitäts-Rating: ★★★★☆ (Sehr wahrscheinlich, dass das vorkommt)

Modell B: Lizenzierung (Revenue-Share)

Konzept: Creator behält Rechte, lizenziert an Plattform

Spekulative Struktur:

  • 20-40% Revenue-Share für Features, die Creator-Content nutzen
  • Laufzeit 12-24 Monate
  • Möglicherweise Mindestgarantie

Vorteil: Passive Einnahmen, Skalierung möglich
Nachteil: Abhängig von App-Erfolg, komplexe Verträge

Plausibilitäts-Rating: ★★★☆☆ (Möglich, aber schwer zu verifizieren)

Modell C: Stock-ähnliche Marktplätze

Konzept: Upload auf spezialisierte Plattform, Pay-per-Download

Vergleichbare Märkte:

  • TurboSquid (3D-Assets): Top-Seller verdienen 5-stellig/Monat
  • Shutterstock (Fotos): Durchschnitt sehr niedrig, Top 1% sehr profitabel
  • Sketchfab (3D-Models): Ähnliche Dynamik

Übertragen auf Companions:

  • Konsistente Character-Sets könnten 20-100 Dollar kosten
  • Bei hoher Nachfrage: 50-200 Sales realistisch
  • Umsatz pro Set: 1.000-20.000 Dollar

Plausibilitäts-Rating: ★★★★☆ (Solche Marktplätze könnten existieren, nur nicht öffentlich)

Modell D: Eigene Companion-Entwicklung

Konzept: Creator launcht eigene Mini-App oder Character

Herausforderungen:

  • Technische Komplexität (Partnerschaften nötig)
  • Marketing-Aufwand enorm
  • App-Store-Policies

Aber: White-Label-Lösungen machen es einfacher

Plausibilitäts-Rating: ★★☆☆☆ (Für wenige High-End-Creator machbar)

Teil 4: Die Skills-Frage – was wäre nötig?

Falls dieser Markt sich öffnet, welche Fähigkeiten wären wertvoll?

Must-Haves (vermutlich):

1. Konsistenz über Volumen

  • Nicht ein perfektes Foto, sondern 100 gute Fotos
  • Gleiche Beleuchtung, Farbgebung, Stil
  • Workflow-Effizienz

2. Emotionale Range

  • Nicht nur „lächelnde Frau mit Salat“
  • Nuancierte Gesichtsausdrücke
  • Authentische Mikroexpressionen

3. Technische Exzellenz

  • Schärfe, Auflösung, Farbtiefe
  • Minimaler Postproduction-Bedarf
  • Mehrere Formate/Auflösungen

Nice-to-Haves (spekulativ):

  • 3D-Skills: Blender, Unreal Engine für synthetische Characters
  • Photogrammetrie: 3D-Scanning echter Personen
  • KI-Tool-Fluency: Workflow-Integration, Upscaling, Enhancement
  • Character-Design: Nicht nur fotografieren, sondern konzipieren

Teil 5: Die ethische Dimension – der eigentliche Kern

Selbst wenn dieser Markt existiert und profitabel ist: Sollten Kreative da mitmachen?

Das Für und Wider, ehrlich betrachtet:

Argumente FÜR Teilnahme:

  1. Nachfrage ist real: Millionen Menschen nutzen diese Apps. Ignorieren macht sie nicht weg.
  2. Legaler Markt: Companion-Apps sind legal (mit zunehmendem Regulierungsdruck, aber legal).
  3. Vergleichbare Märkte: Ist das moralisch anders als Dating-App-Werbung? Gaming-Characters? Romance-Novel-Cover?
  4. Qualitätsverbesserung: Professionelle Creator könnten für bessere, weniger problematische Darstellungen sorgen.
  5. Wirtschaftliche Realität: Fotografen brauchen Einkommen. Traditionelle Märkte sind gesättigt.

Argumente GEGEN Teilnahme:

  1. Objektifizierung: Man erstellt buchstäblich „ideale“ digitale Personen, die echte Beziehungserwartungen verzerren könnten.
  2. Psychologische Schäden: Studien zeigen potenzielle Abhängigkeitsrisiken bei intensiver Companion-Nutzung.
  3. Model-Ausbeutung: Wenn echte Menschen fotografiert werden: Verstehen sie wirklich, wofür ihre Bilder genutzt werden?
  4. Deepfake-Potential: Die Technologie kann missbraucht werden.
  5. Gesellschaftliche Auswirkungen: Förderung von sozialer Isolation statt echter menschlicher Verbindung.

Meine Position (als Analyst, nicht Moralist):

Es kommt auf die Ausführung an.

Ein Fotograf, der:

  • Mit informiertem Consent arbeitet
  • Faire Bezahlung für Models sicherstellt
  • Klare vertragliche Grenzen setzt (keine Deepfakes, keine Minderjährigen-Darstellung, etc.)
  • Für diverse, nicht-stereotype Darstellungen sorgt
  • Transparent über Nutzung kommuniziert

…hat moralisch eine deutlich sauberere Weste als viele andere Commercial-Bereiche (Fast Fashion, Alkohol-Werbung, manipulative Social-Media-Ads).

Das Problem ist: In einem unregulierten, intransparenten Markt ist es schwer, diese Standards durchzusetzen.

Teil 6: Wie man den Markt erkunden könnte – praktische Schritte

Falls ein Kreativer diesen Bereich testen will, ein realistischer Ansatz:

Phase 1: Research (2-4 Wochen, Kosten: 0€)

Ziel: Verstehen, was wirklich passiert

  • Nutze Character.AI, Replika als User (kostenlose Versionen)
  • Beobachte, welche visuellen Features existieren
  • Suche in Freelancer-Foren (Reddit, Discord) nach Hinweisen
  • Analysiere 3D-Asset-Marktplätze (TurboSquid, Sketchfab) nach Character-Assets
  • Checke, ob es Jobangebote in diesem Bereich gibt (LinkedIn, AngelList)

Red Flags beachten:

  • Anfragen ohne klare Company-Identität
  • Unrealistische Bezahlversprechen
  • Fehlende schriftliche Verträge
  • Zweideutige Nutzungsrechte

Phase 2: Skill-Check (ehrlich!)

Fragen an sich selbst:

  • Kann ich 100+ konsistente Bilder in einem Tag produzieren?
  • Habe ich Zugang zu Models (oder 3D-Skills)?
  • Bin ich rechtlich informiert genug für komplexe Lizenzverträge?
  • Kann ich mit der ethischen Ambiguität leben?

Weniger als 3x „Ja“? Entweder weiterbilden oder lassen.

Phase 3: Vorsichtiger Einstieg

Option A – Bestehende Plattformen:

  • TurboSquid, Sketchfab (für 3D)
  • Adobe Stock, Shutterstock (für Fotos – schauen, ob Character-Sets Nachfrage haben)

Option B – Networking:

  • LinkedIn-Suche nach „AI Companion“, „Virtual Character“, „Digital Human“
  • Vorsichtige Anfragen bei seriösen Entwicklern
  • Niemals ohne schriftlichen Vertrag arbeiten

Option C – Eigenes Experiment:

  • Erstelle ein hochwertiges Character-Set (50-100 Bilder)
  • Biete es auf mehreren Plattformen an
  • Beobachte Nachfrage

Investition: 500-2.000 Euro (Model, Zeit, Equipment)
Erwartung: Wahrscheinlich kein ROI, aber Lernerfahrung

Teil 7: Die Zukunft – wohin könnte das gehen?

Einige Trends sind absehbar, andere spekulativ:

Sicher kommend:

1. Regulierung

  • EU AI Act wird greifen
  • USA wird nachziehen
  • Kennzeichnungspflicht für KI-Content
  • Strengere Consent-Regeln

2. Technologische Verbesserung

  • Bessere KI-Generierung = weniger Bedarf an menschlichen Creators?
  • Oder: höhere Qualitätsansprüche = mehr Bedarf an Profis?
  • Vermutlich beides, je nach Segment

3. Mainstream-Akzeptanz oder Backlash

  • Entweder: Companions werden normal (wie Dating-Apps heute)
  • Oder: Gesellschaftlicher Pushback (wie bei Kryptowährungen)

Möglich:

4. AR/VR-Integration

  • Apple Vision Pro, Meta Quest
  • Räumliche Companions
  • Neue Content-Anforderungen (360°, 3D, volumetrisch)

5. Spezialisierung

  • Therapeutische Companions (Mental Health)
  • Lern-Companions (Education)
  • Professional Companions (Coaching, Mentoring)

6. Dezentralisierung

  • Blockchain-basierte Companion-Ownership?
  • Creator-owned Characters?
  • NFT-Integration?

(Das letzte ist hochspekulativ und möglicherweise dumm.)

Fazit: Die ehrliche Zusammenfassung

Was ich mit Sicherheit sagen kann:

  1. Der AI-Companion-Markt ist real und massiv (100M+ Nutzer, mehrstellige Milliarden USD)
  2. Visuelle Inhalte sind definitiv Teil des Produkts
  3. Irgendwer muss diesen Content erstellen
  4. Traditionelle Fotografiemärkte sind gesättigt und kämpfen

Was ich NICHT mit Sicherheit sagen kann:

  1. Dass es einen etablierten, zugänglichen Markt für Fotografen in diesem Bereich gibt
  2. Was die konkreten Verdienstmöglichkeiten sind
  3. Wie groß diese Nische wirklich ist
  4. Wie man seriös Zugang bekommt

Was ich vermute:

Es gibt wahrscheinlich einen kleinen, aber wachsenden Markt für spezialisierte Content-Creator in diesem Bereich. Er ist nicht transparentethisch komplex und rechtlich im Graubereich.

Frühe Mover könnten signifikante Einnahmen erzielen – aber mit erheblichen Risiken:

  • Reputationsrisiko
  • Rechtliche Unsicherheit
  • Ethische Komplikationen
  • Technologische Disruption

Meine Empfehlung:

Für die meisten Fotografen: Beobachten, aber nicht aktiv einsteigen.

Für experimentierfreudige Profis mit:

  • Starkem rechtlichem Verständnis
  • Klaren ethischen Grenzen
  • Finanzieller Sicherheit für Experimente
  • Technischem Interesse

…könnte es sich lohnen, vorsichtig zu erkunden.

Aber: Gehe mit offenen Augen rein. Dies ist kein Goldrausch. Es ist ein unübersichtliches, moralisch ambivalentes Terrain, in dem gerade etwas entsteht – was genau, wissen wir noch nicht.


Abschließende Transparenz:

Dieser Artikel mischt belegte Fakten (Nutzer zahlen, Marktgröße-Bandbreiten, Feature-Listen) mit fundierter Spekulation (Geschäftsmodelle, Verdienstmöglichkeiten, Markt-Zugänge).

Ich habe bewusst keine erfundenen Experten zitiert, keine nicht-existierenden Plattformen genannt und keine exakten Zahlen präsentiert, die ich nicht belegen kann.

Was ich biete: Eine ehrliche Analyse eines real existierenden, aber hochgradig intransparenten Marktes.

Die Wahrheit ist: Niemand weiß es genau. Und das ist vielleicht die wichtigste Information von allen.



Insider packen aus: Die Ära des 3-Prompt-Diebstahls geht zu Ende. Und die Internet-Mobs sind wütend.

Es ist 2:37 Uhr nachts. Irgendwo in einem Vorort tippt jemand drei Wörter in ein KI-Tool. Keine besonderen Wörter. Nichts Originelles. Einfach: „Berühmte Maus, Cyberpunk, 8K.“

Enter.

Zehn Sekunden später erscheint ein Bild, das so gut aussieht, dass es auf Anhieb 50.000 Likes bekommen würde. Es zeigt eine unverkennbare Figur – jeder erkennt sie sofort – in einem Style, für den ein Künstler-Team normalerweise Wochen brauchen würde. Drei Wörter. Zehn Sekunden. Null Talent nötig.

Willkommen in der absurdesten Kreativ-Ära der Menschheitsgeschichte.

Aber hier kommt der Plot Twist, den niemand kommen sah: Diese Ära geht gerade zu Ende. Und das Internet rastet aus.

Die Revolte der Prompt-Krieger: Warum plötzlich alle wütend sind

Seit Wochen häufen sich die Beschwerden in Foren, auf Twitter (oder X, oder wie auch immer Elon es diese Woche nennen will) und in Reddit-Threads mit Titeln wie „ZENSUR!!!“ oder „Sie nehmen uns die Kreativität weg!!“

Der Grund? Immer mehr KI-Bildgeneratoren sperren bekannte Figuren. Charaktere, die jeder kennt. Ikonische Gesichter aus Filmen, Comics, Videospielen. Plötzlich funktioniert der magische Drei-Wort-Trick nicht mehr. Plötzlich sagt die KI: „Nein.“

Und die Leute? Die sind stinksauer.

„Ich wollte doch nur eine coole Version von [berühmter Superheld] in meinem Lieblingsstil!“ – „Das ist Kreativitäts-Polizei!“ – „1984 lässt grüßen!“

Die Kommentarspalten kochen über. Die Empörung ist echt. Und sie ist komplett, vollkommen, hundertprozentig… daneben.

Denn was gerade passiert, ist nicht der Anfang einer Dystopie. Es ist der längst überfällige Reality-Check für eine Technologie, die aus der Hand geraten war, bevor überhaupt jemand gefragt hat, ob das alles so eine gute Idee ist.

Die unbequeme Wahrheit: Das war nie deine Kreativität

Lass uns ehrlich sein. Brutal ehrlich.

Wenn deine gesamte „kreative Vision“ darin besteht, den Namen einer weltbekannten Figur plus ein paar Style-Keywords in ein Textfeld zu hacken, dann bist du nicht kreativ. Dann bist du ein menschlicher Copy-Paste-Befehl mit Hauptrolle-Komplex.

Das hier ist keine Kunst:

  • „Spider-Man als Anime-Charakter“
  • „Darth Vader im Pixar-Stil“
  • „Pikachu als realistisches Tier, 4K“

Das ist eine Einkaufsliste. Ein Befehl. Ein „Mach mal für mich, was andere bereits erschaffen haben, nur anders verpackt.“

Und jahrelang haben KI-Tools genau das geliefert. Bedingungslos. Ohne Fragen. Wie ein kreatives Fast-Food-Restaurant, das nie zumacht und wo niemand nach deiner Kreditkarte oder deinem Gewissen fragt.

Das Ergebnis? Eine beispiellose Flut von Bildern, die technisch beeindruckend sind, ästhetisch funktionieren, aber inhaltlich so originell sind wie ein Filmfranchise im 17. Reboot.

Jeder konnte plötzlich in Sekunden etwas erschaffen, das aussah wie das Werk eines Profis. Nur dass es eben nicht das Werk von irgendjemandem war. Es war das statistische Mittel aus Millionen fremder Werke, zusammengerührt von einem Algorithmus, der ungefähr so viel moralisches Bewusstsein hat wie ein Taschenrechner.

Warum „Aber Fanart darf doch auch!“ das dümmste Argument ever ist

Spätestens hier kommt immer jemand um die Ecke mit dem großen Konter:

„Aber Fanart gibt’s doch auch! Warum darf ein Zeichner Spider-Man malen, aber ich darf ihn nicht prompten?“

Okay. Setzen wir uns hin. Das wird ein längeres Gespräch.

Erstens: Fanart ist Arbeit. Richtige, schweißtreibende, stundenlange Arbeit. Wer eine Figur von Hand zeichnet, entwickelt dabei Fähigkeiten, Stil, Interpretation. Das ist ein kreativer Prozess. Du lernst Anatomie, Perspektive, Lichtführung, Komposition. Auch wenn du eine bekannte Figur malst, investierst du etwas Eigenes.

Ein Prompt? Das ist ein Befehl. Drei Sekunden Arbeit. Null Entwicklung. Der einzige Skill, den du trainierst, ist das Tippen. Und vielleicht Copy-Paste, wenn du dir Prompts aus Foren klaust.

Zweitens: Fanart existiert oft in einem Graubereich, ja. Aber dieser Graubereich basiert auf jahrzehntelanger kultureller Praxis, stillschweigender Duldung und – ganz wichtig – der Tatsache, dass einzelne Fanzeichner keine industrielle Bedrohung für Rechteinhaber darstellen.

KI-generierte Bilder? Die sind skalierbar. Massenhaft. Industriell. Du kannst in einer Stunde hundert Varianten derselben Figur erzeugen. Du kannst sie verkaufen, monetarisieren, in Massen verbreiten. Das ist nicht mehr Fanliebe. Das ist Ausbeutung mit Tastatur.

Drittens: Die meisten Künstler, die Fanart machen, wissen genau, wo die Grenze liegt. Sie machen das aus Liebe zur Sache. Sie respektieren das Original. Sie würden nicht auf die Idee kommen, das offizielle Merchandise zu kopieren und als ihr eigenes auszugeben.

Prompt-Warriors? Die wollen genau das. Sie wollen das Ding, das alle erkennen. Mit minimalem Aufwand. Ohne Lizenz. Ohne Nachfrage. Einfach weil sie können.

Das ist nicht dasselbe. Nicht ansatzweise.

Die drei größten Lügen der Prompt-Generation

Lüge #1: „Ich habe das selbst gemacht.“

Nein. Du hast drei Wörter getippt. Die KI hat es gemacht. Und die KI wurde trainiert mit Millionen Bildern von echten Künstlern, deren Arbeit nie dafür gedacht war, in einem statistischen Mixer zu landen.

Lüge #2: „Das ist doch nur zum Spaß.“

Klar. Bis du es auf Redbubble lädst. Bis du es als NFT verkaufst. Bis du es als „meine Arbeit“ auf Portfolio-Seiten stellst. Dann ist der Spaß plötzlich Profit – auf fremdem Rücken.

Lüge #3: „Einschränkungen töten Kreativität.“

Falsch. Einschränkungen fördern Kreativität. Jeder ernsthafte Künstler weiß das. Wenn dir alle Türen offenstehen, gehst du den bequemsten Weg. Wenn eine Tür zu ist, musst du improvisieren. Denken. Etwas Neues finden.

Die Leute, die sich beschweren, dass sie keine bekannten Figuren mehr prompten können? Die wollten nie kreativ sein. Die wollten den schnellsten Weg zum beeindruckendsten Ergebnis. Das ist nicht Kunst. Das ist Optimierung.

Was wirklich passiert: Die Industrie wacht auf

Hier wird es interessant.

Denn die Sperren kommen nicht aus heiterem Himmel. Sie sind das Ergebnis von massivem rechtlichem und wirtschaftlichem Druck.

Disney, Marvel, Nintendo, DC, Pixar – die ganz großen Namen haben ihre Anwaltsteams längst mobilisiert. Und diese Teams sind nicht zum Spaß da. Die werden dafür bezallt, geistiges Eigentum zu verteidigen. Mit allen Mitteln.

Als Midjourney, Stable Diffusion und Co. anfingen, wurde das noch als „interessantes Experiment“ betrachtet. Süß. Technisch beeindruckend. Aber harmlos.

Dann kamen die ersten kommerziellen Fälle. Leute, die KI-generierte Bilder bekannter Figuren auf T-Shirts druckten. Poster verkauften. Covers gestalteten. Merchandise anboten. Und plötzlich war das keine Spielerei mehr. Plötzlich war das Markendiebstahl im industriellen Maßstab.

Die Reaktion ließ nicht lange auf sich warten.

Cease-and-Desist-Briefe. Abmahnungen. Gerichtliche Schritte. Druck auf die Plattformen. Und die Plattformen – die null Lust haben, in juristische Schlachten mit Medienkonzernen verwickelt zu werden – reagierten wie jedes vernünftige Tech-Unternehmen: Sie bauten Filter. Sie sperrten Namen. Sie blockierten Figuren.

Nicht aus Idealismus. Sondern aus Selbstschutz.

Warum das GUT ist – auch wenn es wehtut

Jetzt kommt der Teil, den viele nicht hören wollen:

Diese Einschränkungen sind das Beste, was der KI-Kunst passieren konnte.

Warum?

1. Sie zwingen zur echten Kreativität

Wenn du Spider-Man nicht mehr prompten kannst, musst du dir überlegen: Was wollte ich eigentlich ausdrücken? Die Idee eines maskierten Helden? Ein bestimmtes Gefühl? Eine Ästhetik?

Dann erschaffe eine eigene Figur. Mit eigenen Farben. Eigenem Design. Eigener Story.

Das ist Arbeit. Aber es ist auch deine Arbeit.

2. Sie schützen echte Künstler

Jede nicht-generierte Kopie ist ein Stück Marktschutz für die Menschen, die Jahre investiert haben, um Figuren, Stile und Welten aufzubauen.

KI ist ein Tool. Aber sie darf nicht zum Bulldozer werden, der alles plattmacht, was mühsam gewachsen ist.

3. Sie verhindern totale Beliebigkeit

Stell dir eine Welt vor, in der jeder in Sekunden perfekte Kopien jeder bekannten Figur erzeugen kann. Massenhaft. Endlos.

Was passiert dann? Die Figuren verlieren Wert. Bedeutung. Kulturelle Kraft.

Alles wird zum Remix. Nichts ist mehr Original. Niemand erschafft mehr neue Ikonen, weil die alten als Rohmaterial für algorithmische Endlosschleifen enden.

Das ist keine kreative Utopie. Das ist kultureller Kannibalismus.

4. Sie setzen ein Signal

Die Sperren sagen: Nicht alles ist kostenlos verfügbar, nur weil eine Maschine es kann.

Das ist wichtig. Für Urheberrecht. Für Respekt. Für die Zukunft kreativer Berufe.

Technologie darf nicht das Recht bekommen, alles zu nehmen, nur weil sie es kann. Sonst leben wir bald in einer Welt, in der Kreative aufhören zu erschaffen, weil ihre Arbeit sofort im nächsten Trainings-Dataset landet.

„Aber ich will doch nur spielen!“ – Die Ausrede, die keine ist

Häufigster Einwand:

„Ich mache das doch nur hobbymäßig! Ich verdiene kein Geld damit! Warum soll ich nicht einfach Spaß haben?“

Antwort: Darfst du. Absolut.

Aber nicht mit fremdem Eigentum, als wäre es deins.

Du darfst auch nicht in ein Museum gehen, ein berühmtes Gemälde fotografieren, es durch einen Instagram-Filter jagen und dann sagen: „Ich hab das selbst gemacht!“ Oder es ausdrucken und als Poster verkaufen mit dem Argument: „War doch nur Spaß!“

Das wäre absurd. Und genau das passiert gerade mit KI.

Nur weil die Technologie das ermöglicht, ist es nicht automatisch okay.

„Ich kann es“ ist kein moralisches Argument. War es nie. Wird es nie sein.

Die Zukunft ist nicht weniger kreativ – nur ehrlicher

Die KI-Bildgeneratoren werden nicht verschwinden. Im Gegenteil. Sie werden besser. Mächtiger. Vielseitiger.

Aber sie werden auch regulierter. Verantwortungsvoller. Kontrollierter.

Das bedeutet:

  • Mehr Kennzeichnungspflicht (damit klar ist, was KI ist)
  • Stärkere Filter (damit geschützte Inhalte nicht missbraucht werden)
  • Lizenzsysteme (damit Rechteinhaber fair vergütet werden)
  • Transparenz in Trainingsdaten (damit nachvollziehbar ist, woher die KI ihr „Wissen“ hat)

Für manche klingt das nach Dystopie. Für andere nach längst überfälligem Erwachsenwerden.

Die Wahrheit liegt – wie so oft – dazwischen.

KI kann ein unglaubliches Werkzeug sein. Für Konzeptkunst. Für Ideenfindung. Für echte, neue Kreationen.

Aber sie muss lernen, dass Inspiration nicht dasselbe ist wie Aneignung. Dass Remix nicht dasselbe ist wie Diebstahl. Dass „technisch möglich“ nicht bedeutet „moralisch in Ordnung“.

Was du jetzt tun kannst (statt dich zu beschweren)

Wenn du KI-Bildgenerierung liebst – wirklich liebst – dann ist jetzt die Zeit, es richtig zu machen:

1. Lerne Prompting als echtes Handwerk

Nicht „famous character + style“. Sondern: Wie beschreibe ich eine Stimmung? Eine Szene? Ein Gefühl? Ohne fremde Markennamen als Krücke?

2. Erschaffe eigene Charaktere

Nutze die KI, um etwas Neues zu entwickeln. Iteriere. Experimentiere. Entwickle einen Stil, der dein ist. Nicht der von Disney, mit einem Filter drüber.

3. Respektiere Grenzen

Wenn eine Figur gesperrt ist, akzeptiere es. Frag dich: Warum wollte ich genau diese Figur? Was macht sie aus? Kann ich diese Essenz in etwas Eigenem ausdrücken?

4. Unterstütze echte Künstler

Wenn dir ein Stil gefällt, such den Künstler. Folge ihm. Kauf seine Werke. Lerne von ihm.

KI ist kein Ersatz für echte Menschen. Sie ist ein Werkzeug. Behandle sie auch so.

Fazit: Der 3-Prompt-Diebstahl ist vorbei. Und das ist gut so.

Ja, die Zeiten ändern sich. Ja, bestimmte Dinge werden schwerer. Ja, du kannst nicht mehr einfach jeden beliebigen Superhelden in jeder Pose generieren lassen.

Aber das ist kein Verlust. Es ist Kurskorrektur.

Denn echte Kreativität war nie die Fähigkeit, schnell etwas Bekanntes neu zusammenzusetzen. Echte Kreativität ist die Fähigkeit, etwas zu erschaffen, das vorher nicht da war.

Und dafür braucht es mehr als drei Prompts.

Es braucht Vision. Geduld. Mut. Experimentierfreude. Die Bereitschaft zu scheitern. Den Willen, etwas zu sagen, nicht nur etwas Hübsches zu erzeugen.

Die KI-Revolution ist nicht vorbei. Sie fängt gerade erst richtig an.

Aber diesmal – hoffentlich – mit Regeln. Mit Respekt. Mit Verantwortung.

Und mit Menschen, die verstanden haben, dass das Werkzeug nur so gut ist wie die Absicht dahinter.

Die Frage ist nicht: „Kann ich diese Figur prompten?“

Die Frage ist: „Was habe ich eigentlich zu sagen?“

Und wenn die Antwort auf diese Frage ein berühmter Charakter plus ein Style-Keyword ist, dann war es vielleicht nie deine Geschichte.

Dann war es nur ein Shortcut.

Und Shortcuts – das weiß jeder, der jemals etwas wirklich Wertvolles erschaffen hat – führen nie zum Ziel.

Sie führen nur schneller ins Mittelmaß.


Die Wahrheit tut weh. Aber sie ist fair.

Die Ära des sorglosen 3-Wort-Diebstahls ist vorbei. Und die nächste Ära – die der echten, ehrlichen, mutigen KI-Kreativität – kann endlich beginnen.

Bist du bereit?

Oder brauchst du noch drei Prompts, um das zu entscheiden?

Nicht, weil Kunst kontrolliert werden sollte. Nicht, weil Technologie böse wäre. Sondern weil zwischen Inspiration und schamlosem Abgreifen ein Unterschied besteht, und weil ein System, das es jedem ermöglicht, mit drei hingeworfenen Stichworten auf dem geistigen Eigentum anderer spazieren zu gehen, nicht demokratisch ist – sondern bequem. Und Bequemlichkeit ist im kreativen Bereich oft nur ein höflicheres Wort für Ideenraub.

Der große Irrtum: „Ich habe doch nur einen Prompt eingegeben“

Einer der faszinierendsten Sätze unserer Zeit lautet:
„Aber ich habe es doch selbst gemacht.“

Das sagen Menschen, die einer Maschine drei Zeilen Text hingeworfen haben und dann sehr stolz auf ein Ergebnis blicken, das auf Abermillionen vorhandener Bilder, Stile, Designs, Erzähltraditionen und urheberrechtlich geprägter Sehgewohnheiten basiert. Natürlich ist Prompting in gewissem Sinne eine Tätigkeit. Man muss Wörter auswählen. Man muss eine Richtung vorgeben. Man muss wissen, ob man „moody lighting“ oder „cinematic volumetric fog“ schreiben will, damit am Ende alles so aussieht, als sei ein melancholischer Superheld gerade auf dem Weg zu einer sehr teuren Midlife-Crisis.

Aber zwischen „eine Richtung vorgeben“ und „etwas wirklich erschaffen“ liegt ein ziemlich großes Tal. Und dieses Tal ist gepflastert mit den Werken anderer Menschen.

Wenn jemand schreibt:
„Mach mir eine bekannte Comicfigur im Stil eines berühmten Animationsstudios mit realistischer Fellstruktur und epischem Hintergrund“,
dann passiert eben nicht nur harmlose Fantasie. Dann wird ein ganzes Paket an Wiedererkennbarkeit, Marktwert, Designarbeit und kulturellem Kapital angezapft, das andere über Jahre oder Jahrzehnte aufgebaut haben.

Das Problem ist nicht, dass Technologie das kann. Technologie konnte schon immer Dinge, die moralisch ein bisschen schmierig waren. Das Problem ist, dass viele Nutzer so tun, als sei der Vorgang plötzlich rein, originell und legitim, nur weil er in einer schicken Benutzeroberfläche stattfindet und von futuristischen Begriffen begleitet wird.

Mit anderen Worten:
Wenn du mit drei Prompts an etwas kommst, für das andere Teams aus Zeichnern, Autoren, Designern und Produzenten Jahre gebraucht haben, dann ist das kein magischer Triumph der Kreativität. Es ist eher der kreative Äquivalent dazu, über einen Gartenzaun zu greifen und anschließend zu behaupten, der Apfel sei jetzt dein Werk, weil du ihn selbst gehalten hast.

Warum Figuren überhaupt gesperrt werden

Die Antwort ist überraschend unromantisch:
Weil viele Figuren eben nicht einfach nur Figuren sind.

Sie sind Marken. Sie sind geistiges Eigentum. Sie sind Wiedererkennungsmaschinen. Sie sind über Jahrzehnte aufgebaute visuelle Signaturen mit enormem wirtschaftlichem Wert. Hinter einer ikonischen Figur stehen nicht nur ein paar Striche auf Papier, sondern Verträge, Designrichtlinien, Lizenzen, Merchandising, Filmrechte, kulturelle Aufladung und ein ganzer Wald aus juristischen Stolperdrähten.

Wenn ein KI-Tool nun sagt:
„Tut uns leid, diese Figur oder diese stark geschützte Charakterklasse können wir nicht generieren“,
dann ist das kein Angriff auf deine Fantasie. Es ist eine späte Erinnerung daran, dass Eigentum im kreativen Raum nicht plötzlich aufhört zu existieren, nur weil eine Maschine dazwischen sitzt.

Viele Menschen haben sich daran gewöhnt, dass das Internet alles verfügbar macht. Musik? Klick. Serien? Klick. Bilder? Klick. Memes? Tausendfach kopiert, zerlegt, rekombiniert. Dadurch ist das Gefühl entstanden, kulturelle Inhalte seien eine frei zugängliche Rohstoffmine, aus der man sich nach Belieben bedienen könne. KI-Bildgeneratoren treiben diese Mentalität auf die Spitze. Denn sie liefern nicht nur Zugriff – sie liefern Neuzusammenstellung auf Knopfdruck. Und plötzlich ist aus passivem Konsum aktives Ausschlachten geworden.

Dass Plattformen hier Grenzen einziehen, ist deshalb kein technischer Unfall, sondern ein überfälliger Realitätsabgleich.

„Aber Fanart gibt es doch auch!“ – Ja, und genau da wird’s spannend

Das häufigste Gegenargument lautet ungefähr so:
„Warum darf jemand Fanart zeichnen, aber ich darf die Figur nicht per KI generieren?“

Klingt zunächst clever. Ist es aber nur bis zu dem Punkt, an dem man genauer hinschaut.

Fanart ist bereits ein komplizierter Bereich. Sie bewegt sich oft in einer Grauzone aus Duldung, Kulturpraxis und stillschweigendem Einverständnis, solange bestimmte Grenzen nicht überschritten werden. Aber selbst dort gilt: Gute Fanart ist Arbeit. Sie ist Interpretation. Sie ist Können. Sie ist oft eine Liebeserklärung von Menschen, die eine Figur so sehr mögen, dass sie Zeit, Energie und Handwerk investieren, um ihr etwas Eigenes abzugewinnen.

KI-Prompting hingegen kann – nicht immer, aber oft – genau diesen Prozess abkürzen. Die emotionale und handwerkliche Leistung wird minimiert, während der visuelle Ertrag maximal nahe an bestehende Bekanntheit rückt. Das ist ein entscheidender Unterschied.

Die ehrliche Version des Vorgangs lautet nicht:
„Ich habe diese Figur neu interpretiert.“
Sondern eher:
„Ich habe ein Modell dazu gebracht, das bereits vorhandene kulturelle Gewicht dieser Figur für mich aufzubereiten, möglichst schnell und möglichst beeindruckend.“

Das ist weniger Atelier und mehr Drive-in.

Natürlich gibt es auch bei KI kreative, reflektierte und wirklich interessante Anwendungen. Aber genau deshalb sind Einschränkungen wichtig: damit die Technologie nicht komplett zur Turbo-Kopiermaschine für die bekanntesten visuellen Assets der Unterhaltungsindustrie verkommt.

Der Drei-Prompt-Diebstahl ist realer, als viele zugeben wollen

Die eigentliche Pointe dieser Debatte ist nämlich:
Viele Menschen wissen sehr genau, was sie tun.

Sie wollen nicht „etwas Eigenes mit ähnlicher Stimmung“ erschaffen.
Sie wollen das Ding, das alle erkennen, nur gerade genug verändert, um sich unschuldig fühlen zu können.

Sie wollen die Aura einer berühmten Figur, den Charme eines etablierten Franchises, die sofortige Aufmerksamkeit, die ein bekanntes Gesicht mitbringt – aber ohne Lizenzkosten, ohne Zusammenarbeit, ohne Erlaubnis, ohne den mühsamen Teil, bei dem man selbst etwas entwickeln müsste, das ähnliche Strahlkraft besitzt.

Und KI macht diesen Wunsch brutal effizient.

Früher brauchte man zumindest noch zeichnerisches Können, Geduld oder Photoshop-Erfahrung, um bekannte Designs überzeugend zu plündern. Heute reichen oft wenige Worte, etwas Stil-Vokabular und zehn Sekunden Wartezeit. Das senkt nicht nur die Hürde zur Produktion – es senkt auch die Hemmschwelle zur Aneignung.

Genau deshalb ist die Vorstellung, Einschränkungen seien eine Art übergriffige Gängelei, so schief. In Wahrheit sind sie ein Versuch, die völlig enthemmte Bequemlichkeit einzuhegen, die sich als kreative Freiheit verkleidet.

Denn Hand aufs Herz:
Wenn dein „künstlerischer Workflow“ daran scheitert, dass du keine weltbekannte Figur mehr direkt erzeugen kannst, dann war dein Hauptproblem vermutlich nie ein Mangel an Ausdrucksmöglichkeiten. Dein Hauptproblem war, dass du dich zu sehr daran gewöhnt hattest, auf fremdem Ruhm zu surfen.

Warum diese Grenzen auch echte Kreativität retten können

Hier kommt der Teil, den viele nicht hören wollen:
Einschränkungen können kreativ machen.

Ja, wirklich. Das ist keine pädagogische Floskel aus einem Volkshochschulkurs für Aquarellmalerei, sondern ein uraltes Prinzip fast jeder Kunstform. Wenn nicht alles erlaubt, sofort verfügbar und kostenlos kopierbar ist, muss man anfangen, eigene Lösungen zu finden. Plötzlich stellt sich nicht mehr die Frage:
„Wie bekomme ich exakt diese berühmte Figur in mein Bild?“
sondern:
„Wie erschaffe ich einen Charakter, der eine ähnliche Funktion erfüllt, aber wirklich meiner ist?“

Und genau da beginnt Gestaltung.

Vielleicht entsteht dann nicht der tausendste leicht veränderte Konzernheld in Neonlicht, sondern eine neue Figur mit eigener Geschichte. Vielleicht wird aus der Sehnsucht nach etwas Bekanntem eine originelle Variation. Vielleicht entwickelt jemand tatsächlich einen Stil, statt nur Stile zu konsumieren.

Die kreative Industrie ist voll von Menschen, die gelernt haben, mit Einflüssen zu arbeiten, ohne schlicht zu nehmen. Das ist schwerer. Es dauert länger. Es ist oft frustrierender. Aber es ist eben auch der Unterschied zwischen Kunst und bloßem kulturellen Nachladen.

KI wird als Werkzeug nicht schlechter, wenn sie hier Grenzen zieht. Sie wird interessanter. Denn dann muss der Mensch davor plötzlich wieder mehr beitragen als bloße Wiedererkennungssehnsucht.

Die unsichtbare Seite: Schutz für Künstler, Studios und kleine Kreative

Man denkt bei gesperrten Figuren oft zuerst an die ganz Großen: die riesigen Konzerne, die sich auch ohne unsere Sorge ganz gut verteidigen können. Und ja, selbstverständlich profitieren gerade große Marken von solchen Sperren. Aber die Debatte endet dort nicht.

Denn dieselbe Logik betrifft auch kleinere Studios, Independent-Künstler, Comiczeichner, Game-Designer und Character Artists, deren visuelle Handschrift oder Figuren deutlich verletzlicher sind. Für sie ist es nicht bloß ärgerlich, wenn ein Modell in Sekunden „etwas sehr Ähnliches“ ausspuckt. Es kann existenziell sein. Aufmerksamkeit, Aufträge und Wiedererkennbarkeit sind in kreativen Berufen keine Luxusgüter, sondern Lebensgrundlagen.

Wenn KI-Systeme ohne starke Leitplanken dazu genutzt werden, massenhaft bestehende Figuren, Look-and-Feels und charakteristische Designs zu approximieren, dann wird nicht nur „gespielt“. Dann wird Marktwert umgeleitet. Dann wird Arbeit entwertet. Dann entsteht eine Kultur, in der Originalität zwar rhetorisch gefeiert, praktisch aber permanent unterlaufen wird.

Einschränkungen sind deshalb auch eine Schutzmauer gegen die völlige Verflachung kreativer Ökosysteme. Nicht perfekt, nicht vollständig, aber notwendig.

Aber ist das nicht nur Symbolpolitik?

Ein fairer Einwand lautet:
Selbst wenn bestimmte Figuren gesperrt sind, finden Nutzer doch Umwege. Sie beschreiben die Figur indirekt, umgehen Namen, kombinieren Merkmale, tricksen Systeme aus. Bringen die Sperren dann überhaupt etwas?

Ja. Denn Regeln müssen nicht absolut perfekt sein, um sinnvoll zu sein.

Schon die Existenz solcher Schranken verändert das Signal, das eine Plattform aussendet. Sie sagt damit:
Wir betrachten diese Nutzung nicht als harmlosen Standardfall.
Sie normalisiert nicht mehr das direkte Abrufen fremder Ikonen, sondern macht klar, dass hier ein problematischer Bereich beginnt.

Das ist wichtig. Technologie prägt Kultur nicht nur durch das, was sie ermöglicht, sondern auch durch das, was sie als normal erscheinen lässt. Wenn ein Generator bereitwillig jede berühmte Figur auf Zuruf ausliefert, vermittelt er: Das hier ist okay. Das ist Alltag. Das ist bloß ein Feature. Wenn er stattdessen blockt, warnt oder begrenzt, verschiebt sich die Norm.

Und Kultur hängt erstaunlich stark an Normen.

Natürlich wird es immer Menschen geben, die Grenzen umgehen wollen. Aber daraus zu schließen, Grenzen seien sinnlos, wäre ungefähr so intelligent wie zu sagen, Haustüren seien überflüssig, weil es Einbrecher gibt.

Die bequeme Verwechslung von Freiheit und Zugriff

Ein tiefer liegender Fehler in dieser Debatte ist die Gleichsetzung von Freiheit mit unbegrenztem Zugriff.

Viele Nutzer fühlen sich frei, wenn sie alles generieren dürfen. Aber das ist nicht zwangsläufig kreative Freiheit. Oft ist es einfach Zugriff auf bestehende Attraktionswerte. Echte Freiheit in der Kunst heißt nicht, dass dir jedes bekannte Symbol auf Abruf gehört. Echte Freiheit heißt, dass du in der Lage bist, etwas auszudrücken – auch dann, wenn du nicht auf die berühmtesten Figuren der Welt zurückgreifen kannst.

Wer das als Zumutung empfindet, verrät damit unbeabsichtigt etwas ziemlich Komisches über das eigene Kreativitätsverständnis.

Denn wenn Freiheit für dich bedeutet, dass du mit minimalem Aufwand maximal nah an geschützte Ikonen herankommst, dann willst du vielleicht gar nicht frei sein. Vielleicht willst du nur ohne Reibung verwerten.

Das ist verständlich. Das menschliche Gehirn liebt Abkürzungen. Aber man sollte Abkürzungen nicht mit künstlerischer Selbstverwirklichung verwechseln.

Die Zukunft wird ohnehin härter reguliert – und das ist kein Weltuntergang

Wer glaubt, die aktuellen Sperren seien das Ende der Fahnenstange, wird wahrscheinlich enttäuscht sein. Die nächsten Jahre werden ziemlich sicher mehr Regeln bringen: bessere Erkennung geschützter Figuren, strengere Filter, klarere Haftungsfragen, vertraglich geregelte Datennutzung, möglicherweise Kennzeichnungspflichten und robustere Rechteverwaltung.

Das klingt für manche nach dem Untergang des kreativen Abendlandes, ist aber in Wahrheit nur das normale Erwachsenwerden einer Technologie, die zuerst mit maximaler Euphorie in den Raum geworfen wurde und nun lernen muss, dass die Welt aus mehr besteht als Demos, viralen Posts und „Wow, guck mal, ich hab in 15 Sekunden was Krasses gemacht“.

Jede mächtige Technologie durchläuft diese Phase. Erst kommt die Faszination. Dann die Enthemmung. Dann die Ausbeutung. Dann die Debatte. Dann die Regulierung. Und irgendwann später nennt man das Ganze „verantwortungsvollen Einsatz“, als wäre nie etwas anderes geplant gewesen.

KI-Bildgeneratoren sind da keine Ausnahme.

Das eigentliche Problem ist nicht die Sperre – sondern was sie sichtbar macht

Vielleicht ärgert viele Menschen an diesen Einschränkungen nicht einmal primär, dass sie bestimmte Figuren nicht mehr generieren können. Vielleicht ärgert sie, dass dadurch plötzlich sichtbar wird, wie viel ihres vermeintlich kreativen Outputs auf bereits bekannten Vorlagen beruhte.

Sobald die populärsten Charaktere, die stärksten Marken und die offensichtlichsten visuellen Fremdwerte wegfallen, entsteht eine unangenehme Leerstelle. Und in dieser Leerstelle sitzt eine Frage, die man lieber nicht so laut hören möchte:

Was wolltest du eigentlich selbst sagen?

Nicht: Was wolltest du zitieren?
Nicht: Was wolltest du remixen?
Nicht: Wessen kulturelle Wucht wolltest du anzapfen?
Sondern: Was kommt von dir?

Das ist die produktive Kränkung, die solche Sperren auslösen können. Und vielleicht ist genau sie der Grund, warum sie so heftig diskutiert werden.

Fazit: Mehr Sperren sind kein Angriff auf Kreativität, sondern ein Schutz vor der billigsten Form ihrer Simulation

Natürlich wird es weiterhin Graubereiche geben. Natürlich werden Plattformen Fehler machen, zu viel sperren oder zu wenig. Natürlich wird es Fälle geben, in denen legitime Parodie, Hommage oder Transformation unnötig erschwert werden. Und selbstverständlich darf man darüber diskutieren. Das sollte man sogar.

Aber das Grundprinzip bleibt richtig:
Wenn KI-Bildgeneratoren es schwerer machen, geschützte Figuren einfach mit ein paar Prompts abzurufen, dann ist das kein Kulturverlust. Es ist ein längst fälliges Korrektiv.

Weil nicht alles, was technisch leicht geworden ist, auch kulturell gesund ist.
Weil Wiedererkennbarkeit kein Selbstbedienungsladen ist.
Weil „Ich kann es prompten“ nicht dasselbe bedeutet wie „Es gehört in meinen kreativen Besitzbereich“.
Und weil eine Welt, in der jede ikonische Figur nur noch ein Shortcut in einer Benutzeroberfläche ist, nicht offener, spielerischer und kreativer wird – sondern flacher.

Die gute Nachricht lautet: Kreativität stirbt daran nicht. Sie bekommt nur wieder Arbeit.

Und das ist vielleicht die beste Nachricht von allen.

Denn echte Ideen entstehen selten dort, wo man einfach nur nehmen darf, was schon glänzt.
Sie entstehen dort, wo man gezwungen ist, selbst Licht zu machen.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.




Manchmal sagen Bilder mehr als tausend Worte. Heute lass ich genau das zu – und halte mich selbst mal zurück.

Einfach nur: hinschauen.

Hier gibt es heute drei Bilder zu sehen. Keine lange Abhandlung, kein Tutorial, kein technisches Deep-Dive. Nur das, was Synthografie kann – im direkten Vergleich zum Ausgangsbild.

Das Originalbild kennt ihr. Vielleicht unspektakulär. Vielleicht ein Schnappschuss. Vielleicht etwas, an dem die meisten einfach vorbeiscrollen würden. Und genau da beginnt die eigentliche Arbeit.

Denn Synthografie ist nicht das Drücken eines Buttons. Es ist nicht „KI, mach mal hübsch“. Es ist ein Prozess. Ein gestalterischer, ein kreativer, manchmal ein frustrierender – aber immer ein bewusster.

Die drei Bilder, die ihr hier seht, zeigen genau diesen Weg. Vom Ausgangsmaterial hin zu etwas, das eine eigene Aussage hat. Eine eigene Ästhetik. Eine eigene Berechtigung.


Ausgangsfoto: FotoSym / Stefan Gesell / Brownz Meets Gesell Workshopreihe – Model: KC – Projekt: Gigerized.

Was ist Synthografie eigentlich – und warum ist sie mehr als ein Filter?

Für alle, die hier zum ersten Mal reinschauen: Synthografie ist die Kunst, mit KI-gestützten Werkzeugen visuelle Werke zu erschaffen. Aber – und das ist der entscheidende Punkt – das Werkzeug allein macht noch keine Kunst. Genauso wenig, wie eine Kamera automatisch gute Fotos macht oder ein Pinsel automatisch ein Meisterwerk auf die Leinwand bringt.

Synthografie bedeutet:

  • Konzept und Vision – Was will ich ausdrücken?
  • Technisches Verständnis – Wie bringe ich das Werkzeug dazu, meiner Vision zu folgen?
  • Iteration und Verfeinerung – Wann ist ein Bild fertig? Was fehlt? Was ist zu viel?
  • Kuratierung – Aus hundert Ergebnissen das eine auswählen, das wirklich sitzt.

Klingt nach Arbeit? Ist es auch. Und genau das sieht man diesen drei Bildern hoffentlich an.

Der Vergleich: Warum er so wichtig ist

Ich zeige bewusst das Ausgangsbild mit. Nicht um zu sagen: „Schaut, wie schlecht das Original war.“ Sondern um transparent zu machen, wo die Reise begonnen hat und wohin sie gegangen ist.

In der Synthografie-Community – und auch darüber hinaus – wird viel diskutiert. Ist das Kunst? Ist das Können? Ist das nur ein Prompt? Diese Fragen sind berechtigt. Und die beste Antwort darauf ist nicht ein Text, sondern ein Vergleich. Ein Vorher und Nachher. Ein „So sah das aus – und so sieht es jetzt aus.“

Denn in der Differenz zwischen diesen Bildern steckt alles: die kreative Entscheidung, die technische Umsetzung, das Auge fürs Detail, die Stunden des Ausprobierens.

Drei Bilder. Ein Ausgangspunkt. Unendliche Möglichkeiten.

Was mich an Synthografie nach wie vor fasziniert: Aus einem einzigen Ausgangsbild können völlig unterschiedliche Welten entstehen. Unterschiedliche Stimmungen. Unterschiedliche Geschichten. Unterschiedliche Wahrheiten – wenn man so will.

Die drei Arbeiten, die ich heute zeige, gehen bewusst in verschiedene Richtungen. Sie zeigen nicht den einen „richtigen“ Weg, sondern die Bandbreite dessen, was möglich ist, wenn man sich mit dem Medium auseinandersetzt. Wenn man nicht beim ersten Ergebnis stehen bleibt, sondern weiterdenkt, weiterspielt, weitermacht.

Genau das ist es, was Synthografie von der reinen Bildgenerierung unterscheidet: die Intention hinter dem Bild.


Urbex Madness

Warum ich das hier teile

Ich teile diese Arbeiten nicht nur, um sie zu zeigen. Sondern auch, um zu ermutigen. Es gibt da draußen so viele kreative Menschen, die sich noch nicht trauen. Die denken, sie bräuchten jahrelange Erfahrung in Photoshop, eine teure Kamera oder einen Kunsthochschul-Abschluss, um visuell arbeiten zu dürfen.

Synthografie öffnet Türen. Nicht weil sie Können ersetzt – sondern weil sie neues Können ermöglicht. Weil sie einen Einstieg bietet, der vorher so nicht existiert hat. Und weil sie zeigt, dass kreative Vision wichtiger ist als technische Perfektion.

Du willst das auch lernen?

Wenn dich das hier neugierig gemacht hat – wenn du beim Betrachten der Bilder gedacht hast: „Das will ich auch können“ – dann hab ich was für dich.

Im BROWNZ HUB unterrichte ich genau das. Synthografie, Digital Art, kreative Workflows mit KI – praxisnah, verständlich und ohne Bullshit. Es gibt ein Jahresabo, das dir Zugang zu Tutorials, Extras, Daten und einer wachsenden Community gibt.

👉 Alle Infos findest du hier: BROWNZ HUB – Dein Jahresabo für Digital Art, Synthography, Extras & Daten

Egal ob du gerade erst anfängst oder schon erste Erfahrungen gesammelt hast – der HUB ist dafür gedacht, dich weiterzubringen. Von den Basics bis zu fortgeschrittenen Techniken, von Prompting über Bildbearbeitung bis hin zur eigenen künstlerischen Handschrift.

Zum Schluss

Heute ging es nicht um viele Worte. Heute ging es um drei Bilder und ein Original. Um den Beweis, dass in jedem Ausgangsbild mehr steckt, als man auf den ersten Blick sieht.

Synthografie ist kein Zauberknopf. Aber sie ist ein verdammt gutes Werkzeug – wenn man weiß, wie man es benutzt.

Lasst die Bilder auf euch wirken. Und wenn ihr Fragen habt: Ihr wisst, wo ihr mich findet.


brownz.art – Synthografie ist Gestaltung.

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.


Engel weinen Heimlich – Synthographic Edtion



Vom Stockbild-Archiv zur kreativen Kommandozentrale: Warum Freepik 2026 plötzlich für Designer, Content Creator, Agenturen und Künstler zur vielleicht spannendsten Plattform am Markt geworden ist.

Die KI-Welt für Kreative war lange ein digitaler Flohmarkt. Für Bilder ein Tool, für Videos ein anderes, für Audio wieder ein drittes, für Upscaling ein viertes – und irgendwo dazwischen noch ein Grafikprogramm, ein Mockup-Tool und ein Editor für den finalen Schnitt. Jeder Schritt bedeutete einen Plattformwechsel, neue Logins, neue Credit-Systeme und am Ende meist auch neue Kosten. Genau an diesem Punkt setzt Freepik inzwischen mit einer Konsequenz an, die man der Marke vor wenigen Jahren kaum zugetraut hätte.

Wer bei Freepik noch an Stockbilder, Icons und Vektoren denkt, lebt gedanklich in einer anderen Ära. Stand März 2026 hat sich die Plattform zu einer umfassenden AI Creative Suite entwickelt, die in ihrer Breite aktuell zu den spannendsten Lösungen am Markt zählt. Und das ist keine PR-Floskel, sondern das Ergebnis eines intensiven Praxistests und eines gründlichen Faktenchecks auf Basis der neuesten Funktionen.

Die große Frage lautet deshalb nicht mehr, ob Freepik mehr ist als eine Bilddatenbank. Die eigentliche Frage lautet:

Kann Freepik inzwischen tatsächlich einen Großteil klassischer KI-Workflows unter einem Dach vereinen?

Die kurze Antwort: erstaunlich oft ja.


Vom Design-Archiv zur kreativen Schaltzentrale

Der eigentliche Reiz von Freepik liegt heute nicht mehr in einem einzelnen Feature, sondern in der strategischen Idee dahinter.

Statt ein proprietäres Modell als Heilsbringer zu verkaufen, verfolgt die Plattform einen deutlich pragmatischeren Ansatz: Sie bündelt verschiedene spezialisierte Werkzeuge in einer Oberfläche und reduziert damit Reibungsverluste im kreativen Alltag.

Genau darin liegt ihre Stärke.

Denn die Realität professioneller Kreativarbeit sieht heute oft so aus:

  • Bildideen entstehen in einem Generator
  • Videos werden extern produziert
  • Audio kommt aus einem Sprachtool
  • Bilder gehen danach durch ein Upscaling
  • der finale Schnitt passiert in einer Editing-Software

Dieser fragmentierte Workflow kostet Zeit, Geld und kreative Energie.

Freepik versucht, genau dieses Problem aufzulösen.

Das Ergebnis ist mittlerweile eine Plattform, die sich fast wie eine kreative Betriebssystemoberfläche anfühlt.


Bildgenerierung: Nicht ein Modell, sondern die richtige Auswahl

Ein zentraler Unterschied zu vielen Konkurrenten liegt im Ansatz der Bildgenerierung.

Freepik setzt nicht auf ein einziges Modell, sondern auf eine kuratierte Auswahl verschiedener Engines.

Gerade darin liegt die Stärke.

Denn es gibt in der Praxis schlicht nicht das eine perfekte Modell für alles.

Fotorealistische Portraits benötigen andere Stärken als typografische Designs, Editorial Looks oder stylisierte Artworks.

Die Suite erlaubt es, je nach Aufgabe zwischen unterschiedlichen Modellen und Stilrichtungen zu wechseln, ohne die Plattform zu verlassen.

Für professionelle Nutzer ist das enorm wertvoll.

Man testet denselben Prompt in verschiedenen Modellen, vergleicht die Ergebnisse direkt und entscheidet sich dann für die beste Variante.

Was früher drei Tabs und drei Abos bedeutete, passiert jetzt innerhalb eines Workspaces.

Gerade für Brand-Design und Kampagnenarbeit sind Funktionen wie:

  • Stilvorgaben
  • Farbpaletten
  • Hex-Code-Steuerung
  • konsistente Varianten

extrem hilfreich.


Relight: Das vielleicht stärkste neue Profi-Feature

Eines der beeindruckendsten neuen Werkzeuge ist die Relight-Funktion.

Und nein: Das ist kein einfacher Lichtfilter.

Relight arbeitet deutlich tiefer.

Hier wird nicht bloß ein Preset auf ein Bild gelegt, sondern die Lichtstimmung eines Motivs neu interpretiert.

Das Tool erlaubt es, virtuelle Lichtquellen neu zu setzen und gezielt Parameter anzupassen:

  • Winkel
  • Intensität
  • Lichtfarbe
  • Höhe
  • Richtung
  • Mehrfachlichtquellen
  • Studiolicht-Simulation

Das Resultat erinnert eher an ein virtuelles Fotostudio als an klassische Bildbearbeitung.

Ein Portrait kann innerhalb weniger Sekunden vom neutralen Tageslicht-Look in ein dramatisches Editorial-Shooting transformiert werden.

Beauty Light, Backlight, Film-Noir, Fashion-Studio, Produktlicht – all das funktioniert überzeugend.

Für Künstler, Fotografen und Synthografen ist das ein massiver Qualitätssprung.

Gerade in der professionellen Bildsprache entscheidet Licht über Glaubwürdigkeit.

Relight ist deshalb eines der Features, das Freepik klar in Richtung High-End-Workflow verschiebt.


3D Scenes: Virtuelles Studio statt statischer Prompts

Wenn es ein Feature gibt, das den Artikel 2026 wirklich neu definiert, dann ist es 3D Scenes.

Dieses Werkzeug geht weit über klassische KI-Bildgenerierung hinaus.

Statt jedes Bild neu zu prompten, baut man einen persistenten dreidimensionalen Raum auf.

Das bedeutet:

  • virtuelle Räume
  • Objekte platzieren
  • Produkte arrangieren
  • Figuren positionieren
  • konsistente Lichtsetzung
  • frei bewegliche Kamera
  • neue Perspektiven ohne Neu-Generierung

Im Grunde ist das eine Mischung aus virtuellem Studio, Storyboard-System und Produkt-CGI-Light.

Für Werbekampagnen, Fashion-Sets und E-Commerce ist das extrem stark.

Ein Produkt kann einmal in einer Szene aufgebaut und anschließend aus mehreren Blickwinkeln „fotografiert“ werden.

Das spart enorm Zeit.

Gerade für Agenturen ist das ein echter Produktivitätshebel.


Video: Von nettem Zusatzfeature zur ernsthaften Produktionsumgebung

Der Videobereich hat sich besonders stark weiterentwickelt.

Was früher ein interessantes Zusatzmodul war, ist inzwischen ein ernstzunehmender Produktionsbereich.

Besonders spannend ist die Auswahl an integrierten Modellen.

Dazu zählen inzwischen unter anderem:

  • Sora 2 Pro
  • Veo
  • Runway
  • Kling
  • weitere spezialisierte Video-Engines

Gerade Sora 2 Pro ist hier ein entscheidender Punkt.

Wichtig für den Faktencheck:

Sora ist innerhalb der Freepik Suite weiterhin verfügbar und aktiv integriert.

Das ist relevant, weil hier zuletzt viele widersprüchliche Informationen im Umlauf waren.

Im Praxiseinsatz überzeugen besonders:

  • realistische Physik
  • bessere Bewegungskohärenz
  • verbesserte Szenenlogik
  • Audio-Synchronisierung
  • cinematische Clips

Für Social Content, Trailer, Mood-Filme und Werbeclips ist das ein enormer Fortschritt.


Der Video Editor ist jetzt Realität

Ein zentraler Punkt des ursprünglichen Artikels war die Vision eines integrierten Video Editors.

Diese Vision ist inzwischen Realität.

Mit dem Video Project Editor und dem Clip Editor hat Freepik den nächsten logischen Schritt gemacht.

Das bedeutet:

  • Clips schneiden
  • Szenen kombinieren
  • Projekte verwalten
  • Loops erstellen
  • schnelle Social Exports

Der frühere Medienbruch zu CapCut oder DaVinci Resolve wird dadurch deutlich reduziert.

Natürlich ersetzen diese Werkzeuge noch nicht in jedem Fall professionelle Schnittsoftware.

Aber für den schnellen kreativen Workflow sind sie inzwischen erstaunlich stark.


Lip Sync und Audio: Jetzt wirklich all-in-one

Auch im Audio-Bereich hat Freepik massiv nachgelegt.

Inzwischen stehen direkt in der Plattform zur Verfügung:

  • Text to Speech
  • Voice Cloning
  • Soundeffekt-Generator
  • Music Generator
  • Lip Sync

Gerade Lip Sync ist für Creator und Marketing-Teams extrem relevant.

Avatar-Videos, sprechende Charaktere und Werbeclips lassen sich damit deutlich schneller umsetzen.

Die Qualität ist für Social Media und digitale Kampagnen absolut konkurrenzfähig.

Der Music Generator rundet das Paket ab.

Damit entfällt in vielen Fällen der Wechsel zu spezialisierten Audio-Plattformen.


Spaces: Das kreative Betriebssystem der Suite

Ein oft unterschätztes, aber strategisch extrem wichtiges Feature ist Spaces.

Das ist weit mehr als eine Ablagefläche.

Spaces funktioniert wie eine Infinite Canvas für den gesamten kreativen Workflow.

Hier laufen Ideen, Bilder, Clips, Audio, Varianten und Designs zusammen.

Für Teams und Agenturen ist das fast wichtiger als einzelne Modelle.

Denn kreative Prozesse bestehen selten nur aus einer Generierung.

Sie bestehen aus:

  • Ideenentwicklung
  • Variantenvergleich
  • Feedback
  • Freigabe
  • Finalisierung

Spaces macht genau diesen Prozess deutlich flüssiger.


Magnific: Ein strategischer Coup

Ein besonders wichtiger Punkt für professionelle Nutzer ist die tiefe Einbindung von Magnific.

Das Tool gehört seit der Übernahme inzwischen strategisch zum Ökosystem.

Das ist enorm relevant.

Denn hochwertiges Upscaling bleibt einer der wichtigsten Schritte im professionellen KI-Workflow.

Generierte Bilder wirken oft noch zu weich.

Erst durch intelligentes Detail-Upscaling werden sie wirklich:

  • druckfähig
  • kampagnenfähig
  • editorial-tauglich

Gerade hier liefert die Suite inzwischen sehr überzeugende Ergebnisse.


Design bleibt eine Kernstärke

Was viele vergessen:

Freepik hat seine Design-Wurzeln nicht verloren.

Und genau das ist ein großer Vorteil.

Zusätzlich zur KI-Suite bleiben klassische Tools für:

  • Flyer
  • Poster
  • Social Templates
  • Mockups
  • Icons
  • SVG-Workflows

hoch relevant.

Gerade diese Verbindung aus klassischem Design und generativer KI ist ein echter Wettbewerbsvorteil.

Andere Plattformen sind stark in der Generierung.

Freepik ist stark in der finalen kreativen Umsetzung.


Datenschutz und Professionalität

Ein besonders wichtiger Punkt für europäische Nutzer ist das Thema Datenschutz.

Hier hat Freepik sichtbar nachgebessert.

Die Kommunikation rund um private Inhalte und Trainingsnutzung ist deutlich klarer geworden.

Für Agenturen und Kundenarbeit ist das essenziell.

Trotzdem gilt:

Bei sensiblen Kundenbildern sollte man Nutzungsbedingungen weiterhin sehr genau prüfen.

Professionelle Workflows verlangen hier Sorgfalt.


Für wen lohnt sich Freepik 2026 wirklich?

Die Antwort ist überraschend breit.

Besonders profitieren:

Content Creator

Schnelle Bild-, Video- und Audio-Produktion für Social Media.

Agenturen

Kampagnen, Varianten, Mockups und schnelle Konzeptvisualisierung.

Künstler und Visual Storyteller

Vor allem durch Relight, 3D Scenes und cinematische Videotools.

Unternehmen

Konsolidierte Kostenstruktur und zentraler Workflow.


Das ehrliche Fazit

Ist Freepik 2026 wirklich „das eine Tool, das alle anderen ersetzt“?

Ganz ehrlich:

noch nicht vollständig.

Für absolute Spezialfälle bleiben weiterhin einzelne High-End-Tools relevant.

Aber:

Die Suite ist heute näher an diesem Versprechen als fast jede andere Plattform.

Gerade die Kombination aus:

  • Bild
  • Video
  • Audio
  • Relight
  • 3D
  • Upscaling
  • Design
  • Editing

macht sie aktuell zu einer der spannendsten Kreativplattformen überhaupt.

Was früher ein Stockportal war, ist heute ein fast vollständiges kreatives Ökosystem.

Und genau deshalb lohnt es sich, Freepik 2026 mit völlig neuen Augen zu betrachten.

Vielleicht ist es nicht das einzige Tool.

Aber es ist sehr nah daran, das zentrale zu werden.


Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Eine unbequeme Analyse für beide Seiten – jetzt mit Faktencheck


Willkommen in der Hysterie.

Auf der einen Seite stehen die Tech-Evangelisten, die verkünden, dass menschliche Models in fünf Jahren so überflüssig sein werden wie Pferdekutschen nach der Erfindung des Automobils. Auf der anderen Seite stehen die Fotografen, die behaupten, KI-Bilder seien seelenloses Plastik und würden nie ein echtes Shooting ersetzen können.

Beide Seiten liegen falsch.

Die Wahrheit ist, wie so oft, unbequemer als die Extreme. Echte Models und echte Fotografie werden nicht aussterben. Aber nicht aus den Gründen, die Traditionalisten gerne anführen. Nicht weil KI „nicht gut genug“ wäre – sie ist bereits erschreckend gut. Nicht weil „nichts über den echten Moment geht“ – für die meisten kommerziellen Anwendungen geht sehr wohl etwas darüber, nämlich Geschwindigkeit und Kosteneffizienz. Und nicht weil die Branche sich erfolgreich dagegen wehren wird – das hat noch nie funktioniert.

Echte Models und echte Fotografie werden überleben, weil Marktdynamik, regulatorische Realitäten und kulturelle Gegenbewegungen stärker sind, als einfache Disruptions-Narrative es vermuten lassen. Und das ist keine sentimentale Hoffnung, sondern eine nüchterne Analyse.

Aber – und das ist der provokante Teil – sie werden anders überleben, als viele sich das wünschen. Kleiner. Spezialisierter. Und paradoxerweise genau dadurch wertvoller.

Dieser Artikel wurde einem gründlichen Faktencheck unterzogen. Wo Behauptungen belastbar sind, stehen Quellen. Wo die Evidenz gemischt ist, sage ich das. Wo ich spekuliere, kennzeichne ich es. Denn diese Debatte verdient Präzision, nicht Parolen.


Kapitel 1: Die unbequeme Wahrheit – Ja, KI vernichtet bereits Jobs

Der Stockfoto-Markt unter Druck

Bevor wir über das Überleben der echten Fotografie reden, müssen wir ehrlich sein über das, was bereits passiert.

Der klassische Stockfoto-Markt in seiner bisherigen Form steht unter massivem Druck. Shutterstock hat KI-Generierungstools direkt in seine Plattform integriert – ein Unternehmen, das von Fotografen lebt, verkauft jetzt Werkzeuge, die bestimmte Arten von Fotografie überflüssig machen. Die Contributor-FAQ von Shutterstock zeigt, wie offen das Unternehmen mit dieser Transformation umgeht (Shutterstock). Wenn die Plattform selbst die Disruption vorantreibt, ist das ein deutlicheres Signal, als jede Branchenanalyse es sein könnte.

Für jene Fotografen, deren Geschäftsmodell darin bestand, generische Bilder von lächelnden Geschäftsleuten vor weißem Hintergrund zu produzieren, ist die Lage ernst. Nicht in fünf Jahren. Jetzt.

Katalogfotografie: Die Zahlen sprechen

Auch die klassische Katalogfotografie steht unter realem Effizienzdruck – und hier liegen inzwischen konkrete Daten vor. Zalando nutzt laut Reuters KI, um Marketing-Kampagnen zu beschleunigen und Kosten zu senken. Die Produktionszeit wurde von Wochen auf wenige Tage reduziert (Reuters). H&M hat 2025 offiziell mit „Digital Twins“ realer Models gearbeitet und dies als kreative Exploration kommuniziert (H&M Group).

Das sind keine Zukunftsszenarien. Das ist Produktionsrealität. Die Frage ist nicht, ob KI den unteren und mittleren kommerziellen Bereich verändert, sondern wie schnell und wie vollständig.

Wer das bestreitet, ist nicht mutig, sondern blind.

Die erste Welle trifft bereits

Der untere und mittlere Bereich der kommerziellen Fotografie schrumpft. So wie die Digitalfotografie den Film verdrängt hat, so wie Photoshop bestimmte Retusche-Arbeitsplätze obsolet gemacht hat, macht KI bestimmte fotografische Routinedienstleistungen überflüssig.

Aber – und hier beginnt die eigentliche Analyse – wer daraus schließt, dass echte Fotografie und echte Models komplett verschwinden, hat die Geschichte der Technologie auch nicht verstanden.


Kapitel 2: Warum das menschliche Gesicht komplizierter ist, als beide Seiten glauben

Das Uncanny Valley – real, aber nicht so einfach

Kennen Sie dieses Gefühl, wenn ein KI-generiertes Gesicht irgendetwas an sich hat, das nicht stimmt? Die Haut zu perfekt, die Augen zu symmetrisch, das Lächeln zu gleichmäßig?

Das Uncanny Valley – jenes Phänomen, bei dem fast-menschliche Darstellungen Unbehagen auslösen – ist in der Forschung breit diskutiert und als Konzept real. Aber die Lage ist komplizierter, als es die einfache Erzählung „Menschen spüren sofort, dass etwas falsch ist“ vermuten lässt.

Eine vielzitierte Studie in PNAS zeigte bereits 2022, dass KI-synthetisierte Gesichter von echten Gesichtern kaum zu unterscheiden waren – und im Mittel sogar als vertrauenswürdiger bewertet wurden als reale Gesichter (PNAS). Das ist ein Befund, der beide Seiten der Debatte irritieren sollte: Die Technologie ist bereits weiter, als viele Traditionalisten wahrhaben wollen. Und die psychologische Reaktion auf synthetische Gesichter ist nicht so eindeutig negativ, wie es die KI-Kritiker gerne hätten.

Ein Teil der Forschung deutet darauf hin, dass es subtile Wahrnehmungskonflikte bei künstlichen Gesichtern gibt – ein vages Unbehagen, das sich nicht immer bewusst benennen lässt. Eine Review-Studie zu psychologischen und neuronalen Evidenzen rund um das Uncanny Valley bestätigt, dass solche Effekte existieren, aber kontextabhängig und individuell sehr unterschiedlich ausfallen (VisualCOM). Die Befunde sind also gemischt, nicht eindeutig.

Was man seriös sagen kann: Die menschliche Wahrnehmung ist hochsensibel für Gesichter. Ob diese Sensibilität dauerhaft als zuverlässiger „Echtheitsdetektor“ funktioniert, wenn die Technologie immer besser wird, ist eine offene Frage – keine geklärte.

Authentizität als entstehendes Marktprinzip

Wenn die visuelle Unterscheidbarkeit schwindet, verlagert sich der Wert des Echten auf eine andere Ebene: die des Wissens um die Herkunft.

Es entstehen gerade reale technische und regulatorische Systeme rund um Bildherkunft und Transparenz. Die Content Authenticity Initiative und das C2PA-Protokoll arbeiten an Standards, die es ermöglichen, die Herkunft eines Bildes kryptographisch zu verifizieren – ob es mit einer Kamera aufgenommen, bearbeitet oder KI-generiert wurde (C2PA). In Europa wachsen durch den AI Act die Transparenzpflichten für KI-generierte Inhalte.

Einzelne Marken positionieren sich bereits bewusst: Aerie wirbt 2026 ausdrücklich damit, keine KI-generierten Körper oder Personen im Marketing zu nutzen. Das ist noch kein flächendeckender Trend, aber ein Signal. Ein „Authentizitäts-Premium“ – ein Aufpreis für nachweislich echte, nicht-generierte Inhalte – zeichnet sich als entstehendes Marktprinzip ab, auch wenn es als ökonomischer Standardbegriff noch nicht voll vermessen ist.

Die Logik dahinter ist plausibel und lässt sich mit Gegenbeispielen aus anderen Branchen stützen: Die RIAA meldete für 2025 erneut Wachstum bei Vinyl-Schallplatten – 46,8 Millionen verkaufte Einheiten, deutlich mehr als CDs (RIAA). Das stützt die These, dass digitale Allgegenwart analoge Gegenbewegungen nicht ausschließt, sondern befeuern kann. Auch Schweizer Uhrenexporte zeigen, dass mechanische Uhren wertmäßig den Löwenanteil ausmachen, obwohl jedes Smartphone die Zeit anzeigt – ein Beleg dafür, dass „Luxus trotz digitaler Funktionalität“ als Kategorie funktioniert (FHS).

Daraus einen universellen Automatismus abzuleiten, wäre zu weit gegriffen. Aber die Richtung ist erkennbar.


Kapitel 3: Warum echte Models nicht einfach verschwinden – aber sich anpassen müssen

Der Körper als Biografie

Ein echtes Model ist mehr als ein Gesicht. Es ist ein Mensch mit einer Geschichte, die in jeder Pose, jeder Geste, jedem Blick mitschwingt. KI kann ein Gesicht generieren – sogar ein sehr überzeugendes. Aber sie kann keine Biografie generieren. Keine Narbe, die eine Geschichte erzählt. Keinen Blick, der Erfahrung transportiert. Keine Social-Media-Präsenz, die eine reale Person mit einer realen Community verbindet.

Wenn Bella Hadid eine Kampagne trägt, kaufen Konsumenten nicht nur das Kleid – sie kaufen die Assoziation mit einer realen Person, ihrem öffentlichen Ich, ihrer Persönlichkeit. Ein KI-generiertes Gesicht hat das nicht. Es hat keine Fans, keine Skandale, keine Meinungen. Und solange Mode nicht nur Kleidung, sondern Kultur verkauft, ist das ein relevanter Unterschied.

High Fashion: komplizierter als ein einfaches „bleibt beim Echten“

Allerdings wäre es zu einfach zu behaupten, High Fashion werde sicher und immer bei echten Models bleiben. Die Realität ist differenzierter. H&M experimentiert bereits offen mit digitalen Zwillingen (H&M Group), und die Branche insgesamt steht unter Innovationsdruck, bei dem auch Luxusmarken nicht ausgeklammert sind (FashionUnited).

Was man seriös sagen kann: High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – weil Markenmythologie, Prominenz und kulturelle Aufladung dort eine größere Rolle spielen als in anderen Segmenten. Aber „überdurchschnittlich lange“ ist etwas anderes als „für immer“. Und einige Luxusmarken werden gerade mit künstlicher Ästhetik provozieren oder experimentieren, statt sie zu meiden.

Virtuelle Influencer: funktionieren, aber anders

Lil Miquela hat rund zwei Millionen Follower auf Instagram (Instagram). Virtuelle Influencer sind keine Kuriosität mehr, sondern ein etabliertes Phänomen. Aber ihre Wirkung ist komplexer, als die Schlagzeilen vermuten lassen.

Die Forschung dazu ist gemischt: Einige Studien finden geringere wahrgenommene Authentizität, Wärme und Vertrauenswürdigkeit bei virtuellen Influencern; andere zeigen, dass sie durchaus hohe Engagement-Werte erzielen können und in bestimmten Kontexten wirksam sind. Seriös formuliert: Virtuelle Influencer funktionieren, leiden aber häufig an einem Authentizitätsnachteil. Wirkung und Engagement hängen stark vom Kontext, Produkt und Inszenierungsstil ab.

Wer behauptet, virtuelle Influencer seien grundsätzlich schwächer, vereinfacht. Wer behauptet, sie seien gleichwertig, auch.


Kapitel 4: Warum echte Fotografie strukturell anders funktioniert als KI-Generierung

Dokumentarische Fotografie: eine eigene Kategorie

Der stärkste Punkt für das Überleben echter Fotografie liegt nicht in der Ästhetik, sondern in der Funktion. Es gibt Bereiche, in denen ein generiertes Bild strukturell kein Ersatz sein kann – weil es dort nicht um Schönheit geht, sondern um Wahrheit.

AP erlaubt keine generative KI, um in Fotos oder Videos Elemente hinzuzufügen oder zu entfernen (AP). Reuters verbietet generative KI zur Erstellung oder Verbesserung von Bildmaterial in der visuellen Berichterstattung. World Press Photo schließt synthetisch erzeugte oder generativ gefüllte Bilder aus.

Das sind keine symbolischen Gesten. Das sind die Standards der weltweit maßgeblichen Nachrichtenagenturen und Wettbewerbe. Sie definieren: Ein Bild, das einen realen Moment bezeugt, ist etwas fundamental anderes als ein Bild, das einen plausiblen Moment simuliert. Diese Unterscheidung wird nicht verschwinden – sie wird in einer Welt voller synthetischer Bilder sogar wichtiger werden.

Hochzeitsfotografie und andere dokumentarische Praxis

Hochzeitsfotografie wird als dokumentarische Praxis schwer ersetzbar bleiben. Niemand will Bilder eines Tages, der nicht stattgefunden hat. Der Wert des Hochzeitsfotos liegt nicht in seiner ästhetischen Perfektion, sondern in seiner Beweiskraft: Wir waren da. Wir haben gefeiert. Es war real.

Allerdings – und das gehört zur Ehrlichkeit dazu – kann KI diesen Bereich bereits ergänzen: bei Previews, bei Retusche, bei Varianten, bei inszenierten Zusatzbildern. Als Kompletterset unwahrscheinlich, als Workflow-Bestandteil bereits Realität.

Dasselbe gilt für Porträtfotografie, Eventfotografie, Reportage. Überall dort, wo das Bild nicht nur schön sein soll, sondern einen realen Moment bezeugen, ist KI kein vollwertiger Ersatz. Sie ist es strukturell nicht, weil ihr die Fähigkeit fehlt, Realität zu dokumentieren.

Licht, Raum, Zufall

Ein echtes Foto entsteht in einem physischen Raum. Licht fällt durch ein Fenster, wird von einer Wand reflektiert, erzeugt Schatten, die von hundert Zufällen abhängen. Wind bewegt Haare. Stoff fällt in einer Weise, die Schwerkraft und Körperbewegung gehorcht. Ein Blick wird eingefangen, der eine Zehntelsekunde später anders ausgesehen hätte.

Diese physische Dimension – das Zusammenspiel von Raum, Licht, Körper, Zeit und Zufall – ist phänomenologisch das, was ein echtes Foto von einem generierten unterscheidet. Nicht immer messbar, nicht immer bewusst wahrnehmbar, aber als Qualität in den besten Fotografien spürbar. Das ist keine harte Wissenschaft – es ist eine Beschreibung dessen, was große Fotografen seit jeher als das Wesen ihres Mediums beschreiben: die Arbeit mit dem Unvorhersehbaren.

KI kann das Erwartbare perfektionieren. Aber die besten Fotografien entstehen oft dort, wo das Unerwartbare einbricht.


Kapitel 5: Die Rechts- und Compliance-Dimension – Unterschätzt, aber real

Rechtliche Klarheit als Wettbewerbsvorteil

Ein pragmatischer Punkt, der in der ästhetischen Debatte oft untergeht: Echte Fotografie mit echten Models bietet derzeit eine rechtliche Klarheit, die KI-generierte Bilder nicht bieten können.

Der U.S. Copyright Office Report von 2025 hält an menschlicher Urheberschaft als Grundprinzip fest. Viele Fragen zu Training, Output-Rechten, digitalen Repliken und Persönlichkeitsrechten bleiben rechtlich umkämpft (Copyright Office). In New York schützt der Fashion Workers Act seit 2025 Models ausdrücklich bei digitalen Repliken. In Europa wachsen Transparenzpflichten durch den AI Act.

Das sind keine abstrakten Regulierungsdebatten. Das sind reale Marktbremsen für sorglose KI-Nutzung im großen Stil. Für risikoscheue Unternehmen, für regulierte Branchen, für internationale Kampagnen mit verschiedenen Rechtsräumen ist diese Unsicherheit ein echtes geschäftliches Risiko.

Solange die rechtlichen Rahmenbedingungen für KI-generierte Bilder nicht abschließend geklärt sind, wird klassische Fotografie allein aus Compliance-Gründen relevant bleiben. Das ist kein romantisches Argument. Das ist Risikomanagement.

Die ethische Komponente

Wenn eine Beauty-Marke ein KI-generiertes Gesicht verwendet – unmenschlich perfekte Haut, unmenschlich symmetrische Züge –, sendet sie eine Botschaft: So sollst du aussehen. Aber so sieht niemand aus.

Die Bewegung hin zu Diversität und Body Positivity braucht echte Körper. Sie braucht Models, die zeigen, dass Schönheit in vielen Formen existiert. Eine KI, die generiert, was statistisch dem Durchschnitt ihrer Trainingsdaten entspricht, tendiert zur Homogenisierung. Das ist kein theoretisches Problem – es ist ein kulturelles.


Kapitel 6: Die provokante These – Fotografie wird besser, nicht schlechter

Die Befreiung durch Konkurrenz

KI-Bildgenerierung wird die Fotografie besser machen. Nicht schlechter. Nicht irrelevant. Besser.

Warum? Weil die KI den Fotografen zwingt, sich auf das zu konzentrieren, was nur er kann. Wenn die Maschine das Generische perfekt beherrscht, muss der Mensch das Spezifische liefern. Wenn der Algorithmus das Vorhersehbare schneller produziert, muss der Fotograf das Unvorhersehbare suchen.

Das ist exakt die Dynamik, die nach der Erfindung der Fotografie die Malerei befreit hat. Als die Kamera die naturgetreue Abbildung übernahm, musste die Malerei nicht mehr abbilden. Das Ergebnis waren Impressionismus, Expressionismus, Kubismus – die aufregendsten Epochen der Malereigeschichte.

Das Ende des Mittelmaßes

Was verschwinden wird, ist die mittelmäßige kommerzielle Fotografie. Jene Routineproduktionen, die schon vor der KI unter Preisdruck standen. Die KI gibt diesem Segment den Gnadenstoß. Und das zwingt Fotografen zu der Frage: Was kann ich, was die Maschine nicht kann?

Die Antwort auf diese Frage führt unweigerlich zu besserer, mutigerer, persönlicherer Arbeit.


Kapitel 7: Die neue Landschaft – Ehrlich kartiert

Was sich wirklich verändert

Generische kommerzielle Bildproduktion: Weitgehend von KI übernommen. Stockfotos, einfache Produktbilder, Standard-Werbemotive – hier dominiert die Maschine, weil Effizienz entscheidet. Zalando und H&M zeigen das bereits.

Mid-Range-Fotografie: Hybrid. Menschliche Fotografen arbeiten mit KI-Tools für Retusche, Variantenproduktion, Hintergrundgestaltung. Der Mensch liefert das Rohmaterial, die Maschine skaliert es.

High-End-Fotografie und Kunst: Menschlich dominiert, mit KI als optionalem Werkzeug. Editorials, Kampagnen, Kunstfotografie – hier zählen Vision, Handwerk und Autorschaft. Aber auch hier wird experimentiert, und die Grenzen verschieben sich.

Dokumentation und Journalismus: Strukturell geschützt. AP, Reuters und World Press Photo haben klare Linien gezogen. Hier geht es um Wahrheit, nicht um Ästhetik.

Die Models

Echte Models werden nicht verschwinden. Aber die Branche differenziert sich aus:

  • High Fashion dürfte überdurchschnittlich lange an echten Models festhalten – als Persönlichkeiten, Markenbotschafter, kulturelle Ikonen. Aber auch hier laufen KI-Experimente.
  • Commercial/Catalog setzt zunehmend auf KI und Hybridmodelle – für Effizienz und Skalierbarkeit.
  • Models mit starker Persönlichkeit, einzigartigem Look oder relevanter Social-Media-Präsenz werden profitieren. Models, die primär als austauschbare Gesichter funktioniert haben, werden es schwerer haben.

Die brutale Wahrheit: Nicht jedes Model wird überleben. Nicht jeder Fotograf wird überleben. Aber die Fotografie als Medium und das Modeling als Beruf werden überleben – transformiert, spezialisierter, in manchen Segmenten elitärer.


Fazit: Die Maschine ersetzt das Generische, nicht das Echte

Stellen Sie sich zwei Bilder vor.

Das eine zeigt ein perfektes Gesicht – makellose Haut, symmetrische Züge, ideale Beleuchtung. Es wurde in zwei Sekunden generiert. Es kostet nichts. Es ist schön. Und es kann, wie die PNAS-Studie zeigt, sogar vertrauenswürdiger wirken als ein echtes Gesicht.

Das andere Foto zeigt eine echte Frau. Sie hat Sommersprossen, eine kleine Narbe über der Augenbraue, Lachfalten. Das Licht fällt schräg durch ein Fenster. Sie lacht – nicht das perfekte Lächeln, sondern ein echtes Lachen, ausgelöst durch etwas, das der Fotograf sagte, eine Sekunde bevor er den Auslöser drückte.

Welches Bild berührt Sie mehr? Die ehrliche Antwort ist: Es kommt darauf an. Auf den Kontext, den Zweck, den Betrachter.

Und genau das ist der Punkt. Es gibt keinen universellen Gewinner in diesem Wettbewerb. KI wird das Generische übernehmen – schneller, billiger, effizienter. Aber das Echte, das Dokumentarische, das biografisch Aufgeladene, das physisch Erlebte – das hat weiterhin einen eigenen, strukturell anderen Wert. Einen Wert, der durch Recht, durch Transparenzstandards und durch kulturelle Sehnsucht gestützt wird.

Die KI wird vieles verändern. Sie wird manches zerstören und manches erschaffen. Sie wird den Markt umwälzen und Berufsbilder transformieren. Aber eines wird sie in absehbarer Zeit nicht können: an einem Dienstagmorgen um 6 Uhr in einem Studio stehen und auf den Moment warten, in dem Licht, Mensch und Zufall zusammenkommen und etwas entsteht, das kein Algorithmus vorhersehen konnte.

Dieser Moment gehört dem Menschen. Wie lange noch, weiß niemand mit Sicherheit.

Aber totgesagte posieren eben doch länger.


Quellen

  • Shutterstock: AI-generated Content – Contributor FAQ. shutterstock.com
  • H&M Group: H&M continues its exploration of creativity with AI. hmgroup.com
  • Reuters: Zalando uses AI to speed up marketing campaigns, cut costs. reuters.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence. copyright.gov
  • PNAS: AI-synthesized faces are indistinguishable from real faces and more trustworthy (2022). pnas.org
  • VisualCOM: Review of the Psychological and Neural Evidence on the Uncanny Valley. visualcompublications.es
  • C2PA: Content Provenance and Authenticity. c2pa.org
  • The Associated Press: Standards around generative AI. ap.org
  • FashionUnited: H&M turns to AI ‚digital twins‘ in new campaign. fashionunited.com
  • RIAA: US Recorded Music Annual Revenue 2025. riaa.com
  • FHS: Swiss Watch Industry Statistics. fhs.swiss
  • Instagram: Lil Miquela (@lilmiquela). instagram.com

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Warum KI-generierte Bilder in der Tradition von Duchamp und Pop Art stehen, was die Copyright-Debatte wirklich hergibt und weshalb „Das ist keine Kunst!“ noch nie gestimmt hat


Es gibt einen Satz, der in der Kunstgeschichte zuverlässiger wiederkehrt als jeder Stilwechsel. Zuverlässiger als Impressionismus nach Realismus, zuverlässiger als Abstraktion nach Figuration, zuverlässiger als jede Avantgarde nach jeder Akademie. Der Satz lautet: „Das ist keine Kunst!“

Er wurde gerufen, als Édouard Manet 1863 sein Frühstück im Grünen ausstellte. Er wurde gerufen, als Marcel Duchamp 1917 ein Urinal signierte. Er wurde gerufen, als Andy Warhol 1962 seine Campbell’s-Suppendosen in die Galerie stellte. Und er wird heute gerufen – laut, empört, manchmal wütend –, wenn jemand ein Bild zeigt, das durch Midjourney, Stable Diffusion oder DALL-E entstanden ist.

Die Geschichte wiederholt sich nicht, heißt es. Aber sie reimt sich. Und der Reim, den wir gerade hören, ist so deutlich, dass man fast mitsprechen kann.

Dieser Text ist ein Plädoyer. Kein blindes, kein naives, sondern ein differenziertes. Er argumentiert, dass KI-generierte Kunst – jene sogenannte Synthographie – in einer direkten kunsthistorischen Linie steht, die von Duchamps Ready-mades über Warhols Factory bis in die Serverfarmen unserer Gegenwart reicht. Er argumentiert, dass der Vorwurf des „Bilderklaus“ komplexer ist, als es die Empörung vermuten lässt. Und er argumentiert, dass Andy Warhol, hätte er heute gelebt, sehr wahrscheinlich einer der ersten gewesen wäre, der einen Prompt geschrieben hätte.

Aber – und das ist entscheidend – er tut das nicht, indem er Spekulation als Fakt verkauft. Denn die Debatte um KI-Kunst verdient Präzision, nicht Parolen.


Teil 1: Der ewige Reflex – Warum die Kunstwelt neue Werkzeuge fürchtet

Die Kamera als Todfeind

Als 1839 die Daguerreotypie der Öffentlichkeit vorgestellt wurde, reagierte die etablierte Kunstwelt mit einer Mischung aus Faszination und Panik. Der französische Maler Paul Delaroche soll gesagt haben: „Von heute an ist die Malerei tot.“ Ob dieses Zitat wörtlich so gefallen ist, gilt unter Historikern als unsicher – die Barnes Foundation behandelt es als weit verbreitete, aber nicht zweifelsfrei belegte Zuschreibung. Doch ob nun wörtlich gefallen oder nicht: Das Zitat steht bis heute als Symbol für jene Angstreaktion, die jede technologische Innovation in der Kunst begleitet hat.

Die Akademien sahen in der Fotografie keine Kunst, sondern Mechanik. Es fehle die „Hand des Künstlers“, die „Seele“, das „Handwerk“. Der Fotograf drücke ja nur auf einen Knopf – den Rest erledige die Maschine. Es dauerte Jahrzehnte, bis Künstler wie Alfred Stieglitz, Man Ray und später Diane Arbus oder Cindy Sherman demonstrierten, dass die Kamera nicht einfach „abbildet“, sondern dass der Mensch hinter der Kamera entscheidet: über Perspektive, Licht, Komposition, Augenblick, Kontext. Die Kamera war das Werkzeug. Der Mensch war der Künstler.

Kommt Ihnen das bekannt vor? Es sollte. Denn die Argumente gegen KI-Kunst sind strukturell identisch mit denen gegen die Fotografie.

Der Siebdruck als Sakrileg

Spulen wir vor in die 1960er Jahre. Andy Warhol, ein ehemaliger Werbegrafiker aus Pittsburgh, stellt Bilder aus, die nicht gemalt, sondern gedruckt sind. Siebdrucke. Serielle Reproduktionen von Alltagsobjekten und Medienbildern. Die Kunstwelt ist gespalten. Hilton Kramer, der einflussreiche Kritiker der New York Times, bezeichnet Pop Art als „barbarisch“. Andere sehen darin nichts als eine Verherrlichung des Banalen, eine Verweigerung des Handwerks, eine Beleidigung der „echten“ Kunst.

Warhol hatte nicht gemalt. Er hatte gedruckt. Er hatte nicht erfunden. Er hatte zitiert. Er hatte nicht im traditionellen Sinne geschaffen. Er hatte ausgewählt. Und genau darin lag seine Revolution.

Der Algorithmus als Anmaßung

Heute stehen wir vor dem nächsten Paradigmenwechsel. Die Vorwürfe folgen dem immer gleichen Skript: „Das ist keine Kunst, weil die Maschine alles macht.“ „Das ist keine Kunst, weil es kein Handwerk erfordert.“ „Das ist keine Kunst, weil jeder es kann.“

Jedes einzelne dieser Argumente wurde bereits gegen die Fotografie, gegen den Siebdruck, gegen die Konzeptkunst, gegen die digitale Kunst vorgebracht. Und jedes Mal hat die Kunstwelt die neue Technik letztlich absorbiert und ist daran gewachsen. Die Geschichte der Kunst ist eine Geschichte der Werkzeugwechsel – und die Werkzeuge haben sich immer schneller verändert als die Bereitschaft, sie zu akzeptieren.


Teil 2: Warhols Factory und die Serverfarmen von heute

Die Revolution der Serialität

Um zu verstehen, warum ich argumentieren würde, dass KI-Kunst die logische Fortführung des Pop Art ist, müssen wir verstehen, was Pop Art eigentlich war. Nicht als Ästhetik, sondern als Konzept.

Vor dem Pop Art dominierte der Abstrakte Expressionismus. Jackson Pollock, Mark Rothko, Willem de Kooning – sie verkörperten das romantische Ideal des einsamen Genies. Der Pinselstrich war Ausdruck der Seele, das Werk sakrosankt in seiner Einzigartigkeit.

Dann kam Warhol und stellte alles auf den Kopf. Seine „Factory“ war kein Atelier im klassischen Sinne, sondern eine Produktionsstätte. Er beschäftigte Assistenten, die seine Siebdrucke anfertigten. Er benutzte mechanische Reproduktionsverfahren aus der Werbeindustrie. Er sagte Dinge wie „Ich möchte eine Maschine sein“ und arbeitete bewusst mit industrieller Ästhetik, Wiederholung und Serialität. Das Andy Warhol Museum dokumentiert diese Arbeitsweise umfassend – sie ist kunsthistorisch unstrittig.

Dass Warhol mit Reproduktion, Serialität und Assistenzsystemen arbeitete, ist kein interpretatives Wagnis. Es ist Fakt. Und es bildet das solide Fundament für einen Vergleich mit heutigen KI-Workflows.

Warhol und der Computer

Was viele nicht wissen: Warhol experimentierte tatsächlich mit Computerkunst. Das ist keine nachträgliche Zuschreibung, sondern dokumentierte Realität. Der Andy-Warhol-Museum-und-Carnegie-Mellon-Komplex bestätigt, dass 2014 digitale Arbeiten von alten Amiga-Disketten ausgelesen wurden – Warhol hatte in den 1980er Jahren real mit dem Commodore Amiga gearbeitet und digitale Porträts erstellt, darunter eines von Debbie Harry.

Warhol war kein Technophober, der nostalgisch am Ölgemälde festhielt. Er war ein Künstler, der jedes neue Werkzeug als Chance begriffen hat.

Würde Warhol heute prompten?

Und hier wird es spekulativ – aber es ist eine Spekulation, die auf starken Indizien beruht. Vieles spricht dafür, dass Warhol mit generativer KI experimentiert hätte. Seine Arbeit mit Siebdruck, Serialität, Assistenzsystemen und später dem Amiga passt erstaunlich gut zu heutigen Prompt- und Kurationsprozessen. Ein Künstler, der sagte, er wolle eine Maschine sein, hätte die ultimative Maschine der Bildproduktion kaum ignoriert.

Man stelle sich nur vor: endlose Variationen von Marilyn, generiert durch verschiedene Prompts, in verschiedenen Stilen, mit verschiedenen Parametern. Ein Ozean an Bildern, aus dem er die stärksten fischen würde. Das wäre nicht das Ende seiner Kunst gewesen, sondern ihre konsequente Weiterentwicklung.

Ich sage bewusst nicht „mit absoluter Sicherheit“. Niemand kann für einen Toten sprechen. Aber die Indizien sind so stark, dass die Gegenthese – Warhol hätte KI-Tools verschmäht – deutlich schwerer zu begründen wäre.


Teil 3: Vom Ready-made zum Data-made – Die konzeptuelle Linie

Duchamps Urinal und die Logik des Prompts

Marcel Duchamp reichte 1917 ein industriell gefertigtes Urinal als Kunstwerk ein und nannte es Fountain. Sein Ready-made war eine radikale Verschiebung: Nicht die Herstellung macht das Kunstwerk aus, sondern die Auswahl, die Kontextualisierung, die intendierte Bedeutung. Ein Objekt aus der realen Welt wurde durch den Akt der Benennung und Präsentation zur Kunst.

Prompting erinnert in seiner Konzeptlogik eher an Ready-made- und Konzeptkunst, als es an traditionelle Ateliermalerei erinnert. Der Künstler durchforstet nicht Flohmärkte nach Fundstücken, sondern Latenzräume nach visuellen Möglichkeiten. Er nimmt existierende visuelle Sprachen auf, dekontextualisiert sie und setzt sie in neue Beziehungen zueinander.

Wenn ein Künstler promptet: „Ein Renaissance-Gemälde einer Astronautin, die auf dem Mars betet, dramatisches Chiaroscuro“, dann vollzieht er einen Akt der kulturellen Verschiebung. Er kombiniert Bekanntes (Renaissance, Chiaroscuro) mit Neuem (Mars, Astronautin, weibliche Perspektive in einem historisch männlichen Genre). Das Ergebnis existierte vorher nicht.

Das ist keine Gleichsetzung im strengen wissenschaftlichen Sinn – Duchamps Ready-made, LeWitts Instruktionen und heutiges Prompting sind verschiedene Praktiken mit verschiedenen Kontexten. Aber die konzeptuelle Verwandtschaft ist unübersehbar.

Sol LeWitts Brücke

Sol LeWitt schrieb 1967 in seinen berühmten Paragraphs on Conceptual Art, dass Planung und Entscheidungen vorab getroffen werden und die Ausführung fast zur Formsache wird. Er gab textuelle Anweisungen, die andere ausführten. Seine Wandzeichnungen wurden von Assistenten realisiert, nach seinen Instruktionen. LeWitt war der Konzeptgeber, nicht der Ausführende.

Die Parallele zum Prompt-Künstler ist frappierend: Auch er gibt eine textuelle Anweisung, die ein anderes System – sei es ein Mensch oder ein Algorithmus – in ein visuelles Ergebnis übersetzt. Die Autorschaft liegt beim Konzept, nicht bei der Ausführung. Ob man diese Parallele als strukturelle Identität oder als produktive Analogie liest, ist eine Frage der theoretischen Schärfe, die man gern diskutieren kann.


Teil 4: Die Demokratisierung – Kunst für alle, nicht nur für Absolventen

Ein zentrales Anliegen des Pop Art war die Demokratisierung der Kunst. Weg vom elitären Museum, hin zum Supermarkt, zur Werbetafel, zum Massenmedium. Kunst sollte für alle zugänglich sein.

Die Barrieren fallen

Synthographie verwirklicht dieses Versprechen in einer Radikalität, die selbst Warhol überrascht hätte. Zum ersten Mal in der Geschichte kann buchstäblich jeder mit Zugang zu einem Computer und dem Internet visuell hochwertige Bilder erschaffen. Ein Teenager in Manila kann Welten generieren, die vor zwanzig Jahren Millionenbudgets erfordert hätten.

Das ist keine Trivialität. Das ist eine emanzipatorische Verschiebung.

Natürlich bedeutet Demokratisierung auch, dass viel Durchschnittliches entsteht. Aber das war schon immer so. Die Erfindung des Buchdrucks führte nicht nur zu Shakespeare und Luther, sondern auch zu Millionen vergessener Pamphlete. Die Demokratisierung senkt die Schwelle – und aus der breiteren Basis können Ausnahmen entstehen, die sonst nie eine Chance gehabt hätten.

Die Kritik der Privilegierten

Die Kritik an der „Flut“ von KI-Bildern kommt, wenn man ehrlich ist, oft aus einer Position des Privilegs. Es sind jene Künstler, die jahrelang studiert, teure Ausrüstung erworben und sich Zugang zu Galerien erarbeitet haben. Ihre Angst ist verständlich – jede Demokratisierung bedroht bestehende Hierarchien.

Aber sie ist auch historisch kurzsichtig. Als die Fotografie aufkam, fürchteten Porträtmaler um ihre Existenz. Viele verloren tatsächlich Aufträge. Aber die Malerei als Ganzes überlebte nicht nur – sie wurde freier. Befreit von der Pflicht zur naturgetreuen Abbildung, konnte sie sich dem Expressionismus, dem Kubismus, der Abstraktion zuwenden.

Kunsthistorisch betrachtet hat technische Innovation die Kunst nie zerstört. Sie hat sie jedes Mal transformiert und letztlich bereichert.


Teil 5: Die Copyright-Debatte – Komplexer als die Empörung

Und nun zum emotionalsten Punkt. Dem Vorwurf des „Bilderklaus“. Er wird leidenschaftlich vorgetragen, oft mit echtem Schmerz und berechtigter Existenzangst. Und er verdient eine ehrliche, differenzierte Antwort – keine, die ihn wegwischt, aber auch keine, die ihn unkritisch übernimmt.

Wie neuronale Netze tatsächlich funktionieren

Das grundlegendste Missverständnis betrifft die Funktionsweise der KI. Viele Menschen stellen sich vor, ein Modell wie Stable Diffusion speichere Bilder und setze sie bei Bedarf wie eine Collage zusammen. Diese Vorstellung ist technisch nicht korrekt.

Generative Modelle arbeiten mit Mustererkennung. Sie analysieren Millionen von Bildern und extrahieren daraus abstrakte Beziehungen: Wie verhält sich Licht auf verschiedenen Oberflächen? Welche Farbpaletten charakterisieren bestimmte Epochen? Wie sind Proportionen aufgebaut? Diese Muster werden als mathematische Gewichtungen in einem hochdimensionalen Raum gespeichert – nicht als Pixel, nicht als Bildfragmente, nicht als Kopien.

Technisch erzeugen generative Modelle in der Regel keine einfache Pixel-Collage aus gespeicherten Bildschnipseln. Aber – und hier muss man ehrlich sein – juristisch ist weiterhin offen, wo genau zwischen statistischem Lernen, möglicher Reproduktion und marktrelevanter Nutzung die Grenzen verlaufen. Genau deshalb laufen weiterhin wichtige Verfahren gegen KI-Anbieter, darunter Andersen v. Stability AI und Getty Images v. Stability AI. Der U.S. Copyright Office Report zu Generative AI Training von 2025 beschreibt die Debatte ausdrücklich als komplex und nicht abschließend geklärt.

Die Analogie zum menschlichen Lernen – und ihre Grenzen

Man kann argumentieren, dass maschinelles Lernen in seiner Musterorientierung gewisse Parallelen zum menschlichen künstlerischen Lernen aufweist. Ein menschlicher Künstler studiert jahrelang die Werke anderer, geht in Museen, analysiert Techniken, imitiert Stile. All diese Einflüsse fließen in sein eigenes Werk ein – transformiert, synthetisiert, neu kombiniert. Niemand würde sagen, ein Maler „klaut“ von Rembrandt, weil er dessen Chiaroscuro-Technik studiert hat.

Ob der Unterschied zwischen menschlichem und maschinellem Lernen eher quantitativ oder qualitativ ist, bleibt jedoch eine offene philosophische und rechtliche Streitfrage. Die KI lernt schneller und aus mehr Material – aber ob der Prozess „strukturell identisch“ ist, wie manche behaupten, oder ob es fundamentale Unterschiede gibt, darüber streiten Philosophen, Juristen und Kognitionswissenschaftler gleichermaßen. Diesen Streit kann ein Blogbeitrag nicht entscheiden, und er sollte es auch nicht versuchen.

Stil ist urheberrechtlich kaum greifbar

Ein stärker belegbarer Punkt: Stil lässt sich urheberrechtlich nur sehr begrenzt schützen. Der U.S. Copyright Office lehnt in seinem Bericht zusätzlichen Schutz für „artistic style“ ausdrücklich ab. Das Urheberrecht schützt konkrete Werke, nicht abstrakte Stile. Wenn eine KI ein Bild „im Stil von“ generiert, verletzt sie keine Urheberrechte – solange das Ergebnis kein konkretes, geschütztes Werk reproduziert.

Es gibt einen gewaltigen Unterschied zwischen „Die KI hat ein spezifisches Gemälde kopiert“ und „Die KI hat ein Bild generiert, das impressionistische Stilelemente aufweist“. Das erste wäre problematisch. Das zweite ist legitime kulturelle Referenzialität.

Der Warhol/Goldsmith-Fall – Eine wichtige Lektion

Ironischerweise war gerade Warhol selbst in Copyright-Dispute verwickelt. Sein berühmtes Orange-Prince-Porträt basierte auf einem Foto von Lynn Goldsmith. Der Fall ging bis zum Supreme Court.

Und hier ist Vorsicht geboten, denn das Urteil wird oft falsch zitiert. Der Supreme Court hat 2023 im Fall Andy Warhol Foundation v. Goldsmith gerade nicht ein großzügiges Transformationsprinzip bestätigt. Im Gegenteil: Er hat entschieden, dass künstlerische Transformation urheberrechtlich nicht automatisch genügt – jedenfalls dann nicht, wenn die spätere Nutzung kommerziell erfolgt und einem ähnlichen Zweck dient wie das Ausgangswerk. Das Urteil war eher eine Bremse für zu weite Fair-Use-Argumente.

Das ist wichtig für die Synthographie-Debatte, denn es zeigt: Auch die Berufung auf „Transformation“ hat Grenzen. Ein KI-generiertes Bild, das einem konkreten Werk zu nahe kommt und für denselben Marktzweck genutzt wird, könnte durchaus rechtliche Probleme aufwerfen. Die Tatsache, dass ein Algorithmus dazwischensteht, macht nicht automatisch alles legal.

Die Frage der Trainingsdaten

Ja, KI-Modelle werden auf großen Datensätzen trainiert, die Bilder aus dem Internet enthalten. Und ja, nicht alle diese Bilder wurden mit der expliziten Zustimmung ihrer Urheber verwendet. Das ist eine berechtigte regulatorische Frage.

Manche verweisen darauf, dass Suchmaschinen und Empfehlungsalgorithmen schon lange mit massenhafter Mustererkennung arbeiten. Dieser Hinweis zeigt, dass das Prinzip der datenbasierten Musteranalyse nicht neu ist. Aber er ersetzt nicht die eigenständige juristische Prüfung generativer KI-Modelle, weil Training und Bildsynthese andere Fragen aufwerfen als bloße Indexierung. Der USCO-Bericht behandelt generative AI Training ausdrücklich als eigenen Problemkomplex.

Originalität – eine differenzierte Frage

Sind KI-Bilder „original“? Viele KI-Bilder sind zweifellos neuartige Outputs – sie sind nicht identisch mit Trainingsbildern und existierten vorher nicht. Ob und in welchem Umfang sie auch urheberrechtlich als menschlich-autorisierte Originalwerke gelten, hängt nach aktueller US-Position entscheidend vom menschlichen kreativen Beitrag ab. Der U.S. Copyright Office Report von 2025 stellt klar: Bloßes Prompting reicht nicht automatisch für urheberrechtlichen Schutz. Es braucht ausreichende menschliche Autorschaft.

Das heißt: Wer nur „cute cat“ eingibt und auf Generate klickt, hat möglicherweise keinen urheberrechtlichen Anspruch auf das Ergebnis. Wer aber stundenlang iteriert, retuschiert, kombiniert, konzeptualisiert und kuratiert, erbringt einen kreativen Beitrag, der zunehmend anerkannt wird.

Die zwei verschiedenen Fragen

Und hier liegt der Schlüssel zu einem ehrlichen Umgang mit dem Thema: Die künstlerische Legitimität von KI-Bildern und die urheberrechtliche Bewertung des Trainings sind zwei verschiedene Fragen. Über die zweite wird weltweit weiter gestritten – in Berichten, Gerichten und Gesetzgebungsprozessen. Die erste lässt sich trotzdem bejahen.

Ein Pianist, der auf einem gestohlenen Klavier spielt, macht trotzdem Musik. Das Verbrechen liegt im Diebstahl des Klaviers, nicht in der Musik selbst. Ob das Klavier gestohlen ist, muss geklärt werden. Aber die Frage „Ist das, was er spielt, Musik?“ ist davon unabhängig.


Teil 6: Was ist Kunst? – Die Frage, die nie beantwortet wird

Die institutionelle Perspektive

George Dickie formulierte in den 1970er Jahren die institutionelle Theorie der Kunst: Ein Objekt wird zum Kunstwerk, wenn es von der „Kunstwelt“ als solches behandelt wird. Nach dieser Theorie ist KI-Kunst bereits Kunst, denn sie wird in Galerien ausgestellt, auf Auktionen verkauft und in Wettbewerben prämiert.

Und das ist kein hypothetisches Szenario. Christie’s hat 2025 eine eigene Auktion unter dem Titel Augmented Intelligence veranstaltet. Jason Allens Théâtre D’opéra Spatial gewann 2022 die Colorado State Fair in der Kategorie „Digital Arts/Digitally-Manipulated Photography“. KI-Kunst ist institutionell angekommen – ob man das begrüßt oder bedauert.

Die expressionistische Perspektive

Nach der expressionistischen Theorie ist Kunst der Ausdruck von Emotionen. KI-Kunst drückt die Emotionen und Intentionen des Prompt-Künstlers aus – vermittelt durch ein technisches Medium, aber nicht weniger authentisch als Emotionen, die durch einen Pinsel vermittelt werden. Zumindest lässt sich das argumentieren.

Die funktionale Perspektive

Nach Nelson Goodmans funktionaler Theorie ist Kunst das, was ästhetische Erfahrungen ermöglicht. Wer vor einem gelungenen KI-Bild steht und etwas empfindet – Staunen, Irritation, Nachdenklichkeit –, hat bereits den funktionalen Beweis erbracht.

Die pragmatische Perspektive

Pragmatisch betrachtet ist die Frage „Ist KI-Kunst Kunst?“ ohnehin bereits beantwortet. Sie wird als Kunst produziert, rezipiert, diskutiert und gehandelt. Die akademische Debatte hinkt der Praxis hinterher – wie so oft.


Teil 7: Autorschaft ohne Pinsel – Das Ende des Genie-Mythos

Eine romantische Fiktion

Die größte Hürde für die Akzeptanz von KI-Kunst ist das Konzept des autonomen Genies. Dieses Bild – der einsame Künstler, der in seinem Dachkammeratelier leidet und aus der Tiefe seiner Seele Meisterwerke hervorbringt – ist historisch eine Ausnahmeerscheinung des 19. Jahrhunderts.

Die meiste Kunstgeschichte war kollektiv. Michelangelo hatte ein Team, Rubens eine Werkstatt, Rembrandt Schüler. Warhol hatte seine Factory. Die Idee, der Künstler müsse jeden Pinselstrich selbst setzen, ist eine moderne Fiktion.

Der Prompt als kreativer Akt

Kritiker behaupten, „einen Prompt zu schreiben“ sei keine kreative Leistung. Das zeigt vor allem, dass sie noch nie ernsthaft mit einem KI-Bildgenerator gearbeitet haben.

Ein guter Prompt ist ein komplexes Dokument. Er beschreibt Motiv, Stil, Stimmung, Lichtverhältnisse, Perspektive, Farbpalette, technische Spezifikationen und kulturelle Referenzen. Er ist das Ergebnis von Stunden der Iteration. Der Künstler schreibt, evaluiert, variiert, testet, kombiniert mit Techniken wie Inpainting, Outpainting, ControlNet oder Image-to-Image, bis das Ergebnis seiner Vision entspricht.

Das ist kein Knopfdrücken. Das ist ein kreativer Prozess, der Wissen, Erfahrung, ästhetisches Urteilsvermögen und technische Kompetenz erfordert. Es ist ein anderer kreativer Prozess als Malerei – aber es ist einer.


Teil 8: Die Aura im algorithmischen Zeitalter

Walter Benjamin analysierte 1935 in seinem epochalen Essay Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, wie mechanische Reproduktion die „Aura“ des Kunstwerks verändert. Benjamin war kein Nostalgiker – er sah darin eine emanzipatorische Chance.

Die neue Aura des Prozesses

Synthographie radikalisiert diesen Prozess. Ein digitales Bild hat keine physische Einzigartigkeit. Es existiert als Code, unendlich multiplizierbar.

Doch in einer anderen Perspektive schafft die Synthographie eine neue Form der Aura. Nicht die Aura des Objekts, sondern die Aura des Prozesses. Der spezifische Prompt, die Kombination aus Parametern, die Serie von Iterationen – das ist in seiner Gesamtheit einmalig. Zwei Künstler, die denselben Prompt eingeben, erhalten verschiedene Ergebnisse. Und selbst bei identischen Outputs wären die künstlerische Intention und der Kontext verschieden.

Man kann das lesen als eine Verlagerung der Aura vom Werk auf den Werkprozess, vom Artefakt auf das Konzept.

Die Ästhetik des Unheimlichen

Synthographie hat eine eigene Ästhetik entwickelt. Es ist eine Ästhetik des Unheimlichen – im Freudschen Sinne: vertraut und fremd zugleich. KI-Bilder zeigen Welten, die fast real aussehen, aber nicht ganz. Gesichter, die beinahe menschlich sind. Landschaften, die wie Erinnerungen an Orte wirken, die nie existiert haben.

Diese Ästhetik erinnert an Strategien des Pop Art: die überzeichneten Ben-Day-Dots bei Lichtenstein, die das Fotografische im Malerischen sichtbar machen, oder Warhols wiederholte Gesichter, die durch Serialität zur Abstraktion werden. Beide Strategien – Pop Art und Synthographie – machen den Bildprozess selbst zum Thema. Sie zeigen uns, dass alle Bilder Konstrukte sind.


Teil 9: KI-Kunst ist bereits Realität – Die institutionellen Fakten

Es ist wichtig, neben der Theorie auch die Fakten zu benennen. KI-Kunst ist nicht mehr ein Zukunftsszenario, sondern gegenwärtige Praxis.

Christie’s, eines der renommiertesten Auktionshäuser der Welt, hat 2025 mit Augmented Intelligence eine eigene Auktion für KI-bezogene Kunst veranstaltet. Das ist kein Underground-Phänomen, das ist der etablierte Kunstmarkt.

Jason Allens Théâtre D’opéra Spatial, erstellt mit Midjourney und anschließend bearbeitet, gewann 2022 in der Kategorie „Digital Arts“ der Colorado State Fair. Die Kontroverse war enorm – aber das Werk wurde prämiert, nicht disqualifiziert.

Museen weltweit zeigen KI-generierte Arbeiten. Kunsthochschulen diskutieren den Einsatz von KI-Tools. Kreativagenturen integrieren sie in ihre Workflows. Die Frage ist nicht mehr, ob KI-Kunst Teil der Kunstwelt wird, sondern wie.


Teil 10: Was ich nicht behaupte – Ehrlichkeit als Stärke

Ein guter Essay zeichnet sich nicht nur durch seine Argumente aus, sondern auch durch die Transparenz über seine Grenzen. Deshalb hier explizit:

Ich behaupte nicht, dass die Copyright-Frage geklärt ist. Sie ist es nicht. Training auf urheberrechtlich geschützten Werken ist ein offener, umkämpfter Rechtsbereich, in dem wichtige Verfahren laufen und Legislative weltweit an Regelungen arbeiten.

Ich behaupte nicht, dass maschinelles und menschliches Lernen „dasselbe“ sind. Die Analogie ist produktiv, aber sie hat Grenzen, und seriöse Wissenschaftler streiten darüber.

Ich behaupte nicht, dass jedes KI-generierte Bild automatisch Kunst ist. Genauso wenig wie jedes Foto Kunst ist oder jedes Ölgemälde. Es kommt auf Intention, Kontext, Auswahl und Konzept an.

Ich behaupte nicht, dass traditionelle Künstler keine berechtigten Sorgen haben. Die Disruption ist real, die ökonomischen Auswirkungen sind spürbar, und die Branche braucht faire Regelungen.

Was ich behaupte, ist Folgendes: Kunsthistorisch betrachtet steht Synthographie in einer klaren Traditionslinie. Sie ist verwandt mit dem Pop Art in ihrer Demokratisierung, mit der Konzeptkunst in ihrer Verlagerung von Handwerk auf Idee, mit dem Ready-made in ihrer Neukontextualisierung existierender visueller Sprachen. Und sie verdient es, nach denselben Kriterien beurteilt zu werden wie jede andere Kunstform – nach ihrer besten Praxis, nicht nach ihrem schlechtesten Output.


Fazit: Die natürliche Evolution – vorsichtig formuliert, aber klar

Synthographie ist, kunsthistorisch gelesen, die konsequente Fortführung jener Kraftlinien, die im 20. Jahrhundert mit Duchamps Ready-mades und Warhols Factory begannen. Sie radikalisiert die Demokratisierung der Bildproduktion. Sie entkoppelt handwerkliches Können von künstlerischer Vision. Sie überführt die technische Reproduzierbarkeit ins Algorithmische.

Sie ist Kunst, weil sie Fragen stellt: über Autorschaft, über Original und Kopie, über menschliche und maschinelle Kreativität, über die Natur des Bildes in einer Welt der totalen Simulierbarkeit. Ob man ihre Antworten mag, ist eine andere Frage. Aber dass sie die richtigen Fragen stellt – das kann man ihr kaum absprechen.

Die Angst vor der KI-Kunst ist die Angst vor der eigenen Entbehrlichkeit. Aber diese Angst ist historisch nicht bestätigt worden. Die Fotografie hat die Malerei nicht getötet. Der Siebdruck hat die seriöse Kunst nicht beendet. Die digitale Bildbearbeitung hat die analoge Fotografie nicht ausgelöscht. Jedes neue Werkzeug hat den Raum erweitert, nicht verengt.

Andy Warhol sagte einmal: „In der Zukunft wird jeder für fünfzehn Minuten weltberühmt sein.“ Vielleicht müsste man das für das Zeitalter der Synthographie ergänzen: In der Zukunft wird jeder die Möglichkeit haben, ein Bild zu erschaffen, das die Welt bewegt. Nicht, weil er einen Pinsel halten kann, sondern weil er eine Idee hat.

Das ist nicht das Ende der Kunst. Es ist ihr nächstes Kapitel. Ob es ein gutes wird, liegt nicht am Algorithmus. Es liegt an uns.


Quellen und weiterführende Referenzen

  • The Andy Warhol Museum: Warhol and the Amiga. warhol.org
  • Barnes Foundation: From Today, Painting Is Dead: Early Photography. barnesfoundation.org
  • Christie’s: Augmented Intelligence. press.christies.com
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 1: Digital Replicas. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 2: Copyrightability. copyright.gov
  • U.S. Copyright Office: Copyright and Artificial Intelligence, Part 3: Generative AI Training. copyright.gov
  • Supreme Court of the United States: Andy Warhol Foundation for Visual Arts, Inc. v. Goldsmith (2023). supremecourt.gov
  • Sol LeWitt: Paragraphs on Conceptual Art (1967). mma.pages.tufts.edu
  • Essay-Quelle: „Vom Siebdruck zum Prompt: Warum Synthographie die legitime Tochter des Pop Art ist“ – ein kunsttheoretischer Essay zur Einordnung der Synthographie, der als Ausgangspunkt und Referenz für die hier entwickelten Argumente dient.

Wie dieser Text entstanden ist: Meine Blogartikel entstehen als Sprachmemos. Die werden transkribiert und mit KI-Unterstützung in Form gebracht. Die Erfahrung und die Empfehlungen sind komplett meine. Die Struktur und der Feinschliff entstehen mit KI. Sag ich offen, weil ich’s so halte.



Was aus dem Unternehmen geworden ist, das einst die kreative Welt erfunden hat – und ob der KI-Kurs Geniestreich oder Identitätskrise ist.


Ein Blogbeitrag von BROWNZ.ART


Prolog: Ein seltsames Gefühl

Ich habe kürzlich die Release Notes der letzten vier großen Photoshop-Updates nebeneinandergelegt. Nicht weil ich es musste. Sondern weil ich ein Gefühl überprüfen wollte. Ein Gefühl, das sich seit ungefähr zwei Jahren aufbaut und das ich lange nicht greifen konnte. Ein leises Unbehagen, das irgendwo zwischen Begeisterung und Enttäuschung sitzt.

Und als ich die Release Notes nebeneinander sah, wurde das Gefühl greifbar.

Adobes öffentliche Erzählung der letzten zwei Jahre wird auffallend stark von KI- und Firefly-Funktionen dominiert. Generative Fill. Generative Expand. KI-gestützte Auswahlen. Neuronale Filter. KI-Entrauschen. Generative Referenz. Remove Tool mit KI. Firefly Image Model 3, 4, was auch immer als nächstes kommt. Jede Keynote handelt von KI. Jede Pressemitteilung handelt von KI. Jede Marketing-Kampagne handelt von KI.

Und plötzlich hatte ich eine Frage im Kopf, die sich nicht mehr abschütteln ließ:

Wo ist eigentlich der Rest geblieben?

Nicht in der Software selbst – denn wenn man genau hinschaut, gibt es durchaus klassische Verbesserungen. Photoshop hat OpenColorIO und 32-Bit-HDR-Workflows bekommen, Dynamic Text, AVIF- und JPEG-XL-Support, Variable Fonts im Font-Browser, Clarity und Dehaze als non-destruktive Adjustment Layers, sogar Grain als eigene Einstellungsebene. Lightroom Classic hat PSB-Support in der Photoshop-Übergabe und im Export bekommen, verbesserte Embedded Previews vor dem Import, Tethering-Erweiterungen und optimierte Sidecar Writes.

Das sind reale, substanzielle Verbesserungen. Keine davon hat „KI“ im Namen. Und keine davon hat es auf die große Bühne geschafft.

Denn dort – in den Keynotes, in den Pressemitteilungen, in den Marketing-Kampagnen, in den Schlagzeilen – dominiert ausschließlich die KI-Story. Und genau das ist der Punkt, der mich nachdenklich macht. Nicht dass Adobe KI baut. Sondern dass Adobe seine gesamte Innovations-Erzählung darauf verengt – und damit den Rest unsichtbar macht.

Die Frage ist also nicht: Macht Adobe nur noch KI? Das stimmt faktisch nicht. Die Frage ist: Warum erzählt Adobe so, als würde es nur noch KI machen? Und was macht das mit dem Unternehmen, mit den Produkten und mit uns als Nutzern?


Kapitel 1: Was Adobe früher anders gemacht hat – und warum das wichtig ist

Um zu verstehen, was sich verändert hat, muss man verstehen, wo Adobe herkommt. Nicht als Börsenunternehmen. Nicht als Abo-Modell. Sondern als kreatives Unternehmen, das Werkzeuge für kreative Menschen baut.

Photoshop war, als es in den frühen Neunzigern die Bühne betrat, nicht einfach eine Software. Es war eine neue Grammatik des Visuellen. Es hat nicht nur bestehende Prozesse digitalisiert – es hat NEUE Prozesse ermöglicht, die vorher nicht existierten. Ebenen. Masken. Kanäle. Pfade. Einstellungsebenen. Smart Objects. Jedes dieser Konzepte war, als es eingeführt wurde, eine echte Innovation. Nicht im Marketing-Sinne von „Wir haben einen Button umbenannt und nennen es Innovation“. Sondern im fundamentalen Sinne von: Das hat es vorher nicht gegeben, und es verändert die Art, wie Menschen über Bilder nachdenken.

Lightroom hat dasselbe für den fotografischen Workflow getan. Vor Lightroom war die RAW-Entwicklung ein fragmentierter Prozess. Lightroom hat Katalogisierung, Entwicklung und Ausgabe vereint und ein non-destruktives Arbeitskonzept etabliert, das bis heute den Standard definiert.

InDesign hat QuarkXPress abgelöst, nicht weil es billiger war, sondern weil es konzeptionell überlegen war. After Effects hat Motion Graphics demokratisiert. Illustrator hat Vektorgrafik für eine ganze Branche zugänglich gemacht.

Das waren keine KI-Features. Das waren Werkzeug-Innovationen. Durchdachte Lösungen für reale Probleme, die die kreative Arbeit auf einer strukturellen Ebene verbessert haben.

Und hier liegt der Kern meines Unbehagens: Mir fällt in den letzten zwei, drei Jahren kaum ein Adobe-Feature ein, das sich für mich so grundlegend anfühlt wie einst Ebenen, Smart Objects oder der non-destruktive Lightroom-Workflow. Es gibt Verbesserungen – teils gute, teils sehr gute. OpenColorIO für HDR ist ein echtes Upgrade für Profis, die in diesem Bereich arbeiten. Die neuen non-destruktiven Clarity- und Grain-Adjustment-Layers sind willkommen. PSB-Support in Lightroom Classic löst ein Problem, das lange genervt hat.

Aber nur wenige dieser Neuerungen fühlen sich wie ein neuer Denkraum an. Wie ein Konzept, das verändert, wie du über Bildbearbeitung nachdenkst. Und das ist – ich sage das als subjektive Bewertung eines Praktikers, nicht als objektives Urteil – ein Unterschied, den ich spüre.


Kapitel 2: Die KI-Features im Realitätscheck

Bevor mir jemand vorwirft, ich würde die KI-Features pauschal schlecht reden: Das tue ich nicht. Ich nutze sie. Jeden Tag. Und einige davon haben meinen Workflow tatsächlich fundamental verbessert.

Was genuinely großartig ist:

Das KI-Entrauschen in Lightroom ist ein Gamechanger. Die Ergebnisse bei High-ISO-Aufnahmen sind spektakulär und haben ein separates Plugin im Wert von 80 Euro überflüssig gemacht. Adobe dokumentiert kontinuierliche Qualitätsverbesserungen bei diesem Workflow. Das ist Innovation, die reale Probleme löst.

Die KI-gestützten Auswahlen – Motiv auswählen, Himmel auswählen, Objektauswahl mit Hover-Erkennung – haben die Freistellung von Motiven von einer Dreißig-Minuten-Aufgabe zu einer Dreißig-Sekunden-Aufgabe gemacht. Nicht perfekt. Nicht in jedem Fall. Aber in der Mehrheit der Fälle gut genug als Startpunkt. Ein realer, messbarer Produktivitätsgewinn.

Das Remove Tool erledigt 80 Prozent aller Objekt-Entfernungen brillant. Die restlichen 20 Prozent brauchen Handarbeit. Insgesamt eine deutliche Verbesserung gegenüber dem klassischen Kopierstempel.

Die KI-Maskierung in Lightroom hat meinen Workflow fundamental verändert. Ich mache Dinge direkt in Lightroom, für die ich früher zu Photoshop wechseln musste.

Was weniger überzeugend ist:

Generative Fill ist beeindruckend als Demo. Im täglichen Workflow ist es ein Startpunkt, kein Endprodukt. Ergebnisse oft inkonsistent, manchmal mit erkennbarem KI-Look, fast immer mit Bedarf an manueller Nacharbeit. Gutes Werkzeug. Keine Magie. Trotz Marketing, das Magie suggeriert.

Generative Expand funktioniert bei einfachen Szenen. Bei komplexen Kompositionen erzeugt es häufig Inkonsistenzen und Perspektivfehler. Gut für schnelle Social-Media-Erweiterungen. Nicht verlässlich genug für professionelle Druckproduktion.

Die neuronalen Filter – manche funktionieren, manche sind seit Jahren in der Beta und fühlen sich immer noch experimentell an.

Firefly als Bildgenerator – und hier muss ich sauber bleiben: Firefly wirkt für mich ästhetisch oft solider als spektakulär. Adobe bewirbt Firefly Image Model 4 als großen Qualitäts- und Realismus-Sprung, und die Ergebnisse sind tatsächlich besser geworden. Aber Adobes eigentliche Differenzierung liegt für mich weniger in einer unangefochtenen ästhetischen Marktführerschaft als vielmehr in der kommerziellen Absicherung, der nahtlosen Integration in die Creative Cloud und – das ist zunehmend relevant – in der Öffnung für Partner-Modelle.

Denn Adobe positioniert Firefly inzwischen nicht mehr nur als eigenes Modell, sondern als Plattform, die Modelle von Google, OpenAI, Runway und Kling integriert. Das ist eine strategisch kluge Entscheidung. Und möglicherweise die eigentliche Innovation: nicht das beste Modell zu haben, sondern die beste Plattform, die alle Modelle integriert.

Und hier zeigt sich ein Muster: Die wirklich starken KI-Features sind die, die bestehende Aufgaben beschleunigen – Entrauschen, Auswählen, Entfernen. Die weniger überzeugenden sind die, die neue Inhalte generieren – Füllen, Erweitern, Bilder erzeugen. Adobe ist besser im Optimieren als im Kreieren. Das ist keine Schande. Aber es ist eine Unterscheidung, die in der Marketing-Kommunikation verwischt wird.


Kapitel 3: Die strategische Frage – Innovation oder Imitation?

Ist Adobes KI-Kurs eigenständige Innovation – oder die Reaktion eines Konzerns, der einem Trend hinterherläuft?

Um diese Frage fair zu beantworten, muss man Adobes Situation verstehen. Und die ist genuinely schwierig.

Adobe steckt im klassischen Innovator’s Dilemma. Die Technologie, die das eigene Geschäftsmodell bedroht – generative KI, die Bilder, Designs und Layouts ohne Photoshop, Illustrator oder InDesign erstellen kann – muss gleichzeitig ins eigene Produkt integriert werden, um relevant zu bleiben.

Aus dieser Perspektive ist Adobes KI-Strategie nachvollziehbar. Wenn Midjourney, Runway, Canva und Dutzende von KI-Startups Features anbieten, die immer mehr kreative Aufgaben automatisieren, kann Adobe nicht danebenstehen. Der Zug fährt. Adobe muss aufspringen.

Und Adobe ist aufgesprungen. Aggressiv. Mit Firefly, mit der Integration generativer Features in jedes Produkt, mit der Öffnung für Drittanbieter-Modelle, mit dem klaren Bekenntnis: KI ist die Zukunft.

Aber – und das ist das große Aber – es gibt einen Unterschied zwischen „KI integrieren, weil es die Produkte besser macht“ und „KI als zentrale Markenidentität pushen, weil der Markt und die Aktionäre es hören wollen“.

Und ich bin mir nicht immer sicher, auf welcher Seite Adobe steht.

Denn wenn jede Keynote von KI dominiert wird, dann signalisiert das intern und extern eine klare Priorität. Und wenn Features wie OpenColorIO, HDR-Workflows, Dynamic Text, neue Dateiformatunterstützung und non-destruktive Adjustment Layers in der Kommunikation zu Fußnoten degradiert werden – dann sendet das eine Botschaft. An die Entwickler. An die Nutzer. An den Markt.

Die Botschaft lautet: KI ist das, was zählt. Der Rest ist Pflichtprogramm.

Und diese Verschiebung der Erzählung hat reale Konsequenzen. Für die Wahrnehmung. Für die Erwartungen. Und möglicherweise auch für die Frage, wie intern Ressourcen verteilt werden.

Ich gebe dir ein Beispiel. Photoshops Ebenenbedienfeld – das zentrale Interface-Element, mit dem jeder Nutzer jeden Tag arbeitet – hat sich seit Jahren kaum grundlegend verändert. Es funktioniert. Aber es funktioniert so, wie es seit über einem Jahrzehnt funktioniert. In einer Zeit, in der Composings routinemäßig Dutzende oder Hunderte von Ebenen haben, wäre ein grundlegend neues Konzept für Ebenenverwaltung – intelligente Gruppierung, visuelle Vorschau, kontextbezogene Organisation – eine Innovation, die den Alltag von Millionen Nutzern verbessern würde.

Aber das ist kein KI-Feature. Es ist ein Interface-Problem. Ein Design-Problem. Ein Workflow-Problem. Und solche Probleme scheinen 2026 weniger Bühne zu bekommen als das nächste generative Feature.


Kapitel 4: War früher wirklich alles besser? – Der Nostalgie-Check

Jetzt muss ich ehrlich zu mir selbst sein. Denn die Frage „War früher alles besser?“ ist eine gefährliche Frage. Sie klingt analytisch, ist meistens emotional und führt fast immer in die Irre.

War die Bildbearbeitung vor KI besser? Nein. Definitiv nicht. Langsamer. Mühsamer. Zeitaufwändiger. Ich möchte nicht zurück in die Vor-KI-Zeit. Niemand, der ehrlich ist, möchte das.

War Adobe früher innovativer? Ja und nein.

Ja, im Sinne von: Adobe hat früher mehr grundlegende Werkzeug-Innovationen geliefert. Konzepte, die die Art verändert haben, wie wir über Bildbearbeitung nachdenken. Momente, in denen man als Nutzer spürte: Hier hat jemand über das PROBLEM nachgedacht, nicht über den TREND.

Nein, im Sinne von: Adobe hat auch früher nicht in jedem Update das Rad neu erfunden. Es gab auch damals Updates, die hauptsächlich aus Bugfixes und inkrementellen Verbesserungen bestanden. Die Nostalgie filtert das heraus. Wir erinnern uns an die großen Momente und vergessen die Jahre dazwischen.

Und man muss fair anerkennen: Einige der aktuellen non-KI-Neuerungen SIND substanziell. OpenColorIO und 32-Bit-HDR-Support in Photoshop sind für Profis, die in Film- und HDR-Workflows arbeiten, ein echtes Upgrade. Non-destruktive Clarity- und Grain-Layers lösen Probleme, die seit Jahren bestehen. AVIF- und JPEG-XL-Support bringt Photoshop auf den Stand moderner Bildformate. Das ist keine Stagnation. Das ist solide Produktarbeit.

Aber – und das ist der Punkt – diese solide Produktarbeit wird kommunikativ so leise behandelt, dass sie im KI-Getöse untergeht. Und damit entsteht der EINDRUCK von Einseitigkeit, auch wenn die REALITÄT differenzierter ist.

Und Eindrücke formen Erwartungen. Erwartungen formen Strategien. Strategien formen Produkte. Wenn Adobe nach außen kommuniziert, dass KI alles ist, dann wird KI intern irgendwann auch alles sein. Erzählungen haben die Tendenz, sich selbst zu erfüllen.


Kapitel 5: Der regulatorische Kontext – Vertrauen unter Druck

Ein Punkt, der in eine ehrliche Analyse gehört, auch wenn er nicht direkt mit Innovation zu tun hat: Adobe steht regulatorisch unter erheblichem Druck. Und das beeinflusst die Wahrnehmung des Unternehmens.

Im Juni 2024 hat die US-amerikanische Federal Trade Commission (FTC) Klage gegen Adobe und zwei Führungskräfte erhoben. Der Vorwurf: versteckte Gebühren bei der Abo-Kündigung und absichtlich erschwerte Kündigungsprozesse. Die Klage läuft.

Seit dem 19. März 2026 untersucht die britische Competition and Markets Authority (CMA) Adobe wegen Bedenken rund um Kündigungsgebühren und Abo-Konditionen.

Das sind keine Kavaliersdelikte. Das sind regulatorische Verfahren in zwei der wichtigsten Märkte der Welt. Und sie betreffen ein Kernthema: Vertrauen. Das Vertrauen, dass ein Unternehmen, dem du monatlich Geld überweist, fair und transparent mit dir umgeht.

KI-Features allein bauen dieses Vertrauen nicht auf. Im Gegenteil: Wenn ein Unternehmen auf der einen Seite mit beeindruckenden KI-Demos glänzt und auf der anderen Seite wegen irreführender Geschäftspraktiken vor Regulierungsbehörden steht, dann entsteht eine Dissonanz, die langfristig problematisch ist.

Adobe braucht 2026 nicht nur bessere Features. Adobe braucht bessere Geschäftspraktiken. Und das ist eine Innovationsaufgabe, die nichts mit Algorithmen zu tun hat.


Kapitel 6: Was Adobe tun müsste – und was wir als Nutzer einfordern sollten

Ich bin kein Unternehmensberater. Ich bin ein Kreativer, der jeden Tag mit Adobe-Produkten arbeitet. Und als solcher habe ich Wünsche. Nicht als Konsument. Als Praktiker.

Erstens: KI als Werkzeug positionieren, nicht als Identität.

Adobe sollte KI-Features weiterentwickeln. Die guten sollten besser werden. Die weniger guten sollten reifen. Aber KI sollte nicht die EINZIGE Innovationserzählung sein. Daneben braucht es sichtbares Investment in Interface-Design, Workflow-Innovation, Performance-Optimierung und grundlegende Werkzeug-Konzepte. Und diese Arbeit verdient dieselbe Bühne wie die KI-Features. In den Keynotes. In den Pressemitteilungen. In der öffentlichen Kommunikation.

Zweitens: Die Basics nicht vergessen.

Photoshop hat Performance-Probleme bei großen Dateien. Lightroom Classic wird bei großen Katalogen langsam. Cloud-Synchronisation ist nicht immer zuverlässig. Das sind keine glamourösen Probleme. Aber sie betreffen den Alltag von Millionen. Und sie verdienen mindestens so viel Aufmerksamkeit wie das nächste generative Feature.

Drittens: Firefly ehrlich positionieren.

Adobe positioniert Firefly als „commercially safe“ – trainiert auf lizenzierten und Public-Domain-Inhalten, mit IP-Indemnification für qualifizierte Pläne. Das ist eine echte, wichtige Differenzierung. Aber die ästhetische Spitzenposition belegt Firefly im Vergleich zum Gesamtmarkt nicht allein. Und Adobe sollte aufhören, so zu tun, als wäre es so. Die Öffnung für Partner-Modelle – Google, OpenAI, Runway, Kling – ist der klügere strategische Zug. Plattform statt Modell. DAS ist eine echte Stärke.

Viertens: Vertrauen durch Transparenz aufbauen.

Nach der FTC-Klage und der CMA-Untersuchung braucht Adobe nicht mehr KI-Demos. Adobe braucht transparente Kommunikation. Klare Preisstrukturen. Faire Kündigungsbedingungen. Das Gefühl, dass der Konzern seine Community als Partner sieht, nicht als Einnahmequelle.


Kapitel 7: Die unbequeme Synthese

Hat Adobe seine Seele verkauft?

Meine ehrliche Antwort: Nein. Aber die öffentliche Erzählung des Unternehmens verengt sich auf eine Weise, die langfristig zum Problem werden kann.

Adobe hat die KI-Revolution nicht verschlafen. Die Integration von KI-Features in Photoshop und Lightroom hat reale, messbare Vorteile gebracht. Daneben gibt es solide klassische Produktarbeit – HDR-Workflows, neue Dateiformate, non-destruktive Einstellungsebenen, Lightroom-Performance-Verbesserungen. Adobe baut weiterhin an seinen Kernprodukten. Das muss man anerkennen.

Aber die öffentliche Bühne, die Markenidentität und die Innovations-Erzählung werden inzwischen so stark von KI dominiert, dass der Rest daneben verblasst. Und das ist ein Problem. Nicht weil KI schlecht wäre. Sondern weil ein Unternehmen, das seine gesamte Geschichte auf einen einzigen Technologietrend verengt, zwei Dinge riskiert.

Erstens: Es verliert den Blick für die ganzheitliche kreative Erfahrung. Für das Werkzeug als Werkzeug. Für das Interface als Denkraum. Für die Software als Partner des kreativen Prozesses.

Zweitens: Es macht sich abhängig von einem Paradigma, das es nicht kontrolliert. Wenn morgen ein Konkurrent ein fundamental besseres generatives Modell baut – und die KI-Entwicklung zeigt, dass das jederzeit passieren kann – dann steht ein Unternehmen, das seine gesamte Identität auf KI aufgebaut hat, plötzlich nackt da.

Die besten Werkzeuge der Geschichte waren nie die, die am meisten automatisiert haben. Es waren die, die den Menschen, der sie benutzt, besser gemacht haben. Die seine Fähigkeiten erweitert haben, statt sie zu ersetzen. Die ihm das Gefühl gegeben haben: Mit diesem Werkzeug kann ich Dinge tun, die ich ohne es nicht könnte – aber ICH bin es, der sie tut.

Photoshop war jahrzehntelang genau so ein Werkzeug. Es hat den Kreativen nicht ersetzt. Es hat ihn empowered. Es hat ihm Ebenen gegeben, Masken, Smart Objects – Konzepte, die seine Art zu denken verändert haben. Nicht indem sie für ihn gedacht haben. Sondern indem sie ihm neue Denkräume eröffnet haben.

Mein Wunsch – als jemand, der Adobe-Produkte täglich nutzt und trotz aller berechtigten Kritik an Preispolitik und Geschäftspraktiken schätzt – ist, dass Adobe diesen Geist nicht verliert. Dass neben dem nächsten Firefly-Update Raum bleibt für die Fragen, die kein Algorithmus beantworten kann: Wie können wir das Ebenenbedienfeld neu denken? Wie können wir den Composing-Workflow grundlegend verbessern? Wie können wir Farbmanagement intuitiver machen? Wie können wir die Software schneller, eleganter, menschlicher machen – nicht durch KI, sondern durch kluges Design?

Denn am Ende ist KI ein Werkzeug. Ein mächtiges, transformatives Werkzeug. Aber eben ein Werkzeug. Und ein Unternehmen, das seine gesamte Erzählung an ein einzelnes Werkzeug bindet, riskiert, die Identität zu verlieren, die es überhaupt erst relevant gemacht hat.

Adobe hat die kreative Welt nicht erfunden, indem es den heißesten Technologietrend implementiert hat. Es hat sie erfunden, indem es verstanden hat, was Kreative brauchen – manchmal bevor die Kreativen es selbst wussten. Dieses Verständnis war Adobes eigentliche Superkraft.

Und diese Superkraft darf nicht auf dem Altar der KI-Euphorie geopfert werden. Auch wenn die Keynote-Applaus-Maschine dabei weniger laut rattert.

Die KI-Features sollen bleiben. Sie sollen besser werden. Aber daneben muss Raum bleiben für die Frage, die Adobe einst groß gemacht hat:

Was braucht der kreative Mensch – und wie bauen wir ihm das bestmögliche Werkzeug dafür?

Diese Frage hat Photoshop hervorgebracht. Lightroom. InDesign. After Effects. Sie ist die DNA des Unternehmens.

Und wenn Adobe sie vergisst – nicht weil es keine Antworten mehr hat, sondern weil es aufhört zu fragen – dann hat es tatsächlich seine Seele verkauft.

Noch ist es nicht so weit. Aber die Bühne wird enger.


BROWNZ IS ART. ✦

Und die besten Werkzeuge sind die, die dich nicht ersetzen – sondern besser machen.


Stand: März 2026. Adobe entwickelt sich weiter. Die Frage ist nicht ob, sondern wohin. Und ob auf dem Weg dorthin genug Raum bleibt für das, was kein Algorithmus liefern kann: echtes Verständnis für kreative Menschen.



Hand aufs Herz: Wie oft hast du in den letzten Monaten in Photoshop gesessen, auf einen der vielen neuen glitzernden KI-Buttons geklickt und dich am Ende gewundert, warum das Ergebnis aussieht wie ein unscharfer Pixelbrei?

Adobe hat uns in Rekordzeit mit generativer Künstlicher Intelligenz überschüttet. Gefühlt gibt es nach jedem Update eine neue Leiste, ein neues Menü und eine neue Funktion, die uns verspricht, auf Knopfdruck Meisterwerke zu erschaffen. Doch diese Fülle an Möglichkeiten hat zu einer massiven Verwirrung in der Kreativ-Community geführt. Die meisten Nutzer werfen die Begriffe wild durcheinander und nutzen für ihre Aufgaben schlichtweg das falsche Werkzeug.

Heute räumen wir damit auf. Wir schauen uns die drei großen KI-Säulen im Adobe-Ökosystem ganz genau an: Die Firefly Web-App, die Funktion „Bild generieren“ (Generate Image) in Photoshop und den absoluten Klassiker „Generatives Füllen“ (Generative Fill).

Obwohl alle drei Tools auf der gleichen Grundtechnologie (Adobe Sensei / Firefly) basieren, unterscheiden sie sich in ihrer Auflösung, ihrem Funktionsumfang und vor allem in ihrer Ergebnisqualität dramatisch. Wer hier nur aus Bequemlichkeit klickt, verschenkt massiv Potenzial – und bares Geld. Lass uns in den Maschinenraum hinabsteigen.


1. Die Firefly-Webversion: Der unangefochtene König der Möglichkeiten

Fangen wir mit dem mächtigsten Werkzeug an, das Adobe uns aktuell zur Verfügung stellt: Die eigenständige Website firefly.adobe.com. Wenn du komplett neue Bilder, Hintergründe für Composings oder eigenständige Elemente erschaffen willst, ist dies der Ort, an dem du dich aufhalten solltest.

Warum? Weil die Webversion die ungefilterte, volle Kraft der Adobe-KI darstellt.

Wenn du hier einen Prompt eingibst, greifst du auf die neuesten, fortschrittlichsten KI-Modelle zu (aktuell Firefly Image 3). Die Benutzeroberfläche am rechten Bildschirmrand ist ein Traum für jeden Art Director. Du hast nicht nur ein simples Textfeld, sondern detaillierte Schieberegler und Menüs:

  • Stil-Referenzen: Du kannst Referenzbilder hochladen, damit die KI genau diesen Look übernimmt.
  • Struktur-Referenzen: Du kannst Skizzen vorgeben, an deren Konturen sich die KI beim Generieren hält.
  • Kamera-Einstellungen: Du kannst Blende, Verschlusszeit (für Bewegungsunschärfe) und den exakten Blickwinkel simulieren.
  • Ausgabe-Qualität: Firefly generiert Bilder in einer sehr ordentlichen Größe von 2.048 Pixel Kantenlänge.

Das wirtschaftliche Argument (Die Credits-Falle):
Adobe hat sogenannte „Generative Credits“ eingeführt. Jedes Mal, wenn du auf „Generieren“ klickst, kostet dich das eine virtuelle Münze aus deinem monatlichen Abo-Kontingent. In der Webversion erhältst du für diesen einen Credit immer vier hochauflösende Varianten deines Prompts. Du bekommst hier also den absolut besten Return on Investment für dein Abo.


2. „Bild generieren“ in Photoshop: Die Bequemlichkeits-Falle

Gehen wir nun rüber in dein Photoshop. Dort findest du unter Bearbeiten > Bild generieren (oder in der schwebenden Taskleiste) eine Funktion, die im Grunde genau das Gleiche tun soll wie die Website. Du gibst einen Text ein und Photoshop rendert dir ein komplett neues Bild auf eine leere Ebene.

Auch hier spuckt die KI das Bild mit einer maximalen Kantenlänge von 2.048 Pixeln aus. Klingt doch perfekt, oder? Warum also überhaupt noch den Browser öffnen, wenn man es direkt in Photoshop machen kann?

Die Antwort ist simpel: Es ist eine kastrierte Version.

Photoshops „Bild generieren“ ist eine stark vereinfachte, abgespeckte Variante der Web-App. Es fehlen entscheidende Feineinstellungen zur Lichtstimmung, zu Kamera-Winkeln und komplexen Stil-Referenzen. Adobe hat diese Funktion für die ungeduldigen Nutzer gebaut. Für diejenigen, die den Workflow nicht unterbrechen und die App nicht verlassen wollen.

Doch diese Bequemlichkeit hat einen hohen Preis. Und damit meine ich nicht nur die fehlenden Optionen, sondern harte Währung: Wenn du in Photoshop auf „Bild generieren“ klickst, verbrauchst du ebenfalls einen Generativen Credit. Doch anstatt vier Varianten wie auf der Website, liefert dir Photoshop im Eigenschaften-Bedienfeld nur drei Varianten.

Du bezahlst also den gleichen Preis für 25 % weniger Ergebnisse und deutlich weniger Kontrolle. Als professioneller Bildbearbeiter gibt es daher – von absoluter Zeitnot mal abgesehen – keinen rationalen Grund, diese Funktion in Photoshop zu nutzen. Wenn du ein Bild aus dem Nichts („From Scratch“) erschaffen willst: Geh in den Browser zu Firefly, generiere es dort in Perfektion, lade es herunter und zieh es dann in Photoshop.


3. „Generatives Füllen“: Das missverstandene Genie mit dem Auflösungs-Flaschenhals

Kommen wir zur bekanntesten Funktion, dem Tool, das vor einiger Zeit das Internet gebrochen hat: Bearbeiten > Generatives Füllen (Generative Fill). Du ziehst eine Auswahl mit dem Lasso, tippst etwas ein, und zack – die KI zaubert etwas in dein Bild.

Viele Nutzer machen nun den fatalen Fehler und nutzen dieses Werkzeug für alles. Sie ziehen eine leere Ebene auf, markieren das ganze Bild und tippen einen Prompt ein. Das Ergebnis ist meistens extrem enttäuschend. Es ist unscharf, verwaschen und sieht aus wie ein Relikt aus den frühen 2000er Jahren. Warum passiert das?

Hier kommt das größte technische Geheimnis, das du kennen musst: Generatives Füllen hat ein hartes Limit von 1.024 Pixeln Kantenlänge!

Wenn du mit dem Lasso einen Bereich in deinem hochauflösenden 40-Megapixel-Foto auswählst, der beispielsweise 4.000 x 4.000 Pixel groß ist, und auf „Generatives Füllen“ klickst, rechnet die KI nicht in dieser Größe. Sie generiert intern ein kleines 1.024-Pixel-Bildchen und skaliert (streckt) dieses dann brutal auf deine 4.000 Pixel große Auswahl hoch. Das Resultat ist Matsch.

Wofür dieses Tool wirklich gebaut wurde:
Das KI-Modell hinter „Generatives Füllen“ ist auf etwas völlig anderes trainiert als Firefly Web. Es ist nicht dafür gedacht, aus dem Nichts völlig neue Welten zu erschaffen. Sein absolutes Spezialgebiet ist der Kontext.
Dieses Tool ist darauf optimiert, die Pixel außerhalb deiner Auswahl zu analysieren (Licht, Schatten, Perspektive, Rauschen) und den generierten Inhalt nahtlos und unauffällig in dein bestehendes Hintergrundfoto einzufügen. Es ist dein Werkzeug für die Retusche: Um störende Mülleimer zu entfernen, Ränder zu erweitern (Outpainting) oder ein kleines, passendes Objekt (wie eine Kaffeetasse auf einem Tisch) in ein bestehendes Foto zu zaubern.


Der Praxis-Test: Menschen und Lebewesen generieren

Um die gravierenden Unterschiede in der Praxis zu verstehen, lass uns ein konkretes Beispiel durchspielen. Wir nutzen folgenden, recht komplexen Prompt:

„Porträt einer elegant gekleideten Frau in einer geschmackvoll ausgeleuchteten Szene, stilvoll inszeniert vor einem sanft verschwommenen Hintergrund. Ihr Gesicht ist weich beleuchtet und zeigt einen freundlichen, natürlichen Ausdruck. Das Haar fällt locker über die Schultern, die Bildkomposition ist ausgewogen und zeigt hohe Detailschärfe, makellose Haut und realistische Konturen. Studioqualität, 85mm-Objektiv“

Szenario A: Du nutzt „Generatives Füllen“ auf einer leeren Ebene.
Das Ergebnis wird eine Katastrophe sein. Das Tool sucht verzweifelt nach Kontext-Pixeln (die es auf einer weißen Ebene nicht gibt). Da es primär auf das „Einblenden in Hintergründe“ trainiert ist und das 1024-Pixel-Limit greift, erhältst du oft verzerrte Anatomie, verschwommene Augen und eine Hauttextur, die an Plastik erinnert. Für das realistische Generieren von Lebewesen aus dem Nichts ist diese Funktion schlichtweg unbrauchbar.

Szenario B: Du nutzt „Bild generieren“ in Photoshop.
Hier wird es schon deutlich besser. Die 2.048 Pixel sorgen für ordentliche Schärfe. Die Frau sieht anatomisch korrekt aus. Aber du hast eben nur drei Versuche bekommen und keine Möglichkeit, das Licht im Nachhinein via Regler anzupassen.

Szenario C: Du gehst in die Firefly-Webversion.
Hier entfaltet der Prompt seine Magie. Du wählst im Menü vorher „Fotografie“ aus, stellst die Blende virtuell auf f/1.8, um das geforderte 85mm-Objektiv zu simulieren, und klickst auf Generieren. Du erhältst vier brillante, hochauflösende Varianten. Gefällt dir eine zu 80 %, nutzt du sie als Stil-Referenz für den nächsten Durchlauf. Das ist professionelles Arbeiten.


Der Blick über den Tellerrand: Adobes Schwäche und die Alternativen

Wir müssen in diesem Kontext auch ehrlich sein. Adobe Firefly ist fantastisch für den kommerziellen Einsatz. Da Adobe die KI ausschließlich mit lizenzierten Bildern aus Adobe Stock trainiert hat, bist du urheberrechtlich auf der absolut sicheren Seite. Keine Klagen, kein Ärger mit Kunden.

Aber wenn es um reine, gnadenlose Ästhetik und echten Fotorealismus geht – insbesondere bei der Generierung von menschlichen Gesichtern, komplexen Händen oder organischen Lebewesen –, hinkt Firefly der Konkurrenz momentan noch immer hinterher.

Wenn du das absolut beste, fotorealistischste Bild aus dem Nichts generieren willst, solltest du dir aktuell sogenannte „Partner-Modelle“ oder externe KIs ansehen. Generatoren wie Midjourney (v6) oder das neue, revolutionäre FLUX-Modell (oft über Schnittstellen wie GPT-Image genutzt) spielen beim Thema Anatomie und Textur aktuell in einer völlig anderen Liga als Adobe.

Mein ultimativer Workflow-Tipp für dich:
Wenn ich ein High-End-Composing baue, nutze ich oft Midjourney oder Flux, um das Hauptmotiv (z. B. das Porträt der Frau) zu generieren, da diese KIs die Hautstruktur und das Licht einfach filmischer und realistischer aufbauen. Dann lade ich dieses perfekte Bild in Photoshop und wechsle zu Adobes „Generatives Füllen“, um Fehler auszubessern, den Hintergrund zu erweitern oder kleine Elemente in das Bild einzubauen (denn im nahtlosen Einfügen und Reparieren ist Adobe wiederum unschlagbar).


Fazit: Dein Spickzettel für den Alltag

Hör auf, einfach blind auf leuchtende Buttons zu klicken. Mach dich zum Meister deiner Werkzeuge. Merke dir diese drei goldenen Regeln für deinen zukünftigen KI-Workflow in Adobe:

  1. Völlig neue Bilder und Motive aus dem Nichts? Verlasse Photoshop. Geh auf firefly.adobe.com. Nutze die komplexen Regler, greife die vier Varianten ab und freue dich über 2.048 Pixel Auflösung.
  2. „Bild generieren“ in Photoshop? Ignoriere es. Es ist eine teure Bequemlichkeits-Falle, die dir bei gleichem Preis weniger Auswahlmöglichkeiten bietet.
  3. Elemente in ein bestehendes Foto einfügen, Ränder erweitern oder störende Dinge entfernen? Hier schlägt die große Stunde von „Generatives Füllen“. Achte darauf, dass du deine Auswahlen nicht zu riesig aufziehst, um das 1024-Pixel-Limit nicht zu überspannen.

Die Künstliche Intelligenz nimmt uns die handwerkliche Fleißarbeit ab. Aber das Denken, die Planung und die strategische Auswahl des richtigen Werkzeugs – das bleibt weiterhin dein Job als kreativer Profi. Nutze ihn weise



Anthropic verdoppelt gerade die Nutzungslimits für alle Claude Pro-User. Besseren Zeitpunkt gibt es nicht, um Claude endlich richtig einzurichten – nicht als Chatbot, sondern als echten AI-Mitarbeiter. Hier bekommst du 10 Profi-Tipps, mit denen du in kürzester Zeit ein Setup baust, das deinen Arbeitsalltag spürbar verändert.


Warum Claude gerade durch die Decke geht

Falls du Claude bisher nur vom Hörensagen kennst oder es mal kurz angetestet und dann wieder vergessen hast: Jetzt ist der Moment, genauer hinzuschauen. Anthropic – das Unternehmen hinter Claude – hat sich in den letzten Monaten vom stillen Underdog zum Liebling der Power-User entwickelt. Und das nicht ohne Grund.

Ja, Claude kann nicht alles, was ChatGPT kann. Keine Bildgenerierung, keine Videos, keine Custom GPTs, keinen Voice-Mode. Aber was Claude kann, das macht es verdammt gut. Das Team bei Anthropic ist unglaublich innovativ und bringt regelmäßig Features, die den Standard für die gesamte Branche setzen. Das Model Context Protocol (MCP) verbindet Sprachmodelle mit externen Systemen. Mit Skills kannst du dein komplettes Business-Setup in Textdateien speichern. Das Code-Feature macht deinen Rechner zum Alleskönner. Und Cowork gibt die Richtung vor, in die sich unser aller Arbeitsplatz entwickeln wird.

Und dann ist da noch der Vibe. Klingt vielleicht esoterisch, aber jeder, der längere Zeit mit Claude gearbeitet hat, weiß genau, was damit gemeint ist. Claude fühlt sich einfach anders an. Durchdachter. Präziser. Weniger generisch. Mehr wie ein Kollege, der mitdenkt, statt wie eine Maschine, die Output ausspuckt.

Jetzt kommt das Sahnehäubchen: Anthropic verdoppelt die Nutzungslimits für alle Pro-User. An Wochentagen außerhalb der Stoßzeiten und am Wochenende bekommst du doppelt so viele Nachrichten wie sonst – automatisch, ohne dass du irgendetwas aktivieren musst. Bessere Gelegenheit zum Einstieg gibt es nicht.


Dein Setup in fünf Minuten

Bevor wir zu den Profi-Tipps kommen, hier der schnelle Überblick, wie du Claude in wenigen Minuten startklar machst:

Schritt 1 – Account anlegen: Hol dir Claude Pro für 18 Euro im Monat und installiere die Desktop-App. Ja, die App. Nicht nur die Webversion. Die App ist entscheidend für einige der besten Features.

Schritt 2 – Daten mitnehmen: Falls du bisher mit ChatGPT gearbeitet hast, kannst du dein Memory von dort übertragen. So startest du nicht bei null.

Schritt 3 – Workspace erstellen: Lege einen lokalen Ordner auf deinem Rechner an. Nenn ihn zum Beispiel „AI-Workspace“. Das wird dein zentraler Hub.

Schritt 4 – Cowork aktivieren: Öffne den Cowork-Tab in Claude, wähle deinen Workspace-Ordner aus, stelle das Modell auf Opus 4 und aktiviere Extended Thinking.

Schritt 5 – Loslegen: Starte deinen ersten Chat mit dem Setup-Prompt, den du weiter unten findest.

Das war’s. Fünf Schritte, zehn Minuten, und du hast die Grundlage für einen AI-Mitarbeiter, der auf dich zugeschnitten ist.


10 Profi-Tipps, die den Unterschied machen

Tipp 1: Nutze den Setup-Prompt – aber lass Claude nachfragen

Der wichtigste Schritt ist der erste Chat. Verwende einen strukturierten Setup-Prompt, in dem Claude dir Fragen stellt: Was machst du beruflich? Wer ist deine Zielgruppe? Wie kommunizierst du? Welche Wörter nutzt du gern oder vermeidest du? Was sind deine häufigsten Aufgaben? Und ganz wichtig: Zeig Claude einen echten Text von dir – eine E-Mail, einen Social-Media-Post, einen Newsletter-Auszug. Füge unbedingt den Satz hinzu: „Stelle mir Rückfragen, wenn du mehr Details benötigst.“ Dieser eine Satz ist Gold wert. Er zwingt Claude, nachzufragen, statt mit falschen Annahmen loszurennen. Die meisten schlechten AI-Outputs entstehen nicht, weil das Modell schlecht ist – sondern weil es raten muss, was du eigentlich willst.

Tipp 2: Erstelle deine drei Kontext-Dateien

Lass Claude aus deinen Antworten drei Markdown-Dateien erstellen: about-me.md (dein Profil), brand-voice.md (deine Tonalität) und working-preferences.md (deine Regeln und häufigsten Aufgaben). Diese Dateien speicherst du in deinem Workspace-Ordner. Ab sofort hat Claude bei jedem neuen Chat Zugriff auf diese Informationen. Das bedeutet: Du musst dich nie wieder erklären. Claude weiß, wer du bist, wie du sprichst und was du brauchst.

Tipp 3: Behandle deinen Workspace wie ein lebendes System

Dein Workspace ist kein statisches Dokument, das du einmal erstellst und dann vergisst. Er ist ein lebendes System. Jedes Mal, wenn sich etwas in deinem Business ändert – neue Zielgruppe, neues Produkt, neue Tonalität – aktualisierst du die entsprechende Datei. Je aktueller dein Kontext ist, desto besser werden Claudes Outputs. Mach es dir zur Gewohnheit, deinen Workspace mindestens einmal im Monat zu reviewen und anzupassen.

Tipp 4: Aktiviere Extended Thinking für komplexe Aufgaben

Extended Thinking ist eines der mächtigsten Features in Claude. Wenn du es aktivierst, nimmt sich Claude mehr Zeit zum „Nachdenken“, bevor es antwortet. Das klingt simpel, macht aber einen enormen Unterschied bei komplexen Aufgaben wie Strategieentwicklung, Textanalysen oder wenn du Claude bittest, mehrere Optionen gegeneinander abzuwägen. Für schnelle, einfache Fragen brauchst du es nicht. Aber für alles, was Tiefe erfordert, ist es ein Gamechanger.

Tipp 5: Nutze die doppelten Limits strategisch

Anthropic verdoppelt die Limits an Wochentagen außerhalb der Stoßzeiten und am Wochenende. Nutze das strategisch. Plane deine intensiven AI-Sessions – Contentproduktion, Strategiearbeit, große Batch-Aufgaben – auf genau diese Zeiten. Morgens früh, abends spät oder am Wochenende. So bekommst du doppelt so viel Output, ohne einen Cent mehr zu bezahlen.

Tipp 6: Übertrage dein ChatGPT-Memory – aber überarbeite es

Wenn du von ChatGPT zu Claude wechselst, nimm dein Memory mit. Aber kopiere es nicht einfach blind rüber. ChatGPTs Memory-Einträge sind oft fragmentarisch, widersprüchlich oder veraltet. Exportiere die Daten, geh sie einmal durch, sortiere aus, was nicht mehr stimmt, und formuliere den Rest klar und strukturiert. Dein Claude-Setup verdient saubere Daten als Grundlage.

Tipp 7: Baue dir Skills für wiederkehrende Aufgaben

Hier wird es richtig spannend. Skills sind im Grunde gespeicherte Anleitungen für Aufgaben, die du regelmäßig erledigst. Du schreibst jede Woche einen Newsletter? Erstelle einen Skill dafür, in dem Format, Struktur, Tonalität und Zielgruppe definiert sind. Du beantwortest täglich Kundenanfragen? Skill dafür. Du erstellst monatlich Reports? Skill dafür. Je mehr Skills du anlegst, desto weniger musst du in jedem einzelnen Chat erklären. Claude greift einfach auf das jeweilige Rezept zurück und liefert konsistente Ergebnisse.

Tipp 8: Denke in vier Ebenen

Dein AI-Mitarbeiter wird erst dann richtig mächtig, wenn alle vier Ebenen stehen und miteinander sprechen. Ebene 1: Context – Claude kennt dich, dein Business und deine Stimme. Ebene 2: Connectors – Claude hat Zugriff auf deine Tools und Datenquellen über MCP. Ebene 3: Skills – Claude hat deine Rezepte für wiederkehrende Aufgaben. Ebene 4: Second Brain – Dein System läuft dauerhaft und entwickelt sich weiter. Fang mit Ebene 1 an, das ist dein heutiger Schritt. Aber hab die anderen drei Ebenen immer im Hinterkopf. Sie sind dein Fahrplan.

Tipp 9: Dein Setup ist plattformunabhängig

Das Schönste an diesem Ansatz: Er ist nicht an Claude gebunden. Die Markdown-Dateien, die du in deinem Workspace erstellst, funktionieren genauso mit ChatGPT, Gemini oder jedem anderen Sprachmodell. Du baust dir einmal dein persönliches AI-Betriebssystem und kannst es überallhin mitnehmen. Wenn morgen ein neues, besseres Modell auf den Markt kommt, nimmst du deinen Workspace-Ordner, verbindest ihn – und bist sofort startklar. Keine Abhängigkeit von einem einzelnen Anbieter. Das ist echte Zukunftssicherheit.

Tipp 10: Hör auf, AI wie eine Suchmaschine zu benutzen

Das ist der wichtigste Tipp von allen. Wenn du deinen Chatbot immer noch wie Google benutzt – Frage rein, Antwort raus, fertig – dann lässt du 90 Prozent des Potenzials auf der Straße liegen. Der Unterschied zwischen „AI ist ganz nett“ und „AI verändert meinen Arbeitsalltag“ liegt nicht im Prompt. Er liegt im Kontext. Es wird erst dann richtig spannend, wenn Claude dein Business versteht. Wenn es deine E-Mails in deinem Ton schreibt. Wenn es Content in deiner Brand Voice erstellt. Wenn es bei Strategiefragen mitdenkt, weil es weiß, wo du herkommst und wo du hinwillst. Genau dafür baust du dieses Setup.


Dein nächster Schritt

Du hast jetzt alles, was du brauchst, um loszulegen. Die Theorie steht, die Tipps sind klar, die Aktion liegt bei dir. Nimm dir heute zehn Minuten. Nur zehn. Erstelle deinen Account, installiere die App, lege deinen Workspace an und starte den Setup-Chat.

In zwei Wochen wirst du zurückblicken und dich fragen, warum du das nicht schon längst gemacht hast. Claude ist nicht einfach nur ein weiterer Chatbot. Mit dem richtigen Setup wird es zu einem Werkzeug, das deinen Arbeitsalltag grundlegend verändert. Nicht irgendwann. Jetzt.

Also: Good luck, have fun – und richte dir deinen AI-Mitarbeiter ein. 🚀



Weißt du noch, wie dein Workflow vor ein paar Jahren aussah? Stundenlanges Klicken mit dem Polygon-Lasso, verkrampfte Finger vom Zeichenstift-Werkzeug und pure Verzweiflung, wenn du fliegende Haare vor einem unruhigen Hintergrund freistellen musstest. Diese Zeiten sind zum Glück endgültig vorbei.

In Photoshop gibt es inzwischen einige auf KI basierende Auswahlmöglichkeiten (angetrieben von Adobe Sensei). Diese unterscheiden sich nicht nur im Funktionsumfang, sondern auch in der Ergebnisqualität. Hier erfährst du, was es zu beachten gibt, wo die Fallstricke liegen und wie du als echter Profi das absolute Maximum aus diesen Automatismen herausholst.

Die drei Säulen der KI-Auswahl: Welches Werkzeug für welchen Zweck?

Photoshop bietet dir nicht nur einen einzigen „Magie-Button“, sondern verschiedene KI-Ansätze. Um effizient zu arbeiten, musst du wissen, wann du welches Tool einsetzt:

  1. Motiv auswählen (Select Subject): Der absolute Klassiker für Porträts oder Produktfotos. Mit einem Klick analysiert die KI das gesamte Bild, erkennt das Hauptmotiv und erstellt eine Maske. Perfekt, wenn das Motiv eindeutig im Fokus steht.
  2. Objektauswahlwerkzeug (Object Selection Tool): Mein persönlicher Favorit für komplexe Szenen. Du fährst mit der Maus über das Bild, und Photoshop markiert erkannte Objekte farbig (der sogenannte Hover-Effekt). Ein Klick, und das Auto, der Baum oder die Person im Hintergrund ist isoliert. Es funktioniert wie Magie, besonders wenn du mehrere spezifische Dinge in einem Bild auswählen willst.
  3. Himmel auswählen (Select Sky): Für Landschafts- und Architekturfotografen ein echter Gamechanger. Die KI erkennt nicht nur den Himmel, sondern baut auch komplexe Masken um Baumkronen, Stromleitungen oder Gebäudekanten herum, um den Himmel fehlerfrei auszutauschen oder anzupassen.

Doch Vorsicht: KI ist extrem schlau, aber sie hat (noch) nicht das kritische Auge eines professionellen Bildbearbeiters. Oft liefert sie dir „nur“ 90 bis 95 Prozent der perfekten Maske. Die restlichen Prozente machen den Unterschied zwischen einem schnell zusammengebastelten Amateur-Bild und einem High-End-Compositing aus.

Damit deine Masken absolut makellos werden, habe ich hier meine besten Experten-Tipps für dich zusammengefasst.


Profi-Tipp 1: Der geheime Schalter in den Voreinstellungen (Cloud vs. Gerät)

Hier trennt sich die Spreu vom Weizen! Wenn du die Funktion „Motiv auswählen“ nutzt, greift Photoshop standardmäßig auf die Rechenleistung deines Computers (Gerät) zurück. Das geht zwar in Millisekunden, ist aber bei weitem nicht so präzise, wie es sein könnte.

Mein Trick für dich: Gehe in die Photoshop-Einstellungen unter Bearbeiten > Voreinstellungen > Bildverarbeitung (am Mac unter Photoshop > Einstellungen…). Dort findest du den Punkt „Verarbeitung von ‚Motiv auswählen’“. Stelle das Dropdown-Menü von „Gerät (Schnellere Ergebnisse)“ auf „Cloud (Detaillierte Ergebnisse)“ um.
Wenn du nun ein Motiv auswählst, schickt Photoshop die Bilddaten kurz an die Server von Adobe, wo ein weitaus mächtigeres KI-Modell die Kanten berechnet. Es dauert vielleicht ein bis zwei Sekunden länger, aber das Ergebnis – gerade bei feinen Details wie Haaren, Fell oder rauen Texturen – ist um Welten besser!

Profi-Tipp 2: Hilf der KI auf die Sprünge (Der Kontrast-Trick)

Manchmal verzweifelt die KI, wenn dein Motiv und der Hintergrund fast die gleiche Farbe oder Helligkeit haben (z.B. ein Model in einem grauen Mantel vor einer grauen Betonwand).

Der Experten-Workaround: Erstelle eine temporäre Einstellungsebene (z.B. Tonwertkorrektur oder Gradationskurven). Ziehe die Regler extrem nach oben und unten, sodass ein massiver, fast hässlicher Kontrast im Bild entsteht. Lass jetzt die KI das Motiv auswählen! Durch den künstlich extremen Kontrast erkennt Adobe Sensei die Kanten plötzlich gestochen scharf. Sobald deine Auswahl als blinkende Linie („Ameisenlinie“) steht, löschst du die Kontrast-Ebene einfach wieder und wendest die Maske auf dein Originalbild an.

Profi-Tipp 3: Der „Auswählen und Maskieren“-Arbeitsbereich ist Pflicht

Egal, wie gut die erste KI-Auswahl aussieht, gib dich niemals mit dem ersten Klick zufrieden. Klicke immer auf den Button „Auswählen und Maskieren…“ oben in der Optionsleiste. Dieser Arbeitsbereich bietet dir Werkzeuge, die unerlässlich sind.

Nutze hier unbedingt die Funktion „Haare verfeinern“ (Refine Hair) in der oberen Leiste. Die KI rechnet dann noch einmal gezielt und tiefgründig die Ränder von Frisuren oder Tierfell nach.
Noch ein Geheimtipp: Scrolle auf der rechten Seite ganz nach unten zu den Ausgabe-Einstellungen und setze einen Haken bei „Farben dekontaminieren“ (Decontaminate Colors). Dadurch rechnet Photoshop den störenden Farbstich (Color Spill) aus den Haaren heraus, der oft vom Hintergrund auf das Motiv reflektiert wurde.

Profi-Tipp 4: KI und Handarbeit richtig kombinieren

Die KI nimmt dir die grobe Fleißarbeit ab, aber manchmal übersieht sie ein kleines Stück Hintergrund zwischen dem Arm und dem Körper deines Models, oder sie schneidet eine Fingerspitze ab.

So sieht mein Workflow aus: Ich lasse die KI die Grundauswahl treffen. Dann wähle ich ein manuelles Werkzeug wie das Lasso oder die Schnellauswahl. Mit gedrückter Shift-Taste (es erscheint ein Plus-Symbol) male ich Bereiche an, die die KI vergessen hat, um sie der Auswahl hinzuzufügen. Mit gedrückter Alt-Taste (es erscheint ein Minus-Symbol) ziehe ich Bereiche ab, die die KI fälschlicherweise ausgewählt hat. So hast du das Beste aus beiden Welten: Die Geschwindigkeit der Maschine und die absolute Präzision deines menschlichen Auges.

Profi-Tipp 5: Vorbereitung ist alles für die „Generative Füllung“

Inzwischen nutzen wir Auswahlen nicht nur zum Freistellen, sondern oft auch, um Objekte durch die neue Generative Füllung (Generative Fill) per KI entfernen oder ersetzen zu lassen.
Wenn du ein Objekt per KI auswählst, liegt die Auswahl meistens messerscharf auf der Kante des Objekts. Wenn du jetzt generierst, entsteht oft ein unschöner Rand, weil die neue KI-Füllung nicht richtig mit dem Hintergrund verschmilzt.

Der Trick: Wenn du etwas generativ ersetzen oder entfernen willst, musst du die Auswahl minimal ausweiten. Gehe auf Auswahl > Ändern > Erweitern… und gib dort einen Wert von etwa 3 bis 5 Pixeln ein. Die Auswahl überlappt nun leicht den Hintergrund. Dadurch hat die generative KI genug Kontext-Pixel um das Objekt herum, um einen weichen, fotorealistischen und absolut nahtlosen Übergang zu berechnen.


Fazit: Werde zum Regisseur der Künstlichen Intelligenz

Die auf KI basierenden Auswahlwerkzeuge in Photoshop sind unglaublich mächtig und sparen uns in der täglichen Praxis unzählige Stunden Arbeit. Aber merke dir eines: Die KI ist nur dein Assistent. Der Chef am Bildschirm bist nach wie vor du!

Verlasse dich nie blind auf den ersten Klick. Nutze die Cloud-Berechnung, arbeite mit dem „Auswählen und Maskieren“-Dialog, verfeinere die Kanten von Hand und denke immer non-destruktiv in Masken. Wenn du diese Tricks in deinen Workflow integrierst, hebst du deine Bildbearbeitung auf ein völlig neues, professionelles Level.

Jetzt bist du dran: Wie sieht dein aktueller Workflow aus? Hast du die Cloud-Berechnung schon ausprobiert oder kämpfst du noch oft mit unsauberen Kanten? Lass es mich unten in den Kommentaren wissen – ich freue mich sehr auf den Austausch mit dir!