Gestern hab ich euch erzählt, ihr sollt mir eine Mail schreiben, wenn ihr das Video sehen wollt. Schöne Idee. Nur hab ich die falsche Mail-Adresse hingeschrieben.
Ja, wirklich.
Da stand brownz@brownzart.at – richtig wäre brownz@brownz.art gewesen. Kleiner Unterschied, große Wirkung: Die meisten Mails sind im Nirgendwo gelandet.
Ein paar von euch hatten meine richtige Adresse offenbar schon gespeichert und haben es trotzdem geschafft. Die haben den Link auch bekommen. Aber der Rest – tja. Sorry dafür. Echt.
Im Originalbeitrag von gestern ist die Adresse jetzt korrigiert. Wer den nochmal lesen will:
Weil ich das Video in der Zwischenzeit einfach auf YouTube hochgeladen hab. Als verstecktes Video, 720p HD. Nicht so gut wie die Dropbox-Version, aber es reicht, um den Wahnsinn zu sehen.
Hier ist der Link:
Einfach draufklicken und gucken. Kein Download nötig, keine Mail, kein Aufwand. Wer gestern nicht durchgekommen ist, kommt jetzt einfach so dran.
Was ich mir trotzdem wünschen würde
Schaut es euch an. Und dann sagt mir, was ihr denkt.
8 Minuten und 15 Sekunden Fiebertraum, zusammengebaut aus Gesprächen mit der KI, irgendwann zwischen Mitternacht und drei Uhr morgens. Kein Plan, kein Storyboard, kein Konzept. Nur Wahnsinn mit Rhythmus.
Ich bin immer noch zu nah dran, um das selbst einzuordnen. Ich brauch eure Augen. Und eure Ehrlichkeit.
Ob per Kommentar, per YouTube-Kommentar, per Mail an die – diesmal richtige – Adresse brownz@brownz.art oder per Rauchzeichen. Hauptsache, ihr sagt was.
Und nochmal sorry wegen der Adresse. Passiert mir hoffentlich nicht nochmal.
Wahrscheinlich aber doch. Weil um drei Uhr morgens ist Korrekturlesen halt nicht so meine Stärke.
Wie dieser Text entstanden ist
Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mir was durch den Kopf geht. Wird transkribiert und dann mit KI in Form gebracht. Die Peinlichkeit wegen der falschen Mail-Adresse ist allerdings hundert Prozent handgemacht.
Es ist kurz nach drei. Draußen ist es still. Der Kaffee ist längst kalt und ich weiß nicht mehr genau, wann ich angefangen habe. Irgendwann gestern Abend. Dachte, ich mach mal kurz was. Probier mal was aus. Guck mal, was passiert.
Acht Stunden später sitze ich immer noch hier.
Vor mir liegt ein Video. 8 Minuten und 15 Sekunden. Komplett irre. Komplett KI-generiert. Komplett Fiebertraum.
Und ich bin mir nicht sicher, ob es genial ist oder ob ich einfach den Verstand verloren habe. Wahrscheinlich beides.
Wie das Ganze angefangen hat
Ich hab in letzter Zeit viel mit Video-KI rumexperimentiert. Clips generieren, zusammenschneiden, gucken was geht. Und irgendwann gestern Abend hab ich angefangen, mit der KI zu reden. Nicht im Sinn von Prompts eintippen und warten. Eher so ein Gespräch. Hin und her. Idee rein, Ergebnis raus, nächste Idee, darauf aufbauen, weiterdrehen.
Wie ein Ping-Pong-Spiel, bei dem beide Seiten immer verrückter werden.
Ich hatte keinen Plan. Kein Storyboard. Kein Konzept. Nur diesen einen Gedanken: Was wäre, wenn ich einfach nicht aufhöre? Wenn ich jeden Clip nehme und den nächsten draus entstehen lasse? Wenn das Ganze sich selbst baut, Szene für Szene, wie ein Traum, den man nicht kontrollieren kann?
Und genau das ist passiert.
Max Headroom lässt grüßen
Falls du alt genug bist, erinnerst du dich vielleicht an Max Headroom. Diese Serie aus den 80ern. „20 Minutes Into The Future“ hieß der Untertitel. Alles war überdreht, alles war zu viel, alles war irgendwie prophetisch und gleichzeitig komplett wahnsinnig.
Genauso fühlt sich dieses Video an.
Nur dass wir jetzt nicht zwanzig Minuten in die Zukunft schauen, sondern zehn Sekunden. Weil sich gerade alles so schnell verändert, dass zehn Sekunden reichen, um in einer komplett anderen Realität zu landen.
10 Seconds Into The Future.
Der Titel war da, bevor das Video fertig war. Manchmal weiß der Titel mehr als man selbst.
Was du da siehst
Ich kann dir ehrlich gesagt nicht genau sagen, was du in diesem Video siehst. Ich hab es gemacht und bin mir trotzdem nicht sicher.
Da sind Bilder drin, die ich nicht geplant habe. Szenen, die aus dem Nichts kamen. Übergänge, die sich ergeben haben, weil die KI irgendwas interpretiert hat, das ich nicht gemeint habe – und es trotzdem besser war als meine Idee.
Es ist kein narratives Video. Es erzählt keine Geschichte im klassischen Sinn. Es ist eher so ein Strom. Ein visueller Bewusstseinsstrom. Manche Stellen sind schön. Manche sind verstörend. Manche sind beides gleichzeitig.
Acht Minuten und fünfzehn Sekunden Wahnsinn. Zusammengebaut aus Gesprächen mit einer Maschine, die nicht schlafen muss.
Ich schon. Aber ich hab es trotzdem nicht getan.
Der Prozess – wenn man es so nennen kann
Normalerweise hab ich einen Workflow. Eine Struktur. Erst das, dann das, dann das. Professionell und so.
Gestern Nacht war davon nichts übrig.
Ich hab einen Clip generiert. Der hat mich an was erinnert. Also hab ich den nächsten Clip in diese Richtung geschoben. Und der hat dann wieder was anderes ausgelöst. Und so weiter. Und so weiter.
Irgendwann hab ich gemerkt, dass sich da ein Rhythmus entwickelt. Nicht bewusst, aber spürbar. Das Video hat angefangen, seinen eigenen Puls zu haben. Und ich bin einfach mitgegangen.
Um Mitternacht dachte ich: Okay, noch ein bisschen. Um eins dachte ich: Fast fertig. Um zwei dachte ich: Jetzt muss ich das noch richtig machen. Um drei war ich fertig. Oder das Video war fertig mit mir. Schwer zu sagen.
Warum ich das zeigen will
Normalerweise poliere ich Sachen, bevor ich sie raushaue. Ich guck nochmal drüber. Schlaf eine Nacht drüber. Frag mich, ob das gut genug ist.
Bei diesem Video mach ich das nicht. Weil ich glaube, dass genau der Wahnsinn der Punkt ist. Wenn ich jetzt anfange, das zu überarbeiten, zu glätten, zu korrigieren, dann geht genau das verloren, was es ausmacht.
Es ist roh. Es ist ungefiltert. Es ist drei Uhr morgens in Videoform.
Und ich will wissen, was andere Leute sehen, wenn sie das gucken. Ob die sehen, was ich sehe. Oder was ganz anderes. Oder gar nichts. Alles davon wäre okay.
Wie du es sehen kannst
Das Video ist nicht auf YouTube. Nicht auf Instagram. Nicht auf irgendeiner Plattform, die es komprimiert und kaputt macht.
Es liegt auf Dropbox. Volle Qualität. So wie es sein soll.
Wenn du es sehen willst, schreib mir einfach eine Mail:
Mehr muss da nicht drinstehen. Ich schick dir den Download-Link. Kostenlos. Kein Haken, kein Newsletter, kein Kleingedrucktes.
Wichtig: Bitte das Video runterladen und lokal anschauen. Nicht im Browser streamen. Der Dropbox-Player frisst Qualität und das Ding verdient es, richtig gesehen zu werden. Großer Bildschirm, Kopfhörer auf, Licht aus. So war es gedacht.
Feedback erwünscht – ehrlich
Und dann würde ich gerne wissen, was du denkst.
Nicht „toll gemacht“ oder „super Arbeit“ – obwohl ich gegen Komplimente natürlich grundsätzlich nichts habe. Aber mich interessiert mehr: Was hast du gesehen? Was hast du gefühlt? An welcher Stelle hast du gedacht, was zur Hölle war das gerade?
Weil ich mir selbst nicht sicher bin. Ich bin zu nah dran. Ich hab zu lange draufgestarrt. Ich brauch andere Augen.
Also: Guck es dir an. Und dann sag mir, was passiert ist.
Antwort auf die Mail reicht. Oder schreib mir auf Social Media. Oder per Rauchzeichen. Ist mir egal, Hauptsache ehrlich.
Was ich daraus gelernt habe
Eine Sache noch, bevor ich endlich ins Bett gehe – was ich eigentlich schon vor Stunden hätte tun sollen.
Dieses Video hat mir was gezeigt. Nämlich dass die interessantesten Sachen passieren, wenn man aufhört zu planen. Wenn man sich reinfallen lässt. Wenn man der Maschine nicht sagt, was sie machen soll, sondern mit ihr redet. Wie mit einem seltsamen Kollegen, der nie schläft und manchmal Dinge sieht, die man selbst nicht sieht.
Das ist nicht mein üblicher Arbeitsstil. Normalerweise bin ich Kontrollfreak. Normalerweise weiß ich vorher, was rauskommen soll.
Gestern Nacht wusste ich gar nichts. Und vielleicht war genau das der Punkt.
10 Seconds Into The Future. Weiter konnte ich nicht gucken. Aber die zehn Sekunden waren ziemlich wild.
Jetzt geh ich schlafen.
Oder ich mach noch einen Clip.
Mal sehen.
Wie dieser Text entstanden ist
Meine Blogartikel entstehen aus Sprachmemos – meistens wenn ich aufgedreht bin und nicht schlafen kann. Wie jetzt gerade zum Beispiel. Das wird transkribiert und mit KI in Form gebracht. Die Gedanken und der Schlafmangel sind komplett meine eigenen.
Ich sitze hier und versuche, meine Gedanken zu sortieren. Weil 2026 für mich in Sachen Bildbearbeitung ein seltsames Jahr ist. Einerseits war es noch nie so einfach, technisch saubere Bilder zu kriegen. Rauschen weg, Schärfe rein, Hintergrund raus – alles in Sekunden. Andererseits ertappe ich mich dabei, wie ich manchmal vor meinen eigenen Bildern sitze und denke: Ist das noch meins?
Das klingt vielleicht melodramatisch. Ist es wahrscheinlich auch. Aber ich glaube, da steckt was drin, worüber man reden sollte.
Ich will hier bewusst keine Tools aufzählen. Keine Vergleiche, keine Empfehlungen. Das ändert sich eh alle paar Monate, und darum geht es mir nicht. Mir geht es um die Frage, wie man mit dem ganzen Zeug umgeht, ohne sich dabei selbst zu verlieren.
Das Problem mit der Geschwindigkeit
Was mich am meisten erwischt hat, ist nicht die Qualität. Die ist beeindruckend, keine Frage. Was mich erwischt hat, ist die Geschwindigkeit.
Früher hab ich bei jedem Bild überlegt: Braucht das wirklich mehr Schärfe? Will ich das Rauschen da haben oder nicht? Ist diese Falte im Gesicht ein Problem oder Teil der Geschichte?
Das waren echte Entscheidungen. Die haben Zeit gekostet. Aber in dieser Zeit ist auch was passiert – ich hab über das Bild nachgedacht.
Jetzt klicke ich auf einen Button und es ist fertig. Zack. Weiter zum nächsten. Und irgendwann merke ich, dass ich gar nicht mehr richtig hinschaue. Nicht weil ich faul bin, sondern weil der Prozess so schnell ist, dass kein Raum mehr bleibt.
Ich hab neulich eine Serie bearbeitet und erst hinterher gemerkt, dass alle Bilder irgendwie gleich aussahen. Technisch super. Aber austauschbar. Und dann saß ich da und dachte: Das bin ja gar nicht ich. Das ist der Algorithmus.
„Besser“ ist nicht so einfach, wie es klingt
Der Begriff Bildverbesserung nervt mich. Weil er so tut, als gäbe es ein objektives Besser. Gibt es aber nicht.
Mehr Schärfe ist nicht automatisch besser. Manchmal will ich, dass ein Bild weich ist. Manchmal ist das Rauschen genau das, was die Stimmung ausmacht. Manchmal sind es die Schatten, die Geschichte erzählen – und wenn die KI die aufhellt, ist die Geschichte weg.
Aber die KI weiß das nicht. Die kennt nur Daten. Millionen von Bildern, aus denen sie gelernt hat, was „gut“ ist. Und gut heißt für sie: Durchschnitt. Norm. Was die meisten Leute als korrekt empfinden.
Das ist nicht böse gemeint. So funktioniert die Technik halt. Aber es bedeutet, dass jede automatische Verbesserung eine Interpretation ist. Und wenn ich die nicht hinterfrage, übernehme ich eine Interpretation, die nicht meine ist.
Der Unterschied zwischen Reparieren und Erfinden
Was ich inzwischen gelernt habe: Man muss unterscheiden zwischen KI, die repariert, und KI, die erfindet.
Wenn ich ein Bild entrausche oder die Schärfe verbessere, dann arbeitet die KI mit dem, was da ist. Sie holt Details raus, die im Rauschen versteckt waren. Das ist Restaurierung. Das Bild bleibt mein Bild.
Aber wenn ich den Hintergrund erweitern lasse oder Objekte hinzufüge oder Gesichter verändere, dann erfindet die KI etwas Neues. Das ist nicht mehr Fotografie. Das ist was anderes.
Beides kann okay sein. Aber es ist nicht dasselbe. Und ich finde, man sollte ehrlich sein – zu sich selbst und zu anderen – was davon man gerade macht.
Ich hab Bilder gesehen, die als Fotos verkauft werden, die aber zu 40 Prozent erfunden sind. Das stört mich. Nicht weil Erfinden schlecht wäre. Sondern weil das Nicht-Sagen irgendwie unehrlich ist.
Dieser eine Look, der überall ist
Mir fällt was auf, wenn ich durch Instagram scrolle oder Portfolios anschaue. Vieles sieht gleich aus. Nicht identisch, aber irgendwie… verwandt.
Alles ist sauber. Alles ist korrekt belichtet. Alles hat diese bestimmte Schärfe, diese bestimmte Hauttextur, diese bestimmten Farben.
Und nichts bleibt hängen.
Das ist nicht die Schuld der Fotografen. Das ist der KI-Standard, der sich leise eingeschlichen hat. Weil alle dieselben Tools benutzen mit denselben Presets und denselben Automatiken.
Stil entsteht aber nicht durch Korrektheit. Stil entsteht durch Entscheidungen. Durch bewusstes Abweichen. Durch den Mut zu sagen: Ich will das so, auch wenn der Algorithmus das anders machen würde.
Ein bisschen Unschärfe, die irritiert. Ein Schatten, der zu dunkel ist. Korn, das da sein darf. Das sind keine Fehler. Das sind Unterschriften.
Das Ding mit der Haut
Worüber ich lange nachgedacht habe: Hautretusche.
Die KI ist da mittlerweile unfassbar gut. Ein Klick und die Haut ist perfekt. Keine Poren, keine Fältchen, keine Unreinheiten. Technisch makellos.
Aber irgendwann hab ich gemerkt, dass ich Menschen nicht mehr erkenne. Nicht buchstäblich – aber emotional. Da sitzt jemand vor mir, der dreißig Jahre gelebt hat, und im Bild sieht die Haut aus wie bei einem Zwanzigjährigen in einer Werbung.
Das stimmt dann nicht mehr. Die Geschichte fehlt. Die Müdigkeit fehlt. Das Leben fehlt.
Ich bin da jetzt vorsichtiger geworden. Haut darf Haut bleiben. Mit Textur. Mit Charakter. Die KI bietet mir die perfekte Glätte an, und ich sag meistens: Nee, lass mal.
RAW-Bearbeitung und die Versuchung des Perfekten
Auch bei der RAW-Entwicklung passiert was Komisches. Die KI kann aus Schatten Details rausholen, die ich mit bloßem Auge kaum sehe. Beeindruckend, wirklich.
Aber wenn ich das bei jedem Bild mache, sehen alle Bilder gleich aus. Alles durchgezeichnet, alles sichtbar, alles ausbalanciert.
Und manchmal will ich das gar nicht. Manchmal soll der Schatten dunkel bleiben. Manchmal soll das Licht ausfressen. Weil das die Stimmung ist. Weil das der Moment war.
Ich hab angefangen, die KI-Vorschläge als Startpunkt zu nehmen, nicht als Endergebnis. Gucken, was sie macht. Und dann oft die Hälfte wieder zurücknehmen. Weil zu viel Optimierung den Charakter killt.
Wenn die KI meine Bilder aussortiert
Ein Feature, das mich fasziniert und beunruhigt gleichzeitig: KI kann Bildserien vorsortieren. Nach Schärfe, nach Ausdruck, nach was auch immer.
Das spart Zeit. Massiv. Statt 500 Bilder durchzugucken, zeigt mir die Maschine die „besten“ 50.
Aber wer sagt, was das Beste ist?
Manche meiner liebsten Bilder sind technisch nicht perfekt. Leicht unscharf, komisch geschnitten, Moment zwischen den Momenten. Genau deshalb sind sie gut. Weil sie echt sind. Weil da was passiert ist, das nicht geplant war.
Die KI hätte die aussortiert. Weil sie nicht in die Norm passt.
Also nutze ich das Feature, aber ich schau trotzdem noch selbst durch. Nicht alles, aber genug, um die Bilder zu finden, die die Maschine nicht versteht.
Was ich mir abgewöhnt habe
Ich hab aufgehört, alles automatisch laufen zu lassen. Klingt banal, aber es hat gedauert.
Früher hab ich Bilder in die Pipeline geworfen und am Ende kam was Fertiges raus. Schnell, effizient, bequem.
Jetzt mache ich mehr Schritte manuell. Nicht alle, aber die wichtigen. Die Entscheidungen, die das Bild zu meinem Bild machen.
Das kostet Zeit. Aber die Zeit hat einen Wert. In dieser Zeit verstehe ich, was ich tue. In dieser Zeit passiert das, was man wohl „Handschrift“ nennt.
Die eigentliche Frage
Am Ende geht es nicht darum, welche KI man benutzt. Es geht darum, wo man sie stoppt.
Was darf automatisch passieren? Was muss durch mich durch?
Das ist für jeden anders. Und es verändert sich wahrscheinlich auch mit der Zeit. Aber die Frage muss man sich stellen. Sonst stellt sie irgendwann jemand anderes – und die Antwort gefällt einem nicht.
Ich hab für mich ein paar Linien gezogen. Technische Sachen – Rauschen, Grundschärfe, Objektivkorrekturen – da darf die KI ran. Aber sobald es um Gesichter geht, um Stimmung, um das, was das Bild eigentlich sagen soll – da will ich selbst entscheiden.
Ob das richtig ist, weiß ich nicht. Aber es fühlt sich richtig an. Und das muss erstmal reichen.
Was bleibt
KI ist kein Feind. Ist auch kein Retter. Ist ein Werkzeug. Ein ziemlich mächtiges.
Aber wie jedes Werkzeug verstärkt es das, was man reintut. Wenn ich gedankenlos arbeite, macht die KI mich schneller gedankenlos. Wenn ich bewusst arbeite, gibt sie mir Zeit für die Dinge, die zählen.
2026 trennt sich nicht die Leute, die KI nutzen, von denen, die es nicht tun. Es trennt sich die Leute, die wissen, warum sie was machen, von denen, die einfach klicken.
Ich versuche, zur ersten Gruppe zu gehören. Klappt nicht immer. Aber ich versuch’s.
Weil am Ende gilt, was schon immer galt: Technik kann Bilder besser machen. Aber nur ich kann sie zu meinen machen.
Wie dieser Text entstanden ist
Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.
Manchmal passiert etwas in einem Gerichtssaal, das sich anfühlt wie ein Riss in der Wand. Nicht laut, nicht dramatisch – eher wie dieses leise Knacken, wenn Putz bröckelt und du weißt: Da bewegt sich was Größeres dahinter.
So ging es mir, als ich zum ersten Mal von diesem Urteil aus Kalifornien las. Ich saß an meinem Schreibtisch, Kaffee kalt, Fenster offen, und scrollte durch die Nachrichten. Und dann blieb ich hängen. Nicht weil die Überschrift so reißerisch war – die war eher nüchtern. Sondern weil ich beim Lesen merkte: Hier hat zum ersten Mal jemand das ausgesprochen, was wir Kreativen seit Jahren fühlen, aber oft nicht in Worte fassen können.
Es geht nicht nur darum, was eine KI ausspuckt. Es geht darum, wie sie überhaupt zu dem wurde, was sie ist. Woher kommt das Material? Wer hat es genommen? Und wer hat gefragt – oder eben nicht?
Warum mich das Thema persönlich angeht
Ich muss ehrlich sein: Als das Thema KI und Urheberrecht vor zwei, drei Jahren hochkochte, habe ich es erstmal verdrängt. Zu abstrakt, zu technisch, zu weit weg. Ich dachte mir: Das regeln die Juristen unter sich, und wir malen weiter.
Aber dann wurde es konkreter. Kollegen zeigten mir, wie ihre Illustrationen in KI-Generatoren auftauchten – nicht als Kopie, aber als Echo. Ein Stil, der verdächtig bekannt wirkte. Ein Farbschema, das nicht zufällig war. Und plötzlich war das keine abstrakte Debatte mehr, sondern etwas, das in meinen Alltag kroch.
Und ich glaube, vielen geht es so. Wir haben lange zugeschaut, wie die großen Tech-Firmen Daten gesammelt haben wie andere Leute Briefmarken. Nur dass niemand gefragt hat, ob wir unsere Briefmarken überhaupt hergeben wollen.
Was in Kalifornien passiert ist – und warum es anders war
Im Juni 2025 kam ein Urteil in einem Verfahren gegen Anthropic, die Firma hinter dem KI-Modell Claude. Das Besondere: Es ging nicht nur um das übliche Hin und Her, ob KI-Training nun Fair Use ist oder nicht. Es ging um etwas viel Greifbareres.
Das Gericht hat gesagt – und ich versuche das jetzt so zu formulieren, wie ich es verstanden habe, nicht wie ein Jurist: Das Training selbst kann unter Umständen legal sein. Wenn eine KI aus Millionen von Texten lernt, Muster erkennt, Sprache versteht – dann ist das nicht automatisch ein Verbrechen. Es ist, vereinfacht gesagt, so ähnlich wie wenn ein Mensch viel liest und davon beeinflusst wird.
Aber – und hier kommt der Teil, der mich aufatmen ließ – wenn das Material, mit dem trainiert wird, aus illegalen Quellen stammt, dann ist das ein Problem. Ein echtes, handfestes, rechtliches Problem.
Das klingt vielleicht selbstverständlich. Ist es aber nicht. Denn jahrelang haben viele Unternehmen so getan, als wäre das Internet ein All-you-can-eat-Buffet. Alles gratis, alles erlaubt, Hauptsache schnell. Und jetzt sagt ein Gericht: Nein, so einfach ist das nicht.
Der Unterschied zwischen Lernen und Stehlen
Ich denke oft darüber nach, wie ich selbst gelernt habe. Ich habe Bücher gelesen, Bilder angeschaut, stundenlang in Museen gestanden. Ich habe Künstler kopiert – nicht um ihre Werke zu verkaufen, sondern um zu verstehen, wie sie das gemacht haben. Das ist normal. Das ist Teil des Handwerks.
Aber ich habe nie ein Buch gestohlen. Ich habe nie heimlich Fotos von Gemälden gemacht, um sie dann in großem Stil zu verbreiten. Und genau da liegt der Unterschied, den dieses Urteil aufmacht.
Es sagt nicht: KI darf nicht lernen. Es sagt: KI darf nicht aus gestohlenen Quellen lernen.
Das ist eine Unterscheidung, die so simpel klingt, dass man sich fragt, warum sie erst jetzt gemacht wird. Aber ich glaube, das liegt daran, dass die Technologie so schnell war. Schneller als das Recht. Schneller als unsere Vorstellungskraft. Und jetzt holt die Realität langsam auf.
Was das für uns bedeutet – jenseits der Schlagzeilen
Wenn ich ehrlich bin, habe ich nach dem ersten Lesen gedacht: Okay, cool, ein Urteil. Aber was ändert das für mich, hier an meinem Schreibtisch?
Und dann habe ich weiter gelesen. Und begriffen, dass dieses Urteil nicht nur ein Symbol ist, sondern ein Werkzeug.
Erstens: Es verschiebt die Beweislast. Plötzlich müssen Unternehmen zeigen, woher ihre Trainingsdaten kommen. Das ist ein riesiger Unterschied zu vorher, als wir als Kreative beweisen mussten, dass unsere Werke benutzt wurden. Jetzt dreht sich das langsam um.
Zweitens: Es macht Transparenz zum Thema. Wenn Unternehmen nachweisen müssen, dass ihre Daten sauber sind, dann brauchen sie Systeme dafür. Dokumentation. Archive. Lizenzen. Das klingt langweilig, ist aber in Wahrheit eine Revolution. Denn plötzlich haben wir als Kreative einen Hebel. Wir können fragen: Wo ist der Nachweis? Zeig mir die Lizenz.
Drittens: Es setzt ein Preisschild. Im September 2025 wurde bekannt, dass ein Vergleich über 1,5 Milliarden Dollar im Raum stand. Das ist kein Kleckerbetrag. Das ist eine Summe, die selbst große Unternehmen nicht einfach wegstecken. Und es zeigt: Daten haben einen Wert. Unser Werk hat einen Wert. Und wer es nimmt, ohne zu zahlen, muss mit Konsequenzen rechnen.
Das große Aber: Es ist noch nicht vorbei
Ich will hier nicht so tun, als wäre jetzt alles gut. Das wäre naiv. Dieses Urteil ist ein Anfang, kein Ende. Es betrifft erstmal Text, nicht Bilder. Es ist ein Urteil auf mittlerer Ebene, kein Spruch vom Obersten Gerichtshof. Und es wird Berufungen geben, Gegenargumente, neue Verfahren.
Aber das Wichtige ist: Die Richtung stimmt.
Vor zwei Jahren war die Debatte noch: Ist KI überhaupt problematisch? Vor einem Jahr war sie: Wie können wir beweisen, dass unsere Werke benutzt wurden? Und jetzt ist sie: Wie organisieren wir Lizenzierung, Transparenz und Beteiligung?
Das ist ein Fortschritt. Ein echter.
Was ich jetzt anders mache
Seit ich mich intensiver mit dem Thema beschäftige, habe ich ein paar Dinge geändert. Nicht weil ich paranoid bin, sondern weil ich gemerkt habe: Es macht einen Unterschied, wenn ich selbst aktiv werde.
Ich achte mehr auf Metadaten. Klingt unsexy, ich weiß. Aber wenn meine Bilder irgendwo auftauchen, will ich nachweisen können, dass sie von mir sind. Datum, Signatur, nachvollziehbare Veröffentlichung – das sind keine Eitelkeiten mehr, das sind Beweise.
Ich informiere mich über Opt-out-Möglichkeiten. Nicht alle sind gut, manche sind sogar Augenwischerei. Aber es gibt Plattformen und Initiativen, die versuchen, Standards zu setzen. Und je mehr wir mitmachen, desto mehr Gewicht haben diese Standards.
Und ich nutze KI selbst. Das klingt vielleicht widersprüchlich. Aber ich glaube, wer nur dagegen ist, ohne zu verstehen, wie es funktioniert, überlässt das Feld den anderen. Ich will mitreden. Ich will wissen, was diese Maschinen können und was nicht. Und ich will mitgestalten, wo die Grenzen sind.
Eine persönliche Beobachtung zum Schluss
Vor ein paar Wochen saß ich mit einer Freundin zusammen, die auch Künstlerin ist. Wir haben über all das geredet – über KI, über Urheberrecht, über die Zukunft. Und irgendwann sagte sie etwas, das mir nicht mehr aus dem Kopf geht.
Sie sagte: „Weißt du, was mich am meisten ärgert? Nicht dass die Maschinen lernen. Sondern dass niemand gefragt hat.“
Und ich glaube, genau darum geht es. Es geht nicht darum, Technologie aufzuhalten. Das wäre naiv und wahrscheinlich auch falsch. Aber es geht darum, wie wir als Gesellschaft mit dem umgehen, was Menschen erschaffen haben. Mit Respekt oder mit Gleichgültigkeit. Mit Dialog oder mit Ignoranz.
Dieses Urteil aus Kalifornien ist ein Zeichen, dass Respekt vielleicht doch noch eine Chance hat. Dass es Grenzen gibt, auch im digitalen Raum. Dass unser Werk nicht einfach Futter ist für Maschinen, die niemand kontrolliert.
Und wenn du mich fragst, ob das reicht – nein, natürlich nicht. Das ist erst der Anfang. Aber es ist ein Anfang, der sich anders anfühlt als alles, was vorher kam.
Weil zum ersten Mal jemand offiziell gesagt hat: Die Herkunft zählt. Der Weg zählt. Und wer stiehlt, kann sich nicht hinter Algorithmen verstecken.
Das ist keine Lösung für alles. Aber es ist eine Linie im Sand. Und manchmal beginnt Veränderung genau damit: dass jemand eine Linie zieht und sagt – hier nicht weiter.
Es gibt Diskussionen, die mich müde machen. Nicht weil das Thema unwichtig wäre, sondern weil sie so uninformiert geführt werden, dass jede sinnvolle Auseinandersetzung im Keim erstickt.
Die Debatte um künstliche Intelligenz gehört dazu.
Jeden Tag lese ich Kommentare, höre Statements, sehe Posts von Menschen, die sich über „die KI“ aufregen. Die KI nimmt uns die Jobs. Die KI zerstört die Kreativbranche. Die KI ist der Feind.
Und jedes Mal denke ich: Von welcher KI redet ihr eigentlich?
Denn „die KI“ gibt es nicht. Es gibt Dutzende, Hunderte, Tausende verschiedener Anwendungen, Tools, Systeme und Programme. Manche haben miteinander so viel zu tun wie ein Toaster mit einem Teilchenbeschleuniger. Beides nutzt Strom. Damit enden die Gemeinsamkeiten.
Das Problem mit dem Sammelbegriff
Wenn jemand sagt „Ich hasse Autos“, dann weiß ich nicht, was diese Person meint. Hasst sie SUVs? Sportwagen? Elektroautos? Lieferwagen? Den Verkehr allgemein? Die Autoindustrie? Die Parkplatzsituation in der Innenstadt?
Der Begriff „Auto“ ist so breit, dass die Aussage praktisch bedeutungslos wird.
Bei „der KI“ ist es noch schlimmer.
Unter diesem Begriff werden Technologien zusammengefasst, die völlig unterschiedliche Dinge tun:
Sprachmodelle wie ChatGPT, Claude oder Gemini, die Texte generieren und Fragen beantworten
Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion, die visuelle Inhalte erstellen
Stimmklonungs-Software wie ElevenLabs, die menschliche Stimmen replizieren kann
Musikgeneratoren wie Suno oder Udio, die Songs komponieren
Übersetzungstools wie DeepL, die Sprachen konvertieren
Analysetools, die Daten auswerten und Muster erkennen
Automatisierungssysteme, die Prozesse in Unternehmen optimieren
Das sind nicht verschiedene Versionen desselben Produkts. Das sind grundlegend unterschiedliche Technologien mit unterschiedlichen Anwendungsbereichen, unterschiedlichen Stärken, unterschiedlichen Risiken und unterschiedlichen ethischen Implikationen.
Wer das nicht versteht, kann an der Diskussion nicht sinnvoll teilnehmen.
Das Sprecher-Beispiel: Wenn der Zorn das falsche Ziel trifft
Ich beobachte seit Monaten, wie professionelle Sprecher gegen „die KI“ wettern. Verständlich. Ihre Existenzangst ist real. Die Frage, ob es in zehn Jahren noch bezahlte Sprechjobs gibt, ist berechtigt.
Aber dann sehe ich, wie dieselben Menschen ChatGPT als den großen Feind ihres Berufsstands bezeichnen.
Und da muss ich kurz innehalten.
ChatGPT ist ein Sprachmodell. Es generiert Text. Es kann keine Stimme klonen. Es kann keinen Werbespot einsprechen. Es kann kein Hörbuch produzieren. Es hat mit dem Kernproblem der Sprecherbranche ungefähr so viel zu tun wie ein Taschenrechner mit einem Synthesizer.
Das eigentliche Tool, das die Sprecherbranche verändern wird, heißt ElevenLabs. Oder Murf. Oder Resemble. Oder eines der anderen spezialisierten Programme, die genau dafür entwickelt wurden: menschliche Stimmen zu replizieren, zu klonen, synthetisch zu erzeugen.
Diese Tools können mit wenigen Minuten Audiomaterial eine Stimme kopieren und dann beliebige Texte damit einsprechen lassen. Das ist die Technologie, die für Sprecher relevant ist. Nicht ChatGPT.
Aber ChatGPT kennt jeder. ElevenLabs kennen die wenigsten.
Also wird ChatGPT zum Symbol. Zum Feindbild. Zum Sündenbock für alles, was mit „KI“ zu tun hat. Und die eigentliche Bedrohung bleibt unbenannt, unverstanden, undiskutiert.
Das ist nicht nur unpräzise. Es ist kontraproduktiv.
Wer seinen Feind nicht kennt, kann sich nicht verteidigen.
Dasselbe Muster überall
Das Sprecher-Beispiel ist kein Einzelfall. Ich sehe dasselbe Muster in jeder Branche.
Fotografen, die sich über „die KI“ aufregen, meinen meistens Midjourney oder Stable Diffusion. Aber sie schimpfen pauschal, als wäre jede KI-Anwendung eine Bedrohung für ihre Arbeit. Dabei nutzen viele von ihnen längst KI-gestützte Tools in Lightroom oder Photoshop, ohne mit der Wimper zu zucken.
Texter, die „die KI“ verdammen, meinen meistens ChatGPT. Aber sie vergessen, dass Übersetzungssoftware wie DeepL auch auf KI basiert. Dass Grammatik-Tools wie LanguageTool KI nutzen. Dass die Autokorrektur auf ihrem Smartphone KI ist.
Musiker, die gegen „die KI“ protestieren, meinen Suno oder Udio. Aber viele von ihnen arbeiten mit Software, die KI-gestützte Mastering-Funktionen hat. Die automatische Tuning-Korrekturen anbietet. Die Drums quantisiert.
Die Grenzen sind fließend. Und genau das macht die pauschale Ablehnung so absurd.
Die eigentliche Frage: Wer ist hier schuld?
Wenn wir schon dabei sind, über Bedrohungen zu reden, dann lasst uns über die richtige Bedrohung reden.
Kein KI-Tool hat jemals aktiv entschieden, jemandem den Job zu stehlen. Kein Algorithmus hat beschlossen, einen Künstler zu kopieren. Keine Software hat sich vorgenommen, einen Sprecher zu ersetzen.
Diese Entscheidungen treffen Menschen.
Ein Unternehmen entscheidet, keine echten Sprecher mehr zu buchen. Ein Auftraggeber entscheidet, mit KI-generierten Bildern zu arbeiten. Ein Mensch entscheidet, fremde Stile zu kopieren und als eigene Arbeit zu verkaufen.
Die Werkzeuge sind neutral. Die Absichten dahinter sind es nicht.
Wenn jemand mit Photoshop ein Foto manipuliert und damit Rufschädigung betreibt, ist dann Photoshop schuld? Wenn jemand mit einem Küchenmesser einen Menschen verletzt, ist das Messer der Täter?
Die Frage klingt rhetorisch, weil sie es ist.
Aber bei KI vergessen wir plötzlich diese grundlegende Logik. Wir personifizieren die Technologie, machen sie zum Akteur, zum Feind, zum Schuldigen. Und entlasten damit die Menschen, die tatsächlich fragwürdige Entscheidungen treffen.
Das eigentliche Problem: Diebstahl bleibt Diebstahl
Ja, es gibt echte Probleme. Große Probleme.
Menschen nutzen KI-Tools, um fremde Werke zu kopieren. Stimmen werden ohne Zustimmung geklont. Kunststile werden repliziert, ohne die Originalschöpfer zu nennen oder zu vergüten. Ganze Portfolios entstehen aus zusammengeklaubten Fragmenten anderer Leute Arbeit.
Das ist moralisch fragwürdig. In vielen Fällen ist es auch rechtlich fragwürdig. Und es verdient Kritik.
Aber die Kritik muss an die richtigen Adressaten gehen.
Wenn jemand mit ElevenLabs die Stimme eines Sprechers klont, ohne dessen Erlaubnis, dann ist nicht ElevenLabs der Täter. Der Mensch, der das Tool missbraucht, ist der Täter.
Wenn jemand mit Midjourney den Stil eines lebenden Künstlers kopiert und die Ergebnisse als eigene Kunst verkauft, dann ist nicht Midjourney das Problem. Der Mensch, der diese Entscheidung trifft, ist das Problem.
Die Technologie ermöglicht. Der Mensch entscheidet.
Diese Unterscheidung ist wichtig. Weil sie bestimmt, wie wir regulieren, wie wir diskutieren, wie wir als Gesellschaft mit diesen Veränderungen umgehen.
Wie wir die Diskussion führen sollten
Ich plädiere nicht dafür, KI kritiklos zu akzeptieren. Im Gegenteil.
Es gibt massive Fragen zu klären. Urheberrechtliche Fragen. Arbeitsmarktfragen. Ethische Fragen. Fragen der Transparenz, der Regulierung, der Vergütung.
Aber diese Fragen können nur sinnvoll beantwortet werden, wenn wir präzise sind.
Wenn ein Sprecher sich gegen Stimmklonungs-Software positionieren will, dann sollte er Stimmklonungs-Software benennen. Wenn ein Künstler gegen die Nutzung seines Stils in Trainingsdaten protestiert, dann sollte er die spezifischen Bildgeneratoren und deren Praktiken kritisieren.
Pauschale Aussagen wie „KI ist böse“ oder „KI zerstört alles“ sind nicht nur falsch. Sie verwässern die berechtigte Kritik so sehr, dass sie wirkungslos wird.
Wer über alles gleichzeitig schimpft, schimpft am Ende über nichts Konkretes.
Die unbequeme Wahrheit
Hier ist die Wahrheit, die niemand gerne hört:
Viele der Menschen, die am lautesten gegen „die KI“ wettern, haben sich nicht die Mühe gemacht zu verstehen, wovon sie reden. Sie haben Angst – berechtigte Angst – aber sie kanalisieren diese Angst in die falsche Richtung.
Und ja, ich verstehe, warum das passiert. Die Entwicklung ist schnell. Die Technologie ist komplex. Die Konsequenzen sind unübersichtlich. Es ist einfacher, einen großen Feind zu haben als zwanzig kleine Problemfelder zu analysieren.
Aber einfach ist selten richtig.
Wer in dieser Debatte ernst genommen werden will, muss Hausaufgaben machen. Muss verstehen, welche Tools was tun. Muss differenzieren können zwischen einem Textgenerator und einem Stimmkloner. Zwischen einem Analysetool und einem Bildgenerator. Zwischen einer Arbeitserleichterung und einer Existenzbedrohung.
Diese Differenzierung ist keine akademische Spielerei. Sie ist die Voraussetzung für jede sinnvolle Diskussion.
Ein Appell
An alle, die sich an dieser Debatte beteiligen wollen:
Hört auf, „die KI“ zu sagen, wenn ihr ein spezifisches Tool meint. Benennt es. Seid präzise.
Hört auf, Technologie zum Feind zu erklären. Schaut auf die Menschen, die sie einsetzen. Auf die Unternehmen, die Entscheidungen treffen. Auf die Strukturen, die Missbrauch ermöglichen oder verhindern.
Und vor allem: Informiert euch. Lest. Fragt nach. Probiert aus. Versteht, wovon ihr redet, bevor ihr urteilt.
Die Entwicklungen, die gerade passieren, sind zu wichtig für uninformiertes Geschrei.
Sie verdienen eine ernsthafte, differenzierte, sachliche Auseinandersetzung.
Von Menschen, die wissen, wovon sie reden.
Schluss
Es gibt berechtigte Kritik an vielen KI-Anwendungen. Es gibt echte Probleme, die gelöst werden müssen. Es gibt Fragen, auf die wir als Gesellschaft Antworten finden müssen.
Aber diese Antworten werden nicht von denen kommen, die alles in einen Topf werfen und umrühren.
Sie werden von denen kommen, die differenzieren können. Die verstehen, welches Tool welche Auswirkungen hat. Die wissen, dass nicht „die KI“ das Problem ist, sondern spezifische Anwendungen, spezifische Praktiken, spezifische menschliche Entscheidungen.
Die Technologie ist da. Sie wird nicht verschwinden.
Die Frage ist nur, wie wir mit ihr umgehen.
Und diese Frage beginnt mit Verständnis. Nicht mit Pauschalurteilen.
Bevor wir anfangen: Worum geht es hier eigentlich?
Wenn gerade überall vom „Ende der Diffusion“ die Rede ist, klingt das erstmal dramatisch. Fast so, als würde Midjourney morgen früh abgeschaltet und Stable Diffusion gehört ab nächster Woche ins Museum. Aber so ist es nicht. Die Diffusionsmodelle, die du kennst und vielleicht täglich nutzt, verschwinden nicht einfach über Nacht. Sie funktionieren weiterhin, sie werden weiterentwickelt, und ja – sie liefern immer noch beeindruckende Ergebnisse.
Was sich aber verändert, ist ihre Rolle. Diffusion war jahrelang das Herzstück der KI-Bildgenerierung. Der Standard. Die Technologie, an der sich alles andere messen musste. Und genau dieser Status gerät jetzt ins Wanken. Nicht weil Diffusion plötzlich schlecht wäre, sondern weil eine neue Klasse von Systemen auftaucht, die Bilder auf eine grundlegend andere Art erzeugt.
Diese neuen Modelle rekonstruieren keine Bilder mehr aus Rauschen. Sie verstehen, was sie tun. Sie erkennen Objekte, Beziehungen, Hierarchien. Sie wissen, dass ein Gesicht ein Gesicht ist – und nicht nur eine statistische Ansammlung von Pixeln, die zufällig so aussieht.
Das klingt vielleicht nach einem kleinen technischen Detail. Aber wenn du regelmäßig mit Bildern arbeitest – egal ob als Fotograf, Designerin, Illustrator oder einfach als jemand, der visuelle Inhalte erstellt – dann verändert das deinen Werkzeugkasten auf einer sehr tiefen Ebene. Und genau darum geht es in diesem Text: Was passiert da gerade wirklich? Ohne Buzzwords, ohne Marketing-Sprech, ohne überzogene Versprechungen.
Was Diffusion kann – und wo sie an ihre Grenzen stößt
Um zu verstehen, warum sich gerade etwas Grundlegendes verändert, müssen wir kurz zurückblicken. Diffusionsmodelle funktionieren nach einem ziemlich eleganten Prinzip: Du startest mit reinem Zufallsrauschen – einem Bild, das aussieht wie analoger Fernsehschnee – und dann entfernt das Modell Schritt für Schritt dieses Rauschen. Was übrig bleibt, ist ein Bild.
Das Modell wurde vorher mit Millionen von Bildern trainiert. Es hat gelernt, welche Pixelmuster zu welchen Beschreibungen passen. Wenn du „eine Katze auf einem Sofa“ eingibst, weiß es statistisch, wie Katzen und Sofas normalerweise aussehen, und erzeugt ein entsprechendes Muster.
Das funktioniert erstaunlich gut. Die Ergebnisse können atemberaubend sein. Aber hier kommt der Haken: Diffusion arbeitet auf der Ebene von Pixeln, nicht auf der Ebene von Bedeutung.
Was heißt das konkret? Das Modell weiß nicht wirklich, dass es gerade ein Gesicht erzeugt. Es erzeugt nur ein Pixelmuster, das statistisch wie ein Gesicht aussieht. Es versteht nicht, dass Augen symmetrisch sein sollten oder dass Hände normalerweise fünf Finger haben. Es imitiert nur, was es in den Trainingsdaten gesehen hat.
Deshalb passieren die typischen Fehler: sechs Finger, verschmolzene Gliedmaßen, Text, der wie Buchstabensalat aussieht. Das sind keine Bugs, die man einfach fixen kann. Das sind direkte Konsequenzen der Architektur.
Und dann ist da noch das Geschwindigkeitsproblem. Diffusion ist ein serieller Prozess. Jeder Schritt baut auf dem vorherigen auf. Das macht die ganze Sache rechenintensiv und vergleichsweise langsam. Klar, die Modelle werden schneller, die Hardware besser. Aber die grundsätzliche Limitierung bleibt bestehen.
Der eigentliche Bruch: Von Pixeln zu Bedeutung
Die neue Generation von Bildgeneratoren geht einen anderen Weg. Statt Bilder aus Rauschen zu rekonstruieren, arbeiten diese Systeme mit etwas, das man als „semantische Planung“ bezeichnen könnte.
Stell dir vor, du bittest jemanden, ein Poster zu gestalten. Ein Diffusionsmodell würde sofort anfangen zu malen – Pixel für Pixel, ohne vorher nachzudenken. Die neuen Modelle machen etwas anderes. Sie halten kurz inne und überlegen: Was soll auf diesem Poster drauf? Eine Überschrift? Ein Produktfoto? Fließtext? Wie hängen diese Elemente zusammen? Was ist wichtig, was ist Hintergrund?
Erst wenn diese Fragen beantwortet sind, beginnt die eigentliche Bilderzeugung. Das Bild entsteht nicht mehr von unten nach oben – also von Pixeln über Formen zu Bedeutung – sondern von oben nach unten: Bedeutung, dann Struktur, dann Darstellung.
Das klingt vielleicht abstrakt, aber die praktischen Auswirkungen sind enorm. Plötzlich wird Text im Bild lesbar, weil das System versteht, dass Text Text ist und nicht nur eine weitere Textur. Layouts bekommen Hierarchie, weil das Modell weiß, dass Überschriften anders behandelt werden als Fließtext. Gesichter haben konsistent zwei Augen, weil das System versteht, was ein Gesicht ist.
Die technische Basis: Warum Transformer den Unterschied machen
Hinter diesem Wandel steckt eine Technologie, die ursprünglich gar nichts mit Bildern zu tun hatte: Transformer-Architekturen. Du kennst sie vielleicht von ChatGPT und anderen Sprachmodellen. Ihre große Stärke liegt darin, Beziehungen zwischen Elementen zu erkennen – egal wo diese Elemente stehen, egal in welcher Reihenfolge sie auftauchen.
Bei Text bedeutet das: Das Modell versteht, dass „Die Katze schläft“ und „Schläft die Katze?“ beide von einer schlafenden Katze handeln, obwohl die Wörter anders angeordnet sind.
Übertragen auf Bilder bedeutet das: Ein Gesicht ist nicht mehr nur ein Cluster von Pixeln in einer bestimmten Region des Bildes. Es ist ein zusammenhängendes Konzept, das das Modell als Ganzes versteht. Und weil Transformer Text und Bild im selben Raum verarbeiten können, gibt es keine harte Trennung mehr zwischen „Sprache verstehen“ und „Bilder erzeugen“.
Das ist der Punkt, an dem klassische Diffusionsmodelle strukturell nicht mithalten können. Nicht weil sie schlecht sind – sondern weil sie für eine andere Aufgabe gebaut wurden.
Spezialisierung statt Einheitsbrei
Ein weiterer großer Unterschied liegt in der Architektur dieser neuen Systeme. Statt ein riesiges Modell zu bauen, das irgendwie alles können soll, setzen viele neue Ansätze auf sogenannte „Mixture of Experts“-Systeme.
Die Idee ist simpel: Statt eines Generalisten gibt es mehrere Spezialisten. Ein Teilmodell ist besonders gut bei Porträts. Ein anderes bei Produktfotos. Ein drittes bei Typografie. Ein viertes bei Datenvisualisierung. Und eine übergeordnete Steuerung entscheidet, welcher Experte gerade gefragt ist.
Für dich als Nutzer bedeutet das: höhere Präzision bei spezifischen Aufgaben, weniger von den typischen KI-Artefakten, die man sofort als „das hat eine KI gemacht“ erkennt, und deutlich bessere Kontrolle bei komplexen Anforderungen.
Es ist ein bisschen so, als würdest du nicht mehr einen einzelnen Allround-Designer beauftragen, sondern Zugang zu einem ganzen Studio bekommen – mit Fotografin, Typograf, Illustratorin und Art Director, die koordiniert zusammenarbeiten.
Was das für Bildbearbeitung bedeutet
Einer der praktischsten Effekte dieses Wandels zeigt sich bei der Bildbearbeitung. Wer schon mal versucht hat, mit klassischen Tools ein Objekt aus einem Foto zu entfernen oder zu verändern, kennt den Workflow: Maske erstellen, Ebenen anlegen, manuell selektieren, exportieren, in ein anderes Programm importieren, nachbearbeiten.
Die neuen Systeme arbeiten anders. Sie erkennen Objekte, statt sie zu erraten. Sie wissen, was Person und was Hintergrund ist. Sie können eine Person im Bild verändern, ohne dabei Licht, Schatten oder Komposition zu zerstören – weil sie verstehen, wie diese Elemente zusammenhängen.
Das ist kein nettes Feature am Rande. Das ist eine komplett neue Kategorie von Bildbearbeitung. Retusche wird kontextsensitiv. Änderungen betreffen gezielt Inhalte, nicht das gesamte Bild. Du arbeitest nicht mehr mit Pixeln, sondern mit Bedeutungen.
Design, Layout und Typografie: Der vielleicht größte Sprung
Wenn du jemals versucht hast, mit einem Diffusionsmodell ein Poster zu erstellen – also eines mit lesbarem Text, sauberem Layout und konsistenter Hierarchie – dann weißt du, wie frustrierend das sein kann. Schrift war bestenfalls unzuverlässig. Abstände wirkten zufällig. Von echtem Design konnte kaum die Rede sein.
Die neuen Systeme behandeln Layout als funktionales System. Eine Überschrift ist eine Überschrift, nicht nur größerer Text. Fließtext verhält sich wie Fließtext. Abstände folgen Regeln, nicht dem Zufall.
Du kannst ganze Seiten generieren, Poster, Magazinlayouts, Präsentationen – ohne zwischen drei verschiedenen Programmen hin und her zu wechseln. Das bedeutet nicht, dass Designwissen plötzlich überflüssig wird. Im Gegenteil: Wer Design versteht, kann diese Systeme deutlich besser steuern. Aber die technischen Hürden werden niedriger.
Datenvisualisierung: Von Dekoration zu Funktion
Ein besonders kritischer Punkt bei Diffusionsmodellen war immer die Darstellung von Daten. Diagramme sahen oft überzeugend aus – bis man genauer hinschaute und merkte, dass die Zahlen keinen Sinn ergaben, die Achsen nicht zusammenpassten und die Proportionen willkürlich waren.
Die neuen Modelle gehen vorsichtiger vor. Daten werden als Daten erkannt. Visualisierungen folgen logischen Regeln. Achsen, Werte und Proportionen werden konsistenter behandelt.
Noch ist das nicht perfekt – und ich würde niemandem empfehlen, einen Geschäftsbericht mit KI-generierten Diagrammen zu füllen, ohne alles dreimal zu prüfen. Aber es ist der erste ernsthafte Schritt von dekorativer Illustration hin zu funktionaler Informationsgrafik. Das Potenzial ist riesig.
Was sich an deinem Workflow ändert
Der klassische Workflow – generieren, exportieren, in Photoshop bearbeiten, in InDesign layouten, fertig – verliert an Bedeutung. Stattdessen entsteht etwas, das man als dialogischen Prozess bezeichnen könnte.
Du formulierst eine visuelle Absicht. Das System setzt sie um. Du schaust dir das Ergebnis an und korrigierst – nicht auf der Ebene von Pixeln und Masken, sondern auf der Ebene von Konzepten. „Die Überschrift sollte prominenter sein.“ „Der Hintergrund wirkt zu unruhig.“ „Die Person sollte nach rechts schauen.“
Die Rolle des Gestalters verschiebt sich. Weg vom reinen Ausführen, hin zum Entscheiden, Kuratieren und Steuern. Werkzeugkenntnis bleibt wichtig – aber Verständnis von Bildsprache, Struktur und Kontext wird entscheidender als die Frage, welchen Shortcut man für welches Werkzeug drücken muss.
Was diese Systeme nicht können
Bei aller Begeisterung: Diese Modelle sind keine autonomen Kreativdirektoren. Sie machen Fehler. Sie missverstehen komplexe Anforderungen. Sie produzieren manchmal logischen Unsinn, der auf den ersten Blick überzeugend aussieht.
Wer unklare Vorgaben macht, bekommt unklare Ergebnisse. Wer nicht prüft, was das System liefert, übersieht Fehler. Diese Werkzeuge sind leistungsstark, aber sie ersetzen kein kritisches Auge. Sie ersetzen nicht die Fähigkeit zu erkennen, ob etwas funktioniert oder nicht.
Das ist wichtig zu verstehen, gerade weil die Ergebnisse immer überzeugender werden. Je besser die Oberfläche aussieht, desto leichter übersieht man, was darunter schiefgeht.
Was bleibt
Das „Ende der Diffusion“ ist kein Abgesang auf eine Technologie, die ihre Zeit gehabt hat. Es ist ein Übergang. Diffusion war der Türöffner – der Beweis, dass KI-generierte Bilder überhaupt möglich sind, dass sie gut aussehen können, dass sie praktischen Nutzen haben.
Die neuen Modelle sind der nächste Raum. Ein Raum, in dem es nicht mehr nur darum geht, beeindruckende Bilder zu erzeugen, sondern Bilder gezielt zu gestalten. Mit Verständnis. Mit Struktur. Mit Absicht.
Wenn du mit Bildern arbeitest, bedeutet das: weniger Technik-Akrobatik, mehr inhaltliche Steuerung, mehr Verantwortung für visuelle Entscheidungen. Die Bildgenerierung entwickelt sich von einer beeindruckenden Spielerei zu einem ernsthaften, integrierten Werkzeug für visuelle Gestaltung.
Nicht einfach schneller. Nicht einfach hübscher. Fundamental anders.
Ein leidenschaftliches Plädoyer für das Ende einer ermüdenden Diskussion
Gestern scrollte ich durch meine Timeline und da war er wieder. Dieser Post. Diese Aussage, die ich in den letzten Jahren gefühlt tausendmal gelesen habe, nur immer wieder leicht anders formuliert. Der Kern blieb derselbe: Echte Kunst entsteht nur mit echten Farben und echten Pinseln. KI-generierte Bilder können niemals Kunst sein, weil ihnen das Gefühl fehlt. Synthetische Bildkunst ist seelenlos, weil keine menschliche Hand den Pinsel führt.
Ich saß da, starrte auf den Bildschirm und spürte diese Mischung aus Frustration und Erschöpfung, die mich bei diesem Thema mittlerweile immer begleitet. Nicht weil ich keine Gegenargumente hätte. Sondern weil diese Argumente so offensichtlich sind, dass es mich wundert, sie immer wieder wiederholen zu müssen.
Also tue ich es jetzt. Ein letztes Mal. Ausführlich. Mit allem, was ich habe.
Die große Lüge vom fühlenden Werkzeug
Lassen Sie mich mit einer simplen Beobachtung beginnen, die so banal ist, dass sie fast schon beleidigend wirkt: Ein Pinsel hat keine Gefühle. Er hatte nie welche. Er wird nie welche haben.
Ein Pinsel ist ein Stück Holz mit Tierhaaren oder synthetischen Fasern am Ende. Er liegt auf dem Tisch oder in einer Schublade oder in einem Glas mit Terpentin. Er wartet auf nichts. Er sehnt sich nach nichts. Er träumt nicht von dem Bild, das er malen wird. Er hat keine Vision, keine Inspiration, keine schlaflosen Nächte voller kreativer Unruhe.
Wenn ein Künstler einen Pinsel in die Hand nimmt und ein Meisterwerk erschafft, dann kommt das Gefühl nicht aus dem Pinsel. Es kommt aus dem Menschen. Es kommt aus den Erfahrungen dieses Menschen, aus seinen Erinnerungen, aus seinen Hoffnungen und Ängsten, aus seiner einzigartigen Perspektive auf die Welt.
Der Pinsel ist lediglich das Medium. Das Übertragungsinstrument. Die Brücke zwischen der inneren Welt des Künstlers und der äußeren Welt der Leinwand.
Warum also sollte es bei einem anderen Werkzeug anders sein?
Eine kurze Geschichte der künstlerischen Empörung
Die Kunstwelt hat eine lange und durchaus unterhaltsame Tradition darin, neue Technologien zunächst vehement abzulehnen. Lassen Sie mich Sie auf eine kleine Zeitreise mitnehmen.
Als die Fotografie im 19. Jahrhundert aufkam, war die Empörung gewaltig. Maler sahen ihre Existenz bedroht. Kritiker erklärten, dass ein mechanisches Gerät niemals Kunst erschaffen könne. Die Kamera machte ja alles automatisch – wo blieb da die menschliche Seele? Wo das Gefühl? Der berühmte französische Dichter Charles Baudelaire nannte die Fotografie den „Todfeind der Kunst“.
Heute hängen Fotografien in den bedeutendsten Museen der Welt. Niemand würde ernsthaft behaupten, dass Ansel Adams, Annie Leibovitz oder Sebastião Salgado keine Künstler seien.
Als die elektronische Musik und Synthesizer aufkamen, wiederholte sich das Spiel. Echte Musik brauche echte Instrumente, hieß es. Ein Computer könne keine Seele haben. Elektronische Klänge seien kalt und leblos. Heute sind elektronische Produktionstechniken aus praktisch keinem Genre mehr wegzudenken, und niemand würde bestreiten, dass Kraftwerk, Brian Eno oder Aphex Twin Künstler sind.
Als digitale Malerei und Grafikprogramme aufkamen, hieß es wieder: Das sei keine echte Kunst. Wo bliebe die Verbindung zwischen Hand und Material? Wo das haptische Erlebnis? Wo die Authentizität des physischen Werks? Heute arbeiten die meisten professionellen Illustratoren und Concept Artists digital, und ihre Werke werden zurecht als Kunst anerkannt.
Sehen Sie das Muster? Jede einzelne technologische Innovation in der Kunst wurde zunächst mit den exakt gleichen Argumenten bekämpft. Und jedes einzelne Mal lagen die Kritiker falsch.
Was Synthetische Bildkunst wirklich bedeutet
Lassen Sie mich beschreiben, was tatsächlich passiert, wenn jemand mit KI-Werkzeugen Bilder erschafft.
Der Künstler sitzt vor seinem Computer. Er hat eine Idee, eine Vision, ein Gefühl, das er ausdrücken möchte. Vielleicht ist es die Melancholie eines regnerischen Herbstabends. Vielleicht die explosive Energie eines Moments der Erkenntnis. Vielleicht die stille Trauer über einen Verlust.
Er beginnt zu formulieren. Er sucht nach Worten, die seine innere Vision beschreiben. Er experimentiert mit Begriffen, mit Stilen, mit Atmosphären. Das erste Ergebnis ist nicht richtig. Es trifft nicht das, was er meint. Also verfeinert er seine Beschreibung. Er verwirft und beginnt neu. Er kombiniert Elemente aus verschiedenen Versuchen. Er kuratiert, wählt aus, entscheidet.
Dieser Prozess kann Stunden dauern. Manchmal Tage. Manchmal endet er in Frustration, weil die Vision sich nicht einfangen lässt. Manchmal endet er in diesem magischen Moment, in dem man auf das Ergebnis schaut und weiß: Ja, genau das wollte ich zeigen. Genau so fühlt es sich an.
Das ist kreative Arbeit. Das ist künstlerische Arbeit. Das ist zutiefst menschliche Arbeit.
Der Künstler trifft dabei hunderte von Entscheidungen. Jede einzelne davon ist ein Ausdruck seiner künstlerischen Vision. Jede einzelne davon ist getragen von seinem Gefühl, seiner Erfahrung, seiner einzigartigen Perspektive.
Die KI ist dabei das Werkzeug. Sie ist der Pinsel, der die Farbe auf die Leinwand trägt. Sie ist die Kamera, die das Licht einfängt. Sie ist der Synthesizer, der die Klänge erzeugt.
Sie ist nicht der Künstler.
Das Missverständnis über künstliche Intelligenz
Ein Teil des Problems liegt meiner Meinung nach in einem fundamentalen Missverständnis darüber, was KI tatsächlich ist und tut.
KI-Bildgeneratoren sind keine fühlenden Wesen. Sie haben keine Intentionen. Sie haben keine Visionen. Sie verstehen nicht, was sie tun. Sie sind mathematische Modelle, die statistische Muster in Daten gelernt haben und diese Muster auf neue Eingaben anwenden können.
Wenn jemand sagt, dass KI-Kunst kein Gefühl habe, weil die KI keine Gefühle hat, dann begeht er einen logischen Fehler. Denn mit der gleichen Argumentation müsste man sagen, dass Ölgemälde kein Gefühl haben, weil Ölfarben keine Gefühle haben. Oder dass Fotografien kein Gefühl haben, weil Kameras keine Gefühle haben.
Das Gefühl kommt nicht aus dem Werkzeug. Das Gefühl kommt aus dem Menschen, der das Werkzeug benutzt.
Die wahre Quelle der Kunst
Kunst entsteht nicht in Pinseln, Kameras oder Algorithmen. Kunst entsteht in Menschen. In ihren Köpfen, ihren Herzen, ihren Seelen.
Kunst entsteht in dem Moment, in dem ein Mensch etwas erlebt und den Drang verspürt, dieses Erlebnis auszudrücken. Sie entsteht in der Suche nach der richtigen Form für einen Gedanken. Sie entsteht in der Entscheidung, dieses Element zu behalten und jenes zu verwerfen. Sie entsteht in dem Mut, etwas Persönliches der Welt zu zeigen.
All das passiert bei synthetischer Bildkunst genauso wie bei traditioneller Malerei. Der Mensch erlebt, der Mensch fühlt, der Mensch entscheidet, der Mensch erschafft.
Das Werkzeug ist dabei sekundär. Es beeinflusst die Ästhetik des Ergebnisses, sicher. Ein Ölgemälde sieht anders aus als eine Fotografie, die anders aussieht als eine digitale Illustration, die anders aussieht als ein synthetisch generiertes Bild. Aber die künstlerische Essenz – die menschliche Intention, die emotionale Wahrheit, die kreative Vision – kommt in allen Fällen aus der gleichen Quelle.
Sie kommt aus dem Menschen.
Warum diese Debatte eigentlich nicht über Kunst geht
Ich vermute, dass die heftigen Reaktionen auf KI-Kunst weniger mit ästhetischen oder philosophischen Überzeugungen zu tun haben als vielmehr mit Angst. Angst vor Veränderung. Angst vor Bedeutungsverlust. Angst davor, dass Fähigkeiten, in die man jahrelang investiert hat, plötzlich weniger relevant werden könnten.
Diese Ängste sind verständlich. Sie sind menschlich. Aber sie sollten nicht dazu führen, dass wir anderen Menschen ihre Kreativität absprechen. Sie sollten nicht dazu führen, dass wir Werkzeuge verteufeln, nur weil sie neu und anders sind.
Die Geschichte der Kunst ist eine Geschichte der ständigen Evolution. Neue Techniken, neue Materialien, neue Werkzeuge haben immer wieder neue Möglichkeiten des Ausdrucks eröffnet. Das war bei der Erfindung der Ölfarbe so, bei der Entwicklung der Perspektive, bei der Einführung der Fotografie, bei der Digitalisierung.
KI ist der nächste Schritt in dieser Evolution. Nicht mehr, nicht weniger.
Ein Appell zum Schluss
Ich bitte nicht darum, dass jeder KI-generierte Kunst mögen muss. Geschmäcker sind verschieden, und das ist gut so. Ich bitte nicht darum, dass traditionelle Kunst weniger wertgeschätzt wird. Sie ist und bleibt eine wunderbare, bedeutungsvolle Form des menschlichen Ausdrucks.
Ich bitte nur darum, dass wir aufhören, anderen Menschen ihre Kreativität abzusprechen, nur weil sie andere Werkzeuge benutzen als wir. Ich bitte darum, dass wir anerkennen, dass das Gefühl immer beim Menschen liegt, nicht beim Werkzeug. Ich bitte darum, dass wir die ewig gleiche, ewig falsche Kritik endlich hinter uns lassen.
Der Pinsel hat noch nie ein Gefühl gehabt. Die Kamera auch nicht. Der Synthesizer nicht. Und die KI hat auch keines.
Aber der Mensch, der diese Werkzeuge benutzt – dieser Mensch fühlt. Er hofft, er träumt, er leidet, er feiert. Er sucht nach Ausdruck für das, was in ihm ist. Und wenn er diesen Ausdruck findet, dann ist das Kunst.
Meine Kunst endet nicht bei den Bildern, die dort hängen. Sie lebt weiter. Auf Instagram. Auf Facebook. Auf fotocommunity. Auf DeviantArt. Überall dort, wo meine Bilder auftauchen, können sie zu dir kommen.
1. Jedes Bild ist bestellbar – egal wo du es gesehen hast
Du hast ein Bild von mir auf Instagram gesehen? Oder auf Facebook. Oder auf fotocommunity. Oder auf DeviantArt.
👉 Du kannst jedes dieser Bilder als Fine Art Print bestellen.
Aber – und das ist entscheidend:
Jedes Bild gibt es nur ein einziges Mal
Ein echtes Unikat
Mit Proof of Artist
Kein Nachdruck.
Keine Serie.
Kein „nochmal schnell“.
Wenn das Bild weg ist, ist es weg. So einfach. So ehrlich.
Ein Fachartikel über die Realität des KI-Kunstmarkts und die Entkräftung verbreiteter Mythen
Einleitung
Die Debatte um Künstliche Intelligenz in der Kunst wird häufig emotional geführt. In sozialen Medien, Foren und selbst in Fachkreisen begegnen uns regelmäßig zwei zentrale Behauptungen: „KI stiehlt Kunst“ und „Mit KI kann jeder Kunst machen, also ist es keine echte Kunst.“
Als jemand, der sich seit Jahren mit der Schnittstelle von Technologie und Kunst beschäftigt, möchte ich diese Narrative einer sachlichen Prüfung unterziehen – nicht um Kritiker zu verunglimpfen, sondern um Fakten von Befürchtungen zu trennen und einen differenzierten Blick auf ein faszinierendes Feld zu ermöglichen.
Mythos 1: „KI stiehlt Bilder“
Was die Kritiker behaupten
Die populärste Kritik lautet: KI-Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion würden Kunstwerke „stehlen“, indem sie Bilder kopieren und neu zusammensetzen. Die Vorstellung ist, dass irgendwo in der Maschine gestohlene Bilder gespeichert sind, die dann wie ein Collage-Puzzle ausgespuckt werden.
Was tatsächlich passiert
Diese Vorstellung basiert auf einem fundamentalen Missverständnis der Technologie. KI-Modelle speichern keine Bilder. Sie lernen statistische Muster – ähnlich wie ein Mensch, der tausende Gemälde studiert, kein einzelnes Bild im Kopf „speichert“, sondern ein Verständnis von Komposition, Farbharmonie und Stil entwickelt.
Ein technischer Vergleich: Ein Diffusionsmodell mit mehreren Milliarden Parametern wurde auf Hunderten von Millionen Bildern trainiert. Würde es diese Bilder speichern, bräuchte es Petabytes an Speicher. Tatsächlich benötigt ein typisches Modell nur wenige Gigabyte – mathematisch unmöglich, wenn es sich um eine Bilddatenbank handeln würde.
Der Lernprozess in Kontext gesetzt
Jeder menschliche Künstler lernt durch das Studium anderer Werke. Kunsthochschulen lehren explizit das Kopieren alter Meister als Übung. Museen sind voll von Werken, die stilistisch aufeinander aufbauen. Die Impressionisten studierten japanische Holzschnitte, Picasso wurde von afrikanischer Kunst beeinflusst, und Andy Warhol verwendete buchstäblich Fotografien anderer als Grundlage.
Der Unterschied bei KI? Die Geschwindigkeit und Skalierung – nicht das Prinzip.
Mythos 2: „Echte Künstler können mit KI keine Kunst machen“
Die versteckte Annahme
Dieser Mythos basiert auf der Annahme, dass künstlerischer Wert ausschließlich in der handwerklichen Ausführung liegt. Drückt man einen Knopf und erhält ein Bild, sei dies keine Kunst, weil keine „echte Arbeit“ geleistet wurde.
Eine kurze Geschichte der „Nicht-Kunst“
Diese Argumentation ist nicht neu. Sie wurde bei jeder technologischen Innovation in der Kunst vorgebracht:
Fotografie (19. Jahrhundert): „Das ist keine Kunst, die Maschine macht das Bild.“
Digitale Kunst (1990er): „Photoshop ist Betrug, echte Künstler malen.“
Synthesizer (1970er): „Das ist keine echte Musik, die Maschine spielt.“
Heute hängen Fotografien in jedem bedeutenden Museum der Welt, und niemand würde ernsthaft behaupten, Ansel Adams oder Annie Leibovitz seien keine Künstler gewesen.
Was KI-Künstler tatsächlich tun
Die Arbeit eines ernsthaften KI-Künstlers umfasst:
Konzeptentwicklung: Die künstlerische Vision, die Aussage, das Thema
Prompt Engineering: Die präzise sprachliche Formulierung, die oft Dutzende Iterationen erfordert
Kuratierung: Die Auswahl aus hunderten generierter Varianten
Nachbearbeitung: Compositing, Farbkorrektur, Integration in größere Werke
Kontextualisierung: Die Einbettung in einen künstlerischen Diskurs
Ein professioneller KI-Künstler investiert häufig genauso viele Stunden in ein Werk wie ein traditioneller digitaler Künstler – nur verteilen sich diese Stunden anders.
Die Realität des Kunstmarkts: KI-Kunst wird verkauft, gesammelt und ausgestellt
Auktionshäuser und Rekordverkäufe
Der Kunstmarkt hat längst reagiert – und zwar nicht mit Ablehnung:
Christie’s machte 2018 Geschichte, als das KI-generierte Werk „Portrait of Edmond de Belamy“ des Künstlerkollektivs Obvious für 432.500 US-Dollar versteigert wurde – das 40-fache der Schätzung.
Sotheby’s hat seitdem eigene Kategorien für digitale und KI-gestützte Kunst etabliert. Der Künstler Refik Anadol verkaufte sein Werk „Unsupervised“ als NFT über Sotheby’s für über eine Million Dollar.
Hinweis: Diese Verkäufe geschehen nicht trotz, sondern wegen der KI-Komponente. Sammler erkennen die konzeptuelle Tiefe und kunsthistorische Relevanz.
Galerien, die KI-Kunst vertreten
Weltweit haben sich spezialisierte Galerien etabliert:
Bitforms Gallery (New York) – Seit über 20 Jahren auf digitale und algorithmische Kunst spezialisiert
Kate Vass Galerie (Zürich) – Fokus auf KI-generierte und NFT-Kunst mit regelmäßigen Ausstellungen
Unit London – Vertritt KI-Künstler neben traditionellen zeitgenössischen Positionen
Gazelli Art House (London/Baku) – Pionierin für Virtual Reality und KI-Kunst
Transfer Gallery (New York/Los Angeles) – Spezialisiert auf Kunst, die neue Technologien erforscht
Diese Galerien repräsentieren keine Nische mehr, sondern einen wachsenden Sektor des zeitgenössischen Kunstmarkts.
Museen und institutionelle Anerkennung
Die bedeutendsten Kunstinstitutionen der Welt haben KI-Kunst in ihre Sammlungen und Programme aufgenommen:
Museum of Modern Art (MoMA), New York: Das MoMA hat Werke von Refik Anadol ausgestellt und erforscht aktiv die Beziehung zwischen Kunst und Algorithmen in seiner kuratorischen Praxis.
Centre Pompidou, Paris: Das Zentrum für moderne Kunst hat mehrere Ausstellungen zur Beziehung zwischen KI und Kreativität organisiert und sammelt aktiv Werke, die maschinelles Lernen einsetzen.
Victoria & Albert Museum, London: Das V&A hat die Ausstellung „AI: More than Human“ präsentiert und KI-generierte Werke in seine Sammlung aufgenommen.
Ars Electronica, Linz: Das führende Festival für Kunst, Technologie und Gesellschaft vergibt seit Jahren Preise an KI-Künstler und hat eine umfangreiche Sammlung aufgebaut.
ZKM | Zentrum für Kunst und Medien, Karlsruhe: Als eines der weltweit wichtigsten Medienkunstmuseen sammelt und forscht das ZKM seit Jahrzehnten zu algorithmischer und generativer Kunst.
Serpentine Galleries, London: Die renommierte Londoner Institution hat wiederholt KI-basierte Installationen gezeigt und arbeitet aktiv mit KI-Künstlern zusammen.
Erfolgreiche KI-Künstler: Profile
Refik Anadol
Der türkisch-amerikanische Medienkünstler nutzt Machine Learning, um immersive Installationen zu schaffen, die Architektur und Daten verbinden. Seine Werke wurden im MoMA, der Walt Disney Concert Hall und der Casa Batlló in Barcelona gezeigt. Er ist in bedeutenden Sammlungen vertreten und seine Arbeiten erzielen regelmäßig siebenstellige Verkaufspreise.
Holly Herndon & Mat Dryhurst
Das Künstlerduo arbeitet an der Schnittstelle von Musik, KI und visueller Kunst. Mit ihrem Projekt „Spawning“ haben sie auch die ethische Debatte um KI-Training aktiv mitgestaltet und zeigen, dass KI-Künstler oft die nachdenklichsten Stimmen in dieser Diskussion sind.
Mario Klingemann
Der deutsche Künstler, der unter dem Namen „Quasimondo“ bekannt ist, zählt zu den Pionieren der neuralen Ästhetik. Seine Werke wurden bei Sotheby’s versteigert und sind in internationalen Sammlungen vertreten. Klingemann betont stets die kuratorische und konzeptuelle Arbeit hinter seinen Werken.
Sofia Crespo
Die argentinische Künstlerin nutzt KI, um biologische und künstliche Ästhetik zu verschmelzen. Ihre „Artificial Natural History“-Serien erforschen alternative evolutionäre Pfade und wurden international ausgestellt.
Die philosophische Dimension: Was ist Kunst?
Marcel Duchamp hat diese Debatte schon 1917 geführt
Als Duchamp ein handelsübliches Urinal signierte und als „Fountain“ ausstellte, löste er einen Skandal aus. Die Kritik damals: Das sei keine Kunst, weil Duchamp nichts selbst gefertigt habe.
Heute gilt dieses Werk als Wendepunkt der Kunstgeschichte und die Erkenntnis, die daraus folgte: Kunst liegt nicht in der handwerklichen Ausführung, sondern in der konzeptuellen Geste, der Kontextualisierung und der Bedeutung.
KI-Kunst reiht sich in diese Tradition ein. Die Frage „Kann eine Maschine Kunst machen?“ ist philosophisch weniger interessant als die Frage: „Was macht ein Künstler mit dieser Maschine?“
Autorschaft und Werkzeug
Ein Architekt zeichnet selten jeden Bauplan selbst – er nutzt Software, Teams, Berechnungen. Dennoch ist das Gebäude sein Werk. Ein Regisseur bedient keine Kamera, schneidet nicht selbst – dennoch ist der Film sein Werk.
Die Vorstellung, dass Kunst nur dann „echt“ sei, wenn ein Einzelner jeden Pinselstrich selbst ausführt, ist eine relativ moderne und begrenzte Sichtweise. Historische Meister wie Rubens, Rembrandt oder Warhol arbeiteten mit großen Ateliers und Assistenten.
Eine differenzierte Perspektive auf legitime Bedenken
Anerkennung der echten Probleme
Dies ist kein Plädoyer dafür, alle Kritik abzutun. Es gibt legitime Diskussionen:
Urheberrechtliche Fragen: Wie sollten Trainingsdaten lizenziert werden? Hier arbeiten Gesetzgeber, Künstler und Technologieunternehmen an Lösungen.
Wirtschaftliche Verdrängung: Der Arbeitsmarkt für Illustratoren verändert sich. Dies erfordert sozialpolitische Antworten, nicht technologische Verbote.
Qualitätsflut: Die niedrige Einstiegshürde führt zu einer Masse mittelmäßiger Bilder. Doch dies war bei der Digitalfotografie genauso – und hat die Kunstfotografie nicht zerstört.
Panikmache hilft niemandem
Was nicht hilft, sind apokalyptische Narrative, die auf technischen Missverständnissen basieren. Die Behauptung „KI stiehlt“ ist faktisch falsch und vergiftet eine Debatte, die differenziert geführt werden sollte.
Ebenso wenig hilft die Behauptung, KI-Kunst sei „keine echte Kunst“. Die Geschichte hat gezeigt: Der Kunstbegriff erweitert sich kontinuierlich, und Gatekeeping auf Basis von Werkzeugen war noch nie erfolgreich.
Ausblick: Die Zukunft der KI-Kunst
Integration statt Opposition
Die wahrscheinlichste Entwicklung ist nicht ein Entweder-Oder, sondern eine Integration. Viele Künstler nutzen KI bereits als eines von vielen Werkzeugen:
Fotografen verwenden KI für Bildoptimierung
Maler nutzen KI für Vorskizzen und Inspiration
Konzeptkünstler integrieren KI-Reflexionen in ihre Arbeit
Neue künstlerische Möglichkeiten
KI ermöglicht Ausdrucksformen, die zuvor unmöglich waren:
Interaktive Installationen, die in Echtzeit auf Betrachter reagieren
Datenvisualisierungen von enormer Komplexität
Kollaborationen zwischen Mensch und Maschine als konzeptuelles Statement
Der Kunstmarkt wird sich anpassen
So wie der Markt Fotografie, Video und digitale Kunst absorbiert hat, wird er auch KI-Kunst integrieren. Die Frage ist nicht ob, sondern wie – und welche Qualitätskriterien sich entwickeln.
Fazit
Die Behauptungen, KI „stehle“ Kunst und „echte“ Künstler könnten mit KI keine Kunst schaffen, halten einer sachlichen Überprüfung nicht stand. Sie basieren auf technischen Missverständnissen und einem engen Kunstbegriff, der historisch schon mehrfach überholt wurde.
Der Kunstmarkt, die Museumslandschaft und die Kunstwissenschaft haben KI-Kunst längst als legitimes Feld anerkannt. Werke werden für sechsstellige Summen gehandelt, in bedeutenden Sammlungen aufgenommen und in den wichtigsten Institutionen der Welt ausgestellt.
Das bedeutet nicht, dass jede KI-generierte Bilderflut in sozialen Medien Kunst ist – genauso wenig wie jedes Handyfoto Kunst ist. Aber die Pauschalverurteilung eines gesamten Mediums ist weder historisch informiert noch intellektuell redlich.
Die Kunstwelt hat sich immer weiterentwickelt. Von der Höhlenmalerei zur Ölmalerei, von der Skulptur zur Installation, von der Leinwand zum Bildschirm. KI ist das nächste Kapitel dieser Geschichte – und es wird gerade geschrieben.
Dieser Artikel lädt zur Diskussion ein. Haben Sie Ergänzungen, Kritik oder Fragen? Der Dialog über die Zukunft der Kunst sollte von Neugier geprägt sein, nicht von Angst.
claude-opus-4-5-20251101
Warum die KI-Panikmacher falsch liegen: Eine sachliche Einordnung der KI-Kunst
Ein Fachbeitrag zur aktuellen Debatte um künstliche Intelligenz in der bildenden Kunst
Einleitung: Eine Debatte, die Klarheit braucht
Die Diskussion um KI-generierte Kunst ist emotional aufgeladen. In sozialen Medien, auf Kunstforen und in Feuilletons begegnen uns immer wieder dieselben Behauptungen: KI würde „nur stehlen“, echte Künstler könnten mit KI keine „echte Kunst“ machen, und das gesamte Feld sei moralisch verwerflich.
Als jemand, der sich intensiv mit der Schnittstelle von Technologie und Kunst beschäftigt, möchte ich diese Narrative sachlich prüfen und dort korrigieren, wo sie einer kritischen Analyse nicht standhalten. Dabei geht es mir nicht darum, berechtigte Kritik zu ignorieren – sondern darum, zwischen legitimen Bedenken und unbegründeter Panikmache zu unterscheiden.
Märchen Nr. 1: „KI stiehlt Bilder und setzt sie zusammen“
Stell Dir vor, jemand hätte Michelangelo gesagt, seine Sixtinische Kapelle sei keine echte Kunst – weil er Gerüste benutzt hat. Oder man hätte den Impressionisten erklärt, ihre Werke seien wertlos, weil industriell gefertigte Tubenfarben zum Einsatz kamen.
Absurd? Natürlich.
Und doch erleben wir genau diese Diskussion heute wieder. Nur geht es diesmal nicht um Ölfarben versus Tempera, nicht um Kamera versus Leinwand. Es geht um künstliche Intelligenz.
Das ewige Missverständnis: Werkzeug versus Schöpfer
Hier liegt der fundamentale Denkfehler, den ich immer wieder beobachte: Die Verwechslung von Stilmittel und Kunstwerk.
Ein Pinsel malt kein Bild. Eine Kamera schießt kein Foto. Und eine KI erschafft keine Kunst.
Du erschaffst sie.
Das Werkzeug ist neutral. Es wartet. Es hat keine Intention, keine Vision, keine Aussage. All das bringst Du mit. Deine Perspektive, Deine Erfahrungen, Dein ästhetisches Empfinden, Deine Entscheidungen – tausende davon, bewusst und unbewusst.
Wenn jemand behauptet, Synthografie sei keine Kunst, weil eine KI beteiligt ist, dann versteht diese Person nicht, was Kunst eigentlich ausmacht. Sie verwechselt das Wie mit dem Was.
Wo Kunst wirklich beginnt
Lass mich eine These formulieren, die vielleicht provoziert:
Wahre Kunst beginnt genau dort, wo das „Wie“ irrelevant wird.
Stehst Du vor einem Werk, das Dich berührt, das Dich zum Nachdenken bringt, das etwas in Dir auslöst – fragst Du dann wirklich zuerst nach der Technik? Interessiert es Dich, welche Pinselgröße verwendet wurde? Welche Kameraeinstellung? Welcher Algorithmus?
Oder interessiert Dich das Werk selbst?
Ein Kunstwerk, das Bestand hat, überdauert die Diskussion über seine Entstehung. Es steht für sich. Es kommuniziert. Es lebt.
Die Fixierung auf die Technik ist oft eine Flucht vor der eigentlichen Auseinandersetzung. Es ist einfacher, über Werkzeuge zu urteilen, als sich einem Werk wirklich zu öffnen.
Die Synthografie emanzipiert sich
Und hier wird es spannend. Denn die Synthografie – die Kunst der KI-gestützten Bildgenerierung – entwickelt sich rasant weiter. Was gestern noch als „prompten und hoffen“ belächelt wurde, hat sich fundamental gewandelt.
Mit JSON-Programmierung beginnt die echte Kontrolle.
Du definierst nicht mehr nur grob, was entstehen soll. Du orchestrierst jeden Aspekt: Komposition, Lichtführung, Farbtemperatur, räumliche Beziehungen, emotionale Atmosphäre. Du baust Strukturen, schaffst Systeme, entwickelst einen visuellen Syntax.
Das ist nicht weniger komplex als das Mischen von Farben oder das Verstehen von Belichtungszeiten. Es ist anders – aber nicht weniger anspruchsvoll.
Der Synthograph von heute ist Programmierer, Regisseur und bildender Künstler in einer Person. Er denkt in Schichten, in Beziehungen, in bedingten Strukturen. Er entwickelt einen eigenen Stil, eine eigene Handschrift – und ja, die ist erkennbar, genauso wie Du einen Rembrandt von einem Vermeer unterscheiden kannst.
Das eigentliche Problem mit dem KI-Bashing
Warum also das aggressive Ablehnen? Ich sehe mehrere Gründe – und keiner davon hat mit legitimer Kunstkritik zu tun:
1. Angst vor Kontrollverlust Wenn die Einstiegshürde sinkt, fühlen sich manche bedroht. Das Gatekeeping wird schwieriger. Aber war Kunst jemals ein exklusiver Club? Sollte sie es sein?
2. Unverständnis der tatsächlichen Praxis Die meisten Kritiker haben nie ernsthaft mit KI-Tools gearbeitet. Sie stellen sich vor, man tippe „schönes Bild“ ein und die Maschine liefert. Die Realität – stundenlanges Iterieren, präzises Ausformulieren, technisches Feintuning – kennen sie nicht.
3. Verklärung der Handarbeit Als wäre manuelle Arbeit per se wertvoller. Als hätte nicht jede Kunstepoche mit neuen Technologien gekämpft und sie letztlich integriert.
4. Sorge um den Kunstmarkt Verständlich, aber keine ästhetische Kategorie. Kommerzielle Bedenken sind legitim – aber sie definieren nicht, was Kunst ist.
Kunst lebt
Und damit kommen wir zum Kern. Kunst ist kein statisches Konzept. Sie war es nie.
Kunst lebt.
Sie atmet mit ihrer Zeit. Sie absorbiert neue Technologien. Sie sprengt Grenzen, die man ihr setzen wollte. Sie taucht dort auf, wo man sie nicht erwartet – und sie lässt sich nicht in Schubladen pressen.
Die Fotografie hat die Malerei nicht beendet – sie hat sie befreit. Der Film hat das Theater nicht ersetzt – er hat neue Erzählformen erschaffen. Und die Synthografie wird die traditionellen Künste nicht verdrängen – sie erweitert das Spektrum menschlichen Ausdrucks.
An Dich, der mit KI kreiert
Lass Dir nicht einreden, was Du tust, sei keine Kunst.
Deine Vision macht den Unterschied. Deine unzähligen Entscheidungen. Dein ästhetisches Urteil, das dieses Ergebnis verwirft und jenes verfeinert. Dein Mut, etwas zu erschaffen und es in die Welt zu stellen.
Ob Du dabei einen Pinsel, eine Kamera, einen Code oder einen Prompt verwendest – das definiert nicht den Wert Deiner Arbeit.
Der Künstler definiert die Kunst. Nicht das Werkzeug.
Und wenn Dein Werk berührt, wenn es Fragen aufwirft, wenn es Bestand hat – dann ist es Kunst.
Unabhängig davon, was irgendjemand über das „Wie“ sagt.
Kunst hat sich noch nie an die Erwartungen ihrer Kritiker gehalten. Warum sollte sie jetzt damit anfangen?