Tag Archive: ki




Letzte Woche hab ich was gelesen, das mich seitdem nicht mehr loslässt. Otto – ja, das Otto, bei dem deine Eltern früher die Möbel bestellt haben und du heimlich den Katalog durchgeblättert hast wegen der Unterwäsche-Seiten – macht keine Fotoshootings mehr für Mode. Keine Models mehr. Keine Fotografen. Keine Studios.

Stattdessen: KI. Komplett.

Ein Kleidungsstück wird einmal fotografiert, flach auf dem Tisch oder auf einer Schneiderpuppe. Dann rechnet ein Algorithmus aus, wie das an einem Menschen aussehen würde. Der Mensch existiert nicht. Der wurde auch generiert.

Und seitdem denk ich drüber nach. Jeden Tag ein bisschen. Und ich komm nicht zu einem klaren Ergebnis. Was vielleicht auch der Punkt ist.


Mein erster Gedanke war: Klar

Mein allererster Gedanke, als ich das gelesen hab, war nicht Empörung. Der war: Ja logisch. War doch nur eine Frage der Zeit.

Wenn du ein Unternehmen bist, das jeden Tag hunderte von Produkten online stellen muss – jedes Teil in verschiedenen Farben, verschiedenen Größen, aus verschiedenen Winkeln – dann ist ein klassisches Shooting ein Wahnsinn. Models buchen, Studio mieten, Stylisten, Visagisten, Fotografen, Assistenten. Für jede Bluse ein halber Tag. Für jeden Hoodie eine halbe Produktion.

Und jetzt kommt jemand und sagt: Das geht auch in drei Minuten. Für einen Bruchteil der Kosten.

Natürlich machen die das. Jeder würde das machen. Das ist nicht bösartig, das ist Betriebswirtschaft. Das ist ein Vorstand, der auf Zahlen guckt und sagt: Warum geben wir Millionen für was aus, das eine Maschine billiger kann?

Mein zweiter Gedanke war dann allerdings: Moment mal.


Die Leute, über die keiner redet

Was bei der ganzen Effizienz-Diskussion nämlich untergeht: Da haben echte Menschen gearbeitet. Nicht irgendwelche abstrakten Arbeitskräfte auf einer Tabelle, sondern Leute mit Namen und Miete und Kindern.

Fotografen, die sich jahrelang einen Ruf aufgebaut haben. Die angefangen haben als Assistenten, die Koffer geschleppt und Stative aufgebaut haben, bevor sie irgendwann selbst hinter die Kamera durften. Models, für die das ein Job war – nicht glamourös wie in den Magazinen, aber ehrlich und regelmäßig. Visagisten, die morgens um sechs im Studio standen. Stylisten, die wussten, welche Klammer wo hin muss, damit die Bluse richtig sitzt. Beleuchter. Produktionsassistenten. Retuscheure.

Ein ganzes Ökosystem. Aufgebaut über Jahrzehnte.

Und das wird jetzt nicht langsam umgebaut oder transformiert oder wie auch immer man das heute nennt. Das wird abgeschaltet.

Ich hab selbst lange genug im Kreativbereich gearbeitet, um zu wissen, wie sich das anfühlt, wenn plötzlich ein ganzer Auftragszweig wegbricht. Nicht weil du schlecht bist. Nicht weil sich der Markt verändert hat. Sondern weil eine Maschine es billiger kann.

Ja, es werden neue Jobs entstehen. KI-Kuratoren, Prompt-Designer, virtuelle Set-Gestalter, was auch immer. Aber erzähl das mal der Fotografin, die gerade ihre letzte Rechnung geschrieben hat. Die hat zwanzig Jahre Erfahrung und eine Ausrüstung für hunderttausend Euro. Die will nicht umschulen. Die will fotografieren. Das ist ihr Beruf. Das ist ihr Leben.


Die Sache mit der Ehrlichkeit

Was mich aber noch mehr beschäftigt als die wirtschaftliche Seite, ist die Frage nach der Ehrlichkeit.

Modefotografie war schon immer fake. Das muss man klar sagen. Kein Katalogbild war je die Realität. Da wurde geschminkt, beleuchtet, retuschiert, Kleidung mit Klammern auf Figur gezurrt. Windmaschinen für die perfekte Haarsträhne. Photoshop für alles, was danach noch nicht gestimmt hat. Beine verlängert, Taille schmaler, Haut geglättet bis zur Unkenntlichkeit.

Das war nie die Wahrheit. Das war immer Inszenierung.

Aber da war immer noch ein Mensch. Ein echter Mensch, der in dem Kleid stand. Der sich bewegt hat. Der eine Stimmung hatte an dem Tag. Der vielleicht gerade verliebt war oder müde oder genervt – und manchmal hat genau das das Bild besonders gemacht. Dieses Etwas, das man nicht planen kann.

Jetzt ist da kein Mensch mehr. Da ist ein Algorithmus, der einen Menschen simuliert. Der berechnet, wie Stoff fallen würde an einem Körper, den es nicht gibt. Der Schatten erfindet, die kein Licht geworfen hat. Der ein Gesicht generiert, das nie gelacht hat, nie geweint hat, nie existiert hat.

Und der Kunde auf der Website sieht ein Bild und denkt: So sieht das Kleid an einem Menschen aus.

Tut es aber nicht. Weil es nie an einem Menschen war.

Ist das schlimm? Ich weiß es ehrlich gesagt nicht. Ich schwanke. Einerseits denke ich: Wenn die Leute wissen, dass das KI ist, ist es okay. Ist ja nur Produktfotografie, kein Journalismus. Andererseits: Wissen sie es? Steht das irgendwo? Steht unter dem Bild „Dieses Model existiert nicht“? Ich hab nachgeschaut. Da steht nichts.

Und das stört mich.


Das Diversity-Paradox

Ein Argument, das immer kommt wenn es um KI-Models geht: Vielfalt. Man kann auf Knopfdruck Models in jeder Körperform, jedem Alter, jeder Ethnie generieren. Theoretisch kann jeder Kunde das Kleidungsstück an jemandem sehen, der ihm ähnlich sieht. Alle Hautfarben, alle Größen, alle Formen.

Klingt großartig. Klingt nach Fortschritt. Klingt nach dem, was wir seit Jahren fordern.

Aber denk mal eine Sekunde weiter.

Statt echten Menschen mit echten Körpern und echten Geschichten eine Bühne zu geben – und sie dafür zu bezahlen – generiert man ihre digitalen Abbilder. Die simulierte Vielfalt ersetzt die echte. Auf dem Bildschirm sieht es divers aus. Hinter dem Bildschirm sitzt ein Algorithmus und ein Techniker.

Das ist wie wenn eine Firma sagt: Wir sind total inklusiv – und dann auf der Party nur Hologramme einlädt.

Die Bilder sind vielfältig. Die Produktion dahinter ist es nicht mehr. Da sitzt kein Model mit Down-Syndrom, das stolz vor der Kamera steht. Da sitzt kein Plus-Size-Model, das zeigt, dass Mode für alle da ist. Da sitzt eine Software, die einen Datensatz abbildet.

Ist das Repräsentation? Oder ist das die billigste Form von Alibi?


Was ich vermissen werde

Jeder, der mal bei einem Shooting dabei war, kennt diese Momente. Wo etwas Ungeplantes passiert. Wo das Model eine Bewegung macht, die niemand vorhergesehen hat. Wo das Licht plötzlich durch ein Fenster fällt, das niemand beachtet hat. Wo der Stylist im letzten Moment noch was ändert und plötzlich stimmt alles. Wo ein kleiner Fehler das Bild erst lebendig macht.

Ich erinnere mich an ein Shooting, Jahre her, wo das Model zwischen zwei Takes gelacht hat. Nicht für die Kamera, einfach so, weil jemand was Lustiges gesagt hat. Die Fotografin hat ausgelöst. Das Bild war besser als alle geplanten Shots zusammen. Weil es echt war.

Diese Momente gibt es in der KI nicht.

Die KI kennt keine Zufälle. Sie kennt Wahrscheinlichkeiten. Sie kann Variationen berechnen, aber keine echten Überraschungen produzieren. Alles was sie macht, liegt innerhalb des Erlernten. Nichts liegt wirklich daneben. Und genau das fehlt.

Die besten Bilder, die ich kenne, haben einen Bruch drin. Irgendwas, das nicht perfekt ist. Ein Blick, der nicht gestellt wirkt. Eine Falte, die nicht glattgezogen wurde. Eine Bewegungsunschärfe, die eigentlich ein Fehler ist, aber dem Bild Leben gibt.

Das ist der Unterschied zwischen einem Bild und einem generierten Output. Zwischen Fotografie und Berechnung. Zwischen etwas, das passiert ist, und etwas, das errechnet wurde.


Der schleichende Gewöhnungseffekt

Was mich vielleicht am meisten beunruhigt, ist nicht die Technik selbst. Die ist beeindruckend, keine Frage. Was mich beunruhigt, ist die Gewöhnung.

In einem Jahr werden wir KI-generierte Produktbilder sehen und es nicht mehr merken. Nicht weil wir dumm sind, sondern weil unser Auge sich anpasst. Weil wir es normal finden werden. So wie wir es normal finden, dass Gesichter in Zeitschriften keine Poren haben und Beine in Werbung immer gleich lang sind.

Und wenn wir uns daran gewöhnt haben, dass die Menschen auf Produktbildern nicht echt sind, gewöhnen wir uns vielleicht auch daran, dass die Menschen in Kampagnen nicht echt sind. Und dann in Werbespots. Und dann in Filmen.

Irgendwann sind wir umgeben von Bildern von Menschen, die nicht existieren. Und wir finden das normal.

Ich weiß nicht, ob mich das gruselt oder ob ich übertreibe. Wahrscheinlich beides.


Die Katalog-Frage

Hier muss ich allerdings auch ehrlich sein.

Otto ist ein Massenhändler. Die brauchen tausende Bilder pro Woche. Für die war Fotografie nie Kunst. Das war Logistik. Fließband mit Blitz und Kamera. Nächstes Teil, nächster Click, nächstes Bild.

Dass die auf KI umsteigen, ist ungefähr so überraschend wie die Tatsache, dass Fabriken Roboter benutzen. Die Frage war nie ob, sondern wann.

Und Katalogfotografie – sorry an alle Kollegen, die das gemacht haben – war nie der Bereich, in dem die Seele der Fotografie wohnt. Das war ehrliche Arbeit, oft gut bezahlt, aber es war Handwerk am Fließband. Da ging es nicht um den magischen Moment. Da ging es darum, dass die Bluse gut aussieht und die Farbe stimmt.

Die Frage ist nur: Bleibt es dabei? Oder ist das der Anfang?

Heute Katalog. Morgen Kampagnen. Übermorgen Editorials. Nächstes Jahr Werbespots. In fünf Jahren Spielfilme.

Ich weiß nicht, wo die Grenze ist. Ich weiß nicht mal, ob es eine gibt.


Was ich glaube

Ich glaube, dass es einen Punkt geben wird, an dem die Leute genug haben von der Perfektion. An dem das Generierte nervt. An dem genau das Echte, Unperfekte, Menschliche wieder wertvoll wird.

Das war immer so. Jede Technologie erzeugt ihre Gegenbewegung. Vinyl in Zeiten von Streaming. Handwerk in Zeiten von Massenproduktion. Analog in Zeiten von Digital.

Vielleicht wird es in ein paar Jahren ein Qualitätsmerkmal sein: „Dieses Bild wurde mit echten Menschen gemacht.“ So wie heute auf Lebensmitteln steht: „Von echten Bauern.“ Das wäre irgendwie absurd und traurig gleichzeitig.

Aber bis dahin werden viele Leute ihre Jobs verlieren. Und viele Bilder werden ihre Seele verlieren. Und wir werden uns daran gewöhnen, weil wir uns an alles gewöhnen.


Am Ende

Ich bin nicht gegen das, was Otto macht. Ich verstehe es. Ich würde wahrscheinlich genauso entscheiden, wenn ich deren Zahlen sehen würde.

Aber ich bin traurig darüber. Auf eine stille Art. So wie man traurig ist, wenn ein Laden zumacht, in den man nie besonders oft gegangen ist, aber von dem man wusste, dass er da ist.

Weil wieder ein Stück von dem verschwindet, was Fotografie für mich ausgemacht hat. Dieses Zusammenkommen von Menschen. Dieses gemeinsame Arbeiten an einem Bild. Diese Energie im Studio, wenn alles stimmt und alle wissen, dass gerade was Gutes passiert.

Das wird es noch geben. Bei kleineren Projekten, bei Leuten die es sich leisten können und wollen. Bei denen, die verstehen, dass der Prozess genauso wichtig ist wie das Ergebnis.

Aber es wird weniger.

Und irgendwann sitzen wir alle vor Bildschirmen voller perfekter Menschen, die nicht existieren, in perfekter Kleidung, die perfekt fällt, in perfektem Licht, das nie geleuchtet hat.

Und dann wundern wir uns, warum uns nichts mehr berührt.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mich was umtreibt und ich es loswerden muss. Wird transkribiert und mit KI in Form gebracht. Die Gedanken, die Widersprüche und die leise Traurigkeit sind komplett meine eigenen.



Okay, das ist mir ein bisschen peinlich.

Gestern hab ich euch erzählt, ihr sollt mir eine Mail schreiben, wenn ihr das Video sehen wollt. Schöne Idee. Nur hab ich die falsche Mail-Adresse hingeschrieben.

Ja, wirklich.

Da stand brownz@brownzart.at – richtig wäre brownz@brownz.art gewesen. Kleiner Unterschied, große Wirkung: Die meisten Mails sind im Nirgendwo gelandet.

Ein paar von euch hatten meine richtige Adresse offenbar schon gespeichert und haben es trotzdem geschafft. Die haben den Link auch bekommen. Aber der Rest – tja. Sorry dafür. Echt.

Im Originalbeitrag von gestern ist die Adresse jetzt korrigiert. Wer den nochmal lesen will:

10 Seconds Into The Future – der originale Beitrag


Aber eigentlich ist es jetzt eh egal

Weil ich das Video in der Zwischenzeit einfach auf YouTube hochgeladen hab. Als verstecktes Video, 720p HD. Nicht so gut wie die Dropbox-Version, aber es reicht, um den Wahnsinn zu sehen.

Hier ist der Link:

Einfach draufklicken und gucken. Kein Download nötig, keine Mail, kein Aufwand. Wer gestern nicht durchgekommen ist, kommt jetzt einfach so dran.


Was ich mir trotzdem wünschen würde

Schaut es euch an. Und dann sagt mir, was ihr denkt.

8 Minuten und 15 Sekunden Fiebertraum, zusammengebaut aus Gesprächen mit der KI, irgendwann zwischen Mitternacht und drei Uhr morgens. Kein Plan, kein Storyboard, kein Konzept. Nur Wahnsinn mit Rhythmus.

Ich bin immer noch zu nah dran, um das selbst einzuordnen. Ich brauch eure Augen. Und eure Ehrlichkeit.

Ob per Kommentar, per YouTube-Kommentar, per Mail an die – diesmal richtige – Adresse brownz@brownz.art oder per Rauchzeichen. Hauptsache, ihr sagt was.


Und nochmal sorry wegen der Adresse. Passiert mir hoffentlich nicht nochmal.

Wahrscheinlich aber doch. Weil um drei Uhr morgens ist Korrekturlesen halt nicht so meine Stärke.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen aus Sprachmemos – meistens wenn mir was durch den Kopf geht. Wird transkribiert und dann mit KI in Form gebracht. Die Peinlichkeit wegen der falschen Mail-Adresse ist allerdings hundert Prozent handgemacht.



Kling v3 ist draußen und mein Feed explodiert. Überall Videos, die vor ein paar Monaten noch unmöglich gewesen wären. Leute, die vorher nie was mit Bewegtbild gemacht haben, posten plötzlich Clips, die aussehen wie aus einem Kinotrailer.

Das ist großartig. Wirklich. Aber ich seh auch die andere Seite. Die Frustration, wenn es nicht klappt. Die Verwirrung, weil Video-KI eben nicht funktioniert wie Bild-KI. Die Enttäuschung, wenn das Ergebnis zwar technisch beeindruckend ist, aber irgendwie… leblos wirkt.

Also dachte ich mir: Schreib mal auf, was du gelernt hast. Nicht als Anleitung für Kling speziell – die Technik ändert sich eh alle paar Monate – sondern als Grundlagen-Ding. Sachen, die du wissen solltest, bevor du anfängst. Fehler, die du nicht machen musst, weil ich sie schon gemacht hab.

Hier ist alles, was ich Einsteigern erzählen würde.


Vergiss erstmal alles, was du über Bild-KI weißt

Okay, nicht alles. Aber vieles.

Wenn du mit Midjourney oder Stable Diffusion gearbeitet hast, denkst du vielleicht: Video ist ja nur bewegtes Bild. Kann so anders nicht sein.

Doch. Ist es.

Bei Bildern geht es um einen Moment. Eine Komposition. Ein Gefühl, eingefroren in der Zeit. Du kannst stundenlang am Prompt feilen, verschiedene Seeds ausprobieren, am Ende wählst du das beste Bild aus und fertig.

Bei Video geht es um Bewegung. Um Zeit. Um das, was zwischen den Frames passiert. Und da wird es kompliziert.

Denn die KI muss nicht nur verstehen, wie etwas aussieht, sondern auch, wie es sich bewegt. Wie Stoff fällt. Wie Haare wehen. Wie ein Gesicht sich verzieht, wenn jemand lächelt. Das sind komplett andere Probleme.

Und deshalb funktionieren Prompts, die bei Bildern super klappen, bei Video oft gar nicht. Weil du jetzt nicht nur beschreibst, was zu sehen ist, sondern auch, was passiert.


Denk in Szenen, nicht in Bildern

Der größte Fehler, den ich am Anfang gemacht hab: Ich hab versucht, komplexe Bilder in Bewegung zu setzen.

Ein episches Fantasy-Bild mit zwanzig Details, Magie, Explosionen, fliegenden Objekten – und dann wundern, warum das Video aussieht wie ein Albtraum auf Drogen.

Video-KI kann noch nicht alles gleichzeitig. Je mehr du reinpackst, desto wahrscheinlicher geht irgendwas schief. Gesichter verformen sich. Objekte verschmelzen. Physik hört auf zu existieren.

Was funktioniert: Einfache Szenen mit klarer Handlung.

Eine Person, die langsam den Kopf dreht. Rauch, der aufsteigt. Wasser, das fließt. Blätter, die fallen. Kamerafahrt durch eine Landschaft.

Je simpler die Bewegung, desto besser das Ergebnis. Das klingt langweilig, aber es ist die Wahrheit. Die beeindruckendsten Clips, die ich gesehen hab, sind oft die einfachsten.

Komplexität kannst du später im Schnitt aufbauen. Aber das einzelne Video-KI-Segment sollte eine Sache gut machen, nicht zehn Sachen mittelmäßig.


Länge ist dein Feind

Noch so eine Lektion, die wehgetan hat.

Kling v3 und ähnliche Tools können mittlerweile längere Clips generieren. Zehn Sekunden, manchmal mehr. Und die Versuchung ist groß, das auch zu nutzen. Mehr ist besser, oder?

Nee.

Je länger der Clip, desto mehr Möglichkeiten hat die KI, Fehler zu machen. Am Anfang sieht alles super aus, und nach fünf Sekunden fängt plötzlich das Gesicht an zu mutieren. Oder die Physik macht Feierabend. Oder irgendwas Seltsames passiert, das du nicht beschreiben kannst, aber das definitiv falsch ist.

Mein Tipp: Generiere kürzere Clips. Drei bis fünf Sekunden. Die sind stabiler. Und wenn du längere Sequenzen brauchst, schneidest du mehrere kurze zusammen.

Das klingt nach mehr Arbeit, ist es auch. Aber das Ergebnis ist tausendmal besser, als einen langen Clip zu haben, der zur Hälfte unbrauchbar ist.


Kamera-Bewegungen verstehen

Das ist ein Punkt, den viele unterschätzen.

Video-KI kann nicht nur Objekte bewegen, sondern auch die Kamera. Zoom, Pan, Tilt, Dolly – all das lässt sich steuern, je nachdem welches Tool du nutzt.

Aber hier passieren die meisten Anfängerfehler.

Zu viel Bewegung auf einmal. Zoom während die Kamera schwenkt während das Objekt sich bewegt. Das Ergebnis ist Chaos. Visuelles Erbrechen.

Oder das Gegenteil: Gar keine Kamerabewegung, und der Clip wirkt statisch wie eine Diashow.

Die Wahrheit liegt in der Mitte. Eine kontrollierte, langsame Bewegung pro Clip. Entweder die Kamera bewegt sich, oder das Motiv bewegt sich. Selten beides gleichzeitig.

Guck dir mal Filme an und achte drauf, wie wenig oft passiert. Wie langsam Kamerafahrten sind. Wie viel Ruhe in guten Szenen steckt. Das ist kein Zufall.


Sound ist die halbe Miete

Jetzt kommen wir zu dem Teil, den die meisten völlig ignorieren. Und genau deshalb sehen ihre Videos aus wie… KI-Demos.

Ein Video ohne Sound ist kein Video. Es ist ein bewegtes Bild. Der Ton macht den Unterschied zwischen „ganz nett“ und „wow“.

Und ich rede nicht nur von Musik. Ich rede von allem.

Atmosphäre. Umgebungsgeräusche. Wind. Schritte. Das Rascheln von Stoff. Das Knistern von Feuer. All diese kleinen Dinge, die dein Gehirn erwartet, auch wenn du nicht bewusst drauf achtest.

Wenn du ein Video von einem Wald hast und es ist komplett still – irgendwas fühlt sich falsch an. Dein Gehirn weiß, dass Wälder nicht still sind. Da sind Vögel, Wind, Blätter, irgendwas.

Also: Nimm dir Zeit für Sound. Mindestens genauso viel wie für das Video selbst.


Wo du Sounds herbekommst

Es gibt Tonnen von Ressourcen. Kostenlose und bezahlte.

Freesound.org ist ein Klassiker. Riesige Bibliothek, alles Creative Commons, du musst nur aufpassen wegen der verschiedenen Lizenzen.

Epidemic Sound und Artlist sind bezahlt, aber dafür professionelle Qualität und klare Lizenzen. Wenn du das kommerziell nutzen willst, lohnt sich das.

Für Ambient-Sounds und Atmosphären gibt es auch KI-Tools mittlerweile. ElevenLabs macht Sound Effects, Udio und Suno machen Musik. Die sind noch nicht perfekt, aber für Hintergrund-Zeug oft gut genug.

Mein Workflow: Ich leg erstmal das Video hin, dann such ich passende Atmosphäre, dann Soundeffekte für spezifische Momente, und ganz am Ende Musik – falls überhaupt nötig.


Musik – weniger ist mehr

Apropos Musik.

Die meisten Anfänger-Videos haben zu viel davon. Oder die falsche. Oder beides.

Musik ist nicht dazu da, Stille zu füllen. Musik ist dazu da, Emotion zu verstärken. Wenn die Musik nichts verstärkt, lenkt sie nur ab.

Und diese epischen Trailer-Tracks, die alle benutzen – die funktionieren nur, wenn das Video auch episch ist. Wenn du eine ruhige Szene hast mit sanfter Bewegung und drunterlegst Hans-Zimmer-Gedröhne, dann passt das nicht. Dann kämpft die Musik gegen das Bild.

Mein Tipp: Probier erstmal, wie das Video ohne Musik wirkt. Nur mit Soundeffekten und Atmosphäre. Oft ist das besser.

Und wenn du Musik brauchst, dann wähle sie bewusst. Nicht das erstbeste Epic-Ding, das du findest. Sondern was, das zum Tempo passt, zur Stimmung, zum Inhalt.

Das dauert. Das nervt manchmal. Aber es macht den Unterschied.


Schnitt ist, wo die Magie passiert

Hier ist ein Geheimnis, das die wenigsten kapieren: Die besten Video-KI-Arbeiten sind nicht die mit dem besten generierten Material. Es sind die mit dem besten Schnitt.

Du kannst mittelmäßige Clips nehmen und durch guten Schnitt was Großartiges draus machen. Und du kannst fantastische Clips durch schlechten Schnitt ruinieren.

Schnitt ist eine eigene Kunstform. Da könnte ich stundenlang drüber reden. Aber hier die Basics:

Rhythmus. Schnitte sollten einem Rhythmus folgen. Nicht zufällig, nicht wenn dir danach ist, sondern bewusst. Ob zur Musik oder zu einem inneren Beat – irgendwas sollte den Takt vorgeben.

Dauer. Nicht jeder Clip muss gleich lang sein. Manche Momente brauchen Zeit. Andere sind in einer Sekunde vorbei. Lern zu spüren, wann ein Clip lang genug war.

Kontinuität. Wenn du Clips zusammenschneidest, müssen sie zusammenpassen. Ähnliche Lichtstimmung, ähnliche Farbtemperatur, ähnliche Bewegungsrichtung. Sonst ruckelt es im Kopf des Zuschauers.

Übergänge. Nicht jeder Schnitt braucht einen Übergang. Harter Schnitt ist meistens besser als irgendeine Blende. Fade to Black geht manchmal. Dieser Star-Wars-Wipe aus den 70ern – bitte nicht.


Welche Software du brauchst

Für den Anfang brauchst du nicht viel.

DaVinci Resolve ist kostenlos und professionell. Damit schneiden Leute Hollywood-Filme. Die Lernkurve ist steil, aber es gibt tausend Tutorials.

CapCut ist einfacher und auch kostenlos. Gut für schnelle Sachen, vor allem wenn du für Social Media produzierst.

Premiere Pro und Final Cut sind die Klassiker, kosten aber Geld.

Für Audio-Bearbeitung ist Audacity kostenlos und tut was es soll. Für mehr Kontrolle gibt es Fairlight in DaVinci Resolve oder separate DAWs wie Reaper.

Was ich nicht empfehle: Alles auf dem Handy machen. Geht, ist aber limitiert. Sobald du ernsthafter arbeitest, willst du einen richtigen Bildschirm und vernünftige Software.


Der größte Fehler von allen

Weißt du, was ich am häufigsten sehe bei Leuten, die mit Video-KI anfangen?

Sie posten alles sofort.

Jeder generierte Clip wird geteilt. Jedes Experiment wird hochgeladen. Alles muss raus, sofort, guck mal was ich gemacht hab.

Ich versteh das. Es ist aufregend. Es fühlt sich an wie Magie. Man will es zeigen.

Aber dadurch sieht man halt auch den ganzen Müll. Die Clips, wo das Gesicht verrutscht. Die Experimente, die nicht funktioniert haben. Die Sachen, die technisch interessant sind, aber sonst nichts.

Mein Rat: Halte dich zurück. Sammle Material. Kuratiere.

Nicht alles, was du generierst, muss die Welt sehen. Such dir die besten Clips raus. Arbeite daran. Mach was draus. Und dann zeig das.

Ein gutes fertiges Video ist hundertmal mehr wert als zwanzig rohe Clips.


Geduld, Geduld, Geduld

Der letzte Punkt, und vielleicht der wichtigste.

Video-KI ist noch nicht da, wo Bild-KI ist. Die Kontrolle ist geringer. Die Ergebnisse sind unvorhersehbarer. Du wirst mehr Fehlversuche haben als Treffer.

Das ist normal. Das ist der Stand der Technik.

In einem Jahr wird das anders aussehen. In zwei Jahren wird es wahrscheinlich unglaublich sein. Aber jetzt, heute, ist es noch rau.

Also: Hab Geduld. Mit der Technik und mit dir selbst.

Lern die Grenzen kennen, statt gegen sie anzukämpfen. Arbeite mit dem, was funktioniert. Akzeptiere, dass nicht alles geht.

Und wenn was Tolles entsteht – und das wird es – dann genieß den Moment. Weil du weißt, wie viel Arbeit drinsteckt.


Fazit

Video-KI ist nicht Bild-KI plus Bewegung. Es ist ein eigenes Medium mit eigenen Regeln.

Denk in einfachen Szenen. Halte Clips kurz. Kontrolliere die Kamera. Nimm Sound ernst. Schnitt ist alles. Kuratiere, was du zeigst.

Und vor allem: Mach. Experimentiere. Scheitere. Lerne.

Das ist der einzige Weg.

Kling v3 ist ein Werkzeug. Ein verdammt gutes momentan. Aber das Werkzeug macht noch keinen Künstler. Das machst du selbst.

Also ran.


Wie dieser Text entstanden ist

Meine Blogartikel entstehen meistens, wenn ich Gedanken ins Handy quatsche. Sprachmemos, ziemlich chaotisch, alles durcheinander. Das wird transkribiert und mit KI aufgeräumt. Die Erfahrung und die Tipps sind meine. Die Struktur entsteht mit Tools. Finde ich fair so.



Ich sitze hier und versuche, meine Gedanken zu sortieren. Weil 2026 für mich in Sachen Bildbearbeitung ein seltsames Jahr ist. Einerseits war es noch nie so einfach, technisch saubere Bilder zu kriegen. Rauschen weg, Schärfe rein, Hintergrund raus – alles in Sekunden. Andererseits ertappe ich mich dabei, wie ich manchmal vor meinen eigenen Bildern sitze und denke: Ist das noch meins?

Das klingt vielleicht melodramatisch. Ist es wahrscheinlich auch. Aber ich glaube, da steckt was drin, worüber man reden sollte.

Ich will hier bewusst keine Tools aufzählen. Keine Vergleiche, keine Empfehlungen. Das ändert sich eh alle paar Monate, und darum geht es mir nicht. Mir geht es um die Frage, wie man mit dem ganzen Zeug umgeht, ohne sich dabei selbst zu verlieren.


Das Problem mit der Geschwindigkeit

Was mich am meisten erwischt hat, ist nicht die Qualität. Die ist beeindruckend, keine Frage. Was mich erwischt hat, ist die Geschwindigkeit.

Früher hab ich bei jedem Bild überlegt: Braucht das wirklich mehr Schärfe? Will ich das Rauschen da haben oder nicht? Ist diese Falte im Gesicht ein Problem oder Teil der Geschichte?

Das waren echte Entscheidungen. Die haben Zeit gekostet. Aber in dieser Zeit ist auch was passiert – ich hab über das Bild nachgedacht.

Jetzt klicke ich auf einen Button und es ist fertig. Zack. Weiter zum nächsten. Und irgendwann merke ich, dass ich gar nicht mehr richtig hinschaue. Nicht weil ich faul bin, sondern weil der Prozess so schnell ist, dass kein Raum mehr bleibt.

Ich hab neulich eine Serie bearbeitet und erst hinterher gemerkt, dass alle Bilder irgendwie gleich aussahen. Technisch super. Aber austauschbar. Und dann saß ich da und dachte: Das bin ja gar nicht ich. Das ist der Algorithmus.


„Besser“ ist nicht so einfach, wie es klingt

Der Begriff Bildverbesserung nervt mich. Weil er so tut, als gäbe es ein objektives Besser. Gibt es aber nicht.

Mehr Schärfe ist nicht automatisch besser. Manchmal will ich, dass ein Bild weich ist. Manchmal ist das Rauschen genau das, was die Stimmung ausmacht. Manchmal sind es die Schatten, die Geschichte erzählen – und wenn die KI die aufhellt, ist die Geschichte weg.

Aber die KI weiß das nicht. Die kennt nur Daten. Millionen von Bildern, aus denen sie gelernt hat, was „gut“ ist. Und gut heißt für sie: Durchschnitt. Norm. Was die meisten Leute als korrekt empfinden.

Das ist nicht böse gemeint. So funktioniert die Technik halt. Aber es bedeutet, dass jede automatische Verbesserung eine Interpretation ist. Und wenn ich die nicht hinterfrage, übernehme ich eine Interpretation, die nicht meine ist.


Der Unterschied zwischen Reparieren und Erfinden

Was ich inzwischen gelernt habe: Man muss unterscheiden zwischen KI, die repariert, und KI, die erfindet.

Wenn ich ein Bild entrausche oder die Schärfe verbessere, dann arbeitet die KI mit dem, was da ist. Sie holt Details raus, die im Rauschen versteckt waren. Das ist Restaurierung. Das Bild bleibt mein Bild.

Aber wenn ich den Hintergrund erweitern lasse oder Objekte hinzufüge oder Gesichter verändere, dann erfindet die KI etwas Neues. Das ist nicht mehr Fotografie. Das ist was anderes.

Beides kann okay sein. Aber es ist nicht dasselbe. Und ich finde, man sollte ehrlich sein – zu sich selbst und zu anderen – was davon man gerade macht.

Ich hab Bilder gesehen, die als Fotos verkauft werden, die aber zu 40 Prozent erfunden sind. Das stört mich. Nicht weil Erfinden schlecht wäre. Sondern weil das Nicht-Sagen irgendwie unehrlich ist.


Dieser eine Look, der überall ist

Mir fällt was auf, wenn ich durch Instagram scrolle oder Portfolios anschaue. Vieles sieht gleich aus. Nicht identisch, aber irgendwie… verwandt.

Alles ist sauber. Alles ist korrekt belichtet. Alles hat diese bestimmte Schärfe, diese bestimmte Hauttextur, diese bestimmten Farben.

Und nichts bleibt hängen.

Das ist nicht die Schuld der Fotografen. Das ist der KI-Standard, der sich leise eingeschlichen hat. Weil alle dieselben Tools benutzen mit denselben Presets und denselben Automatiken.

Stil entsteht aber nicht durch Korrektheit. Stil entsteht durch Entscheidungen. Durch bewusstes Abweichen. Durch den Mut zu sagen: Ich will das so, auch wenn der Algorithmus das anders machen würde.

Ein bisschen Unschärfe, die irritiert. Ein Schatten, der zu dunkel ist. Korn, das da sein darf. Das sind keine Fehler. Das sind Unterschriften.


Das Ding mit der Haut

Worüber ich lange nachgedacht habe: Hautretusche.

Die KI ist da mittlerweile unfassbar gut. Ein Klick und die Haut ist perfekt. Keine Poren, keine Fältchen, keine Unreinheiten. Technisch makellos.

Aber irgendwann hab ich gemerkt, dass ich Menschen nicht mehr erkenne. Nicht buchstäblich – aber emotional. Da sitzt jemand vor mir, der dreißig Jahre gelebt hat, und im Bild sieht die Haut aus wie bei einem Zwanzigjährigen in einer Werbung.

Das stimmt dann nicht mehr. Die Geschichte fehlt. Die Müdigkeit fehlt. Das Leben fehlt.

Ich bin da jetzt vorsichtiger geworden. Haut darf Haut bleiben. Mit Textur. Mit Charakter. Die KI bietet mir die perfekte Glätte an, und ich sag meistens: Nee, lass mal.


RAW-Bearbeitung und die Versuchung des Perfekten

Auch bei der RAW-Entwicklung passiert was Komisches. Die KI kann aus Schatten Details rausholen, die ich mit bloßem Auge kaum sehe. Beeindruckend, wirklich.

Aber wenn ich das bei jedem Bild mache, sehen alle Bilder gleich aus. Alles durchgezeichnet, alles sichtbar, alles ausbalanciert.

Und manchmal will ich das gar nicht. Manchmal soll der Schatten dunkel bleiben. Manchmal soll das Licht ausfressen. Weil das die Stimmung ist. Weil das der Moment war.

Ich hab angefangen, die KI-Vorschläge als Startpunkt zu nehmen, nicht als Endergebnis. Gucken, was sie macht. Und dann oft die Hälfte wieder zurücknehmen. Weil zu viel Optimierung den Charakter killt.


Wenn die KI meine Bilder aussortiert

Ein Feature, das mich fasziniert und beunruhigt gleichzeitig: KI kann Bildserien vorsortieren. Nach Schärfe, nach Ausdruck, nach was auch immer.

Das spart Zeit. Massiv. Statt 500 Bilder durchzugucken, zeigt mir die Maschine die „besten“ 50.

Aber wer sagt, was das Beste ist?

Manche meiner liebsten Bilder sind technisch nicht perfekt. Leicht unscharf, komisch geschnitten, Moment zwischen den Momenten. Genau deshalb sind sie gut. Weil sie echt sind. Weil da was passiert ist, das nicht geplant war.

Die KI hätte die aussortiert. Weil sie nicht in die Norm passt.

Also nutze ich das Feature, aber ich schau trotzdem noch selbst durch. Nicht alles, aber genug, um die Bilder zu finden, die die Maschine nicht versteht.


Was ich mir abgewöhnt habe

Ich hab aufgehört, alles automatisch laufen zu lassen. Klingt banal, aber es hat gedauert.

Früher hab ich Bilder in die Pipeline geworfen und am Ende kam was Fertiges raus. Schnell, effizient, bequem.

Jetzt mache ich mehr Schritte manuell. Nicht alle, aber die wichtigen. Die Entscheidungen, die das Bild zu meinem Bild machen.

Das kostet Zeit. Aber die Zeit hat einen Wert. In dieser Zeit verstehe ich, was ich tue. In dieser Zeit passiert das, was man wohl „Handschrift“ nennt.


Die eigentliche Frage

Am Ende geht es nicht darum, welche KI man benutzt. Es geht darum, wo man sie stoppt.

Was darf automatisch passieren? Was muss durch mich durch?

Das ist für jeden anders. Und es verändert sich wahrscheinlich auch mit der Zeit. Aber die Frage muss man sich stellen. Sonst stellt sie irgendwann jemand anderes – und die Antwort gefällt einem nicht.

Ich hab für mich ein paar Linien gezogen. Technische Sachen – Rauschen, Grundschärfe, Objektivkorrekturen – da darf die KI ran. Aber sobald es um Gesichter geht, um Stimmung, um das, was das Bild eigentlich sagen soll – da will ich selbst entscheiden.

Ob das richtig ist, weiß ich nicht. Aber es fühlt sich richtig an. Und das muss erstmal reichen.


Was bleibt

KI ist kein Feind. Ist auch kein Retter. Ist ein Werkzeug. Ein ziemlich mächtiges.

Aber wie jedes Werkzeug verstärkt es das, was man reintut. Wenn ich gedankenlos arbeite, macht die KI mich schneller gedankenlos. Wenn ich bewusst arbeite, gibt sie mir Zeit für die Dinge, die zählen.

2026 trennt sich nicht die Leute, die KI nutzen, von denen, die es nicht tun. Es trennt sich die Leute, die wissen, warum sie was machen, von denen, die einfach klicken.

Ich versuche, zur ersten Gruppe zu gehören. Klappt nicht immer. Aber ich versuch’s.

Weil am Ende gilt, was schon immer galt: Technik kann Bilder besser machen. Aber nur ich kann sie zu meinen machen.


Wie dieser Text entstanden ist

Dieser Text ist aus meinen Sprachmemos entstanden, roh und ungefiltert. Die Aufnahmen wurden transkribiert und anschließend mit KI in eine lesbare Form gebracht.



Manchmal passiert etwas in einem Gerichtssaal, das sich anfühlt wie ein Riss in der Wand. Nicht laut, nicht dramatisch – eher wie dieses leise Knacken, wenn Putz bröckelt und du weißt: Da bewegt sich was Größeres dahinter.

So ging es mir, als ich zum ersten Mal von diesem Urteil aus Kalifornien las. Ich saß an meinem Schreibtisch, Kaffee kalt, Fenster offen, und scrollte durch die Nachrichten. Und dann blieb ich hängen. Nicht weil die Überschrift so reißerisch war – die war eher nüchtern. Sondern weil ich beim Lesen merkte: Hier hat zum ersten Mal jemand das ausgesprochen, was wir Kreativen seit Jahren fühlen, aber oft nicht in Worte fassen können.

Es geht nicht nur darum, was eine KI ausspuckt. Es geht darum, wie sie überhaupt zu dem wurde, was sie ist. Woher kommt das Material? Wer hat es genommen? Und wer hat gefragt – oder eben nicht?

Warum mich das Thema persönlich angeht

Ich muss ehrlich sein: Als das Thema KI und Urheberrecht vor zwei, drei Jahren hochkochte, habe ich es erstmal verdrängt. Zu abstrakt, zu technisch, zu weit weg. Ich dachte mir: Das regeln die Juristen unter sich, und wir malen weiter.

Aber dann wurde es konkreter. Kollegen zeigten mir, wie ihre Illustrationen in KI-Generatoren auftauchten – nicht als Kopie, aber als Echo. Ein Stil, der verdächtig bekannt wirkte. Ein Farbschema, das nicht zufällig war. Und plötzlich war das keine abstrakte Debatte mehr, sondern etwas, das in meinen Alltag kroch.

Und ich glaube, vielen geht es so. Wir haben lange zugeschaut, wie die großen Tech-Firmen Daten gesammelt haben wie andere Leute Briefmarken. Nur dass niemand gefragt hat, ob wir unsere Briefmarken überhaupt hergeben wollen.

Was in Kalifornien passiert ist – und warum es anders war

Im Juni 2025 kam ein Urteil in einem Verfahren gegen Anthropic, die Firma hinter dem KI-Modell Claude. Das Besondere: Es ging nicht nur um das übliche Hin und Her, ob KI-Training nun Fair Use ist oder nicht. Es ging um etwas viel Greifbareres.

Das Gericht hat gesagt – und ich versuche das jetzt so zu formulieren, wie ich es verstanden habe, nicht wie ein Jurist: Das Training selbst kann unter Umständen legal sein. Wenn eine KI aus Millionen von Texten lernt, Muster erkennt, Sprache versteht – dann ist das nicht automatisch ein Verbrechen. Es ist, vereinfacht gesagt, so ähnlich wie wenn ein Mensch viel liest und davon beeinflusst wird.

Aber – und hier kommt der Teil, der mich aufatmen ließ – wenn das Material, mit dem trainiert wird, aus illegalen Quellen stammt, dann ist das ein Problem. Ein echtes, handfestes, rechtliches Problem.

Das klingt vielleicht selbstverständlich. Ist es aber nicht. Denn jahrelang haben viele Unternehmen so getan, als wäre das Internet ein All-you-can-eat-Buffet. Alles gratis, alles erlaubt, Hauptsache schnell. Und jetzt sagt ein Gericht: Nein, so einfach ist das nicht.

Der Unterschied zwischen Lernen und Stehlen

Ich denke oft darüber nach, wie ich selbst gelernt habe. Ich habe Bücher gelesen, Bilder angeschaut, stundenlang in Museen gestanden. Ich habe Künstler kopiert – nicht um ihre Werke zu verkaufen, sondern um zu verstehen, wie sie das gemacht haben. Das ist normal. Das ist Teil des Handwerks.

Aber ich habe nie ein Buch gestohlen. Ich habe nie heimlich Fotos von Gemälden gemacht, um sie dann in großem Stil zu verbreiten. Und genau da liegt der Unterschied, den dieses Urteil aufmacht.

Es sagt nicht: KI darf nicht lernen. Es sagt: KI darf nicht aus gestohlenen Quellen lernen.

Das ist eine Unterscheidung, die so simpel klingt, dass man sich fragt, warum sie erst jetzt gemacht wird. Aber ich glaube, das liegt daran, dass die Technologie so schnell war. Schneller als das Recht. Schneller als unsere Vorstellungskraft. Und jetzt holt die Realität langsam auf.

Was das für uns bedeutet – jenseits der Schlagzeilen

Wenn ich ehrlich bin, habe ich nach dem ersten Lesen gedacht: Okay, cool, ein Urteil. Aber was ändert das für mich, hier an meinem Schreibtisch?

Und dann habe ich weiter gelesen. Und begriffen, dass dieses Urteil nicht nur ein Symbol ist, sondern ein Werkzeug.

Erstens: Es verschiebt die Beweislast. Plötzlich müssen Unternehmen zeigen, woher ihre Trainingsdaten kommen. Das ist ein riesiger Unterschied zu vorher, als wir als Kreative beweisen mussten, dass unsere Werke benutzt wurden. Jetzt dreht sich das langsam um.

Zweitens: Es macht Transparenz zum Thema. Wenn Unternehmen nachweisen müssen, dass ihre Daten sauber sind, dann brauchen sie Systeme dafür. Dokumentation. Archive. Lizenzen. Das klingt langweilig, ist aber in Wahrheit eine Revolution. Denn plötzlich haben wir als Kreative einen Hebel. Wir können fragen: Wo ist der Nachweis? Zeig mir die Lizenz.

Drittens: Es setzt ein Preisschild. Im September 2025 wurde bekannt, dass ein Vergleich über 1,5 Milliarden Dollar im Raum stand. Das ist kein Kleckerbetrag. Das ist eine Summe, die selbst große Unternehmen nicht einfach wegstecken. Und es zeigt: Daten haben einen Wert. Unser Werk hat einen Wert. Und wer es nimmt, ohne zu zahlen, muss mit Konsequenzen rechnen.

Das große Aber: Es ist noch nicht vorbei

Ich will hier nicht so tun, als wäre jetzt alles gut. Das wäre naiv. Dieses Urteil ist ein Anfang, kein Ende. Es betrifft erstmal Text, nicht Bilder. Es ist ein Urteil auf mittlerer Ebene, kein Spruch vom Obersten Gerichtshof. Und es wird Berufungen geben, Gegenargumente, neue Verfahren.

Aber das Wichtige ist: Die Richtung stimmt.

Vor zwei Jahren war die Debatte noch: Ist KI überhaupt problematisch? Vor einem Jahr war sie: Wie können wir beweisen, dass unsere Werke benutzt wurden? Und jetzt ist sie: Wie organisieren wir Lizenzierung, Transparenz und Beteiligung?

Das ist ein Fortschritt. Ein echter.

Was ich jetzt anders mache

Seit ich mich intensiver mit dem Thema beschäftige, habe ich ein paar Dinge geändert. Nicht weil ich paranoid bin, sondern weil ich gemerkt habe: Es macht einen Unterschied, wenn ich selbst aktiv werde.

Ich achte mehr auf Metadaten. Klingt unsexy, ich weiß. Aber wenn meine Bilder irgendwo auftauchen, will ich nachweisen können, dass sie von mir sind. Datum, Signatur, nachvollziehbare Veröffentlichung – das sind keine Eitelkeiten mehr, das sind Beweise.

Ich informiere mich über Opt-out-Möglichkeiten. Nicht alle sind gut, manche sind sogar Augenwischerei. Aber es gibt Plattformen und Initiativen, die versuchen, Standards zu setzen. Und je mehr wir mitmachen, desto mehr Gewicht haben diese Standards.

Und ich nutze KI selbst. Das klingt vielleicht widersprüchlich. Aber ich glaube, wer nur dagegen ist, ohne zu verstehen, wie es funktioniert, überlässt das Feld den anderen. Ich will mitreden. Ich will wissen, was diese Maschinen können und was nicht. Und ich will mitgestalten, wo die Grenzen sind.

Eine persönliche Beobachtung zum Schluss

Vor ein paar Wochen saß ich mit einer Freundin zusammen, die auch Künstlerin ist. Wir haben über all das geredet – über KI, über Urheberrecht, über die Zukunft. Und irgendwann sagte sie etwas, das mir nicht mehr aus dem Kopf geht.

Sie sagte: „Weißt du, was mich am meisten ärgert? Nicht dass die Maschinen lernen. Sondern dass niemand gefragt hat.“

Und ich glaube, genau darum geht es. Es geht nicht darum, Technologie aufzuhalten. Das wäre naiv und wahrscheinlich auch falsch. Aber es geht darum, wie wir als Gesellschaft mit dem umgehen, was Menschen erschaffen haben. Mit Respekt oder mit Gleichgültigkeit. Mit Dialog oder mit Ignoranz.

Dieses Urteil aus Kalifornien ist ein Zeichen, dass Respekt vielleicht doch noch eine Chance hat. Dass es Grenzen gibt, auch im digitalen Raum. Dass unser Werk nicht einfach Futter ist für Maschinen, die niemand kontrolliert.

Und wenn du mich fragst, ob das reicht – nein, natürlich nicht. Das ist erst der Anfang. Aber es ist ein Anfang, der sich anders anfühlt als alles, was vorher kam.

Weil zum ersten Mal jemand offiziell gesagt hat: Die Herkunft zählt. Der Weg zählt. Und wer stiehlt, kann sich nicht hinter Algorithmen verstecken.

Das ist keine Lösung für alles. Aber es ist eine Linie im Sand. Und manchmal beginnt Veränderung genau damit: dass jemand eine Linie zieht und sagt – hier nicht weiter.

Ich hoffe, wir bleiben dran. Alle zusammen.



Es gibt Diskussionen, die mich müde machen. Nicht weil das Thema unwichtig wäre, sondern weil sie so uninformiert geführt werden, dass jede sinnvolle Auseinandersetzung im Keim erstickt.

Die Debatte um künstliche Intelligenz gehört dazu.

Jeden Tag lese ich Kommentare, höre Statements, sehe Posts von Menschen, die sich über „die KI“ aufregen. Die KI nimmt uns die Jobs. Die KI zerstört die Kreativbranche. Die KI ist der Feind.

Und jedes Mal denke ich: Von welcher KI redet ihr eigentlich?

Denn „die KI“ gibt es nicht. Es gibt Dutzende, Hunderte, Tausende verschiedener Anwendungen, Tools, Systeme und Programme. Manche haben miteinander so viel zu tun wie ein Toaster mit einem Teilchenbeschleuniger. Beides nutzt Strom. Damit enden die Gemeinsamkeiten.


Das Problem mit dem Sammelbegriff

Wenn jemand sagt „Ich hasse Autos“, dann weiß ich nicht, was diese Person meint. Hasst sie SUVs? Sportwagen? Elektroautos? Lieferwagen? Den Verkehr allgemein? Die Autoindustrie? Die Parkplatzsituation in der Innenstadt?

Der Begriff „Auto“ ist so breit, dass die Aussage praktisch bedeutungslos wird.

Bei „der KI“ ist es noch schlimmer.

Unter diesem Begriff werden Technologien zusammengefasst, die völlig unterschiedliche Dinge tun:

  • Sprachmodelle wie ChatGPT, Claude oder Gemini, die Texte generieren und Fragen beantworten
  • Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion, die visuelle Inhalte erstellen
  • Stimmklonungs-Software wie ElevenLabs, die menschliche Stimmen replizieren kann
  • Musikgeneratoren wie Suno oder Udio, die Songs komponieren
  • Übersetzungstools wie DeepL, die Sprachen konvertieren
  • Analysetools, die Daten auswerten und Muster erkennen
  • Automatisierungssysteme, die Prozesse in Unternehmen optimieren

Das sind nicht verschiedene Versionen desselben Produkts. Das sind grundlegend unterschiedliche Technologien mit unterschiedlichen Anwendungsbereichen, unterschiedlichen Stärken, unterschiedlichen Risiken und unterschiedlichen ethischen Implikationen.

Wer das nicht versteht, kann an der Diskussion nicht sinnvoll teilnehmen.


Das Sprecher-Beispiel: Wenn der Zorn das falsche Ziel trifft

Ich beobachte seit Monaten, wie professionelle Sprecher gegen „die KI“ wettern. Verständlich. Ihre Existenzangst ist real. Die Frage, ob es in zehn Jahren noch bezahlte Sprechjobs gibt, ist berechtigt.

Aber dann sehe ich, wie dieselben Menschen ChatGPT als den großen Feind ihres Berufsstands bezeichnen.

Und da muss ich kurz innehalten.

ChatGPT ist ein Sprachmodell. Es generiert Text. Es kann keine Stimme klonen. Es kann keinen Werbespot einsprechen. Es kann kein Hörbuch produzieren. Es hat mit dem Kernproblem der Sprecherbranche ungefähr so viel zu tun wie ein Taschenrechner mit einem Synthesizer.

Das eigentliche Tool, das die Sprecherbranche verändern wird, heißt ElevenLabs. Oder Murf. Oder Resemble. Oder eines der anderen spezialisierten Programme, die genau dafür entwickelt wurden: menschliche Stimmen zu replizieren, zu klonen, synthetisch zu erzeugen.

Diese Tools können mit wenigen Minuten Audiomaterial eine Stimme kopieren und dann beliebige Texte damit einsprechen lassen. Das ist die Technologie, die für Sprecher relevant ist. Nicht ChatGPT.

Aber ChatGPT kennt jeder. ElevenLabs kennen die wenigsten.

Also wird ChatGPT zum Symbol. Zum Feindbild. Zum Sündenbock für alles, was mit „KI“ zu tun hat. Und die eigentliche Bedrohung bleibt unbenannt, unverstanden, undiskutiert.

Das ist nicht nur unpräzise. Es ist kontraproduktiv.

Wer seinen Feind nicht kennt, kann sich nicht verteidigen.


Dasselbe Muster überall

Das Sprecher-Beispiel ist kein Einzelfall. Ich sehe dasselbe Muster in jeder Branche.

Fotografen, die sich über „die KI“ aufregen, meinen meistens Midjourney oder Stable Diffusion. Aber sie schimpfen pauschal, als wäre jede KI-Anwendung eine Bedrohung für ihre Arbeit. Dabei nutzen viele von ihnen längst KI-gestützte Tools in Lightroom oder Photoshop, ohne mit der Wimper zu zucken.

Texter, die „die KI“ verdammen, meinen meistens ChatGPT. Aber sie vergessen, dass Übersetzungssoftware wie DeepL auch auf KI basiert. Dass Grammatik-Tools wie LanguageTool KI nutzen. Dass die Autokorrektur auf ihrem Smartphone KI ist.

Musiker, die gegen „die KI“ protestieren, meinen Suno oder Udio. Aber viele von ihnen arbeiten mit Software, die KI-gestützte Mastering-Funktionen hat. Die automatische Tuning-Korrekturen anbietet. Die Drums quantisiert.

Die Grenzen sind fließend. Und genau das macht die pauschale Ablehnung so absurd.


Die eigentliche Frage: Wer ist hier schuld?

Wenn wir schon dabei sind, über Bedrohungen zu reden, dann lasst uns über die richtige Bedrohung reden.

Kein KI-Tool hat jemals aktiv entschieden, jemandem den Job zu stehlen. Kein Algorithmus hat beschlossen, einen Künstler zu kopieren. Keine Software hat sich vorgenommen, einen Sprecher zu ersetzen.

Diese Entscheidungen treffen Menschen.

Ein Unternehmen entscheidet, keine echten Sprecher mehr zu buchen. Ein Auftraggeber entscheidet, mit KI-generierten Bildern zu arbeiten. Ein Mensch entscheidet, fremde Stile zu kopieren und als eigene Arbeit zu verkaufen.

Die Werkzeuge sind neutral. Die Absichten dahinter sind es nicht.

Wenn jemand mit Photoshop ein Foto manipuliert und damit Rufschädigung betreibt, ist dann Photoshop schuld? Wenn jemand mit einem Küchenmesser einen Menschen verletzt, ist das Messer der Täter?

Die Frage klingt rhetorisch, weil sie es ist.

Aber bei KI vergessen wir plötzlich diese grundlegende Logik. Wir personifizieren die Technologie, machen sie zum Akteur, zum Feind, zum Schuldigen. Und entlasten damit die Menschen, die tatsächlich fragwürdige Entscheidungen treffen.


Das eigentliche Problem: Diebstahl bleibt Diebstahl

Ja, es gibt echte Probleme. Große Probleme.

Menschen nutzen KI-Tools, um fremde Werke zu kopieren. Stimmen werden ohne Zustimmung geklont. Kunststile werden repliziert, ohne die Originalschöpfer zu nennen oder zu vergüten. Ganze Portfolios entstehen aus zusammengeklaubten Fragmenten anderer Leute Arbeit.

Das ist moralisch fragwürdig. In vielen Fällen ist es auch rechtlich fragwürdig. Und es verdient Kritik.

Aber die Kritik muss an die richtigen Adressaten gehen.

Wenn jemand mit ElevenLabs die Stimme eines Sprechers klont, ohne dessen Erlaubnis, dann ist nicht ElevenLabs der Täter. Der Mensch, der das Tool missbraucht, ist der Täter.

Wenn jemand mit Midjourney den Stil eines lebenden Künstlers kopiert und die Ergebnisse als eigene Kunst verkauft, dann ist nicht Midjourney das Problem. Der Mensch, der diese Entscheidung trifft, ist das Problem.

Die Technologie ermöglicht. Der Mensch entscheidet.

Diese Unterscheidung ist wichtig. Weil sie bestimmt, wie wir regulieren, wie wir diskutieren, wie wir als Gesellschaft mit diesen Veränderungen umgehen.


Wie wir die Diskussion führen sollten

Ich plädiere nicht dafür, KI kritiklos zu akzeptieren. Im Gegenteil.

Es gibt massive Fragen zu klären. Urheberrechtliche Fragen. Arbeitsmarktfragen. Ethische Fragen. Fragen der Transparenz, der Regulierung, der Vergütung.

Aber diese Fragen können nur sinnvoll beantwortet werden, wenn wir präzise sind.

Wenn ein Sprecher sich gegen Stimmklonungs-Software positionieren will, dann sollte er Stimmklonungs-Software benennen. Wenn ein Künstler gegen die Nutzung seines Stils in Trainingsdaten protestiert, dann sollte er die spezifischen Bildgeneratoren und deren Praktiken kritisieren.

Pauschale Aussagen wie „KI ist böse“ oder „KI zerstört alles“ sind nicht nur falsch. Sie verwässern die berechtigte Kritik so sehr, dass sie wirkungslos wird.

Wer über alles gleichzeitig schimpft, schimpft am Ende über nichts Konkretes.


Die unbequeme Wahrheit

Hier ist die Wahrheit, die niemand gerne hört:

Viele der Menschen, die am lautesten gegen „die KI“ wettern, haben sich nicht die Mühe gemacht zu verstehen, wovon sie reden. Sie haben Angst – berechtigte Angst – aber sie kanalisieren diese Angst in die falsche Richtung.

Und ja, ich verstehe, warum das passiert. Die Entwicklung ist schnell. Die Technologie ist komplex. Die Konsequenzen sind unübersichtlich. Es ist einfacher, einen großen Feind zu haben als zwanzig kleine Problemfelder zu analysieren.

Aber einfach ist selten richtig.

Wer in dieser Debatte ernst genommen werden will, muss Hausaufgaben machen. Muss verstehen, welche Tools was tun. Muss differenzieren können zwischen einem Textgenerator und einem Stimmkloner. Zwischen einem Analysetool und einem Bildgenerator. Zwischen einer Arbeitserleichterung und einer Existenzbedrohung.

Diese Differenzierung ist keine akademische Spielerei. Sie ist die Voraussetzung für jede sinnvolle Diskussion.


Ein Appell

An alle, die sich an dieser Debatte beteiligen wollen:

Hört auf, „die KI“ zu sagen, wenn ihr ein spezifisches Tool meint. Benennt es. Seid präzise.

Hört auf, Technologie zum Feind zu erklären. Schaut auf die Menschen, die sie einsetzen. Auf die Unternehmen, die Entscheidungen treffen. Auf die Strukturen, die Missbrauch ermöglichen oder verhindern.

Und vor allem: Informiert euch. Lest. Fragt nach. Probiert aus. Versteht, wovon ihr redet, bevor ihr urteilt.

Die Entwicklungen, die gerade passieren, sind zu wichtig für uninformiertes Geschrei.

Sie verdienen eine ernsthafte, differenzierte, sachliche Auseinandersetzung.

Von Menschen, die wissen, wovon sie reden.


Schluss

Es gibt berechtigte Kritik an vielen KI-Anwendungen. Es gibt echte Probleme, die gelöst werden müssen. Es gibt Fragen, auf die wir als Gesellschaft Antworten finden müssen.

Aber diese Antworten werden nicht von denen kommen, die alles in einen Topf werfen und umrühren.

Sie werden von denen kommen, die differenzieren können. Die verstehen, welches Tool welche Auswirkungen hat. Die wissen, dass nicht „die KI“ das Problem ist, sondern spezifische Anwendungen, spezifische Praktiken, spezifische menschliche Entscheidungen.

Die Technologie ist da. Sie wird nicht verschwinden.

Die Frage ist nur, wie wir mit ihr umgehen.

Und diese Frage beginnt mit Verständnis. Nicht mit Pauschalurteilen.



Bevor wir anfangen: Worum geht es hier eigentlich?

Wenn gerade überall vom „Ende der Diffusion“ die Rede ist, klingt das erstmal dramatisch. Fast so, als würde Midjourney morgen früh abgeschaltet und Stable Diffusion gehört ab nächster Woche ins Museum. Aber so ist es nicht. Die Diffusionsmodelle, die du kennst und vielleicht täglich nutzt, verschwinden nicht einfach über Nacht. Sie funktionieren weiterhin, sie werden weiterentwickelt, und ja – sie liefern immer noch beeindruckende Ergebnisse.

Was sich aber verändert, ist ihre Rolle. Diffusion war jahrelang das Herzstück der KI-Bildgenerierung. Der Standard. Die Technologie, an der sich alles andere messen musste. Und genau dieser Status gerät jetzt ins Wanken. Nicht weil Diffusion plötzlich schlecht wäre, sondern weil eine neue Klasse von Systemen auftaucht, die Bilder auf eine grundlegend andere Art erzeugt.

Diese neuen Modelle rekonstruieren keine Bilder mehr aus Rauschen. Sie verstehen, was sie tun. Sie erkennen Objekte, Beziehungen, Hierarchien. Sie wissen, dass ein Gesicht ein Gesicht ist – und nicht nur eine statistische Ansammlung von Pixeln, die zufällig so aussieht.

Das klingt vielleicht nach einem kleinen technischen Detail. Aber wenn du regelmäßig mit Bildern arbeitest – egal ob als Fotograf, Designerin, Illustrator oder einfach als jemand, der visuelle Inhalte erstellt – dann verändert das deinen Werkzeugkasten auf einer sehr tiefen Ebene. Und genau darum geht es in diesem Text: Was passiert da gerade wirklich? Ohne Buzzwords, ohne Marketing-Sprech, ohne überzogene Versprechungen.


Was Diffusion kann – und wo sie an ihre Grenzen stößt

Um zu verstehen, warum sich gerade etwas Grundlegendes verändert, müssen wir kurz zurückblicken. Diffusionsmodelle funktionieren nach einem ziemlich eleganten Prinzip: Du startest mit reinem Zufallsrauschen – einem Bild, das aussieht wie analoger Fernsehschnee – und dann entfernt das Modell Schritt für Schritt dieses Rauschen. Was übrig bleibt, ist ein Bild.

Das Modell wurde vorher mit Millionen von Bildern trainiert. Es hat gelernt, welche Pixelmuster zu welchen Beschreibungen passen. Wenn du „eine Katze auf einem Sofa“ eingibst, weiß es statistisch, wie Katzen und Sofas normalerweise aussehen, und erzeugt ein entsprechendes Muster.

Das funktioniert erstaunlich gut. Die Ergebnisse können atemberaubend sein. Aber hier kommt der Haken: Diffusion arbeitet auf der Ebene von Pixeln, nicht auf der Ebene von Bedeutung.

Was heißt das konkret? Das Modell weiß nicht wirklich, dass es gerade ein Gesicht erzeugt. Es erzeugt nur ein Pixelmuster, das statistisch wie ein Gesicht aussieht. Es versteht nicht, dass Augen symmetrisch sein sollten oder dass Hände normalerweise fünf Finger haben. Es imitiert nur, was es in den Trainingsdaten gesehen hat.

Deshalb passieren die typischen Fehler: sechs Finger, verschmolzene Gliedmaßen, Text, der wie Buchstabensalat aussieht. Das sind keine Bugs, die man einfach fixen kann. Das sind direkte Konsequenzen der Architektur.

Und dann ist da noch das Geschwindigkeitsproblem. Diffusion ist ein serieller Prozess. Jeder Schritt baut auf dem vorherigen auf. Das macht die ganze Sache rechenintensiv und vergleichsweise langsam. Klar, die Modelle werden schneller, die Hardware besser. Aber die grundsätzliche Limitierung bleibt bestehen.


Der eigentliche Bruch: Von Pixeln zu Bedeutung

Die neue Generation von Bildgeneratoren geht einen anderen Weg. Statt Bilder aus Rauschen zu rekonstruieren, arbeiten diese Systeme mit etwas, das man als „semantische Planung“ bezeichnen könnte.

Stell dir vor, du bittest jemanden, ein Poster zu gestalten. Ein Diffusionsmodell würde sofort anfangen zu malen – Pixel für Pixel, ohne vorher nachzudenken. Die neuen Modelle machen etwas anderes. Sie halten kurz inne und überlegen: Was soll auf diesem Poster drauf? Eine Überschrift? Ein Produktfoto? Fließtext? Wie hängen diese Elemente zusammen? Was ist wichtig, was ist Hintergrund?

Erst wenn diese Fragen beantwortet sind, beginnt die eigentliche Bilderzeugung. Das Bild entsteht nicht mehr von unten nach oben – also von Pixeln über Formen zu Bedeutung – sondern von oben nach unten: Bedeutung, dann Struktur, dann Darstellung.

Das klingt vielleicht abstrakt, aber die praktischen Auswirkungen sind enorm. Plötzlich wird Text im Bild lesbar, weil das System versteht, dass Text Text ist und nicht nur eine weitere Textur. Layouts bekommen Hierarchie, weil das Modell weiß, dass Überschriften anders behandelt werden als Fließtext. Gesichter haben konsistent zwei Augen, weil das System versteht, was ein Gesicht ist.


Die technische Basis: Warum Transformer den Unterschied machen

Hinter diesem Wandel steckt eine Technologie, die ursprünglich gar nichts mit Bildern zu tun hatte: Transformer-Architekturen. Du kennst sie vielleicht von ChatGPT und anderen Sprachmodellen. Ihre große Stärke liegt darin, Beziehungen zwischen Elementen zu erkennen – egal wo diese Elemente stehen, egal in welcher Reihenfolge sie auftauchen.

Bei Text bedeutet das: Das Modell versteht, dass „Die Katze schläft“ und „Schläft die Katze?“ beide von einer schlafenden Katze handeln, obwohl die Wörter anders angeordnet sind.

Übertragen auf Bilder bedeutet das: Ein Gesicht ist nicht mehr nur ein Cluster von Pixeln in einer bestimmten Region des Bildes. Es ist ein zusammenhängendes Konzept, das das Modell als Ganzes versteht. Und weil Transformer Text und Bild im selben Raum verarbeiten können, gibt es keine harte Trennung mehr zwischen „Sprache verstehen“ und „Bilder erzeugen“.

Das ist der Punkt, an dem klassische Diffusionsmodelle strukturell nicht mithalten können. Nicht weil sie schlecht sind – sondern weil sie für eine andere Aufgabe gebaut wurden.


Spezialisierung statt Einheitsbrei

Ein weiterer großer Unterschied liegt in der Architektur dieser neuen Systeme. Statt ein riesiges Modell zu bauen, das irgendwie alles können soll, setzen viele neue Ansätze auf sogenannte „Mixture of Experts“-Systeme.

Die Idee ist simpel: Statt eines Generalisten gibt es mehrere Spezialisten. Ein Teilmodell ist besonders gut bei Porträts. Ein anderes bei Produktfotos. Ein drittes bei Typografie. Ein viertes bei Datenvisualisierung. Und eine übergeordnete Steuerung entscheidet, welcher Experte gerade gefragt ist.

Für dich als Nutzer bedeutet das: höhere Präzision bei spezifischen Aufgaben, weniger von den typischen KI-Artefakten, die man sofort als „das hat eine KI gemacht“ erkennt, und deutlich bessere Kontrolle bei komplexen Anforderungen.

Es ist ein bisschen so, als würdest du nicht mehr einen einzelnen Allround-Designer beauftragen, sondern Zugang zu einem ganzen Studio bekommen – mit Fotografin, Typograf, Illustratorin und Art Director, die koordiniert zusammenarbeiten.


Was das für Bildbearbeitung bedeutet

Einer der praktischsten Effekte dieses Wandels zeigt sich bei der Bildbearbeitung. Wer schon mal versucht hat, mit klassischen Tools ein Objekt aus einem Foto zu entfernen oder zu verändern, kennt den Workflow: Maske erstellen, Ebenen anlegen, manuell selektieren, exportieren, in ein anderes Programm importieren, nachbearbeiten.

Die neuen Systeme arbeiten anders. Sie erkennen Objekte, statt sie zu erraten. Sie wissen, was Person und was Hintergrund ist. Sie können eine Person im Bild verändern, ohne dabei Licht, Schatten oder Komposition zu zerstören – weil sie verstehen, wie diese Elemente zusammenhängen.

Das ist kein nettes Feature am Rande. Das ist eine komplett neue Kategorie von Bildbearbeitung. Retusche wird kontextsensitiv. Änderungen betreffen gezielt Inhalte, nicht das gesamte Bild. Du arbeitest nicht mehr mit Pixeln, sondern mit Bedeutungen.


Design, Layout und Typografie: Der vielleicht größte Sprung

Wenn du jemals versucht hast, mit einem Diffusionsmodell ein Poster zu erstellen – also eines mit lesbarem Text, sauberem Layout und konsistenter Hierarchie – dann weißt du, wie frustrierend das sein kann. Schrift war bestenfalls unzuverlässig. Abstände wirkten zufällig. Von echtem Design konnte kaum die Rede sein.

Die neuen Systeme behandeln Layout als funktionales System. Eine Überschrift ist eine Überschrift, nicht nur größerer Text. Fließtext verhält sich wie Fließtext. Abstände folgen Regeln, nicht dem Zufall.

Du kannst ganze Seiten generieren, Poster, Magazinlayouts, Präsentationen – ohne zwischen drei verschiedenen Programmen hin und her zu wechseln. Das bedeutet nicht, dass Designwissen plötzlich überflüssig wird. Im Gegenteil: Wer Design versteht, kann diese Systeme deutlich besser steuern. Aber die technischen Hürden werden niedriger.


Datenvisualisierung: Von Dekoration zu Funktion

Ein besonders kritischer Punkt bei Diffusionsmodellen war immer die Darstellung von Daten. Diagramme sahen oft überzeugend aus – bis man genauer hinschaute und merkte, dass die Zahlen keinen Sinn ergaben, die Achsen nicht zusammenpassten und die Proportionen willkürlich waren.

Die neuen Modelle gehen vorsichtiger vor. Daten werden als Daten erkannt. Visualisierungen folgen logischen Regeln. Achsen, Werte und Proportionen werden konsistenter behandelt.

Noch ist das nicht perfekt – und ich würde niemandem empfehlen, einen Geschäftsbericht mit KI-generierten Diagrammen zu füllen, ohne alles dreimal zu prüfen. Aber es ist der erste ernsthafte Schritt von dekorativer Illustration hin zu funktionaler Informationsgrafik. Das Potenzial ist riesig.


Was sich an deinem Workflow ändert

Der klassische Workflow – generieren, exportieren, in Photoshop bearbeiten, in InDesign layouten, fertig – verliert an Bedeutung. Stattdessen entsteht etwas, das man als dialogischen Prozess bezeichnen könnte.

Du formulierst eine visuelle Absicht. Das System setzt sie um. Du schaust dir das Ergebnis an und korrigierst – nicht auf der Ebene von Pixeln und Masken, sondern auf der Ebene von Konzepten. „Die Überschrift sollte prominenter sein.“ „Der Hintergrund wirkt zu unruhig.“ „Die Person sollte nach rechts schauen.“

Die Rolle des Gestalters verschiebt sich. Weg vom reinen Ausführen, hin zum Entscheiden, Kuratieren und Steuern. Werkzeugkenntnis bleibt wichtig – aber Verständnis von Bildsprache, Struktur und Kontext wird entscheidender als die Frage, welchen Shortcut man für welches Werkzeug drücken muss.


Was diese Systeme nicht können

Bei aller Begeisterung: Diese Modelle sind keine autonomen Kreativdirektoren. Sie machen Fehler. Sie missverstehen komplexe Anforderungen. Sie produzieren manchmal logischen Unsinn, der auf den ersten Blick überzeugend aussieht.

Wer unklare Vorgaben macht, bekommt unklare Ergebnisse. Wer nicht prüft, was das System liefert, übersieht Fehler. Diese Werkzeuge sind leistungsstark, aber sie ersetzen kein kritisches Auge. Sie ersetzen nicht die Fähigkeit zu erkennen, ob etwas funktioniert oder nicht.

Das ist wichtig zu verstehen, gerade weil die Ergebnisse immer überzeugender werden. Je besser die Oberfläche aussieht, desto leichter übersieht man, was darunter schiefgeht.


Was bleibt

Das „Ende der Diffusion“ ist kein Abgesang auf eine Technologie, die ihre Zeit gehabt hat. Es ist ein Übergang. Diffusion war der Türöffner – der Beweis, dass KI-generierte Bilder überhaupt möglich sind, dass sie gut aussehen können, dass sie praktischen Nutzen haben.

Die neuen Modelle sind der nächste Raum. Ein Raum, in dem es nicht mehr nur darum geht, beeindruckende Bilder zu erzeugen, sondern Bilder gezielt zu gestalten. Mit Verständnis. Mit Struktur. Mit Absicht.

Wenn du mit Bildern arbeitest, bedeutet das: weniger Technik-Akrobatik, mehr inhaltliche Steuerung, mehr Verantwortung für visuelle Entscheidungen. Die Bildgenerierung entwickelt sich von einer beeindruckenden Spielerei zu einem ernsthaften, integrierten Werkzeug für visuelle Gestaltung.

Nicht einfach schneller. Nicht einfach hübscher. Fundamental anders.



Ein leidenschaftliches Plädoyer für das Ende einer ermüdenden Diskussion

Gestern scrollte ich durch meine Timeline und da war er wieder. Dieser Post. Diese Aussage, die ich in den letzten Jahren gefühlt tausendmal gelesen habe, nur immer wieder leicht anders formuliert. Der Kern blieb derselbe: Echte Kunst entsteht nur mit echten Farben und echten Pinseln. KI-generierte Bilder können niemals Kunst sein, weil ihnen das Gefühl fehlt. Synthetische Bildkunst ist seelenlos, weil keine menschliche Hand den Pinsel führt.

Ich saß da, starrte auf den Bildschirm und spürte diese Mischung aus Frustration und Erschöpfung, die mich bei diesem Thema mittlerweile immer begleitet. Nicht weil ich keine Gegenargumente hätte. Sondern weil diese Argumente so offensichtlich sind, dass es mich wundert, sie immer wieder wiederholen zu müssen.

Also tue ich es jetzt. Ein letztes Mal. Ausführlich. Mit allem, was ich habe.

Die große Lüge vom fühlenden Werkzeug

Lassen Sie mich mit einer simplen Beobachtung beginnen, die so banal ist, dass sie fast schon beleidigend wirkt: Ein Pinsel hat keine Gefühle. Er hatte nie welche. Er wird nie welche haben.

Ein Pinsel ist ein Stück Holz mit Tierhaaren oder synthetischen Fasern am Ende. Er liegt auf dem Tisch oder in einer Schublade oder in einem Glas mit Terpentin. Er wartet auf nichts. Er sehnt sich nach nichts. Er träumt nicht von dem Bild, das er malen wird. Er hat keine Vision, keine Inspiration, keine schlaflosen Nächte voller kreativer Unruhe.

Wenn ein Künstler einen Pinsel in die Hand nimmt und ein Meisterwerk erschafft, dann kommt das Gefühl nicht aus dem Pinsel. Es kommt aus dem Menschen. Es kommt aus den Erfahrungen dieses Menschen, aus seinen Erinnerungen, aus seinen Hoffnungen und Ängsten, aus seiner einzigartigen Perspektive auf die Welt.

Der Pinsel ist lediglich das Medium. Das Übertragungsinstrument. Die Brücke zwischen der inneren Welt des Künstlers und der äußeren Welt der Leinwand.

Warum also sollte es bei einem anderen Werkzeug anders sein?

Eine kurze Geschichte der künstlerischen Empörung

Die Kunstwelt hat eine lange und durchaus unterhaltsame Tradition darin, neue Technologien zunächst vehement abzulehnen. Lassen Sie mich Sie auf eine kleine Zeitreise mitnehmen.

Als die Fotografie im 19. Jahrhundert aufkam, war die Empörung gewaltig. Maler sahen ihre Existenz bedroht. Kritiker erklärten, dass ein mechanisches Gerät niemals Kunst erschaffen könne. Die Kamera machte ja alles automatisch – wo blieb da die menschliche Seele? Wo das Gefühl? Der berühmte französische Dichter Charles Baudelaire nannte die Fotografie den „Todfeind der Kunst“.

Heute hängen Fotografien in den bedeutendsten Museen der Welt. Niemand würde ernsthaft behaupten, dass Ansel Adams, Annie Leibovitz oder Sebastião Salgado keine Künstler seien.

Als die elektronische Musik und Synthesizer aufkamen, wiederholte sich das Spiel. Echte Musik brauche echte Instrumente, hieß es. Ein Computer könne keine Seele haben. Elektronische Klänge seien kalt und leblos. Heute sind elektronische Produktionstechniken aus praktisch keinem Genre mehr wegzudenken, und niemand würde bestreiten, dass Kraftwerk, Brian Eno oder Aphex Twin Künstler sind.

Als digitale Malerei und Grafikprogramme aufkamen, hieß es wieder: Das sei keine echte Kunst. Wo bliebe die Verbindung zwischen Hand und Material? Wo das haptische Erlebnis? Wo die Authentizität des physischen Werks? Heute arbeiten die meisten professionellen Illustratoren und Concept Artists digital, und ihre Werke werden zurecht als Kunst anerkannt.

Sehen Sie das Muster? Jede einzelne technologische Innovation in der Kunst wurde zunächst mit den exakt gleichen Argumenten bekämpft. Und jedes einzelne Mal lagen die Kritiker falsch.

Was Synthetische Bildkunst wirklich bedeutet

Lassen Sie mich beschreiben, was tatsächlich passiert, wenn jemand mit KI-Werkzeugen Bilder erschafft.

Der Künstler sitzt vor seinem Computer. Er hat eine Idee, eine Vision, ein Gefühl, das er ausdrücken möchte. Vielleicht ist es die Melancholie eines regnerischen Herbstabends. Vielleicht die explosive Energie eines Moments der Erkenntnis. Vielleicht die stille Trauer über einen Verlust.

Er beginnt zu formulieren. Er sucht nach Worten, die seine innere Vision beschreiben. Er experimentiert mit Begriffen, mit Stilen, mit Atmosphären. Das erste Ergebnis ist nicht richtig. Es trifft nicht das, was er meint. Also verfeinert er seine Beschreibung. Er verwirft und beginnt neu. Er kombiniert Elemente aus verschiedenen Versuchen. Er kuratiert, wählt aus, entscheidet.

Dieser Prozess kann Stunden dauern. Manchmal Tage. Manchmal endet er in Frustration, weil die Vision sich nicht einfangen lässt. Manchmal endet er in diesem magischen Moment, in dem man auf das Ergebnis schaut und weiß: Ja, genau das wollte ich zeigen. Genau so fühlt es sich an.

Das ist kreative Arbeit. Das ist künstlerische Arbeit. Das ist zutiefst menschliche Arbeit.

Der Künstler trifft dabei hunderte von Entscheidungen. Jede einzelne davon ist ein Ausdruck seiner künstlerischen Vision. Jede einzelne davon ist getragen von seinem Gefühl, seiner Erfahrung, seiner einzigartigen Perspektive.

Die KI ist dabei das Werkzeug. Sie ist der Pinsel, der die Farbe auf die Leinwand trägt. Sie ist die Kamera, die das Licht einfängt. Sie ist der Synthesizer, der die Klänge erzeugt.

Sie ist nicht der Künstler.

Das Missverständnis über künstliche Intelligenz

Ein Teil des Problems liegt meiner Meinung nach in einem fundamentalen Missverständnis darüber, was KI tatsächlich ist und tut.

KI-Bildgeneratoren sind keine fühlenden Wesen. Sie haben keine Intentionen. Sie haben keine Visionen. Sie verstehen nicht, was sie tun. Sie sind mathematische Modelle, die statistische Muster in Daten gelernt haben und diese Muster auf neue Eingaben anwenden können.

Wenn jemand sagt, dass KI-Kunst kein Gefühl habe, weil die KI keine Gefühle hat, dann begeht er einen logischen Fehler. Denn mit der gleichen Argumentation müsste man sagen, dass Ölgemälde kein Gefühl haben, weil Ölfarben keine Gefühle haben. Oder dass Fotografien kein Gefühl haben, weil Kameras keine Gefühle haben.

Das Gefühl kommt nicht aus dem Werkzeug. Das Gefühl kommt aus dem Menschen, der das Werkzeug benutzt.

Die wahre Quelle der Kunst

Kunst entsteht nicht in Pinseln, Kameras oder Algorithmen. Kunst entsteht in Menschen. In ihren Köpfen, ihren Herzen, ihren Seelen.

Kunst entsteht in dem Moment, in dem ein Mensch etwas erlebt und den Drang verspürt, dieses Erlebnis auszudrücken. Sie entsteht in der Suche nach der richtigen Form für einen Gedanken. Sie entsteht in der Entscheidung, dieses Element zu behalten und jenes zu verwerfen. Sie entsteht in dem Mut, etwas Persönliches der Welt zu zeigen.

All das passiert bei synthetischer Bildkunst genauso wie bei traditioneller Malerei. Der Mensch erlebt, der Mensch fühlt, der Mensch entscheidet, der Mensch erschafft.

Das Werkzeug ist dabei sekundär. Es beeinflusst die Ästhetik des Ergebnisses, sicher. Ein Ölgemälde sieht anders aus als eine Fotografie, die anders aussieht als eine digitale Illustration, die anders aussieht als ein synthetisch generiertes Bild. Aber die künstlerische Essenz – die menschliche Intention, die emotionale Wahrheit, die kreative Vision – kommt in allen Fällen aus der gleichen Quelle.

Sie kommt aus dem Menschen.

Warum diese Debatte eigentlich nicht über Kunst geht

Ich vermute, dass die heftigen Reaktionen auf KI-Kunst weniger mit ästhetischen oder philosophischen Überzeugungen zu tun haben als vielmehr mit Angst. Angst vor Veränderung. Angst vor Bedeutungsverlust. Angst davor, dass Fähigkeiten, in die man jahrelang investiert hat, plötzlich weniger relevant werden könnten.

Diese Ängste sind verständlich. Sie sind menschlich. Aber sie sollten nicht dazu führen, dass wir anderen Menschen ihre Kreativität absprechen. Sie sollten nicht dazu führen, dass wir Werkzeuge verteufeln, nur weil sie neu und anders sind.

Die Geschichte der Kunst ist eine Geschichte der ständigen Evolution. Neue Techniken, neue Materialien, neue Werkzeuge haben immer wieder neue Möglichkeiten des Ausdrucks eröffnet. Das war bei der Erfindung der Ölfarbe so, bei der Entwicklung der Perspektive, bei der Einführung der Fotografie, bei der Digitalisierung.

KI ist der nächste Schritt in dieser Evolution. Nicht mehr, nicht weniger.

Ein Appell zum Schluss

Ich bitte nicht darum, dass jeder KI-generierte Kunst mögen muss. Geschmäcker sind verschieden, und das ist gut so. Ich bitte nicht darum, dass traditionelle Kunst weniger wertgeschätzt wird. Sie ist und bleibt eine wunderbare, bedeutungsvolle Form des menschlichen Ausdrucks.

Ich bitte nur darum, dass wir aufhören, anderen Menschen ihre Kreativität abzusprechen, nur weil sie andere Werkzeuge benutzen als wir. Ich bitte darum, dass wir anerkennen, dass das Gefühl immer beim Menschen liegt, nicht beim Werkzeug. Ich bitte darum, dass wir die ewig gleiche, ewig falsche Kritik endlich hinter uns lassen.

Der Pinsel hat noch nie ein Gefühl gehabt. Die Kamera auch nicht. Der Synthesizer nicht. Und die KI hat auch keines.

Aber der Mensch, der diese Werkzeuge benutzt – dieser Mensch fühlt. Er hofft, er träumt, er leidet, er feiert. Er sucht nach Ausdruck für das, was in ihm ist. Und wenn er diesen Ausdruck findet, dann ist das Kunst.

Egal, welches Werkzeug er dabei benutzt hat.



Die Galerie auf
👉 https://www.brownzart.com/galerie
zeigt nur einen Teil der Wahrheit.

Meine Kunst endet nicht bei den Bildern, die dort hängen. Sie lebt weiter.
Auf Instagram. Auf Facebook. Auf fotocommunity. Auf DeviantArt.
Überall dort, wo meine Bilder auftauchen, können sie zu dir kommen.

1. Jedes Bild ist bestellbar – egal wo du es gesehen hast

Du hast ein Bild von mir auf Instagram gesehen?
Oder auf Facebook.
Oder auf fotocommunity.
Oder auf DeviantArt.

👉 Du kannst jedes dieser Bilder als Fine Art Print bestellen.

Aber – und das ist entscheidend:

  • Jedes Bild gibt es nur ein einziges Mal
  • Ein echtes Unikat
  • Mit Proof of Artist
  • Kein Nachdruck.
  • Keine Serie.
  • Kein „nochmal schnell“.

Wenn das Bild weg ist, ist es weg.
So einfach. So ehrlich.

📩 Interesse?
Eine Mail reicht: brownz@brownz.art


2. Auftragsbilder: Wenn du weißt, was du fühlen willst

Manche Menschen suchen kein fertiges Bild.
Sie suchen ein Gefühl. Eine Idee. Einen Gedanken, der noch kein Gesicht hat.

Genau dafür mache ich Auftragsbilder.

Du hast:

  • ein Thema
  • eine Stimmung
  • eine Vision
  • oder nur ein diffuses „Ich weiß nicht, aber es soll so sein“

Dann sprechen wir darüber.
Ich übersetze das in ein Bild.

Kein Baukasten.
Kein Prompt von der Stange.
Sondern echte künstlerische Arbeit.

📩 Anfrage direkt per Mail:
brownz@brownz.art


3. Dein eigenes Bild – gemeinsam mit mir

Und jetzt wird’s persönlich.

Wenn du willst, kannst du zu mir kommen
und gemeinsam mit mir dein eigenes Bild für deine Wand erschaffen.

Nicht zuschauen.
Nicht delegieren.
Sondern Teil des Prozesses sein.

  • Idee entwickeln
  • Bild entstehen lassen
  • Entscheidungen treffen
  • Kunst begreifen, nicht konsumieren

Das Ergebnis:
👉 Dein Bild. Deine Geschichte. Deine Wand.

Ablauf, Zeitrahmen und Kosten klären wir individuell –
transparent, ehrlich, ohne Show.

📩 Interesse?
Schreib mir: brownz@brownz.art


Kurz gesagt

  • ✔ Alle meine Bilder – egal auf welcher Plattform – sind als einmaliger Fine Art Print erhältlich
  • Jedes Motiv nur ein einziges Mal
  • Proof of Artist inklusive
  • Auftragsarbeiten möglich
  • Gemeinsame Bilderschaffung vor Ort möglich

Wenn ein Bild mit dir spricht,
hör hin.
Und schreib mir.

brownz@brownz.art

Wo Fotografie endet, beginnt Brownz.Art.


Auftrags Arbeiten Beispiele:


Deine eigenes Bild – gemeinsam mit mir – Beispiel:



Ein Fachartikel über die Realität des KI-Kunstmarkts und die Entkräftung verbreiteter Mythen


Einleitung

Die Debatte um Künstliche Intelligenz in der Kunst wird häufig emotional geführt. In sozialen Medien, Foren und selbst in Fachkreisen begegnen uns regelmäßig zwei zentrale Behauptungen: „KI stiehlt Kunst“ und „Mit KI kann jeder Kunst machen, also ist es keine echte Kunst.“

Als jemand, der sich seit Jahren mit der Schnittstelle von Technologie und Kunst beschäftigt, möchte ich diese Narrative einer sachlichen Prüfung unterziehen – nicht um Kritiker zu verunglimpfen, sondern um Fakten von Befürchtungen zu trennen und einen differenzierten Blick auf ein faszinierendes Feld zu ermöglichen.


Mythos 1: „KI stiehlt Bilder“

Was die Kritiker behaupten

Die populärste Kritik lautet: KI-Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion würden Kunstwerke „stehlen“, indem sie Bilder kopieren und neu zusammensetzen. Die Vorstellung ist, dass irgendwo in der Maschine gestohlene Bilder gespeichert sind, die dann wie ein Collage-Puzzle ausgespuckt werden.

Was tatsächlich passiert

Diese Vorstellung basiert auf einem fundamentalen Missverständnis der Technologie. KI-Modelle speichern keine Bilder. Sie lernen statistische Muster – ähnlich wie ein Mensch, der tausende Gemälde studiert, kein einzelnes Bild im Kopf „speichert“, sondern ein Verständnis von Komposition, Farbharmonie und Stil entwickelt.

Ein technischer Vergleich: Ein Diffusionsmodell mit mehreren Milliarden Parametern wurde auf Hunderten von Millionen Bildern trainiert. Würde es diese Bilder speichern, bräuchte es Petabytes an Speicher. Tatsächlich benötigt ein typisches Modell nur wenige Gigabyte – mathematisch unmöglich, wenn es sich um eine Bilddatenbank handeln würde.

Der Lernprozess in Kontext gesetzt

Jeder menschliche Künstler lernt durch das Studium anderer Werke. Kunsthochschulen lehren explizit das Kopieren alter Meister als Übung. Museen sind voll von Werken, die stilistisch aufeinander aufbauen. Die Impressionisten studierten japanische Holzschnitte, Picasso wurde von afrikanischer Kunst beeinflusst, und Andy Warhol verwendete buchstäblich Fotografien anderer als Grundlage.

Der Unterschied bei KI? Die Geschwindigkeit und Skalierung – nicht das Prinzip.


Mythos 2: „Echte Künstler können mit KI keine Kunst machen“

Die versteckte Annahme

Dieser Mythos basiert auf der Annahme, dass künstlerischer Wert ausschließlich in der handwerklichen Ausführung liegt. Drückt man einen Knopf und erhält ein Bild, sei dies keine Kunst, weil keine „echte Arbeit“ geleistet wurde.

Eine kurze Geschichte der „Nicht-Kunst“

Diese Argumentation ist nicht neu. Sie wurde bei jeder technologischen Innovation in der Kunst vorgebracht:

  • Fotografie (19. Jahrhundert): „Das ist keine Kunst, die Maschine macht das Bild.“
  • Digitale Kunst (1990er): „Photoshop ist Betrug, echte Künstler malen.“
  • Synthesizer (1970er): „Das ist keine echte Musik, die Maschine spielt.“

Heute hängen Fotografien in jedem bedeutenden Museum der Welt, und niemand würde ernsthaft behaupten, Ansel Adams oder Annie Leibovitz seien keine Künstler gewesen.

Was KI-Künstler tatsächlich tun

Die Arbeit eines ernsthaften KI-Künstlers umfasst:

  1. Konzeptentwicklung: Die künstlerische Vision, die Aussage, das Thema
  2. Prompt Engineering: Die präzise sprachliche Formulierung, die oft Dutzende Iterationen erfordert
  3. Kuratierung: Die Auswahl aus hunderten generierter Varianten
  4. Nachbearbeitung: Compositing, Farbkorrektur, Integration in größere Werke
  5. Kontextualisierung: Die Einbettung in einen künstlerischen Diskurs

Ein professioneller KI-Künstler investiert häufig genauso viele Stunden in ein Werk wie ein traditioneller digitaler Künstler – nur verteilen sich diese Stunden anders.


Die Realität des Kunstmarkts: KI-Kunst wird verkauft, gesammelt und ausgestellt

Auktionshäuser und Rekordverkäufe

Der Kunstmarkt hat längst reagiert – und zwar nicht mit Ablehnung:

Christie’s machte 2018 Geschichte, als das KI-generierte Werk „Portrait of Edmond de Belamy“ des Künstlerkollektivs Obvious für 432.500 US-Dollar versteigert wurde – das 40-fache der Schätzung.

Sotheby’s hat seitdem eigene Kategorien für digitale und KI-gestützte Kunst etabliert. Der Künstler Refik Anadol verkaufte sein Werk „Unsupervised“ als NFT über Sotheby’s für über eine Million Dollar.

Hinweis: Diese Verkäufe geschehen nicht trotz, sondern wegen der KI-Komponente. Sammler erkennen die konzeptuelle Tiefe und kunsthistorische Relevanz.

Galerien, die KI-Kunst vertreten

Weltweit haben sich spezialisierte Galerien etabliert:

  • Bitforms Gallery (New York) – Seit über 20 Jahren auf digitale und algorithmische Kunst spezialisiert
  • Kate Vass Galerie (Zürich) – Fokus auf KI-generierte und NFT-Kunst mit regelmäßigen Ausstellungen
  • Unit London – Vertritt KI-Künstler neben traditionellen zeitgenössischen Positionen
  • Gazelli Art House (London/Baku) – Pionierin für Virtual Reality und KI-Kunst
  • Transfer Gallery (New York/Los Angeles) – Spezialisiert auf Kunst, die neue Technologien erforscht

Diese Galerien repräsentieren keine Nische mehr, sondern einen wachsenden Sektor des zeitgenössischen Kunstmarkts.

Museen und institutionelle Anerkennung

Die bedeutendsten Kunstinstitutionen der Welt haben KI-Kunst in ihre Sammlungen und Programme aufgenommen:

Museum of Modern Art (MoMA), New York:
Das MoMA hat Werke von Refik Anadol ausgestellt und erforscht aktiv die Beziehung zwischen Kunst und Algorithmen in seiner kuratorischen Praxis.

Centre Pompidou, Paris:
Das Zentrum für moderne Kunst hat mehrere Ausstellungen zur Beziehung zwischen KI und Kreativität organisiert und sammelt aktiv Werke, die maschinelles Lernen einsetzen.

Victoria & Albert Museum, London:
Das V&A hat die Ausstellung „AI: More than Human“ präsentiert und KI-generierte Werke in seine Sammlung aufgenommen.

Ars Electronica, Linz:
Das führende Festival für Kunst, Technologie und Gesellschaft vergibt seit Jahren Preise an KI-Künstler und hat eine umfangreiche Sammlung aufgebaut.

ZKM | Zentrum für Kunst und Medien, Karlsruhe:
Als eines der weltweit wichtigsten Medienkunstmuseen sammelt und forscht das ZKM seit Jahrzehnten zu algorithmischer und generativer Kunst.

Serpentine Galleries, London:
Die renommierte Londoner Institution hat wiederholt KI-basierte Installationen gezeigt und arbeitet aktiv mit KI-Künstlern zusammen.


Erfolgreiche KI-Künstler: Profile

Refik Anadol

Der türkisch-amerikanische Medienkünstler nutzt Machine Learning, um immersive Installationen zu schaffen, die Architektur und Daten verbinden. Seine Werke wurden im MoMA, der Walt Disney Concert Hall und der Casa Batlló in Barcelona gezeigt. Er ist in bedeutenden Sammlungen vertreten und seine Arbeiten erzielen regelmäßig siebenstellige Verkaufspreise.

Holly Herndon & Mat Dryhurst

Das Künstlerduo arbeitet an der Schnittstelle von Musik, KI und visueller Kunst. Mit ihrem Projekt „Spawning“ haben sie auch die ethische Debatte um KI-Training aktiv mitgestaltet und zeigen, dass KI-Künstler oft die nachdenklichsten Stimmen in dieser Diskussion sind.

Mario Klingemann

Der deutsche Künstler, der unter dem Namen „Quasimondo“ bekannt ist, zählt zu den Pionieren der neuralen Ästhetik. Seine Werke wurden bei Sotheby’s versteigert und sind in internationalen Sammlungen vertreten. Klingemann betont stets die kuratorische und konzeptuelle Arbeit hinter seinen Werken.

Sofia Crespo

Die argentinische Künstlerin nutzt KI, um biologische und künstliche Ästhetik zu verschmelzen. Ihre „Artificial Natural History“-Serien erforschen alternative evolutionäre Pfade und wurden international ausgestellt.


Die philosophische Dimension: Was ist Kunst?

Marcel Duchamp hat diese Debatte schon 1917 geführt

Als Duchamp ein handelsübliches Urinal signierte und als „Fountain“ ausstellte, löste er einen Skandal aus. Die Kritik damals: Das sei keine Kunst, weil Duchamp nichts selbst gefertigt habe.

Heute gilt dieses Werk als Wendepunkt der Kunstgeschichte und die Erkenntnis, die daraus folgte: Kunst liegt nicht in der handwerklichen Ausführung, sondern in der konzeptuellen Geste, der Kontextualisierung und der Bedeutung.

KI-Kunst reiht sich in diese Tradition ein. Die Frage „Kann eine Maschine Kunst machen?“ ist philosophisch weniger interessant als die Frage: „Was macht ein Künstler mit dieser Maschine?“

Autorschaft und Werkzeug

Ein Architekt zeichnet selten jeden Bauplan selbst – er nutzt Software, Teams, Berechnungen. Dennoch ist das Gebäude sein Werk. Ein Regisseur bedient keine Kamera, schneidet nicht selbst – dennoch ist der Film sein Werk.

Die Vorstellung, dass Kunst nur dann „echt“ sei, wenn ein Einzelner jeden Pinselstrich selbst ausführt, ist eine relativ moderne und begrenzte Sichtweise. Historische Meister wie Rubens, Rembrandt oder Warhol arbeiteten mit großen Ateliers und Assistenten.


Eine differenzierte Perspektive auf legitime Bedenken

Anerkennung der echten Probleme

Dies ist kein Plädoyer dafür, alle Kritik abzutun. Es gibt legitime Diskussionen:

  • Urheberrechtliche Fragen: Wie sollten Trainingsdaten lizenziert werden? Hier arbeiten Gesetzgeber, Künstler und Technologieunternehmen an Lösungen.
  • Wirtschaftliche Verdrängung: Der Arbeitsmarkt für Illustratoren verändert sich. Dies erfordert sozialpolitische Antworten, nicht technologische Verbote.
  • Qualitätsflut: Die niedrige Einstiegshürde führt zu einer Masse mittelmäßiger Bilder. Doch dies war bei der Digitalfotografie genauso – und hat die Kunstfotografie nicht zerstört.

Panikmache hilft niemandem

Was nicht hilft, sind apokalyptische Narrative, die auf technischen Missverständnissen basieren. Die Behauptung „KI stiehlt“ ist faktisch falsch und vergiftet eine Debatte, die differenziert geführt werden sollte.

Ebenso wenig hilft die Behauptung, KI-Kunst sei „keine echte Kunst“. Die Geschichte hat gezeigt: Der Kunstbegriff erweitert sich kontinuierlich, und Gatekeeping auf Basis von Werkzeugen war noch nie erfolgreich.


Ausblick: Die Zukunft der KI-Kunst

Integration statt Opposition

Die wahrscheinlichste Entwicklung ist nicht ein Entweder-Oder, sondern eine Integration. Viele Künstler nutzen KI bereits als eines von vielen Werkzeugen:

  • Fotografen verwenden KI für Bildoptimierung
  • Maler nutzen KI für Vorskizzen und Inspiration
  • Konzeptkünstler integrieren KI-Reflexionen in ihre Arbeit

Neue künstlerische Möglichkeiten

KI ermöglicht Ausdrucksformen, die zuvor unmöglich waren:

  • Interaktive Installationen, die in Echtzeit auf Betrachter reagieren
  • Datenvisualisierungen von enormer Komplexität
  • Kollaborationen zwischen Mensch und Maschine als konzeptuelles Statement

Der Kunstmarkt wird sich anpassen

So wie der Markt Fotografie, Video und digitale Kunst absorbiert hat, wird er auch KI-Kunst integrieren. Die Frage ist nicht ob, sondern wie – und welche Qualitätskriterien sich entwickeln.


Fazit

Die Behauptungen, KI „stehle“ Kunst und „echte“ Künstler könnten mit KI keine Kunst schaffen, halten einer sachlichen Überprüfung nicht stand. Sie basieren auf technischen Missverständnissen und einem engen Kunstbegriff, der historisch schon mehrfach überholt wurde.

Der Kunstmarkt, die Museumslandschaft und die Kunstwissenschaft haben KI-Kunst längst als legitimes Feld anerkannt. Werke werden für sechsstellige Summen gehandelt, in bedeutenden Sammlungen aufgenommen und in den wichtigsten Institutionen der Welt ausgestellt.

Das bedeutet nicht, dass jede KI-generierte Bilderflut in sozialen Medien Kunst ist – genauso wenig wie jedes Handyfoto Kunst ist. Aber die Pauschalverurteilung eines gesamten Mediums ist weder historisch informiert noch intellektuell redlich.

Die Kunstwelt hat sich immer weiterentwickelt. Von der Höhlenmalerei zur Ölmalerei, von der Skulptur zur Installation, von der Leinwand zum Bildschirm. KI ist das nächste Kapitel dieser Geschichte – und es wird gerade geschrieben.


Dieser Artikel lädt zur Diskussion ein. Haben Sie Ergänzungen, Kritik oder Fragen? Der Dialog über die Zukunft der Kunst sollte von Neugier geprägt sein, nicht von Angst.

claude-opus-4-5-20251101

Warum die KI-Panikmacher falsch liegen: Eine sachliche Einordnung der KI-Kunst

Ein Fachbeitrag zur aktuellen Debatte um künstliche Intelligenz in der bildenden Kunst


Einleitung: Eine Debatte, die Klarheit braucht

Die Diskussion um KI-generierte Kunst ist emotional aufgeladen. In sozialen Medien, auf Kunstforen und in Feuilletons begegnen uns immer wieder dieselben Behauptungen: KI würde „nur stehlen“, echte Künstler könnten mit KI keine „echte Kunst“ machen, und das gesamte Feld sei moralisch verwerflich.

Als jemand, der sich intensiv mit der Schnittstelle von Technologie und Kunst beschäftigt, möchte ich diese Narrative sachlich prüfen und dort korrigieren, wo sie einer kritischen Analyse nicht standhalten. Dabei geht es mir nicht darum, berechtigte Kritik zu ignorieren – sondern darum, zwischen legitimen Bedenken und unbegründeter Panikmache zu unterscheiden.


Märchen Nr. 1: „KI stiehlt Bilder und setzt sie zusammen“