Tag Archive: recht




Manchmal passiert etwas in einem Gerichtssaal, das sich anfühlt wie ein Riss in der Wand. Nicht laut, nicht dramatisch – eher wie dieses leise Knacken, wenn Putz bröckelt und du weißt: Da bewegt sich was Größeres dahinter.

So ging es mir, als ich zum ersten Mal von diesem Urteil aus Kalifornien las. Ich saß an meinem Schreibtisch, Kaffee kalt, Fenster offen, und scrollte durch die Nachrichten. Und dann blieb ich hängen. Nicht weil die Überschrift so reißerisch war – die war eher nüchtern. Sondern weil ich beim Lesen merkte: Hier hat zum ersten Mal jemand das ausgesprochen, was wir Kreativen seit Jahren fühlen, aber oft nicht in Worte fassen können.

Es geht nicht nur darum, was eine KI ausspuckt. Es geht darum, wie sie überhaupt zu dem wurde, was sie ist. Woher kommt das Material? Wer hat es genommen? Und wer hat gefragt – oder eben nicht?

Warum mich das Thema persönlich angeht

Ich muss ehrlich sein: Als das Thema KI und Urheberrecht vor zwei, drei Jahren hochkochte, habe ich es erstmal verdrängt. Zu abstrakt, zu technisch, zu weit weg. Ich dachte mir: Das regeln die Juristen unter sich, und wir malen weiter.

Aber dann wurde es konkreter. Kollegen zeigten mir, wie ihre Illustrationen in KI-Generatoren auftauchten – nicht als Kopie, aber als Echo. Ein Stil, der verdächtig bekannt wirkte. Ein Farbschema, das nicht zufällig war. Und plötzlich war das keine abstrakte Debatte mehr, sondern etwas, das in meinen Alltag kroch.

Und ich glaube, vielen geht es so. Wir haben lange zugeschaut, wie die großen Tech-Firmen Daten gesammelt haben wie andere Leute Briefmarken. Nur dass niemand gefragt hat, ob wir unsere Briefmarken überhaupt hergeben wollen.

Was in Kalifornien passiert ist – und warum es anders war

Im Juni 2025 kam ein Urteil in einem Verfahren gegen Anthropic, die Firma hinter dem KI-Modell Claude. Das Besondere: Es ging nicht nur um das übliche Hin und Her, ob KI-Training nun Fair Use ist oder nicht. Es ging um etwas viel Greifbareres.

Das Gericht hat gesagt – und ich versuche das jetzt so zu formulieren, wie ich es verstanden habe, nicht wie ein Jurist: Das Training selbst kann unter Umständen legal sein. Wenn eine KI aus Millionen von Texten lernt, Muster erkennt, Sprache versteht – dann ist das nicht automatisch ein Verbrechen. Es ist, vereinfacht gesagt, so ähnlich wie wenn ein Mensch viel liest und davon beeinflusst wird.

Aber – und hier kommt der Teil, der mich aufatmen ließ – wenn das Material, mit dem trainiert wird, aus illegalen Quellen stammt, dann ist das ein Problem. Ein echtes, handfestes, rechtliches Problem.

Das klingt vielleicht selbstverständlich. Ist es aber nicht. Denn jahrelang haben viele Unternehmen so getan, als wäre das Internet ein All-you-can-eat-Buffet. Alles gratis, alles erlaubt, Hauptsache schnell. Und jetzt sagt ein Gericht: Nein, so einfach ist das nicht.

Der Unterschied zwischen Lernen und Stehlen

Ich denke oft darüber nach, wie ich selbst gelernt habe. Ich habe Bücher gelesen, Bilder angeschaut, stundenlang in Museen gestanden. Ich habe Künstler kopiert – nicht um ihre Werke zu verkaufen, sondern um zu verstehen, wie sie das gemacht haben. Das ist normal. Das ist Teil des Handwerks.

Aber ich habe nie ein Buch gestohlen. Ich habe nie heimlich Fotos von Gemälden gemacht, um sie dann in großem Stil zu verbreiten. Und genau da liegt der Unterschied, den dieses Urteil aufmacht.

Es sagt nicht: KI darf nicht lernen. Es sagt: KI darf nicht aus gestohlenen Quellen lernen.

Das ist eine Unterscheidung, die so simpel klingt, dass man sich fragt, warum sie erst jetzt gemacht wird. Aber ich glaube, das liegt daran, dass die Technologie so schnell war. Schneller als das Recht. Schneller als unsere Vorstellungskraft. Und jetzt holt die Realität langsam auf.

Was das für uns bedeutet – jenseits der Schlagzeilen

Wenn ich ehrlich bin, habe ich nach dem ersten Lesen gedacht: Okay, cool, ein Urteil. Aber was ändert das für mich, hier an meinem Schreibtisch?

Und dann habe ich weiter gelesen. Und begriffen, dass dieses Urteil nicht nur ein Symbol ist, sondern ein Werkzeug.

Erstens: Es verschiebt die Beweislast. Plötzlich müssen Unternehmen zeigen, woher ihre Trainingsdaten kommen. Das ist ein riesiger Unterschied zu vorher, als wir als Kreative beweisen mussten, dass unsere Werke benutzt wurden. Jetzt dreht sich das langsam um.

Zweitens: Es macht Transparenz zum Thema. Wenn Unternehmen nachweisen müssen, dass ihre Daten sauber sind, dann brauchen sie Systeme dafür. Dokumentation. Archive. Lizenzen. Das klingt langweilig, ist aber in Wahrheit eine Revolution. Denn plötzlich haben wir als Kreative einen Hebel. Wir können fragen: Wo ist der Nachweis? Zeig mir die Lizenz.

Drittens: Es setzt ein Preisschild. Im September 2025 wurde bekannt, dass ein Vergleich über 1,5 Milliarden Dollar im Raum stand. Das ist kein Kleckerbetrag. Das ist eine Summe, die selbst große Unternehmen nicht einfach wegstecken. Und es zeigt: Daten haben einen Wert. Unser Werk hat einen Wert. Und wer es nimmt, ohne zu zahlen, muss mit Konsequenzen rechnen.

Das große Aber: Es ist noch nicht vorbei

Ich will hier nicht so tun, als wäre jetzt alles gut. Das wäre naiv. Dieses Urteil ist ein Anfang, kein Ende. Es betrifft erstmal Text, nicht Bilder. Es ist ein Urteil auf mittlerer Ebene, kein Spruch vom Obersten Gerichtshof. Und es wird Berufungen geben, Gegenargumente, neue Verfahren.

Aber das Wichtige ist: Die Richtung stimmt.

Vor zwei Jahren war die Debatte noch: Ist KI überhaupt problematisch? Vor einem Jahr war sie: Wie können wir beweisen, dass unsere Werke benutzt wurden? Und jetzt ist sie: Wie organisieren wir Lizenzierung, Transparenz und Beteiligung?

Das ist ein Fortschritt. Ein echter.

Was ich jetzt anders mache

Seit ich mich intensiver mit dem Thema beschäftige, habe ich ein paar Dinge geändert. Nicht weil ich paranoid bin, sondern weil ich gemerkt habe: Es macht einen Unterschied, wenn ich selbst aktiv werde.

Ich achte mehr auf Metadaten. Klingt unsexy, ich weiß. Aber wenn meine Bilder irgendwo auftauchen, will ich nachweisen können, dass sie von mir sind. Datum, Signatur, nachvollziehbare Veröffentlichung – das sind keine Eitelkeiten mehr, das sind Beweise.

Ich informiere mich über Opt-out-Möglichkeiten. Nicht alle sind gut, manche sind sogar Augenwischerei. Aber es gibt Plattformen und Initiativen, die versuchen, Standards zu setzen. Und je mehr wir mitmachen, desto mehr Gewicht haben diese Standards.

Und ich nutze KI selbst. Das klingt vielleicht widersprüchlich. Aber ich glaube, wer nur dagegen ist, ohne zu verstehen, wie es funktioniert, überlässt das Feld den anderen. Ich will mitreden. Ich will wissen, was diese Maschinen können und was nicht. Und ich will mitgestalten, wo die Grenzen sind.

Eine persönliche Beobachtung zum Schluss

Vor ein paar Wochen saß ich mit einer Freundin zusammen, die auch Künstlerin ist. Wir haben über all das geredet – über KI, über Urheberrecht, über die Zukunft. Und irgendwann sagte sie etwas, das mir nicht mehr aus dem Kopf geht.

Sie sagte: „Weißt du, was mich am meisten ärgert? Nicht dass die Maschinen lernen. Sondern dass niemand gefragt hat.“

Und ich glaube, genau darum geht es. Es geht nicht darum, Technologie aufzuhalten. Das wäre naiv und wahrscheinlich auch falsch. Aber es geht darum, wie wir als Gesellschaft mit dem umgehen, was Menschen erschaffen haben. Mit Respekt oder mit Gleichgültigkeit. Mit Dialog oder mit Ignoranz.

Dieses Urteil aus Kalifornien ist ein Zeichen, dass Respekt vielleicht doch noch eine Chance hat. Dass es Grenzen gibt, auch im digitalen Raum. Dass unser Werk nicht einfach Futter ist für Maschinen, die niemand kontrolliert.

Und wenn du mich fragst, ob das reicht – nein, natürlich nicht. Das ist erst der Anfang. Aber es ist ein Anfang, der sich anders anfühlt als alles, was vorher kam.

Weil zum ersten Mal jemand offiziell gesagt hat: Die Herkunft zählt. Der Weg zählt. Und wer stiehlt, kann sich nicht hinter Algorithmen verstecken.

Das ist keine Lösung für alles. Aber es ist eine Linie im Sand. Und manchmal beginnt Veränderung genau damit: dass jemand eine Linie zieht und sagt – hier nicht weiter.

Ich hoffe, wir bleiben dran. Alle zusammen.


Bilder aus dem Internet als KI-Trainingsmaterial: Revolution oder Rechtsproblem?

Künstliche Intelligenz kann inzwischen beeindruckende Bilder generieren – von realistischen Porträts bis hin zu fantasievollen Welten. Doch damit eine KI überhaupt „kreativ“ werden kann, braucht sie Daten, viele Daten. Und genau hier liegt das Problem: Woher kommen diese Bilder, und dürfen sie überhaupt verwendet werden?

Das Urteil: Bilder dürfen für KI-Training genutzt werden

Lange war es umstritten, ob KI-Unternehmen Bilder aus dem Internet einfach zur Schulung ihrer Algorithmen nutzen dürfen. Doch nun ist die Rechtslage zumindest in Deutschland klar: Ja, sie dürfen. Das Landgericht Hamburg hat am 27.09.2024 entschieden, dass die Nutzung öffentlich verfügbarer Bilder für das Training von generativen KI-Modellen erlaubt ist.

Geklagt hatte ein Stockfoto-Anbieter gegen den gemeinnützigen Verein LAION e.V., der die bekannte LAION 5B-Datenbank bereitstellt – eine riesige Sammlung von Bild-URLs, die für das KI-Training verwendet wird. Der Kläger sah darin eine Verletzung seiner Urheberrechte, doch das Gericht urteilte anders: Die Nutzung fällt unter Text- und Data-Mining (TDM) und ist somit gesetzlich gedeckt (§ 60d UrhG). Eine richtungsweisende Entscheidung, die für viele KI-Projekte eine neue Sicherheit schafft.

Warum ist das Urteil so wichtig?

Dieses Urteil öffnet eine große Tür für die Weiterentwicklung generativer KI. Hier sind einige zentrale Aspekte, die sich daraus ergeben:

  • Rechtssicherheit für KI-Entwickler: Unternehmen und Forschungsinstitutionen wissen nun, dass sie Bilddaten aus dem Internet zum Training nutzen dürfen – zumindest in Deutschland.
  • Offene Forschung profitiert: Gemeinnützige Organisationen wie LAION können weiterhin große Datensätze bereitstellen, die Forschern auf der ganzen Welt zugutekommen.
  • Neue Herausforderungen für Urheber: Fotografen und Künstler haben wenig Möglichkeiten, ihre Werke vor KI-Training zu schützen, wenn sie öffentlich zugänglich sind.

Fluch oder Segen? Die Perspektiven der Betroffenen

🔹 KI-Entwickler: Große Erleichterung – das Urteil bedeutet, dass sie sich keine Sorgen mehr über rechtliche Konsequenzen machen müssen, wenn sie öffentlich verfügbare Bilder für ihr Training nutzen.

🔹 Fotografen & Künstler: Hier gibt es gemischte Gefühle. Einerseits kann KI helfen, neue kreative Wege zu beschreiten, andererseits wird befürchtet, dass KI-Modelle letztlich menschliche Künstler ersetzen könnten – mit Material, das von genau diesen Künstlern stammt.

🔹 Verbraucher: Wer beeindruckende KI-Bilder liebt, wird sich über das Urteil freuen. Denn je mehr Daten KIs verarbeiten können, desto besser werden die Ergebnisse.

Was bedeutet das für die Zukunft?

Die Entscheidung aus Hamburg könnte Vorbildcharakter für andere Länder haben. Dennoch bleibt es eine ethische Debatte: Sollte KI einfach alles nutzen dürfen, was im Internet frei zugänglich ist? Oder brauchen Urheber neue Schutzmechanismen, um über die Verwendung ihrer Werke mitentscheiden zu können?

Eins ist sicher: KI wird sich weiterentwickeln – und dieses Urteil beschleunigt den Fortschritt. Die Frage ist, wie Gesellschaft und Rechtssystem darauf reagieren werden.

Tipp für kreative Profis

Falls du tiefer in die Welt der kreativen Workflows eintauchen und exklusive Rohdaten sowie Extras nutzen möchtest, dann schau dir die Brownz² Profi-Rezepte für Kreative an. Hier findest du wertvolle Einblicke und praktische Tipps für die professionelle Bildbearbeitung: Brownz² Profi-Rezepte für Kreative.