Hand aufs Herz: Wie oft hast du in den letzten Monaten in Photoshop gesessen, auf einen der vielen neuen glitzernden KI-Buttons geklickt und dich am Ende gewundert, warum das Ergebnis aussieht wie ein unscharfer Pixelbrei?

Adobe hat uns in Rekordzeit mit generativer Künstlicher Intelligenz überschüttet. Gefühlt gibt es nach jedem Update eine neue Leiste, ein neues Menü und eine neue Funktion, die uns verspricht, auf Knopfdruck Meisterwerke zu erschaffen. Doch diese Fülle an Möglichkeiten hat zu einer massiven Verwirrung in der Kreativ-Community geführt. Die meisten Nutzer werfen die Begriffe wild durcheinander und nutzen für ihre Aufgaben schlichtweg das falsche Werkzeug.

Heute räumen wir damit auf. Wir schauen uns die drei großen KI-Säulen im Adobe-Ökosystem ganz genau an: Die Firefly Web-App, die Funktion „Bild generieren“ (Generate Image) in Photoshop und den absoluten Klassiker „Generatives Füllen“ (Generative Fill).

Obwohl alle drei Tools auf der gleichen Grundtechnologie (Adobe Sensei / Firefly) basieren, unterscheiden sie sich in ihrer Auflösung, ihrem Funktionsumfang und vor allem in ihrer Ergebnisqualität dramatisch. Wer hier nur aus Bequemlichkeit klickt, verschenkt massiv Potenzial – und bares Geld. Lass uns in den Maschinenraum hinabsteigen.


1. Die Firefly-Webversion: Der unangefochtene König der Möglichkeiten

Fangen wir mit dem mächtigsten Werkzeug an, das Adobe uns aktuell zur Verfügung stellt: Die eigenständige Website firefly.adobe.com. Wenn du komplett neue Bilder, Hintergründe für Composings oder eigenständige Elemente erschaffen willst, ist dies der Ort, an dem du dich aufhalten solltest.

Warum? Weil die Webversion die ungefilterte, volle Kraft der Adobe-KI darstellt.

Wenn du hier einen Prompt eingibst, greifst du auf die neuesten, fortschrittlichsten KI-Modelle zu (aktuell Firefly Image 3). Die Benutzeroberfläche am rechten Bildschirmrand ist ein Traum für jeden Art Director. Du hast nicht nur ein simples Textfeld, sondern detaillierte Schieberegler und Menüs:

  • Stil-Referenzen: Du kannst Referenzbilder hochladen, damit die KI genau diesen Look übernimmt.
  • Struktur-Referenzen: Du kannst Skizzen vorgeben, an deren Konturen sich die KI beim Generieren hält.
  • Kamera-Einstellungen: Du kannst Blende, Verschlusszeit (für Bewegungsunschärfe) und den exakten Blickwinkel simulieren.
  • Ausgabe-Qualität: Firefly generiert Bilder in einer sehr ordentlichen Größe von 2.048 Pixel Kantenlänge.

Das wirtschaftliche Argument (Die Credits-Falle):
Adobe hat sogenannte „Generative Credits“ eingeführt. Jedes Mal, wenn du auf „Generieren“ klickst, kostet dich das eine virtuelle Münze aus deinem monatlichen Abo-Kontingent. In der Webversion erhältst du für diesen einen Credit immer vier hochauflösende Varianten deines Prompts. Du bekommst hier also den absolut besten Return on Investment für dein Abo.


2. „Bild generieren“ in Photoshop: Die Bequemlichkeits-Falle

Gehen wir nun rüber in dein Photoshop. Dort findest du unter Bearbeiten > Bild generieren (oder in der schwebenden Taskleiste) eine Funktion, die im Grunde genau das Gleiche tun soll wie die Website. Du gibst einen Text ein und Photoshop rendert dir ein komplett neues Bild auf eine leere Ebene.

Auch hier spuckt die KI das Bild mit einer maximalen Kantenlänge von 2.048 Pixeln aus. Klingt doch perfekt, oder? Warum also überhaupt noch den Browser öffnen, wenn man es direkt in Photoshop machen kann?

Die Antwort ist simpel: Es ist eine kastrierte Version.

Photoshops „Bild generieren“ ist eine stark vereinfachte, abgespeckte Variante der Web-App. Es fehlen entscheidende Feineinstellungen zur Lichtstimmung, zu Kamera-Winkeln und komplexen Stil-Referenzen. Adobe hat diese Funktion für die ungeduldigen Nutzer gebaut. Für diejenigen, die den Workflow nicht unterbrechen und die App nicht verlassen wollen.

Doch diese Bequemlichkeit hat einen hohen Preis. Und damit meine ich nicht nur die fehlenden Optionen, sondern harte Währung: Wenn du in Photoshop auf „Bild generieren“ klickst, verbrauchst du ebenfalls einen Generativen Credit. Doch anstatt vier Varianten wie auf der Website, liefert dir Photoshop im Eigenschaften-Bedienfeld nur drei Varianten.

Du bezahlst also den gleichen Preis für 25 % weniger Ergebnisse und deutlich weniger Kontrolle. Als professioneller Bildbearbeiter gibt es daher – von absoluter Zeitnot mal abgesehen – keinen rationalen Grund, diese Funktion in Photoshop zu nutzen. Wenn du ein Bild aus dem Nichts („From Scratch“) erschaffen willst: Geh in den Browser zu Firefly, generiere es dort in Perfektion, lade es herunter und zieh es dann in Photoshop.


3. „Generatives Füllen“: Das missverstandene Genie mit dem Auflösungs-Flaschenhals

Kommen wir zur bekanntesten Funktion, dem Tool, das vor einiger Zeit das Internet gebrochen hat: Bearbeiten > Generatives Füllen (Generative Fill). Du ziehst eine Auswahl mit dem Lasso, tippst etwas ein, und zack – die KI zaubert etwas in dein Bild.

Viele Nutzer machen nun den fatalen Fehler und nutzen dieses Werkzeug für alles. Sie ziehen eine leere Ebene auf, markieren das ganze Bild und tippen einen Prompt ein. Das Ergebnis ist meistens extrem enttäuschend. Es ist unscharf, verwaschen und sieht aus wie ein Relikt aus den frühen 2000er Jahren. Warum passiert das?

Hier kommt das größte technische Geheimnis, das du kennen musst: Generatives Füllen hat ein hartes Limit von 1.024 Pixeln Kantenlänge!

Wenn du mit dem Lasso einen Bereich in deinem hochauflösenden 40-Megapixel-Foto auswählst, der beispielsweise 4.000 x 4.000 Pixel groß ist, und auf „Generatives Füllen“ klickst, rechnet die KI nicht in dieser Größe. Sie generiert intern ein kleines 1.024-Pixel-Bildchen und skaliert (streckt) dieses dann brutal auf deine 4.000 Pixel große Auswahl hoch. Das Resultat ist Matsch.

Wofür dieses Tool wirklich gebaut wurde:
Das KI-Modell hinter „Generatives Füllen“ ist auf etwas völlig anderes trainiert als Firefly Web. Es ist nicht dafür gedacht, aus dem Nichts völlig neue Welten zu erschaffen. Sein absolutes Spezialgebiet ist der Kontext.
Dieses Tool ist darauf optimiert, die Pixel außerhalb deiner Auswahl zu analysieren (Licht, Schatten, Perspektive, Rauschen) und den generierten Inhalt nahtlos und unauffällig in dein bestehendes Hintergrundfoto einzufügen. Es ist dein Werkzeug für die Retusche: Um störende Mülleimer zu entfernen, Ränder zu erweitern (Outpainting) oder ein kleines, passendes Objekt (wie eine Kaffeetasse auf einem Tisch) in ein bestehendes Foto zu zaubern.


Der Praxis-Test: Menschen und Lebewesen generieren

Um die gravierenden Unterschiede in der Praxis zu verstehen, lass uns ein konkretes Beispiel durchspielen. Wir nutzen folgenden, recht komplexen Prompt:

„Porträt einer elegant gekleideten Frau in einer geschmackvoll ausgeleuchteten Szene, stilvoll inszeniert vor einem sanft verschwommenen Hintergrund. Ihr Gesicht ist weich beleuchtet und zeigt einen freundlichen, natürlichen Ausdruck. Das Haar fällt locker über die Schultern, die Bildkomposition ist ausgewogen und zeigt hohe Detailschärfe, makellose Haut und realistische Konturen. Studioqualität, 85mm-Objektiv“

Szenario A: Du nutzt „Generatives Füllen“ auf einer leeren Ebene.
Das Ergebnis wird eine Katastrophe sein. Das Tool sucht verzweifelt nach Kontext-Pixeln (die es auf einer weißen Ebene nicht gibt). Da es primär auf das „Einblenden in Hintergründe“ trainiert ist und das 1024-Pixel-Limit greift, erhältst du oft verzerrte Anatomie, verschwommene Augen und eine Hauttextur, die an Plastik erinnert. Für das realistische Generieren von Lebewesen aus dem Nichts ist diese Funktion schlichtweg unbrauchbar.

Szenario B: Du nutzt „Bild generieren“ in Photoshop.
Hier wird es schon deutlich besser. Die 2.048 Pixel sorgen für ordentliche Schärfe. Die Frau sieht anatomisch korrekt aus. Aber du hast eben nur drei Versuche bekommen und keine Möglichkeit, das Licht im Nachhinein via Regler anzupassen.

Szenario C: Du gehst in die Firefly-Webversion.
Hier entfaltet der Prompt seine Magie. Du wählst im Menü vorher „Fotografie“ aus, stellst die Blende virtuell auf f/1.8, um das geforderte 85mm-Objektiv zu simulieren, und klickst auf Generieren. Du erhältst vier brillante, hochauflösende Varianten. Gefällt dir eine zu 80 %, nutzt du sie als Stil-Referenz für den nächsten Durchlauf. Das ist professionelles Arbeiten.


Der Blick über den Tellerrand: Adobes Schwäche und die Alternativen

Wir müssen in diesem Kontext auch ehrlich sein. Adobe Firefly ist fantastisch für den kommerziellen Einsatz. Da Adobe die KI ausschließlich mit lizenzierten Bildern aus Adobe Stock trainiert hat, bist du urheberrechtlich auf der absolut sicheren Seite. Keine Klagen, kein Ärger mit Kunden.

Aber wenn es um reine, gnadenlose Ästhetik und echten Fotorealismus geht – insbesondere bei der Generierung von menschlichen Gesichtern, komplexen Händen oder organischen Lebewesen –, hinkt Firefly der Konkurrenz momentan noch immer hinterher.

Wenn du das absolut beste, fotorealistischste Bild aus dem Nichts generieren willst, solltest du dir aktuell sogenannte „Partner-Modelle“ oder externe KIs ansehen. Generatoren wie Midjourney (v6) oder das neue, revolutionäre FLUX-Modell (oft über Schnittstellen wie GPT-Image genutzt) spielen beim Thema Anatomie und Textur aktuell in einer völlig anderen Liga als Adobe.

Mein ultimativer Workflow-Tipp für dich:
Wenn ich ein High-End-Composing baue, nutze ich oft Midjourney oder Flux, um das Hauptmotiv (z. B. das Porträt der Frau) zu generieren, da diese KIs die Hautstruktur und das Licht einfach filmischer und realistischer aufbauen. Dann lade ich dieses perfekte Bild in Photoshop und wechsle zu Adobes „Generatives Füllen“, um Fehler auszubessern, den Hintergrund zu erweitern oder kleine Elemente in das Bild einzubauen (denn im nahtlosen Einfügen und Reparieren ist Adobe wiederum unschlagbar).


Fazit: Dein Spickzettel für den Alltag

Hör auf, einfach blind auf leuchtende Buttons zu klicken. Mach dich zum Meister deiner Werkzeuge. Merke dir diese drei goldenen Regeln für deinen zukünftigen KI-Workflow in Adobe:

  1. Völlig neue Bilder und Motive aus dem Nichts? Verlasse Photoshop. Geh auf firefly.adobe.com. Nutze die komplexen Regler, greife die vier Varianten ab und freue dich über 2.048 Pixel Auflösung.
  2. „Bild generieren“ in Photoshop? Ignoriere es. Es ist eine teure Bequemlichkeits-Falle, die dir bei gleichem Preis weniger Auswahlmöglichkeiten bietet.
  3. Elemente in ein bestehendes Foto einfügen, Ränder erweitern oder störende Dinge entfernen? Hier schlägt die große Stunde von „Generatives Füllen“. Achte darauf, dass du deine Auswahlen nicht zu riesig aufziehst, um das 1024-Pixel-Limit nicht zu überspannen.

Die Künstliche Intelligenz nimmt uns die handwerkliche Fleißarbeit ab. Aber das Denken, die Planung und die strategische Auswahl des richtigen Werkzeugs – das bleibt weiterhin dein Job als kreativer Profi. Nutze ihn weise


Entdecke mehr von Der BROWNZ Blog

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.