Category: Making of



Nano Banana & Flux Kontext in Photoshop installieren – Der Dummy-Guide

Photoshop ist ein Monster. Zu viele Menüs, zu viele Shortcuts, zu viele Fragezeichen. Aber wenn du „Nano Banana & Flux Kontext & Seedream“ installieren willst, brauchst du kein Technik-Nerd zu sein. Hier ist der einfachste Guide für alle, die sofort loslegen wollen.


Was ist Nano Banana & Flux Kontext eigentlich?

Es ist ein AI-Plugin für Photoshop, entwickelt von Rob de Winter in Zusammenarbeit mit Astria. Du kannst damit Bildbereiche auswählen, Prompts eingeben (z. B. „füge Neonlichter hinzu“) – und bekommst sofort neue Ebenen mit KI-Generierungen.
Es läuft über Astria / Replicate und nutzt moderne CCX-Plugins, die direkt in Photoshop integriert werden.


Was du brauchst

  1. Photoshop (aktuelle Version mit Plugin-Support)
  2. Einen Astria-Account + API-Key
  3. Credits bei Astria/Replicate (z. B. 10 $ für ~250 Bilder)
  4. Die Nano Banana CCX-Datei von Gumroad

Installation Schritt für Schritt

1. Plugin herunterladen
Lade die Datei von der offiziellen Gumroad-Seite herunter (siehe Links unten).

2. CCX installieren
Doppelklicke die Datei .ccx. Sie öffnet sich über den Creative Cloud Installer → dort einfach bestätigen.

3. Photoshop neu starten
Ohne Neustart erkennt Photoshop das Plugin nicht.

4. API-Key einfügen
Öffne das Plugin Panel in Photoshop → melde dich bei Astria an → generiere einen API-Key → kopiere und füge ihn ein.

5. Erste Tests

  • Mit dem Lasso oder Auswahlwerkzeug einen Bereich markieren.
  • Prompt eingeben („add glowing vines“, „replace sky with cyberpunk city“).
  • Photoshop sendet das an Astria, Ergebnis kommt als neue Ebene zurück.

Tipps & Tricks

  • Prompts kurz und präzise halten, Materialien/Farben nennen.
  • Mit weichen Auswahlkanten arbeiten → Übergänge wirken natürlicher.
  • Wenn Ergebnisse zu weich sind → Upscale-Option nutzen.
  • Referenzbilder laden, wenn du einen bestimmten Stil erzwingen willst.

Troubleshooting

ProblemLösung
„Network Request Failed“Firewall/Antivirus prüfen, ggf. Astria freigeben.
Photoshop erkennt das Plugin nichtNeustart + Creative Cloud updaten.
CCX wird nicht erkanntDatei ggf. in ZIP umbenennen, entpacken und manuell in den UXP-Plugins Ordner kopieren.
Installation hängtCreative Cloud Installer komplett neu starten.

Fazit

Nano Banana & Flux Kontext verwandelt Photoshop in eine KI-gestützte Kreativmaschine. Was früher Stunden dauerte, geht jetzt mit ein paar Klicks und Prompts. Für schnelle Composings, Surrealismus, Dark Art oder Experimente ist es ein echter Gamechanger.


Links & Ressourcen


👉 Brownz-Tipp: Mach dir Nano Banana als Shortcut in Photoshop. Bearbeiten → Tastaturbefehle → und schon hast du deine Banane immer griffbereit.


10 geheime Photoshop Power-Tipps, die dein Workflow-Level sprengen

(Brownz.Stil – für die, die mehr wollen als Filter und Ebenen)

1. Smartobjekte als Zeitmaschinen

Jedes Smartobjekt ist im Grunde eine temporale Kopie deiner Arbeit. Pack ganze Ebenenstapel hinein, filtere destruktiv, und kehre jederzeit zurück. Wer’s richtig nutzt, baut sich parallele Realitäten – Original bleibt unantastbar.
👉 Deep Use: Mehrfach verschachteln, um komplexe Iterationen wie bei Fraktalen zu bauen.

2. Lab-Farbraum = geheimer Farbbeschleuniger

RGB und CMYK limitieren dich. LAB-Farbraum trennt Luminanz von Farbe. Damit kannst du Kontrast pushen, ohne Farbrauschen, oder Farben surreal knallen lassen, ohne Tonwerte zu zerstören.
👉 Profi-Trick: Gradationskurven nur im a oder b-Kanal.

3. Blend-If – der unterschätzte Zauberstab

Die meisten ignorieren es. „Blend-If“ in den Ebenenstilen erlaubt dir, gezielt nach Helligkeit oder Farbe zu maskieren – ohne echte Maske. Extrem präzise, non-destruktiv.
👉 Use Case: Haut weichzeichnen ohne Augen zu matschen.

4. Channels = X-Ray-Vision

Kanäle sind nicht nur für Masken. Sie sind geheime Selektoren für Strukturen, Schatten, Glanzlichter.
👉 Brownz-Hack: Rotkanal duplizieren, in Gradationskurven pushen, dann als Maske für surrealen Detailboost nutzen.

5. Actions + Scripts = Roboter im Studio

Wiederholst du einen Arbeitsschritt mehr als dreimal, bist du schon ineffizient. Actions für Basics, Scripts für Magie.
👉 Geheimwaffe: JavaScript in Photoshop – du kannst automatisieren, was du dir nur vorstellen kannst (Batch-Surrealismus, randomisierte Ebenenkombis, KI-Integration).

6. Frequenztrennung neu gedacht

Nicht nur für Haut. Frequenztrennung ist eine universelle Schichttrennung: Strukturen, Texturen, Glanz. Kannst du auch für Architektur, Stoffe oder Sci-Fi-Render nutzen.
👉 Kreativ genutzt = ein Baukasten für Welten.

7. Puppet Warp + Liquify + Smartobjekte = Morphing Engine

Mach aus Körpern, Objekten, Kleidung bewegliche Plastiken. Mit Smartobjekten bleibt’s reversibel.
👉 Für Editorials & Dark Art: Körper als skulpturale Masse begreifen, nicht als Foto.

8. Noise & Filmgrain – der große Gleichmacher

Viele Photoshopper glätten alles tot. Aber echtes Kino entsteht durch kontrolliertes Rauschen. Ein Hauch Filmgrain = alle Ebenen verschmelzen wie ein echter Print.
👉 Pro: Arbeite mit monochromem Grain in Soft Light.

9. Photoshop als 3D/Compositing Hub

Viele vergessen, dass Photoshop rudimentäre 3D kann. Aber der Trick ist: Kombiniere gerenderte Elemente aus Blender oder Cinema4D als Smartobjekte. Photoshop wird zur Integrationsmaschine.
👉 Workflow: 3D → Render → Smartobjekt → FX-Layer.

10. Content Credentials (CAI / C2PA)

Die Zukunft: Photoshop integriert Content Authenticity. Deine Bilder tragen Metadaten über Ursprung, KI-Anteile, Bearbeitung. Damit sicherst du dir digitale Provenienz – in einer Welt voller KI-Fakes ein Machtvorteil.


Linkliste (Handverlesen)


👉 Das sind nicht nur Tipps, sondern Strategien für Bildmagie. Wer sie beherrscht, macht nicht einfach Retusche – der baut ganze Realitäten.


Werbe‑Porträts in Photoshop (2025): Der komplette Profi‑Workflow

Seriös, reproduzierbar, markentauglich – vom RAW bis zur Kampagnenausspielung.


1) Zielbild definieren (vor dem ersten Klick)

  • Einsatzort: Plakat, Print, Web, Social‑Ad? → bestimmt Auflösung, Schärfung, Farbprofil.
  • Markenbild: Welche Emotion (nahbar/edel/cool), welche Farbwelt (warm/kühl), wie authentisch vs. glamourös?
  • Ethik & Recht: Realistische Darstellung, Retusche transparent und nicht irreführend (siehe Linkliste).

2) Aufnahme: Qualität an der Quelle sichern

  • Licht: Großflächig, weich (Octa/Schirm + Aufheller), Catchlights für Augen.
  • Optik: 85 mm (klassisch), 50–105 mm okay; f/2–f/4 für selektive Schärfe ohne Wimpernverlust.
  • ISO niedrig, RAW, 16‑Bit‑Workflow einplanen.
  • Styling: Glänzende Haut mattieren, Haare bändigen → spart Retuschezeit.

3) RAW‑Entwicklung (Lightroom/Camera Raw)

  • Weißabgleich & Belichtung neutralisieren; Hauttöne zuerst, dann Gesamtlook.
  • Profil/Kurven: Grundkontrast, Schwarz/Weiß‑Punkte, Halos vermeiden.
  • Farbe: Sättigung moderat, Orange/Rot feindosiert für Haut.
  • Objektivkorrekturen aktivieren; Rauschen vorab glätten.
  • Als Smart Object in Photoshop öffnen (non‑destruktiv, jederzeit zurückkehrbar).

4) Retusche in Photoshop: Natürlichkeit > Weichspüler

4.1 Non‑destruktive Basis

  • Einstellungsebenen (Kurven, Gradationskurve, Selektive Farbkorrektur) + Masken.
  • Smart Objects für skalierbare/änderbare Filter.

4.2 Haut

  • Dodge & Burn (Kurven‑D&B oder 50‑%‑Grau): Mikro‑Kontraste formen statt weichspülen.
  • Spot‑Healing/Clone für temporäre Makel; dauerhafte Merkmale respektieren (Markenbild!).
  • Frequenztrennung nur subtil einsetzen (Low = Farbe/Ton, High = Textur) – Ziel ist Texturerhalt.

4.3 Augen, Mund, Brauen

  • Iris‑Kontrast leicht erhöhen (Kurve/Selektive Farbe), Klarheit sparsam.
  • Augenweiß minimal entsättigen/aufhellen (Maske eng!), keine „LED‑Augen“.
  • Zähne: Selektiv aufhellen, Farbstich neutralisieren; nicht zu weiß.

4.4 Haare & Konturen

  • Abstehende Haare entfernen (Heilen/Clone, ggf. Generative Fill).
  • Form nur dezent mit Verflüssigen (Liquify) – keine Anatomie verfälschen.

4.5 Look/Grading

  • Kurven für globalen Kontrast, Color Balance/Selektive Farbe für Markenlook.
  • Gradient Map subtil für einheitlichen Film‑Look; Hauttöne prüfen.
  • Lokale Kontraste (Lichter/Schatten) via D&B final austarieren.

5) Output‑Vorbereitung: Schärfe & Farbmanagement

  • Schärfen getrennt nach Ziel:
    • Web/Social: Smart Sharpen 0,3–0,6 px, Stärke 40–80 % (Ausgang 2–4 kpx lange Kante).
    • Print: Später, auf finaler Größe; Raster/Material berücksichtigen.
  • Farbprofil: sRGB (Web), AdobeRGB (Foto‑Druck), CMYK via Proof (Agentur/print ready).
  • Export‑Varianten: 4:5/1:1 (IG), 16:9 (Header), Plakatmaß in 300 ppi oder nach Druckvorgabe.

6) Qualitäts‑ und Compliance‑Check

  • Zoom‑Runde (100 %/50 %): Banding, Halos, falsche Kanten.
  • Haut‑Kontinuität: Textur noch sichtbar? Farbstiche eliminiert?
  • Glaubwürdigkeit: Wirkt die Retusche ehrlich?
  • Werberecht/Ethik: Retusche darf nicht versprochene Produkteffekte simulieren (z. B. Anti‑Aging‑Claims). Kennzeichnungspflichten je nach Land beachten.

7) Schneller Praxis‑Workflow (Cheat Sheet)

  1. RAW sauber entwickeln → Smart Object nach PS.
  2. Basislook: Kontrast/Farbe via Einstellungsebenen.
  3. Spot‑Retusche: Healing/Clone.
  4. Dodge & Burn mikro/makro.
  5. Optional Frequenztrennung punktuell.
  6. Haare/Liquify minimal.
  7. Grading (Kurve, Selektive Farbe, Grad‑Map).
  8. Output‑Schärfe für Kanal.
  9. Proof & Export.

8) 12 Profi‑Tipps aus der Praxis

  1. Alles auf Ebenen – nie direkt auf Pixeln malen.
  2. Referenz‑Hautpatch anlegen (kleines neutral retuschiertes Sample) → als Vergleich neben das Motiv legen.
  3. D&B mit weichem Stift, niedriger Fluss (1–5 %) → natürliche Übergänge.
  4. Frequenztrennung nur lokal (Stirn/Nasenflügel), nie „Full‑Face‑Blur“.
  5. Maske invertieren und Effekt einmalen → verhindert Überdosierung.
  6. Neutral‑Grau‑Ebene für Staub/Sensorflecken‑Check im High‑Pass.
  7. Zielmedium zuerst denken: Web‑Look ≠ Print‑Look (Schärfe/Farbraum).
  8. Aktionenset bauen: D&B‑Setups, Kurven‑Presets, Export‑Skripte.
  9. Generative Fill nur als Helfer (Haarlücken, Staub) – Look bleibt konsistent.
  10. Proof mit Markenleitfaden: CI‑Farben/Hautton‑Toleranzen gegenprüfen.
  11. Vorher/Nachher‑Layer: K‑Taste (Sichtbarkeit) → Überretusche entlarven.
  12. Juristische Fallstricke im Team klären (Kennzeichnungspflicht, Claims, ASA/CAP etc.).

Linksammlung (weiterführend)

Photoshop‑Technik (offiziell):

Vertiefende Tutorials:

Ethik & Recht (Beispiele/Auswahl, international):


Schluss

Werbe‑Porträts gewinnen, wenn Technik unsichtbar bleibt: Textur bewahren, Formen respektieren, Markenlook präzise treffen – und immer so retuschieren, dass das Bild glaubwürdig bleibt. Mit diesem Workflow bist du schnell, sauber und rechtlich auf der sicheren Seite.


ChatGPT Image & Sora in Photoshop: Direkte Anwendung – inkl. UXP‑Plugin, Code & Links

Einleitung

Photoshop ist für viele Kreative die zentrale Werkbank. Mit OpenAIs gpt‑image‑1 (ChatGPT Image) und Sora lässt sich die Arbeit beschleunigen: schnelle Ideenskizzen, saubere Typo im Bild, Videoframes als Grundlage – und das alles nahtlos weiterbearbeitet in PS. Dieser Beitrag zeigt dir einen praxiserprobten Workflow und wie du dir ein eigenes UXP‑Panel baust, das Bilder direkt aus der OpenAI‑API holt und als Smart Object in Photoshop platziert.


1. ChatGPT Image in Photoshop nutzen

gpt‑image‑1 erzeugt hochwertige Bilder mit präziser Textdarstellung („Text in Image“) und gutem Objekt‑Binding. So setzt du es in PS ein:

  • Schritt 1: Bild in ChatGPT (Web/App) oder via OpenAI‑API mit gpt‑image‑1 generieren.
  • Schritt 2: Als PNG/JPG exportieren.
  • Schritt 3: In Photoshop importieren (als Ebene/Smart Object) und klassisch veredeln: Farblook, Retusche, Typo, Komposition.

Stärke: Schriften/Logos sind im KI‑Bild deutlich besser lesbar als bei vielen Alternativen.


2. Sora im Photoshop‑Workflow

Sora generiert Video aus Text (und optional Bild/Video‑Input). Für Photoshop gibt es zwei Hauptpfade:

  • Storyboard/Keyframe: Erzeuge eine Sequenz, exportiere PNG‑Frames oder nimm den besten Keyframe, bearbeite ihn als Kampagnenmotiv.
  • Stil‑Varianten: Lass Sora Lichtstimmungen/Kameraperspektiven variieren, bringe die Favoriten als Ebenen nach PS und compositinge sie zu einem finalen Still.

3. Kombination mit Firefly

  • Generative Fill/Expand: KI‑Bildbereiche erweitern, störende Elemente entfernen.
  • Feinschliff statt Konkurrenz: OpenAI‑Output als Ausgang, Firefly & PS‑Tools für Retusche, Masken, Gradings.
  • Branding & Typo: Typografische Elemente mit gpt‑image‑1 erzeugen, in PS final layouten.

4. Typischer End‑to‑End‑Workflow

  1. Idee/Pitches – Prompt in ChatGPT formulieren → erste Bildversionen.
  2. Varianten – Sora für Stimmungen/Bewegung; Keyframes als Stills.
  3. Import nach PS – Basen als Ebenen/Smart Objects anlegen.
  4. Generative Fill – Hintergrund erweitern, Details fixen.
  5. Retusche & Color Grading – PS‑Stärken ausspielen.
  6. Export & Branding – Kampagne, Social, Print – inkl. Content Credentials, falls gefordert.

5. Direkte Einbindung in Photoshop (UXP‑Plugin – inkl. Code)

Ziel: Ein schlankes UXP‑Panel in Photoshop, das einen Prompt annimmt, bei OpenAI gpt‑image‑1 ein Bild erzeugt und das Resultat als Ebene/Smart Object in das aktive Dokument platziert.

5.1 Voraussetzungen

  • Photoshop v25+ (UXP‑Plugins)
  • UXP Developer Tool installiert (für „Load temporary plugin“)
  • Eigener OpenAI API‑Keynie im Plugin bündeln → Proxy‑Server nutzen

5.2 Projektstruktur (Minimal)

my-openai-panel/
├─ manifest.json
├─ index.html
├─ index.js

5.3 manifest.json

{
  "manifestVersion": 5,
  "id": "com.brownz.openai.panel",
  "name": "OpenAI Image Panel",
  "version": "1.0.0",
  "host": { "app": "PS", "minVersion": "25.0.0" },
  "entrypoints": [
    {
      "type": "panel",
      "id": "openaiPanel",
      "label": "OpenAI Images",
      "main": "index.html",
      "icons": [{ "path": "icon.png", "scale": 1 }]
    }
  ]
}

5.4 index.html (UI minimal)

<!doctype html>
<html>
  <body style="padding:12px;font-family:system-ui;">
    <form id="f">
      <textarea id="prompt" rows="5" style="width:100%" placeholder="Enter image prompt..."></textarea>
      <button type="submit">Generate</button>
      <div id="status" style="margin-top:8px"></div>
    </form>
    <script src="index.js"></script>
  </body>
</html>

5.5 index.js (Kernlogik)

const { app, action } = require('photoshop');
const uxp = require('uxp');

async function placePngAsSmartObject(uint8Array, name = "gpt-image-1") {
  // Neues Dokument, falls keins offen ist
  if (!app.activeDocument) {
    await app.documents.add({ width: 2048, height: 2048, resolution: 300 });
  }

  // Temporäre Datei speichern
  const temp = await uxp.storage.localFileSystem.getTemporaryFolder();
  const file = await temp.createFile(`openai_${Date.now()}.png`, { overwrite: true });
  await file.write(uint8Array, { format: uxp.storage.formats.binary });

  // Über BatchPlay als Smart Object platzieren
  await action.batchPlay([
    {
      _obj: "placeEvent",
      freeTransformCenterState: { _enum: "quadCenterState", _value: "QCSAverage" },
      _isCommand: true,
      null: { _path: file.nativePath, _kind: "local" },
      offset: { _obj: "offset", horizontal: { _unit: "pixelsUnit", _value: 0 }, vertical: { _unit: "pixelsUnit", _value: 0 } }
    }
  ], { synchronousExecution: true });

  // Ebene benennen (optional)
  const doc = app.activeDocument;
  doc.activeLayers[0].name = name;
}

async function requestOpenAIImage(prompt) {
  // Sicherheit: KEY nie clientseitig! Proxy nutzen, der den Key serverseitig anhängt
  const resp = await fetch("https://YOUR_PROXY/v1/images/generations", {
    method: "POST",
    headers: { "Content-Type": "application/json" },
    body: JSON.stringify({
      model: "gpt-image-1",
      prompt,
      size: "1024x1024",
      response_format: "b64_json"
    })
  });
  if (!resp.ok) throw new Error(await resp.text());
  const data = await resp.json();
  const b64 = data.data[0].b64_json;
  const bin = Uint8Array.from(atob(b64), c => c.charCodeAt(0));
  return bin;
}

async function onSubmit(e) {
  e.preventDefault();
  const status = document.getElementById('status');
  status.textContent = 'Generating…';
  try {
    const prompt = document.getElementById('prompt').value.trim();
    const bytes = await requestOpenAIImage(prompt);
    await placePngAsSmartObject(bytes, 'gpt-image-1');
    status.textContent = 'Done. Layer added.';
  } catch (err) {
    status.textContent = 'Error: ' + err.message;
  }
}

document.getElementById('f').addEventListener('submit', onSubmit);

5.6 Plugin laden (temporär)

  1. UXP Developer Tool starten → Add Plugin → Ordner my-openai-panel wählen → Load.
  2. Photoshop öffnen → Fenster ▸ Erweiterungen (UXP)OpenAI Images Panel.
  3. Prompt eingeben → Generate → Ergebnis wird als Smart Object eingefügt.

Sora‑Hinweis: Sora‑Video erzeugen → PNG‑Sequenz/Keyframe exportieren → in PS importieren (Datei ▸ Skripten ▸ Dateien in Stapel laden oder Zeitleiste). Stärksten Frame auswählen, retuschieren, graden.

5.7 Sicherheit & Architektur

  • API‑Key niemals clientseitig bundeln. Ein schlanker Proxy (z. B. Node/Cloudflare Worker) hängt den Key an und limitiert Promptlänge/Größe.
  • Kostenkontrolle/Rate‑Limits im Proxy.
  • Transparenz: Falls nötig, mit Content Credentials (C2PA) arbeiten.

6. 10 Praxistipps für Profis

  1. Prompts modular: Szene → Details → Stil → Tech (Kamera/Objektiv/Lighting) – sauber trennbar.
  2. Hohe Auflösung generieren (mind. 1024er Kante), dann in PS skalieren/„Super Resolution“ testen.
  3. Keyframes kuratieren: Bei Sora gezielt Frames mit klarer Komposition wählen.
  4. Firefly als Finish: Generate/Expand für saubere Ränder und glaubwürdige Texturen.
  5. Ebenen‑Disziplin: KI‑Assets immer als eigene Ebenen/Smart Objects; niemals destructiv.
  6. Masken & Blend‑If: Für organische Übergänge zwischen KI‑ und Originalmaterial.
  7. Typo checken: Trotz guter Text‑Rendition – Rechtschreibung/Brand‑Guides in PS finalisieren.
  8. C2PA im Blick: Bei Kundenprojekten Content Credentials dokumentieren.
  9. Batching: Mehrere Prompts vorbereiten; Serien mit Actions/Shortcuts in PS veredeln.
  10. Fallbacks: Wenn API ausfällt → lokal weiterarbeiten (PS/Firefly), später KI‑Varianten mergen.

7. Weiterführende Links


Fazit

Mit einem kompakten UXP‑Panel integrierst du gpt‑image‑1 direkt ins aktive Photoshop‑Dokument. Sora liefert bewegte Varianten und starke Keyframes. In Kombination mit Firefly, Smart Objects und sauberem Ebenen‑Management entsteht ein skalierbarer KI→PS‑Workflow für professionelle Produktionen.


NanoBanana direkt in Photoshop: So bindest du das Google-Modell über Replicate ein

NanoBanana (Codename für Googles Gemini 2.5 Flash Image) ist aktuell eines der spannendsten Bild-Modelle – ultraschnell, editierbar, und mit Fokus auf Konsistenz. Was viele noch nicht wissen: Über die Replicate-API kannst du NanoBanana direkt in Photoshop nutzen. Kein Umweg über externe Tools, sondern ein Button im Panel, der deine Ebene exportiert, den API-Call absetzt und das Resultat als neue Ebene wieder zurückschiebt.

In diesem Blogbeitrag zeige ich dir:

  • was NanoBanana ist,
  • wie du es technisch in Photoshop einbaust,
  • und 20 Praxistipps, mit denen du aus dem Setup maximal rausholst.

Was ist NanoBanana?

NanoBanana ist Googles interner Codename für Gemini 2.5 Flash Image, ein multimodales Bildmodell, das auf Editing, Blending, Consistency spezialisiert ist. Es kann Bilder bearbeiten, zwei oder mehr Eingaben verschmelzen, Identitäten erhalten und Stile umwandeln. Besonders spannend: Die generierten Bilder tragen ein unsichtbares SynthID-Wasserzeichen für Transparenz.

Mehr dazu findest du hier:


Integration in Photoshop

Über ein kleines UXP-Plugin für Photoshop lässt sich NanoBanana direkt ansteuern:

  1. Ebene exportieren → temporäres PNG
  2. PNG an Replicate schicken (/v1/models/google/nano-banana/predictions)
  3. Polling auf Status → fertige Ausgabe-URL
  4. Neues Bild als Ebene zurück ins Dokument

Ein fertiges Skeleton-Plugin mit Manifest, HTML und JS (ca. 50 Zeilen) reicht schon aus, um NanoBanana per Klick im Panel auszuführen.


So geht’s – Schritt für Schritt

1) API-Zugang besorgen

2) Minimal-Test (optional, außerhalb von Photoshop)

Teste einmal per curl, ob der Account & die Inputs passen:

curl -s -X POST "https://api.replicate.com/v1/models/google/nano-banana/predictions" \
  -H "Authorization: Token $REPLICATE_API_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{
    "input": {
      "task": "edit", 
      "prompt": "make it a glossy high-fashion look, soft light, keep the face identical",
      "image": "https://example.com/input.jpg"
    }
  }'

Danach das GET-Polling auf predictions/<id> bis status: succeeded und dann output[0] (Bild-URL) laden. Replicate

3) Photoshop-Integration (UXP Plugin)

Du baust ein kleines UXP-Panel (läuft in aktuellen Photoshop-Versionen). Es exportiert die aktuelle Ebene als PNG, schickt sie an Replicate, pollt das Ergebnis und legt es als neue Ebene ab.

Plugin-Skelett

manifest.json

{
  "manifestVersion": 5,
  "id": "brownz-nanobanana",
  "name": "NanoBanana Bridge",
  "version": "1.0.0",
  "host": { "app": "PS", "minVersion": "25.0.0" },
  "entryPoints": [
    { "type": "panel", "id": "panel", "label": "NanoBanana", "main": "index.js" }
  ],
  "permissions": {
    "network": { "domains": ["api.replicate.com", "storage.googleapis.com"] },
    "filesystem": "plugin"
  }
}

index.js (vereinfachtes Beispiel)

// UXP/Photoshop APIs
const app = require('photoshop').app;
const fs = require('uxp').storage.localFileSystem;

const REPLICATE_TOKEN = "<DEIN_REPLICATE_TOKEN>"; // sichere das später in uxp secure storage

async function exportActiveLayerToTempPng() {
  const doc = app.activeDocument;
  const tmpFolder = await fs.getTemporaryFolder();
  const file = await tmpFolder.createFile("nb_input.png", { overwrite: true });

  // Quick-Export der sichtbaren Ebene(n)
  await app.batchPlay([{
    _obj: "exportSelectionAsFileTypePressed",
    _target: [{ _ref: "document", _id: doc._id }],
    fileType: "png",
    quality: 32,
    metadata: 0,
    destFolder: file.nativePath
  }], { synchronousExecution: true });

  return file;
}

async function uploadToReplicate(file) {
  // 1) Datei in Base64 lesen (alternativ: extern hosten & URL übergeben)
  const data = await file.read({ format: fs.formats.binary });
  const base64 = btoa(String.fromCharCode(...new Uint8Array(data)));

  // 2) Prediction starten
  const req = await fetch("https://api.replicate.com/v1/models/google/nano-banana/predictions", {
    method: "POST",
    headers: {
      "Authorization": `Token ${REPLICATE_TOKEN}`,
      "Content-Type": "application/json"
    },
    body: JSON.stringify({
      input: {
        task: "edit",
        // Typische Brownz-Usecases:
        // - "glossy high-fashion look, clean backdrop, keep likeness"
        // - "blend with another image" -> zusätzlich "image_2": "<url|base64>"
        prompt: "glossy high-fashion look, cinematic soft light, keep identity",
        // Variante A: Inline-Base64
        image_base64: `data:image/png;base64,${base64}`
        // Variante B: Wenn du eine URL hast:  image: "https://…/nb_input.png"
      }
    })
  });
  const prediction = await req.json();
  return prediction; // hat .id
}

async function pollResult(id) {
  while (true) {
    const r = await fetch(`https://api.replicate.com/v1/predictions/${id}`, {
      headers: { "Authorization": `Token ${REPLICATE_TOKEN}` }
    });
    const j = await r.json();
    if (j.status === "succeeded") return j.output[0]; // Bild-URL
    if (j.status === "failed" || j.status === "canceled") throw new Error(j.status);
    await new Promise(res => setTimeout(res, 1500));
  }
}

async function placeResultAsNewLayer(url) {
  const response = await fetch(url);
  const blob = await response.arrayBuffer();

  const tmp = await fs.getTemporaryFolder();
  const file = await tmp.createFile("nb_output.png", { overwrite: true });
  await file.write(blob);

  // Datei in Photoshop als neue Ebene platzieren
  await app.open(file);
  const resultDoc = app.activeDocument;
  await app.activeDocument.layers[0].duplicate(app.documents[0]); // in Ursprungsdokument kopieren
  await resultDoc.closeWithoutSaving();
}

async function runNanoBanana() {
  try {
    const file = await exportActiveLayerToTempPng();
    const pred = await uploadToReplicate(file);
    const url = await pollResult(pred.id);
    await placeResultAsNewLayer(url);
  } catch (e) {
    console.log("NB error:", e);
  }
}

// Minimal-UI (Button im Panel)
document.getElementById("run").addEventListener("click", runNanoBanana);

index.html (super schlicht)

<button id="run">NanoBanana Edit</button>

Was passiert hier?

  1. Aktuelle Ebene(n) → temporäres PNG
  2. Replicate-API-Call → google/nano-banana mit task: "edit" + Prompt
  3. Polling bis fertig → Ausgabe-URL
  4. Bild geladen → als neue Ebene ins aktive Dokument gesetzt

Wichtiges zu Inputs/Features

  • Das Modell kann Edit/Blend/Style-Transfer/Consistent Likeness. Inputs sind u. a. image/image_base64, optionale Zweitbilder (image_2…), prompt, ggf. Masken je nach Schema-Stand. Sieh dir die API-Seite an, dort sind die aktuellen Input-Keys dokumentiert. Replicate
  • Nano-Banana ist Gemini 2.5 Flash Image – Googles offizieller Blog & Doku beschreiben die neuen Edit-/Blend-Fähigkeiten & SynthID-Wasserzeichen. blog.googleGoogle AI for Developers

4) Varianten: Folder-Watcher statt Plugin

Falls du kein Panel bauen willst: kleines Node/Python-Script, das einen Ordner beobachtet (Export aus Photoshop), bei neuem PNG → Replicate anwerfen → Ergebnis nebenan ablegen → in Photoshop per Place Linked oder Drag-&-Drop rein. (Technisch identisch, nur ohne UXP-UI.)


Praxis-Tipps

  • Gesichter/Identität konservieren: Im Prompt explizit „keep likeness / keep identity / same person“ sagen. Das Modell ist genau dafür getunt. blog.google
  • Blend-Looks: Für „Brownz meets X“ nutze image_2 (oder mehrere) und nenne im Prompt klar die Stilachsen: „editorial high-fashion, glossy skin, controlled film grain, analog feel“.
  • Non-destruktiv: Ergebnisse immer als neue Ebene oder Smart Object reinladen.
  • Compliance: Gemini-Images tragen SynthID (unsichtbares Wasserzeichen). Für Kataloge: Herkunft transparent markieren. Google AI for Developers
  • Limits prüfen: Aktuelle Input-Schema/Preis/Rate-Limits auf der Model-Seite checken—ändert sich gern. Replicate

Quellen / „Warum das so funktioniert“


20 Tipps für die Praxis

  1. „Keep likeness“ prompten – immer explizit dazuschreiben, wenn die Person gleich bleiben soll.
  2. Arbeite mit Ebenenmasken: Nur der ausgewählte Bereich wird verändert.
  3. Zwei-Bild-Blend: Nutze image_2 für Fusionen (z. B. Brownz meets Pop-Art).
  4. Nicht-destruktiv: Ausgabe immer als neue Ebene einfügen.
  5. Filmlook simulieren: Prompt mit „analog film grain, cinematic lens“ ergänzen.
  6. Hintergründe cleanen: „clean backdrop, seamless studio wall“ im Prompt spart Retusche.
  7. Fashion-Fokus: „editorial glossy look, Vogue-style lighting“ liefert High-Fashion-Ästhetik.
  8. Lokale Einbindung: Bilder aus deiner Stadt im Blend → stärkere Authentizität.
  9. Batch-Workflow: Folder-Watcher-Script nutzen für viele Bilder nacheinander.
  10. GPU sparen: Kleinere Exportauflösung (z. B. 1024px) testen, dann Upscaling via Topaz oder Photoshop.
  11. Farb-Consistency: Farbpalette im Prompt nennen („teal and orange“, „pastel minimal“).
  12. Iterationen stacken: Ergebnisse mehrfach übereinanderlegen für Mischstile.
  13. Maschinenästhetik: „cyberpunk cables, chrome reflections“ → für Brownz-typische Edges.
  14. Masken kombinieren: Teilbereiche mehrfach mit verschiedenen Prompts überarbeiten.
  15. Lighting-Studies: Nutze „softbox from left“ oder „rimlight neon pink“ für gezieltes Licht.
  16. Schneller testen: Erst mit simplen Prompts, dann komplex verfeinern.
  17. Stil-Kombos: Zwei Bildinputs + Prompt → dreifache Achse (Person, Style, Background).
  18. Dokumentation: Prompts im Ebenennamen abspeichern → volle Nachvollziehbarkeit.
  19. SynthID beachten: Alle Bilder sind gekennzeichnet – wichtig für Veröffentlichung.
  20. Community inspo: Schau bei Replicate-„Examples“ oder GitHub-Snippets, welche Inputs gut funktionieren.

Linksammlung


Fazit

NanoBanana ist ein Gamechanger – besonders, wenn man es direkt im Photoshop-Workflow nutzt. Wer seine Bilder ohnehin in Ebenen bearbeitet, spart sich den Export/Import-Wahnsinn und arbeitet quasi „in place“. Mit den 20 Tipps kannst du den Workflow perfektionieren – vom schnellen Fashion-Edit bis hin zum komplexen Blend mit künstlerischem Stilbruch.



Deine eigene Homepage mit ChatGPT – der ausführliche Einsteiger‑Guide (wirklich)

Eine Website wirkt oft wie ein Berg: Domain, Design, Texte, SEO, Rechtliches, Technik – uff. Mit ChatGPT kannst du das runterbrechen: planen, schreiben, strukturieren, checken. Dieser Guide führt dich einmal komplett von null bis „online“ – inklusive Beispielen, Prompts und Tool‑Links.


1) Das Fundament: Ziel, Publikum, Nutzen (20 Minuten)

Was soll die Seite leisten?

  • Informieren (Portfolio, Vita, Referenzen)
  • Verkaufen (Leistungen/Shop, Terminbuchung)
  • Publikum aufbauen (Blog/Newsletter)

Mini‑Workshop (du + ChatGPT):
Prompt: „Du bist mein Web‑Planer. Stelle mir nacheinander 10 Fragen, um Ziel, Zielgruppe, Nutzenversprechen, Tonalität und Inhalte meiner Website zu klären. Fasse danach alles als Positioning‑Statement in zwei Sätzen zusammen.“

Outcomes, die du danach notierst: 1) Ziel der Seite, 2) Primäre Zielgruppe, 3) Top‑3‑Probleme dieser Zielgruppe, 4) Dein Nutzen in einem Satz (Hero‑Claim), 5) Ton (seriös / locker / künstlerisch).


2) Die Struktur: Sitemap & Content‑Plan (30–45 Minuten)

Starte schlank. Eine gute Einsteiger‑Sitemap:

  • Startseite (Claim, 1–2 Kernangebote, Social Proof, Kontakt‑CTA)
  • Über mich/uns (wer, warum, wie – mit Foto)
  • Leistungen/Angebote (klarer Nutzen, Preise/„ab…“, Ablauf, FAQ)
  • Blog/News (3–5 Startartikel)
  • Kontakt (Formular, E‑Mail, Social, Öffnungszeiten)

Prompt für die Gliederung:
„Erstelle mir eine Sitemap und Seiten‑Gliederungen (H1–H3 + Stichpunkte) für [Thema/Branche], zielgruppengerecht für [Zielgruppe], Ton: [Ton]. Gib zusätzlich je Seite 2 CTA‑Vorschläge.“


3) Die Plattform wählen: No‑Code vs. „mehr Kontrolle“

Für Einsteiger funktionieren Website‑Baukästen sehr gut. Kurzer Überblick:

  • WordPress.com – flexibel, riesiges Ökosystem, Blog‑König. Gut skalierbar. WordPress.comWordPress.org
  • Wix – extrem einfach, viele Vorlagen, AI‑Assistent, All‑in‑One. wix.com
  • Squarespace – schicke Templates, alles aus einem Guss (CMS, Domains, Shop). Squarespace
  • Webflow – visuell, sehr präzises Design, etwas steilere Lernkurve. webflow.com

Entscheidungs‑Regel:

  • Willst du schnell, hübsch, „ein Tool“ → Wix / Squarespace. wix.comSquarespace
  • Willst du Blog‑Power + später mehr Kontrolle → WordPress.com. WordPress.com
  • Willst du Pixel‑Genauigkeit & Animations‑Finesse → Webflow. webflow.com

Tipp: Entscheide in 30 Minuten. Perfektionismus frisst Momentum.


4) Domain, Technik, Sicherheit (30 Minuten)

  • Domain kurz, merkbar, ohne Sonderzeichen.
  • HTTPS ist Pflicht: moderne Hoster/Baukästen aktivieren’s automatisch. Falls Self‑Hosting: Let’s Encrypt liefert kostenlose TLS‑Zertifikate. letsencrypt.org

Österreich‑Spezifika (keine Rechtsberatung):


5) Design „ohne Designer“: Farben, Schriften, Icons (45–60 Minuten)

  • Farben: Mit Coolors Palette generieren; 1 Primär, 1 Akzent, 2 Neutrale. Coolors.co
  • Schriften: Google Fonts – kombiniere eine Serif/Sans als Headline + eine gut lesbare Sans als Fließtext. Google Fonts
  • Icons: Material Symbols (Google) oder Font Awesome – konsistent einsetzen. Google Fontsfontawesome.com

Prompt für dein Mini‑Branding:
„Erstelle ein Micro‑Branding: 1 Primärfarbe (Hex), 1 Akzentfarbe (Hex), 2 neutrale Grautöne, 2 Google‑Fonts (Headline/Body) inkl. Begründung. Ton: modern, ruhig, hochwertig.“


6) Inhalte schreiben – mit ChatGPT schneller zum Punkt

So briefst du ChatGPT pro Seite:

  • Ziel (z. B. Beratungstermin buchen)
  • Zielgruppe & Problem
  • Nutzenversprechen (ein Satz)
  • Beweise (Referenzen, Zahlen, Zitate)
  • Tonalität (z. B. klar, nahbar)
  • CTA (z. B. „Kostenloses Erstgespräch sichern“)

Prompt‑Beispiel (Startseite):
„Schreibe eine Startseiten‑Hero‑Section für [Angebot] an [Zielgruppe], Problem: [X], Lösung/Nutzen: [Y]. Ton: [Ton]. 1 Claim (max. 9 Wörter), 1 Unterzeile (max. 18 Wörter), 2 Bullet‑Vorteile, 1 CTA‑Button‑Text.“

Bilder: authentische Fotos wirken. Quellen für freie Bilder: Unsplash, Pexels. Komprimieren vor dem Upload (siehe unten). unsplash.comPexels


7) Bilder & Geschwindigkeit: klein, aber scharf

Warum: Schnelle Seiten ranken und konvertieren besser. Google misst Core Web Vitals (LCP/INP/CLS). Teste mit PageSpeed Insights oder Lighthouse. web.devpagespeed.web.devChrome for Developers

Workflow

  1. Export in WebP/JPEG
  2. Squoosh (lokal im Browser) oder TinyPNG komprimieren →
  3. sinnvolle Dateinamen + Alt‑Text. squoosh.apptinypng.com

Mehr dazu: PSI erklärt Messung & Tipps, Lighthouse gibt konkrete Audits. Google for DevelopersChrome for Developers


8) SEO für Einsteiger – ohne Voodoo

Basics, die reichen

  • Eine Seite = ein Hauptthema.
  • Title & Meta‑Description sauber formulieren.
  • Überschriften‑Hierarchie (H1 einmal, H2/H3 logisch).
  • Interne Links (von relevanten Seiten vernetzen).
  • Hilfreiche Inhalte für Menschen, nicht für Maschinen.

Offizielle Guides: Google SEO Starter Guide & „People‑First Content“. Google for Developers+1

Keywords finden (kostenlos): Google Trends gibt Nachfrage‑Gefühl; tiefergehendes Research optional mit weiteren Tools. Google Trends

Messen & verbessern

  • Search Console einrichten (Indexierung, Suchanfragen, CTR). Google
  • Optional GA4 (Verhalten, Conversions) oder Plausible (datenschutzfreundlich, leicht). Google HilfePlausible Analytics

9) Barrierefreiheit: besser für alle, oft sofort machbar

  • Kontrast prüfen, Alt‑Texte schreiben, Tastatur‑Bedienbarkeit, Formular‑Labels.
  • Orientierung an WCAG‑Quick‑Reference. W3C+1

10) Test & Launch: Checkliste

Vor Livegang

Nach Livegang


11) Betrieb & Pflege: klein anfangen, konsistent bleiben

  • Redaktionsplan (1 Post/Woche).
  • Monatlich Lighthouse/PSI laufen lassen, Bilder nachoptimieren. pagespeed.web.devChrome for Developers
  • Vierteljährlich Inhalte aktualisieren, veraltete Seiten zusammenführen.
  • Backup/Updates (falls WordPress selbst gehostet). Bei Baukästen übernimmt der Anbieter vieles.

12) 20 praktische Tipps aus der Praxis

  1. Starte mit einer Seite (Start) und erweitere – Content gewinnt gegen „Under Construction“.
  2. Above‑the‑fold: Claim + CTA, keine Wände aus Text.
  3. CTA‑Texte aktiv: „Kostenlos testen“, „Erstgespräch sichern“, nicht „Senden“.
  4. Telefon & Mail anklickbar (tel:, mailto:).
  5. Trust‑Signale: Logos, Bewertungen, Zertifikate – knapp präsentieren.
  6. Preise transparent („ab…“, Pakete) – spart Mails, steigert Leads.
  7. Bildgrößen passend (keine 5000px‑Header).
  8. Farbkontraste > Mindeststandard – gerade auf Mobil. W3C
  9. Lesbarkeit: 16–18px Body, 60–80 Zeichen Zeilenlänge.
  10. Interne Links in Fließtext – so führst du User & Crawler. Google for Developers
  11. Meta‑Descriptions wie Mini‑Ads schreiben (max. 160 Zeichen). Google for Developers
  12. Bilder komprimieren (Squoosh/TinyPNG) – jedes KB zählt. squoosh.apptinypng.com
  13. Icons statt Stock‑Flut – ruhiger, klarer (Material/FA). Google Fontsfontawesome.com
  14. 404‑Seite mit Suchfeld & 3 Top‑Links – Bounce senken.
  15. Formulare kurz – Name, E‑Mail, Nachricht reicht häufig.
  16. FAQ pro Leistung – Einwände entkräften, SEO‑Gold. Google for Developers
  17. Core Web Vitals halbjährlich tracken (PSI, Lighthouse). pagespeed.web.devChrome for Developers
  18. Alt‑Texte beschreiben Zweck, nicht „Bild1“. W3C
  19. HTTPS überall, Weiterleitung http→https aktiv. letsencrypt.org
  20. Search Console Alerts ansehen – Google sagt dir, was weh tut. Google

13) Content‑Vorlagen (zum Direkt‑Einsetzen)

Startseite: Hero (Beispiel)

  • Claim: „[Kernnutzen] – ohne [Hauptärgernis].“
  • Unterzeile: „Für [Zielgruppe], die [Ergebnis] wollen – klar, schnell, fair.“
  • CTA: „Erstgespräch sichern“ | Zweit‑CTA: „Portfolio ansehen“

„Über mich“: 5‑Satz‑Story

  1. Problem deiner Zielgruppe in einem Satz.
  2. Warum du das Thema machst (1 persönlicher Satz).
  3. Deine Methode in 2–3 Stichworten.
  4. 1 messbares Ergebnis (Zahl/Zitat).
  5. Einladung/CTA.

Leistungsseite: Abschnitts‑Muster

  • Ergebnis‑Headline („In 14 Tagen live: Ihre Website, die verkauft“)
  • Kurzer Nutzenabsatz (2–3 Sätze)
  • Paket (Leistungsumfang in 5 Bullets)
  • Ablauf (Schritt 1–3)
  • FAQ (3 häufige Einwände kurz beantworten)
  • CTA

14) Beispiel‑Prompts, die wirklich helfen

  1. „Erstelle 5 Startseiten‑Claims (max. 7–9 Wörter) für [Angebot], Ton [Ton].“
  2. „Gib mir eine H1/H2‑Struktur + 150‑Wörter‑Absätze für eine Leistungsseite [Thema], inkl. 3 FAQs.“
  3. „Formuliere 3 Meta‑Descriptions (≤160 Zeichen) für [Seite], jeweils mit klarer Handlungsaufforderung.“ Google for Developers
  4. „Schreibe 10 Blog‑Ideen mit Hook + 1‑Satz‑Zusammenfassung, Suchintention: informational.“
  5. „Überarbeite diesen Text in klarer, konkreter Sprache, streiche Füllwörter, halte Sätze <20 Wörter.“
  6. „Erstelle Alt‑Texte für diese 5 Bildbeschreibungen – Zweck erklären, keine Keyword‑Stopfung.“ W3C
  7. „Gib mir 3 A/B‑Varianten für diesen CTA‑Button, aktiv, maximal 3 Wörter.“

15) Nützliche Links (kuratiert & offiziell, wo möglich)

SEO & Qualität

Baukästen

Design

Bilder & Komprimierung

Testing

Analytics

Sicherheit & Recht (AT, ohne Gewähr)


Schluss: So setzt du es diese Woche um

  • Tag 1: Ziel + Positioning + Sitemap (mit ChatGPT).
  • Tag 2: Plattform auswählen, Template picken, Farben/Fonts/Icons fixen.
  • Tag 3: Start, Über, Leistungen – Texte mit ChatGPT + Bilder komprimieren.
  • Tag 4: Kontakt + Rechtliches + Onpage‑SEO (Titles, Meta, H‑Struktur).
  • Tag 5: Tests (DevTools/Lighthouse), Launch, Search Console & Analytics aktivieren.


KI-Modell-Training für Einsteiger (No-Code)

Ziel: Dein eigenes KI-Bildmodell aus Fotos erstellen – ganz ohne Programmierkenntnisse. Wir nutzen No‑Code‑Oberflächen und einfache Klick‑Anleitungen.


1) Was du brauchst

  • 10–20 gute Fotos deines Motivs (Person, Produkt, Stil) – scharf, gut belichtet, verschiedene Posen & Hintergründe.
  • Internetverbindung.
  • Einen kostenlosen Account bei einer der folgenden Plattformen.

2) Die einfachsten Plattformen (für Einsteiger)

2.1 Scenario.gg (für Figuren, Objekte, Stile)

  • Website: https://www.scenario.com
  • Kosten: Kostenloser Startplan.
  • Vorteil: Komplett No‑Code, super einfache Oberfläche.
  • Ablauf:
    1. Account anlegen.
    2. „Create a New Generator“ wählen.
    3. Fotos hochladen.
    4. Namen/Triggerwort vergeben.
    5. Train starten – dauert ca. 30–60 Min.
    6. Nach Fertigstellung: Generator nutzen, um neue Bilder zu erzeugen.

2.2 InstantID bei Hugging Face (Personenporträts)

  • Website: https://huggingface.co/spaces/InstantX/InstantID
  • Kosten: Kostenlos nutzbar.
  • Vorteil: Sofortige Bildgenerierung auf Basis deines Fotos.
  • Ablauf:
    1. Space öffnen.
    2. Dein Foto hochladen.
    3. Beschreibung eingeben (Prompt).
    4. Auf „Generate“ klicken.
    5. Bild speichern.

2.3 Mage.Space (Allround, inkl. Training)

  • Website: https://www.mage.space
  • Kosten: Free‑Plan (langsamer) + Pro‑Plan (schnell, ab ca. 8 $/Monat).
  • Ablauf:
    1. Account erstellen.
    2. „Train“ auswählen.
    3. Fotos hochladen.
    4. Namen vergeben.
    5. Training starten.
    6. Mit deinem Modell neue Bilder erstellen.

2.4 Leonardo AI (schnell & vielseitig)

  • Website: https://leonardo.ai
  • Kosten: Kostenloses Kontingent.
  • Ablauf:
    1. Registrieren.
    2. „Train Your Model“ → „Custom Model“ wählen.
    3. Fotos hochladen.
    4. Kategorie auswählen.
    5. Train starten.
    6. Nach Fertigstellung mit „Generate“ nutzen.

3) Vorbereitung deiner Fotos (für alle Plattformen gleich)

  • Vielfalt: Nahaufnahme, halbe Figur, ganze Figur.
  • Licht: Tageslicht, Kunstlicht, drinnen/draußen.
  • Kleidung: Verschiedene Outfits.
  • Keine anderen Personen im Bild.
  • Gute Qualität: Keine unscharfen oder zu dunklen Fotos.
  • Dateiformat: JPG oder PNG.

4) Schritt-für-Schritt-Beispiel mit Scenario.gg

  1. Gehe zu https://www.scenario.com.
  2. Registriere dich (Google‑Login möglich).
  3. Klicke auf „Create Generator“.
  4. Lade 10–20 Bilder hoch.
  5. Vergib einen Namen und ein seltenes Triggerwort (z. B. „sksperson“).
  6. Klicke auf „Train Model“.
  7. Warte, bis das Training fertig ist (Statusbalken beobachten).
  8. Gehe zu „Generate“ und tippe einen Text wie:
    a portrait photo of sksperson, studio lighting, 4k, highly detailed
  9. Bild speichern.

5) 5 schnelle Tipps für beste Ergebnisse

  1. Bilder mischen: Unterschiedliche Winkel, Lichtverhältnisse.
  2. Triggerwort merken: Immer ins Prompt schreiben.
  3. Einfach starten: Lieber zu wenige als zu viele Details im ersten Prompt.
  4. Variationen testen: Nach dem ersten Bild andere Beschreibungen ausprobieren.
  5. Qualität sichern: Nur die besten Fotos ins Training nehmen.

6) Nützliche Links


Fazit:
Mit diesen No‑Code‑Plattformen kannst du auch ohne jede Programmiererfahrung in wenigen Minuten ein eigenes KI‑Modell trainieren und sofort nutzen. Das Wichtigste: Gute Fotos rein, klare Beschreibung raus – und der Rest passiert mit einem Klick.



Dein eigenes KI‑Fotomodell aus Fotos trainieren (kostenfrei & low‑cost)

Ziel: Du baust dir ein persönliches Bild‑Modell (z. B. für Personen, Produkte, einen Stil), das du überall wiederverwenden kannst – ideal für konsistente Serien, Kampagnen & Looks.


1) Was genau trainierst du?

  • LoRA (Low‑Rank Adaptation): kleines Zusatz‑Gewicht, schnell & günstig zu trainieren, super für Personen/Stile. Ergebnis: .safetensors (ein paar MB).
  • DreamBooth: feintuned Checkpoint (größer), lernt die Person/den Stil „schwerer“. Heute oft DreamBooth‑LoRA (Kombi) für SDXL.
  • Textual Inversion: lernt nur ein neues Prompt‑Token (extrem klein), schwächer als LoRA, aber simpel.

Für 2025 empfehle ich: SDXL‑LoRA (ggf. mit DreamBooth‑Techniken) – beste Balance aus Qualität, Kosten & Reproduzierbarkeit.


2) Deine Optionen (kostenfrei → günstig)

  1. Kaggle Notebooks (kostenfrei, GPU‑Kontingent)
    • Vorteil: gratis T4/P100 GPU (Wochenkontingent, Sessions limitiert).
    • Nachteil: Limits/Timeouts; Upload/Download via Notebook.
  2. Google Colab Free (kostenfrei, aber schwankend)
    • Vorteil: schneller Start.
    • Nachteil: GPU nicht garantiert, Zeitlimits, Disconnects.
  3. Hugging Face Spaces
    • Vorteil: No‑Code‑UIs existieren.
    • Nachteil: Für GPU meist kostenpflichtig (oder Warteschlangen).
  4. Low‑Cost GPU‑Cloud (RunPod, Vast.ai)
    • Vorteil: planbar, flott (RTX 4090/A100), GUI‑Templates (Kohya, A1111).
    • Nachteil: ein paar Euro pro Stunde.
  5. Lokal (Windows/macOS/Linux, NVIDIA 8–24 GB VRAM empfohlen)
    • Vorteil: volle Kontrolle, keine Limits.
    • Nachteil: Setup/VRAM nötig.

3) Datensatz: So bereitest du deine Fotos vor

  • Motiv‑Varianz: Nah/halb/ganzer Körper, verschiedene Kleidung, Licht, Hintergründe, Blickrichtungen, Emotionen.
  • Gesichter: Möglichst nur dein Zielgesicht, keine Neben‑Gesichter.
  • Qualität > Menge: Scharf, gut belichtet; verwackelte/duplizierte Bilder raus.
  • Auflösung: 768–1024 px kürzere Kante; SDXL arbeitet nativ gern mit 1024.
  • Captioning: Schreibe pro Bild kurze, präzise Beschreibungen (oder auto‑generieren via BLIP).
  • Reg‑Bilder (optional, DreamBooth): Klassenbilder („man“, „woman“, „backpack“, …) zur Stil‑Erhaltung.
  • Rechtliches: Nur Bilder mit Nutzungsrechten/Einwilligung; sensible Daten vermeiden.

Ordnerstruktur (Beispiel):

/data
  /instance      # deine Trainingsfotos + .txt-Captions
  /class         # optionale Regularization-Bilder

Caption‑Beispiele:

"a portrait photo of <TOK> man, studio lighting, close-up, neutral background"
"a full body photo of <TOK> man, streetwear, urban background, evening"

<TOK> = dein Trigger‑Wort (seltenes Token, z. B. „sksperson“).


4) Weg A (100% kostenfrei): Kaggle + Diffusers (SDXL‑LoRA)

A.1 Notebook vorbereiten

  • Neues Kaggle NotebookGPU aktivieren → Python.
  • Pakete installieren & Daten einbinden:
!pip -q install --upgrade pip
!pip -q install accelerate transformers peft diffusers==0.31.0 bitsandbytes datasets wandb safetensors xformers
!git clone https://github.com/huggingface/diffusers && cd diffusers && pip -q install -e .
!mkdir -p /kaggle/working/data/instance /kaggle/working/data/class /kaggle/working/output

  • Lade deine Bilder + Captions nach /kaggle/working/data/instance (per „Upload“ links) und ggf. Klassenbilder nach /class.

A.2 Training starten (SDXL‑LoRA)

Minimal‑Kommando (Beispiel – anpassen!):

python diffusers/examples/text_to_image/train_text_to_image_lora_sdxl.py \
  --pretrained_model_name_or_path="stabilityai/stable-diffusion-xl-base-1.0" \
  --pretrained_vae_model_name_or_path="madebyollin/sdxl-vae-fp16-fix" \
  --dataset_name="/kaggle/working/data" \
  --instance_data_dir="/kaggle/working/data/instance" \
  --caption_column="caption" \
  --resolution=1024 \
  --train_batch_size=2 \
  --gradient_accumulation_steps=1 \
  --mixed_precision="bf16" \
  --snr_gamma=5.0 \
  --rank=32 \
  --learning_rate=1e-4 \
  --text_encoder_lr=3e-4 \
  --max_train_steps=1200 \
  --output_dir="/kaggle/working/output" \
  --report_to="none"

Tipps:

  • Weniger VRAM? --train_batch_size=1, --rank=16, --gradient_checkpointing ergänzen.
  • Overfitting? Schritte senken (z. B. 800–1200), Datensatz mit Varianz erweitern.
  • Zu generisch? Bessere Captions & klarer <TOK> nutzen.

A.3 LoRA verwenden (A1111/ComfyUI)

  • Resultat liegt in /kaggle/working/output – lade die .safetensors herunter.
  • In AUTOMATIC1111: Ordner models/Lora/ → LoRA laden → Prompt: "<lora:DEIN_LORA:0.8> a portrait of <TOK> man, ..."

5) Weg B (GUI, super‑einfach): RunPod + Kohya GUI (low‑cost)

B.1 Pod starten

  1. RunPod Konto → TemplatesKohya_ss oder A1111/ComfyUI Template wählen.
  2. GPU (z. B. 3090/4090/A100) + Volume anlegen → Deploy.
  3. Nach Start: über die angezeigten HTTP‑Ports auf Kohya GUI (z. B. Port 3010) verbinden.

B.2 Daten & Captioning

  • Deine Bilder in den im Template vorgesehenen Ordner laden.
  • In Kohya GUI › Utilities: BLIP Captioning ausführen (Feinschliff später per Hand ok).
  • Optional: Regularization Images für die passende Klasse herunterladen/einbinden.

B.3 LoRA/DreamBooth trainieren (SDXL)

  • Model/Network: SDXL‑Base + passendes VAE.
  • Network Rank/Alpha: z. B. 16–32 / 8–16 (Startwerte).
  • Resolution: 1024.
  • LR: 1e‑4 (UNet), 3e‑4 (Text‑Encoder wenn aktiv).
  • Min‑SNR Gamma: 5.0.
  • Epochs/Steps: 800–1500 (abhängig von Bildanzahl/Varianz).
  • Validation Prompt: mit <TOK> testen.
  • Start → nach Abschluss .safetensors herunterladen.

6) Weg C (lokal): Windows mit NVIDIA (8–24 GB VRAM)

C.1 Inferenz‑UIs

  • AUTOMATIC1111 WebUI: schnelle Nutzung/Tests.
  • ComfyUI Desktop: node‑basiert, stabil & modular (inkl. Manager für Add‑ons).

C.2 Training lokal (Kohya GUI)

  • Python + Git installieren → Kohya GUI klonen → setup.bat/launch.py → GUI starten.
  • Workflow wie in Weg B (Daten, Captioning, Parameter).
  • Tipp: Für SDXL mindestens 12–16 GB VRAM angenehm; mit --xformers, kleineren Ranks/Batch‑Sizes arbeiten.

7) Best Practices (kompakt)

  • Datenkuratiert > Hyperparameter‑Magie. Cleanup lohnt sich am meisten.
  • Varianz im Datensatz (Posen/Licht/Hintergrund) → bessere Generalisierung.
  • Klare Captions: kurze, präzise, konsistent; <TOK> immer drin.
  • Pivotal Tuning (Textual‑Inversion‑Phase + LoRA) kann Gesichter stabilisieren.
  • Min‑SNR (≈5) hilft oft gegen Matsch/Artefakte.
  • Reg‑Bilder nutzen, wenn Stil/„Klasse“ wegrutscht.
  • Checkpoints oft testen (alle 200–300 Steps) → früh stoppen statt übertrainieren.
  • Versionieren (Ordner/Dateiname mit Datum/Steps).
  • VRAM knapp? Rank/BW reduzieren, Gradient‑Checkpointing, Batch=1, 768 statt 1024.
  • Recht & Ethik: Nur eigene/rechtmäßige Fotos; Einwilligungen sichern; keine Irreführung.

8) 10 clevere Einsatzmöglichkeiten

  1. Brand‑Avatar/Maskottchen: wiedererkennbar in jedem Setting.
  2. Kampagnen‑Serien: gleiche Person/Produkt in 20 Looks.
  3. Fashion‑Lookbooks: Outfits, Posen, Locations variieren – gleiche Ästhetik.
  4. Porträt‑Sets: Corporate‑Heads in konsistentem Stil.
  5. Produkt‑Mockups: Verpackung/Objekte skaliert in Szenen.
  6. Architektur/Interior: Material‑ oder Licht‑Stile als LoRA.
  7. Storyboard/Pre‑Viz: Figuren & Orte wiederkehrend.
  8. Editorial‑Stile: eigenständige Farb‑/Grain‑Signatur.
  9. Education/Workshops: eigenes Demo‑Modell für Lehrzwecke.
  10. Social‑Content: Serien mit Serien‑Look, hoher Wiedererkennungswert.

9) Troubleshooting (kurz)

  • VRAM‑Fehler (CUDA OOM): Batch runter (1), --rank ↓, Auflösung 768, Gradient‑Checkpointing an.
  • Gesicht inkonsistent: mehr Close‑ups, Captions präziser, Pivotal Tuning aktivieren, Steps leicht hoch.
  • „Alles sieht gleich aus“: Datensatz diverser machen, Reg‑Bilder, LR minimal senken.
  • Artefakte/Weird Textures: höherwertige Quellbilder, Min‑SNR beibehalten, weniger Repeats/Steps.

10) Nützliche Links (offizielle Docs & solide Ressourcen)


11) Mini‑Cheatsheet (SDXL‑LoRA Hyperparameter – Startwerte)

  • Resolution: 1024
  • Rank: 16–32
  • LR: UNet 1e‑4 / Text‑Encoder 3e‑4 (wenn aktiv)
  • Min‑SNR Gamma: 5.0
  • Steps: 800–1500 (abhängig von Datenvielfalt)
  • Batch: 1–2
  • Validation: alle 200–300 Steps Bild checken

Passe alles an deine VRAM‑Grenzen & Datensatz‑Varianz an – teste früh, stoppe rechtzeitig.


12) Sicherheit, Recht & Sauberkeit

  • Einwilligungen von abgebildeten Personen sichern (DSGVO).
  • Meta‑Daten prüfen/entfernen (EXIF), sensible Infos vermeiden.
  • Keine Verwechslungsgefahr mit Promis/realen Dritten erzeugen.
  • Transparenz: Bei Veröffentlichung Herkunft/Methodik fair angeben (z. B. „Synthography“‑Hinweis).


Prompts and Reference Images- 100 % Brownz – 100% NO Secrets.


MAGNIFIC: The Image is a stylized Photograph or digital artwork depicting a slender female figure seemingly entangled in a web or network of dark, string-like Material. The woman’s body is arched backward in a graceful, almost balletic pose. Her skin is visible through the dark strands, which are wrapped tightly around her limbs and torso, creating a textured, almost sculptural effect. Her hair is dark and styled close to her head. Her expression is not visible. The background is plain and light, a stark white or off-white, which contrasts sharply with the dark, intricate web-like Material. The overall style is artistic and evocative, suggesting themes of entrapment, vulnerability, or perhaps transformation. The image’s mood is somewhat mysterious and ambiguous, leaving the viewer to interpret the narrative and emotional content. The lighting is even and diffused, avoiding harsh shadows and allowing the details of the figure and the web-like material to be clearly visible. The sharp contrast between the dark strands and the light background emphasizes the figure’s form and the intricate pattern of the web. The image likely involves digital manipulation or post-processing to achieve the seamless integration of the figure and the web-like Material. The level of detail and the precise rendering of the human form and the web suggest a high level of artistic skill and technical expertise.


MAGNIFIC: A half-naked female figure sitting on a glowing, molten rock throne, upper body realistic and human with bare breasts, tense muscles, and long dark tousled hair. Her left hand covers part of her face in emotional torment. From the hips down, her body morphs into monstrous, alien legs made of bark-like green-black biomass with glowing orange lava cracks. Realistic fire surrounds the base of the Rock, with smoke rising into a dark, biomechanical background inspired by H. R. Giger – ribbed, alien, and claustrophobic structures. Dramatic lighting from top left. Style: hyper realistic, dark fantasy, Biomech horror, cinematic, highly detailed. Image Description (Visual Analysis): At the center of the image is a half-naked female figure, seated on a massive, glowing stone Block. The upper body – shoulders, chest, and arms – is human, well-proportioned, and realistically depicted, with bare breasts and tense musculature. Her left hand partly covers her face, as if shielding herself from a blinding light or inner torment. Her hair is dark, slightly tousled, falling in strands over her shoulder and back. From the hips down, however, her body transforms into something non-human and monstrous: her legs consist of a greenish-black, bark-like biomatter, streaked with glowing orange, lava-like cracks – as if fire burns within. The structure resembles a blend of alien bark, fossilized slime, and scorched flesh. These deformed legs are drawn tightly toward her body, as if she is consumed by pain or emotional burden. The background is biomechanical, strongly reminiscent of H. R. Giger’s style: rib-like metallic structures, organic-looking tubes, and claustrophobic forms make up a dark setting of alien architecture. Around the base she sits on, realistic flames rise – blazing orange, with drifting smoke. The heat feels almost tangible. The image evokes a sense of fiery hell, a kind of transformation in the inferno. Additional Stylistic Features: Lighting: Dramatic, from the top left, highlighting musculature, skin, and the glow of burning elements. Color palette: Dominated by black, green, orange, and skin tones – high contrast and apocalyptic. Mood: Mythical, tormented, metamorphic. A goddess in transition, a demon in the making, or a victim of her own evolution. Genre: Dark Fantasy / Biomech / Surreal Horror

Erklärung und Struktur Referenz: FIREBORN METAMORPHOSIS – 10.11.2006 bis 2025: Ein Bild zwischen Zeiten Manche Bilder sind keine Werke – sie sind Wunden. Sie heilen nicht. Sie glühen unter der Oberfläche. Und wenn sie wieder auftauchen, dann nicht leise. Dieses hier hat gebrannt. Und jetzt brennt es wieder. Entstanden am 10. November 2006, liebevoll in Photoshop gebastelt – mit dem Model DANNY, in freier Kooperation mit HARTWORX. Alles war Handarbeit: das Composing, die Retusche, das Rendering. Die 3D-Elemente wurden von mir selbst in Lightwave 3D modelliert, mit der ikonischen Hypervoxel-Technik – eine wilde, organische Methode, flüssig wie Rauch, unberechenbar wie Feuer. Und ja: Renderzeit war damals ein Wort mit Zähnen. Stundenlange Belichtungsqual. Ein Warten, das heute wie Magie wirkt. Fast zwei Jahrzehnte später, 2025: Das ursprüngliche Werk wurde nicht neu gedacht, sondern präzise weiterentwickelt – technisch verfeinert mithilfe von Magnific AI im „Mystic“-Setting. Danach ging es wieder zurück in Photoshop: Schicht für Schicht überarbeitet, Details geschärft, Farbharmonien angepasst, neue Flammen geformt. Die KI lieferte nur Impulse – der Feinschliff blieb Handarbeit. Insgesamt sind über 20 Stunden Arbeit in dieses Bild geflossen – verteilt über zwei Zeitalter digitaler Gestaltung. Zwei Dekaden zwischen Ursprung und Überarbeitung. Und doch wirkt es, als wäre alles gleichzeitig passiert. Vergangenheit, Gegenwart und Glut vereint in einem einzigen Blick. Das ist keine Hommage. Kein Reboot. Das ist old blood, new clarity. Photoshop trifft Ursprung. KI liefert nur Staub und Licht. Im Flammenmantel der verzauberten Stille: Ein Leib aus Mondlicht, doch in Glut getaucht, er steht auf Felsen, die kein Tag erreicht. Die Hand verschleiert, was die Stirne braucht – ein Traum, der brennt, doch niemals unterbleicht. Was schützt sie vor dem Auge der Gewalt? Vielleicht ein Spiegel, der die Welten hält? Darin: ein Garten, blühend, doch erkaltet, von schwarzen Sternen übersät, entfaltet. Die Lava flüstert in uraltem Ton, ein Chor von Schatten, die den Namen fliehen. Sie opfert sich – doch wem? Dem leeren Thron? Dem Nichts, das lacht, wenn Götter untergehen? Doch horch! Im Knistern, das die Luft durchzieht, erwacht ein Samen, den die Asche trägt. Er wächst – nicht grün, nicht licht – nein, tiefgemalt vom Purpur jener Zeit, die keiner misst. Synthography ist die Verschmelzung von Fotografie, KI-generierten Elementen und klassischer Bildbearbeitung. Finalisiert in Photoshop entsteht ein Werk, das nicht reproduzierbar ist – eine surreale Signatur auf der Haut der Gegenwart. Website: www.brownzart.com – Blog: www.brownz.art – Kontakt: brownz@brownz.art

Nur Magfnic Prompt – Kein Referenzbild: A half-naked female figure sitting on a glowing, molten rock throne, upper body realistic and human with bare breasts, tense muscles, and long dark tousled hair. Her left hand covers part of her face in emotional torment. From the hips down, her body morphs into monstrous, alien legs made of bark-like green-black biomass with glowing orange lava cracks. Realistic fire surrounds the base of the Rock, with smoke rising into a dark, biomechanical background inspired by H. R. Giger – ribbed, alien, and claustrophobic structures. Dramatic lighting from top left. Style: hyper realistic, dark fantasy, Biomech horror, cinematic, highly detailed. Image Description (Visual Analysis): At the center of the image is a half-naked female figure, seated on a massive, glowing stone Block. The upper body – shoulders, chest, and arms – is human, well-proportioned, and realistically depicted, with bare breasts and tense musculature. Her left hand partly covers her face, as if shielding herself from a blinding light or inner torment. Her hair is dark, slightly tousled, falling in strands over her shoulder and back. From the hips down, however, her body transforms into something non-human and monstrous: her legs consist of a greenish-black, bark-like biomatter, streaked with glowing orange, lava-like cracks – as if fire burns within. The structure resembles a blend of alien bark, fossilized slime, and scorched flesh. These deformed legs are drawn tightly toward her body, as if she is consumed by pain or emotional burden. The background is biomechanical, strongly reminiscent of H. R. Giger’s style: rib-like metallic structures, organic-looking tubes, and claustrophobic forms make up a dark setting of alien architecture. Around the base she sits on, realistic flames rise – blazing orange, with drifting smoke. The heat feels almost tangible. The image evokes a sense of fiery hell, a kind of transformation in the inferno. Additional Stylistic Features: Lighting: Dramatic, from the top left, highlighting musculature, skin, and the glow of burning elements. Color palette: Dominated by black, green, orange, and skin tones – high contrast and apocalyptic. Mood: Mythical, tormented, metamorphic. A goddess in transition, a demon in the making, or a victim of her own evolution. Genre: Dark Fantasy / Biomech / Surreal Horror


Magnific Prompt: The photograph is a meticulously crafted, high-fashion, black and white studio portrait that transcends mere representation, venturing into the realm of surrealism and dramatic visual storytelling. The model, whose face is partially obscured and dramatically made up, is less a person and more a sculptural element within the composition. The figure is not simply wearing the gown; the gown and the figure appear almost symbiotically intertwined, suggesting a metamorphosis or a blurring of boundaries between the human form and the fabric. The gown itself is the true protagonist. It is a chaotic yet controlled explosion of sheer fabric—likely tulle or organza—arranged in a manner that defies gravity and conventional draping. The layers are not passively draped; they actively twist, swirl, and billow, creating a sense of restless energy and hidden movement. The texture is paramount; the photograph is a study in contrasts, highlighting the delicate translucence of the fabric in some areas while plunging others into deep shadow, creating a sense of both fragility and formidable presence. The folds and creases are not merely incidental; they are carefully sculpted to evoke a sense of depth and internal complexity, hinting at a hidden world within the fabric’s folds. The elaborate headpiece, a crown-like structure of similarly textured fabric, completes the surreal effect. It is not merely an accessory; it is an integral part of the figure’s transformation, a symbolic element that adds to the sense of otherworldliness and perhaps even confinement within the fabric’s embrace. The stark, even grey background is not just a neutral backdrop; it is a crucial element in isolating and emphasizing the model and gown, creating a sense of isolation and heightened drama. The lighting is not simply illuminating; it is sculpting the form, using light and shadow to create a chiaroscuro effect that enhances the three-dimensionality and texture of the fabric. The interplay of light and shadow suggests a hidden depth, a world contained within the folds, inviting the viewer to explore the unseen. The black and white format is not a mere stylistic choice; it is essential to the photograph’s surreal and dramatic effect. The absence of color intensifies the contrasts between light and shadow, texture, and form, creating a heightened sense of drama and visual impact. The overall effect is a powerful, unsettling, and unforgettable image that transcends the boundaries of fashion photography, entering the realm of fine art, a visual exploration of texture, form, and the surreal transformation of the human form. The photograph is a meticulously crafted piece of dark art, a gothic full body portrait that transcends mere representation to become a visceral experience of horror and decadent beauty. The central figure, a screaming vampire queen, is not simply depicted; she is embodied by the swirling, chaotic fabric of her gown. This is not clothing; it is a second skin, a shroud woven from the very essence of darkness, clinging to her form like a living nightmare. The gown itself appears to be constructed from layers of black tulle or possibly a heavy, dark silk, its texture both delicate and menacing. The fabric is not passively draped; it writhes and twists, suggesting an internal struggle, a restless energy that mirrors the queen’s tormented soul. Close examination reveals the fabric’s intricate textural details: the subtle sheen of silk, the delicate fraying of tulle, the way the light catches the folds to reveal hidden depths and shadows. These details are not incidental; they are carefully orchestrated to create a sense of unease and impending doom. The queen’s scream, though silent in the image, is palpable. Her face, partially obscured by shadow and contorted in a silent shriek, is a masterpiece of macabre beauty. The makeup, likely pale and stark against the darkness of her attire, accentuates her gaunt features, highlighting hollow cheeks and shadowed eyes. The expression is not merely pain; it is a blend of rage, anguish, and a chilling, almost triumphant defiance. Her mouth is agape in a silent scream, a testament to her eternal torment and her enduring power. Even the subtle details of her makeup, the precise application of shadow, the stark contrast between light and dark, contribute to the overall effect of unsettling beauty. The elaborate headpiece, a crown of thorns fashioned from twisted, blackened fabric, is not a symbol of royalty but a macabre headdress, a crown of suffering. Its jagged edges and uneven texture mirror the queen’s tormented state, suggesting a fusion of power and despair. The thorns themselves appear almost organic, as if grown from the very fabric of her darkness. The background is not merely a void; it is a representation of the abyss, a black nothingness that amplifies the queen’s isolation and emphasizes her spectral presence. The absence of any other element focuses all attention on the queen, solidifying her dominance within the frame. The lighting is masterfully controlled, using chiaroscuro to sculpt the queen’s form from the darkness, highlighting her skeletal features and the horrifying details of her attire. The shadows are not merely incidental; they are integral to the image’s power, creating a sense of depth and mystery, hinting at the unseen horrors lurking within the folds of her gown. The black and white format is not a stylistic choice; it is essential to the image’s gothic aesthetic. The absence of color enhances the sense of decay and despair, transforming the image into a chilling monochrome study of death and darkness. The photograph is not simply a portrait; it is a dark ritual, a summoning of the vampire queen’s terrifying presence, a testament to the power of darkness and the enduring allure of the macabre. It is a chilling exploration of gothic horror, a visual poem that lingers in the mind long after the image is seen.

Style Reference:

Finales Bild:

Magnific Prompt + Style Reference:

Finales Bild Version 2:

Nur Magnific Prompt ohne Referenzbild:


Hast du Fragen? Mail an: brownz@brownz.art



Die 10 geheimsten Grundeinstellungen in Photoshop 2025, die dein kreatives Leben revolutionieren

Ein Beitrag von brownz.art – deinem pixelverliebten Bewusstseinschirurgen


Photoshop 2025 ist da – schneller, smarter, aber auch: komplexer denn je. Wenn du dich nicht durch 87 Untermenüs klicken willst, nur um herauszufinden, warum dein Pinsel wie ein besoffener Frosch malt, dann lies jetzt gut mit. Denn ich serviere dir hier die zehn geheimsten und effektivsten Grundeinstellungen, die du unbedingt anpassen solltest, um die volle Macht von Photoshop 2025 zu entfesseln. Alles getestet, nichts Bullshit.


1. Performance-Booster: Cache-Einstellungen optimieren

Bearbeiten > Voreinstellungen > Leistung

  • Setze Cache-Stufen auf 4 oder 6, je nach RAM.
  • Wähle Cache-Kachelgröße: 1024 K für große Dokumente.
  • Stelle sicher: „Verwende Grafikprozessor“ ist aktiv – und klicke auf „Erweiterte Einstellungen“, um OpenCL zu aktivieren (sofern verfügbar).

2. Dateihandhabung: Versionschaos vermeiden

Bearbeiten > Voreinstellungen > Dateihandhabung

  • Aktiviere Automatisches Speichern alle 5 Minuten.
  • Setze „Standarddateiformat beim Speichern“ auf PSD.
  • Optional: Aktivieren von „Kompatible Datei mit älteren Versionen speichern“ – nützlich bei Teamwork.

3. Werkzeugeinstellungen: Nervige Standardverhalten ausschalten

Bearbeiten > Voreinstellungen > Werkzeuge

  • Deaktiviere: „Werkzeugtips anzeigen“, wenn du kein Kindergarten brauchst.
  • Aktiviere: „Zoom mit Bildlaufrad“ – pures Gold für Maus-Nutzer.
  • Deaktiviere: „Werkzeugkippdynamik aktivieren“, wenn du mit Tablett arbeitest und dich über unkontrolliertes Verhalten ärgerst.

4. Farben korrekt darstellen: Arbeitsfarbräume anpassen

Bearbeiten > Farbeinstellungen

  • RGB: Adobe RGB (1998) oder sRGB IEC61966-2.1 (je nach Zielplattform).
  • Aktiviere: „Farbtiefe beibehalten“, besonders bei 16bit-Workflows.
  • Warnung: Niemals „Farbmanagement deaktivieren“, außer du willst Farbroulette spielen.

5. Benutzeroberfläche entschlacken

Bearbeiten > Voreinstellungen > Benutzeroberfläche

  • Setze den Modus auf Dunkelgrau (Augen danken’s dir).
  • Deaktiviere: „Große Tab-Leiste“ – mehr Platz zum Arbeiten.
  • Aktiviere: „Dokumentfenster mit Tabulatordarstellung“, für besseres Multitasking.

6. Maßeinheiten und Raster: Präzision wie ein Uhrmacher

Bearbeiten > Voreinstellungen > Einheiten & Lineale

  • Maßeinheit: Pixel (für Web), Millimeter (für Print).
  • Raster: alle 64 Pixel mit Unterteilung in 4, ideal zum Layouten.
  • Lineale: horizontal & vertikal sichtbar schalten (Strg+R).

7. Dateikomprimierung und Kompatibilität für Web & KI

Exportieren > Für Web speichern (Legacy)

  • Voreinstellung: PNG-24 mit Transparenz.
  • ICC-Profil NICHT einbetten, wenn du für Web exportierst.
  • Für KI-Feeds oder Synthografie-Workflows: Immer Farbraum auf sRGB konvertieren.

8. Eigene Tastaturkürzel festlegen – dein persönlicher Warp-Antrieb

Bearbeiten > Tastaturbefehle

  • Beispiel: Strg+Alt+Shift+S neu zuweisen für „Schnellexport als PNG“.
  • Lege eigene Kürzel für: Ebene duplizieren, Auswahl umkehren, Farbbereich auswählen.
  • Spare im Schnitt 20 Minuten pro Tag = 122 Stunden im Jahr.

9. Werkzeugvorgaben organisieren wie ein Profi

Fenster > Werkzeugvorgaben

  • Erstelle eigene Toolsets für Retusche, Compositing oder Illustrationen.
  • Nutze Ordnerstruktur, damit dein Photoshop aussieht wie ein geordnetes Arsenal.
  • Extra-Tipp: Neue Presets in der Creative Cloud speichern = überall verfügbar.

10. Startup-Verhalten: Ladezeit killen

Bearbeiten > Voreinstellungen > Allgemein

  • Deaktiviere: „Start-Workspace beim Start anzeigen“.
  • Aktiviere: „Letztes Dokument beim Start laden“, wenn du meist an einem Projekt weiterarbeitest.
  • Ergebnis: Photoshop startet bis zu 40% schneller.

Fazit vom brownz.art:

Photoshop 2025 ist kein Spielzeug mehr – es ist ein Multitool für digitale Gehirnchirurgie. Aber nur, wenn du es richtig einstellst. Diese zehn Tipps sind dein Schraubenschlüssel-Set für die digitale Realität. Richtig justiert, wird aus dem Monster ein Verbündeter. Und aus dir: ein verdammter Bildmagier.

Bleib pixelverliebt, dein brownz.art