Stability.ai Diffusion 1.0 da immagine a immagine (mascheramento) - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Stability.ai Diffusion 1.0 da immagine a immagine (mascheramento)

Il modello Stability.ai Diffusion 1.0 ha i seguenti parametri di inferenza e la risposta del modello per utilizzare maschere con chiamate di inferenza da immagine a immagine.

Richiesta e risposta

Il corpo della richiesta viene passato nel body campo di una richiesta a InvokeModelo InvokeModelWithResponseStream.

Per ulteriori informazioni, consulta https://platform.stability.ai/docs/api-reference#tag/v1generation/operation/masking.

Request

Il modello Stability.ai Diffusion 1.0 ha i seguenti parametri di inferenza per effettuare una chiamata di inferenza da immagine a immagine (mascheramento).

{ "text_prompts": [ { "text": string, "weight": float } ], "init_image" : string , "mask_source" : string, "mask_image" : string, "cfg_scale": float, "clip_guidance_preset": string, "sampler": string, "samples" : int, "seed": int, "steps": int, "style_preset": string, "extras" : json object }

I seguenti sono parametri obbligatori.

  • text_prompt (obbligatorio): una matrice di prompt di testo da utilizzare per la generazione. Ogni elemento è un JSON oggetto che contiene un prompt e un peso per il prompt.

    • text: il prompt che desideri passare al modello.

      Minimo Massimo

      0

      2000

    • weight (facoltativo): il peso che il modello deve applicare al prompt. Un valore inferiore a zero dichiara un prompt negativo. Utilizza un prompt negativo per indicare al modello di evitare determinati concetti. Il valore predefinito per weight è uno.

  • init_image (obbligatorio): l'immagine con codifica base64 che desideri utilizzare per inizializzare il processo di diffusione.

  • mask_source (obbligatorio): determina da dove procurarsi la maschera. I valori possibili sono:

    • MASK_ IMAGE _ WHITE — Usa i pixel bianchi dell'immagine della maschera mask_image come maschera. I pixel bianchi vengono sostituiti e i pixel neri rimangono invariati.

    • MASK_ IMAGE _ BLACK — Usa i pixel neri dell'immagine della maschera mask_image come maschera. I pixel neri vengono sostituiti e i pixel bianchi rimangono invariati.

    • INIT_ IMAGE _ ALPHA — Usa il canale alfa dell'immagine init_image come maschera, i pixel completamente trasparenti vengono sostituiti e i pixel completamente opachi rimangono invariati.

  • mask_image (obbligatorio): l'immagine della maschera con codifica base64 che desideri utilizzare come maschera per l'immagine sorgente in init_image. Deve avere le stesse dimensioni dell'immagine di origine. Utilizza l'opzione mask_source per specificare quali pixel devono essere sostituiti.

I seguenti sono parametri opzionali.

  • cfg_scale (facoltativo): determina in che misura l'immagine finale ritrae il prompt. Utilizza un numero più basso per aumentare la casualità nella generazione.

    Predefinita Minimo Massimo

    7

    0

    35

  • clip_guidance_preset (facoltativo) Enum: FAST_BLUE, FAST_GREEN, NONE, SIMPLE, SLOW, SLOWER, SLOWEST.

  • sampler (facoltativo): il campionatore da utilizzare per il processo di diffusione. Se questo valore viene omesso, il modello seleziona automaticamente un campionatore appropriato.

    Enum: DDIM, DDPM, K_DPMPP_2M, K_DPMPP_2S_ANCESTRAL, K_DPM_2, K_DPM_2_ANCESTRAL, K_EULER, K_EULER_ANCESTRAL, K_HEUN K_LMS.

  • samples (facoltativo): il numero di immagini da generare. Attualmente Amazon Bedrock supporta la generazione di un'immagine. Se fornisci un valore per samples, il valore deve essere uno. genera

    Predefinita Minimo Massimo

    1

    1

    1

  • seed (facoltativo): il seed determina l'impostazione iniziale del rumore. Utilizza lo stesso seed e le stesse impostazioni dell'esecuzione precedente per consentire all'inferenza di creare un'immagine simile. Se non imposti questo valore, o il valore è 0, viene impostato su un numero random.

    Predefinita Minimo Massimo

    0

    0

    4294967295

  • steps (facoltativo): la fase di generazione determina quante volte l'immagine viene campionata. Ulteriori passaggi possono portare a un risultato più accurato.

    Predefinita Minimo Massimo

    30

    10

    50

  • style_preset (facoltativo): una preimpostazione di stile che guida il modello di immagine verso uno stile particolare. Questo elenco di preimpostazioni di stile è soggetto a modifiche.

    Enum: 3d-model, analog-film, animé, cinematic, comic-book, digital-art, enhance, fantasy-art, isometric, line-art, low-poly, modeling-compound, neon-punk, origami, photographic, pixel-art, tile-texture

  • extras (facoltativo): parametri aggiuntivi passati al motore. Utilizza questa soluzione con cautela. Questi parametri vengono utilizzati per funzionalità in fase di sviluppo o sperimentali e possono cambiare senza preavviso.

Response

Il modello Stability.ai Diffusion 1.0 ha i seguenti campi per effettuare chiamate di inferenza da testo a immagine.

{ "result": string, "artifacts": [ { "seed": int, "base64": string, "finishReason": string } ] }
  • result: il risultato dell'operazione. In caso di successo, la risposta è success.

  • artifacts: una serie di immagini, una per ogni immagine richiesta.

    • seed: il valore del seed utilizzato per generare l'immagine.

    • base64: l'immagine con codifica base64 generata dal modello.

    • finishedReason— Il risultato del processo di generazione dell'immagine. I valori validi sono:

      • SUCCESS— Il processo di generazione dell'immagine è riuscito.

      • ERROR— Si è verificato un errore.

      • CONTENT_ FILTERED — Il filtro dei contenuti ha filtrato l'immagine e l'immagine potrebbe essere sfocata.