Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Stability.ai Diffusion 1.0 da immagine a immagine (mascheramento)
Il modello Stability.ai Diffusion 1.0 ha i seguenti parametri di inferenza e la risposta del modello per utilizzare maschere con chiamate di inferenza da immagine a immagine.
Richiesta e risposta
Il corpo della richiesta viene passato nel body
campo di una richiesta a InvokeModelo InvokeModelWithResponseStream.
Per ulteriori informazioni, consulta https://platform.stability.ai/docs/api-reference#tag/v1generation/operation/masking
- Request
-
Il modello Stability.ai Diffusion 1.0 ha i seguenti parametri di inferenza per effettuare una chiamata di inferenza da immagine a immagine (mascheramento).
{ "text_prompts": [ { "text": string, "weight": float } ], "init_image" : string , "mask_source" : string, "mask_image" : string, "cfg_scale": float, "clip_guidance_preset": string, "sampler": string, "samples" : int, "seed": int, "steps": int, "style_preset": string, "extras" : json object }
I seguenti sono parametri obbligatori.
-
text_prompt (obbligatorio): una matrice di prompt di testo da utilizzare per la generazione. Ogni elemento è un JSON oggetto che contiene un prompt e un peso per il prompt.
text: il prompt che desideri passare al modello.
Minimo Massimo 0
2000
-
weight (facoltativo): il peso che il modello deve applicare al prompt. Un valore inferiore a zero dichiara un prompt negativo. Utilizza un prompt negativo per indicare al modello di evitare determinati concetti. Il valore predefinito per
weight
è uno.
-
init_image (obbligatorio): l'immagine con codifica base64 che desideri utilizzare per inizializzare il processo di diffusione.
-
mask_source (obbligatorio): determina da dove procurarsi la maschera. I valori possibili sono:
-
MASK_ IMAGE _ WHITE — Usa i pixel bianchi dell'immagine della maschera
mask_image
come maschera. I pixel bianchi vengono sostituiti e i pixel neri rimangono invariati. -
MASK_ IMAGE _ BLACK — Usa i pixel neri dell'immagine della maschera
mask_image
come maschera. I pixel neri vengono sostituiti e i pixel bianchi rimangono invariati. -
INIT_ IMAGE _ ALPHA — Usa il canale alfa dell'immagine
init_image
come maschera, i pixel completamente trasparenti vengono sostituiti e i pixel completamente opachi rimangono invariati.
-
-
mask_image (obbligatorio): l'immagine della maschera con codifica base64 che desideri utilizzare come maschera per l'immagine sorgente in
init_image
. Deve avere le stesse dimensioni dell'immagine di origine. Utilizza l'opzionemask_source
per specificare quali pixel devono essere sostituiti.
I seguenti sono parametri opzionali.
-
cfg_scale (facoltativo): determina in che misura l'immagine finale ritrae il prompt. Utilizza un numero più basso per aumentare la casualità nella generazione.
Predefinita Minimo Massimo 7
0
35
-
clip_guidance_preset (facoltativo) Enum:
FAST_BLUE, FAST_GREEN, NONE, SIMPLE, SLOW, SLOWER, SLOWEST
. -
sampler (facoltativo): il campionatore da utilizzare per il processo di diffusione. Se questo valore viene omesso, il modello seleziona automaticamente un campionatore appropriato.
Enum:
DDIM, DDPM, K_DPMPP_2M, K_DPMPP_2S_ANCESTRAL, K_DPM_2, K_DPM_2_ANCESTRAL, K_EULER, K_EULER_ANCESTRAL, K_HEUN K_LMS
. -
samples (facoltativo): il numero di immagini da generare. Attualmente Amazon Bedrock supporta la generazione di un'immagine. Se fornisci un valore per
samples
, il valore deve essere uno.genera
Predefinita Minimo Massimo 1
1
1
-
seed (facoltativo): il seed determina l'impostazione iniziale del rumore. Utilizza lo stesso seed e le stesse impostazioni dell'esecuzione precedente per consentire all'inferenza di creare un'immagine simile. Se non imposti questo valore, o il valore è 0, viene impostato su un numero random.
Predefinita Minimo Massimo 0
0
4294967295
-
steps (facoltativo): la fase di generazione determina quante volte l'immagine viene campionata. Ulteriori passaggi possono portare a un risultato più accurato.
Predefinita Minimo Massimo 30
10
50
-
style_preset (facoltativo): una preimpostazione di stile che guida il modello di immagine verso uno stile particolare. Questo elenco di preimpostazioni di stile è soggetto a modifiche.
Enum:
3d-model, analog-film, animé, cinematic, comic-book, digital-art, enhance, fantasy-art, isometric, line-art, low-poly, modeling-compound, neon-punk, origami, photographic, pixel-art, tile-texture
-
extras (facoltativo): parametri aggiuntivi passati al motore. Utilizza questa soluzione con cautela. Questi parametri vengono utilizzati per funzionalità in fase di sviluppo o sperimentali e possono cambiare senza preavviso.
-
- Response
-
Il modello Stability.ai Diffusion 1.0 ha i seguenti campi per effettuare chiamate di inferenza da testo a immagine.
{ "result": string, "artifacts": [ { "seed": int, "base64": string, "finishReason": string } ] }
result: il risultato dell'operazione. In caso di successo, la risposta è
success
.-
artifacts: una serie di immagini, una per ogni immagine richiesta.
seed: il valore del seed utilizzato per generare l'immagine.
-
base64: l'immagine con codifica base64 generata dal modello.
-
finishedReason— Il risultato del processo di generazione dell'immagine. I valori validi sono:
SUCCESS— Il processo di generazione dell'immagine è riuscito.
ERROR— Si è verificato un errore.
CONTENT_ FILTERED — Il filtro dei contenuti ha filtrato l'immagine e l'immagine potrebbe essere sfocata.