Genera risposte in un'interfaccia visiva utilizzando i parchi giochi - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Genera risposte in un'interfaccia visiva utilizzando i parchi giochi

I parchi giochi Amazon Bedrock sono uno strumento nel AWS Management Console che forniscono un'interfaccia visiva per sperimentare l'esecuzione dell'inferenza su diversi modelli e utilizzando diverse configurazioni. È possibile utilizzare i campi da gioco per testare diversi modelli e valori prima di integrarli nell'applicazione.

Eseguire un prompt in un parco giochi equivale a fare un InvokeModel, InvokeModelWithResponseStream, Converse o una ConverseStreamrichiesta in. API

Amazon Bedrock offre i seguenti parchi giochi con cui sperimentare:

  • Chat: invia un messaggio di testo e includi immagini o documenti per completare la richiesta. I prompt successivi che invierai includeranno i prompt precedenti come contesto, in modo che la sequenza di istruzioni e risposte assomigli a una conversazione.

  • Testo: invia un solo messaggio di testo e genera una risposta.

  • Immagine: invia un messaggio di testo per generare un'immagine. Puoi anche inviare una richiesta di immagine e specificare se modificarla o generarne delle varianti.

La procedura seguente descrive come inviare un prompt nell'area giochi, le opzioni che è possibile modificare e le azioni che è possibile intraprendere dopo che il modello ha generato una risposta.

Per utilizzare uno spazio di sviluppo
  1. Se non l'hai già fatto, richiedi l'accesso ai modelli che desideri utilizzare. Per ulteriori informazioni, consulta Accedi ai modelli di base Amazon Bedrock.

  2. Accedere al AWS Management Console utilizzando un IAMruolo con autorizzazioni Amazon Bedrock e apri la console Amazon Bedrock all'indirizzo. https://console.aws.amazon.com/bedrock/

  3. Dal riquadro di navigazione, in Spazio di sviluppo, seleziona Chat, Testo o Immagine.

  4. Scegli Seleziona modello e seleziona un provider, un modello e un throughput da utilizzare. Per ulteriori informazioni sui tipi di throughput, consulta. Aumenta la velocità di trasmissione per la resilienza e la potenza di elaborazione

  5. Invia le seguenti informazioni per generare una risposta:

    • Richiesta: una o più frasi di testo che configurano uno scenario, una domanda o un'attività per un modello. Per informazioni sulla creazione di prompt, consulta Concetti ingegneristici rapidi.

      Se utilizzi la chat playground, puoi selezionare Scegli file o trascinare un file nel campo di testo del prompt per includere file da aggiungere al prompt. Puoi fare riferimento al file nel testo del prompt, ad esempio o. Summarize this document for me Tell me what's in this image È possibile includere i seguenti tipi di file:

      • Documenti: aggiungi documenti per completare la richiesta. Per un elenco dei tipi di file supportati, consulta il format campo in DocumentBlock.

        avvertimento

        I nomi dei documenti sono vulnerabili alle iniezioni tempestive, perché il modello potrebbe inavvertitamente interpretarli come istruzioni. Pertanto, si consiglia di specificare un nome neutro.

      • Immagini: aggiungi immagini per completare il prompt, se il modello supporta i prompt multimodali. Per un elenco dei tipi di file supportati, consultate il campo in. format ImageBlock

      Nota

      Le seguenti restrizioni riguardano l'aggiunta di file al chat playground:

      • Puoi includere fino a 20 immagini. Le dimensioni, l'altezza e la larghezza di ogni immagine non devono superare rispettivamente 3,75 MB, 8.000 px e 8.000 px.

      • Puoi includere fino a cinque documenti. Le dimensioni di ogni documento non devono superare i 4,5 MB.

    • Configurazioni: impostazioni regolate per modificare la risposta del modello. Le configurazioni includono quanto segue:

  6. (Facoltativo) Se un modello supporta lo streaming, il comportamento predefinito nei campi di gioco di testo o di chat è quello di trasmettere le risposte in streaming. È possibile disattivare lo streaming scegliendo l'icona delle opzioni ( Vertical ellipsis icon representing a menu or more options. ) e modificando l'opzione di preferenza Streaming.

  7. (Facoltativo) Nella chat playground, puoi confrontare le risposte di diversi modelli procedendo come segue:

    1. Attiva Modalità di confronto.

    2. Scegli Seleziona modello e seleziona un provider, un modello e una velocità effettiva da utilizzare.

    3. Scegliete l'icona delle configurazioni ( Three horizontal sliders with adjustable circular controls for settings or parameters. ) per modificare le configurazioni da utilizzare.

    4. Per aggiungere altri modelli da confrontare, scegliete l'icona + sulla destra, selezionate un modello e modificate le configurazioni secondo necessità.

  8. Per eseguire il prompt, scegliete Esegui. Amazon Bedrock non memorizza testo, immagini o documenti forniti da te. I dati vengono utilizzati solo per generare la risposta.

    Nota

    Se la risposta viola la policy di moderazione dei contenuti, Amazon Bedrock non la visualizza. Se hai attivato lo streaming, Amazon Bedrock cancella l'intera risposta se genera contenuti che violano la policy. Per ulteriori dettagli, accedi alla console Amazon Bedrock, seleziona Fornitori e leggi il testo nella sezione Limitazioni dei contenuti.

  9. Il modello restituisce la risposta. Se utilizzi la chat playground, puoi inviare un prompt per rispondere alla risposta e generare un'altra risposta.

  10. Dopo aver generato una risposta, hai le seguenti opzioni:

    • Per esportare la risposta come JSON file, scegliete l'icona delle opzioni ( Vertical ellipsis icon representing a menu or more options. ) e selezionate Esporta come JSON.

    • Per visualizzare la API richiesta effettuata, scegli l'icona delle opzioni ( Vertical ellipsis icon representing a menu or more options. ) e seleziona Visualizza API richiesta.

    • Nella chat playground, puoi visualizzare le metriche nella sezione Metriche del modello. Sono disponibili le seguenti metriche del modello:

      • Latenza: il tempo impiegato dal modello per generare ogni token (parola) in una sequenza.

      • Numero di token di input: il numero di token che vengono inseriti nel modello come input durante l'inferenza.

      • Numero di token di output: il numero di token generati in risposta a un prompt. Le risposte più lunghe e più colloquiali richiedono più token.

      • Costo: il costo dell'elaborazione dell'input e della generazione dei token di output.

      Per impostare i criteri metrici ai quali desideri che la risposta corrisponda, scegli Definisci criteri metrici e definisci le condizioni che il modello deve soddisfare. Dopo aver applicato i criteri, la sezione Metriche del modello mostra quanti e quali criteri sono stati soddisfatti dalla risposta.

      Se i criteri non sono soddisfatti, è possibile scegliere un modello diverso, riscrivere il prompt o modificare le configurazioni ed eseguire nuovamente il prompt.