Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Visualizzare i risultati di un processo di inferenza in batch

Modalità Focus
Visualizzare i risultati di un processo di inferenza in batch - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Dopo aver completato un processo di inferenza in batchCompleted, puoi estrarre i risultati del processo di inferenza batch dai file nel bucket Amazon S3 che hai specificato durante la creazione del processo. Per informazioni su come scaricare un oggetto S3, consulta Download di oggetti. Il bucket S3 contiene i seguenti file:

  1. Amazon Bedrock genera un file JSONL di output per ogni file JSONL di input. I file di output contengono gli output del modello per ogni input nel seguente formato. Un oggetto error sostituisce il campo modelOutput in qualsiasi riga in cui si è verificato un errore di inferenza. Il formato dell'oggetto JSON modelOutput corrisponde al campo body del modello utilizzato nella risposta InvokeModel. Per ulteriori informazioni, consulta Parametri della richiesta di inferenza e campi di risposta per i modelli di base.

    { "recordId" : "11 character alphanumeric string", "modelInput": {JSON body}, "modelOutput": {JSON body} }

    Il seguente esempio di output mostra un possibile file di output.

    { "recordId" : "3223593EFGH", "modelInput" : {"inputText": "Roses are red, violets are"}, "modelOutput" : {'inputTextTokenCount': 8, 'results': [{'tokenCount': 3, 'outputText': 'blue\n', 'completionReason': 'FINISH'}]}} { "recordId" : "1223213ABCD", "modelInput" : {"inputText": "Hello world"}, "error" : {"errorCode" : 400, "errorMessage" : "bad request" }}
  2. Un file manifest.json.out contenente un riepilogo del processo di inferenza in batch.

    { "totalRecordCount" : number, "processedRecordCount" : number, "successRecordCount": number, "errorRecordCount": number, "inputTokenCount": number, "outputTokenCount" : number }

    I campi sono descritti di seguito.

    • totalRecordCount — Il numero totale di record inviati al processo di inferenza in batch.

    • processedRecordCount — Il numero di record elaborati nel processo di inferenza in batch.

    • successRecordCount — Il numero di record elaborati con successo dal processo di inferenza in batch.

    • errorRecordCount — Il numero di record nel processo di inferenza in batch che hanno causato errori.

    • inputTokenCount — Il numero totale di token di input inviati al processo di inferenza in batch.

    • outputTokenCount — Il numero totale di token di output generati dal processo di inferenza in batch.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.