Monitora i lavori di inferenza in batch - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Monitora i lavori di inferenza in batch

Oltre alle configurazioni impostate per un processo di inferenza in batch, è anche possibile monitorarne l'avanzamento visualizzandone lo stato. Per ulteriori informazioni sui possibili stati di un lavoro, consulta il status campo in. ModelInvocationJobSummary

Puoi anche tenere traccia dello stato di un lavoro confrontando il numero totale di record e il numero di record che sono già stati elaborati. Questi numeri sono disponibili nel manifest.json.out file nel bucket Amazon S3 contenente i file di output. Per ulteriori informazioni, consulta Visualizzare i risultati di un processo di inferenza in batch. Per informazioni su come scaricare un oggetto S3, consulta Download di oggetti.

Per informazioni su come visualizzare i dettagli sui lavori di inferenza in batch, seleziona la scheda corrispondente al metodo scelto e segui i passaggi:

Console
Per visualizzare informazioni sui lavori di inferenza in batch
  1. Accedi all' AWS Management Console utilizzo di un IAMruolo con le autorizzazioni di Amazon Bedrock e apri la console Amazon Bedrock all'indirizzo. https://console.aws.amazon.com/bedrock/

  2. Dal riquadro di navigazione a sinistra, seleziona Inferenza Batch.

  3. Nella sezione Lavori di inferenza in Batch, scegli un lavoro.

  4. Nella pagina dei dettagli del lavoro, è possibile visualizzare le informazioni sulla configurazione del lavoro e monitorarne l'avanzamento visualizzandone lo stato.

API

Per ottenere informazioni su un processo di inferenza in batch, invia una GetModelInvocationJobrichiesta (consulta il link per i formati di richiesta e risposta e i dettagli del campo) a un endpoint del piano di controllo Amazon Bedrock e fornisci l'ID o ARN del lavoro sul campo. jobIdentifier

Per elencare informazioni su più processi di inferenza in batch, invia la ListModelInvocationJobsrichiesta (consulta il link per i formati di richiesta e risposta e i dettagli sui campi) con un endpoint del piano di controllo Amazon Bedrock. Puoi specificare i seguenti parametri opzionali:

Campo Breve descrizione
maxResults Il numero massimo di risultati da restituire nella risposta.
nextToken Se ci sono più risultati rispetto al numero specificato nel maxResults campo, la risposta restituisce un nextToken valore. Per visualizzare il successivo batch di risultati, invia il nextToken valore in un'altra richiesta.

Per elencare tutti i tag di un lavoro, invia una ListTagsForResourcerichiesta (consulta il link per i formati di richiesta e risposta e i dettagli dei campi) con un endpoint del piano di controllo Amazon Bedrock e includi l'Amazon Resource Name (ARN) del lavoro.

Puoi anche monitorare i lavori di inferenza in batch con Amazon EventBridge. Per ulteriori informazioni, consulta Monitora le modifiche allo stato dei job di Amazon Bedrock con Amazon EventBridge.