Elabora più prompt con inferenza in batch - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Elabora più prompt con inferenza in batch

Con l'inferenza in batch, puoi inviare più richieste e generare risposte in modo asincrono. L'inferenza in batch ti aiuta a elaborare un gran numero di richieste in modo efficiente inviando una singola richiesta e generando le risposte in un bucket Amazon S3. Dopo aver definito gli input del modello nei file creati, carichi i file in un bucket S3. Quindi invii una richiesta di inferenza in batch e specifichi il bucket S3. Una volta completato il lavoro, puoi recuperare i file di output da S3. Puoi utilizzare l'inferenza in batch per migliorare le prestazioni dell'inferenza del modello su set di dati di grandi dimensioni.

Nota

L'inferenza in batch non è supportata per i modelli con provisioning.

Fate riferimento alle seguenti risorse per informazioni generali sull'inferenza in batch: