

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Formattazione e caricamento dei propri dati di inferenza in batch
<a name="batch-inference-data"></a>

I dati per l’inferenza in batch devono essere aggiunti a una posizione S3 da scegliere o specificare quando invii un processo di invocazione del modello. La posizione S3 deve contenere i seguenti elementi:
+ Almeno un file JSONL che definisce gli input del modello. Un JSONL contiene righe di oggetti JSON. Il file JSONL deve terminare con l’estensione .jsonl ed avere il seguente formato:

  ```
  { "recordId" : "alphanumeric string", "modelInput" : {JSON body} }
  ...
  ```

  Ogni riga contiene un oggetto JSON con un `recordId` campo e un `modelInput` campo. Il formato dell'oggetto `modelInput` JSON dipende dal tipo di invocazione del modello scelto quando si [crea il](batch-inference-create.md) processo di inferenza in batch. Se si utilizza il `InvokeModel` tipo (impostazione predefinita), il formato deve corrispondere al `body` campo per il modello utilizzato nella `InvokeModel` richiesta (vedere). [Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione](model-parameters.md) Se utilizzi il `Converse` tipo, il formato deve corrispondere al corpo della richiesta dell'API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).
**Nota**  
Se ometti il campo `recordId`, Amazon Bedrock lo aggiunge nell’output.
Non è garantito che l’ordine dei record nel file JSONL di output corrisponda all’ordine dei record nel file JSONL di input.
È necessario specificare il modello che si desidera utilizzare quando si crea il [processo di inferenza in batch](batch-inference-create.md).
+ (Se il contenuto di input contiene una posizione Amazon S3) Alcuni modelli consentono di definire il contenuto dell'input come una posizione S3. Per informazioni, consulta [Esempio di input video per Amazon Nova](#batch-inference-data-ex-s3).
**avvertimento**  
Quando usi S3 URIs nei prompt, tutte le risorse devono trovarsi nello stesso bucket e nella stessa cartella S3. Il `InputDataConfig` parametro deve specificare il percorso della cartella contenente tutte le risorse collegate (come video o immagini), non solo un singolo file. `.jsonl` Tieni presente che i percorsi S3 fanno distinzione tra maiuscole e minuscole, quindi assicurati che la struttura delle URIs cartelle corrisponda esattamente.

Assicurati che i tuoi input siano conformi alle quote di inferenza in batch. Puoi cercare le seguenti quote in [Quote di servizio di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock):
+ **Numero minimo di record per processo di inferenza in batch**: il numero minimo di record (oggetti JSON) tra i file JSONL del processo.
+ **Record per file di input per processo di inferenza in batch**: il numero massimo di record (oggetti JSON) in un singolo file JSONL del processo.
+ **Record per processo di inferenza in batch**: il numero massimo di record (oggetti JSON) tra i file JSONL del processo.
+ **Dimensione del file di input per inferenza in batch**: la dimensione massima di un singolo file del processo.
+ **Dimensione del processo di inferenza in batch**: la dimensione massima cumulativa di tutti i file di input.

Per chiarimenti su come configurare gli input per l’inferenza in batch, consulta gli esempi riportati di seguito.

## Esempio di input di testo per Anthropic Claude 3 Haiku
<a name="batch-inference-data-ex-text"></a>

Se prevedi di eseguire l’inferenza in batch utilizzando il formato [API Messages](model-parameters-anthropic-claude-messages.md) per il modello Anthropic Claude 3 Haiku, potresti fornire un file JSONL contenente il seguente oggetto JSON come una delle righe:

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
```

## Esempio di input video per Amazon Nova
<a name="batch-inference-data-ex-s3"></a>

Se intendi eseguire l’inferenza in batch sugli input video utilizzando i modelli Amazon Nova Pro o Amazon Nova Lite, hai la possibilità di definire il video in byte o come posizione S3 nel file JSONL. Ad esempio, potresti avere un bucket S3 il cui percorso è `s3://batch-inference-input-bucket` e che contiene i seguenti file:

```
s3://batch-inference-input-bucket/
├── videos/
│   ├── video1.mp4
│   ├── video2.mp4
│   ├── ...
│   └── video50.mp4
└── input.jsonl
```

Un esempio di record del file `input.jsonl` potrebbe essere il seguente:

```
{
    "recordId": "RECORD01",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..."
                    },
                    {
                        "video": {
                            "format": "mp4",
                            "source": {
                                "s3Location": {
                                    "uri": "s3://batch-inference-input-bucket/videos/video1.mp4",
                                    "bucketOwner": "111122223333"
                                }
                            }
                        }
                    }
                ]
            }
        ]
    }
}
```

Quando crei il processo di inferenza in batch, devi specificare il percorso `s3://batch-inference-input-bucket` della cartella nel parametro. `InputDataConfig` L'inferenza in batch elaborerà il `input.jsonl` file in questa posizione, insieme a tutte le risorse di riferimento (come i file video nella `videos` sottocartella).

Le seguenti risorse forniscono ulteriori informazioni sull’invio di input video per l’inferenza in batch:
+ Per informazioni su come convalidare Amazon URIs S3 in una richiesta di input, consulta il blog [Amazon S3 URL Parsing](https://aws.amazon.com/blogs/devops/s3-uri-parsing-is-now-available-in-aws-sdk-for-java-2-x/).
+ [Per ulteriori informazioni su come configurare i record di invocazione per la comprensione dei video con Nova, consulta le linee guida per i suggerimenti visivi. Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/prompting-vision-prompting.html)

## Esempio di input Converse
<a name="batch-inference-data-ex-converse"></a>

Se imposti il tipo di invocazione del modello su `Converse` quando crei il processo di inferenza in batch, il `modelInput` campo deve utilizzare il formato di richiesta dell'API Converse. L'esempio seguente mostra un record JSONL per un processo di inferenza in batch di Converse:

```
{
    "recordId": "CALL0000001",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "Summarize the following call transcript: ..."
                    }
                ]
            }
        ],
        "inferenceConfig": {
            "maxTokens": 1024
        }
    }
}
```

[Per l'elenco completo dei campi supportati nel corpo della richiesta Converse, consulta Converse nel riferimento all'API.](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html)

L’argomento seguente descrive come configurare le autorizzazioni di accesso S3 e inferenza in batch per un’identità in modo da poter eseguire l’inferenza in batch.