

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Exemplo de código para inferência em lote
<a name="batch-inference-example"></a>

O exemplo de código neste capítulo mostra como criar um trabalho de inferência em lote, visualizar informações sobre ele e interrompê-lo. Este exemplo usa o formato `InvokeModel` da API. Para obter informações sobre como usar o formato de `Converse` API, consulte[Formatar e carregar os dados de inferência](batch-inference-data.md).

Selecione uma linguagem para ver um exemplo de código dela:

------
#### [ Python ]

Crie um arquivo JSONL chamado *abc.jsonl* e inclua um objeto JSON para cada registro que contenha pelo menos o número mínimo de registros (consulte o **número mínimo de registros por trabalho de inferência em lote** para ver). *\$1Model\$1* [Cotas do Amazon Bedrock](quotas.md) Neste exemplo, você usará o modelo Claude 3 Haiku da Anthropic. O exemplo a seguir mostra a primeira entrada JSON no arquivo:

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
... 
# Add records until you hit the minimum
```

Crie um bucket do S3 chamado *amzn-s3-demo-bucket-input* e faça o upload do arquivo nele. Em seguida, crie um bucket S3 chamado *amzn-s3-demo-bucket-output* para gravar seus arquivos de saída. Execute o seguinte trecho de código para enviar um trabalho e obter *jobArn* a resposta:

```
import boto3

bedrock = boto3.client(service_name="bedrock")

inputDataConfig=({
    "s3InputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl"
    }
})

outputDataConfig=({
    "s3OutputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-bucket-output/"
    }
})

response=bedrock.create_model_invocation_job(
    roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole",
    modelId="anthropic.claude-3-haiku-20240307-v1:0",
    jobName="my-batch-job",
    inputDataConfig=inputDataConfig,
    outputDataConfig=outputDataConfig
)

jobArn = response.get('jobArn')
```

Retorne o `status` do trabalho.

```
bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']
```

Liste trabalhos de inferência em lote que*Failed*.

```
bedrock.list_model_invocation_jobs(
    maxResults=10,
    statusEquals="Failed",
    sortOrder="Descending"
)
```

Interrompa o trabalho que começou.

```
bedrock.stop_model_invocation_job(jobIdentifier=jobArn)
```

------