As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Formatar e carregar os dados de inferência
Para preparar entradas para a inferência em lote, crie um arquivo .jsonl no seguinte formato:
{ "recordId" : "
11 character alphanumeric string
", "modelInput" :{JSON body}
} ...
Cada linha contém um objeto JSON com um campo recordId
e um campo modelInput
que contêm o corpo da solicitação para uma entrada que você deseja enviar. O formato do objeto JSON modelInput
deve corresponder ao campo body
do modelo usado na solicitação InvokeModel
. Para obter mais informações, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.
nota
-
Se você omitir o campo
recordId
, o Amazon Bedrock o adicionará na saída. -
Você especifica o modelo que deseja usar ao criar o trabalho de inferência em lote.
Por exemplo, você pode fornecer um arquivo JSONL contendo a seguinte linha se você planeja executar a inferência em lote usando o Anthropic Claude 3 Haiku modelo:
{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }
Depois de preparar os arquivos de entrada, carregue-os em um bucket do S3. Anexe as seguintes permissões à sua função de serviço de inferência em lote e ${{s3-bucket-input}}
substitua pelo bucket no qual você fez o upload dos arquivos de entrada e ${{s3-bucket-output}}
pelo bucket no qual você deseja gravar os arquivos de saída.
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::
${{s3-bucket-input}}
", "arn:aws:s3:::${{s3-bucket-input}}
/*", "arn:aws:s3:::${{s3-bucket-output}}
", "arn:aws:s3:::${{s3-bucket-output}}
/*" ], "Effect": "Allow" } ] }
Se você estiver usando inferência em lote para entender vídeos com os modelos Nova Lite e Nova Pro, certifique-se de que o caminho do Amazon S3 fornecido no campo da entrada InputDataConfig
da API seja uma pasta CreateModelInvocationJob
do Amazon S3 que contenha todos os arquivos JSONL de entrada que você deseja processar e todos os objetos de vídeo referenciados pelos registros de entrada.
Por exemplo, se você fornecer o caminho do Amazon S3 s3://batch-inference-input-data/job-input-folder-data/
como o InputDataConfig
para um trabalho em lotes, uma configuração de dados apropriada seria semelhante à seguinte:
batch-inference-input-data/ job-input-folder-data/ input.jsonl video.mp4
Um exemplo s3://batch-inference-input-data/job-input-folder-data/input.jsonl
com registro de invocação para processar um objeto de vídeo é mostrado abaixo. Observe como o URI do Amazon S3 do objeto de vídeo está localizado no mesmo objeto Amazon S3 do arquivo JSONL aqui.
{ "recordId": "RECORD01", "modelInput": { "messages": [ { "role": "user", "content": [ { "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..." }, { "video": { "format": "mp4", "source": { "s3Location": { "uri": "
s3://batch-inference-input-bucket/job-input-folder-data/video.mp4
", "bucketOwner": "123456789012
" } } } } ] } ] } }
Supondo caminhos de URI válidos do Amazon S3, o objeto de vídeo pode ser aninhado em qualquer lugar sob o caminho de URI fornecido pelo Amazon InputDataConfig
S3. Consulte este blog de análise de URL do Amazon S3
Consulte as diretrizes de orientação visual do Amazon Nova para obter mais informações sobre como configurar registros de invocação para compreensão de vídeo com o Nova.