Formate e carregue seus dados de inferência em lote - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Formate e carregue seus dados de inferência em lote

Para preparar entradas para inferência em lote, crie um arquivo.jsonl no seguinte formato:

{ "recordId" : "11 character alphanumeric string", "modelInput" : {JSON body} } ...

Cada linha contém um JSON objeto com um recordId campo e um modelInput campo contendo o corpo da solicitação para uma entrada que você deseja enviar. O formato do modelInput JSON objeto deve corresponder ao body campo do modelo usado na InvokeModel solicitação. Para obter mais informações, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos básicos.

nota

Se você omitir o recordId campo, o Amazon Bedrock o adicionará na saída.

Por exemplo, você pode fornecer um JSONL arquivo contendo a seguinte linha se planeja executar a inferência em lote usando o Anthropic Claude 3 Haiku modelo:

{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }

Depois de preparar seus arquivos de entrada, carregue-os em um bucket do S3. Anexe as seguintes permissões à sua função de serviço de inferência em lote e substitua: ${{s3-bucket-input}} com o bucket para o qual você fez o upload dos arquivos de entrada e ${{s3-bucket-output}} com o bucket no qual você deseja gravar os arquivos de saída.

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${{s3-bucket-input}}", "arn:aws:s3:::${{s3-bucket-input}}/*", "arn:aws:s3:::${{s3-bucket-output}}", "arn:aws:s3:::${{s3-bucket-output}}/*" ], "Effect": "Allow" } ] }