

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# BatchInferenceJob
<a name="API_BatchInferenceJob"></a>

Contém informações sobre um trabalho de inferência em lote.

## Conteúdo
<a name="API_BatchInferenceJob_Contents"></a>

 ** batchInferenceJobArn **   <a name="personalize-Type-BatchInferenceJob-batchInferenceJobArn"></a>
O nome do recurso da Amazon (ARN) do trabalho de inferência em lote.  
Tipo: String  
Restrições de tamanho: o tamanho máximo é 256.  
Padrão: : `arn:([a-z\d-]+):personalize:.*:.*:.+`   
Obrigatório: Não

 ** batchInferenceJobConfig **   <a name="personalize-Type-BatchInferenceJob-batchInferenceJobConfig"></a>
Um mapa de string para string dos detalhes de configuração de um trabalho de inferência em lote.  
Tipo: objeto [BatchInferenceJobConfig](API_BatchInferenceJobConfig.md)  
Obrigatório: Não

 ** batchInferenceJobMode **   <a name="personalize-Type-BatchInferenceJob-batchInferenceJobMode"></a>
O modo do trabalho.  
Tipo: String  
Valores Válidos: `BATCH_INFERENCE | THEME_GENERATION`   
Obrigatório: Não

 ** creationDateTime **   <a name="personalize-Type-BatchInferenceJob-creationDateTime"></a>
A hora em que o trabalho de inferência em lote foi criado.  
Tipo: Timestamp  
Obrigatório: Não

 ** failureReason **   <a name="personalize-Type-BatchInferenceJob-failureReason"></a>
Se houver falha no trabalho de inferência em lote, o motivo da falha.  
Tipo: String  
Obrigatório: Não

 ** filterArn **   <a name="personalize-Type-BatchInferenceJob-filterArn"></a>
O ARN do filtro usado no trabalho do inferência em lote.  
Tipo: String  
Restrições de tamanho: o tamanho máximo é 256.  
Padrão: : `arn:([a-z\d-]+):personalize:.*:.*:.+`   
Obrigatório: Não

 ** jobInput **   <a name="personalize-Type-BatchInferenceJob-jobInput"></a>
O caminho do Amazon S3 que leva aos dados de entrada usados para gerar o trabalho de inferência em lote.  
Tipo: objeto [BatchInferenceJobInput](API_BatchInferenceJobInput.md)  
Obrigatório: Não

 ** jobName **   <a name="personalize-Type-BatchInferenceJob-jobName"></a>
O nome do trabalho de inferência em lote.  
Tipo: String  
Restrições de tamanho: o tamanho mínimo é 1. O tamanho máximo é 63.  
Padrão: : `^[a-zA-Z0-9][a-zA-Z0-9\-_]*`   
Obrigatório: Não

 ** jobOutput **   <a name="personalize-Type-BatchInferenceJob-jobOutput"></a>
O bucket do Amazon S3 que contém os dados de saída gerados pelo trabalho de inferência em lote.  
Tipo: objeto [BatchInferenceJobOutput](API_BatchInferenceJobOutput.md)  
Obrigatório: Não

 ** lastUpdatedDateTime **   <a name="personalize-Type-BatchInferenceJob-lastUpdatedDateTime"></a>
A hora em que o trabalho de inferência em lote foi atualizado pela última vez.  
Tipo: Timestamp  
Obrigatório: Não

 ** numResults **   <a name="personalize-Type-BatchInferenceJob-numResults"></a>
O número de recomendações geradas pelo trabalho de inferência em lote. Esse número inclui as mensagens de erro geradas para registros de entrada com falha.  
Tipo: inteiro  
Obrigatório: Não

 ** roleArn **   <a name="personalize-Type-BatchInferenceJob-roleArn"></a>
O ARN do perfil do IAM que solicitou o trabalho de inferência em lote.  
Tipo: String  
Restrições de tamanho: o tamanho máximo é 256.  
Padrão: : `arn:([a-z\d-]+):iam::\d{12}:role/?[a-zA-Z_0-9+=,.@\-_/]+`   
Obrigatório: Não

 ** solutionVersionArn **   <a name="personalize-Type-BatchInferenceJob-solutionVersionArn"></a>
O nome do recurso da Amazon (ARN) da versão da solução a partir da qual o trabalho de inferência em lote foi criado.  
Tipo: String  
Restrições de tamanho: o tamanho máximo é 256.  
Padrão: : `arn:([a-z\d-]+):personalize:.*:.*:.+`   
Obrigatório: Não

 ** status **   <a name="personalize-Type-BatchInferenceJob-status"></a>
O status do trabalho de inferência em lote. O status tem um dos valores a seguir:  
+ PENDING
+ IN PROGRESS
+ ACTIVE
+ CREATE FAILED
Tipo: String  
Restrições de tamanho: o tamanho máximo é 256.  
Obrigatório: Não

 ** themeGenerationConfig **   <a name="personalize-Type-BatchInferenceJob-themeGenerationConfig"></a>
As configurações de geração do tema do trabalho.  
Tipo: objeto [ThemeGenerationConfig](API_ThemeGenerationConfig.md)  
Obrigatório: Não

## Consulte também
<a name="API_BatchInferenceJob_SeeAlso"></a>

Para obter mais informações sobre como usar essa API em um dos SDKs específicos de linguagem AWS, consulte:
+  [AWS SDK para C\$1\$1](https://docs.aws.amazon.com/goto/SdkForCpp/personalize-2018-05-22/BatchInferenceJob) 
+  [AWS SDK for Java V2](https://docs.aws.amazon.com/goto/SdkForJavaV2/personalize-2018-05-22/BatchInferenceJob) 
+  [AWS SDK para Ruby V3](https://docs.aws.amazon.com/goto/SdkForRubyV3/personalize-2018-05-22/BatchInferenceJob) 