

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# BatchInferenceJobInput
<a name="API_BatchInferenceJobInput"></a>

Configuration d'entrée d'une tâche d'inférence par lots.

## Table des matières
<a name="API_BatchInferenceJobInput_Contents"></a>

 ** s3DataSource **   <a name="personalize-Type-BatchInferenceJobInput-s3DataSource"></a>
L'URI de l'emplacement Amazon S3 qui contient vos données d'entrée. Le compartiment Amazon S3 doit se trouver dans la même région que le point de terminaison de l'API que vous appelez.  
Type : objet [S3DataConfig](API_S3DataConfig.md)  
Obligatoire : oui

## consultez aussi
<a name="API_BatchInferenceJobInput_SeeAlso"></a>

Pour plus d'informations sur l'utilisation de cette API dans l'un des langages spécifiques AWS SDKs, consultez ce qui suit :
+  [AWS SDK pour C\$1\$1](https://docs.aws.amazon.com/goto/SdkForCpp/personalize-2018-05-22/BatchInferenceJobInput) 
+  [AWS SDK pour Java V2](https://docs.aws.amazon.com/goto/SdkForJavaV2/personalize-2018-05-22/BatchInferenceJobInput) 
+  [AWS SDK pour Ruby V3](https://docs.aws.amazon.com/goto/SdkForRubyV3/personalize-2018-05-22/BatchInferenceJobInput) 