Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Création d’une tâche d’inférence par lots

Mode de mise au point
Création d’une tâche d’inférence par lots - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Après avoir configuré un compartiment Amazon S3 avec des fichiers pour exécuter l'inférence de modèles, vous pouvez créer une tâche d'inférence par lots. Avant de commencer, vérifiez que vous avez configuré les fichiers conformément aux instructions décrites dansFormatez et téléchargez vos données d'inférence par lots.

Note

Pour soumettre une tâche d'inférence par lots à l'aide d'un VPC, vous devez utiliser l'API. Sélectionnez l'onglet API pour savoir comment inclure la configuration du VPC.

Pour savoir comment créer une tâche d'inférence par lots, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :

Console
Pour créer une tâche d'inférence par lots
  1. Connectez-vous à l' AWS Management Console aide d'un rôle IAM avec les autorisations Amazon Bedrock et ouvrez la console Amazon Bedrock à l'adresse. https://console.aws.amazon.com/bedrock/

  2. Dans le volet de navigation de gauche, sélectionnez Batch inference.

  3. Dans la section Tâches d'inférence par lots, choisissez Create job.

  4. Dans la section Détails de la tâche, attribuez un nom à la tâche d'inférence par lots et sélectionnez le modèle à utiliser pour la tâche d'inférence par lots en choisissant Select model.

  5. Dans la section Données d'entrée, choisissez Browse S3 et sélectionnez un emplacement S3 pour votre tâche d'inférence par lots. L'inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu'il s'agisse d'un dossier S3 ou d'un seul fichier JSONL.

    Note

    Si les données d'entrée se trouvent dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l'API pour soumettre le travail d'inférence par lots. Pour savoir comment procéder, sélectionnez l'onglet API ci-dessus.

  6. Dans la section Données de sortie, choisissez Browse S3 et sélectionnez un emplacement S3 pour stocker les fichiers de sortie de votre tâche d'inférence par lots. Par défaut, les données de sortie seront cryptées par un Clé gérée par AWS. Pour choisir une clé KMS personnalisée, sélectionnez Personnaliser les paramètres de chiffrement (avancés) et choisissez une clé. Pour plus d'informations sur le chiffrement des ressources Amazon Bedrock et la configuration d'une clé KMS personnalisée, consultezChiffrement des données.

    Note

    Si vous prévoyez d'écrire les données de sortie dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l'API pour soumettre le travail d'inférence par lots. Pour savoir comment procéder, sélectionnez l'onglet API ci-dessus.

  7. Dans la section Accès au service, sélectionnez l'une des options suivantes :

    • Utiliser une fonction du service existante : sélectionnez une fonction du service dans la liste déroulante. Pour plus d’informations sur la configuration d’un rôle personnalisé avec les autorisations appropriées, consultez Autorisations requises pour l'inférence par lots.

    • Créer et utiliser une nouvelle fonction du service : entrez un nom pour la fonction du service.

  8. (Facultatif) Pour associer des balises à la tâche d'inférence par lots, développez la section Tags et ajoutez une clé et une valeur facultative pour chaque balise. Pour de plus amples informations, veuillez consulter Marquer les ressources Amazon Bedrock.

  9. Choisissez Create batch inference job (Créer une tâche d'inférence par lots).

API

Pour créer une tâche d'inférence par lots, envoyez une CreateModelInvocationJobdemande avec un point de terminaison du plan de contrôle Amazon Bedrock.

Les champs suivants sont obligatoires :

Champ Cas d’utilisation
jobName Pour spécifier le nom de la tâche.
roleArn Pour spécifier le nom de ressource Amazon (ARN) du rôle de service avec les autorisations nécessaires à la création et à la gestion de la tâche. Pour de plus amples informations, veuillez consulter Création d'un rôle de service personnalisé pour l'inférence par lots.
modelId Pour spécifier l'ID ou l'ARN du modèle à utiliser dans l'inférence.
inputDataConfig Pour spécifier l'emplacement S3 contenant les données d'entrée. L'inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu'il s'agisse d'un dossier S3 ou d'un seul fichier JSONL. Pour de plus amples informations, veuillez consulter Formatez et téléchargez vos données d'inférence par lots.
outputDataConfig Pour spécifier l'emplacement S3 dans lequel écrire les réponses du modèle.

Les champs suivants sont facultatifs :

Champ Cas d’utilisation
timeoutDurationInHeures Pour spécifier la durée en heures au bout de laquelle le travail arrivera à expiration.
balises Pour spécifier les balises à associer à la tâche. Pour de plus amples informations, veuillez consulter Marquer les ressources Amazon Bedrock.
vpcConfig Spécifier la configuration VPC à utiliser pour protéger vos données pendant le travail. Pour de plus amples informations, veuillez consulter Protégez les tâches d'inférence par lots à l'aide d'un VPC.
clientRequestToken Pour garantir que la demande d'API ne soit terminée qu'une seule fois. Pour plus d'informations, consultez la section Garantir l'idempuissance.

La réponse renvoie un jobArn que vous pouvez utiliser pour faire référence à la tâche lorsque vous effectuez d'autres appels d'API liés à l'inférence par lots.

Pour créer une tâche d'inférence par lots
  1. Connectez-vous à l' AWS Management Console aide d'un rôle IAM avec les autorisations Amazon Bedrock et ouvrez la console Amazon Bedrock à l'adresse. https://console.aws.amazon.com/bedrock/

  2. Dans le volet de navigation de gauche, sélectionnez Batch inference.

  3. Dans la section Tâches d'inférence par lots, choisissez Create job.

  4. Dans la section Détails de la tâche, attribuez un nom à la tâche d'inférence par lots et sélectionnez le modèle à utiliser pour la tâche d'inférence par lots en choisissant Select model.

  5. Dans la section Données d'entrée, choisissez Browse S3 et sélectionnez un emplacement S3 pour votre tâche d'inférence par lots. L'inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu'il s'agisse d'un dossier S3 ou d'un seul fichier JSONL.

    Note

    Si les données d'entrée se trouvent dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l'API pour soumettre le travail d'inférence par lots. Pour savoir comment procéder, sélectionnez l'onglet API ci-dessus.

  6. Dans la section Données de sortie, choisissez Browse S3 et sélectionnez un emplacement S3 pour stocker les fichiers de sortie de votre tâche d'inférence par lots. Par défaut, les données de sortie seront cryptées par un Clé gérée par AWS. Pour choisir une clé KMS personnalisée, sélectionnez Personnaliser les paramètres de chiffrement (avancés) et choisissez une clé. Pour plus d'informations sur le chiffrement des ressources Amazon Bedrock et la configuration d'une clé KMS personnalisée, consultezChiffrement des données.

    Note

    Si vous prévoyez d'écrire les données de sortie dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l'API pour soumettre le travail d'inférence par lots. Pour savoir comment procéder, sélectionnez l'onglet API ci-dessus.

  7. Dans la section Accès au service, sélectionnez l'une des options suivantes :

    • Utiliser une fonction du service existante : sélectionnez une fonction du service dans la liste déroulante. Pour plus d’informations sur la configuration d’un rôle personnalisé avec les autorisations appropriées, consultez Autorisations requises pour l'inférence par lots.

    • Créer et utiliser une nouvelle fonction du service : entrez un nom pour la fonction du service.

  8. (Facultatif) Pour associer des balises à la tâche d'inférence par lots, développez la section Tags et ajoutez une clé et une valeur facultative pour chaque balise. Pour de plus amples informations, veuillez consulter Marquer les ressources Amazon Bedrock.

  9. Choisissez Create batch inference job (Créer une tâche d'inférence par lots).

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.