Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Utilisation de l'API Bedrock Data Automation
La fonctionnalité Amazon Bedrock Data Automation (BDA) fournit un flux de travail API rationalisé pour le traitement de vos données. Pour toutes les modalités, ce flux de travail comprend trois étapes principales : créer un projet, lancer l'analyse et récupérer les résultats. Pour obtenir une sortie personnalisée pour vos données traitées, vous devez fournir l'ARN du Blueprint lorsque vous appelez l'opération d'analyse.
Création d'un projet d'automatisation des données
Pour commencer à traiter des fichiers avec BDA, vous devez d'abord créer un projet d'automatisation des données. Cela peut être fait de deux manières, à l'aide de l' CreateDataAutomationProject opération ou de la Amazon Bedrock console Amazon.
Utilisation de l’API
Lorsque vous utilisez l'API pour créer un projet, vous invoquez le CreateDataAutomationProject. Lorsque vous créez un projet, vous devez définir vos paramètres de configuration pour le type de fichier que vous avez tendance à traiter (la modalité que vous avez l'intention d'utiliser). Voici un exemple de configuration de la sortie standard pour les images :
{ "standardOutputConfiguration": { "image": { "state": "ENABLED", "extraction": { "category": { "state": "ENABLED", "types": ["CONTENT_MODERATION", "TEXT_DETECTION"] }, "boundingBox": { "state": "ENABLED" } }, "generativeField": { "state": "ENABLED", "types": ["IMAGE_SUMMARY", "IAB"] } } } }
L'API valide la configuration d'entrée. Il crée un nouveau projet avec un ARN unique. Les paramètres du projet sont enregistrés pour une utilisation future. Si un projet est créé sans paramètres, les paramètres par défaut s'appliquent. Par exemple, lors du traitement d'images, le résumé des images et la détection de texte seront activés par défaut.
Le nombre de projets pouvant être créés par AWS compte est limité. Certaines combinaisons de paramètres peuvent ne pas être autorisées ou nécessiter des autorisations supplémentaires.
Invoquer l'automatisation des données de manière asynchrone
Vous avez un projet configuré, vous pouvez commencer à traiter les images à l'aide de l' InvokeDataAutomationAsync opération. Si vous utilisez une sortie personnalisée, vous ne pouvez soumettre qu'un seul ARN de plan par demande.
Cet appel d'API lance le traitement asynchrone de vos fichiers dans un compartiment S3 spécifié. L'API accepte l'ARN du projet et l'emplacement des fichiers à traiter, puis lance la tâche de traitement asynchrone. Un numéro de tâche est renvoyé pour suivre le processus. Des erreurs seront signalées si le projet n'existe pas, si l'appelant dispose des autorisations nécessaires ou si les fichiers d'entrée ne sont pas dans un format pris en charge.
La structure de la requête JSON est la suivante :
{ "InputConfiguration" : { "s3Uri": "string"}, // required "DataAutomationConfiguration" : { "DataAutomationARN": "", "stage": LIVE | DEV }, // optional "BlueprintArn": [], // optional "OutputConfiguration" : { "s3Uri": "string" }, // required "EncryptionConfiguration": { // optional "KmsKeyId": "string", "KmsEncryptionContext": { "key" : "string" }, }, "NotificationConfiguration": { // optional "EventBridgeConfiguration": {"EventBridgeEnabled" : Boolean }, } "ClientToken": "string", "JobTags": { "string" : "string" } }
Obtenir le statut de l'automatisation des données
Pour vérifier l'état de votre tâche de traitement et récupérer les résultats, utilisez GetDataAutomationStatus.
L' GetDataAutomationStatus API vous permet de suivre la progression de votre tâche et d'accéder aux résultats une fois le traitement terminé. L'API accepte l'ID de tâche renvoyé par InvokeDataAutomationAsync. Il vérifie l'état actuel de la tâche et renvoie les informations pertinentes. Une fois le travail terminé, il indique l'emplacement des résultats dans S3.
Si la tâche est toujours en cours, elle renvoie l'état actuel (par exemple, « RUNNING », « QUEUED »). Si le travail est terminé, il renvoie « COMPLETED » ainsi que l'emplacement S3 des résultats. S'il y a eu une erreur, elle renvoie « FAILED » avec les détails de l'erreur.
Le format de la requête JSON est le suivant :
{ "InvocationArn": "string" // Arn }
Réponse de sortie asynchrone
Les résultats du traitement des fichiers sont stockés dans le compartiment S3 configuré pour les images d'entrée. La sortie inclut des structures uniques en fonction à la fois de la modalité du fichier et des types d'opérations spécifiés dans l'appel à InvokeDataAutomationAsync.
Pour plus d'informations sur les sorties standard pour une modalité donnée, voirSortie standard dans Bedrock Data Automation.
Par exemple, pour les images, il peut inclure des informations sur les points suivants :
Résumé de l'image : résumé descriptif ou légende de l'image.
Classification IAB : Catégorisation basée sur la taxonomie IAB.
Détection du texte de l'image : texte extrait avec les informations relatives aux encadrés.
Modération du contenu : détecte le contenu inapproprié, indésirable ou offensant d'une image.
Voici un exemple d'extrait de sortie pour le traitement d'image :
{ "metadata": { "id": "image_123", "semantic_modality": "IMAGE", "s3_bucket": "my-s3-bucket", "s3_prefix": "images/", "image_width_pixels": 1920, "image_height_pixels": 1080 }, "image": { "summary": "A lively party scene with colorful decorations and supplies", "iab_categories": [ { "category": "Party Supplies", "confidence": 0.9, "parent_name": "Events & Attractions" } ], "content_moderation": [ { "category": "Drugs & Tobacco Paraphernalia & Use", "confidence": 0.7 } ], "text_words": [ { "id": "word_1", "text": "lively", "confidence": 0.9, "line_id": "line_1", "locations": [ { "bounding_box": { "left": 100, "top": 200, "width": 50, "height": 20 }, "polygon": [ {"x": 100, "y": 200}, {"x": 150, "y": 200}, {"x": 150, "y": 220}, {"x": 100, "y": 220} ] } ] } ], } }
Cette sortie structurée permet une intégration facile avec les applications en aval et une analyse plus approfondie.