Étape 3 : Formatage du résultat de l'analyse des entités sous forme de métadonnées Amazon Kendra - Amazon Kendra

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Étape 3 : Formatage du résultat de l'analyse des entités sous forme de métadonnées Amazon Kendra

Pour convertir les entités extraites par Amazon Comprehend au format de métadonnées requis par un index Amazon Kendra, vous devez exécuter un script Python 3. Les résultats de la conversion sont stockés dans le metadata dossier de votre compartiment Amazon S3.

Pour plus d'informations sur le format et la structure des métadonnées Amazon Kendra, consultez la section Métadonnées du document S3.

Téléchargement et extraction de la sortie Amazon Comprehend

Pour formater le résultat de l'analyse des entités Amazon Comprehend, vous devez d'abord télécharger l'archive d'analyse des entités Amazon Comprehend et extraire le fichier d'output.tar.gzanalyse des entités.

  1. Dans le volet de navigation de la console Amazon Comprehend, accédez à Analysis jobs.

  2. Choisissez votre tâche d'analyse d'entitésdata-entities-analysis.

  3. Sous Sortie, choisissez le lien affiché à côté de Emplacement des données de sortie. Cela vous redirige vers l'output.tar.gzarchive de votre compartiment S3.

  4. Dans l'onglet Vue d'ensemble, choisissez Télécharger.

    Astuce

    Les résultats de toutes les tâches d'analyse Amazon Comprehend portent le même nom. Le fait de renommer votre archive vous permettra de la suivre plus facilement.

  5. Décompressez et extrayez le fichier Amazon Comprehend téléchargé sur votre appareil.

  1. Pour accéder au nom du dossier généré automatiquement par Amazon Comprehend dans votre compartiment S3 qui contient les résultats de la tâche d'analyse des entités, utilisez la commande suivante : describe-entities-detection-job

    Linux
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Où :

    macOS
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Où :

    Windows
    aws comprehend describe-entities-detection-job ^ --job-id entities-job-id ^ --region aws-region

    Où :

  2. À partir de l'OutputDataConfigobjet figurant dans la description de travail de votre entité, copiez et enregistrez la S3Uri valeur dans comprehend-S3uri un éditeur de texte.

    Note

    Le format de S3Uri la valeur est similaire à s3://amzn-s3-demo-bucket/.../output/output.tar.gz.

  3. Pour télécharger l'archive de sortie des entités, utilisez la commande copy :

    Linux
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Où :

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz est la S3Uri valeur sous laquelle vous avez enregistrécomprehend-S3uri,

    • path/ est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

    macOS
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Où :

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz est la S3Uri valeur sous laquelle vous avez enregistrécomprehend-S3uri,

    • path/ est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

    Windows
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Où :

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz est la S3Uri valeur sous laquelle vous avez enregistrécomprehend-S3uri,

    • path/ est le répertoire local dans lequel vous souhaitez enregistrer la sortie.

  4. Pour extraire la sortie des entités, exécutez la commande suivante dans une fenêtre de terminal :

    Linux
    tar -xf path/output.tar.gz -C path/

    Où :

    • path/ est le chemin d'accès à l'output.tar.gzarchive téléchargée sur votre appareil local.

    macOS
    tar -xf path/output.tar.gz -C path/

    Où :

    • path/ est le chemin d'accès à l'output.tar.gzarchive téléchargée sur votre appareil local.

    Windows
    tar -xf path/output.tar.gz -C path/

    Où :

    • path/ est le chemin d'accès à l'output.tar.gzarchive téléchargée sur votre appareil local.

À la fin de cette étape, vous devriez avoir un fichier sur votre appareil appelé output contenant une liste des entités identifiées par Amazon Comprehend.

Téléchargement de la sortie dans le compartiment S3

Après avoir téléchargé et extrait le fichier d'analyse des entités Amazon Comprehend, vous chargez le fichier output extrait dans votre compartiment Amazon S3.

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.

  2. Dans Buckets, cliquez sur le nom de votre bucket, puis choisissez Upload.

  3. Dans Fichiers et dossiers, choisissez Ajouter des fichiers.

  4. Dans la boîte de dialogue, accédez au output fichier extrait sur votre appareil, sélectionnez-le, puis choisissez Ouvrir.

  5. Conservez les paramètres par défaut pour la destination, les autorisations et les propriétés.

  6. Sélectionnez Charger.

  1. Pour télécharger le output fichier extrait dans votre bucket, utilisez la commande copy :

    Linux
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Où :

    • path/ est le chemin de fichier local vers votre fichier extraitoutput,

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    macOS
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Où :

    • path/ est le chemin de fichier local vers votre fichier extraitoutput,

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    Windows
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Où :

    • path/ est le chemin de fichier local vers votre fichier extraitoutput,

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

  2. Pour vous assurer que le output fichier a bien été chargé dans votre compartiment S3, vérifiez son contenu à l'aide de la commande list :

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

Conversion de la sortie au format de métadonnées Amazon Kendra

Pour convertir la sortie Amazon Comprehend en métadonnées Amazon Kendra, vous devez exécuter un script Python 3. Si vous utilisez la console, utilisez AWS CloudShell pour cette étape.

  1. Téléchargez le fichier compressé .py.zip du convertisseur sur votre appareil.

  2. Extrayez le fichier Python 3converter.py.

  3. Connectez-vous à la console AWS de gestion et assurez-vous que votre AWS région est définie sur la même région que votre compartiment S3 et votre tâche d'analyse Amazon Comprehend.

  4. Cliquez sur l'AWS CloudShell icône ou saisissez du AWS CloudShelltexte dans la zone de recherche de la barre de navigation supérieure pour lancer un environnement.

    Note

    Lors du premier AWS CloudShell lancement dans une nouvelle fenêtre de navigateur, un panneau de bienvenue s'affiche et répertorie les principales fonctionnalités. Le shell est prêt à interagir une fois que vous avez fermé ce panneau et que l'invite de commande s'affiche.

  5. Une fois le terminal préparé, choisissez Actions dans le volet de navigation, puis choisissez Télécharger le fichier dans le menu.

  6. Dans la boîte de dialogue qui s'ouvre, choisissez Sélectionner un fichier, puis choisissez le fichier converter.py Python 3 téléchargé sur votre appareil. Sélectionnez Charger.

  7. Dans l' AWS CloudShell environnement, entrez la commande suivante :

    python3 converter.py
  8. Lorsque l'interface shell vous invite à saisir le nom de votre compartiment S3, entrez le nom de votre compartiment S3 et appuyez sur Entrée.

  9. Lorsque l'interface shell vous invite à entrer le chemin de fichier complet vers votre fichier de sortie Comprehend, entrez et appuyez sur Entrée. output

  10. Lorsque l'interface shell vous invite à saisir le chemin de fichier complet de votre dossier de métadonnées, entrez metadata/ et appuyez sur Entrée.

Important

Pour que les métadonnées soient correctement formatées, les valeurs d'entrée des étapes 8 à 10 doivent être exactes.

  1. Pour télécharger le fichier Python 3converter.py, exécutez la commande suivante dans une fenêtre de terminal :

    Linux
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Où :

    • path/ est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

    macOS
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Où :

    • path/ est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

    Windows
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Où :

    • path/ est le chemin du fichier vers l'emplacement dans lequel vous souhaitez enregistrer le fichier compressé.

  2. Pour extraire le fichier Python 3, exécutez la commande suivante dans la fenêtre du terminal :

    Linux
    unzip path/converter.py.zip -d path/

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

    macOS
    unzip path/converter.py.zip -d path/

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

    Windows
    tar -xf path/converter.py.zip -C path/

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

  3. Assurez-vous que Boto3 est installé sur votre appareil en exécutant la commande suivante.

    Linux
    pip3 show boto3
    macOS
    pip3 show boto3
    Windows
    pip3 show boto3
    Note

    Si Boto3 n'est pas installé, lancez-vous pip3 install boto3 pour l'installer.

  4. Pour exécuter le script Python 3 afin de convertir le output fichier, exécutez la commande suivante.

    Linux
    python path/converter.py

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

    macOS
    python path/converter.py

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

    Windows
    python path/converter.py

    Où :

    • path/ est le chemin du fichier enregistré. converter.py.zip

  5. Lorsque vous y AWS CLI êtes invitéEnter the name of your S3 bucket, entrez le nom de votre compartiment S3 et appuyez sur Entrée.

  6. Lorsque vous y AWS CLI êtes invitéEnter the full filepath to your Comprehend output file, entrez output et appuyez sur Entrée.

  7. Lorsque vous y AWS CLI êtes invitéEnter the full filepath to your metadata folder, entrez metadata/ et appuyez sur Entrée.

Important

Pour que les métadonnées soient correctement formatées, les valeurs d'entrée des étapes 5 à 7 doivent être exactes.

À la fin de cette étape, les métadonnées formatées sont déposées dans le metadata dossier de votre compartiment S3.

Nettoyage de votre compartiment Amazon S3

Étant donné que l'index Amazon Kendra synchronise tous les fichiers stockés dans un compartiment, nous vous recommandons de nettoyer votre compartiment Amazon S3 pour éviter les résultats de recherche redondants.

  1. Ouvrez la console Amazon S3 à l'adresse https://console.aws.amazon.com/s3/.

  2. Dans Buckets, choisissez votre compartiment, puis sélectionnez le dossier de sortie de l'analyse des entités Amazon Comprehend, le fichier d'analyse des entités .temp Amazon Comprehend et le fichier Amazon Comprehend extrait. output

  3. Dans l'onglet Aperçu, choisissez Supprimer.

  4. Dans Supprimer des objets, sélectionnez Supprimer définitivement des objets ? et entrez permanently delete dans le champ de saisie de texte.

  5. Choisissez Supprimer les objets.

  1. Pour supprimer tous les fichiers et dossiers de votre compartiment S3 à l'exception metadata des dossiers data et, utilisez la commande remove dans le AWS CLI :

    Linux
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    macOS
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    Windows
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

  2. Pour vous assurer que les objets ont bien été supprimés de votre compartiment S3, vérifiez son contenu à l'aide de la commande list :

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Où :

    • amzn-s3-demo-bucket est le nom de votre compartiment S3.

À la fin de cette étape, vous avez converti les résultats de l'analyse des entités Amazon Comprehend en métadonnées Amazon Kendra. Vous êtes maintenant prêt à créer un index Amazon Kendra.