Utilisation de l'apprentissage automatique d'Amazon Aurora avec Aurora Postgre SQL - Amazon Aurora

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Utilisation de l'apprentissage automatique d'Amazon Aurora avec Aurora Postgre SQL

En utilisant l'apprentissage automatique Amazon Aurora avec votre cluster de SQL base de données Aurora Postgre, vous pouvez utiliser Amazon Comprehend, Amazon SageMaker ou Amazon Bedrock, selon vos besoins. Ces services prennent chacun en charge des cas d'utilisation spécifiques de l'apprentissage automatique.

L'apprentissage automatique Aurora est pris en charge dans certains Régions AWS et pour des versions spécifiques d'Aurora Postgre SQL uniquement. Avant d'essayer de configurer l'apprentissage automatique d'Aurora, vérifiez la disponibilité de votre SQL version d'Aurora Postgre et de votre région. Pour plus de détails, consultez Apprentissage automatique Aurora avec Aurora Postgre SQL.

Conditions requises pour utiliser l'apprentissage automatique Aurora avec Aurora Postgre SQL

AWS les services d'apprentissage automatique sont des services gérés qui sont configurés et exécutés dans leurs propres environnements de production. L'apprentissage automatique Aurora prend en charge l'intégration avec Amazon Comprehend et Amazon SageMaker Bedrock. Avant d'essayer de configurer votre cluster de SQL base de données Aurora Postgre pour utiliser l'apprentissage automatique Aurora, assurez-vous de bien comprendre les exigences et prérequis suivants.

  • Les services Amazon Comprehend SageMaker et Amazon Bedrock doivent fonctionner de la même manière Région AWS en tant que cluster de SQL base de données Aurora Postgre. Vous ne pouvez pas utiliser les services Amazon Comprehend ou SageMaker Amazon Bedrock à partir d'un cluster de SQL base de données Aurora Postgre situé dans une autre région.

  • Si votre cluster de SQL base de données Aurora Postgre se trouve dans un cloud public virtuel (VPC) basé sur le VPC service Amazon différent de celui de votre Amazon Comprehend SageMaker and services, VPC le groupe de sécurité doit autoriser les connexions sortantes vers le service d'apprentissage automatique Aurora cible. Pour de plus amples informations, veuillez consulter Permettre la communication réseau entre Amazon Aurora et d'autres AWS services.

  • En SageMaker effet, les composants d'apprentissage automatique que vous souhaitez utiliser pour les inférences doivent être configurés et prêts à être utilisés. Pendant le processus de configuration de votre cluster de SQL base de données Aurora Postgre, vous devez disposer du nom de ressource Amazon (ARN) du SageMaker point de terminaison. Les data scientists de votre équipe sont probablement les mieux placés pour travailler avec eux SageMaker pour préparer les modèles et effectuer les autres tâches de ce type. Pour commencer à utiliser Amazon SageMaker, consultez Get Started with Amazon SageMaker. Pour plus d'informations sur les inférences et les points de terminaison, consultez Inférence en temps réel.

  • Pour Amazon Bedrock, vous devez disposer de l'ID de modèle des modèles Bedrock que vous souhaitez utiliser pour les inférences, disponible lors du processus de configuration de votre cluster de base de données Aurora SQL Postgre. Les data scientists de votre équipe sont probablement les mieux placés pour travailler avec Bedrock pour décider des modèles à utiliser, les peaufiner si nécessaire et effectuer d'autres tâches similaires. Pour commencer à utiliser Amazon Bedrock, consultez Comment configurer Bedrock.

  • Les utilisateurs d’Amazon Bedrock doivent demander l’accès aux modèles avant de pouvoir s’en servir. Si vous souhaitez ajouter des modèles supplémentaires pour la génération de texte, de discussion instantanée et d’images, vous devez demander l’accès aux modèles dans Amazon Bedrock. Pour plus d'informations, consultez la section Accès aux modèles.

Fonctionnalités et limites prises en charge de l'apprentissage automatique Aurora avec Aurora Postgre SQL

L'apprentissage automatique Aurora prend en charge tout SageMaker point de terminaison capable de lire et d'écrire le format de valeur séparée par des virgules (CSV) via une ContentType valeur de. text/csv Les SageMaker algorithmes intégrés qui acceptent actuellement ce format sont les suivants.

  • Linear Learner

  • Random Cut Forest

  • XGBoost

    Pour en savoir plus sur ces algorithmes, consultez la section Choisir un algorithme dans le manuel Amazon SageMaker Developer Guide.

Lorsque vous utilisez Amazon Bedrock avec le machine learning Aurora, les limites suivantes s'appliquent :

  • Les fonctions définies par l'utilisateur (UDFs) fournissent un moyen natif d'interagir avec Amazon Bedrock. Ils UDFs n'ont pas d'exigences spécifiques en matière de demande ou de réponse, ils peuvent donc utiliser n'importe quel modèle.

  • Vous pouvez l'utiliser UDFs pour créer le flux de travail souhaité. Par exemple, vous pouvez combiner des primitives de base pg_cron pour exécuter une requête, récupérer des données, générer des inférences et écrire dans des tables pour répondre directement aux requêtes.

  • UDFsne prennent pas en charge les appels par lots ou en parallèle.

  • L'extension Aurora Machine Learning ne prend pas en charge les interfaces vectorielles. Dans le cadre de l'extension, une fonction est disponible pour générer les incorporations de la réponse du modèle dans le float8[] format permettant de stocker ces intégrations dans Aurora. Pour plus d'informations sur l'utilisation defloat8[], voirUtilisation d'Amazon Bedrock avec votre cluster de base de données Aurora Postgre SQL.

Configuration de votre cluster de SQL base de données Aurora Postgre pour utiliser l'apprentissage automatique Aurora

Pour que l'apprentissage automatique Aurora fonctionne avec votre cluster de SQL base de données Aurora Postgre, vous devez créer un AWS Identity and Access Management (IAM) rôle pour chacun des services que vous souhaitez utiliser. Le IAM rôle permet à votre cluster de SQL base de données Aurora Postgre d'utiliser le service d'apprentissage automatique Aurora pour le compte du cluster. Vous devez également installer l'extension du machine learning Aurora. Dans les rubriques suivantes, vous pouvez trouver des procédures de configuration pour chacun de ces services de machine learning Aurora.

Configuration d'Aurora Postgre SQL pour utiliser Amazon Bedrock

Dans la procédure suivante, vous devez d'abord créer le IAM rôle et la politique qui autorisent votre Aurora Postgre SQL à utiliser Amazon Bedrock au nom du cluster. Vous associez ensuite la politique à un IAM rôle que votre cluster de SQL base de données Aurora Postgre utilise pour fonctionner avec Amazon Bedrock. Pour des raisons de simplicité, cette procédure utilise AWS Management Console pour terminer toutes les tâches.

Pour configurer votre cluster de SQL base de données Aurora Postgre afin d'utiliser Amazon Bedrock
  1. Connectez-vous au AWS Management Console et ouvrez la IAM console à l'adresse https://console.aws.amazon.com/iam/.

  2. Ouvrez la IAM console à l'adresse https://console.aws.amazon.com/iam/.

  3. Choisissez Politiques (sous Gestion des accès) sur le AWS Identity and Access Management (IAM) Menu de la console.

    1. Choisissez Create Policy (Créer une politique). Dans la page de l'éditeur visuel, choisissez Service, puis entrez Bedrock dans le champ Sélectionnez un service. Développez le niveau d'accès en lecture. Choisissez InvokeModelparmi les paramètres de lecture d'Amazon Bedrock.

    2. Choisissez le modèle Foundation/Provisioned auquel vous souhaitez accorder l'accès en lecture via la politique.

      Création de la IAM politique à utiliser pour Amazon Bedrock.
  4. Choisissez Next: Tags (Suivant : Balises) et définissez toutes les balises (facultatif). Choisissez Suivant : vérification. Saisissez un nom et une description pour la stratégie, comme indiqué dans l'image.

    Création de la politique pour le IAM rôle à utiliser pour Amazon Bedrock.
  5. Choisissez Create Policy (Créer une politique). La console affiche une alerte lorsque la stratégie a été enregistrée. Vous pouvez la trouver dans la liste des stratégies.

  6. Choisissez Rôles (sous Gestion des accès) sur la IAM console.

  7. Sélectionnez Créer un rôle.

  8. Sur la page Sélectionner une entité de confiance, sélectionnez AWS vignette de service, puis choisissez RDSd'ouvrir le sélecteur.

  9. Choisissez RDS— Ajouter un rôle à la base de données.

    Création d'un rôle pour Aurora Postgre SQL afin qu'il fonctionne avec Amazon Bedrock.
  10. Choisissez Suivant. Sur la page Ajouter des autorisations, recherchez la stratégie que vous avez créée à l'étape précédente et choisissez-la parmi celles répertoriées. Choisissez Suivant.

  11. Next: Review (Suivant : Vérification). Entrez un nom pour le IAM rôle et une description.

  12. Ouvrez la RDS console Amazon à l'adresse https://console.aws.amazon.com/rds/.

  13. Naviguez vers le Région AWS où se trouve votre cluster de SQL base de données Aurora Postgre.

  14. Dans le volet de navigation, choisissez Databases, puis choisissez le cluster de bases de données Aurora Postgre SQL que vous souhaitez utiliser avec Bedrock.

  15. Choisissez l'onglet Connectivité et sécurité et faites défiler la page pour accéder à la section Gérer les IAM rôles. Dans le sélecteur Ajouter IAM des rôles à ce cluster, choisissez le rôle que vous avez créé lors des étapes précédentes. Dans le sélecteur de fonctionnalités, choisissez Bedrock, puis choisissez Ajouter un rôle.

Le rôle (avec sa politique) est associé au cluster de SQL base de données Aurora Postgre. Lorsque le processus est terminé, le rôle est répertorié dans la liste IAM des rôles actuels pour ce cluster, comme indiqué ci-dessous.

Le rôle d'Amazon Bedrock a été ajouté au cluster de SQL base de données Aurora Postgre et est désormais actif.

La IAM configuration d'Amazon Bedrock est terminée. Poursuivez la configuration de votre Aurora Postgre SQL pour qu'il fonctionne avec l'apprentissage automatique Aurora en installant l'extension comme indiqué dans Installation de l'extension du machine learning Aurora

Configuration d'Aurora Postgre SQL pour utiliser Amazon Comprehend

Dans la procédure suivante, vous devez d'abord créer le IAM rôle et la politique qui donnent à votre Aurora Postgre SQL l'autorisation d'utiliser Amazon Comprehend au nom du cluster. Vous associez ensuite la politique à un IAM rôle que votre cluster de SQL base de données Aurora Postgre utilise pour fonctionner avec Amazon Comprehend. Par souci de simplicité, cette procédure utilise le AWS Management Console pour terminer toutes les tâches.

Pour configurer votre cluster de SQL base de données Aurora Postgre afin d'utiliser Amazon Comprehend
  1. Connectez-vous au AWS Management Console et ouvrez la IAM console à l'adresse https://console.aws.amazon.com/iam/.

  2. Ouvrez la IAM console à l'adresse https://console.aws.amazon.com/iam/.

  3. Choisissez Politiques (sous Gestion des accès) sur le AWS Identity and Access Management (IAM) Menu de la console.

    Création de la IAM politique à utiliser pour Amazon Comprehend.
  4. Choisissez Create Policy (Créer une politique). Sur la page de l'éditeur visuel, choisissez Service, puis saisissez Comprehend dans le champ Sélectionner un service. Développez le niveau d'accès en lecture. Choisissez BatchDetectSentimentet DetectSentimentparmi les paramètres de lecture d'Amazon Comprehend.

  5. Choisissez Next: Tags (Suivant : Balises) et définissez toutes les balises (facultatif). Choisissez Suivant : vérification. Saisissez un nom et une description pour la stratégie, comme indiqué dans l'image.

    Création de la politique pour le IAM rôle à utiliser pour Amazon Comprehend.
  6. Choisissez Create Policy (Créer une politique). La console affiche une alerte lorsque la stratégie a été enregistrée. Vous pouvez la trouver dans la liste des stratégies.

  7. Choisissez Rôles (sous Gestion des accès) sur la IAM console.

  8. Sélectionnez Créer un rôle.

  9. Sur la page Sélectionner une entité de confiance, sélectionnez AWS vignette de service, puis choisissez RDSd'ouvrir le sélecteur.

  10. Choisissez RDS— Ajouter un rôle à la base de données.

    Création du rôle permettant à Aurora Postgre de SQL fonctionner avec Amazon Comprehend.
  11. Choisissez Suivant. Sur la page Ajouter des autorisations, recherchez la stratégie que vous avez créée à l'étape précédente et choisissez-la parmi celles répertoriées. Choisissez Next (Suivant).

  12. Next: Review (Suivant : Vérification). Entrez un nom pour le IAM rôle et une description.

  13. Ouvrez la RDS console Amazon à l'adresse https://console.aws.amazon.com/rds/.

  14. Naviguez vers le Région AWS où se trouve votre cluster de SQL base de données Aurora Postgre.

  15. Dans le volet de navigation, choisissez Databases, puis choisissez le cluster de bases de données Aurora Postgre SQL que vous souhaitez utiliser avec Amazon Comprehend.

  16. Choisissez l'onglet Connectivité et sécurité et faites défiler la page pour accéder à la section Gérer les IAM rôles. Dans le sélecteur Ajouter IAM des rôles à ce cluster, choisissez le rôle que vous avez créé lors des étapes précédentes. Dans le sélecteur de fonctionnalités, choisissez Comprehend, puis sélectionnez Ajouter un rôle.

Le rôle (avec sa politique) est associé au cluster de SQL base de données Aurora Postgre. Lorsque le processus est terminé, le rôle est répertorié dans la liste IAM des rôles actuels pour ce cluster, comme indiqué ci-dessous.

Le rôle d'Amazon Comprehend a été ajouté au cluster de SQL base de données Aurora Postgre et est désormais actif.

La IAM configuration d'Amazon Comprehend est terminée. Poursuivez la configuration de votre Aurora Postgre SQL pour qu'il fonctionne avec l'apprentissage automatique Aurora en installant l'extension comme indiqué dans Installation de l'extension du machine learning Aurora

Configuration d'Aurora Postgre SQL pour utiliser Amazon SageMaker

Avant de pouvoir créer la IAM politique et le rôle de votre cluster de SQL base de données Aurora Postgre, vous devez disposer de la configuration de votre SageMaker modèle et de votre point de terminaison.

Pour configurer votre cluster de SQL base de données Aurora Postgre afin d'utiliser SageMaker
  1. Connectez-vous au AWS Management Console et ouvrez la IAM console à l'adresse https://console.aws.amazon.com/iam/.

  2. Choisissez Politiques (sous Gestion des accès) sur le AWS Identity and Access Management (IAM) Menu de la console, puis choisissez Create policy. Dans l'éditeur visuel, choisissez SageMakerle service. Pour Actions, ouvrez le sélecteur de lecture (sous Niveau d'accès) et choisissez InvokeEndpoint. Dans ce cas, une icône d'avertissement s'affiche.

  3. Ouvrez le sélecteur de ressources et cliquez sur le lien Ajouter ARN pour restreindre l'accès sous Spécifier la ressource de point de terminaison ARN pour l' InvokeEndpoint action.

  4. Entrez le Région AWS de vos SageMaker ressources et du nom de votre point de terminaison. Votre AWS le compte est prérempli.

    Spécifier le point ARN de terminaison de la IAM politique.
  5. Choisissez Add (Ajouter) pour enregistrer. Choisissez Next: Tags (Suivant : Balises) et Next: Review (Suivant : Vérification) pour accéder à la dernière page du processus de création de la stratégie.

  6. Saisissez un nom et une description pour la stratégie, puis choisissez Create policy (Créer une stratégie). La stratégie est créée et ajoutée à la liste des stratégies. Une alerte s'affiche dans la console lorsque cela se produit.

  7. Sur la IAM console, sélectionnez Rôles.

  8. Sélectionnez Créer un rôle.

  9. Sur la page Sélectionner une entité de confiance, sélectionnez AWS vignette de service, puis choisissez RDSd'ouvrir le sélecteur.

  10. Choisissez RDS— Ajouter un rôle à la base de données.

  11. Choisissez Suivant. Sur la page Ajouter des autorisations, recherchez la stratégie que vous avez créée à l'étape précédente et choisissez-la parmi celles répertoriées. Choisissez Next (Suivant).

  12. Next: Review (Suivant : Vérification). Entrez un nom pour le IAM rôle et une description.

  13. Ouvrez la RDS console Amazon à l'adresse https://console.aws.amazon.com/rds/.

  14. Naviguez vers le Région AWS où se trouve votre cluster de SQL base de données Aurora Postgre.

  15. Dans le volet de navigation, choisissez Databases, puis choisissez le cluster de bases de SQL données Aurora Postgre que vous souhaitez utiliser avec SageMaker.

  16. Choisissez l'onglet Connectivité et sécurité et faites défiler la page pour accéder à la section Gérer les IAM rôles. Dans le sélecteur Ajouter IAM des rôles à ce cluster, choisissez le rôle que vous avez créé lors des étapes précédentes. Dans le sélecteur de fonctionnalités, choisissez SageMaker, puis choisissez Ajouter un rôle.

Le rôle (avec sa politique) est associé au cluster de SQL base de données Aurora Postgre. Une fois le processus terminé, le rôle est répertorié dans la liste IAM des rôles actuels pour ce cluster.

La IAM configuration de SageMaker est terminée. Poursuivez la configuration de votre Aurora Postgre SQL pour qu'il fonctionne avec l'apprentissage automatique Aurora en installant l'extension comme indiqué dansInstallation de l'extension du machine learning Aurora.

Configuration d'Aurora Postgre SQL pour utiliser Amazon S3 for SageMaker (Advanced)

Pour l'utiliser SageMaker avec vos propres modèles plutôt que d'utiliser les composants prédéfinis fournis par SageMaker, vous devez configurer un bucket Amazon Simple Storage Service (Amazon S3) que le cluster de base de données Aurora SQL Postgre pourra utiliser. Il s'agit d'une rubrique avancée qui n'est pas entièrement documentée dans ce Guide de l'utilisateur Amazon Aurora. Le processus général est le même que pour intégrer le support SageMaker, comme suit.

  1. Créez la IAM politique et le rôle d'Amazon S3.

  2. Ajoutez le IAM rôle et l'importation ou l'exportation Amazon S3 en tant que fonctionnalité dans l'onglet Connectivité et sécurité de votre cluster de SQL base de données Aurora Postgre.

  3. Ajoutez le rôle à votre groupe ARN de paramètres de cluster de base de données personnalisé pour votre cluster de base de données Aurora.

Pour plus d'informations de base, consultez Exportation de données vers Amazon S3 pour l'entraînement des SageMaker modèles (niveau avancé).

Installation de l'extension du machine learning Aurora

Les extensions d'apprentissage automatique Aurora aws_ml 1.0 fournissent deux fonctions que vous pouvez utiliser pour appeler les SageMaker services Amazon Comprehend et aws_ml 2.0 fournissent deux fonctions supplémentaires que vous pouvez utiliser pour appeler les services Amazon Bedrock. L'installation de ces extensions sur votre cluster de SQL base de données Aurora Postgre crée également un rôle administratif pour la fonctionnalité.

Note

L'utilisation de ces fonctions dépend de l'achèvement de la IAM configuration du service d'apprentissage automatique Aurora (Amazon Comprehend, SageMaker Amazon Bedrock), comme indiqué dans. Configuration de votre cluster de SQL base de données Aurora Postgre pour utiliser l'apprentissage automatique Aurora

  • aws_comprehend.detect_sentiment — Vous utilisez cette fonction pour appliquer une analyse des sentiments au texte stocké dans la base de données de votre cluster de base de données Aurora Postgre. SQL

  • aws_sagemaker.invoke_endpoint — Vous utilisez cette fonction dans votre SQL code pour communiquer avec le point de terminaison depuis votre cluster. SageMaker

  • aws_bedrock.invoke_model — Vous utilisez cette fonction dans votre SQL code pour communiquer avec les modèles Bedrock de votre cluster. La réponse de cette fonction sera au format aTEXT, donc si un modèle répond au format d'un JSON corps, la sortie de cette fonction sera relayée sous forme de chaîne à l'utilisateur final.

  • aws_bedrock.invoke_model_get_embeddings — Vous utilisez cette fonction dans votre code pour invoquer des modèles Bedrock qui renvoient des intégrations de sortie dans une réponse. SQL JSON Cela peut être utilisé lorsque vous souhaitez extraire les intégrations directement associées à la clé json afin de rationaliser la réponse avec tous les flux de travail autogérés.

Pour installer l'extension d'apprentissage automatique Aurora dans votre cluster de SQL base de données Aurora Postgre
  • Utilisez-le psql pour vous connecter à l'instance d'écriture de votre cluster de SQL base de données Aurora Postgre. Connectez-vous à la base de données spécifique dans laquelle vous souhaitez installer l'extension aws_ml.

    psql --host=cluster-instance-1.111122223333.aws-region.rds.amazonaws.com --port=5432 --username=postgres --password --dbname=labdb
labdb=> CREATE EXTENSION IF NOT EXISTS aws_ml CASCADE; NOTICE: installing required extension "aws_commons" CREATE EXTENSION labdb=>

L'installation des aws_ml extensions crée également le rôle aws_ml administratif et trois nouveaux schémas, comme suit.

  • aws_comprehend – Schéma du service Amazon Comprehend et source de la fonction detect_sentiment (aws_comprehend.detect_sentiment).

  • aws_sagemaker— Schéma du SageMaker service et de la source de la invoke_endpoint fonction (aws_sagemaker.invoke_endpoint).

  • aws_bedrock— Schéma du service Amazon Bedrock et source des invoke_model_get_embeddings(aws_bedrock.invoke_model_get_embeddings) fonctions invoke_model(aws_bedrock.invoke_model) et.

Le rds_superuser rôle se voit attribuer le rôle aws_ml administratif et est constitué OWNER de ces trois schémas d'apprentissage automatique Aurora. Pour permettre aux autres utilisateurs de la base de données d'accéder aux fonctions de machine learning Aurora, rds_superuser doit accorder des privilèges EXECUTE sur les fonctions de machine learning Aurora. Par défaut, les privilèges EXECUTE sont révoqués de PUBLIC sur les fonctions des deux schémas de machine learning Aurora.

Dans une configuration de base de données à locataires multiples, vous pouvez empêcher les locataires d'accéder aux fonctions de machine learning d'Aurora en utilisant REVOKE USAGE sur le schéma de machine learning Aurora spécifique que vous souhaitez protéger.

Utilisation d'Amazon Bedrock avec votre cluster de base de données Aurora Postgre SQL

Pour Aurora PostgreSQL, l'apprentissage automatique Aurora fournit la fonction Amazon Bedrock suivante pour travailler avec vos données texte. Cette fonction n'est disponible qu'après avoir installé l'extension aws_ml 2.0 et terminé toutes les procédures de configuration. Pour de plus amples informations, veuillez consulter Configuration de votre cluster de SQL base de données Aurora Postgre pour utiliser l'apprentissage automatique Aurora.

aws_bedrock.invoke_model

Cette fonction prend du texte formaté JSON en entrée et le traite pour divers modèles hébergés sur Amazon Bedrock et récupère la réponse JSON textuelle du modèle. Cette réponse peut contenir du texte, une image ou des éléments incorporés. Voici un résumé de la documentation de la fonction.

aws_bedrock.invoke_model( IN model_id varchar, IN content_type text, IN accept_type text, IN model_input text, OUT model_output varchar)

Les entrées et sorties de cette fonction sont les suivantes.

  • model_id— Identifiant du modèle.

  • content_type— Le type de demande adressée au modèle de Bedrock.

  • accept_type— Le type de réponse à attendre du modèle de Bedrock. Généralement applicable/ JSON pour la plupart des modèles.

  • model_input— Invitations ; ensemble spécifique d'entrées pour le modèle au format spécifié par content_type. Pour plus d'informations sur le format/la structure de demande que le modèle accepte, voir Paramètres d'inférence pour les modèles de base.

  • model_output— La sortie du modèle Bedrock sous forme de texte.

L'exemple suivant montre comment invoquer un modèle Anthropic Claude 2 pour Bedrock à l'aide de invoke_model.

Exemple : requête simple utilisant les fonctions Amazon Bedrock
SELECT aws_bedrock.invoke_model ( model_id := 'anthropic.claude-v2', content_type:= 'application/json', accept_type := 'application/json', model_input := '{"prompt": "\n\nHuman: You are a helpful assistant that answers questions directly and only using the information provided in the context below.\nDescribe the answer in detail.\n\nContext: %s \n\nQuestion: %s \n\nAssistant:","max_tokens_to_sample":4096,"temperature":0.5,"top_k":250,"top_p":0.5,"stop_sequences":[]}' );
aws_bedrock.invoke_model_get_embeddings

La sortie du modèle peut indiquer des intégrations vectorielles dans certains cas. Étant donné que la réponse varie selon le modèle, une autre fonction invoke_model_get_embeddings peut être utilisée. Elle fonctionne exactement comme invoke_model mais génère les intégrations en spécifiant la clé json appropriée.

aws_bedrock.invoke_model_get_embeddings( IN model_id varchar, IN content_type text, IN json_key text, IN model_input text, OUT model_output float8[])

Les entrées et sorties de cette fonction sont les suivantes.

  • model_id— Identifiant du modèle.

  • content_type— Le type de demande adressée au modèle de Bedrock. Ici, le accept_type est défini sur la valeur par défaut. application/json

  • model_input— Invitations ; ensemble spécifique d'entrées pour le modèle au format spécifié par content_type. Pour plus d'informations sur le format/la structure de demande que le modèle accepte, voir Paramètres d'inférence pour les modèles de base.

  • json_key— Référence au champ à partir duquel l'intégration doit être extraite. Cela peut varier si le modèle d'intégration change.

  • model_output— La sortie du modèle Bedrock est un ensemble d'intégrations comportant des décimales de 16 bits.

L'exemple suivant montre comment générer une intégration à l'aide du modèle d'intégration de texte Titan Embeddings G1 pour l'expression Postgre I/O monitoring views. SQL

Exemple : requête simple utilisant les fonctions Amazon Bedrock
SELECT aws_bedrock.invoke_model_get_embeddings( model_id := 'amazon.titan-embed-text-v1', content_type := 'application/json', json_key := 'embedding', model_input := '{ "inputText": "PostgreSQL I/O monitoring views"}') AS embedding;

Utilisation d'Amazon Comprehend avec votre cluster de base de données Aurora Postgre SQL

Pour Aurora PostgreSQL, l'apprentissage automatique Aurora fournit la fonction Amazon Comprehend suivante pour travailler avec vos données texte. Cette fonction n'est disponible qu'après avoir installé l'extension aws_ml et effectué toutes les procédures de configuration. Pour de plus amples informations, veuillez consulter Configuration de votre cluster de SQL base de données Aurora Postgre pour utiliser l'apprentissage automatique Aurora.

aws_comprehend.detect_sentiment

Cette fonction prend du texte en entrée et évalue si le texte a une posture émotionnelle positive, négative, neutre ou mixte. Il produit ce sentiment ainsi qu'un niveau de confiance pour son évaluation. Voici un résumé de la documentation de la fonction.

aws_comprehend.detect_sentiment( IN input_text varchar, IN language_code varchar, IN max_rows_per_batch int, OUT sentiment varchar, OUT confidence real)

Les entrées et sorties de cette fonction sont les suivantes.

  • input_text – Le texte pour évaluer et attribuer un sentiment (négatif, positif, neutre, mixte).

  • language_code— La langue de la personne input_text identifiée à l'aide de l'identifiant ISO 639-1 à 2 lettres avec sous-étiquette régionale (selon les besoins) ou du code à trois lettres ISO 639-2, selon le cas. Par exemple, en est le code pour l'anglais, zh est le code pour le chinois simplifié. Pour plus d'informations, consultez Langues prises en charge dans le Guide du développeur Amazon Comprehend.

  • max_rows_per_batch – Le nombre maximal de lignes par lot pour le traitement par lots. Pour de plus amples informations, veuillez consulter Présentation du mode par lots et des fonctions de machine learning d'Aurora.

  • sentiment— Le sentiment du texte saisi, identifié comme POSITIVENEGATIVE,NEUTRAL, ouMIXED.

  • confidence – Le degré de fiabilité de la précision du sentiment spécifié. Les valeurs vont de 0,0 à 1,0.

Voici des exemples qui montrent comment utiliser cette fonction.

Exemple : une requête simple utilisant les fonctions Amazon Comprehend

Voici un exemple de requête simple qui fait appel à cette fonction pour évaluer la satisfaction des clients auprès de votre équipe d'assistance. Supposons que vous disposiez d'une table de base de données (support) qui enregistre les commentaires des clients après chaque demande d'aide. Cet exemple de requête applique la fonction aws_comprehend.detect_sentiment au texte de la colonne feedback du tableau et génère le sentiment et le niveau de confiance de ce sentiment. Cette requête génère également des résultats par ordre décroissant.

SELECT feedback, s.sentiment,s.confidence FROM support,aws_comprehend.detect_sentiment(feedback, 'en') s ORDER BY s.confidence DESC; feedback | sentiment | confidence ----------------------------------------------------------+-----------+------------ Thank you for the excellent customer support! | POSITIVE | 0.999771 The latest version of this product stinks! | NEGATIVE | 0.999184 Your support team is just awesome! I am blown away. | POSITIVE | 0.997774 Your product is too complex, but your support is great. | MIXED | 0.957958 Your support tech helped me in fifteen minutes. | POSITIVE | 0.949491 My problem was never resolved! | NEGATIVE | 0.920644 When will the new version of this product be released? | NEUTRAL | 0.902706 I cannot stand that chatbot. | NEGATIVE | 0.895219 Your support tech talked down to me. | NEGATIVE | 0.868598 It took me way too long to get a real person. | NEGATIVE | 0.481805 (10 rows)

Pour éviter qu'une détection de sentiment vous soit facturée plusieurs fois par ligne de table, vous pouvez matérialiser les résultats. Faites-le sur les lignes qui vous intéressent. Par exemple, les notes du clinicien sont mises à jour afin que seules celles en français (fr) utilisent la fonction de détection des sentiments.

UPDATE clinician_notes SET sentiment = (aws_comprehend.detect_sentiment (french_notes, 'fr')).sentiment, confidence = (aws_comprehend.detect_sentiment (french_notes, 'fr')).confidence WHERE clinician_notes.french_notes IS NOT NULL AND LENGTH(TRIM(clinician_notes.french_notes)) > 0 AND clinician_notes.sentiment IS NULL;

Pour de plus amples informations sur l'optimisation de vos appels de fonction, veuillez consulter Considérations relatives aux performances liées à l'utilisation de l'apprentissage automatique Aurora avec Aurora Postgre SQL.

Utilisation SageMaker avec votre cluster de SQL base de données Aurora Postgre

Après avoir configuré votre SageMaker environnement et intégré Aurora Postgre SQL comme indiqué dans la sectionConfiguration d'Aurora Postgre SQL pour utiliser Amazon SageMaker , vous pouvez appeler des opérations à l'aide de la aws_sagemaker.invoke_endpoint fonction. La aws_sagemaker.invoke_endpoint fonction se connecte uniquement à un point de terminaison du modèle dans le même Région AWS. Si votre instance de base de données possède des répliques en plusieurs Régions AWS assurez-vous de configurer et de déployer chaque SageMaker modèle sur chaque Région AWS.

Les appels à aws_sagemaker.invoke_endpoint destination sont authentifiés à l'aide du IAM rôle que vous avez configuré pour associer votre cluster de SQL base de données Aurora Postgre au SageMaker service et au point de terminaison que vous avez fournis lors du processus de configuration. SageMaker les points de terminaison du modèle sont limités à un compte individuel et ne sont pas publics. Le endpoint_name URL ne contient pas l'identifiant du compte. SageMaker détermine l'ID de compte à partir du jeton d'authentification fourni par le SageMaker IAM rôle de l'instance de base de données.

aws_sagemaker.invoke_endpoint

Cette fonction prend le SageMaker point final en entrée et le nombre de lignes à traiter par lots. Il prend également en entrée les différents paramètres attendus par le point final du SageMaker modèle. La documentation de référence de cette fonction est la suivante.

aws_sagemaker.invoke_endpoint( IN endpoint_name varchar, IN max_rows_per_batch int, VARIADIC model_input "any", OUT model_output varchar )

Les entrées et sorties de cette fonction sont les suivantes.

  • endpoint_name— Un point de terminaison URL qui est Région AWS—indépendant.

  • max_rows_per_batch – Le nombre maximal de lignes par lot pour le traitement par lots. Pour de plus amples informations, veuillez consulter Présentation du mode par lots et des fonctions de machine learning d'Aurora.

  • model_input – Un ou plusieurs paramètres d'entrée pour le modèle. Il peut s'agir de n'importe quel type de données requis par le SageMaker modèle. Postgre vous SQL permet de spécifier jusqu'à 100 paramètres d'entrée pour une fonction. Les types de données de tableau doivent être unidimensionnels, mais peuvent contenir autant d'éléments que prévu par le SageMaker modèle. Le nombre d'entrées d'un SageMaker modèle est limité uniquement par la limite de taille des messages de SageMaker 6 Mo.

  • model_output— La sortie du SageMaker modèle sous forme de texte.

Création d'une fonction définie par l'utilisateur pour invoquer un modèle SageMaker

Créez une fonction distincte définie par l'utilisateur à appeler aws_sagemaker.invoke_endpoint pour chacun de vos SageMaker modèles. Votre fonction définie par l'utilisateur représente le SageMaker point de terminaison hébergeant le modèle. La fonction aws_sagemaker.invoke_endpoint s'exécute dans la fonction définie par l'utilisateur. Les fonctions définies par l'utilisateur offrent de nombreux avantages :

  • Vous pouvez donner son propre nom à votre SageMaker modèle au lieu de n'appeler aws_sagemaker.invoke_endpoint que tous vos SageMaker modèles.

  • Vous pouvez spécifier le point de terminaison du modèle URL à un seul endroit dans le code de votre SQL application.

  • Vous pouvez contrôler les privilèges EXECUTE de chaque fonction de machine learning Aurora indépendamment.

  • Vous pouvez déclarer les types d'entrée et de sortie du modèle à l'aide SQL de types. SQLimpose le nombre et le type d'arguments transmis à votre SageMaker modèle et effectue une conversion de type si nécessaire. L'utilisation SQL de types SQL NULL se traduira également par la valeur par défaut appropriée attendue par votre SageMaker modèle.

  • Vous pouvez réduire la taille maximale de lot si vous souhaitez retourner les premières lignes un peu plus rapidement.

Pour spécifier une fonction définie par l'utilisateur, utilisez l'instruction SQL CREATE FUNCTION data definition language (DDL). Lorsque vous créez cette fonction, vous spécifiez les éléments suivants :

  • Paramètres d'entrée du modèle.

  • Le point de SageMaker terminaison spécifique à invoquer.

  • Type de retour.

La fonction définie par l'utilisateur renvoie l'inférence calculée par le SageMaker point de terminaison après avoir exécuté le modèle sur les paramètres d'entrée. L'exemple suivant crée une fonction définie par l'utilisateur pour un SageMaker modèle avec deux paramètres d'entrée.

CREATE FUNCTION classify_event (IN arg1 INT, IN arg2 DATE, OUT category INT) AS $$ SELECT aws_sagemaker.invoke_endpoint ( 'sagemaker_model_endpoint_name', NULL, arg1, arg2 -- model inputs are separate arguments )::INT -- cast the output to INT $$ LANGUAGE SQL PARALLEL SAFE COST 5000;

Notez ce qui suit :

  • L'entrée de la fonction aws_sagemaker.invoke_endpoint peut être constituée par un ou plusieurs paramètres de n'importe quel type de données.

  • Cet exemple utilise un type INT de sortie. Si vous convertissez la sortie d'un varchar type vers un autre type, elle doit être convertie en un type scalaire SQL intégré à Postgre tel queINTEGER,REAL, FLOAT ou. NUMERIC Pour plus d'informations sur ces types, consultez la section Types de données dans la SQL documentation Postgre.

  • Spécifiez PARALLEL SAFE pour activer le traitement de requêtes en parallèle. Pour plus d'informations, consultez Améliorer les temps de réponse grâce au traitement parallèle des requêtes.

  • Spécifiez COST 5000 pour estimer le coût d'exécution de la fonction. Utilisez un nombre positif donnant le coût d'exécution estimé de la fonction, en unités de cpu_operator_cost.

Transmission d'un tableau en entrée à un SageMaker modèle

La aws_sagemaker.invoke_endpoint fonction peut avoir jusqu'à 100 paramètres d'entrée, ce qui est la limite pour les SQL fonctions Postgre. Si le SageMaker modèle nécessite plus de 100 paramètres du même type, transmettez-les sous forme de tableau.

L'exemple suivant définit une fonction qui transmet un tableau en entrée au modèle de SageMaker régression. La sortie est convertie à une valeur REAL.

CREATE FUNCTION regression_model (params REAL[], OUT estimate REAL) AS $$ SELECT aws_sagemaker.invoke_endpoint ( 'sagemaker_model_endpoint_name', NULL, params )::REAL $$ LANGUAGE SQL PARALLEL SAFE COST 5000;

Spécification de la taille du lot lors de l'appel d'un modèle SageMaker

L'exemple suivant crée une fonction définie par l'utilisateur pour un SageMaker modèle qui définit la taille du lot par défaut surNULL. La fonction vous permet également de fournir une taille de lot différente lorsque vous l'invoquez.

CREATE FUNCTION classify_event ( IN event_type INT, IN event_day DATE, IN amount REAL, -- model inputs max_rows_per_batch INT DEFAULT NULL, -- optional batch size limit OUT category INT) -- model output AS $$ SELECT aws_sagemaker.invoke_endpoint ( 'sagemaker_model_endpoint_name', max_rows_per_batch, event_type, event_day, COALESCE(amount, 0.0) )::INT -- casts output to type INT $$ LANGUAGE SQL PARALLEL SAFE COST 5000;

Remarques :

  • Utilisez le paramètre max_rows_per_batch facultatif pour contrôler le nombre de lignes pour une invocation de fonction en mode traitement par lots. Si vous utilisez une valeur deNULL, l'optimiseur de requêtes choisit automatiquement la taille de lot maximale. Pour de plus amples informations, veuillez consulter Présentation du mode par lots et des fonctions de machine learning d'Aurora.

  • Par défaut, la transmission NULL en tant que valeur de paramètre est traduite en chaîne vide avant d'être transmise à SageMaker. Pour cet exemple, les entrées ont différents types.

  • Si vous avez une entrée non textuelle ou une entrée de texte qui doit par défaut avoir une valeur autre qu'une chaîne vide, utilisez l'instruction COALESCE. COALESCEÀ utiliser NULL pour traduire par la valeur de remplacement nulle souhaitée dans l'appel àaws_sagemaker.invoke_endpoint. Pour le amount paramètre de cet exemple, une NULL valeur est convertie en 0,0.

Invoquer un SageMaker modèle comportant plusieurs sorties

L'exemple suivant crée une fonction définie par l'utilisateur pour un SageMaker modèle qui renvoie plusieurs sorties. Votre fonction doit convertir la sortie de la fonction aws_sagemaker.invoke_endpoint en un type de données correspondant. Par exemple, vous pouvez utiliser le type de SQL point Postgre intégré pour les paires (x, y) ou un type composite défini par l'utilisateur.

Cette fonction définie par l'utilisateur renvoie des valeurs à partir d'un modèle renvoyant plusieurs sorties à l'aide d'un type composite pour les sorties.

CREATE TYPE company_forecasts AS ( six_month_estimated_return real, one_year_bankruptcy_probability float); CREATE FUNCTION analyze_company ( IN free_cash_flow NUMERIC(18, 6), IN debt NUMERIC(18,6), IN max_rows_per_batch INT DEFAULT NULL, OUT prediction company_forecasts) AS $$ SELECT (aws_sagemaker.invoke_endpoint('endpt_name', max_rows_per_batch,free_cash_flow, debt))::company_forecasts; $$ LANGUAGE SQL PARALLEL SAFE COST 5000;

Pour le type composite, utilisez les champs dans le même ordre que celui dans lequel ils apparaissent dans la sortie du modèle et convertissez la sortie aws_sagemaker.invoke_endpoint en votre type composite. L'appelant peut extraire les champs individuels par leur nom ou avec la notation Postgre SQL « .* ».

Exportation de données vers Amazon S3 pour l'entraînement des SageMaker modèles (niveau avancé)

Nous vous recommandons de vous familiariser avec l'apprentissage automatique Aurora et SageMaker d'utiliser les algorithmes et les exemples fournis plutôt que d'essayer de former vos propres modèles. Pour plus d'informations, consultez Get Started with Amazon SageMaker

Pour entraîner SageMaker des modèles, vous exportez des données vers un compartiment Amazon S3. Le compartiment Amazon S3 est utilisé SageMaker pour entraîner votre modèle avant son déploiement. Vous pouvez interroger les données d'un cluster de SQL base de données Aurora Postgre et les enregistrer directement dans des fichiers texte stockés dans un compartiment Amazon S3. SageMaker Consomme ensuite les données du compartiment Amazon S3 à des fins d'entraînement. Pour en savoir plus sur la formation des SageMaker modèles, consultez la section Entraîner un modèle avec Amazon SageMaker.

Note

Lorsque vous créez un compartiment Amazon S3 pour l'entraînement des SageMaker modèles ou la notation par lots, sagemaker utilisez-le dans le nom du compartiment Amazon S3. Pour plus d'informations, consultez Spécifier un compartiment Amazon S3 pour télécharger des ensembles de données d'entraînement et stocker les données de sortie dans le manuel Amazon SageMaker Developer Guide.

Pour de plus amples informations sur l'exportation de vos données, veuillez consulter Exportation de données depuis un cluster de SQL base de données Aurora Postgre RDS S3.

Considérations relatives aux performances liées à l'utilisation de l'apprentissage automatique Aurora avec Aurora Postgre SQL

Amazon Comprehend et ses SageMaker services effectuent la majeure partie du travail lorsqu'ils sont invoqués par une fonction d'apprentissage automatique Aurora. Cela signifie que vous pouvez adapter ces ressources selon vos besoins, de manière indépendante. Pour votre cluster de SQL base de données Aurora Postgre, vous pouvez rendre vos appels de fonction aussi efficaces que possible. Vous trouverez ci-dessous certaines considérations relatives aux performances à prendre en compte lors de l'utilisation de l'apprentissage automatique Aurora à partir d'Aurora PostgreSQL.

Présentation du mode par lots et des fonctions de machine learning d'Aurora

Postgre SQL exécute généralement les fonctions ligne par ligne. Le machine learning Aurora peut réduire cette surcharge en combinant en lots les appels au service de machine learning Aurora externe pour de nombreuses lignes avec une approche appelée exécution en mode traitement par lots. En mode traitement par lots, le machine learning Aurora reçoit les réponses d'un lot de lignes d'entrée, puis retransmet les réponses à la requête en cours d'exécution une ligne à la fois. Cette optimisation améliore le débit de vos requêtes Aurora sans limiter l'optimiseur de SQL requêtes Postgre.

Aurora utilise automatiquement le mode traitement par lots si la fonction est référencée à partir de la liste SELECT, d'une clause WHERE ou d'une clause HAVING. Notez que les expressions CASE simples de niveau supérieur sont éligibles à l'exécution en mode traitement par lots. Les expressions CASE recherchées de niveau supérieur sont également éligibles à l'exécution en mode traitement par lots à condition que la première clause WHEN soit un prédicat simple avec un appel de fonction en mode traitement par lots.

Votre fonction définie par l'utilisateur doit être une fonction LANGUAGE SQL et doit spécifier PARALLEL SAFE et COST 5000.

Migration de fonctions de l'SELECTinstruction vers la FROM clause

Habituellement, une fonction aws_ml éligible à l'exécution en mode traitement par lots est automatiquement migrée par Aurora vers la clause FROM.

La migration des fonctions éligibles en mode batch vers la FROM clause peut être examinée manuellement au niveau de chaque requête. Pour ce faire, vous utilisez EXPLAIN les instructions (etVERBOSE) ANALYZE et trouvez les informations « Traitement par lots » en dessous de chaque mode par lotsFunction Scan. Vous pouvez également utiliser EXPLAIN (avecVERBOSE) sans exécuter la requête. Vous observez ensuite si les appels à la fonction apparaissent sous la forme Function Scan sous une jointure de boucle imbriquée qui n'a pas été spécifiée dans l'instruction d'origine.

Dans l'exemple suivant, l'opérateur de jointure de boucle imbriquée dans le plan montre que Aurora a migré la fonction anomaly_score. Il a migré cette fonction de la SELECT liste vers la FROM clause, où elle est éligible à une exécution en mode batch.

EXPLAIN (VERBOSE, COSTS false) SELECT anomaly_score(ts.R.description) from ts.R; QUERY PLAN ------------------------------------------------------------- Nested Loop Output: anomaly_score((r.description)::text) -> Seq Scan on ts.r Output: r.id, r.description, r.score -> Function Scan on public.anomaly_score Output: anomaly_score.anomaly_score Function Call: anomaly_score((r.description)::text)

Pour désactiver l'exécution en mode traitement par lots, définissez le paramètre apg_enable_function_migration sur false. Cela empêche la migration des aws_ml fonctions de la FROM clause SELECT to. L'exemple suivant indique comment procéder.

SET apg_enable_function_migration = false;

Le apg_enable_function_migration paramètre est un paramètre Grand Unified Configuration (GUC) reconnu par l'SQLapg_plan_mgmtextension Aurora Postgre pour la gestion des plans de requêtes. Pour désactiver la migration des fonctions dans une session, utilisez la gestion des plans de requêtes pour enregistrer le plan résultant en tant que plan approved. Lors de l'exécution, la gestion des plans de requêtes applique le plan approved avec son paramètre apg_enable_function_migration. Cette application a lieu quel que soit le réglage des apg_enable_function_migration GUC paramètres. Pour de plus amples informations, veuillez consulter Gestion des plans d'exécution des requêtes pour Aurora Postgre SQL.

Utilisation du paramètre max_rows_per_batch

Les fonctions aws_comprehend.detect_sentiment et aws_sagemaker.invoke_endpoint ont toutes deux un paramètre max_rows_per_batch. Ce paramètre indique le nombre de lignes qui peuvent être envoyées au service de machine learning Aurora. Plus le jeu de données traité par votre fonction est grand, plus vous pouvez augmenter la taille du lot.

Les fonctions en mode traitement par lots améliorent l'efficacité en créant des lots de lignes qui répartissent le coût des appels de fonction du machine learning Aurora sur un grand nombre de lignes. Toutefois, si une instruction SELECT se termine prématurément en raison d'une clause LIMIT, le lot peut être construit sur plus de lignes que la requête n'en utilise. Cette approche peut entraîner des frais supplémentaires pour votre AWS . Pour profiter des avantages de l'exécution en mode traitement par lots tout en évitant de créer des lots trop volumineux, utilisez une valeur plus petite pour le paramètre max_rows_per_batch dans vos appels de fonction.

Si vous effectuez une action EXPLAIN (VERBOSE, ANALYZE) sur une requête qui utilise l'exécution en mode traitement par lots, vous voyez un opérateur FunctionScan qui se trouve sous une jointure de boucle imbriquée. Le nombre de boucles rapporté par EXPLAIN équivaut au nombre de fois où une ligne a été extraite à partir de l'opérateur FunctionScan. Si une instruction utilise une LIMIT clause, le nombre d'extractions est constant. Pour optimiser la taille du lot, définissez le paramètre max_rows_per_batch sur cette valeur. Cependant, si la fonction de mode traitement par lots est référencée dans un prédicat dans la clause WHERE ou HAVING, vous ne pouvez probablement pas connaître le nombre d'extractions à l'avance. Dans ce cas, utilisez les boucles comme guide et testez l'élément max_rows_per_batch pour trouver un paramètre optimisant les performances.

Vérification de l'exécution en mode traitement par lots

Pour voir si une fonction a été exécutée en mode batch, utilisez EXPLAIN ANALYZE. Si l'exécution en mode traitement par lots a été utilisée, le plan de requêtes inclura les informations dans une section « Batch Processing (Traitement par lots) ».

EXPLAIN ANALYZE SELECT user-defined-function(); Batch Processing: num batches=1 avg/min/max batch size=3333.000/3333.000/3333.000 avg/min/max batch call time=146.273/146.273/146.273

Dans cet exemple, 1 lot contenait 3 333 lignes, dont le traitement a duré 146,273 ms. La section « Batch Processing (Traitement par lots) » contient les éléments suivants :

  • Le nombre de lots pour cette opération d'analyse de fonction

  • La taille moyenne, minimale et maximale du lot

  • La durée moyenne, minimale et maximale d'exécution du lot

En général, le lot final est plus petit que le reste, ce qui entraîne souvent une taille de lot minimale bien inférieure à la taille moyenne.

Pour renvoyer les premières lignes plus rapidement, définissez le paramètre max_rows_per_batch sur une valeur plus petite.

Pour réduire le nombre d'appels en mode traitement par lots au service ML lorsque vous utilisez une clause LIMIT dans votre fonction définie par l'utilisateur, définissez le paramètre max_rows_per_batch sur une valeur plus petite.

Améliorer les temps de réponse grâce au traitement parallèle des requêtes

Pour obtenir des résultats le plus rapidement possible à partir d'un grand nombre de lignes, vous pouvez combiner le traitement des requêtes parallèles avec le traitement par lots. Vous pouvez utiliser le traitement des requêtes en parallèle pour les instructions SELECT, CREATE TABLE AS SELECT et CREATE MATERIALIZED VIEW.

Note

Postgre SQL ne prend pas encore en charge les requêtes parallel query pour les instructions du langage de manipulation de données (DML).

Le traitement des requêtes en parallèle se produit à la fois dans la base de données et dans le service ML. Le nombre de cœurs dans la classe d'instance de la base de données limite le degré de parallélisme pouvant être utilisé lors de l'exécution d'une requête. Le serveur de base de données peut construire un plan d'exécution de requêtes en parallèle qui partitionne la tâche entre un ensemble d'unités de travail parallèles. Ensuite, chacune de ces unités de travail peut créer des requêtes par lots contenant des dizaines de milliers de lignes (ou autant que ce qui est autorisé par chaque service).

Les demandes groupées provenant de tous les travailleurs parallèles sont envoyées au SageMaker point de terminaison. Le degré de parallélisme que le point de terminaison peut prendre en charge est limité par le nombre et le type d'instances qui le prennent en charge. Pour obtenir K degrés de parallélisme, vous avez besoin d'une classe d'instance de base de données ayant au moins K cœurs. Vous devez également configurer le SageMaker point de terminaison de votre modèle pour qu'il comporte K instances initiales d'une classe d'instance suffisamment performante.

Pour utiliser le traitement des requêtes en parallèle, vous pouvez définir le paramètre de stockage parallel_workers de la table qui contient les données que vous prévoyez de transmettre. Vous définissez parallel_workers sur une fonction en mode traitement par lots telle que aws_comprehend.detect_sentiment. Si l'optimiseur choisit un plan de requête parallèle, AWS Les services ML peuvent être appelés à la fois par lots et en parallèle.

Vous pouvez utiliser les paramètres suivants avec la fonction aws_comprehend.detect_sentiment pour obtenir un plan avec un parallélisme à quatre voies. Si vous modifiez l'un des deux paramètres suivants, vous devez redémarrer l'instance de base de données pour que les modifications soient effectives

-- SET max_worker_processes to 8; -- default value is 8 -- SET max_parallel_workers to 8; -- not greater than max_worker_processes SET max_parallel_workers_per_gather to 4; -- not greater than max_parallel_workers -- You can set the parallel_workers storage parameter on the table that the data -- for the Aurora machine learning function is coming from in order to manually override the degree of -- parallelism that would otherwise be chosen by the query optimizer -- ALTER TABLE yourTable SET (parallel_workers = 4); -- Example query to exploit both batch-mode execution and parallel query EXPLAIN (verbose, analyze, buffers, hashes) SELECT aws_comprehend.detect_sentiment(description, 'en')).* FROM yourTable WHERE id < 100;

Pour plus d'informations sur le contrôle des requêtes parallèles, consultez la section Plans parallèles dans la SQL documentation Postgre.

Utilisation des vues matérialisées et des colonnes matérialisées

Lorsque vous invoquez un AWS service tel que SageMaker Amazon Comprehend depuis votre base de données, votre compte est débité conformément à la politique tarifaire de ce service. Pour minimiser les frais sur votre compte, vous pouvez matérialiser le résultat de l'appel au AWS service dans une colonne matérialisée afin que AWS le service n'est pas appelé plus d'une fois par ligne d'entrée. Si vous le souhaitez, vous pouvez ajouter une colonne d'horodatage materializedAt pour enregistrer l'heure à laquelle les colonnes ont été matérialisées.

La latence d'une instruction INSERT ordinaire à une seule ligne est généralement beaucoup moins élevée que celle de l'appel d'une fonction en mode traitement par lots. Ainsi, vous risquez de ne pas être en mesure de répondre aux exigences de latence de votre application si vous appelez la fonction en mode traitement par lots pour chaque INSERT d'une seule ligne exécuté par votre application. Pour matérialiser le résultat de l'appel d'un AWS service dans une colonne matérialisée, les applications hautes performances doivent généralement remplir les colonnes matérialisées. Pour ce faire, elles émettent périodiquement une instruction UPDATE qui s'exécute sur un grand lot de lignes en même temps.

UPDATE applique un verrou au niveau de la ligne qui peut avoir un impact sur une application en cours d'exécution. Donc, vous pouvez avoir besoin d'utiliser SELECT ... FOR UPDATE SKIP LOCKED ou MATERIALIZED VIEW.

Les requêtes analytiques qui s'exécutent sur un grand nombre de lignes en temps réel peuvent combiner la matérialisation en mode traitement par lots et le traitement en temps réel. Pour ce faire, ces requêtes rassemblent sous la forme d'une opération UNION ALL les résultats prématérialisés avec une requête sur les lignes qui n'ont pas encore de résultats matérialisés. Dans certains cas, une telle opération UNION ALL est nécessaire à plusieurs endroits ou la requête peut être générée par une application tierce. Si tel est le cas, vous pouvez créer un VIEW pour encapsuler l'UNION ALLopération afin que ce détail ne soit pas exposé au reste de l'SQLapplication.

Vous pouvez utiliser une vue matérialisée pour matérialiser les résultats d'une instruction SELECT arbitraire à un moment dans le temps. Vous pouvez également l'utiliser pour actualiser la vue matérialisée à tout moment dans le futur. Actuellement, Postgre SQL ne prend pas en charge l'actualisation incrémentielle. Ainsi, chaque fois que la vue matérialisée est actualisée, la vue matérialisée est entièrement recalculée.

Vous pouvez actualiser les vues matérialisées avec l'option CONCURRENTLY, qui met à jour le contenu de la vue matérialisée sans appliquer de verrou exclusif. Cela permet à une SQL application de lire à partir de la vue matérialisée pendant son actualisation.

Surveillance du machine learning Aurora

Vous pouvez surveiller les fonctions aws_ml en définissant le paramètre track_functions de votre groupe de paramètres de cluster de bases de données personnalisé sur all. Par défaut, ce paramètre est défini sur pl, ce qui signifie que seules les fonctions du langage de procédure sont suivies. En le remplaçant par all, les fonctions aws_ml sont également suivies. Pour plus d'informations, consultez la section Statistiques d'exécution dans la documentation SQL Postgre.

Pour plus d'informations sur la surveillance des performances des SageMaker opérations appelées par les fonctions d'apprentissage automatique d'Aurora, consultez Monitor Amazon SageMaker dans le manuel Amazon SageMaker Developer Guide.

Avec track_functions défini sur all, vous pouvez interroger la vue pg_stat_user_functions pour obtenir des statistiques sur les fonctions que vous définissez et utilisez pour appeler les services de machine learning Aurora. Pour chaque fonction, la vue inclut le nombre de calls, total_time et self_time.

Pour consulter les statistiques des fonctions aws_sagemaker.invoke_endpoint et aws_comprehend.detect_sentiment, vous pouvez filtrer les résultats par nom de schéma à l'aide de la requête suivante.

SELECT * FROM pg_stat_user_functions WHERE schemaname LIKE 'aws_%';

Pour effacer les statistiques, procédez comme suit.

SELECT pg_stat_reset();

Vous pouvez obtenir le nom des SQL fonctions qui appellent la aws_sagemaker.invoke_endpoint fonction en interrogeant le catalogue du SQL pg_proc système Postgre. Ce catalogue contient des informations sur les fonctions, les procédures et plus encore. Pour plus d'informations, consultez pg_proc dans la documentation de Postgre. SQL Voici un exemple d'interrogation de la table pour obtenir les noms des fonctions (proname) dont la source (prosrc) inclut le texte invoke_endpoint.

SELECT proname FROM pg_proc WHERE prosrc LIKE '%invoke_endpoint%';