Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Utilisation de l'apprentissage automatique d'Amazon Aurora avec Aurora My SQL
En utilisant l'apprentissage automatique Amazon Aurora avec votre cluster Aurora My SQL DB, vous pouvez utiliser Amazon Bedrock, Amazon Comprehend ou SageMaker Amazon AI, selon vos besoins. Ils prennent chacun en charge différents cas d'utilisation de l'apprentissage automatique.
Table des matières
Conditions requises pour utiliser l'apprentissage automatique Aurora avec Aurora My SQL
Fonctionnalités prises en charge et limites de l'apprentissage automatique Aurora avec Aurora My SQL
Configuration de votre cluster Aurora My SQL DB pour utiliser l'apprentissage automatique Aurora
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Bedrock
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Comprehend
Configuration de votre cluster Aurora My SQL DB pour utiliser l' SageMaker IA
Autorisation d'accès aux utilisateurs de base de données pour le machine learning Aurora
Utilisation d'Amazon Bedrock avec votre cluster Aurora My SQL DB
Utilisation d'Amazon Comprehend avec votre cluster Aurora My DB SQL
Utilisation de l' SageMaker IA avec votre cluster Aurora My SQL DB
Conditions requises pour utiliser l'apprentissage automatique Aurora avec Aurora My SQL
AWS les services d'apprentissage automatique sont des services gérés qui sont configurés et exécutés dans leurs propres environnements de production. L'apprentissage automatique Aurora prend en charge l'intégration avec Amazon Bedrock, Amazon Comprehend et AI. SageMaker Avant d'essayer de configurer votre cluster Aurora My SQL DB pour utiliser l'apprentissage automatique Aurora, assurez-vous de bien comprendre les exigences et les prérequis suivants.
-
Les services d'apprentissage automatique doivent être exécutés de la même manière Région AWS que votre cluster Aurora My SQL DB. Vous ne pouvez pas utiliser les services d'apprentissage automatique d'un cluster Aurora My SQL DB situé dans une autre région.
-
Si votre cluster Aurora My SQL DB se trouve dans un cloud public virtuel (VPC) différent de celui de votre service Amazon Bedrock, Amazon Comprehend SageMaker ou AI, VPC le groupe de sécurité concerné doit autoriser les connexions sortantes vers le service d'apprentissage automatique Aurora cible. Pour plus d'informations, consultez la section Contrôler le trafic vers vos AWS ressources à l'aide de groupes de sécurité dans le guide de VPC l'utilisateur Amazon.
-
Vous pouvez mettre à niveau un cluster Aurora qui exécute une version inférieure d'Aurora My SQL vers une version supérieure prise en charge si vous souhaitez utiliser l'apprentissage automatique Aurora avec ce cluster. Pour de plus amples informations, veuillez consulter Mises à jour du moteur de base de données pour Amazon Aurora My SQL.
-
Votre cluster Aurora My SQL DB doit utiliser un groupe de paramètres de cluster de base de données personnalisé. À la fin du processus de configuration de chaque service d'apprentissage automatique Aurora que vous souhaitez utiliser, vous ajoutez le nom de ressource Amazon (ARN) du IAM rôle associé créé pour le service. Nous vous recommandons de créer à l'avance un groupe de paramètres de cluster de base de données personnalisé pour votre Aurora My SQL et de configurer votre cluster Aurora My SQL DB pour l'utiliser afin qu'il soit prêt à être modifié à la fin du processus de configuration.
-
Pour l' SageMaker IA :
-
Les composants d'apprentissage automatique que vous souhaitez utiliser pour les inférences doivent être configurés et prêts à être utilisés. Au cours du processus de configuration de votre cluster Aurora My SQL DB, assurez-vous que le point ARN de terminaison SageMaker AI est disponible. Les data scientists de votre équipe sont probablement les mieux placés pour travailler avec l' SageMaker IA pour préparer les modèles et effectuer les autres tâches de ce type. Pour commencer à utiliser Amazon SageMaker AI, consultez Get Started with Amazon SageMaker AI. Pour plus d'informations sur les inférences et les points de terminaison, consultez Inférence en temps réel.
-
Pour utiliser l' SageMaker IA avec vos propres données d'entraînement, vous devez configurer un compartiment Amazon S3 dans le cadre de votre SQL configuration Aurora My pour l'apprentissage automatique Aurora. Pour ce faire, vous devez suivre le même processus général que pour configurer l'intégration de l' SageMaker IA. Pour un résumé de ce processus de configuration facultatif, consultez Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon S3 for SageMaker AI (facultatif).
-
-
Pour les bases de données globales Aurora, vous configurez les services d'apprentissage automatique Aurora que vous souhaitez utiliser dans tous les Régions AWS éléments de votre base de données globale Aurora. Par exemple, si vous souhaitez utiliser l'apprentissage automatique Aurora avec l' SageMaker IA pour votre base de données globale Aurora, procédez comme suit pour chaque cluster Aurora My SQL DB dans chaque cluster Région AWS :
-
Configurez les services Amazon SageMaker AI avec les mêmes modèles de formation et points de terminaison d' SageMaker IA. Ils doivent également porter les mêmes noms.
-
Créez les IAM rôles comme indiqué dansConfiguration de votre cluster Aurora My SQL DB pour utiliser l'apprentissage automatique Aurora.
-
Ajoutez le IAM rôle au groupe ARN de paramètres de cluster de base de données personnalisé pour chaque cluster Aurora My SQL DB de chaque Région AWS.
Ces tâches nécessitent que l'apprentissage automatique Aurora soit disponible pour votre version d'Aurora My SQL dans tous Régions AWS les éléments de votre base de données globale Aurora.
-
Disponibilité des régions et des versions
La disponibilité et la prise en charge des fonctions varient selon les versions spécifiques de chaque moteur de base de données Aurora, et selon les Régions AWS.
-
Pour plus d'informations sur la disponibilité des versions et des régions pour Amazon Comprehend et Amazon SageMaker AI with Aurora MySQL, consultez. Apprentissage automatique Aurora avec Aurora My SQL
-
Amazon Bedrock n'est pris en charge que sur les SQL versions 3.06 et supérieures d'Aurora My.
Pour plus d'informations sur la disponibilité régionale d'Amazon Bedrock, consultez la section Support des modèles Région AWS dans le guide de l'utilisateur d'Amazon Bedrock.
Fonctionnalités prises en charge et limites de l'apprentissage automatique Aurora avec Aurora My SQL
Lorsque vous utilisez Aurora My SQL avec l'apprentissage automatique Aurora, les limites suivantes s'appliquent :
-
L'extension d'apprentissage automatique Aurora ne prend pas en charge les interfaces vectorielles.
-
Les intégrations d'apprentissage automatique Aurora ne sont pas prises en charge lorsqu'elles sont utilisées dans un déclencheur.
Les fonctions d'apprentissage automatique Aurora ne sont pas compatibles avec la réplication de journalisation binaire (binlog).
-
Le paramètre
--binlog-format=STATEMENT
envoie une exception pour les appels vers des fonctions Machine Learning Aurora. -
Les fonctions du machine learning Aurora sont non déterministes, et les fonctions stockées non déterministes ne sont pas compatibles avec ce format binlog.
Pour plus d'informations, consultez la section Formats de journalisation binaire
dans la section Ma SQL documentation. -
-
Les fonctions stockées qui appellent des tables dont les colonnes sont toujours générées ne sont pas prises en charge. Cela s'applique à toutes les fonctions SQL enregistrées dans Aurora My. Pour en savoir plus sur ce type de colonne, consultez CREATETABLEla section Colonnes générées
dans Ma SQL documentation. -
Les fonctions Amazon Bedrock ne sont pas prises en charge
RETURNS JSON
. Vous pouvez utiliserCONVERT
ouCAST
convertir deTEXT
versJSON
si nécessaire. -
Amazon Bedrock ne prend pas en charge les demandes groupées.
-
Aurora My SQL prend en charge tout point de terminaison d' SageMaker IA qui lit et écrit le format de valeur séparée par des virgules (CSV), via un
ContentType
de.text/csv
Ce format est accepté par les algorithmes d' SageMaker IA intégrés suivants :-
Linear Learner
-
Random Cut Forest
-
XGBoost
Pour en savoir plus sur ces algorithmes, consultez la section Choisir un algorithme dans le manuel Amazon SageMaker AI Developer Guide.
-
Configuration de votre cluster Aurora My SQL DB pour utiliser l'apprentissage automatique Aurora
Dans les rubriques suivantes, vous pouvez trouver des procédures de configuration distinctes pour chacun de ces services de machine learning Aurora.
Rubriques
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Bedrock
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Comprehend
Configuration de votre cluster Aurora My SQL DB pour utiliser l' SageMaker IA
Autorisation d'accès aux utilisateurs de base de données pour le machine learning Aurora
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Bedrock
L'apprentissage automatique Aurora repose sur AWS Identity and Access Management (IAM) des rôles et des politiques pour permettre à votre cluster Aurora My SQL DB d'accéder aux services Amazon Bedrock et de les utiliser. Les procédures suivantes créent une politique d'IAMautorisation et un rôle afin que votre cluster de base de données puisse s'intégrer à Amazon Bedrock.
Pour créer la stratégie IAM
Connectez-vous à la IAM console AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/iam/
. -
Choisissez Policies dans le volet de navigation.
-
Choisissez Créer une stratégie.
-
Sur la page Spécifier les autorisations, pour Sélectionner un service, choisissez Bedrock.
L'affichage des autorisations Amazon Bedrock.
-
Développez Lire, puis sélectionnez InvokeModel.
-
Pour Ressources, sélectionnez Tout.
La page Spécifier les autorisations doit ressembler à la figure suivante.
-
Choisissez Suivant.
-
Sur la page Réviser et créer, entrez un nom pour votre politique, par exemple
BedrockInvokeModel
. -
Passez en revue votre politique, puis choisissez Créer une politique.
Ensuite, vous créez le IAM rôle qui utilise la politique d'autorisation d'Amazon Bedrock.
Pour créer le rôle IAM
Connectez-vous à la IAM console AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/iam/
. -
Choisissez Rôles dans le panneau de navigation.
-
Sélectionnez Créer un rôle.
-
Sur la page Sélectionner une entité de confiance, pour Cas d'utilisation, sélectionnez RDS.
-
Sélectionnez RDS- Ajouter un rôle à la base de données, puis cliquez sur Suivant.
-
Sur la page Ajouter des autorisations, pour les politiques d'autorisations, sélectionnez la IAM politique que vous avez créée, puis cliquez sur Suivant.
-
Sur la page Nom, révision et création, saisissez un nom pour votre rôle, par exemple
ams-bedrock-invoke-model-role
.Le rôle doit ressembler à la figure suivante.
-
Passez en revue votre rôle, puis choisissez Créer un rôle.
Ensuite, vous associez le IAM rôle Amazon Bedrock à votre cluster de base de données.
Pour associer le IAM rôle à votre cluster de bases de données
Connectez-vous à la RDS console Amazon AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/rds/
. -
Choisissez Databases (Bases de données) dans le volet de navigation.
-
Choisissez le cluster Aurora My SQL DB que vous souhaitez connecter aux services Amazon Bedrock.
-
Choisissez l'onglet Connectivity & security (Connectivité et sécurité).
-
Dans la section Gérer IAM les rôles, choisissez Sélectionner IAM pour ajouter à ce cluster.
-
Choisissez celui IAM que vous avez créé, puis choisissez Ajouter un rôle.
Le IAM rôle est associé à votre cluster de base de données, d'abord avec le statut En attente, puis Actif. Une fois le processus terminé, vous pouvez trouver le rôle dans la liste IAMdes rôles actuels pour ce cluster.
Vous devez ajouter ce IAM rôle au aws_default_bedrock_role
paramètre du groupe de paramètres de cluster de base de données personnalisé associé à votre cluster Aurora My SQL DB. ARN Si votre cluster Aurora My SQL DB n'utilise pas de groupe de paramètres de cluster de base de données personnalisé, vous devez en créer un à utiliser avec votre cluster Aurora My SQL DB pour terminer l'intégration. Pour de plus amples informations, veuillez consulter Groupes de paramètres de cluster de base de données pour les clusters de bases de données Amazon Aurora.
Pour configurer le paramètre du cluster de base de données
-
Dans la RDS console Amazon, ouvrez l'onglet Configuration de votre cluster Aurora My SQL DB.
-
Localisez le groupe de paramètres du cluster de base de données configuré pour votre cluster. Cliquez sur le lien pour ouvrir votre groupe de paramètres de cluster de base de données personnalisé, puis choisissez Modifier.
-
Trouvez le paramètre
aws_default_bedrock_role
dans votre groupe de paramètres du cluster de bases de données personnalisé. -
Dans le champ Valeur, entrez ARN le IAM rôle.
-
Choisissez Save changes (Enregistrer les modifications) pour sauvegarder le paramètre.
-
Redémarrez l'instance principale de votre cluster Aurora My SQL DB afin que ce paramètre soit pris en compte.
L'IAMintégration pour Amazon Bedrock est terminée. Continuez à configurer votre cluster Aurora My SQL DB pour qu'il fonctionne avec Amazon Bedrock enAutorisation d'accès aux utilisateurs de base de données pour le machine learning Aurora.
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon Comprehend
L'apprentissage automatique Aurora repose sur AWS Identity and Access Management des rôles et des politiques pour permettre à votre cluster Aurora My SQL DB d'accéder aux services Amazon Comprehend et de les utiliser. La procédure suivante crée automatiquement un IAM rôle et une politique pour votre cluster afin qu'il puisse utiliser Amazon Comprehend.
Pour configurer votre cluster Aurora My SQL DB afin d'utiliser Amazon Comprehend
Connectez-vous à la RDS console Amazon AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/rds/
. -
Choisissez Databases (Bases de données) dans le volet de navigation.
-
Choisissez le cluster Aurora My SQL DB que vous souhaitez connecter aux services Amazon Comprehend.
-
Choisissez l'onglet Connectivity & security (Connectivité et sécurité).
-
Dans la section Gérer IAM les rôles, choisissez Sélectionnez un service pour vous connecter à ce cluster.
-
Choisissez Amazon Comprehend dans le menu, puis sélectionnez Connect service.
La boîte de dialogue Connect cluster to Amazon Comprehend (Connecter le cluster à Amazon Comprehend) ne nécessite aucune information supplémentaire. Toutefois, il se peut qu'un message vous avertisse que l'intégration entre Aurora et Amazon Comprehend est actuellement en version préliminaire. Assurez-vous de lire le message avant de continuer. Vous pouvez choisir Annuler si vous préférez ne pas continuer.
Choisissez Connect service (Connecter un service) pour terminer le processus d'intégration.
Aurora crée le IAM rôle. Il crée également la politique qui permet au cluster Aurora My SQL DB d'utiliser les services Amazon Comprehend et attache la politique au rôle. Lorsque le processus est terminé, vous pouvez trouver le rôle dans la liste IAMdes rôles actuels pour ce cluster, comme indiqué dans l'image suivante.
Vous devez ajouter ce IAM rôle au
aws_default_comprehend_role
paramètre ARN du groupe de paramètres de cluster de base de données personnalisé associé à votre cluster Aurora My SQL DB. Si votre cluster Aurora My SQL DB n'utilise pas de groupe de paramètres de cluster de base de données personnalisé, vous devez en créer un à utiliser avec votre cluster Aurora My SQL DB pour terminer l'intégration. Pour de plus amples informations, veuillez consulter Groupes de paramètres de cluster de base de données pour les clusters de bases de données Amazon Aurora.Après avoir créé votre groupe de paramètres de cluster de base de données personnalisé et l'avoir associé à votre cluster Aurora My SQL DB, vous pouvez continuer à suivre ces étapes.
Si votre cluster utilise un groupe de paramètres de base de données personnalisé, procédez comme suit.
Dans la RDS console Amazon, ouvrez l'onglet Configuration de votre cluster Aurora My SQL DB.
-
Localisez le groupe de paramètres du cluster de base de données configuré pour votre cluster. Cliquez sur le lien pour ouvrir votre groupe de paramètres de cluster de base de données personnalisé, puis choisissez Modifier.
Trouvez le paramètre
aws_default_comprehend_role
dans votre groupe de paramètres du cluster de bases de données personnalisé.Dans le champ Valeur, entrez ARN le IAM rôle.
Choisissez Save changes (Enregistrer les modifications) pour sauvegarder le paramètre. Dans l'image suivante, vous pouvez voir un exemple.
Redémarrez l'instance principale de votre cluster Aurora My SQL DB afin que ce paramètre soit pris en compte.
L'IAMintégration pour Amazon Comprehend est terminée. Poursuivez la configuration de votre cluster Aurora My SQL DB pour qu'il fonctionne avec Amazon Comprehend en accordant l'accès aux utilisateurs de base de données appropriés.
Configuration de votre cluster Aurora My SQL DB pour utiliser l' SageMaker IA
La procédure suivante crée automatiquement le IAM rôle et la politique de votre cluster Aurora My SQL DB afin qu'il puisse utiliser l' SageMaker IA. Avant d'essayer de suivre cette procédure, assurez-vous que le point de terminaison SageMaker AI est disponible afin de pouvoir le saisir en cas de besoin. Généralement, les data scientists de votre équipe se chargent de produire un point de terminaison que vous pouvez utiliser à partir de votre cluster Aurora My SQL DB. Vous pouvez trouver de tels points de terminaison dans la console SageMaker AI.

Pour configurer votre cluster Aurora My SQL DB afin d'utiliser l' SageMaker IA
Connectez-vous à la RDS console Amazon AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/rds/
. -
Choisissez Databases dans le menu de RDS navigation Amazon, puis choisissez le cluster Aurora My SQL DB que vous souhaitez connecter aux services d' SageMaker intelligence artificielle.
-
Choisissez l'onglet Connectivity & security (Connectivité et sécurité).
-
Accédez à la section Gérer IAM les rôles, puis choisissez Sélectionner un service pour vous connecter à ce cluster. Choisissez SageMaker AI dans le sélecteur.
Choisissez Connect service (Connecter un service).
Dans la boîte de dialogue Connect cluster to SageMaker AI, entrez le point ARN de terminaison SageMaker AI.
-
Aurora crée le IAM rôle. Il crée également la politique qui permet au cluster Aurora My SQL DB d'utiliser les services d' SageMaker IA et attache la politique au rôle. Une fois le processus terminé, vous pouvez trouver le rôle dans la liste IAMdes rôles actuels pour ce cluster.
Ouvrez la console IAM à l’adresse https://console.aws.amazon.com/iam/
. Choisissez Roles (Rôles) dans la section Gestion des accès du menu de navigation AWS Identity and Access Management .
Trouvez le rôle parmi ceux qui figurent dans la liste. Son nom utilise le modèle suivant.
rds-sagemaker-
your-cluster-name
-role-auto-generated-digits
Ouvrez la page Résumé du rôle et repérez leARN. Notez le ARN ou copiez-le à l'aide du widget de copie.
Ouvrez la RDS console Amazon à l'adresse https://console.aws.amazon.com/rds/
. Choisissez votre cluster Aurora My SQL DB, puis sélectionnez son onglet Configuration.
Localisez le groupe de paramètres du cluster de bases de données et choisissez le lien pour ouvrir votre groupe de paramètres du cluster de bases de données personnalisé. Recherchez le
aws_default_sagemaker_role
paramètre et entrez le ARN IAM rôle dans le champ Valeur, puis enregistrez le paramètre.Redémarrez l'instance principale de votre cluster Aurora My SQL DB afin que ce paramètre soit pris en compte.
La IAM configuration est maintenant terminée. Poursuivez la configuration de votre cluster Aurora My SQL DB pour qu'il fonctionne avec l' SageMaker IA en accordant l'accès aux utilisateurs de base de données appropriés.
Si vous souhaitez utiliser vos modèles d' SageMaker IA pour la formation plutôt que d'utiliser des composants d' SageMaker IA prédéfinis, vous devez également ajouter le compartiment Amazon S3 à votre cluster Aurora My SQL DB, comme Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon S3 for SageMaker AI (facultatif) indiqué ci-dessous.
Configuration de votre cluster Aurora My SQL DB pour utiliser Amazon S3 for SageMaker AI (facultatif)
Pour utiliser l' SageMaker IA avec vos propres modèles plutôt que d'utiliser les composants prédéfinis fournis par l' SageMaker IA, vous devez configurer un compartiment Amazon S3 pour le cluster Aurora My SQL DB à utiliser. Pour plus d'informations sur la création d'un compartiment Amazon S3, veuillez consulter Créer un compartiment dans le Guide de l'utilisateur Amazon Simple Storage Service.
Pour configurer votre cluster Aurora My SQL DB afin d'utiliser un compartiment Amazon S3 pour l' SageMaker IA
Connectez-vous à la RDS console Amazon AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/rds/
. -
Choisissez Databases dans le menu de RDS navigation Amazon, puis choisissez le cluster Aurora My SQL DB que vous souhaitez connecter aux services d' SageMaker intelligence artificielle.
-
Choisissez l'onglet Connectivity & security (Connectivité et sécurité).
-
Accédez à la section Gérer IAM les rôles, puis choisissez Sélectionner un service pour vous connecter à ce cluster. Choisissez Amazon S3 dans le sélecteur.
Choisissez Connect service (Connecter un service).
Dans la boîte de dialogue Connect cluster to Amazon S3, entrez le ARN bucket Amazon S3, comme indiqué dans l'image suivante.
Choisissez Connect service (Connecter un service) pour terminer ce processus.
Pour plus d'informations sur l'utilisation des compartiments Amazon S3 avec l' SageMaker IA, consultez Spécifier un compartiment Amazon S3 pour télécharger des ensembles de données de formation et stocker les données de sortie dans le manuel Amazon SageMaker AI Developer Guide. Pour en savoir plus sur l'utilisation de l' SageMaker IA, consultez Get Started with Amazon SageMaker AI Notebook Instances dans le manuel du développeur Amazon SageMaker AI.
Autorisation d'accès aux utilisateurs de base de données pour le machine learning Aurora
Les utilisateurs de la base de données doivent être autorisés à invoquer les fonctions d'apprentissage automatique d'Aurora. La manière dont vous accordez l'autorisation dépend de la version de My SQL que vous utilisez pour votre cluster Aurora My SQL DB, comme indiqué ci-dessous. La manière de procéder dépend de la version de My SQL utilisée par votre cluster Aurora My SQL DB.
Pour Aurora My SQL version 3 (compatible avec My SQL 8.0), les utilisateurs de base de données doivent disposer du rôle de base de données approprié. Pour plus d'informations, consultez la section Utilisation des rôles
dans le manuel de référence My SQL 8.0. Pour Aurora My SQL version 2 (compatible avec My SQL 5.7), des privilèges sont accordés aux utilisateurs de la base de données. Pour plus d'informations, consultez la section Contrôle d'accès et gestion des comptes
dans le manuel de référence My SQL 5.7.
Le tableau suivant indique les rôles et les privilèges dont les utilisateurs de base de données ont besoin pour utiliser les fonctions d'apprentissage automatique.
Aurora My SQL version 3 (rôle) | Aurora My SQL version 2 (privilège) |
---|---|
AWS_BEDROCK_ACCESS |
– |
AWS_COMPREHEND_ACCESS |
INVOKE COMPREHEND |
AWS_SAGEMAKER_ACCESS |
INVOKE SAGEMAKER |
Octroi de l'accès aux fonctions d'Amazon Bedrock
Pour permettre aux utilisateurs de la base de données d'accéder aux fonctions d'Amazon Bedrock, utilisez l'SQLinstruction suivante :
GRANT AWS_BEDROCK_ACCESS TO
user
@domain-or-ip-address
;
Les utilisateurs de la base de données doivent également EXECUTE
être autorisés à accéder aux fonctions que vous créez pour travailler avec Amazon Bedrock :
GRANT EXECUTE ON FUNCTION
database_name
.function_name
TOuser
@domain-or-ip-address
;
Enfin, les rôles des utilisateurs de base de données doivent être définis de manière à AWS_BEDROCK_ACCESS
:
SET ROLE AWS_BEDROCK_ACCESS;
Les fonctions Amazon Bedrock sont désormais disponibles.
Autorisation d'accès aux fonctions Amazon Comprehend
Pour permettre aux utilisateurs de la base de données d'accéder aux fonctions Amazon Comprehend, utilisez l'instruction appropriée à votre version d'Aurora MySQL.
Aurora My SQL version 3 (compatible avec My SQL 8.0)
GRANT AWS_COMPREHEND_ACCESS TO
user
@domain-or-ip-address
;Aurora My SQL version 2 (compatible avec My SQL 5.7)
GRANT INVOKE COMPREHEND ON *.* TO
user
@domain-or-ip-address
;
Les fonctions Amazon Comprehend peuvent désormais être utilisées. Pour obtenir des exemples d'utilisation, consultez Utilisation d'Amazon Comprehend avec votre cluster Aurora My DB SQL.
Octroi de l'accès aux fonctions de SageMaker l'IA
Pour permettre aux utilisateurs de la base de données d'accéder aux fonctions d' SageMaker intelligence artificielle, utilisez l'instruction appropriée à votre SQL version d'Aurora My.
Aurora My SQL version 3 (compatible avec My SQL 8.0)
GRANT AWS_SAGEMAKER_ACCESS TO
user
@domain-or-ip-address
;Aurora My SQL version 2 (compatible avec My SQL 5.7)
GRANT INVOKE SAGEMAKER ON *.* TO
user
@domain-or-ip-address
;
Les utilisateurs de la base de données doivent également EXECUTE
disposer d'autorisations pour les fonctions que vous créez pour travailler avec l' SageMaker IA. Supposons que vous ayez créé deux fonctionsdb2.company_forecasts
, db1.anomoly_score
et que vous appeliez les services de votre point de terminaison SageMaker AI. Vous accordez des privilèges d'exécution comme indiqué dans l'exemple suivant.
GRANT EXECUTE ON FUNCTION db1.anomaly_score TO
user1
@domain-or-ip-address1
; GRANT EXECUTE ON FUNCTION db2.company_forecasts TOuser2
@domain-or-ip-address2
;
Les fonctions de l' SageMaker IA peuvent désormais être utilisées. Pour obtenir des exemples d'utilisation, consultez Utilisation de l' SageMaker IA avec votre cluster Aurora My SQL DB.
Utilisation d'Amazon Bedrock avec votre cluster Aurora My SQL DB
Pour utiliser Amazon Bedrock, vous devez créer une fonction définie par l'utilisateur (UDF) dans votre SQL base de données Aurora My qui invoque un modèle. Pour plus d'informations, consultez la section Modèles pris en charge dans Amazon Bedrock dans le guide de l'utilisateur d'Amazon Bedrock.
A UDF utilise la syntaxe suivante :
CREATE FUNCTION
function_name
(argument
type
) [DEFINER = user] RETURNSmysql_data_type
[SQL SECURITY {DEFINER | INVOKER}] ALIAS AWS_BEDROCK_INVOKE_MODEL MODEL ID 'model_id
' [CONTENT_TYPE 'content_type
'] [ACCEPT 'content_type
'] [TIMEOUT_MStimeout_in_milliseconds
];
-
Les fonctions Amazon Bedrock ne sont pas prises en charge
RETURNS JSON
. Vous pouvez utiliserCONVERT
ouCAST
convertir deTEXT
versJSON
si nécessaire. -
Si vous ne spécifiez pas
CONTENT_TYPE
ouACCEPT
, la valeur par défaut estapplication/json
. -
Si vous ne le spécifiez pas
TIMEOUT_MS
, la valeur pouraurora_ml_inference_timeout
est utilisée.
Par exemple, ce qui suit UDF invoque le modèle Amazon Titan Text Express :
CREATE FUNCTION invoke_titan (request_body TEXT) RETURNS TEXT ALIAS AWS_BEDROCK_INVOKE_MODEL MODEL ID 'amazon.titan-text-express-v1' CONTENT_TYPE 'application/json' ACCEPT 'application/json';
Pour autoriser un utilisateur de base de données à utiliser cette fonction, utilisez la SQL commande suivante :
GRANT EXECUTE ON FUNCTION
database_name
.invoke_titan TOuser
@domain-or-ip-address
;
L'utilisateur peut alors appeler invoke_titan
comme n'importe quelle autre fonction, comme indiqué dans l'exemple suivant. Assurez-vous de formater le corps de la demande conformément aux modèles de texte Amazon Titan.
CREATE TABLE prompts (request varchar(1024)); INSERT INTO prompts VALUES ( '{ "inputText": "Generate synthetic data for daily product sales in various categories - include row number, product name, category, date of sale and price. Produce output in JSON format. Count records and ensure there are no more than 5.", "textGenerationConfig": { "maxTokenCount": 1024, "stopSequences": [], "temperature":0, "topP":1 } }'); SELECT invoke_titan(request) FROM prompts; {"inputTextTokenCount":44,"results":[{"tokenCount":296,"outputText":" ```tabular-data-json { "rows": [ { "Row Number": "1", "Product Name": "T-Shirt", "Category": "Clothing", "Date of Sale": "2024-01-01", "Price": "$20" }, { "Row Number": "2", "Product Name": "Jeans", "Category": "Clothing", "Date of Sale": "2024-01-02", "Price": "$30" }, { "Row Number": "3", "Product Name": "Hat", "Category": "Accessories", "Date of Sale": "2024-01-03", "Price": "$15" }, { "Row Number": "4", "Product Name": "Watch", "Category": "Accessories", "Date of Sale": "2024-01-04", "Price": "$40" }, { "Row Number": "5", "Product Name": "Phone Case", "Category": "Accessories", "Date of Sale": "2024-01-05", "Price": "$25" } ] } ```","completionReason":"FINISH"}]}
Pour les autres modèles que vous utilisez, veillez à mettre en forme le corps de la demande de manière appropriée. Pour plus d'informations, consultez la section Paramètres d'inférence pour les modèles de base dans le guide de l'utilisateur d'Amazon Bedrock.
Utilisation d'Amazon Comprehend avec votre cluster Aurora My DB SQL
Pour Aurora MySQL, l'apprentissage automatique Aurora fournit les deux fonctions intégrées suivantes pour travailler avec Amazon Comprehend et vos données texte. Vous fournissez le texte à analyser (input_data
) et vous spécifiez la langue (language_code
).
- aws_comprehend_detect_sentiment
-
Cette fonction identifie le texte comme ayant une posture émotionnelle positive, négative, neutre ou mixte. La documentation de référence de cette fonction est la suivante.
aws_comprehend_detect_sentiment( input_text, language_code [,max_batch_size] )
Pour en savoir plus, consultez Sentiment dans le Guide du développeur Amazon Comprehend.
- aws_comprehend_detect_sentiment_confidence
-
Cette fonction mesure le niveau de confiance du sentiment détecté pour un texte donné. Elle renvoie une valeur (type
double
) qui indique la confiance du sentiment attribué par la fonction aws_comprehend_detect_sentiment au texte. La confiance est une mesure statistique comprise entre 0 et 1. Plus le niveau de confiance est élevé, plus vous pouvez donner de poids au résultat. Voici un résumé de la documentation de la fonction.aws_comprehend_detect_sentiment_confidence( input_text, language_code [,max_batch_size] )
Pour les deux fonctions (aws_comprehend_detect_sentiment_confidence, aws_comprehend_detect_sentiment), max_batch_size
utilise une valeur par défaut de 25 si aucune valeur n'est spécifiée. La taille de lot doit toujours être supérieure à 0. Le paramètre max_batch_size
vous permet d'ajuster les performances des appels de fonction Amazon Comprehend. Une taille de lot importante permet d'obtenir des performances plus rapides pour une utilisation plus importante de la mémoire sur le cluster Aurora My SQL DB. Pour de plus amples informations, veuillez consulter Considérations relatives aux performances liées à l'utilisation de l'apprentissage automatique Aurora avec Aurora My SQL.
Pour plus d'informations sur les paramètres et les types de retours pour les fonctions de détection des sentiments dans Amazon Comprehend, consultez DetectSentiment
Exemple : une requête simple utilisant les fonctions Amazon Comprehend
Voici un exemple de requête simple qui invoque ces deux fonctions pour voir dans quelle mesure vos clients sont satisfaits de votre équipe d'assistance. Supposons que vous disposiez d'une table de base de données (support
) qui enregistre les commentaires des clients après chaque demande d'aide. Cet exemple de requête applique les deux fonctions intégrées au texte de la colonne feedback
du tableau et génère les résultats. Les valeurs de confiance renvoyées par la fonction sont des valeurs de confiance doubles comprises entre 0,0 et 1,0. Pour une sortie plus lisible, cette requête arrondit les résultats à 6 décimales. Pour faciliter les comparaisons, cette requête trie également les résultats par ordre décroissant, en commençant par le résultat présentant le degré de confiance le plus élevé.
SELECT feedback AS 'Customer feedback', aws_comprehend_detect_sentiment(feedback, 'en') AS Sentiment, ROUND(aws_comprehend_detect_sentiment_confidence(feedback, 'en'), 6) AS Confidence FROM support ORDER BY Confidence DESC;
+----------------------------------------------------------+-----------+------------+ | Customer feedback | Sentiment | Confidence | +----------------------------------------------------------+-----------+------------+ | Thank you for the excellent customer support! | POSITIVE | 0.999771 | | The latest version of this product stinks! | NEGATIVE | 0.999184 | | Your support team is just awesome! I am blown away. | POSITIVE | 0.997774 | | Your product is too complex, but your support is great. | MIXED | 0.957958 | | Your support tech helped me in fifteen minutes. | POSITIVE | 0.949491 | | My problem was never resolved! | NEGATIVE | 0.920644 | | When will the new version of this product be released? | NEUTRAL | 0.902706 | | I cannot stand that chatbot. | NEGATIVE | 0.895219 | | Your support tech talked down to me. | NEGATIVE | 0.868598 | | It took me way too long to get a real person. | NEGATIVE | 0.481805 | +----------------------------------------------------------+-----------+------------+ 10 rows in set (0.1898 sec)
Exemple : détermination du sentiment moyen pour un texte supérieur à un niveau de confiance spécifique
Généralement, une requête Amazon Comprehend recherche les lignes dans lesquelles le sentiment représente une certaine valeur, avec un niveau de confiance supérieur à un certain nombre. Par exemple, la requête suivante illustre comment vous pouvez déterminer le sentiment moyen des documents dans votre base de données. La requête prend uniquement en compte les documents dans lesquels la confiance de l'évaluation est de 80 % minimum.
SELECT AVG(CASE aws_comprehend_detect_sentiment(productTable.document, 'en') WHEN 'POSITIVE' THEN 1.0 WHEN 'NEGATIVE' THEN -1.0 ELSE 0.0 END) AS avg_sentiment, COUNT(*) AS total FROM productTable WHERE productTable.productCode = 1302 AND aws_comprehend_detect_sentiment_confidence(productTable.document, 'en') >= 0.80;
Utilisation de l' SageMaker IA avec votre cluster Aurora My SQL DB
Pour utiliser les fonctionnalités d' SageMaker IA de votre cluster Aurora My SQL DB, vous devez créer des fonctions stockées qui intègrent vos appels au point de terminaison SageMaker AI et à ses fonctionnalités d'inférence. Pour ce faire, vous utilisez SQL My's de CREATE FUNCTION
la même manière que pour les autres tâches de traitement sur votre cluster Aurora My SQL DB.
Pour utiliser des modèles déployés dans l' SageMaker IA à des fins d'inférence, vous devez créer des fonctions définies par l'utilisateur à l'aide des instructions My SQL data definition language (DDL) pour les fonctions stockées. Chaque fonction stockée représente le point de terminaison SageMaker AI hébergeant le modèle. Lorsque vous définissez une telle fonction, vous spécifiez les paramètres d'entrée du modèle, le point de terminaison SageMaker AI spécifique à invoquer et le type de retour. La fonction renvoie l'inférence calculée par le point de terminaison de l' SageMaker IA après avoir appliqué le modèle aux paramètres d'entrée.
Toutes les fonctions stockées de machine learning Aurora retournent des types numériques ou VARCHAR
. Vous pouvez utiliser tous les types numériques à l'exception de BIT
. Les autres types, tels que JSON
, BLOB
, TEXT
et DATE
ne sont pas autorisés.
L'exemple suivant montre la CREATE FUNCTION
syntaxe permettant de travailler avec l' SageMaker IA.
CREATE FUNCTION function_name
(
arg1
type1
,
arg2
type2
, ...)
[DEFINER = user]
RETURNS mysql_type
[SQL SECURITY { DEFINER | INVOKER } ]
ALIAS AWS_SAGEMAKER_INVOKE_ENDPOINT
ENDPOINT NAME 'endpoint_name
'
[MAX_BATCH_SIZE max_batch_size
];
Il s'agit d'une extension de la CREATE FUNCTION
DDL déclaration régulière. Dans l'CREATE FUNCTION
instruction qui définit la fonction SageMaker AI, vous ne spécifiez pas de corps de fonction. Au lieu de cela, vous spécifiez le mot-clé ALIAS
à la place du corps de la fonction. Actuellement, le machine learning Aurora prend uniquement en charge aws_sagemaker_invoke_endpoint
pour cette syntaxe étendue. Vous devez spécifier le paramètre endpoint_name
. Un point de terminaison d' SageMaker IA peut avoir des caractéristiques différentes pour chaque modèle.
Note
Pour plus d'informations surCREATE FUNCTION
, consultez la section CREATEPROCEDUREet les CREATE FUNCTION déclarations
Le paramètre max_batch_size
est facultatif. Par défaut, la taille maximale du lot est de 10 000. Vous pouvez utiliser ce paramètre dans votre fonction pour limiter le nombre maximum d'entrées traitées dans une demande groupée adressée à l' SageMaker IA. Le max_batch_size
paramètre peut aider à éviter une erreur causée par des entrées trop importantes ou à faire en sorte que l' SageMaker IA renvoie une réponse plus rapidement. Ce paramètre affecte la taille d'une mémoire tampon interne utilisée pour le traitement des demandes d' SageMaker IA. Une valeur trop importante pour max_batch_size
peut entraîner une surcharge de mémoire substantielle sur votre instance de base de données.
Nous recommandons de laisser le paramètre MANIFEST
sur sa valeur par défaut de OFF
. Bien que vous puissiez utiliser MANIFEST ON
cette option, certaines fonctionnalités de l' SageMaker IA ne peuvent pas utiliser directement les fonctionnalités CSV exportées avec cette option. Le format du manifeste n'est pas compatible avec le format du manifeste attendu par SageMaker AI.
Vous créez une fonction stockée distincte pour chacun de vos modèles d' SageMaker IA. Ce mappage de fonctions vers des modèles est obligatoire, car un point de terminaison est associé à un modèle spécifique, et chaque modèle accepte différents paramètres. L'utilisation SQL de types pour les entrées du modèle et le type de sortie du modèle permet d'éviter les erreurs de conversion de type lors du transfert de données entre les AWS services. Vous pouvez contrôler qui peut appliquer le modèle. Vous pouvez également contrôler les caractéristiques d'exécution en spécifiant un paramètre représentant la taille de lot maximum.
Actuellement, toutes les fonctions de machine learning Aurora disposent de la propriété NOT DETERMINISTIC
. Si vous ne spécifiez pas cette propriété de manière explicite, Aurora définit automatiquement NOT DETERMINISTIC
. Cette exigence est due au fait que le modèle d' SageMaker IA peut être modifié sans aucune notification à la base de données. Dans ce cas, les appels à une fonction de machine learning Aurora peuvent retourner différents résultats pour la même entrée au sein d'une seule transaction.
Vous ne pouvez pas utiliser les caractéristiques CONTAINS SQL
, NO SQL
, READS SQL DATA
ou MODIFIES SQL DATA
dans votre instruction CREATE
FUNCTION
.
Voici un exemple d'utilisation de l'appel d'un point de terminaison d' SageMaker IA pour détecter des anomalies. Il existe un point de terminaison SageMaker basé sur l'IArandom-cut-forest-model
. Le modèle correspondant est déjà formé par l'algorithme random-cut-forest
. Pour chaque entrée, le modèle retourne un score d'anomalie. Cet exemple illustre les points de données dont le score dépasse de 3 déviations standard (environ le 99,9e centile) le score moyen.
CREATE FUNCTION anomaly_score(value real) returns real
alias aws_sagemaker_invoke_endpoint endpoint name 'random-cut-forest-model-demo';
set @score_cutoff = (select avg(anomaly_score(value)) + 3 * std(anomaly_score(value)) from nyc_taxi);
select *, anomaly_detection(value) score from nyc_taxi
where anomaly_detection(value) > @score_cutoff;
Jeu de caractères requis pour les fonctions d' SageMaker IA renvoyant des chaînes
Nous vous recommandons de spécifier un jeu de caractères utf8mb4
comme type de retour pour vos fonctions d' SageMaker IA qui renvoient des valeurs de chaîne. Si cela n'est pas pratique, utilisez une chaîne suffisamment longue pour que le type de retour conserve une valeur représentée dans le jeu de caractères utf8mb4
. L'exemple suivant illustre comment déclarer le jeu de caractères utf8mb4
pour votre fonction.
CREATE FUNCTION my_ml_func(...) RETURNS VARCHAR(5) CHARSET utf8mb4 ALIAS ...
Actuellement, chaque fonction SageMaker AI qui renvoie une chaîne utilise le jeu de caractères utf8mb4
pour la valeur de retour. La valeur de retour utilise ce jeu de caractères même si votre fonction SageMaker AI déclare implicitement ou explicitement un jeu de caractères différent pour son type de retour. Si votre fonction SageMaker AI déclare un jeu de caractères différent pour la valeur de retour, les données renvoyées peuvent être tronquées silencieusement si vous les stockez dans une colonne de table trop courte. Par exemple, une requête avec une clause DISTINCT
crée un tableau temporaire. Ainsi, le résultat de la fonction SageMaker AI peut être tronqué en raison de la façon dont les chaînes sont traitées en interne lors d'une requête.
Exportation de données vers Amazon S3 pour la formation de modèles d' SageMaker IA (niveau avancé)
Nous vous recommandons de vous familiariser avec l'apprentissage automatique et l' SageMaker IA Aurora en utilisant certains des algorithmes fournis, et de demander aux data scientists de votre équipe de vous fournir les points de terminaison d' SageMaker IA que vous pouvez utiliser avec votre SQL code. Vous trouverez ci-dessous des informations minimales sur l'utilisation de votre propre compartiment Amazon S3 avec vos propres modèles d' SageMaker IA et votre cluster Aurora My SQL DB.
Le machine learning comprend deux étapes principales : la formation et l'inférence. Pour entraîner des modèles d' SageMaker IA, vous exportez des données vers un compartiment Amazon S3. Le compartiment Amazon S3 est utilisé par une instance de bloc-notes Jupyter SageMaker AI pour entraîner votre modèle avant son déploiement. Vous pouvez utiliser SELECT INTO OUTFILE S3
cette instruction pour interroger les données d'un cluster Aurora My SQL DB et les enregistrer directement dans des fichiers texte stockés dans un compartiment Amazon S3. Ensuite, l'instance de bloc-bote consomme les données du compartiment Amazon S3 dans le cadre de la formation.
L'apprentissage automatique Aurora étend la SELECT INTO OUTFILE
syntaxe existante dans Aurora My SQL pour exporter les données au CSV format. Le CSV fichier généré peut être directement utilisé par les modèles qui ont besoin de ce format à des fins de formation.
SELECT * INTO OUTFILE S3 's3_uri
' [FORMAT {CSV|TEXT} [HEADER]] FROM table_name
;
L'extension prend en charge le CSV format standard.
-
Le format
TEXT
est le même que le format Mon SQL export existant. Il s'agit du format par défaut. -
CSV
Le format est un format récemment introduit qui suit les spécifications du RFC-4180. -
Si vous spécifiez le mot-clé facultatif
HEADER
, le fichier de sortie contient une ligne d'en-tête. Les étiquettes de la ligne d'en-tête correspondent aux noms de colonnes de l'instructionSELECT
. -
Vous pouvez toujours utiliser les mots-clés
CSV
etHEADER
comme identificateurs.
La syntaxe étendue et la grammaire de SELECT INTO
sont désormais comme suit :
INTO OUTFILE S3 's3_uri
'
[CHARACTER SET charset_name
]
[FORMAT {CSV|TEXT} [HEADER]]
[{FIELDS | COLUMNS}
[TERMINATED BY 'string
']
[[OPTIONALLY] ENCLOSED BY 'char
']
[ESCAPED BY 'char
']
]
[LINES
[STARTING BY 'string
']
[TERMINATED BY 'string
']
]
Considérations relatives aux performances liées à l'utilisation de l'apprentissage automatique Aurora avec Aurora My SQL
Les services Amazon Bedrock, Amazon Comprehend SageMaker et AI effectuent l'essentiel du travail lorsqu'ils sont invoqués par une fonction d'apprentissage automatique Aurora. Cela signifie que vous pouvez adapter ces ressources selon vos besoins, de manière indépendante. Pour votre cluster Aurora My SQL DB, vous pouvez rendre vos appels de fonction aussi efficaces que possible. Vous trouverez ci-dessous quelques considérations relatives aux performances à prendre en compte lors de l'utilisation du machine learning Aurora.
Modèle et invite
Les performances lors de l'utilisation d'Amazon Bedrock dépendent fortement du modèle et de l'invite que vous utilisez. Choisissez un modèle et une invite adaptés à votre cas d'utilisation.
Cache de requête
Le cache de SQL requêtes Aurora My ne fonctionne pas pour les fonctions d'apprentissage automatique d'Aurora. Aurora My SQL ne stocke pas les résultats des requêtes dans le cache des requêtes pour les SQL instructions qui appellent les fonctions d'apprentissage automatique d'Aurora.
Optimisation par lots pour les appels de fonction de machine learning Aurora
L'élément principal des performances de machine learning Aurora que vous pouvez influencer depuis votre cluster Aurora est le paramètre du mode par lots pour les appels vers les fonctions stockées de machine learning Aurora. Les fonctions de machine learning occasionnant généralement une surcharge conséquente, l'appel d'un service externe séparément pour chaque ligne est impraticable. Le machine learning Aurora peut réduire cette surcharge en combinant dans un seul lot les appels au service de machine learning Aurora externe pour de nombreuses lignes. Le machine learning Aurora reçoit les réponses pour toutes les lignes d'entrée, puis transmet les réponses, ligne par ligne, à la requête en cours d'exécution. Cette optimisation améliore le débit et la latence de vos requêtes Aurora sans en modifier les résultats.
Lorsque vous créez une fonction stockée Aurora connectée à un point de terminaison SageMaker AI, vous définissez le paramètre de taille du lot. Ce paramètre influence le nombre de lignes transférées pour chaque appel sous-jacent à l' SageMaker IA. Pour les requêtes qui traitent un grand nombre de lignes, la charge nécessaire pour effectuer un appel d' SageMaker IA distinct pour chaque ligne peut être importante. Plus l'ensemble de données traité par la procédure stockée est important, plus grande sera la taille de lot.
Si l'optimisation du mode batch peut être appliquée à une fonction d' SageMaker IA, vous pouvez le savoir en vérifiant le plan de requête produit par l'EXPLAIN PLAN
instruction. Dans ce cas, la colonne extra
du plan d'exécution inclut Batched machine learning
. L'exemple suivant montre un appel à une fonction d' SageMaker IA qui utilise le mode batch.
mysql> CREATE FUNCTION anomaly_score(val real) returns real alias aws_sagemaker_invoke_endpoint endpoint name 'my-rcf-model-20191126';
Query OK, 0 rows affected (0.01 sec)
mysql> explain select timestamp, value, anomaly_score(value) from nyc_taxi;
+----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+
| 1 | SIMPLE | nyc_taxi | NULL | ALL | NULL | NULL | NULL | NULL | 48 | 100.00 | Batched machine learning |
+----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+
1 row in set, 1 warning (0.01 sec)
Lorsque vous appelez l'une des fonctions Amazon Comprehend intégrées, vous pouvez contrôler le taille de lot en spécifiant le paramètre max_batch_size
facultatif. Ce paramètre limite le nombre maximum de valeurs input_text
traitées dans chaque lot. En envoyant plusieurs objets à la fois, cela réduit le nombre d'allers-retours entre Aurora et Amazon Comprehend. Limiter la taille de lot s'avère utile dans les situations impliquant une requête avec une clause LIMIT
. En utilisant une petite valeur pour max_batch_size
, vous pouvez éviter d'appeler Amazon Comprehend plus de fois que vous n'avez de textes d'entrée.
L'optimisation par lots pour l'évaluation des fonctions de machine learning Aurora s'applique dans les cas suivants :
-
Appels de fonction dans la liste de sélection ou dans la
WHERE
clause desSELECT
instructions -
Appels de fonction dans la
VALUES
liste desREPLACE
instructionsINSERT
et -
SageMaker Fonctions de l'IA dans
SET
les valeursUPDATE
des déclarations :INSERT INTO MY_TABLE (col1, col2, col3) VALUES (ML_FUNC(1), ML_FUNC(2), ML_FUNC(3)), (ML_FUNC(4), ML_FUNC(5), ML_FUNC(6)); UPDATE MY_TABLE SET col1 = ML_FUNC(col2), SET col3 = ML_FUNC(col4) WHERE ...;
Surveillance du machine learning Aurora
Vous pouvez surveiller les opérations par lots d'apprentissage automatique Aurora en interrogeant plusieurs variables globales, comme illustré dans l'exemple suivant.
show status like 'Aurora_ml%';
Vous pouvez réinitialiser ces variables de statut en utilisant une instruction FLUSH STATUS
. Ainsi, tous les chiffres représentent des totaux, des moyennes, etc. depuis la dernière réinitialisation de la variable.
Aurora_ml_logical_request_cnt
-
Nombre de demandes logiques que l'instance de base de données a évaluées pour qu'elles soient envoyées aux services de machine learning Aurora depuis la dernière réinitialisation de l'état. Si un traitement par lots a été utilisé, cette valeur peut être supérieure à
Aurora_ml_actual_request_cnt
. Aurora_ml_logical_response_cnt
-
Le nombre de réponses agrégées qu'Aurora My SQL reçoit des services d'apprentissage automatique Aurora pour toutes les requêtes exécutées par les utilisateurs de l'instance de base de données.
Aurora_ml_actual_request_cnt
-
Le nombre total de demandes qu'Aurora My envoie SQL aux services d'apprentissage automatique Aurora pour toutes les requêtes exécutées par les utilisateurs de l'instance de base de données.
Aurora_ml_actual_response_cnt
-
Le nombre de réponses agrégées qu'Aurora My SQL reçoit des services d'apprentissage automatique Aurora pour toutes les requêtes exécutées par les utilisateurs de l'instance de base de données.
Aurora_ml_cache_hit_cnt
-
Le nombre total d'accès au cache interne qu'Aurora My SQL reçoit des services d'apprentissage automatique Aurora pour toutes les requêtes exécutées par les utilisateurs de l'instance de base de données.
Aurora_ml_retry_request_cnt
-
Nombre de nouvelles tentatives de demande que l'instance de base de données a envoyées aux services de machine learning Aurora depuis la dernière réinitialisation de l'état.
Aurora_ml_single_request_cnt
-
Le nombre total de fonctions de machine learning Aurora évaluées par un mode autre que par lots dans toutes les requêtes exécutées par des utilisateurs de l'instance de base de données.
Pour plus d'informations sur la surveillance des performances des opérations d' SageMaker IA appelées par les fonctions d'apprentissage automatique Aurora, consultez la section Surveiller Amazon SageMaker AI.