Connecteur Amazon Athena Azure Data Lake Storage (ADLS) Gen2 - Amazon Athena

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Connecteur Amazon Athena Azure Data Lake Storage (ADLS) Gen2

Le connecteur Amazon Athena pour Azure Data Lake Storage (ADLS) Gen2 permet à Amazon Athena d'exécuter des SQL requêtes sur les données stockées sur. ADLS Athena ne peut pas accéder directement aux fichiers stockés dans le lac de données.

Ce connecteur ne peut pas être enregistré auprès de Glue Data Catalog en tant que catalogue fédéré. Ce connecteur ne prend pas en charge les contrôles d'accès aux données définis dans Lake Formation au niveau du catalogue, de la base de données, de la table, des colonnes, des lignes et des balises. Ce connecteur utilise Glue Connections pour centraliser les propriétés de configuration dans Glue.

  • Flux de travail — Le connecteur implémente l'JDBCinterface, qui utilise le com.microsoft.sqlserver.jdbc.SQLServerDriver pilote. Le connecteur transmet les requêtes au moteur Azure Synapse, qui accède ensuite au lac de données.

  • Gestion des données et S3 : normalement, le connecteur Lambda interroge les données directement sans les transférer vers Amazon S3. Toutefois, lorsque les données renvoyées par la fonction Lambda dépassent les limites Lambda, elles sont écrites dans le compartiment de déversement Amazon S3 que vous spécifiez afin qu'Athena puisse lire l'excédent.

  • AADauthentification : AAD peut être utilisée comme méthode d'authentification pour le connecteur Azure Synapse. Pour pouvoir être utiliséeAAD, la chaîne de JDBC connexion utilisée par le connecteur doit contenir les URL paramètres authentication=ActiveDirectoryServicePrincipalAADSecurePrincipalId, etAADSecurePrincipalSecret. Ces paramètres peuvent y être transmis directement ou par Secrets Manager.

Prérequis

Limites

  • Les DDL opérations d'écriture ne sont pas prises en charge.

  • Dans une configuration de multiplexeur, le compartiment de déversement et le préfixe sont partagés entre toutes les instances de base de données.

  • Toutes les limites Lambda pertinentes. Pour plus d’informations, consultez la section Quotas Lambda du Guide du développeur AWS Lambda .

  • Les types de données de date et d’horodatage dans des conditions de filtre doivent être convertis en types de données appropriés.

Conditions

Les termes suivants se rapportent au connecteur Azure Data Lake Storage Gen2.

  • Instance de base de données : toute instance d'une base de données déployée sur siteEC2, sur Amazon ou sur AmazonRDS.

  • Gestionnaire – Un gestionnaire Lambda qui accède à votre instance de base de données. Un gestionnaire peut être destiné aux métadonnées ou aux enregistrements de données.

  • Gestionnaire de métadonnées – Un gestionnaire Lambda qui extrait les métadonnées de votre instance de base de données.

  • Gestionnaire d’enregistrements – Un gestionnaire Lambda qui extrait les enregistrements de données de votre instance de base de données.

  • Gestionnaire de composites – Un gestionnaire Lambda qui extrait les métadonnées et les enregistrements de données de votre instance de base de données.

  • Propriété ou paramètre – Propriété de base de données utilisée par les gestionnaires pour extraire des informations de base de données. Vous configurez ces propriétés en tant que variables d’environnement Lambda.

  • Chaîne de connexion – Chaîne de texte utilisée pour établir une connexion à une instance de base de données.

  • Catalogue — Un AWS Glue non-catalogue enregistré auprès d'Athena qui est un préfixe obligatoire pour la propriété. connection_string

  • Gestionnaire de multiplexage – Un gestionnaire Lambda qui peut accepter et utiliser plusieurs connexions de base de données.

Paramètres

Utilisez les paramètres de cette section pour configurer le connecteur Azure Data Lake Storage Gen2.

Note

Les connecteurs de source de données Athena créés le 3 décembre 2024 et les versions ultérieures utilisent AWS Glue des connexions.

Les noms et définitions des paramètres répertoriés ci-dessous concernent les connecteurs de source de données Athena créés avant le 3 décembre 2024. Elles peuvent être différentes de leurs propriétés de AWS Glue connexion correspondantes. À compter du 3 décembre 2024, utilisez les paramètres ci-dessous uniquement lorsque vous déployez manuellement une version antérieure d'un connecteur de source de données Athena.

Chaîne de connexion

Utilisez une chaîne de JDBC connexion au format suivant pour vous connecter à une instance de base de données.

datalakegentwo://${jdbc_connection_string}

Utilisation d'un gestionnaire de multiplexage

Vous pouvez utiliser un multiplexeur pour vous connecter à plusieurs instances de base de données à l’aide d’une seule fonction Lambda. Les demandes sont acheminées par nom de catalogue. Utilisez les classes suivantes dans Lambda.

Handler (Gestionnaire) Classe
Gestionnaire de composites DataLakeGen2MuxCompositeHandler
Gestionnaire de métadonnées DataLakeGen2MuxMetadataHandler
Gestionnaire d’enregistrements DataLakeGen2MuxRecordHandler

Paramètres du gestionnaire de multiplexage

Paramètre Description
$catalog_connection_string Obligatoire. Chaîne de connexion d’instance de base de données. Préfixez la variable d'environnement avec le nom du catalogue utilisé dans Athena. Par exemple, si le catalogue enregistré auprès d’Athena est mydatalakegentwocatalog, le nom de la variable d’environnement est alors mydatalakegentwocatalog_connection_string.
default Obligatoire. Chaîne de connexion par défaut. Cette chaîne est utilisée lorsque le catalogue est lambda:${ AWS_LAMBDA_FUNCTION_NAME}.

Les exemples de propriétés suivants concernent une fonction MUX Lambda à DataLakeGen 2 niveaux qui prend en charge deux instances de base de données : datalakegentwo1 (par défaut) et. datalakegentwo2

Propriété Valeur
default datalakegentwo://jdbc:sqlserver://adlsgentwo1.hostname:port;databaseName=database_name;${secret1_name}
datalakegentwo_catalog1_connection_string datalakegentwo://jdbc:sqlserver://adlsgentwo1.hostname:port;databaseName=database_name;${secret1_name}
datalakegentwo_catalog2_connection_string datalakegentwo://jdbc:sqlserver://adlsgentwo2.hostname:port;databaseName=database_name;${secret2_name}

Fourniture des informations d’identification

Pour fournir un nom d'utilisateur et un mot de passe pour votre base de données dans votre chaîne de JDBC connexion, vous pouvez utiliser les propriétés de la chaîne de connexion ou AWS Secrets Manager.

  • Chaîne de connexion — Un nom d'utilisateur et un mot de passe peuvent être spécifiés sous forme de propriétés dans la chaîne de JDBC connexion.

    Important

    Afin de vous aider à optimiser la sécurité, n'utilisez pas d'informations d'identification codées en dur dans vos variables d'environnement ou vos chaînes de connexion. Pour plus d'informations sur le transfert de vos secrets codés en dur vers AWS Secrets Manager, voir Déplacer les secrets codés en dur vers AWS Secrets Manager dans le Guide de l'AWS Secrets Manager utilisateur.

  • AWS Secrets Manager— Pour utiliser la fonctionnalité Athena Federated Query AWS Secrets Manager, la personne VPC connectée à votre fonction Lambda doit disposer d'un accès Internet ou d'un VPCpoint de terminaison pour se connecter à Secrets Manager.

    Vous pouvez insérer le nom d'un secret AWS Secrets Manager dans votre chaîne de JDBC connexion. Le connecteur remplace le nom secret par les valeurs username et password de Secrets Manager.

    Pour les instances RDS de base de données Amazon, cette prise en charge est étroitement intégrée. Si vous utilisez AmazonRDS, nous vous recommandons vivement d'utiliser une rotation AWS Secrets Manager des identifiants. Si votre base de données n'utilise pas AmazonRDS, stockez les JSON informations d'identification au format suivant :

    {"username": "${username}", "password": "${password}"}
Exemple de chaîne de connexion avec un nom secret

La chaîne suivante porte le nom secret ${secret1_name}.

datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=database_name;${secret1_name}

Le connecteur utilise le nom secret pour récupérer les secrets et fournir le nom d’utilisateur et le mot de passe, comme dans l’exemple suivant.

datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=database_name;user=user_name;password=password

Utilisation d’un gestionnaire de connexion unique

Vous pouvez utiliser les métadonnées de connexion unique et les gestionnaires d'enregistrements suivants pour vous connecter à une seule instance Azure Data Lake Storage Gen2.

Type de gestionnaire Classe
Gestionnaire de composites DataLakeGen2CompositeHandler
Gestionnaire de métadonnées DataLakeGen2MetadataHandler
Gestionnaire d’enregistrements DataLakeGen2RecordHandler

Paramètres du gestionnaire de connexion unique

Paramètre Description
default Obligatoire. Chaîne de connexion par défaut.

Les gestionnaires de connexion unique prennent en charge une instance de base de données et doivent fournir un paramètre de connexion default. Toutes les autres chaînes de connexion sont ignorées.

L'exemple de propriété suivant concerne une instance Azure Data Lake Storage Gen2 unique prise en charge par une fonction Lambda.

Propriété Valeur
default datalakegentwo://jdbc:sqlserver://hostname:port;databaseName=;${secret_name}

Paramètres de déversement

Le Lambda SDK peut transmettre des données à Amazon S3. Toutes les instances de base de données accessibles par la même fonction Lambda déversent au même emplacement.

Paramètre Description
spill_bucket Obligatoire. Nom du compartiment de déversement.
spill_prefix Obligatoire. Préfixe de la clé du compartiment de déversement.
spill_put_request_headers (Facultatif) Carte JSON codée des en-têtes et des valeurs de la putObject demande Amazon S3 utilisée pour le déversement (par exemple,{"x-amz-server-side-encryption" : "AES256"}). Pour les autres en-têtes possibles, consultez PutObjectle Amazon Simple Storage Service API Reference.

Prise en charge du type de données

Le tableau suivant indique les types de données correspondants pour ADLS Gen2 et Arrow.

ADLS2e génération Flèche
bit TINYINT
tinyint SMALLINT
smallint SMALLINT
int INT
bigint BIGINT
decimal DECIMAL
numeric FLOAT8
smallmoney FLOAT8
money DECIMAL
float[24] FLOAT4
float[53] FLOAT8
real FLOAT4
datetime Date (MILLISECOND)
datetime2 Date (MILLISECOND)
smalldatetime Date (MILLISECOND)
date Date (DAY)
time VARCHAR
datetimeoffset Date (MILLISECOND)
char[n] VARCHAR
varchar[n/max] VARCHAR

Partitions et déversements

Azure Data Lake Storage Gen2 utilise un stockage blob Gen2 compatible avec Hadoop pour stocker des fichiers de données. Les données de ces fichiers sont interrogées à partir du moteur Azure Synapse. Le moteur Azure Synapse traite les données Gen2 stockées dans les systèmes de fichiers comme des tables externes. Les partitions sont mises en œuvre en fonction du type de données. Si les données ont déjà été partitionnées et distribuées au sein du système de stockage Gen2, le connecteur extrait les données sous forme de division unique.

Performance

Le connecteur Azure Data Lake Storage Gen2 présente des performances plus lentes lors de l'exécution de plusieurs requêtes à la fois et fait l'objet d'une limitation.

Le connecteur Athena Azure Data Lake Storage Gen2 effectue une poussée vers le bas des prédicats pour réduire les données analysées par la requête. Des prédicats simples et des expressions complexes sont poussés vers le connecteur afin de réduire la quantité de données analysées et le délai d'exécution de la requête.

Prédicats

Un prédicat est une expression contenue dans la WHERE clause d'une SQL requête qui donne une valeur booléenne et filtre les lignes en fonction de plusieurs conditions. Le connecteur Athena Azure Data Lake Storage Gen2 peut combiner ces expressions et les pousser directement vers Azure Data Lake Storage Gen2 pour améliorer la fonctionnalité et réduire la quantité de données analysées.

Les opérateurs du connecteur Athena Azure Data Lake Storage Gen2 suivants prennent en charge la poussée vers le bas de prédicats :

  • Booléen :AND, OU, NOT

  • Égalité :EQUAL, NOT _EQUAL, _THAN, LESS _ LESS THAN _OR_, _EQUAL, _ GREATER GREATER _OR_THAN, THAN _IF, IS_ EQUAL NULL NULL

  • Arithmétique : ADDSUBTRACT,,MULTIPLY,DIVIDE, MODULUS NEGATE

  • Autres : LIKE _PATTERN, IN

Exemple de poussée combinée vers le bas

Pour améliorer les capacités de requête, combinez les types de poussée vers le bas, comme dans l'exemple suivant :

SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%');

Requêtes directes

Le connecteur Azure Data Lake Storage Gen2 prend en charge les requêtes passthrough. Les requêtes passthrough utilisent une fonction de table pour transférer votre requête complète vers la source de données pour exécution.

Pour utiliser des requêtes passthrough avec Azure Data Lake Storage Gen2, vous pouvez utiliser la syntaxe suivante :

SELECT * FROM TABLE( system.query( query => 'query string' ))

L'exemple de requête suivant envoie une requête vers une source de données dans Azure Data Lake Storage Gen2. La requête sélectionne toutes les colonnes de la customer table, limitant les résultats à 10.

SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))

Informations de licence

En utilisant ce connecteur, vous reconnaissez l'inclusion de composants tiers, dont la liste se trouve dans le fichier pom.xml de ce connecteur, et vous acceptez les termes des licences tierces respectives fournies dans le fichier LICENSE.txt sur GitHub .com.

Ressources supplémentaires

Pour obtenir les dernières informations sur la version du JDBC pilote, consultez le fichier pom.xml du connecteur Azure Data Lake Storage Gen2 sur GitHub .com.

Pour plus d'informations sur ce connecteur, rendez-vous sur le site correspondant sur GitHub .com.