Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Connettore Amazon Athena Azure Data Lake Storage () Gen2 ADLS
Il connettore Amazon Athena per Azure Data Lake Storage (ADLS) Gen2 consente ad Amazon
Questo connettore non può essere registrato con Glue Data Catalog come catalogo federato. Questo connettore non supporta i controlli di accesso ai dati definiti in Lake Formation a livello di catalogo, database, tabella, colonna, riga e tag. Questo connettore utilizza Glue Connections per centralizzare le proprietà di configurazione in Glue.
-
Workflow: il connettore implementa l'JDBCinterfaccia, che utilizza il
com.microsoft.sqlserver.jdbc.SQLServerDriver
driver. Il connettore passa le query al motore Azure Synapse, che quindi accede al data lake. -
Gestione dei dati e S3: normalmente il connettore Lambda esegue query sui dati direttamente senza trasferirli ad Amazon S3. Tuttavia, quando i dati restituiti dalla funzione Lambda superano i limiti Lambda, i dati vengono scritti nel bucket di spill di Amazon S3 specificato in modo che Athena possa leggere il superamento.
-
AADautenticazione: AAD può essere usato come metodo di autenticazione per il connettore Azure Synapse. Per poter essere utilizzataAAD, la stringa di JDBC connessione utilizzata dal connettore deve contenere i URL parametri
authentication=ActiveDirectoryServicePrincipal
,AADSecurePrincipalId
e.AADSecurePrincipalSecret
Questi parametri possono essere passati direttamente o tramite Secrets Manager.
Prerequisiti
Implementa il connettore sul tuo Account AWS utilizzando la console Athena o AWS Serverless Application Repository. Per ulteriori informazioni, consulta Creare una connessione a una fonte di dati o Utilizzare il AWS Serverless Application Repository per distribuire un connettore di origine dati.
Limitazioni
-
DDLLe operazioni di scrittura non sono supportate.
-
In una configurazione multiplex, il bucket di spill e il prefisso sono condivisi tra tutte le istanze del database.
-
Eventuali limiti Lambda pertinenti. Per ulteriori informazioni, consulta la sezione Quote Lambda nella Guida per gli sviluppatori di AWS Lambda .
-
Nelle condizioni di filtro, è necessario impostare i tipi di dati date e timestamp sul tipo di dati appropriato.
Termini
I seguenti termini si riferiscono al connettore Azure Data Lake Storage Gen2.
-
Istanza di database: qualsiasi istanza di un database distribuita in locale, su Amazon EC2 o su AmazonRDS.
-
Gestore: un gestore Lambda che accede all'istanza del database. Un gestore può gestire i metadati o i record di dati.
-
Gestore dei metadati: un gestore Lambda che recupera i metadati dall'istanza del database.
-
Gestore dei record: un gestore Lambda che recupera i record di dati dall'istanza del database.
-
Gestore composito: un gestore Lambda che recupera sia i metadati sia i record di dati dall'istanza del database.
-
Proprietà o parametro: una proprietà del database utilizzata dai gestori per estrarre le informazioni del database. Queste proprietà vengono configurate come variabili di ambiente Lambda.
-
Stringa di connessione: una stringa di testo utilizzata per stabilire una connessione a un'istanza del database.
-
Catalogo: un AWS Glue catalogo non registrato con Athena che è un prefisso obbligatorio per la proprietà.
connection_string
-
Gestore multiplex: un gestore Lambda in grado di accettare e utilizzare più connessioni al database.
Parametri
Usa i parametri di questa sezione per configurare il connettore Azure Data Lake Storage Gen2.
Nota
I connettori di origine dati Athena creati il 3 dicembre 2024 e versioni successive utilizzano connessioni. AWS Glue
I nomi e le definizioni dei parametri elencati di seguito si riferiscono ai connettori di origine dati Athena creati prima del 3 dicembre 2024. Questi possono differire dalle proprietà di AWS Glue connessione corrispondenti. A partire dal 3 dicembre 2024, utilizza i parametri seguenti solo quando distribuisci manualmente una versione precedente di un connettore di origine dati Athena.
Stringa di connessione
Utilizza una stringa di JDBC connessione nel formato seguente per connetterti a un'istanza di database.
datalakegentwo://${
jdbc_connection_string
}
Utilizzo di un gestore multiplex
Puoi utilizzare un gestore multiplex per connetterti a più istanze del database con una singola funzione Lambda. Le richieste vengono indirizzate in base al nome del catalogo. Utilizza le seguenti classi in Lambda.
Gestore | Classe |
---|---|
Gestore composito | DataLakeGen2MuxCompositeHandler |
Gestore dei metadati | DataLakeGen2MuxMetadataHandler |
Gestore dei record | DataLakeGen2MuxRecordHandler |
Parametri del gestore multiplex
Parametro | Descrizione |
---|---|
$ |
Obbligatorio. Una stringa di connessione di un'istanza del database. Appone alla variabile di ambiente un prefisso con il nome del catalogo utilizzato in Athena. Ad esempio, se il catalogo registrato presso Athena è mydatalakegentwocatalog , il nome della variabile di ambiente è mydatalakegentwocatalog_connection_string . |
default |
Obbligatorio. La stringa di connessione predefinita. Questa stringa viene utilizzata quando il catalogo è lambda:${ AWS_LAMBDA_FUNCTION_NAME } . |
Le seguenti proprietà di esempio riguardano una funzione a DataLakeGen 2 MUX Lambda che supporta due istanze di database: datalakegentwo1
(impostazione predefinita) e. datalakegentwo2
Proprietà | Valore |
---|---|
default |
datalakegentwo://jdbc:sqlserver://adlsgentwo1. |
datalakegentwo_catalog1_connection_string |
datalakegentwo://jdbc:sqlserver://adlsgentwo1. |
datalakegentwo_catalog2_connection_string |
datalakegentwo://jdbc:sqlserver://adlsgentwo2. |
Specifica delle credenziali
Per fornire un nome utente e una password per il database nella stringa di JDBC connessione, è possibile utilizzare le proprietà della stringa di connessione o. AWS Secrets Manager
-
Stringa di connessione: è possibile specificare un nome utente e una password come proprietà nella stringa di JDBC connessione.
Importante
Come best practice di sicurezza, non utilizzare credenziali codificate nelle variabili di ambiente o nelle stringhe di connessione. Per informazioni su come trasferire i segreti codificati in AWS Secrets Manager, consulta Move i segreti codificati AWS Secrets Manager nella Guida per l'utente.AWS Secrets Manager
-
AWS Secrets Manager— Per utilizzare la funzionalità Athena Federated Query con AWS Secrets Manager, la persona VPC connessa alla funzione Lambda deve avere accesso a Internet
o un VPCendpoint per connettersi a Secrets Manager. È possibile inserire il nome di un segreto AWS Secrets Manager nella stringa di connessione. JDBC Il connettore sostituisce il nome del segreto con i valori
username
epassword
di Secrets Manager.Per le istanze di RDS database Amazon, questo supporto è strettamente integrato. Se utilizzi AmazonRDS, ti consigliamo vivamente di utilizzare la rotazione AWS Secrets Manager delle credenziali. Se il tuo database non utilizza AmazonRDS, archivia le credenziali JSON nel seguente formato:
{"username": "${username}", "password": "${password}"}
Esempio di stringa di connessione con nome del segreto
La stringa seguente ha il nome del segreto ${secret1_name}
.
datalakegentwo://jdbc:sqlserver://
hostname
:port
;databaseName=database_name
;${secret1_name}
Il connettore utilizza il nome del segreto per recuperare i segreti e fornire il nome utente e la password, come nell'esempio seguente.
datalakegentwo://jdbc:sqlserver://
hostname
:port
;databaseName=database_name
;user=user_name
;password=password
Utilizzo di un gestore a singola connessione
Puoi utilizzare i seguenti gestori di metadati e record a singola connessione per connetterti a una singola istanza di Azure Data Lake Storage Gen2.
Tipo di gestore | Classe |
---|---|
Gestore composito | DataLakeGen2CompositeHandler |
Gestore dei metadati | DataLakeGen2MetadataHandler |
Gestore dei record | DataLakeGen2RecordHandler |
Parametri del gestore a singola connessione
Parametro | Descrizione |
---|---|
default |
Obbligatorio. La stringa di connessione predefinita. |
I gestori a singola connessione supportano una sola istanza del database e devono fornire un parametro di stringa di connessione del tipo default
. Tutte le altre stringhe di connessione vengono ignorate.
La seguente proprietà di esempio si riferisce a una singola istanza Azure Data Lake Storage Gen2 supportata da una funzione Lambda.
Proprietà | Valore |
---|---|
default |
datalakegentwo://jdbc:sqlserver:// |
Parametri di spill
La Lambda SDK può trasferire dati su Amazon S3. Tutte le istanze del database a cui accede la stessa funzione Lambda riversano i dati nella stessa posizione.
Parametro | Descrizione |
---|---|
spill_bucket |
Obbligatorio. Nome del bucket di spill. |
spill_prefix |
Obbligatorio. Prefisso della chiave del bucket di spill. |
spill_put_request_headers |
(Facoltativo) Una mappa JSON codificata delle intestazioni e dei valori delle richieste per la richiesta Amazon putObject S3 utilizzata per lo spilling (ad esempio,). {"x-amz-server-side-encryption" :
"AES256"} Per altre possibili intestazioni, consulta PutObjectAmazon Simple Storage Service API Reference. |
Supporto dei tipi di dati
La tabella seguente mostra i tipi di dati corrispondenti per ADLS Gen2 e Arrow.
ADLSGen2 | Arrow |
---|---|
bit | TINYINT |
tinyint | SMALLINT |
smallint | SMALLINT |
int | INT |
bigint | BIGINT |
decimal | DECIMAL |
numeric | FLOAT8 |
smallmoney | FLOAT8 |
money | DECIMAL |
float[24] | FLOAT4 |
float[53] | FLOAT8 |
real | FLOAT4 |
datetime | Data () MILLISECOND |
datetime2 | Data (MILLISECOND) |
smalldatetime | Data (MILLISECOND) |
data | Data (DAY) |
time | VARCHAR |
datetimeoffset | Data (MILLISECOND) |
char[n] | VARCHAR |
varchar[n/max] | VARCHAR |
Partizioni e suddivisioni
Azure Data Lake Storage Gen2 utilizza l'archiviazione blob Gen2 compatibile con Hadoop per l'archiviazione dei file di dati. I dati di questi file vengono interrogati dal motore Azure Synapse. Il motore Azure Synapse tratta i dati Gen2 archiviati nei file system come tabelle esterne. Le partizioni vengono implementate in base al tipo di dati. Se i dati sono già stati partizionati e distribuiti all'interno del sistema di archiviazione Gen2, il connettore recupera i dati come singola suddivisione.
Prestazioni
Il connettore Azure Data Lake Storage Gen2 mostra prestazioni più lente quando si eseguono più query contemporaneamente ed è soggetto alla limitazione della larghezza di banda della rete.
Il connettore Athena Azure Data Lake Storage Gen2 esegue il pushdown dei predicati per ridurre la quantità di dati scansionati dalla query. I predicati semplici e le espressioni complesse vengono inviati al connettore per ridurre la quantità di dati scansionati e ridurre il tempo di esecuzione delle query.
Predicati
Un predicato è un'espressione nella WHERE
clausola di una SQL query che restituisce un valore booleano e filtra le righe in base a più condizioni. Il connettore Athena Azure Data Lake Storage Gen2 può combinare queste espressioni e inviarle direttamente ad Azure Data Lake Storage Gen2 per funzionalità avanzate e per ridurre la quantità di dati scansionati.
I seguenti operatori del connettore Athena Azure Data Lake Storage Gen2 supportano il pushdown dei predicati:
-
Booleano:, OR, AND NOT
-
Uguaglianza:EQUAL, NOT _EQUAL, LESS _THAN, _ LESS _OR_, _ THAN GREATER _OR_EQUAL, THAN THAN EQUAL _IF, GREATER IS_ NULL NULL
-
Aritmetica:,,,,, ADD SUBTRACT MULTIPLY DIVIDE MODULUS NEGATE
-
Altro: LIKE _, IN PATTERN
Esempio di pushdown combinato
Per le funzionalità di esecuzione di query avanzate, combina i tipi di pushdown, come nell'esempio seguente:
SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%');
Interrogazioni passthrough
Il connettore Azure Data Lake Storage Gen2 supporta le query passthrough. Le query passthrough utilizzano una funzione di tabella per inviare la query completa all'origine dati per l'esecuzione.
Per usare le query passthrough con Azure Data Lake Storage Gen2, puoi usare la seguente sintassi:
SELECT * FROM TABLE( system.query( query => '
query string
' ))
La seguente query di esempio invia una query a un'origine dati in Azure Data Lake Storage Gen2. La query seleziona tutte le colonne della customer
tabella, limitando i risultati a 10.
SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))
Informazioni sulla licenza
Utilizzando questo connettore, l'utente riconosce l'inclusione di componenti di terze parti, un elenco dei quali è disponibile nel file pom.xml
Risorse aggiuntive
Per informazioni sulla versione più recente del JDBC driver, vedi il file pom.xml
Per ulteriori informazioni su questo connettore, visita il sito corrispondente all'indirizzo .com