Amazon Athena HortonWorks 连接器
适用于 Hortonworks 的 Amazon Athena 连接器使 Amazon Athena 能够在 Cloudera Hortonworks
先决条件
可以使用 Athena 控制台或 AWS Serverless Application Repository 将该连接器部署到您的 AWS 账户。有关更多信息,请参阅部署数据来源连接器或使用 AWS Serverless Application Repository 部署数据来源连接器。
限制
-
不支持写入 DDL 操作。
-
在多路复用器设置中,溢出桶和前缀在所有数据库实例之间共享。
-
任何相关的 Lambda 限制。有关更多信息,请参阅《AWS Lambda 开发人员指南》中的 Lambda 配额。
术语
以下术语与 Hortonworks Hive 连接器有关。
-
数据库实例 - 部署在本地、Amazon EC2 或 Amazon RDS 上的任何数据库实例。
-
处理程序 — 访问您数据库实例的 Lambda 处理程序。处理程序可以用于元数据或数据记录。
-
元数据处理程序 — 从您的数据库实例中检索元数据的 Lambda 处理程序。
-
记录处理程序 — 从您的数据库实例中检索数据记录的 Lambda 处理程序。
-
复合处理程序 — 从您的数据库实例中检索元数据和数据记录的 Lambda 处理程序。
-
属性或参数 — 处理程序用来提取数据库信息的数据库属性。您可以将这些属性配置为 Lambda 环境变量。
-
连接字符串 — 用于建立数据库实例连接的文本字符串。
-
目录 — 向 Athena 注册的非 AWS Glue 目录,是
connection_string
属性的必要前缀。 -
多路复用处理程序 — 可以接受和使用多个数据库连接的 Lambda 处理程序。
参数
使用本节中的 Lambda 环境变量来配置 Hortonworks Hive 连接器。
连接字符串
使用以下格式的 JDBC 连接字符串连接到数据库实例。
hive://${
jdbc_connection_string
}
使用多路复用处理程序
您可以使用多路复用器通过单个 Lambda 函数连接到多个数据库实例。按目录名称来路由请求。在 Lambda 中使用以下类。
处理程序 | 类 |
---|---|
复合处理程序 | HiveMuxCompositeHandler |
元数据处理程序 | HiveMuxMetadataHandler |
记录处理程序 | HiveMuxRecordHandler |
多路复用处理程序参数
参数 | 描述 |
---|---|
$ |
必需。数据库实例连接字符串。将 Athena 中使用的目录的名称作为环境变量前缀。例如,如果向 Athena 注册的目录是 myhivecatalog ,则环境变量名称是 myhivecatalog_connection_string 。 |
default |
必需。默认连接字符串。目录为 lambda:${ AWS_LAMBDA_FUNCTION_NAME } 时使用此字符串。 |
以下示例属性适用于支持两个数据库实例的 Hive MUX Lambda 函数:hive1
(默认)和 hive2
。
属性 | 值 |
---|---|
default |
hive://jdbc:hive2://hive1:10000/default?${Test/RDS/hive1} |
hive_catalog1_connection_string |
hive://jdbc:hive2://hive1:10000/default?${Test/RDS/hive1} |
hive_catalog2_connection_string |
hive://jdbc:hive2://hive2:10000/default?UID=sample&PWD=sample |
提供凭证
要在 JDBC 连接字符串中为数据库提供用户名和密码,可以使用连接字符串属性或 AWS Secrets Manager。
-
连接字符串 — 可以将用户名和密码指定为 JDBC 连接字符串中的属性。
重要
作为安全最佳实践,请勿在您的环境变量或连接字符串中使用硬编码凭证。有关将硬编码密钥移至 AWS Secrets Manager 的信息,请参阅《AWS Secrets Manager 用户指南》中的将硬编码密钥移至 AWS Secrets Manager。
-
AWS Secrets Manager - 要将 Athena 联合查询功能与 AWS Secrets Manager 配合使用,连接到您的 Lambda 函数的 VPC 应该拥有互联网访问权限
或者 VPC 端点,以连接到 Secrets Manager。 您可以将 AWS Secrets Manager 中的密钥名称放入您的 JDBC 连接字符串中。连接器将该密钥名称替换为来自 Secrets Manager 的
username
和password
值。对于 Amazon RDS 数据库实例,将紧密集成这种支持。如果您使用 Amazon RDS,我们强烈建议您使用 AWS Secrets Manager 和凭证轮换。如果您的数据库不使用 Amazon RDS,请按以下格式将凭证存储为 JSON:
{"username": "${username}", "password": "${password}"}
带有密钥名称的示例连接字符串
以下字符串带有密钥名称 ${Test/RDS/hive1host}
。
hive://jdbc:hive2://hive1host:10000/default?...&${Test/RDS/hive1host}&...
该连接器使用该密钥名称来检索密钥,并提供用户名和密码,如以下示例所示。
hive://jdbc:hive2://hive1host:10000/default?...&UID=sample2&PWD=sample2&...
目前,Hortonworks Hive 连接器可以识别 UID
和 PWD
JDBC 属性。
使用单个连接处理程序
您可以使用以下单个连接元数据和记录处理程序连接到单个 Hortonworks Hive 实例。
处理程序类型 | 类 |
---|---|
复合处理程序 | HiveCompositeHandler |
元数据处理程序 | HiveMetadataHandler |
记录处理程序 | HiveRecordHandler |
单个连接处理程序参数
参数 | 描述 |
---|---|
default |
必需。默认连接字符串。 |
单个连接处理程序支持一个数据库实例,并且必须提供 default
连接字符串参数。将忽略所有其他连接字符串。
以下示例属性适用于 Lambda 函数支持的单个 Hortonworks Hive 实例。
属性 | 值 |
---|---|
default |
hive://jdbc:hive2://hive1host:10000/default?secret=${Test/RDS/hive1host} |
溢出参数
Lambda 开发工具包可以将数据溢出到 Amazon S3。由同一 Lambda 函数访问的所有数据库实例都会溢出到同一位置。
参数 | 描述 |
---|---|
spill_bucket |
必需。溢出桶名称。 |
spill_prefix |
必需。溢出桶密钥前缀。 |
spill_put_request_headers |
(可选)用于溢出的 Amazon S3 putObject 请求的请求标头和值的 JSON 编码映射(例如,{"x-amz-server-side-encryption" :
"AES256"} )。有关其他可能的标头,请参阅《Amazon Simple Storage Service API 参考》中的 PutObject。 |
数据类型支持
下表显示了适用于 JDBC、Hortonworks Hive 和 Arrow 的相应数据类型。
JDBC | Hortonworks Hive | Arrow |
---|---|---|
布尔值 | 布尔值 | 位 |
整数 | TINYINT | Tiny |
短型 | SMALLINT | Smallint |
整数 | INT | Int |
长整型 | BIGINT | Bigint |
float | float4 | Float4 |
Double | float8 | Float8 |
Date | date | DateDay |
Timestamp | 时间戳 | DateMilli |
String | VARCHAR | Varchar |
字节 | bytes | Varbinary |
BigDecimal | 十进制 | 十进制 |
ARRAY | 不适用(见注释) | 列出 |
注意
目前,Hortonworks Hive 不支持聚合类型 ARRAY
、MAP
、STRUCT
或 UNIONTYPE
。聚合类型的列被视为 SQL 中的 VARCHAR
列。
分区和拆分
分区用于确定如何为该连接器生成拆分。Athena 将构建一个 varchar
类型的合成列,它将展示表的分区方案,以帮助该连接器生成拆分。该连接器不会修改实际的表定义。
性能
Hortonworks Hive 支持静态分区。Athena Hortonworks Hive 连接器可从这些分区并行检索数据。如果您想查询具有均匀分区分布的非常大的数据集,强烈建议使用静态分区。选择列的子集可以显著减少查询运行时及扫描的数据。Hortonworks Hive 连接器能够灵活地应对并发造成的节流。
Athena Hortonworks Hive 连接器执行谓词下推,以减少查询扫描的数据量。LIMIT
子句、简单谓词和复杂表达式将下推到连接器,以减少扫描数据量并缩短查询执行的运行时间。
LIMIT 子句
LIMIT N
语句用于减少查询扫描的数据量。LIMIT N
下推时,连接器仅向 Athena 返回 N
行。
Predicates
谓词是 SQL 查询的 WHERE
子句中的表达式,其评估结果为布尔值并根据多个条件筛选行。Athena Hortonworks Hive 连接器可以组合这些表达式并将其直接推送到 Hortonworks Hive,以增强功能并减少扫描的数据量。
以下 Athena Hortonworks Hive 连接器运算符支持谓词下推:
-
布尔值:AND、OR、NOT
-
相等:EQUAL、NOT_EQUAL、LESS_THAN、LESS_THAN_OR_EQUAL、GREATER_THAN、GREATER_THAN_OR_EQUAL、IS_NULL
-
算术:ADD、SUBTRACT、MULTIPLY、DIVIDE、MODULUS、NEGATE
-
其他:LIKE_PATTERN、IN
组合下推示例
要增强查询功能,组合下推类型,如以下示例所示:
SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%') LIMIT 10;
传递查询
Hortonworks Hive 连接器支持传递查询。传递查询使用表函数将完整查询下推到数据来源来执行查询。
要在 Hortonworks Hive 中执行传递查询,可以使用以下语法:
SELECT * FROM TABLE( system.query( query => '
query string
' ))
以下示例查询将查询下推到 Hortonworks Hive 中的数据来源。该查询选择了 customer
表中的所有列,将结果限制为 10。
SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))
许可证信息
使用此连接器,即表示您确认包含第三方组件(这些组件的列表可在此连接器的 pom.xml
其他资源
有关最新 JDBC 驱动程序版本信息,请参阅 GitHub.com 上适用于 Hortonworks Hive 连接器的 pom.xml
有关此连接器的更多信息,请访问 GitHub.com 上的相应站点