本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
UpdateLocationHdfs
更新先前为 Hadoop 分布式文件系统集群创建的位置的某些参数。
请求语法
{
"AgentArns": [ "string
" ],
"AuthenticationType": "string
",
"BlockSize": number
,
"KerberosKeytab": blob
,
"KerberosKrb5Conf": blob
,
"KerberosPrincipal": "string
",
"KmsKeyProviderUri": "string
",
"LocationArn": "string
",
"NameNodes": [
{
"Hostname": "string
",
"Port": number
}
],
"QopConfiguration": {
"DataTransferProtection": "string
",
"RpcProtection": "string
"
},
"ReplicationFactor": number
,
"SimpleUser": "string
",
"Subdirectory": "string
"
}
请求参数
有关所有操作的通用参数的信息,请参阅通用参数。
请求接受采用 JSON 格式的以下数据。
- AgentArns
-
用于连接到 HDFS 集群的代理的 ARN。
类型:字符串数组
数组成员:最少 1 项。最多 4 项。
长度约束:最大长度为 128。
模式:
^arn:(aws|aws-cn|aws-us-gov|aws-iso|aws-iso-b):datasync:[a-z\-0-9]+:[0-9]{12}:agent/agent-[0-9a-z]{17}$
必需:否
- AuthenticationType
-
用于确定用户身份的身份验证类型。
类型:字符串
有效值:
SIMPLE | KERBEROS
必需:否
- BlockSize
-
要写入 HDFS 集群的数据块大小。
类型:整数
有效范围:有效范围:有效范围:有效范围:最小值为 1048576。最大值为 1073741824。
必需:否
- KerberosKeytab
-
Kerberos 密钥表(keytab),其中包含定义的 Kerberos 主体和加密密钥之间的映射。您可以通过提供文件的地址从文件加载密钥表。如果您使用AWS CLI,它将执行 base64 编码。否则,请提供 base64 编码文本。
类型:Base64 编码的二进制数据对象
长度约束:长度约束:长度限制:长度约束:长度
必需:否
- KerberosKrb5Conf
-
包含 Kerberos 配置信息的
krb5.conf
文件。您可以通过提供krb5.conf
文件的地址来加载文件。如果您使用的AWS CLI,它将执行 base64 编码。否则,请提供 base64 编码文本。类型:Base64 编码的二进制数据对象
长度约束:长度约束:长度限制:长度约束:长度
必需:否
- KerberosPrincipal
-
有权访问 HDFS 集群上的文件和文件夹的 Kerberos 主体。
类型:字符串
长度限制:最小长度为 1。长度上限为 256。
模式:
^.+$
必需:否
- KmsKeyProviderUri
-
HDFS 集群的密钥管理服务器(KMS)的 URI。
类型:字符串
长度限制:最小长度为 1。最大长度为 255。
模式:
^kms:\/\/http[s]?@(([a-zA-Z0-9\-]*[a-zA-Z0-9])\.)*([A-Za-z0-9\-]*[A-Za-z0-9])(;(([a-zA-Z0-9\-]*[a-zA-Z0-9])\.)*([A-Za-z0-9\-]*[A-Za-z0-9]))*:[0-9]{1,5}\/kms$
必需:否
- LocationArn
-
源 HDFS 集群位置的 Amazon 资源名称(ARN)。
类型:字符串
长度约束:最大长度为 128。
模式:
^arn:(aws|aws-cn|aws-us-gov|aws-iso|aws-iso-b):datasync:[a-z\-0-9]+:[0-9]{12}:location/loc-[0-9a-z]{17}$
必需:是
- NameNodes
-
管理 HDFS 命名空间的。NameNodeNameNode执行打开、关闭和重命名文件和目录等操作。NameNode包含将数据块映射到 1 000 DataNodes。您只能使用一个NameNode。
类型:HdfsNameNode 对象数组
数组成员:最少 1 项。
必需:否
- QopConfiguration
-
保护质量(QOP)配置指定在 Hadoop Distributed File System(HDFS)集群上配置的远程程序调用(RPC)和数据传输隐私设置。
类型:QopConfiguration 对象
必需:否
- ReplicationFactor
-
写入 HDFS 集群时要将数据复制到的数量。DataNodes
类型:整数
有效范围:最小值为 1。最大值为 512。
必需:否
- SimpleUser
-
用于在主机操作系统上标识客户端的用户名。
类型:字符串
长度限制:最小长度为 1。长度上限为 256。
模式:
^[_.A-Za-z0-9][-_.A-Za-z0-9]*$
必需:否
- Subdirectory
-
HDFS 集群中的子目录。此子目录用于从 HDFS 集群读取数据或向其写入数据。
类型:字符串
长度约束:长度约束:长度约束:长度约束
模式:
^[a-zA-Z0-9_\-\+\./\(\)\$\p{Zs}]+$
必需:否
响应元素
如果此操作成功,则该服务会发送回带有空 HTTP 正文的 HTTP 200 响应。
错误
有关所有操作常见错误的信息,请参阅常见错误。
- InternalException
-
当AWS DataSync服务中发生错误时,会引发此异常。
HTTP 状态代码:500
- InvalidRequestException
-
当客户端提交格式错误的请求时,会引发此异常。
HTTP 状态代码:400
另请参阅
有关在特定语言的 AWS 软件开发工具包中使用此 API 的更多信息,请参阅以下内容: