Amazon EMR 릴리스 6.1.1
6.1.1 애플리케이션 버전
이 릴리스에서 지원되는 애플리케이션은 Flink
아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.
각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
---|---|---|---|---|
Java용 AWS SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.11.0 | 1.11.0 | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 |
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | - | - |
Presto | 0.232 | 0.232 | 0.230 | 0.230 |
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | - | - |
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 338 | 338 | - | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.1.1 릴리스 정보
이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
변경 사항, 향상된 기능 및 해결된 문제
Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
SPARK-29683
. Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다. YARN-9011
. 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다. Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
-
이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN
arn:aws:s3:::amazonlinux-2-repos-$region/*
을 정책에 추가해야 합니다($region
을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서 이 주제를 참조하세요. 공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다.
6.1.1 구성 요소 버전
이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.
Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어, 버전 2.2의 EmrVersion
myapp-component
라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2
로 나열됩니다.
구성 요소 | 버전 | 설명 |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 |
emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emr-s3-select | 2.0.0 | EMR S3Select 커넥터 |
emrfs | 2.42.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 3.2.1-amzn-1.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | 블록을 저장하는 HDFS 노드 수준 서비스 |
hadoop-hdfs-library | 3.2.1-amzn-1.1 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 |
hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 |
hadoop-httpfs-server | 3.2.1-amzn-1.1 | HDFS 작업에 대한 HTTP 엔드포인트 |
hadoop-kms-server | 3.2.1-amzn-1.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 |
hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 |
hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 |
hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 |
hbase-hmaster | 2.2.5 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 |
hbase-region-server | 2.2.5 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 |
hbase-client | 2.2.5 | HBase 명령줄 클라이언트 |
hbase-rest-server | 2.2.5 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 |
hbase-thrift-server | 2.2.5 | HBase에 Thrift 엔드포인트를 제공하는 서비스 |
hcatalog-client | 3.1.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 3.1.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 |
hcatalog-webhcat-server | 3.1.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 |
hive-client | 3.1.2-amzn-2 | Hive 명령줄 클라이언트 |
hive-hbase | 3.1.2-amzn-2 | Hive-hbase 클라이언트 |
hive-metastore-server | 3.1.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 |
hive-server2 | 3.1.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hudi | 0.5.2-incubating-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. |
hudi-presto | 0.5.2-incubating-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. |
hudi-prestosql | 0.5.2-incubating-amzn-2 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. |
hudi-spark | 0.5.2-incubating-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. |
hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 |
livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 |
nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 |
mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. |
nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 |
oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 |
oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 |
opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. |
phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버 |
presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. |
presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
prestosql-coordinator | 338 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
prestosql-worker | 338 | 여러 쿼리를 실행하는 서비스. |
prestosql-client | 338 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 |
ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 |
spark-client | 3.0.0-amzn-0.1 | Spark 명령줄 클라이언트. |
spark-history-server | 3.0.0-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 3.0.0-amzn-0.1 | YARN용 인 메모리 실행 엔진. |
spark-yarn-slave | 3.0.0-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. |
sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. |
tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. |
tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. |
webserver | 2.4.41 이상 | Apache HTTP 서버. |
zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. |
6.1.1 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml
과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
분류 | 설명 |
---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. |
container-executor | 하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다. |
container-log4j | 하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
flink-conf | flink-conf.yaml 설정을 변경합니다. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. |
hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. |
hbase-env | HBase 환경의 값을 변경합니다. |
hbase-log4j | HBase hbase-log4j.properties 파일의 값을 변경합니다. |
hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase hbase-policy.xml 파일의 값을 변경합니다. |
hbase-site | HBase hbase-site.xml 파일의 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-env | HDFS 환경의 값을 변경합니다. |
hdfs-site | HDFS hdfs-site.xml의 값을 변경합니다. |
hcatalog-env | HCatalog 환경의 값을 변경합니다. |
hcatalog-server-jndi | HCatalog jndi.properties 환경의 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml의 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog WebHCat 환경의 값을 변경합니다. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties의 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다. |
hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일의 값을 변경합니다. |
hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | 하둡 KMS 환경의 값을 변경합니다. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. |
hudi-env | Hudi 환경의 값을 변경합니다. |
jupyter-notebook-conf | Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다. |
jupyter-hub-conf | JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다. |
jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 |
jupyter-sparkmagic-conf | Sparkmagic의 config.json 파일의 값을 변경합니다. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. |
livy-env | Livy 환경의 값을 변경합니다. |
livy-log4j | Livy log4j.properties 설정을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. |
pig-env | Pig 환경에서 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. |
presto-connector-memory | Presto memory.properties 파일의 값을 변경합니다. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. |
presto-connector-redshift | Presto redshift.properties 파일의 값을 변경합니다. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. |
presto-connector-tpcds | Presto tpcds.properties 파일의 값을 변경합니다. |
prestosql-log | Presto log.properties 파일의 값을 변경합니다. |
prestosql-config | Presto config.properties 파일의 값을 변경합니다. |
prestosql-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. |
prestosql-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
prestosql-node | PrestoSQL의 node.properties 파일에서 값을 변경합니다. |
prestosql-connector-blackhole | PrestoSQL의 blackhole.properties 파일에서 값을 변경합니다. |
prestosql-connector-cassandra | PrestoSQL의 cassandra.properties 파일에서 값을 변경합니다. |
prestosql-connector-hive | PrestoSQL의 hive.properties 파일에서 값을 변경합니다. |
prestosql-connector-jmx | PrestoSQL의 jmx.properties 파일에서 값을 변경합니다. |
prestosql-connector-kafka | PrestoSQL의 kafka.properties 파일에서 값을 변경합니다. |
prestosql-connector-localfile | PrestoSQL의 localfile.properties 파일에서 값을 변경합니다. |
prestosql-connector-memory | PrestoSQL의 memory.properties 파일에서 값을 변경합니다. |
prestosql-connector-mongodb | PrestoSQL의 mongodb.properties 파일에서 값을 변경합니다. |
prestosql-connector-mysql | PrestoSQL의 mysql.properties 파일에서 값을 변경합니다. |
prestosql-connector-postgresql | PrestoSQL의 postgresql.properties 파일에서 값을 변경합니다. |
prestosql-connector-raptor | PrestoSQL의 raptor.properties 파일에서 값을 변경합니다. |
prestosql-connector-redis | PrestoSQL의 redis.properties 파일에서 값을 변경합니다. |
prestosql-connector-redshift | PrestoSQL의 redshift.properties 파일에서 값을 변경합니다. |
prestosql-connector-tpch | PrestoSQL의 tpch.properties 파일에서 값을 변경합니다. |
prestosql-connector-tpcds | PrestoSQL의 tpcds.properties 파일에서 값을 변경합니다. |
ranger-kms-dbks-site | Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다. |
ranger-kms-site | Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다. |
ranger-kms-env | Ranger KMS 환경의 값을 변경합니다. |
ranger-kms-log4j | Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다. |
ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. |
spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | the Spark 환경의 값을 변경합니다. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper zoo.cfg 파일의 값을 변경합니다. |
zookeeper-log4j | ZooKeeper log4j.properties 파일의 값을 변경합니다. |