기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon EMR 릴리스 5.10.0
5.10.0 애플리케이션 버전
이 릴리스에서 지원되는 애플리케이션은 Flink
아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.
각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | |
---|---|---|---|---|
AWS SDK for Java | 1.11.221 | 1.11.183 | 1.11.183 | 1.11.160 |
Python | 2.7, 3.4 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 |
Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 |
HCatalog | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 |
Hadoop | 2.7.3 | 2.7.3 | 2.7.3 | 2.7.3 |
Hive | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 |
Hudi | - | - | - | - |
Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | 0.4.0 | 0.4.0 | 0.4.0 | - |
MXNet | 0.12.0 | - | - | - |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 |
Phoenix | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0 |
Presto | 0.187 | 0.184 | 0.184 | 0.170 |
Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 |
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 |
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
5.10.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 릴리스 5.10.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.9.0 릴리스에 관련됩니다.
업그레이드
AWS SDK for Java 1.11.221
Hive 2.3.1
Presto 0.187
새로운 특성
Kerberos 인증에 대한 지원이 추가되었습니다. 자세한 내용은 Amazon EMR 관리 안내서에서 Kerberos 인증 사용을 참조하세요.
EMRFS의 IAM 역할에 대한 지원이 추가되었습니다. 자세한 내용은 Amazon EMR 관리 안내서에서 Amazon S3에 대한 EMRFS 요청을 위해 IAM 역할 구성을 참조하세요.
GPU 기반의 P2 및 P3 인스턴스 유형에 대한 지원을 추가했습니다. 자세한 내용은 Amazon EC2 P2 인스턴스
및 Amazon EC2 P3 인스턴스 를 참조하세요. 기본적으로 이러한 유형의 인스턴스에 NVIDIA 드라이버 384.81 및 CUDA 드라이버 9.0.176가 설치됩니다. Apache MXNet 지원이 추가되었습니다.
변경 사항, 향상된 기능 및 해결된 문제
Presto
Glue 데이터 카탈로그를 기본 Hive AWS 메타스토어로 사용할 수 있도록 지원이 추가되었습니다. 자세한 내용은 AWS Glue 데이터 카탈로그에서 Presto 사용을 참조하세요.
지리 공간 함수
에 대한 지원이 추가되었습니다. 조인의 디스크로 유출
에 대한 지원이 추가되었습니다. Redshift 커넥터
에 대한 지원이 추가되었습니다.
Spark
SPARK-20640
을 백포트했습니다. 이를 통해 spark.shuffle.registration.timeout
및spark.shuffle.registration.maxAttempts
속성을 사용하여 셔플 등록에 대한 제시도와 rpc 제한 시간을 구성할 수 있습니다.사용자 지정 OutputFormat를 비 HDFS 위치에 기록할 때 발생하는 오류를 교정하는 SPARK-21549
를 백포트했습니다.
하둡-13270
을 백포트했습니다. Numpy, Scipy 및 Matplotlib 라이브러리가 기본 Amazon EMR AMI에서 제거되었습니다. 애플리케이션에서 이러한 라이브러리가 필요한 경우, 애플리케이션 리포지토리에서 라이브러리를 사용할 수 있기 때문에 부트스트랩 작업 시
yum install
을 사용하여 모든 노드에 라이브러리를 설치할 수 있습니다.Amazon EMR 기본 AMI는 더 이상 애플리케이션 RPM 패키지를 포함하고 있지 않기 때문에 RPM 패키지가 더 이상 클러스터 노드에 존재하지 않습니다. 이제 사용자 지정 AMI 및 Amazon EMR 기본 AMI는 Amazon S3에서 RPM 패키지 리포지토리를 참조합니다.
Amazon EC2에 초당 요금이 도입됨에 따라 이제 기본 스케일 다운 동작은 인스턴스 시간에 종료가 아닌 작업 완료 시 종료입니다. 자세한 내용은 클러스터 축소 구성을 참조하십시오.
알려진 문제
MXNet에는 OpenCV 라이브러리가 포함되어 있지 않습니다.
Hive 2.3.1에서는 기본적으로
hive.compute.query.using.stats=true
를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어,hive.compute.query.using.stats=true
인 테이블이 있을 때 새 파일을LOCATION
테이블에 업로드하고 테이블에서SELECT COUNT(*)
쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.차선책으로
ANALYZE TABLE
명령을 사용하여 새 통계를 수집하거나hive.compute.query.using.stats=false
를 설정합니다. 자세한 내용은 Apache Hive 설명서의 Statistics in Hive를 참조하십시오.
5.10.0 구성 요소 버전
이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.
Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어, 버전 2.2의 EmrVersion
myapp-component
라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2
로 나열됩니다.
구성 요소 | 버전 | 설명 |
---|---|---|
emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. |
emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. |
emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-s3-dist-cp | 2.7.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 2.7.3-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트. |
hadoop-hdfs-datanode | 2.7.3-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스. |
hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리. |
hadoop-hdfs-namenode | 2.7.3-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스. |
hadoop-httpfs-server | 2.7.3-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트. |
hadoop-kms-server | 2.7.3-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 |
hadoop-mapred | 2.7.3-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. |
hadoop-yarn-nodemanager | 2.7.3-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. |
hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. |
hadoop-yarn-timeline-server | 2.7.3-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. |
hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. |
hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. |
hbase-client | 1.3.1 | HBase 명령줄 클라이언트. |
hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. |
hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. |
hcatalog-client | 2.3.1-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. |
hcatalog-server | 2.3.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층 및 테이블, HCatalog를 제공하는 서비스. |
hcatalog-webhcat-server | 2.3.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트. |
hive-client | 2.3.1-amzn-0 | Hive 명령줄 클라이언트. |
hive-hbase | 2.3.1-amzn-0 | Hive-hbase client. |
hive-metastore-server | 2.3.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스. |
hive-server2 | 2.3.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. |
hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 |
mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. |
mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
mysql-server | 5.5.54+ | MySQL 데이터베이스 서버. |
nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 |
oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. |
oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. |
phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버 |
presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. |
pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
spark-client | 2.2.0 | Spark 명령줄 클라이언트. |
spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. |
spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. |
sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. |
tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. |
webserver | 2.4.25+ | Apache HTTP 서버. |
zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. |
zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. |
5.10.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml
과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
분류 | 설명 |
---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
flink-conf | flink-conf.yaml 설정을 변경합니다. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. |
hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. |
hbase-env | HBase 환경의 값을 변경합니다. |
hbase-log4j | HBase hbase-log4j.properties 파일의 값을 변경합니다. |
hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase hbase-policy.xml 파일의 값을 변경합니다. |
hbase-site | HBase hbase-site.xml 파일의 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-site | HDFS hdfs-site.xml의 값을 변경합니다. |
hcatalog-env | HCatalog 환경의 값을 변경합니다. |
hcatalog-server-jndi | HCatalog jndi.properties 환경의 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml의 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog WebHCat 환경의 값을 변경합니다. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties의 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일의 값을 변경합니다. |
hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | 하둡 KMS 환경의 값을 변경합니다. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. |
livy-env | Livy 환경의 값을 변경합니다. |
livy-log4j | Livy log4j.properties 설정을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. |
spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | the Spark 환경의 값을 변경합니다. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper zoo.cfg 파일의 값을 변경합니다. |
zookeeper-log4j | ZooKeeper log4j.properties 파일의 값을 변경합니다. |