Amazon EMR 릴리스 6.9.0 - Amazon EMR

Amazon EMR 릴리스 6.9.0

6.9.0 애플리케이션 버전

이 릴리스에서 지원되는 애플리케이션은 Delta, Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, Iceberg, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin, ZooKeeper입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.

애플리케이션 버전 정보
emr-6.9.0 emr-6.8.1 emr-6.8.0 emr-6.7.0
Java용 AWS SDK 1.12.1701.12.1701.12.1701.12.170
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.152.12.152.12.152.12.15
AmazonCloudWatchAgent - - - -
Delta2.1.0 - - -
Flink1.15.21.15.11.15.11.14.2
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.132.4.122.4.122.4.4
HCatalog3.1.33.1.33.1.33.1.3
Hadoop3.3.33.2.13.2.13.2.1
Hive3.1.33.1.33.1.33.1.3
Hudi0.12.1-amzn-00.11.1-amzn-00.11.1-amzn-00.11.0-amzn-0
Hue4.10.04.10.04.10.04.10.0
Iceberg0.14.1-amzn-00.14.0-amzn-00.14.0-amzn-00.13.1-amzn-0
JupyterEnterpriseGateway2.6.02.1.02.1.02.1.0
JupyterHub1.4.11.4.11.4.11.4.1
Livy0.7.10.7.10.7.10.7.1
MXNet1.9.11.9.11.9.11.8.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.1
Phoenix5.1.25.1.25.1.25.1.2
Pig0.17.00.17.00.17.00.17.0
Presto0.2760.2730.2730.272
Spark3.3.03.3.03.3.03.2.1
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.10.02.9.12.9.12.4.1
Tez0.10.20.9.20.9.20.9.2
Trino (PrestoSQL)398388388378
Zeppelin0.10.10.10.10.10.10.10.0
ZooKeeper3.5.103.5.103.5.103.5.7

6.9.0 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 6.9.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 릴리스 6.8.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 변경 로그를 참조하세요.

새로운 기능
  • Amazon EMR 릴리스 6.9.0에서는 Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398, Tez 0.10.2를 지원합니다.

  • Amazon EMR 릴리스 6.9.0에는 새로운 오픈 소스 애플리케이션, Delta Lake 2.1.0이 포함되어 있습니다.

  • Apache Spark용 Amazon Redshift 통합은 Amazon EMR 릴리스 6.9.0 이상에 포함되어 있습니다. 이전의 오픈 소스 도구였던, 이 기본 통합은 Spark 커넥터로, Amazon Redshift와 Amazon Redshift Serverless에서 데이터를 읽고 쓰는 Apache Spark 애플리케이션을 빌드할 수 있습니다. 자세한 내용은 Amazon EMR에서 Apache Spark용 Amazon Redshift 통합 사용 단원을 참조하십시오.

  • Amazon EMR 릴리스 6.9.0은 클러스터 스케일 다운 중에 Amazon S3에 로그를 아카이브하기 위한 지원을 추가합니다. 이전에는 클러스터 종료 중에만 Amazon S3에 로그 파일을 아카이브할 수 있었습니다. 새로운 기능을 통해 클러스터에서 생성된 로그 파일은 노드가 종료된 후에도 Amazon S3에서 계속 유지됩니다. 자세한 내용은 클러스터 로깅 및 디버깅 구성을 참조하세요.

  • 이제 Trino에는 장기 실행 쿼리를 지원하기 위해 내결함성 실행 메커니즘이 포함됩니다. 내결함성 실행은 실패한 쿼리 또는 구성 요소 작업을 재시도하여 쿼리 실패를 완화합니다. 자세한 내용은 Trino에서 내결함성 실행 단원을 참조하십시오.

  • Iceberg, Kinesis 또는 Kafka와 같은 Flink 테이블 소스의 메타데이터 또는 Apache Hive 테이블의 통합된 BATCHSTREAM 처리를 위해 Amazon EMR에서 Apache Flink를 사용할 수 있습니다. AWS Management Console, AWS CLI 또는 Amazon EMR API를 사용하여 AWS Glue 데이터 카탈로그를 Flink의 메타스토어로 지정할 수 있습니다. 자세한 내용은 Amazon EMR에서 Flink 구성 단원을 참조하십시오.

  • 이제 Amazon SageMaker Studio를 사용하여 Amazon EMR on EC2 클러스터에서 Apache Spark, Apache Hive, Presto 쿼리에 대한 AWS Identity and Access Management(IAM) 런타임 역할 및 AWS Lake Formation 기반 액세스 제어를 지정할 수 있습니다. 자세한 내용은 Amazon EMR 단계에 대한 런타임 역할 구성을 참조하세요.

알려진 문제
  • Amazon EMR 릴리스 6.9.0의 경우 Trino는 Apache Ranger가 활성화된 클러스터에서 작동하지 않습니다. Ranger와 함께 Trino를 사용해야 하는 경우 AWS Support에 문의하세요.

  • Apache Spark용 Amazon Redshift 통합을 사용하고 Parquet 형식의 time, timetz, timestamp 또는 timestamptz(마이크로초 정밀도)를 사용하는 경우 커넥터는 시간 값을 가장 가까운 밀리초 값으로 반올림합니다. 해결 방법으로 텍스트 언로드 형식 unload_s3_format 파라미터를 사용합니다.

  • Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0~5.36.0 및 6.2.0~6.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.

    • 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.

    • 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 s3://bucket/table/p=as3://bucket/table/p=a b의 접두사입니다.

    • 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 / 문자(U+002F)보다 작습니다. 예를 들어 s3://bucket/table/p=a b에서 a와 b 사이에 있는 공백 문자(U+0020)가 이 카테고리에 속합니다. !"#$%&‘()*+,-와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 UTF-8 인코딩 테이블 및 유니코드 문자를 참조하세요.

    이 문제를 해결하려면 spark-defaults 분류에서 spark.sql.sources.fastS3PartitionDiscovery.enabled 구성을 false로 설정합니다.

  • Amazon SageMaker Studio에서 Amazon EMR 클러스터에 대한 연결이 403 금지됨 응답 코드와 함께 간헐적으로 실패할 수 있습니다. 이 오류는 클러스터에서 IAM 역할을 설정하는 데 60초를 초과하는 경우 발생합니다. 해결 방법으로 Amazon EMR 패치를 설치하여 재시도를 활성화하고 제한 시간을 최소 300초로 늘릴 수 있습니다. 다음 단계를 사용하여 클러스터를 시작할 때 부트스트랩 작업을 적용합니다.

    1. 다음 Amazon S3 URI에서 부트스트랩 스크립트와 RPM 파일을 다운로드합니다.

      s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
    2. 이전 단계의 파일을 사용자가 소유한 Amazon S3 버킷에 업로드합니다. 버킷은 클러스터를 시작하려는 동일한 AWS 리전에 있어야 합니다.

    3. EMR 클러스터를 시작할 때 다음 부트스트랩 작업을 포함합니다. bootstrap_URIRPM_URI를 Amazon S3의 해당되는 URI로 바꿉니다.

      --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
  • Amazon EMR 릴리스 5.36.0 및 6.6.0~6.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 SecretAgentRecordServer 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

    Amazon EMR 6.6.0~6.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"

    Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

    ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  • Apache Flink는 네이티브 S3 FileSystem 및 Hadoop FileSystem 커넥터를 제공합니다. 이 커넥터를 사용하면 애플리케이션에서 FileSink를 생성하고 Amazon S3에 데이터를 쓸 수 있습니다. 이 FileSink는 다음 두 가지 예외 중 하나로 인해 실패합니다.

    java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
    Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy; at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]

    해결 방법으로 Amazon EMR 패치를 설치할 수 있습니다. 그러면 Flink에서 위 문제를 해결할 수 있습니다. 클러스터를 시작할 때 부트스트랩 작업을 적용하려면 다음 단계를 완료합니다.

    1. flink-rpm을 사용자의 Amazon S3 버킷에 다운로드합니다. RPM 경로는 s3://DOC-EXAMPLE-BUCKET/rpms/flink/입니다.

    2. 다음 URI를 사용하여 Amazon S3에서 부트스트랩 스크립트와 RPM 파일을 다운로드합니다. regionName을 AWS 리전(클러스터를 시작하려는 위치)으로 바꿉니다.

      s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
    3. Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항(YARN-9608)을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. Amazon EMR 6.8.0 및 6.9.0에서 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

      Amazon EMR 6.10.0에서 이 문제를 해결하려면 yarn-site.xml에서 yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications의 값을 false로 설정합니다. Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 기본적으로 구성이 false로 설정되어 있습니다.

변경 사항, 향상된 기능 및 해결된 문제
  • Amazon EMR 릴리스 6.9.0 이상의 경우 Log4j 라이브러리를 사용하는 Amazon EMR에서 설치한 모든 구성 요소는 Log4j 버전 2.17.1 이상을 사용합니다.

  • Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 모든 읽기는 빈 결과를 반환합니다. Amazon EMR 릴리스 6.9.0에서는 이 문제가 수정되었습니다.

  • Amazon EMR 6.9.0에서는 Spark SQL을 사용하여 데이터를 읽을 때 Apache Hudi를 사용한 Lake Formation 기반 액세스 제어에 대한 제한된 지원을 추가했습니다. Spark SQL을 사용하는 SELECT 쿼리가 지원되며 열 수준의 액세스 제어로 제한됩니다. 자세한 내용은 Hudi 및 Lake Formation을 참조하세요.

  • Amazon EMR 6.9.0을 사용하여 노드 레이블을 활성화한 상태로 Hadoop 클러스터를 생성하면 YARN 지표 API에서 기본 파티션이 아닌 모든 파티션에서 집계된 정보를 반환합니다. 자세한 내용은 YARN-11414를 참조하세요.

  • Amazon EMR 릴리스 6.9.0에서 Trino를 버전 398(Java 17 사용)로 업데이트했습니다. Amazon EMR 6.8.0에서 이전에 지원되던 Trino 버전은 Java 11에서 실행되는 Trino 388이었습니다. 이 변경 사항에 대한 자세한 내용은 Trino 블로그에서 Trino updates to Java 17을 참조하세요.

  • 이 릴리스에서는 Apache BigTop 및 Amazon EMR on EC2 클러스터 시작 시퀀스 간 타이밍 시퀀스 불일치 문제를 수정했습니다. 이 타이밍 시퀀스 불일치는 시스템에서 둘 이상의 작업을 적절한 순서로 수행하는 대신 동시에 수행하려고 할 때 발생합니다. 따라서 특정 클러스터 구성에서 인스턴스 시작 제한 시간을 초과하고 클러스터 시작 시간이 느려지는 문제가 발생했습니다.

  • Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 최신 패치 릴리스가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 Amazon EMR에 대한 기본 Amazon Linux AMI 사용을 참조하세요.

    참고

    이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(6.8.1)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 릴리스 가이드에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 Amazon EMR 릴리스 드롭다운을 확인하거나, ListReleaseLabels API 또는 list-release-labels CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 새로운 기능에서 RSS 피드를 구독하세요.

    OsReleaseLabel(Amazon Linux 버전) Amazon Linux 커널 버전 사용 가능한 날짜 지원되는 리전
    2.0.20241001.0 4.14.352 2024년 10월 4일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤)
    2.0.20240816.0 4.14.350 2024년 8월 21일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤)
    2.0.20240809.0 4.14.349 2024년 8월 20일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤)
    2.0.20240719.0 4.14.348 2024년 7월 25일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤)
    2.0.20240709.1 4.14.348 2024년 7월 23일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 아시아 태평양(하이데라바드), 중동(UAE), 유럽(스페인), 유럽(취리히), 아시아 태평양(멜버른), 이스라엘(텔아비브), 캐나다 서부(캘거리)
    2.0.20230808.0 4.14.320 2023년 8월 24일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), 이스라엘(텔아비브)
    2.0.20230727.0 4.14.320 2023년 8월 14일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브)
    2.0.20230719.0 4.14.320 2023년 8월 2일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브)
    2.0.20230628.0 4.14.318 2023년 7월 12일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230612.0 4.14.314 2023년 6월 23일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230504.1 4.14.313 2023년 5월 16일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230418.0 4.14.311 2023년 5월 3일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230404.1 4.14.311 2023년 4월 18일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230404.0 4.14.311 2023년 4월 10일 미국 동부(버지니아 북부), 유럽(파리)
    2.0.20230320.0 4.14.309 2023년 3월 30일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230307.0 4.14.305 2023년 3월 15일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20230207.0 4.14.304 2023년 2월 22일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20221210.1 4.14.301 2023년 1월 12일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
    2.0.20221103.3 4.14.296 2022년 12월 5일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)

6.9.0 구성 요소 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 myapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.4.2Amazon SageMaker Spark SDK
delta2.1.0Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다.
emr-ddb4.16.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies3.3.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.6.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-notebook-env1.7.0Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경
emr-s3-dist-cp2.23.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select2.2.0EMR S3Select 커넥터
emrfs2.54.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
flink-client1.15.2Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션
flink-jobmanager-config1.15.2Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다.
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client3.3.3-amzn-1'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode3.3.3-amzn-1블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library3.3.3-amzn-1HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode3.3.3-amzn-1파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode3.3.3-amzn-1HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server3.3.3-amzn-1HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server3.3.3-amzn-1하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버
hadoop-mapred3.3.3-amzn-1MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리
hadoop-yarn-nodemanager3.3.3-amzn-1개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager3.3.3-amzn-1클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server3.3.3-amzn-1YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster2.4.13-amzn-0리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server2.4.13-amzn-0한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client2.4.13-amzn-0HBase 명령줄 클라이언트
hbase-rest-server2.4.13-amzn-0HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server2.4.13-amzn-0HBase에 Thrift 엔드포인트를 제공하는 서비스
hbase-operator-tools2.4.13-amzn-0Apache HBase 클러스터용 복구 도구.
hcatalog-client3.1.3-amzn-2hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server3.1.3-amzn-2분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server3.1.3-amzn-2HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client3.1.3-amzn-2Hive 명령줄 클라이언트
hive-hbase3.1.3-amzn-2Hive-hbase 클라이언트
hive-metastore-server3.1.3-amzn-2하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server23.1.3-amzn-2Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.12.1-amzn-0짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto0.12.1-amzn-0Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hudi-trino0.12.1-amzn-0Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리.
hudi-spark0.12.1-amzn-0Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리.
hue-server4.10.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
iceberg0.14.1-amzn-0Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다.
jupyterhub1.4.1Jupyter Notebook용 다중 사용자 서버
livy-server0.7.1-incubatingApache Spark와 상호작용하기 위한 REST 인터페이스
nginx1.12.1HTTP인 nginx [engine x] 및 역방향 프록시 서버
mxnet1.9.1유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.68 이상MariaDB 데이터베이스 서버.
nvidia-cuda11.7.0Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.2.1Oozie 명령줄 클라이언트
oozie-server5.2.1Oozie 워크플로 요청을 수락하는 서비스
opencv4.5.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library5.1.2서버 및 클라이언트의 phoenix 라이브러리
phoenix-connectors6.0.0-SNAPSHOTSpark-3용 Apache Phoenix 커넥터
phoenix-query-server6.0.0Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator0.276-amzn-0presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.276-amzn-0여러 쿼리를 실행하는 서비스.
presto-client0.276-amzn-0Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
trino-coordinator398-amzn-0trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
trino-worker398-amzn-0여러 쿼리를 실행하는 서비스.
trino-client398-amzn-0Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트.
pig-client0.17.0Pig 명령줄 클라이언트.
r4.0.2통계 컴퓨팅용 R 프로젝트
ranger-kms-server2.0.0Apache Ranger 키 관리 시스템
spark-client3.3.0-amzn-1Spark 명령줄 클라이언트.
spark-history-server3.3.0-amzn-1완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn3.3.0-amzn-1YARN용 인 메모리 실행 엔진.
spark-yarn-slave3.3.0-amzn-1YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
spark-rapids22.08.0-amzn-0GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인.
sqoop-client1.4.7Apache Sqoop 명령줄 클라이언트.
tensorflow2.10.0TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn0.10.2-amzn-0tez YARN 애플리케이션 및 라이브러리.
webserver2.4.41 이상Apache HTTP 서버.
zeppelin-server0.10.1대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.5.10구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.5.10ZooKeeper 명령줄 클라이언트.

6.9.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 실행 중인 클러스터에서 인스턴스 그룹 재구성 단원을 참조하십시오.

emr-6.9.0 분류
분류 설명 재구성 작업

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

Restarts the ResourceManager service.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

Not available.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

Not available.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Docker 관련 설정을 변경합니다.

Not available.

emrfs-site

EMRFS 설정을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

flink-conf.yaml 설정을 변경합니다.

Restarts Flink history server.

flink-log4j

Flink log4j.properties 설정을 변경합니다.

Restarts Flink history server.

flink-log4j-session

Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다.

Restarts Flink history server.

flink-log4j-cli

Flink log4j-cli.properties 설정을 변경합니다.

Restarts Flink history server.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

Not available.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

Not available.

hbase

Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

HBase 환경의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

Not available.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

This classification should not be reconfigured.

hdfs-env

HDFS 환경의 값을 변경합니다.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

HCatalog proto-hive-site.xml의 값을 변경합니다.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

Restarts Hive WebHCat server.

hive

Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

Not available.

hive-env

Hive 환경의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Hive hive-exec-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-llap-daemon-log4j2

Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

Not available.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

Not available.

hue-ini

Hue ini 파일의 값을 변경합니다.

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

Restarts Hadoop Httpfs service.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

Not available.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Hudi 환경의 값을 변경합니다.

Not available.

hudi-defaults

Hudi의 hudi-defaults.conf 파일에서 값을 변경합니다.

Not available.

iceberg-defaults

Iceberg의 iceberg-defaults.conf 파일에서 값을 변경합니다.

Not available.

delta-defaults

Delta의 delta-defaults.conf 파일에서 값을 변경합니다.

Not available.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

Not available.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

Not available.

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

Not available.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

Restarts Livy Server.

livy-env

Livy 환경의 값을 변경합니다.

Restarts Livy Server.

livy-log4j2

Livy log4j2.properties 설정을 변경합니다.

Restarts Livy Server.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Oozie 환경의 값을 변경합니다.

Restarts Oozie.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

Restarts Oozie.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

Restarts Oozie.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

Not available.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

Not available.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

Restarts Phoenix-QueryServer.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

Not available.

pig-env

Pig 환경에서 값을 변경합니다.

Not available.

pig-properties

Pig pig.properties 파일의 값을 변경합니다.

Restarts Oozie.

pig-log4j

Pig log4j.properties 파일의 값을 변경합니다.

Not available.

presto-log

Presto log.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-config

Presto config.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

Not available.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

Not available.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

Not available.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

Not available.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

Not available.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

Not available.

presto-connector-lakeformation

Presto의 lakeformation.properties 파일에서 값을 변경합니다.

Restarts Presto-Server (for PrestoDB)

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

Not available.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

Not available.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

Not available.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

Not available.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

Not available.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

Not available.

trino-log

Trino의 log.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-config

Trino의 config.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Trino의 password-authenticator.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-env

Trino의 trino-env.sh 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-node

Trino의 node.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-blackhole

Trino의 blackhole.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-cassandra

Trino의 cassandra.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-delta

Trino의 delta.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-connector-hive

Trino의 hive.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-exchange-manager

Trino의 exchange-manager.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-connector-iceberg

Trino의 iceberg.properties 파일에서 값을 변경합니다.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Trino의 jmx.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-kafka

Trino의 kafka.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-localfile

Trino의 localfile.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-memory

Trino의 memory.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-mongodb

Trino의 mongodb.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-mysql

Trino의 mysql.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-postgresql

Trino의 postgresql.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-raptor

Trino의 raptor.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-redis

Trino의 redis.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-redshift

Trino의 redshift.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-tpch

Trino의 tpch.properties 파일에서 값을 변경합니다.

Not available.

trino-connector-tpcds

Trino의 tpcds.properties 파일에서 값을 변경합니다.

Not available.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-site

Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

Restarts Ranger KMS Server.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

Not available.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

Not available.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

This property modifies spark-defaults. See actions there.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-env

the Spark 환경의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

Not available.

spark-log4j2

Spark의 log4j2.properties 파일에서 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

Restarts Spark history server and Spark thrift server.

sqoop-env

Sqoop 환경의 값을 변경합니다.

Not available.

sqoop-oraoop-site

Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다.

Not available.

sqoop-site

Sqoop sqoop-site.xml 파일의 값을 변경합니다.

Not available.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

Restart Oozie and HiveServer2.

yarn-env

YARN 환경의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

Restarts Zeppelin.

zeppelin-site

zeppelin-site.xml에서 구성 설정을 변경합니다.

Restarts Zeppelin.

zookeeper-config

ZooKeeper zoo.cfg 파일의 값을 변경합니다.

Restarts Zookeeper server.

zookeeper-log4j

ZooKeeper log4j.properties 파일의 값을 변경합니다.

Restarts Zookeeper server.

6.9.0 변경 로그

6.9.0 릴리스 및 릴리스 정보에 대한 변경 로그
날짜 이벤트 설명
2023년 8월 30일 릴리스 정보 업데이트 타이밍 시퀀스 불일치 문제에 대한 수정 사항 추가됨
2023년 8월 21일 릴리스 정보 업데이트 Hadoop 3.3.3에서 알려진 문제가 추가되었습니다.
2023년 7월 26일 업데이트 새 OS 릴리스 레이블 2.0.20230612.02.0.20230628.0.
2022년 12월 13일 릴리스 정보 업데이트됨 SageMaker의 런타임에 대한 기능 및 알려진 문제 추가됨
2022년 11월 29일 릴리스 정보 및 설명서를 업데이트함 Apache Spark용 Amazon Redshift 통합에 대한 기능 추가됨
2022년 11월 23일 릴리스 정보 업데이트됨 Log4j 항목 제거됨
2022년 11월 18일 배포 완료 모든 지원되는 리전에 Amazon EMR 6.9 전체 배포됨
2022년 11월 18일 문서 게시 Amazon EMR 6.9 릴리스 정보 최초 게시됨
2022년 11월 14일 최초 릴리스 제한된 상용 리전에 Amazon EMR 6.9 최초 배포됨