Amazon EMR 릴리스 6.15.0
6.15.0 애플리케이션 버전
이 릴리스에서 지원되는 애플리케이션은 Delta
아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.
각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | |
---|---|---|---|---|
Java용 AWS SDK | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1.12.513 | 1.12.490 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.17 | 2.12.15 | 2.12.15 | 2.12.15 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 |
Flink | 1.17.1 | 1.17.1 | 1.17.0 | 1.17.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.17 | 2.4.17 | 2.4.17 | 2.4.17 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hadoop | 3.3.6 | 3.3.3 | 3.3.3 | 3.3.3 |
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 |
Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 |
Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 |
JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 |
JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.283 | 0.281 | 0.281 | 0.281 |
Spark | 3.4.1 | 3.4.1 | 3.4.1 | 3.4.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 |
Tez | 0.10.2 | 0.10.2 | 0.10.2 | 0.10.2 |
Trino (PrestoSQL) | 426 | 422 | 414 | 414 |
Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 |
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 |
6.15.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 릴리스 6.15.0에 대한 정보가 포함됩니다. 변경 사항은 6.14.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 6.15.0 변경 로그 섹션을 참조하세요.
새로운 기능
-
애플리케이션 업그레이드 – Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.
-
EC2에서 실행되는 EMR 클러스터의 실행 속도 향상
– 이제 EC2 클러스터에서 Amazon EMR을 실행하는 속도가 최대 35% 빨라졌습니다. 이번 개선 덕분에 고객은 대부분 대략 5분 만에 클러스터를 시작할 수 있게 되었습니다. -
EMR Studio용 CodeWhisperer – 이제 JupyterLab에서 코드를 작성할 때 Amazon CodeWhisperer와 Amazon EMR Studio를 함께 사용하면 실시간으로 권장 사항을 받을 수 있습니다. CodeWhisperer에서는 설명을 작성하고, 코드 한 줄을 완성하고, 라인별 권장 사항을 만들고, 완전한 형식의 함수를 생성할 수 있습니다.
-
Flink를 사용한 더욱 빠른 작업 재시작 시간 – Amazon EMR 6.15.0 이상을 사용하면 태스크 복구 또는 규모 조정 작업 중에 작업 재시작 시간을 단축하기 위해 Apache Flink에 대해 이제 몇 가지 새로운 메커니즘을 사용할 수 있습니다. 이는 실행 그래프의 복구 및 재시작 속도를 최적화하여 작업 안정성을 향상시킵니다.
-
오픈 테이블 형식을 위한 테이블 수준 및 세분화된 액세스 제어 – Amazon EMR 6.15.0 이상에서는 AWS Glue 데이터 카탈로그의 데이터에 액세스하는 EC2 클러스터의 Amazon EMR에서 Spark 작업을 실행할 때 Hudi, Iceberg 또는 Delta Lake 기반 테이블에 테이블, 행, 열 및 셀 수준 권한을 적용하는 데 AWS Lake Formation을 사용할 수 있습니다.
-
Hadoop 업그레이드 - Amazon EMR 6.15.0에는 Apache Hadoop의 버전 3.3.6으로의 업그레이드가 포함되어 있습니다. Hadoop 3.3.6은 Amazon EMR 6.15가 배포되었을 시점에 최신 버전이었으며 Apache에서 2023년 6월에 릴리스했습니다. Amazon EMR의 이전 릴리스(6.9.0~6.14.x) 에서는 Hadoop 3.3.3이 사용되었습니다.
업그레이드에는 재구성 가능한 데이터노드 파라미터, 모든 라이브 데이터노드에서 대량 재구성 작업을 시작하는
DFSAdmin
옵션, 탐색이 많은 리더가 읽을 여러 범위를 지정할 수 있도록 하는 벡터 API 등 수백 가지 개선 사항과 수정 사항이 포함되어 있습니다. Hadoop 3.3.6에서는 WAL(미리 쓰기 로그)에 대한 HDFS API 및 의미 체계에 대한 지원도 추가되어 HBase가 다른 스토리지 시스템 구현에서 실행될 수 있습니다. 자세한 내용을 확인하려면Apache Hadoop 하둡 설명서에서 버전 3.3.4, 3.3.5 및 3.3.6 의 변경 로그를 참조하세요. -
Java용 AWS SDK 지원, 버전 2 - Amazon EMR 6.15.0 애플리케이션에서는 애플리케이션이 v2를 지원하는 경우 Java 버전 1.12.56
9 또는 2.20.160 용 AWS SDK를 사용할 수 있습니다. Java 2.x용 AWS SDK는 버전 1.x 코드 베이스를 크게 재작성한 것입니다. Java 8+에 토대를 두고 있으며, 요청이 많았던 기능들을 몇 가지 추가했습니다. 여기에는 비차단 I/O에 대한 지원과 런타임에 다른 HTTP 구현을 연결하는 기능이 포함됩니다. Java용 SDK v1에서 v2로의 마이그레이션 가이드를 포함한 자세한 내용을 확인하려면 AWSJava용 SDK, 버전 2 가이드를 참조하세요.
변경 사항, 향상된 기능 및 해결된 문제
고가용성 EMR 클러스터를 개선하기 위해 이번 릴리스에서는 IPv6 엔드포인트를 사용하는 로컬 호스트의 Amazon EMR 대몬(daemon)에 대한 연결을 지원합니다.
이번 릴리스는 고가용성 클러스터의 모든 프라이머리 노드에 프로비저닝된 ZooKeeper와의 통신을 위한 TLS 1.2가 지원합니다.
이번 릴리스에서는 로그 파일이 범위를 초과하여 클러스터 작업을 방해하는 시나리오를 최소화하기 위해 프라이머리 노드에서 유지되는 ZooKeeper 트랜잭션 로그 파일의 관리를 개선합니다.
이번 릴리스는 고가용성 EMR 클러스터에 대한 노드 내 통신의 복원력을 강화합니다. 이러한 개선 사항은 부트스트랩 작업 실패나 클러스터 시작 실패 가능성을 줄입니다.
-
Amazon EMR 6.15.0의 Tez는 Tez 그룹화된 분할에서 입력 분할을 비동기적으로 열도록 지정할 수 있는 구성을 도입합니다. 그 결과 단일 Tez 그룹화된 분할에 많은 수의 입력 분할이 있을 경우 읽기 쿼리 성능이 더욱 빨라집니다. 자세한 내용을 확인하려면 Tez 비동기식 분할 열기를 참조하세요.
Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 최신 패치 릴리스가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 Amazon EMR에 대한 기본 Amazon Linux AMI 사용을 참조하세요.
OsReleaseLabel(Amazon Linux 버전) Amazon Linux 커널 버전 사용 가능한 날짜 지원되는 리전 2.0.20241001.0 4.14.352 2024년 10월 4일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240816.0 4.14.350 2024년 8월 21일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240809.0 4.14.349 2024년 8월 20일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240719.0 4.14.348 2024년 7월 25일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240709.1 4.14.348 2024년 7월 23일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 아시아 태평양(하이데라바드), 중동(UAE), 유럽(스페인), 유럽(취리히), 아시아 태평양(멜버른), 이스라엘(텔아비브), 캐나다 서부(캘거리) 2.0.20240223.0 4.14.336 2024년 3월 8일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 캐나다 서부(캘거리) 2.0.20240131.0 4.14.336 2024년 2월 14일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 캐나다 서부(캘거리) 2.0.20240124.0 4.14.336 2024년 2월 7일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 캐나다 서부(캘거리) 2.0.20240109.0 4.14.334 2024년 1월 24일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 캐나다 서부(캘거리) 2.0.20231218.0 4.14.330 2024년 1월 2일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20231206.0 4.14.330 2023년 12월 22일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20231116.0 4.14.328 2023년 12월 11일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) 2.0.20231101.0 4.14.327 2023년 11월 13일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤)
6.15.0 기본 Java 버전
Amazon EMR 릴리스 6.12.0 이상에서는 기본적으로 Amazon Corretto 8을 사용하는 모든 애플리케이션을 지원합니다(단, Trino는 예외임). Trino와 관련하여 Amazon EMR은 Amazon EMR 릴리스 6.9.0부터 Amazon Corretto 17을 기본적으로 지원합니다. 또한 Amazon EMR은 Amazon Corretto 11 및 17을 사용하는 일부 애플리케이션도 지원합니다. 이 애플리케이션은 다음 테이블에 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 특정 Java 가상 머신을 사용하도록 애플리케이션 구성의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.
Amazon EMR은 Apache Spark, Apache Hadoop, Apache Hive에서 Amazon Corretto 11과 17을 모두 지원하지만, 이 버전의 Corretto를 사용하면 일부 워크로드의 성능이 저하될 수 있습니다. 기본값을 변경하기 전에 워크로드를 테스트하는 것이 좋습니다.
다음 표에서는 Amazon EMR 6.15.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다.
애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) |
---|---|
델타 | 17, 11, 8 |
Flink | 11, 8 |
Ganglia | 8 |
HBase | 11, 8 |
HCatalog | 17, 11, 8 |
Hadoop | 17, 11, 8 |
Hive | 17, 11, 8 |
Hudi | 17, 11, 8 |
Iceberg | 17, 11, 8 |
Livy | 17, 11, 8 |
Oozie | 17, 11, 8 |
피닉스 | 8 |
PrestoDB | 8 |
Spark | 17, 11, 8 |
Spark RAPIDS | 17, 11, 8 |
Sqoop | 8 |
Tez의 Hive 실행 시간 비교 | 17, 11, 8 |
Trino | 17 |
Zeppelin | 8 |
Pig | 8 |
Zookeeper | 8 |
6.15.0 구성 요소 버전
이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.
Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어, 버전 2.2의 EmrVersion
myapp-component
라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2
로 나열됩니다.
구성 요소 | 버전 | 설명 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK |
delta | 2.4.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. |
delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. |
emr-ddb | 5.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 3.8.0 | 편리한 하둡 에코시스템용 추가 라이브러리 |
emr-kinesis | 3.12.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 |
emr-s3-dist-cp | 2.29.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emr-s3-select | 2.8.0 | EMR S3Select 커넥터 |
emr-wal-cli | 1.2.0 | emrwal 목록/삭제에 사용되는 CLI입니다. |
emrfs | 2.60.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.17.1-amzn-1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
flink-jobmanager-config | 1.17.1-amzn-1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 3.3.6-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 3.3.6-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 |
hadoop-hdfs-library | 3.3.6-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 3.3.6-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 |
hadoop-hdfs-journalnode | 3.3.6-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 |
hadoop-httpfs-server | 3.3.6-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 |
hadoop-kms-server | 3.3.6-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 |
hadoop-mapred | 3.3.6-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 |
hadoop-yarn-nodemanager | 3.3.6-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 |
hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 |
hadoop-yarn-timeline-server | 3.3.6-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 |
hbase-hmaster | 2.4.17-amzn-3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 |
hbase-region-server | 2.4.17-amzn-3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 |
hbase-client | 2.4.17-amzn-3 | HBase 명령줄 클라이언트 |
hbase-rest-server | 2.4.17-amzn-3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 |
hbase-thrift-server | 2.4.17-amzn-3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 |
hbase-operator-tools | 2.4.17-amzn-3 | Apache HBase 클러스터용 복구 도구. |
hcatalog-client | 3.1.3-amzn-8 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 3.1.3-amzn-8 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 |
hcatalog-webhcat-server | 3.1.3-amzn-8 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 |
hive-client | 3.1.3-amzn-8 | Hive 명령줄 클라이언트 |
hive-hbase | 3.1.3-amzn-8 | Hive-hbase 클라이언트 |
hive-metastore-server | 3.1.3-amzn-8 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 |
hive-server2 | 3.1.3-amzn-8 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hudi | 0.14.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. |
hudi-presto | 0.14.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. |
hudi-trino | 0.14.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. |
hudi-spark | 0.14.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. |
hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
iceberg | 1.4.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. |
jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 |
livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 |
nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 |
mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. |
nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 |
oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 |
oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 |
opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. |
phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 |
phoenix-query-server | 5.1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버 |
presto-coordinator | 0.283-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.283-amzn-0 | 여러 쿼리를 실행하는 서비스. |
presto-client | 0.283-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
trino-coordinator | 426-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
trino-worker | 426-amzn-0 | 여러 쿼리를 실행하는 서비스. |
trino-client | 426-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. |
pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 |
ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 |
spark-client | 3.4.1-amzn-2 | Spark 명령줄 클라이언트. |
spark-history-server | 3.4.1-amzn-2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 3.4.1-amzn-2 | YARN용 인 메모리 실행 엔진. |
spark-yarn-slave | 3.4.1-amzn-2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. |
spark-rapids | 23.08.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. |
sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. |
tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. |
tez-on-yarn | 0.10.2-amzn-6 | tez YARN 애플리케이션 및 라이브러리. |
tez-on-worker | 0.10.2-amzn-6 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. |
webserver | 2.4.41 이상 | Apache HTTP 서버. |
zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. |
6.15.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml
과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 실행 중인 클러스터에서 인스턴스 그룹 재구성 단원을 참조하십시오.
분류 | 설명 | 재구성 작업 |
---|---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. | Restarts the ResourceManager service. |
container-executor | 하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다. | Not available. |
container-log4j | 하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다. | Not available. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Docker 관련 설정을 변경합니다. | Not available. |
emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. |
hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | HBase 환경의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | HBase hbase-log4j.properties 파일의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | HBase hbase-policy.xml 파일의 값을 변경합니다. | Not available. |
hbase-site | HBase hbase-site.xml 파일의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. |
hdfs-env | HDFS 환경의 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | HDFS hdfs-site.xml의 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | HCatalog 환경의 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | HCatalog jndi.properties 환경의 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml의 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | HCatalog WebHCat 환경의 값을 변경합니다. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties의 값을 변경합니다. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다. | Restarts Hive WebHCat server. |
hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. | Not available. |
hive-env | Hive 환경의 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. | Not available. |
hue-ini | Hue ini 파일의 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. | Restarts Hadoop Httpfs service. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. | Not available. |
hadoop-kms-env | 하둡 KMS 환경의 값을 변경합니다. | Restarts Hadoop-KMS service. |
hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. | Not available. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Hudi 환경의 값을 변경합니다. | Not available. |
hudi-defaults | Hudi의 hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. |
iceberg-defaults | Iceberg의 iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. |
delta-defaults | Delta의 delta-defaults.conf 파일에서 값을 변경합니다. | Not available. |
jupyter-notebook-conf | Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다. | Not available. |
jupyter-hub-conf | JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다. | Not available. |
jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. |
jupyter-sparkmagic-conf | Sparkmagic의 config.json 파일의 값을 변경합니다. | Not available. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. | Restarts Livy Server. |
livy-env | Livy 환경의 값을 변경합니다. | Restarts Livy Server. |
livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Oozie 환경의 값을 변경합니다. | Restarts Oozie. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. | Restarts Oozie. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. | Restarts Oozie. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. | Not available. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. | Not available. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. | Not available. |
pig-env | Pig 환경에서 값을 변경합니다. | Not available. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. | Restarts Oozie. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. | Not available. |
presto-log | Presto log.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-config | Presto config.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. | Not available. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. | Not available. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-lakeformation | Presto의 lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-memory | Presto memory.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-redshift | Presto redshift.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-tpcds | Presto tpcds.properties 파일의 값을 변경합니다. | Not available. |
trino-log | Trino의 log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-config | Trino의 config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Trino의 password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-env | Trino의 trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-node | Trino의 node.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-blackhole | Trino의 blackhole.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-cassandra | Trino의 cassandra.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-delta | Trino의 delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-hive | Trino의 hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-exchange-manager | Trino의 exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | Trino의 iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-hudi | Trino의 hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Trino의 jmx.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-kafka | Trino의 kafka.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-localfile | Trino의 localfile.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-memory | Trino의 memory.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-mongodb | Trino의 mongodb.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-mysql | Trino의 mysql.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-postgresql | Trino의 postgresql.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-raptor | Trino의 raptor.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-redis | Trino의 redis.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-redshift | Trino의 redshift.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-tpch | Trino의 tpch.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-tpcds | Trino의 tpcds.properties 파일에서 값을 변경합니다. | Not available. |
ranger-kms-dbks-site | Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다. | Restarts Ranger KMS Server. |
ranger-kms-site | Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다. | Restarts Ranger KMS Server. |
ranger-kms-env | Ranger KMS 환경의 값을 변경합니다. | Restarts Ranger KMS Server. |
ranger-kms-logback | Ranger KMS의 kms-logback.xml 파일에서 값을 변경합니다. | Not available. |
ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. |
spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-env | the Spark 환경의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. | Not available. |
spark-log4j2 | Spark의 log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Sqoop 환경의 값을 변경합니다. | Not available. |
sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다. | Not available. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. | Not available. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. | Restart Oozie and HiveServer2. |
yarn-env | YARN 환경의 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | YARN yarn-site.xml 파일의 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. | Restarts Zeppelin. |
zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. |
zookeeper-config | ZooKeeper zoo.cfg 파일의 값을 변경합니다. | Restarts Zookeeper server. |
zookeeper-log4j | ZooKeeper log4j.properties 파일의 값을 변경합니다. | Restarts Zookeeper server. |
6.15.0 변경 로그
날짜 | 이벤트 | 설명 |
---|---|---|
2023년 11월 17일 | 문서 게시 | Amazon EMR 6.15.0 릴리스 정보 최초 게시됨 |
2023년 11월 17일 |
배포 완료 | 모든 지원되는 리전 |
2023년 11월 13일 | 최초 릴리스 | 최초 상용 리전에 Amazon EMR 6.15.0 최초 배포됨 |