기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon EMR 릴리스 6.8.0
6.8.0 애플리케이션 버전
이 릴리스에서는 다음 애플리케이션이 지원됩니다. Flink
아래 표에는이 Amazon 릴리스에서 사용할 수 있는 애플리케이션 버전EMR과 이전 3개의 Amazon EMR 릴리스(해당하는 경우)에서 사용할 수 있는 애플리케이션 버전이 나열되어 있습니다.
Amazon의 각 릴리스에 대한 애플리케이션 버전에 대한 포괄적인 기록은 다음 주제를 EMR참조하세요.
emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | |
---|---|---|---|---|
AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.31 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.15 | 2.12.15 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
델타 | - | - | - | - |
Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.12 | 2.4.4 | 2.4.4 | 2.4.4 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.3 | 3.1.3 | 3.1.2 | 3.1.2 |
Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 |
Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 |
Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
피닉스 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.273 | 0.272 | 0.267 | 0.261 |
Spark | 3.3.0 | 3.2.1 | 3.2.0 | 3.1.2 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 |
Tez의 Hive 실행 시간 비교 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino(프레스토SQL) | 388 | 378 | 367 | 360 |
Zeppelin | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 |
ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 |
6.8.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 릴리스 6.8.0에 대한 정보가 포함되어 있습니다. 변경 사항은 6.7.0에 관련됩니다.
새로운 기능
-
Amazon EMR 단계 기능은 이제 Apache Livy 엔드포인트 및JDBC/또는ODBC 클라이언트를 지원합니다. 자세한 내용은 Amazon EMR 단계에 대한 런타임 역할 구성을 참조하세요.
-
Amazon EMR 릴리스 6.8.0은 Apache HBase 릴리스 2.4.12과 함께 제공됩니다. 이 HBase 릴리스에서는 HBase 테이블을 아카이브하고 삭제할 수 있습니다. Amazon S3 아카이브 프로세스는 모든 테이블 파일의 이름을 아카이브 디렉터리로 바꿉니다. 이 프로세스는 비용이 많이 들고 시간이 오래 걸릴 수 있습니다. 이제 아카이브 프로세스를 건너뛰고 대용량 테이블을 빠르게 삭제할 수 있습니다. 자세한 내용은 HBase 쉘 사용 단원을 참조하십시오.
알려진 문제
Hadoop 3.3.3은 YARN (YARN-9608
)에서 애플리케이션이 완료될 때까지 컨테이너가 실행된 노드를 폐기 상태로 유지하는 변경 사항을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. Amazon EMR 6.8.0 및 6.9.0에서이 접근 방식을 사용하면 관리형 조정을 활성화하거나 활성화하지 않은 클러스터에서 리소스를 충분히 활용하지 못할 수도 있습니다. Amazon EMR 6.10.0을 사용하면이 문제가
false
에서의 값을yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications
로 설정하는 해결 방법이 있습니다yarn-site.xml
. Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1 및 6.10.1에서는이 문제를 해결하기 위해 구성이false
기본적으로 로 설정됩니다.
변경 사항, 향상된 기능 및 해결된 문제
-
Amazon이 Apache Spark 쉘을 통해 6.5.0, 6.6.0 또는 6.7.0 읽기 Apache Phoenix 테이블을 EMR 릴리스하면 Amazon은를 EMR 생성했습니다
NoSuchMethodError
. Amazon EMR 릴리스 6.8.0에서이 문제를 수정했습니다. -
Amazon EMR 릴리스 6.8.0은 Apache Hudi
0.11.1과 함께 제공되지만 Amazon EMR 6.8.0 클러스터는 hudi-spark3.3-bundle_2.12
Hudi 0.12.0의 오픈 소스와도 호환됩니다. -
Amazon EMR 릴리스 6.8.0은 Apache Spark 3.3.0과 함께 제공됩니다. 이번 Spark 릴리스에서는 Apache Log4j 2 및
log4j2.properties
파일을 사용하여 Spark 프로세스에서 Log4j를 구성합니다. 클러스터에서 Spark를 사용하거나 사용자 지정 구성 파라미터가 있는 EMR 클러스터를 생성하고 Amazon EMR 릴리스 6.8.0으로 업그레이드하려는 경우 Apache Log4j 2의 새spark-log4j2
구성 분류 및 키 형식으로 마이그레이션해야 합니다. 자세한 내용은 Apache Log4j 1.x에서 Log4j 2.x로 마이그레이션 단원을 참조하십시오. Amazon 5.36 이상, EMR 6.6 이상 또는 7.0 이상의 최신 패치 릴리스로 클러스터를 시작하면 Amazon은 기본 Amazon EMR에 최신 Amazon Linux 2023 또는 Amazon Linux 2 릴리스를 EMR 사용합니다AMI. 자세한 내용은 기본 Amazon Linux AMI for Amazon 사용을 참조하세요EMR.
참고
이 릴리스는 패치 릴리스가 1개 이상 성공했기 때문에 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(
6.8.
)로 표시됩니다. 최신 패치 릴리스를 사용하고 있는지 확인하려면 릴리스 가이드에서 사용 가능한 릴리스를 확인하거나 콘솔에서 클러스터를 생성할 때 Amazon EMR 릴리스 드롭다운을 확인하거나 또는1
ListReleaseLabels
APIlist-release-labels
CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 새로운 기능 페이지에서 RSS 피드를 구독하세요.OsReleaseLabel (Amazon Linux 버전) Amazon Linux 커널 버전 사용 가능한 날짜 지원되는 리전 2.0.20241001.0 4.14.352 2024년 10월 4일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud (미국 서부), AWS GovCloud (미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240816.0 4.14.350 2024년 8월 21일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud (미국 서부), AWS GovCloud (미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240809.0 4.14.349 2024년 8월 20일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud (미국 서부), AWS GovCloud (미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240719.0 4.14.348 2024년 7월 25일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud (미국 서부), AWS GovCloud (미국 동부), 중국(베이징), 중국(닝샤) 2.0.20240709.1 4.14.348 2024년 7월 23일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud (미국 서부), AWS GovCloud (미국 동부), 중국(베이징), 중국(닝샤), 아시아 태평양(하이데라바드), 중동(UAE), 유럽(스페인), 유럽(취리히), 아시아 태평양(멜버른), 이스라엘(텔아비브) 2.0.20230808.0 4.14.320 2023년 8월 24일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부) 2.0.20230727.0 4.14.320 2023년 8월 14일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부) 2.0.20230719.0 4.14.320 2023년 8월 2일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(프랑크푸르트), 유럽(취리히), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부) 2.0.20230628.0 4.14.318 2023년 7월 12일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230612.0 4.14.314 2023년 6월 23일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230504.1 4.14.313 2023년 5월 16일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230418.0 4.14.311 2023년 5월 3일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230404.1 4.14.311 2023년 4월 18일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230404.0 4.14.311 2023년 4월 10일 미국 동부(버지니아 북부), 유럽(파리) 2.0.20230320.0 4.14.309 2023년 3월 30일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230307.0 4.14.305 2023년 3월 15일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230207.0 4.14.304 2023년 2월 22일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20230119.1 4.14.301 2023년 2월 3일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20221210.1 4.14.301 2023년 12월 22일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20221103.3 4.14.296 2022년 12월 5일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20221004.0 4.14.294 2022년 11월 2일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) 2.0.20220912.1 4.14.291 2022년 9월 6일 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인)
알려진 문제
-
Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우, 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 읽은 모든 읽기는 빈 결과를 반환합니다. Spark 3.2.0에서는 기본적으로
spark.hadoopRDD.ignoreEmptySplits
를true
로 설정하기 때문입니다. 해결 방법으로spark.hadoopRDD.ignoreEmptySplits
를 명시적으로false
로 설정합니다. Amazon EMR 릴리스 6.9.0은이 문제를 해결합니다. Spark with Hive 파티션 위치 형식을 사용하여 Amazon S3에서 데이터를 읽고 Amazon EMR 릴리스 5.30.0~5.36.0 및 6.2.0~6.9.0에서 Spark를 실행하면 클러스터가 데이터를 올바르게 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
-
둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
-
하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어
s3://bucket/table/p=a
는s3://bucket/table/p=a b
의 접두사입니다. -
다른 파티션 디렉터리의 접두사 뒤에 오는 첫 번째 문자는
/
문자(U+002F)보다 작은 UTF-8 값을 갖습니다. 예를 들어s3://bucket/table/p=a b
에서 a와 b 사이에 있는 공백 문자(U+0020)가 이 카테고리에 속합니다.!"#$%&‘()*+,-
와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 UTF-8 인코딩 테이블 및 유니코드 문자를 참조하세요.
이 문제를 해결하려면
spark-defaults
분류에서spark.sql.sources.fastS3PartitionDiscovery.enabled
구성을false
로 설정합니다.-
Amazon EMR 릴리스 5.36.0 및 6.6.0~6.9.0
SecretAgent
에서는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해RecordServer
서비스 구성 요소에 로그 데이터 손실이 발생할 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.Amazon EMR 6.6.0~6.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
릴리스 일정에 대한 자세한 내용은 변경 로그를 참조하세요.
6.8.0 구성 요소 버전
Amazon이이 릴리스와 함께 EMR 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 다른는 Amazon에만 고유EMR하며 시스템 프로세스 및 기능에 설치됩니다. 이는 일반적으로 emr
또는 aws
로 시작됩니다. 최신 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 찾을 수 있는 최신 버전입니다. Amazon에서는 가능한 한 빨리 커뮤니티 릴리스EMR를 제공합니다.
Amazon의 일부 구성 요소는 커뮤니티 버전과 EMR 다릅니다. 이러한 구성 요소에는
양식의 버전 레이블이 있습니다. CommunityVersion
-amzn-EmrVersion
은 0에서 시작합니다. 예를 들어 버전 2.2EmrVersion
myapp-component
로 명명된 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 3회 수정된 경우 릴리스 버전은 로 나열됩니다2.2-amzn-2
.
구성 요소 | 버전 | 설명 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK |
emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 |
emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 |
emr-s3-dist-cp | 2.22.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
emr-s3-select | 2.1.0 | EMR S3Select 커넥터 |
emrfs | 2.53.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. |
flink-client | 1.15.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
flink-jobmanager-config | 1.15.1 | Apache Flink EMR 노드의 리소스 관리 JobManager |
ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
hadoop-client | 3.2.1-amzn-8 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 |
hadoop-hdfs-datanode | 3.2.1-amzn-8 | HDFS 블록을 저장하기 위한 노드 수준 서비스입니다. |
hadoop-hdfs-library | 3.2.1-amzn-8 | HDFS 명령줄 클라이언트 및 라이브러리 |
hadoop-hdfs-namenode | 3.2.1-amzn-8 | HDFS 파일 이름 및 블록 위치를 추적하기 위한 서비스입니다. |
hadoop-hdfs-journalnode | 3.2.1-amzn-8 | HDFS HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 서비스입니다. |
hadoop-httpfs-server | 3.2.1-amzn-8 | HTTP HDFS 작업을 위한 엔드포인트입니다. |
hadoop-kms-server | 3.2.1-amzn-8 | 하둡의 암호화 키 관리 서버입니다 KeyProvider API. |
hadoop-mapred | 3.2.1-amzn-8 | MapReduce MapReduce 애플리케이션 실행을 위한 실행 엔진 라이브러리입니다. |
hadoop-yarn-nodemanager | 3.2.1-amzn-8 | YARN 개별 노드에서 컨테이너를 관리하기 위한 서비스입니다. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | YARN 클러스터 리소스 및 분산 애플리케이션을 할당하고 관리하기 위한 서비스입니다. |
hadoop-yarn-timeline-server | 3.2.1-amzn-8 | YARN 애플리케이션에 대한 현재 및 과거 정보를 검색하는 서비스입니다. |
hbase-hmaster | 2.4.12-amzn-0 | 리전 조정 및 관리 명령 실행을 담당하는 HBase 클러스터를 위한 서비스입니다. |
hbase-region-server | 2.4.12-amzn-0 | 하나 이상의 HBase 리전을 제공하는 서비스입니다. |
hbase-client | 2.4.12-amzn-0 | HBase 명령줄 클라이언트. |
hbase-rest-server | 2.4.12-amzn-0 | 에 대한 RESTful HTTP 엔드포인트를 제공하는 서비스입니다HBase. |
hbase-thrift-server | 2.4.12-amzn-0 | 에 Thrift 엔드포인트를 제공하는 서비스입니다HBase. |
hbase-operator-tools | 2.4.12-amzn-0 | Apache HBase 클러스터의 복구 도구입니다. |
hcatalog-client | 3.1.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
hcatalog-server | 3.1.3-amzn-1 | 분산 애플리케이션을 위한 테이블 및 스토리지 관리 계층HCatalog인를 제공하는 서비스입니다. |
hcatalog-webhcat-server | 3.1.3-amzn-1 | HTTP에 REST 인터페이스를 제공하는 엔드포인트입니다HCatalog. |
hive-client | 3.1.3-amzn-1 | Hive 명령줄 클라이언트 |
hive-hbase | 3.1.3-amzn-1 | Hive-hbase 클라이언트 |
hive-metastore-server | 3.1.3-amzn-1 | Hive 메타스토어에 액세스하기 위한 서비스로, Hadoop 작업SQL에서에 대한 메타데이터를 저장하는 의미 리포지토리입니다. |
hive-server2 | 3.1.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
hudi | 0.11.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. |
hudi-presto | 0.11.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. |
hudi-trino | 0.11.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. |
hudi-spark | 0.11.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. |
hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
iceberg | 0.14.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. |
jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 |
livy-server | 0.7.1-incubating | REST Apache Spark와 상호 작용하기 위한 인터페이스 |
nginx | 1.12.1 | nginx [엔진 x]는 HTTP 및 역방향 프록시 서버입니다. |
mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. |
nvidia-cuda | 11.7.0 | Nvidia 드라이버와 Cuda 도구 키트 |
oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 |
oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 |
opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. |
phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 |
phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 |
phoenix-query-server | 5.1.2 | Avatica에 JDBC 대한 액세스 권한과 프로토콜 버퍼 및 JSON 형식 액세스를 제공하는 경량 서버 API |
presto-coordinator | 0.273.3-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
presto-worker | 0.273.3-amzn-0 | 여러 쿼리를 실행하는 서비스. |
presto-client | 0.273.3-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. |
trino-coordinator | 388-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
trino-worker | 388-amzn-0 | 여러 쿼리를 실행하는 서비스. |
trino-client | 388-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. |
pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 |
ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 |
spark-client | 3.3.0-amzn-0 | Spark 명령줄 클라이언트. |
spark-history-server | 3.3.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
spark-on-yarn | 3.3.0-amzn-0 | 에 대한 인 메모리 실행 엔진입니다YARN. |
spark-yarn-slave | 3.3.0-amzn-0 | YARN 노예에게 필요한 Apache Spark 라이브러리. |
spark-rapids | 22.06.0-amzn-0 | 를 사용하여 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인입니다GPUs. |
sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. |
tensorflow | 2.9.1 | TensorFlow 고성능 수치 계산을 위한 오픈 소스 소프트웨어 라이브러리입니다. |
tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리입니다. |
webserver | 2.4.41 이상 | Apache HTTP 서버. |
zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. |
6.8.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는와 같은 애플리케이션의 구성 XML 파일에 해당하는 경우가 많습니다hive-site.xml
. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.
재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon은 수정한 분류에 대해서만 재구성 작업을 EMR 시작합니다. 자세한 내용은 실행 중인 클러스터에서 인스턴스 그룹 재구성 단원을 참조하십시오.
분류 | 설명 | 재구성 작업 |
---|---|---|
capacity-scheduler | 하둡 capacity-scheduler.xml 파일의 값을 변경합니다. | Restarts the ResourceManager service. |
container-executor | 하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다. | Not available. |
container-log4j | 하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다. | Not available. |
core-site | 하둡 core-site.xml 파일의 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Docker 관련 설정을 변경합니다. | Not available. |
emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. |
hadoop-env | 모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 하둡 log4j.properties 파일의 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. |
hbase | AmazonEMR에서 큐레이션한 Apache 설정입니다HBase. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | HBase의 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | HBase의 hbase-log4j.properties 파일의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | HBase의 hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | HBase의 hbase-policy.xml 파일의 값을 변경합니다. | Not available. |
hbase-site | HBase의 hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. |
hdfs-env | HDFS 환경의 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | HDFS의 hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | HCatalog의 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | HCatalog의 jndi.properties에서 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | HCatalog's proto-hive-site.xml의 값을 변경합니다. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | HCatalog W의 ebHCat환경에서 값을 변경합니다. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat의 log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | HCatalog WebHCat의 webhcat-site.xml 파일의 값을 변경합니다. | Restarts Hive WebHCat server. |
hive | Apache Hive에 대해 AmazonEMR에서 큐레이션한 설정입니다. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. | Not available. |
hive-env | Hive 환경의 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Hive's hive-exec-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-llap-daemon-log4j2 | Hive's llap-daemon-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. | Not available. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. | Not available. |
hue-ini | Hue ini 파일의 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. | Restarts Hadoop Httpfs service. |
httpfs-site | 하둡 httpfs-site.xml 파일의 값을 변경합니다. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 하둡 kms-acls.xml 파일의 값을 변경합니다. | Not available. |
hadoop-kms-env | 하둡 KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | 하둡 kms-log4j.properties 파일의 값을 변경합니다. | Not available. |
hadoop-kms-site | 하둡 kms-site.xml 파일의 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Hudi 환경의 값을 변경합니다. | Not available. |
hudi-defaults | Hudi의 hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. |
iceberg-defaults | Iceberg의 iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. |
jupyter-notebook-conf | Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다. | Not available. |
jupyter-hub-conf | JupyterHubsjupyterhub_config.py 파일의 값을 변경합니다. | Not available. |
jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. |
jupyter-sparkmagic-conf | Sparkmagic의 config.json 파일의 값을 변경합니다. | Not available. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. | Restarts Livy Server. |
livy-env | Livy 환경의 값을 변경합니다. | Restarts Livy Server. |
livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | MapReduce 애플리케이션의 mapred-site.xml 파일의 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Oozie 환경의 값을 변경합니다. | Restarts Oozie. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. | Restarts Oozie. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. | Restarts Oozie. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. | Not available. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. | Not available. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. | Not available. |
pig-env | Pig 환경에서 값을 변경합니다. | Not available. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. | Restarts Oozie. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. | Not available. |
presto-log | Presto log.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-config | Presto config.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Presto의 password-authenticator.properties 파일의 값을 변경합니다. | Not available. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. | Not available. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-memory | Presto memory.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-redshift | Presto redshift.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. | Not available. |
presto-connector-tpcds | Presto tpcds.properties 파일의 값을 변경합니다. | Not available. |
trino-log | Trino의 log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-config | Trino의 config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Trino의 password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-env | Trino의 trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-node | Trino의 node.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-blackhole | Trino의 blackhole.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-cassandra | Trino의 cassandra.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-hive | Trino의 hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | Trino의 iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Trino의 jmx.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-kafka | Trino의 kafka.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-localfile | Trino의 localfile.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-memory | Trino의 memory.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-mongodb | Trino의 mongodb.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-mysql | Trino의 mysql.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-postgresql | Trino의 postgresql.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-raptor | Trino의 raptor.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-redis | Trino의 redis.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-redshift | Trino의 redshift.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-tpch | Trino의 tpch.properties 파일에서 값을 변경합니다. | Not available. |
trino-connector-tpcds | Trino의 tpcds.properties 파일에서 값을 변경합니다. | Not available. |
ranger-kms-dbks-site | Ranger의 dbks-site.xml 파일의 값을 변경합니다KMS. | Restarts Ranger KMS Server. |
ranger-kms-site | Ranger의 ranger-kms-site.xml 파일에서 값을 변경합니다KMS. | Restarts Ranger KMS Server. |
ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Ranger의 kms-log4j.properties 파일에서 값을 변경합니다KMS. | Not available. |
ranger-kms-db-ca | S3 for MySQL SSL connection with Ranger에서 CA 파일의 값을 변경합니다KMS. | Not available. |
spark | AmazonEMR에서 큐레이션한 Apache Spark 설정입니다. | This property modifies spark-defaults. See actions there. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-env | the Spark 환경의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. | Not available. |
spark-log4j2 | Spark의 log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Sqoop 환경의 값을 변경합니다. | Not available. |
sqoop-oraoop-site | Sqoop OraOop의 oraoop-site.xml 파일의 값을 변경합니다. | Not available. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. | Not available. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. | Restart Oozie and HiveServer2. |
yarn-env | YARN 환경의 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | YARN의 yarn-site.xml 파일의 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. | Restarts Zeppelin. |
zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. |
zookeeper-config | ZooKeeper의 zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. |
zookeeper-log4j | ZooKeeper의 log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. |
6.8.0 변경 로그
날짜 | 이벤트 | 설명 |
---|---|---|
2023-08-21 | 업데이트 | Hadoop 3.3.3에서 알려진 문제가 추가되었습니다. |
2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0 . |
2022-09-06 | 배포 완료 | 지원되는 모든 리전 |
2022-09-06 | 최초 게시 | Amazon EMR 6.8 릴리스 정보 최초 게시 |
2022-08-31 | 초기 릴리스 | 제한된 상용 리전으로 릴리스된 Amazon EMR 6.8 |