本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
如何自訂 Docker 映像檔
請依照下列步驟,在 EMR上自訂 Amazon 的 Docker 映像EKS。這些步驟說明如何取得基礎映像、自訂和發佈映像,以及使用映像提交工作負載。
注意
自訂 Docker 映像時,您可能想要考慮的其他選項是針對互動式端點進行自訂,這是為了確保您擁有必要的相依性,或使用多架構容器映像:
必要條件
-
完成 Amazon 在 EMR上的在 EMR上設定 Amazon EKS步驟EKS。
-
在您的環境中安裝 Docker。如需詳細資訊,請參閱獲取 Docker
。
步驟 1:從 Amazon Elastic Container Registry (AmazonECR) 擷取基本映像
基礎映像包含用於存取其他服務的 Amazon EMR執行期和連接器 AWS 。對於 Amazon EMR 6.9.0 及更高版本,您可以從 Amazon ECR Public Gallery 取得基本映像。瀏覽圖庫以尋找映像連結,然後將映像拉到本地工作區。例如,在 Amazon EMR 7.2.0 版本中,下列docker pull
命令會取得最新的標準基本映像。您可以將 emr-7.2.0:latest
取代為 emr-7.2.0-spark-rapids:latest
,以擷取具有 Nvidia RAPIDS 加速器的影像。也可以將 emr-7.2.0:latest
取代為 emr-7.2.0-java11:latest
,以使用 Java 11 執行期來擷取映像。
docker pull public.ecr.aws/emr-on-eks/spark/
emr-7.2.0:latest
如果您想要擷取 Amazon EMR 6.9.0 或更早版本的基本映像,或想要從每個區域的 Amazon ECR登錄帳戶擷取,請使用下列步驟:
-
選擇基本映像 URI。映像URI遵循此格式
,如下列範例所示。ECR-registry-account
.dkr.ecr.Region
.amazonaws.com/spark/container-image-tag
895885662937
.dkr.ecr.us-west-2
.amazonaws.com/spark/emr-6.6.0:latest
若要在您的區域中選擇基礎映像,請參閱 選取基礎映像的詳細資訊 URI。
-
登入儲存基礎映像的 Amazon ECR儲存庫。Replace (取代)
895885662937
以及us-west-2
Amazon ECR登錄帳戶和您選擇的 AWS 區域。aws ecr get-login-password --region
us-west-2
| docker login --username AWS --password-stdin895885662937
.dkr.ecr.us-west-2
.amazonaws.com -
將基礎映像拉入本機工作區。Replace (取代)
emr-6.6.0:latest
您選取的容器映像標籤。docker pull
895885662937
.dkr.ecr.us-west-2
.amazonaws.com/spark/emr-6.6.0:latest
步驟 2:自訂基礎映像
請依照下列步驟,自訂您從 Amazon 提取的基本映像ECR。
-
在您的本機工作區建立新的
Dockerfile
。 -
編輯您剛建立的
Dockerfile
,並新增下列內容。此Dockerfile
使用您從895885662937.dkr.ecr.us-west-2.amazonaws.com/spark/emr-6.6.0:latest
中提取的容器映像。FROM 895885662937.dkr.ecr.us-west-2.amazonaws.com/spark/emr-6.6.0:latest USER root ### Add customization commands here #### USER hadoop:hadoop
-
在
Dockerfile
中新增命令以自訂基礎映像。例如,新增一個命令來安裝 Python 程式庫,如以下Dockerfile
所示。FROM 895885662937.dkr.ecr.us-west-2.amazonaws.com/spark/emr-6.6.0:latest USER root RUN pip3 install --upgrade boto3 pandas numpy // For python 3 USER hadoop:hadoop
-
從建立
Dockerfile
所在的相同目錄中,執行下列命令以建置 Docker 映像檔。提供 Docker 映像的名稱,例如emr6.6_custom
.docker build -t
emr6.6_custom
.
步驟 3:(選用但不推薦) 驗證自訂映像
建議您在發布自訂映像之前先測試它的相容性。您可以在EKS自訂映像EMR上使用 AmazonCLI
注意
EKS 自訂映像EMR上的 Amazon CLI無法確認您的映像沒有錯誤。從基礎映像中移除相依性時,請小心謹慎。
採取下列步驟來驗證自訂映像。
-
在EKS自訂映像 EMR上下載並安裝 AmazonCLI。如需詳細資訊,請參閱EKS自訂映像EMR上的 Amazon CLI 安裝指南
。 -
執行下列命令以測試安裝。
emr-on-eks-custom-image --version
以下顯示輸出範例。
Amazon EMR on EKS Custom Image CLI Version: x.xx
-
執行以下命令來驗證自訂映像。
emr-on-eks-custom-image validate-image -i
image_name
-rrelease_version
[-timage_type
]-
-i
指定需要驗證URI的本機映像。這可以是映像 URI、您為映像定義的任何名稱或標籤。 -
-r
指定基礎映像的確切發行版本,例如,emr-6.6.0-latest
。 -
-t
指定映像類型。如果為 Spark 映像,請輸入spark
。預設值為spark
。目前EMREKS自訂映像CLI版本的 Amazon 僅支援 Spark 執行期映像。
如果成功執行命令,且自訂映像符合所有必要的組態和檔案結構,則傳回的輸出會顯示所有測試結果,如下列範例所示。
Amazon EMR on EKS Custom Image Test Version: x.xx ... Checking if docker cli is installed ... Checking Image Manifest [INFO] Image ID: xxx [INFO] Created On: 2021-05-17T20:50:07.986662904Z [INFO] Default User Set to hadoop:hadoop : PASS [INFO] Working Directory Set to /home/hadoop : PASS [INFO] Entrypoint Set to /usr/bin/entrypoint.sh : PASS [INFO] SPARK_HOME is set with value: /usr/lib/spark : PASS [INFO] JAVA_HOME is set with value: /etc/alternatives/jre : PASS [INFO] File Structure Test for spark-jars in /usr/lib/spark/jars: PASS [INFO] File Structure Test for hadoop-files in /usr/lib/hadoop: PASS [INFO] File Structure Test for hadoop-jars in /usr/lib/hadoop/lib: PASS [INFO] File Structure Test for bin-files in /usr/bin: PASS ... Start Running Sample Spark Job [INFO] Sample Spark Job Test with local:///usr/lib/spark/examples/jars/spark-examples.jar : PASS ----------------------------------------------------------------- Overall Custom Image Validation Succeeded. -----------------------------------------------------------------
如果自訂映像不符合所需的組態或檔案結構,就會出現錯誤訊息。傳回的輸出會提供有關不正確組態或檔案結構的相關資訊。
-
步驟 4:發布自訂映像
將新的 Docker 映像發佈到您的 Amazon ECR登錄檔。
-
執行下列命令,以建立 Amazon ECR儲存庫來儲存 Docker 映像。為您的儲存庫提供名稱,例如:
emr6.6_custom_repo
。 取代us-west-2
您的區域。aws ecr create-repository \ --repository-name
emr6.6_custom_repo
\ --image-scanning-configuration scanOnPush=true \ --regionus-west-2
如需詳細資訊,請參閱 Amazon ECR使用者指南 中的建立儲存庫。
-
執行下列命令以驗證預設登錄檔。
aws ecr get-login-password --region
us-west-2
| docker login --username AWS --password-stdinaws_account_id
.dkr.ecr.us-west-2
.amazonaws.com如需詳細資訊,請參閱 Amazon ECR使用者指南 中的驗證您的預設登錄檔。
-
標記並發佈映像到您建立的 Amazon ECR儲存庫。
標記映像。
docker tag
emr6.6_custom
aws_account_id
.dkr.ecr.us-west-2
.amazonaws.com/emr6.6_custom_repo
推送映像。
docker push
aws_account_id
.dkr.ecr.us-west-2.amazonaws.com/emr6.6_custom_repo
如需詳細資訊,請參閱 Amazon 使用者指南 ECR中的將映像推送至 Amazon。 ECR
步驟 5:EMR使用自訂映像在 Amazon 中提交 Spark 工作負載
建置並發佈自訂映像之後,您可以使用自訂映像在EMREKS工作時提交 Amazon。
首先,建立 start-job-run-request.json 檔案,並指定 spark.kubernetes.container.image
參數以參考自訂映像,如下列範例JSON檔案所示。
注意
您可以使用local://
配置來參考自訂映像中可用的檔案,如下方JSON程式碼片段中的entryPoint
引數所示。也可以使用 local://
結構描述來參考應用程式相依性。使用 local://
結構描述所參考的所有檔案和相依性必須已存在於自訂映像的指定路徑中。
{ "name": "spark-custom-image", "virtualClusterId": "
virtual-cluster-id
", "executionRoleArn": "execution-role-arn
", "releaseLabel": "emr-6.6.0-latest
", "jobDriver": { "sparkSubmitJobDriver": { "entryPoint": "local:///usr/lib/spark/examples/jars/spark-examples.jar", "entryPointArguments": [ "10" ], "sparkSubmitParameters": "--class org.apache.spark.examples.SparkPi --conf spark.kubernetes.container.image=123456789012.dkr.ecr.us-west-2.amazonaws.com/emr6.6_custom_repo
" } } }
也可以參考具有 applicationConfiguration
屬性的自訂映像,如下列範例所示。
{ "name": "spark-custom-image", "virtualClusterId": "
virtual-cluster-id
", "executionRoleArn": "execution-role-arn
", "releaseLabel": "emr-6.6.0-latest
", "jobDriver": { "sparkSubmitJobDriver": { "entryPoint": "local:///usr/lib/spark/examples/jars/spark-examples.jar", "entryPointArguments": [ "10" ], "sparkSubmitParameters": "--class org.apache.spark.examples.SparkPi" } }, "configurationOverrides": { "applicationConfiguration": [ { "classification": "spark-defaults", "properties": { "spark.kubernetes.container.image": "123456789012.dkr.ecr.us-west-2.amazonaws.com/emr6.6_custom_repo
" } } ] } }
然後執行 start-job-run
命令以提交作業。
aws emr-containers start-job-run --cli-input-json file://./start-job-run-request.json
在上述JSON範例中,取代 emr-6.6.0-latest
您的 Amazon EMR版本。強烈建議您使用 -latest
發行版本,以確保選取的版本包含最新安全更新。如需 Amazon EMR發行版本及其映像標籤的詳細資訊,請參閱 選取基礎映像的詳細資訊 URI。
注意
可以使用 spark.kubernetes.driver.container.image
和 spark.kubernetes.executor.container.image
為驅動程式和執行程式 Pod 指定不同的映像。