Enviar una ejecución de trabajo con StartJobRun
Enviar una ejecución de trabajo con un archivo JSON con los parámetros especificados
-
Cree un archivo
start-job-run-request.json
y especifique los parámetros necesarios para la ejecución del trabajo, tal como se muestra en el siguiente archivo JSON de ejemplo. Para obtener más información sobre los parámetros, consulte Opciones para configurar una ejecución de trabajo.{ "name": "
myjob
", "virtualClusterId": "123456
", "executionRoleArn": "iam_role_name_for_job_execution
", "releaseLabel": "emr-6.2.0-latest
", "jobDriver": { "sparkSubmitJobDriver": { "entryPoint": "entryPoint_location
", "entryPointArguments": ["argument1
", "argument2
", ...], "sparkSubmitParameters": "--class <main_class> --conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1" } }, "configurationOverrides": { "applicationConfiguration": [ { "classification": "spark-defaults", "properties": { "spark.driver.memory":"2G" } } ], "monitoringConfiguration": { "persistentAppUI": "ENABLED", "cloudWatchMonitoringConfiguration": { "logGroupName": "my_log_group
", "logStreamNamePrefix": "log_stream_prefix
" }, "s3MonitoringConfiguration": { "logUri": "s3://my_s3_log_location
" } } } } -
Utilice el comando
start-job-run
con una ruta al archivostart-job-run-request.json
almacenado localmente.aws emr-containers start-job-run \ --cli-input-json
file://./start-job-run-request.json
Para iniciar la ejecución de un trabajo con el comando start-job-run
-
Proporcione todos los parámetros especificados en el comando
StartJobRun
, tal como se muestra en el siguiente ejemplo.aws emr-containers start-job-run \ --virtual-cluster-id
123456
\ --namemyjob
\ --execution-role-arnexecution-role-arn
\ --release-labelemr-6.2.0-latest
\ --job-driver '{"sparkSubmitJobDriver": {"entryPoint": "entryPoint_location
", "entryPointArguments": ["argument1
", "argument2
", ...], "sparkSubmitParameters": "--class <main_class> --conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"}}' \ --configuration-overrides '{"applicationConfiguration": [{"classification": "spark-defaults", "properties": {"spark.driver.memory": "2G"}}], "monitoringConfiguration": {"cloudWatchMonitoringConfiguration": {"logGroupName": "log_group_name
", "logStreamNamePrefix": "log_stream_prefix
"}, "persistentAppUI":"ENABLED", "s3MonitoringConfiguration": {"logUri": "s3://my_s3_log_location
" }}}' -
En el caso de Spark SQL, ingrese todos los parámetros especificados en el comando
StartJobRun
, tal y como se muestra en el siguiente ejemplo.aws emr-containers start-job-run \ --virtual-cluster-id
123456
\ --namemyjob
\ --execution-role-arnexecution-role-arn
\ --release-labelemr-6.7.0-latest
\ --job-driver '{"sparkSqlJobDriver": {"entryPoint": "entryPoint_location
", "sparkSqlParameters": "--conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"}}' \ --configuration-overrides '{"applicationConfiguration": [{"classification": "spark-defaults", "properties": {"spark.driver.memory": "2G"}}], "monitoringConfiguration": {"cloudWatchMonitoringConfiguration": {"logGroupName": "log_group_name
", "logStreamNamePrefix": "log_stream_prefix
"}, "persistentAppUI":"ENABLED", "s3MonitoringConfiguration": {"logUri": "s3://my_s3_log_location
" }}}'