Configuração de uma execução de trabalho para usar logs do Amazon S3 - Amazon EMR

Configuração de uma execução de trabalho para usar logs do Amazon S3

Para poder monitorar o progresso do trabalho e solucionar falhas, você deve configurar os trabalhos para enviar informações de log ao Amazon S3, ao Amazon CloudWatch Logs ou a ambos. Este tópico ajuda você a começar a publicar logs de aplicações no Amazon S3 em trabalhos iniciados com o Amazon EMR no EKS.

Política do IAM para logs do S3

Antes que os trabalhos possam enviar dados de log ao Amazon S3, as permissões apresentadas a seguir devem ser inclusas na política de permissões para o perfil de execução do trabalho. Substitua amzn-s3-demo-logging-bucket pelo nome do bucket de registro em log.

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::amzn-s3-demo-logging-bucket", "arn:aws:s3:::amzn-s3-demo-logging-bucket/*", ] } ] }
nota

O Amazon EMR no EKS também pode criar um bucket do Amazon S3. Se um bucket do Amazon S3 não estiver disponível, inclua a permissão “s3:CreateBucket” na política do IAM.

Depois de conceder ao perfil de execução as permissões adequadas para enviar logs ao Amazon S3, os dados de log serão enviados para os locais do Amazon S3 apresentados a seguir quando s3MonitoringConfiguration for transmitida na seção monitoringConfiguration de uma solicitação start-job-run, conforme mostrado em Gerenciamento de execuções de trabalhos com a AWS CLI.

  • Logs do emissor: /logUri/virtual-cluster-id/jobs/job-id/containers/pod-name/(stderr.gz/stdout.gz)

  • Logs do driver: /logUri/virtual-cluster-id/jobs/job-id/containers/spark-application-id/spark-job-id-driver/(stderr.gz/stdout.gz)

  • Logs do executor: /logUri/virtual-cluster-id/jobs/job-id/containers/spark-application-id/executor-pod-name/(stderr.gz/stdout.gz)