Versão 6.2.0 do Amazon EMR - Amazon EMR

Versão 6.2.0 do Amazon EMR

Versões 6.2.0 da aplicação

As seguintes aplicações são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin e ZooKeeper.

A tabela abaixo lista as versões das aplicações disponíveis nesta versão do Amazon EMR e as versões de aplicações nas três versões anteriores do Amazon EMR (quando aplicável).

Para obter um histórico abrangente das versões das aplicações de cada versão do Amazon EMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-6.2.0 emr-6.1.1 emr-6.1.0 emr-6.0.1
AWS SDK para Java 1.11.8801.11.8281.11.8281.11.711
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.21.11.01.11.0 -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.6-amzn-02.2.52.2.52.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.6.0-amzn-10.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-1
Hue4.8.04.7.14.7.14.4.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.0 - - -
JupyterHub1.1.01.1.01.1.01.0.0
Livy0.7.00.7.00.7.00.6.0
MXNet1.7.01.6.01.6.01.5.1
Mahout - - - -
Oozie5.2.05.2.05.2.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.0 -
Presto0.238.30.2320.2320.230
Spark3.0.13.0.03.0.02.4.4
Sqoop1.4.71.4.71.4.7 -
TensorFlow2.3.12.1.02.1.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)343338338 -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Notas da versão 6.2.0

As notas da versão a seguir incluem informações para a versão 6.2.0 do Amazon EMR. As alterações são referentes à versão 6.1.0.

Data da versão inicial: 9 de dezembro de 2020

Data da última atualização: 4 de outubro de 2021

Aplicações compatíveis
  • AWS SDK for Java versão 1.11.828

  • emr-record-server versão 1.7.0

  • Flink versão 1.11.2

  • Ganglia versão 3.7.2

  • Hadoop versão 3.2.1-amzn-1

  • HBase versão 2.2.6-amzn-0

  • HBase-operator-tools 1.0.0

  • HCatalog versão 3.1.2-amzn-0

  • Hive versão 3.1.2-amzn-3

  • Hudi versão 0.6.0-amzn-1

  • Hue versão 4.8.0

  • JupyterHub versão 1.1.0

  • Livy versão 0.7.0

  • MXNet versão 1.7.0

  • Oozie versão 5.2.0

  • Phoenix versão 5.0.0

  • Pig versão 0.17.0

  • Presto versão 0.238.3-amzn-1

  • PrestoSQL versão 343

  • Spark versão 3.0.1-amzn-0

  • spark-rapids 0.2.0

  • TensorFlow versão 2.3.1

  • Zeppelin versão 0.9.0-preview1

  • Zookeeper versão 3.4.14

  • Conectores e drivers: DynamoDB Connector 4.16.0

Novos atributos
  • HBase: removida a renomeação na fase de confirmação e adicionado rastreamento persistente do HFile. Consulte Rastreamento persistente do HFile no Guia de lançamento do Amazon EMR.

  • HBase: enviado para backport Crie uma configuração que force o armazenamento em cache dos blocos na compactação.

  • PrestoDB: melhorias na remoção dinâmica de partições. O Join Reorder baseado em regras funciona em dados não particionados.

  • Políticas gerenciadas com escopo: para alinhamento com as práticas recomendadas da AWS, o Amazon EMR introduziu políticas gerenciadas padrão com escopo do EMR v2 como substitutas das políticas que serão descontinuadas. Consulte as políticas gerenciadas do Amazon EMR.

  • Status de suporte do serviço de metadados de instância (IMDS) V2: os componentes do Amazon EMR 6.2 ou posteriores usam IMDSv2 para todas as chamadas do IMDS. Para chamadas do IMDS no código da aplicação, você pode usar IMDSv1 e IMDSv2 ou configurar o IMDS para usar somente IMDSv2 para segurança adicional. Se você desabilitar o IMDSv1 em versões anteriores do Amazon EMR 6.x, ocorrerá uma falha na inicialização do cluster.

Alterações, melhorias e problemas resolvidos
  • Esta é uma versão para corrigir problemas com a escalabilidade do Amazon EMR quando ele não aumenta nem reduz verticalmente a escala de um cluster com êxito ou causa falhas na aplicação.

  • Corrigido um problema em que as solicitações de escalabilidade falhavam em um cluster grande e altamente utilizado quando os daemons do Amazon EMR no cluster estavam executando atividades de verificação de integridade, como a coleta do estado do nó do YARN e o estado do nó do HDFS. Isso estava acontecendo porque os daemons no cluster não conseguiam comunicar os dados do status de integridade de um nó aos componentes internos do Amazon EMR.

  • Aprimorados os daemons do EMR no cluster para rastrear corretamente os estados dos nós quando são reutilizados endereços IP para melhorar a confiabilidade durante operações de escalabilidade.

  • SPARK-29683. Corrigido um problema em que ocorriam falhas de trabalho durante a redução da escala verticalmente do cluster, pois o Spark presumia que todos os nós disponíveis estavam na lista de negação.

  • YARN-9011. Corrigido um problema em que ocorriam falhas de trabalho devido a uma condição de corrida na desativação do YARN quando o cluster tentava aumentar ou reduzir a escala verticalmente.

  • Corrigido problema com falhas de etapas ou tarefas durante a escalabilidade do cluster ao ser garantido que os estados dos nós fossem sempre consistentes entre os daemons do Amazon EMR no cluster e o YARN/HDFS.

  • Corrigido um problema em que operações de cluster, como redução de escala verticalmente e envio de etapas, falhavam para clusters do Amazon EMR habilitados com a autenticação Kerberos. Isso ocorreu porque o daemon do Amazon EMR no cluster não renovou o tíquete do Kerberos, que é necessário para a comunicação segura com o HDFS/YARN em execução no nó primário.

  • As versões mais recentes do Amazon EMR corrigem o problema com um limite menor de “Máximo de arquivos abertos” no AL2 antigo no Amazon EMR. As versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores do Amazon EMR agora incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”.

  • Spark: melhorias de performance no runtime do Spark.

Problemas conhecidos
  • O Amazon EMR 6.2 tem permissões incorretas definidas no arquivo /etc/cron.d/libinstance-controller-java no EMR 6.2.0. As permissões no arquivo são 645 (-rw-r--r-x), quando deveriam ser 644 (-rw-r--r--). Como resultado, a versão 6.2 do Amazon EMR não registra logs do estado da instância e o diretório /emr/instance-logs é vazio. Esse problema foi corrigido nas versões 6.3.0 e posteriores do Amazon EMR.

    Para contornar esse problema, execute o script a seguir como uma ação de bootstrap na inicialização do cluster.

    #!/bin/bash sudo chmod 644 /etc/cron.d/libinstance-controller-java
  • Para clusters de sub-rede privados do Amazon EMR 6.2.0 e 6.3.0, você não pode acessar a interface do usuário da Web do Ganglia. Você receberá um erro de “acesso negado (403)”. Outras interfaces do usuário da Web, como Spark, Hue, JupyterHub, Zeppelin, Livy e Tez, estão funcionando normalmente. O acesso à interface do usuário da Web do Ganglia em clusters de sub-redes públicas também está funcionando normalmente. Para resolver esse problema, reinicie o serviço httpd no nó primário com sudo systemctl restart httpd. Esse problema foi corrigido na versão 6.4.0 do Amazon EMR.

  • Há um problema no Amazon EMR 6.2.0 em que o httpd falha continuamente, fazendo com que o Ganglia fique indisponível. Você recebe a mensagem de erro “cannot connect to the server”. Para corrigir um cluster que já está em execução com esse problema, use SSH no nó primário do cluster e adicione a linha Listen 80 ao arquivo httpd.conf localizado em /etc/httpd/conf/httpd.conf. Esse problema foi corrigido na versão 6.3.0 do Amazon EMR.

  • O HTTPD apresenta falha nos clusters do EMR 6.2.0 quando é usada uma configuração de segurança. Isso faz com que a interface de usuário da aplicação Web do Ganglia fique indisponível. Para acessar a interface de usuário da aplicação Web do Ganglia, adicione Listen 80 ao arquivo /etc/httpd/conf/httpd.conf no nó primário do cluster. Para obter mais informações sobre como se conectar ao cluster, consulte Connect to the Primary Node Using SSH.

    Os Cadernos do EMR também não conseguem estabelecer uma conexão com clusters do EMR 6.2.0 quando você usa uma configuração de segurança. O caderno não conseguirá listar os kernels e enviar trabalhos do Spark. Em vez disso, recomendamos que você use os Cadernos do EMR com outra versão do Amazon EMR.

  • Limite inferior de “Máximo de arquivos abertos” no AL2 antigo [corrigido em versões mais recentes]. Versões do Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 e emr-6.2.0 são baseadas em versões mais antigas do Amazon Linux 2 (AL2), que têm uma configuração de ulimit inferior para “Máximo de arquivos abertos” quando clusters do Amazon EMR são criados com a AMI padrão. As versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores do Amazon EMR incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”. Versões com o limite inferior de arquivos abertos causam o erro “Muitos arquivos abertos” ao ser enviado um trabalho do Spark. Nas versões afetadas, a AMI padrão do Amazon EMR tem uma configuração de ulimit padrão de 4096 para “Máximo de arquivos abertos”, que é inferior ao limite de 65536 arquivos na AMI mais recente do Amazon Linux 2. A configuração inferior de ulimit para “Máximo de arquivos abertos” causa falhas em trabalhos do Spark quando o driver e o executor do Spark tentam abrir mais de 4096 arquivos. Para corrigir o problema, o Amazon EMR tem um script de ação de bootstrap (BA) que ajusta a configuração de ulimit na criação do cluster.

    Se você está usando uma versão mais antiga do Amazon EMR que não tem a correção permanente para esse problema, a solução alternativa a seguir permite que você defina explicitamente o ulimit instance-controller para um máximo de 65536 arquivos.

    Defina explicitamente um ulimit na linha de comando
    1. Edite /etc/systemd/system/instance-controller.service para adicionar os seguintes parâmetros à seção Serviço.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Reinicie o InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Defina um ulimit usando a ação de bootstrap (BA)

    Você também pode usar um script de ação de bootstrap (BA) para configurar o ulimit instance-controller para 65536 arquivos na criação do cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Importante

    O Amazon EMR 6.1.0 e 6.2.0 incluem um problema de performance que pode afetar criticamente todas as operações de inserção, upsert e exclusão do Hudi. Se você planeja usar o Hudi com o Amazon EMR 6.1.0 ou 6.2.0, entre em contato com o suporte da AWS para obter um RPM do Hudi com patch.

  • Importante

    Os clusters do EMR que executam imagens de máquina da Amazon (AMIs) do Amazon Linux ou do Amazon Linux 2 usam o comportamento padrão do Amazon Linux e não baixam nem instalam automaticamente atualizações importantes e críticas do kernel que exigem reinicialização. É o mesmo comportamento de outras instâncias do Amazon EC2 que executam a AMI padrão do Amazon Linux. Se novas atualizações de software do Amazon Linux que exigem reinicialização (como atualizações do kernel, NVIDIA e CUDA) forem disponibilizadas após o lançamento de uma versão do Amazon EMR, as instâncias de cluster do Amazon EMR que executam a AMI padrão não baixarão nem instalarão essas atualizações automaticamente. Para obter atualizações do kernel, você pode personalizar sua AMI do Amazon EMR para usar a AMI do Amazon Linux mais recente.

  • Os artefatos do Maven do Amazon EMR 6.2.0 não são publicados. Eles serão publicados com uma versão futura do Amazon EMR.

  • O rastreamento persistente do HFile que usa a tabela do sistema storefile do HBase não é compatível com o recurso de replicação da região do HBase. Para obter mais informações sobre a replicação da região do HBase, consulte Timeline-consistent high available reads.

  • Diferenças entre as versões de bucketing do Amazon EMR 6.x e do EMR 5.x Hive

    O EMR 5.x usa o OOS Apache Hive 2, enquanto o EMR 6.x usa o OOS Apache Hive 3. O Hive2 de código aberto usa o Bucketing versão 1, enquanto o Hive3 de código aberto usa o Bucketing versão 2. Essa diferença de versão de bucketing entre o Hive 2 (EMR 5.x) e o Hive 3 (EMR 6.x) significa que o hash de bucketing do Hive funciona de uma forma diferente. Veja o exemplo abaixo.

    A tabela a seguir é um exemplo criado no EMR 6.x e no EMR 5.x, respectivamente.

    -- Using following LOCATION in EMR 6.x CREATE TABLE test_bucketing (id INT, desc STRING) PARTITIONED BY (day STRING) CLUSTERED BY(id) INTO 128 BUCKETS LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/'; -- Using following LOCATION in EMR 5.x LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';

    Inserir os mesmos dados no EMR 6.x e no EMR 5.x.

    INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data'); INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');

    A verificação da localização do S3 mostra que o nome do arquivo de bucketing é diferente, pois a função de hash é diferente entre o EMR 6.x (Hive 3) e o EMR 5.x (Hive 2).

    [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/ 2020-10-21 20:35:16 13 000025_0 2020-10-21 20:35:22 14 000121_0 [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/ 2020-10-21 20:32:07 13 000066_0 2020-10-21 20:32:51 14 000072_0

    Você também pode ver a diferença de versão executando o comando a seguir na CLI do Hive no EMR 6.x. Observe que ele retorna a versão 2 do bucketing.

    hive> DESCRIBE FORMATTED test_bucketing; ... Table Parameters: bucketing_version 2 ...
  • Problema conhecido em clusters com vários nós primários e autenticação Kerberos

    Se você executar clusters com vários nós primários e autenticação Kerberos nas versões 5.20.0 e posteriores do Amazon EMR, poderá encontrar problemas nas operações de cluster, como redução da escala verticalmente ou envio de etapas depois que o cluster estiver em execução por algum tempo. O período depende do período de validade do tíquete do Kerberos que você definiu. O problema de redução da escala verticalmente afeta tanto as solicitações de redução automática quanto as de reduções explícitas que você enviou. Operações adicionais de cluster também podem ser afetadas.

    Solução:

    • SSH como usuário do hadoop para o nó primário de liderança do cluster do EMR com vários nós primários.

    • Execute o comando a seguir para renovar o tíquete do Kerberos para o usuário do hadoop.

      kinit -kt <keytab_file> <principal>

      Normalmente, o arquivo keytab está localizado em /etc/hadoop.keytab e a entidade principal está na forma de hadoop/<hostname>@<REALM>.

    nota

    Essa solução alternativa entrará em vigor durante o período de validade do tíquete do Kerberos. Essa duração é de 10 horas por padrão, mas pode ser configurada pelas definições do Kerberos. Você deve executar novamente o comando acima quando o tíquete do Kerberos expirar.

  • Quando você usa o Spark com a formatação de localização de partições do Hive para ler dados no Amazon S3 e executa o Spark nas versões 5.30.0 a 5.36.0 e 6.2.0 a 6.9.0 do Amazon EMR, pode encontrar um problema que impede que o cluster leia os dados corretamente. Isso poderá acontecer se suas partições tiverem todas as características a seguir:

    • Duas ou mais partições são verificadas na mesma tabela.

    • Pelo menos um caminho de diretório de partição é um prefixo de pelo menos outro caminho de diretório de partição, por exemplo, s3://bucket/table/p=a é um prefixo de s3://bucket/table/p=a b.

    • O primeiro caractere que segue o prefixo no outro diretório de partição tem um valor UTF-8 menor que o caractere / (U+002F). Por exemplo, o caractere de espaço (U+0020) que ocorre entre a e b em s3://bucket/table/p=a b se enquadra nessa categoria. Observe que existem 14 outros caracteres que não são de controle: !"#$%&‘()*+,-. Para obter mais informações, consulte Tabela de codificação UTF-8 e caracteres Unicode.

    Como solução alternativa para esse problema, defina a configuração spark.sql.sources.fastS3PartitionDiscovery.enabled como false na classificação spark-defaults.

Versões de componente 6.2.0

Os componentes que o Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos do Amazon EMR e instalados para processos e atributos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicações de big data na versão mais recente do Amazon EMR são geralmente a versão mais recente encontrada na comunidade. Disponibilizamos as versões da comunidade no Amazon EMR o mais rapidamente possível.

Alguns componentes no Amazon EMR diferem das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente da comunidade de código aberto denominado myapp-component com a versão 2.2 tiver sido alterado três vezes para inclusão em versões diferentes do Amazon EMR, sua versão será listada como 2.2-amzn-2.

Componente Version (Versão) Descrição
aws-sagemaker-spark-sdk1.4.1Spark SDK para o Amazon SageMaker
emr-ddb4.16.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies3.1.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.5.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-notebook-env1.0.0Ambiente Conda para bloco de anotações do emr, que inclui o jupyter enterprise gateway
emr-s3-dist-cp2.16.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emr-s3-select2.0.0EMR S3Select Connector
emrfs2.44.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.11.2Scripts do cliente da linha de comando e aplicativos do Apache Flink.
flink-jobmanager-config1.11.2Gerenciar recursos em nós do EMR para o Apache Flink JobManager.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client3.2.1-amzn-2Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-2O serviço de nível de nó do HDFS para armazenamento de blocos.
hadoop-hdfs-library3.2.1-amzn-2O cliente de linha de comando e biblioteca do HDFS
hadoop-hdfs-namenode3.2.1-amzn-2O serviço do HDFS para rastrear nomes de arquivos e locais de blocos.
hadoop-hdfs-journalnode3.2.1-amzn-2O serviço do HDFS para gerenciar o lançamento de arquivos do Hadoop em clusters de HA.
hadoop-httpfs-server3.2.1-amzn-2O endpoint de HTTP para as operações do HDFS.
hadoop-kms-server3.2.1-amzn-2O servidor de gerenciamento de chaves criptográficas baseado na API de KeyProvider do Hadoop.
hadoop-mapred3.2.1-amzn-2As bibliotecas do mecanismo de execução do MapReduce para a execução de aplicativos do MapReduce.
hadoop-yarn-nodemanager3.2.1-amzn-2O serviço do YARN para o gerenciamento de contêineres em um nó individual.
hadoop-yarn-resourcemanager3.2.1-amzn-2O serviço do YARN para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server3.2.1-amzn-2O serviço para recuperar informações atuais e históricas dos aplicativos do YARN.
hbase-hmaster2.2.6-amzn-0O serviço de um cluster do HBase responsável pela coordenação de regiões e execução de comandos administrativos.
hbase-region-server2.2.6-amzn-0O serviço que abrange uma ou mais regiões do HBase.
hbase-client2.2.6-amzn-0O cliente da linha de comando do HBase.
hbase-rest-server2.2.6-amzn-0O serviço que fornece um endpoint do HTTP RESTful para o HBase.
hbase-thrift-server2.2.6-amzn-0O serviço que fornece um endpoint do Thrift para o HBase.
hcatalog-client3.1.2-amzn-3O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server3.1.2-amzn-3O serviço que fornece a HCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server3.1.2-amzn-3O endpoint do HTTP que fornece uma interface REST para a HCatalog.
hive-client3.1.2-amzn-3O cliente da linha de comando do Hive.
hive-hbase3.1.2-amzn-3Cliente do Hive-hbase.
hive-metastore-server3.1.2-amzn-3O serviço de acesso à metastore do Hive, um repositório de semântica que armazena metadados do SQL nas operações do Hadoop.
hive-server23.1.2-amzn-3O serviço que aceita as consultas do Hive como solicitações da web.
hudi0.6.0-amzn-1Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência.
hudi-presto0.6.0-amzn-1Biblioteca de pacotes para executar o Presto com o Hudi.
hudi-prestosql0.6.0-amzn-1Biblioteca de pacotes para executar o PrestoSQL com o Hudi.
hudi-spark0.6.0-amzn-1Biblioteca de pacotes para executar o Spark com o Hudi.
hue-server4.8.0O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
jupyterhub1.1.0Servidor de vários usuários para blocos de anotações Jupyter
livy-server0.7.0-incubatingInterface REST para interagir com o Apache Spark
nginx1.12.1nginx [mecanismo x] é um servidor de proxy reverso e HTTP
mxnet1.7.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mariadb-server5.5.64+Servidor de banco de dados MariaDB.
nvidia-cuda10.1.243Drivers NVIDIA e toolkit CUDA
oozie-client5.2.0O cliente da linha de comando do Oozie.
oozie-server5.2.0O serviço que aceita solicitações de fluxo de trabalho do Oozie.
opencv4.4.0Biblioteca de Visão Computacional de Código Aberto.
phoenix-library5.0.0-HBase-2.0As bibliotecas do phoenix para servidor e cliente
phoenix-query-server5.0.0-HBase-2.0Um servidor leve que fornece acesso à JDBC, bem como buffers de protocolo e acesso no formato JSON à API do Avatica
presto-coordinator0.238.3-amzn-1O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.238.3-amzn-1O serviço que executa partes de uma consulta.
presto-client0.238.3-amzn-1Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
prestosql-coordinator343O serviço que aceita consultas e gerencia a execução de consultas entre os prestosql-workers.
prestosql-worker343O serviço que executa partes de uma consulta.
prestosql-client343Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
pig-client0.17.0O cliente da linha de comando do Pig.
r3.4.3O projeto R para computação estatística
ranger-kms-server2.0.0Sistema de gerenciamento de chaves Apache Ranger
spark-client3.0.1-amzn-0Os clientes da linha de comando do Spark.
spark-history-server3.0.1-amzn-0A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn3.0.1-amzn-0O mecanismo de execução em memória para o YARN.
spark-yarn-slave3.0.1-amzn-0As bibliotecas do Apache Spark necessárias para subordinados do YARN.
spark-rapids0.2.0Plugin do Nvidia Spark RAPIDS que acelera o Apache Spark com GPUs.
sqoop-client1.4.7O cliente da linha de comando do Apache Sqoop.
tensorflow2.3.1Biblioteca de software de código aberto TensorFlow para computação numérica de alto desempenho.
tez-on-yarn0.9.2O aplicativo e as bibliotecas do YARN para Tez.
webserver2.4.41+O servidor Apache HTTP.
zeppelin-server0.9.0-preview1O notebook baseado na web que permite um data analytics interativo.
zookeeper-server3.4.14O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.4.14O cliente da linha de comando do ZooKeeper.

Classificações de configuração 6.2.0

As classificações de configuração permitem que você personalize aplicações. Elas geralmente correspondem a um arquivo XML de configuração da aplicação, como hive-site.xml. Para ter mais informações, consulte Configurar aplicações.

Ocorrem ações de reconfiguração quando você especifica uma configuração para grupos de instâncias em um cluster em execução. O Amazon EMR só inicia ações de reconfiguração para as classificações que você modifica. Para ter mais informações, consulte Reconfigurar um grupo de instâncias de um cluster em execução.

Classificações do emr-6.2.0
Classificações Descrição Ações de reconfiguração

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

Restarts the ResourceManager service.

container-executor

Alterar os valores no arquivo container-executor.cfg do YARN do Hadoop.

Not available.

container-log4j

Altere os valores no arquivo container-log4j.properties do YARN do Hadoop.

Not available.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Alterar as configurações relacionadas ao docker.

Not available.

emrfs-site

Alterar as configurações do EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Alterar as configurações do flink-conf.yaml.

Not available.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

Not available.

flink-log4j-yarn-session

Alterar as configurações de log4j-yarn-session.properties no Flink.

Not available.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

Not available.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

Not available.

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

Not available.

hbase

As configurações administradas pelo Amazon EMR para o Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Alterar os valores no ambiente do HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Alterar os valores no arquivo hbase-log4j.properties do HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Altere os valores no arquivo hadoop-metrics2-hbase.properties do HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Alterar os valores no arquivo hbase-policy.xml do HBase.

Not available.

hbase-site

Alterar os valores no arquivo hbase-site.xml do HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configurar as zonas de criptografia do HDFS.

This classification should not be reconfigured.

hdfs-env

Alterar os valores no ambiente do HDFS.

Restarts Hadoop HDFS ZKFC.

hdfs-site

Alterar os valores no arquivo hdfs-site.xml do HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Alterar os valores no ambiente do HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Alterar os valores no jndi.properties do HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Alterar os valores no arquivo proto-hive-site.xml do HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Alterar os valores no ambiente do HCatalog WebHCat.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Alterar os valores no log4j2.properties do HCatalog WebHCat.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Alterar os valores no arquivo webhcat-site.xml do HCatalog WebHCat.

Restarts Hive WebHCat server.

hive

As configurações administradas pelo Amazon EMR para o Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

Not available.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

Not available.

hive-env

Alterar os valores no ambiente do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Alterar os valores no arquivo hive-exec-log4j2.properties do Hive.

Not available.

hive-llap-daemon-log4j2

Alterar os valores no arquivo llap-daemon-log4j2.properties do Hive.

Not available.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

Not available.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

Not available.

hue-ini

Alterar os valores no arquivo ini do Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Alterar os valores no ambiente do HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

Not available.

hadoop-kms-env

Alterar os valores no ambiente do Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

Not available.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Altere os valores no ambiente do Hudi.

Not available.

jupyter-notebook-conf

Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter.

Not available.

jupyter-hub-conf

Alterar os valores no arquivo jupyterhub_config.py de JupyterHubs.

Not available.

jupyter-s3-conf

Configurar a persistência do notebook Jupyter S3.

Not available.

jupyter-sparkmagic-conf

Altere os valores no arquivo config.json do Sparkmagic.

Not available.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

Restarts Livy Server.

livy-env

Alterar os valores no ambiente do Livy.

Restarts Livy Server.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

Restarts Livy Server.

mapred-env

Alterar os valores no ambiente do aplicativo MapReduce.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Alterar os valores no arquivo mapred-site.xml do aplicativo MapReduce.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Alterar os valores no ambiente do Oozie.

Restarts Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

Restarts Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

Not available.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

Not available.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

Not available.

pig-env

Alterar os valores no ambiente do Pig.

Not available.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

Restarts Oozie.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

Not available.

presto-log

Alterar os valores no arquivo log.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Alterar os valores no arquivo config.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

Not available.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Altere os valores no arquivo node.properties do Presto.

Not available.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

Not available.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

Not available.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

Not available.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

Not available.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

Not available.

presto-connector-memory

Alterar os valores no arquivo memory.properties do Presto.

Not available.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

Not available.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

Not available.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

Not available.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

Not available.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

Not available.

presto-connector-redshift

Alterar os valores no arquivo de propriedades redshift do Presto.

Not available.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

Not available.

presto-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Presto.

Not available.

prestosql-log

Alterar os valores no arquivo log.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Alterar os valores no arquivo config.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Altere os valores no arquivo presto-env.sh do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

Alterar os valores no arquivo node.properties do PrestoSQL.

Not available.

prestosql-connector-blackhole

Alterar os valores no arquivo blackhole.properties do PrestoSQL.

Not available.

prestosql-connector-cassandra

Alterar os valores no arquivo cassandra.properties do PrestoSQL.

Not available.

prestosql-connector-hive

Alterar os valores no arquivo hive.properties do PrestoSQL.

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

Alterar os valores no arquivo jmx.properties do PrestoSQL.

Not available.

prestosql-connector-kafka

Alterar os valores no arquivo kafka.properties do PrestoSQL.

Not available.

prestosql-connector-localfile

Alterar os valores no arquivo localfile.properties do PrestoSQL.

Not available.

prestosql-connector-memory

Alterar os valores no arquivo memory.properties do PrestoSQL.

Not available.

prestosql-connector-mongodb

Alterar os valores no arquivo mongodb.properties do PrestoSQL.

Not available.

prestosql-connector-mysql

Alterar os valores no arquivo mysql.properties do PrestoSQL.

Not available.

prestosql-connector-postgresql

Alterar os valores no arquivo postgresql.properties do PrestoSQL.

Not available.

prestosql-connector-raptor

Alterar os valores no arquivo raptor.properties do PrestoSQL.

Not available.

prestosql-connector-redis

Alterar os valores no arquivo redis.properties do PrestoSQL.

Not available.

prestosql-connector-redshift

Alterar os valores no arquivo de propriedades redshift do PrestoSQL.

Not available.

prestosql-connector-tpch

Alterar os valores no arquivo tpch.properties do PrestoSQL.

Not available.

prestosql-connector-tpcds

Alterar os valores no arquivo tpcds.properties do PrestoSQL.

Not available.

ranger-kms-dbks-site

Altere os valores no arquivo dbks-site.xml do Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Altere os valores no arquivo ranger-kms-site.xml do Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Altere os valores no ambiente do Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Altere os valores no arquivo kms-log4j.properties do Ranger KMS.

Not available.

ranger-kms-db-ca

Altere os valores do arquivo CA no S3 para conexão SSL do MySQL com o Ranger KMS.

Not available.

spark

As configurações administradas pelo Amazon EMR para o Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Alterar os valores no ambiente do Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

Not available.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Alterar os valores no ambiente do Sqoop.

Not available.

sqoop-oraoop-site

Alterar os valores no arquivo oraoop-site.xml do Sqoop OraOop.

Not available.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

Not available.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

Restart Oozie.

yarn-env

Alterar os valores no ambiente do YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Alterar os valores no arquivo yarn-site.xml do YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

Restarts Zeppelin.

zookeeper-config

Alterar os valores no arquivo zoo.cfg do ZooKeeper.

Restarts Zookeeper server.

zookeeper-log4j

Alterar os valores no arquivo log4j.properties do ZooKeeper.

Restarts Zookeeper server.