Amazon EMR versão 6.1.0 - Amazon EMR

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Amazon EMR versão 6.1.0

Versões 6.1.0 da aplicação

As seguintes aplicações são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin e ZooKeeper.

A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).

Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS SDK para Java 1.11.8281.11.8281.11.7111.11.711
Python 2,7, 3,72,7, 3,72,7, 3,72,7, 3,7
Scala 2.12.102.12.102.12.102.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0.2320.2320.2300.230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Notas da versão 6.1.0

As notas de lançamento a seguir incluem informações sobre a EMR versão 6.1.0 da Amazon. As alterações são referentes à versão 6.0.0.

Data da versão inicial: 4 de setembro de 2020

Data da última atualização: 15 de outubro de 2020

Aplicações compatíveis
  • AWS SDK for Java versão 1.11.828

  • Flink versão 1.11.0

  • Ganglia versão 3.7.2

  • Hadoop versão 3.2.1-amzn-1

  • HBaseversão 2.2.5

  • HBase-operator-tools 1.0.0

  • HCatalogversão 3.1.2-amzn-0

  • Hive versão 3.1.2-amzn-1

  • Hudi versão 0.5.2-incubating

  • Hue versão 4.7.1

  • JupyterHub versão 1.1.0

  • Livy versão 0.7.0

  • MXNetversão 1.6.0

  • Oozie versão 5.2.0

  • Phoenix versão 5.0.0

  • Presto versão 0.232

  • Presto SQL versão 3.38

  • Spark versão 3.0.0-amzn-0

  • TensorFlow versão 2.1.0

  • Zeppelin versão 0.9.0-preview1

  • Zookeeper versão 3.4.14

  • Conectores e drivers: DynamoDB Connector 4.14.0

Novos atributos
  • ARMOs tipos de instância são suportados a partir da Amazon EMR versão 5.30.0 e da Amazon EMR versão 6.1.0.

  • Os tipos de instância de uso geral M6g são suportados a partir das EMR versões 6.1.0 e 5.30.0 da Amazon. Para obter mais informações, consulte Tipos de instância compatíveis no Amazon EMR Management Guide.

  • O recurso de grupos de EC2 posicionamento é suportado a partir da EMR versão 5.23.0 da Amazon como uma opção para vários clusters de nós primários. Atualmente, somente os tipos de nós primários são compatíveis com o atributo grupo de posicionamento e a estratégia SPREAD é aplicada a estes nós primários. A estratégia SPREAD posiciona um pequeno grupo de instâncias em um hardware subjacente separado para evitar a perda de múltiplos nós primários em caso de falha de hardware. Para obter mais informações, consulte EMRIntegração com o EC2 Placement Group no Amazon EMR Management Guide.

  • Escalabilidade gerenciada — Com a EMR versão 6.1.0 da Amazon, você pode permitir que a escalabilidade EMR gerenciada da Amazon aumente ou diminua automaticamente o número de instâncias ou unidades em seu cluster com base na carga de trabalho. A Amazon avalia EMR continuamente as métricas do cluster para tomar decisões de escalabilidade que otimizem seus clusters em termos de custo e velocidade. O Managed Scaling também está disponível na Amazon EMR versão 5.30.0 e posterior, exceto 6.0.0. Para obter mais informações, consulte Scaling Cluster Resources no Amazon EMR Management Guide.

  • A SQL versão 338 do Presto é compatível com EMR 6.1.0. Para obter mais informações, consulte Presto.

    • O Presto SQL é suportado somente na EMR versão 6.1.0 e versões posteriores, não na EMR 6.0.0 ou 5.x. EMR

    • O nome da aplicação, Presto, continua a ser usado para instalar o PrestoDB em clusters. Para instalar o Presto SQL em clusters, use o nome PrestoSQL do aplicativo.

    • Você pode instalar o PrestoDB ou o SQL Presto, mas não pode instalar os dois em um único cluster. Se o PrestoDB e o SQL Presto forem especificados ao tentar criar um cluster, ocorrerá um erro de validação e a solicitação de criação do cluster falhará.

    • O Presto SQL é compatível com clusters single-master e multimaster. Em clusters com vários mestres, é necessário um metastore externo do Hive para executar o Presto ou o PrestoDB. SQL Consulte Aplicativos compatíveis em um EMR cluster com vários nós primários.

  • ECRsuporte à autenticação automática no Apache Hadoop e no Apache Spark com Docker: os usuários do Spark podem usar imagens do Docker Hub e do Amazon Elastic Container Registry (AmazonECR) para definir dependências de ambiente e biblioteca.

    Configure o Docker e execute aplicativos Spark com o Docker usando o Amazon 6.x. EMR

  • EMRsuporta ACID transações do Apache Hive: o Amazon EMR 6.1.0 adiciona suporte às transações do Hive para que esteja em conformidade com ACID as propriedades de um banco de dados. ACID Com esse atributo, você pode executar as operações INSERT, UPDATE, DELETE, e MERGE em tabelas gerenciadas do Hive com dados no Amazon Simple Storage Service (Amazon S3). Esse é um recurso fundamental para casos de uso como ingestão de streaming, atualização de dados, uso de atualizações em massa e mudanças lentas de dimensões. MERGE Para obter mais informações, incluindo exemplos de configuração e casos de uso, consulte Amazon EMR suporta transações do Apache Hive ACID.

Alterações, melhorias e problemas resolvidos
  • Esta é uma versão para corrigir problemas com o Amazon EMR Scaling quando ele falha na escalabilidade ou redução de escala de um cluster com sucesso ou causa falhas no aplicativo.

  • Corrigido um problema em que as solicitações de escalabilidade falhavam em um cluster grande e altamente utilizado quando os daemons no cluster da EMR Amazon estavam executando atividades de verificação de integridade, como coletar o estado do nó e o estado do YARN nó. HDFS Isso estava acontecendo porque os daemons no cluster não conseguiam comunicar os dados do status de saúde de um nó aos componentes internos da Amazon. EMR

  • Daemons EMR no cluster aprimorados para rastrear corretamente os estados dos nós quando os endereços IP são reutilizados para melhorar a confiabilidade durante as operações de escalabilidade.

  • SPARK-29683. Corrigido um problema em que ocorriam falhas de trabalho durante a redução da escala verticalmente do cluster, pois o Spark presumia que todos os nós disponíveis estavam na lista de negação.

  • YARN-9011. Corrigido um problema em que falhas de trabalho ocorriam devido a uma condição de corrida no YARN descomissionamento quando o cluster tentava aumentar ou diminuir a escala.

  • Foi corrigido o problema com falhas de etapas ou tarefas durante a escalabilidade do cluster, garantindo que os estados dos nós fossem sempre consistentes entre os EMR daemons no cluster da Amazon e/. YARN HDFS

  • Corrigido um problema em que operações de cluster, como redução de escala e envio de etapas, falhavam em EMR clusters da Amazon habilitados com a autenticação Kerberos. Isso ocorreu porque o daemon no EMR cluster da Amazon não renovou o tíquete Kerberos, que é necessário para se comunicar de forma segura com/em execução no nó primário. HDFS YARN

  • As EMR versões mais recentes da Amazon corrigem o problema com um limite menor de “Máximo de arquivos abertos” em relação aos mais antigos AL2 na AmazonEMR. As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores agora incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”.

  • O Apache Flink não é suportado no EMR 6.0.0, mas é suportado no EMR 6.1.0 com o Flink 1.11.0. Esta é a primeira versão do Flink a oficialmente oferecer suporte ao Hadoop 3. Consulte o Anúncio de versão do Apache Flink 1.11.0.

  • O Ganglia foi removido dos pacotes padrão EMR 6.1.0.

Problemas conhecidos
  • Limite inferior de “Máximo de arquivos abertos” em versões mais antigas AL2 [corrigido em versões mais recentes]. EMRLançamentos da Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 e emr-6.2.0 são baseados em versões mais antigas do Linux ofAmazon 2 ()AL2, que têm uma configuração de limite inferior para “Máximo de arquivos abertos” quando os clusters da Amazon são criados com o padrão. EMR AMI As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores incluem uma correção permanente com uma configuração maior de “Máximo de arquivos abertos”. Versões com o limite inferior de arquivos abertos causam o erro “Muitos arquivos abertos” ao ser enviado um trabalho do Spark. Nas versões afetadas, o padrão da Amazon AMI tem uma configuração EMR padrão de ulimit de 4096 para “Máximo de arquivos abertos”, que é inferior ao limite de 65536 arquivos no Linux 2. latestAmazon AMI A configuração inferior de ulimit para “Máximo de arquivos abertos” causa falhas em trabalhos do Spark quando o driver e o executor do Spark tentam abrir mais de 4096 arquivos. Para corrigir o problema, a Amazon EMR tem um script de ação de bootstrap (BA) que ajusta a configuração ulimit na criação do cluster.

    Se você estiver usando uma EMR versão mais antiga da Amazon que não tem a solução permanente para esse problema, a solução alternativa a seguir permite que você defina explicitamente o ulimit do controlador de instância para um máximo de 65536 arquivos.

    Defina explicitamente um ulimit na linha de comando
    1. Edite /etc/systemd/system/instance-controller.service para adicionar os seguintes parâmetros à seção Serviço.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Reiniciar InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Defina um ulimit usando a ação de bootstrap (BA)

    Você também pode usar um script de ação de bootstrap (BA) para configurar o ulimit instance-controller para 65536 arquivos na criação do cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Importante

    O Amazon EMR 6.1.0 e 6.2.0 incluem um problema de desempenho que pode afetar criticamente todas as operações de inserção, atualização e exclusão do Hudi. Se você planeja usar o Hudi com o Amazon EMR 6.1.0 ou 6.2.0, entre em contato com o AWS suporte para obter um Hudi corrigido. RPM

  • Se você definir uma configuração personalizada de coleta de lixo com spark.driver.extraJavaOptions espark.executor.extraJavaOptions, isso resultará na falha de inicialização do driver/executor com a versão EMR 6.1 devido à configuração conflitante da coleta de lixo. Com a EMR versão 6.1.0, você deve especificar uma configuração personalizada de coleta de lixo do Spark para drivers e executores com as propriedades e em vez disso. spark.driver.defaultJavaOptions spark.executor.defaultJavaOptions Leia mais em Apache Spark Runtime Environment e Configurando a coleta de lixo do Spark na Amazon 6.1.0. EMR

  • Usar o Pig com o Oozie (e dentro do Hue, já que o Hue usa ações do Oozie para executar scripts do Pig) gera um erro em que uma biblioteca nativa lzo não pode ser carregada. Essa mensagem de erro é informativa e não impede a execução do Pig.

  • Suporte de simultaneidade do Hudi: atualmente, o Hudi não é compatível com gravações simultâneas em uma única tabela do Hudi. Além disso, o Hudi reverte todas as alterações feitas por gravadores em andamento antes de permitir que um novo gravador seja iniciado. As gravações simultâneas podem interferir nesse mecanismo e introduzir condições de corrida, o que pode causar corrupção de dados. Você deve garantir que, como parte do seu fluxo de trabalho de processamento de dados, só exista um gravador do Hudi operando em uma tabela do Hudi em qualquer instante. O Hudi permite vários leitores simultâneos operando na mesma tabela do Hudi.

  • Problema conhecido em clusters com vários nós primários e autenticação Kerberos

    Se você executar clusters com vários nós primários e autenticação Kerberos nas EMR versões 5.20.0 e posteriores da Amazon, poderá encontrar problemas com operações de cluster, como redução de escala ou envio de etapas, depois que o cluster estiver em execução por algum tempo. O período depende do período de validade do tíquete do Kerberos que você definiu. O problema de redução da escala verticalmente afeta tanto as solicitações de redução automática quanto as de reduções explícitas que você enviou. Operações adicionais de cluster também podem ser afetadas.

    Solução:

    • SSHcomo hadoop usuário do nó primário principal do EMR cluster com vários nós primários.

    • Execute o comando a seguir para renovar o tíquete do Kerberos para o usuário do hadoop.

      kinit -kt <keytab_file> <principal>

      Normalmente, o arquivo keytab está localizado em /etc/hadoop.keytab e a entidade principal está na forma de hadoop/<hostname>@<REALM>.

    nota

    Essa solução alternativa entrará em vigor durante o período de validade do tíquete do Kerberos. Essa duração é de 10 horas por padrão, mas pode ser configurada pelas definições do Kerberos. Você deve executar novamente o comando acima quando o tíquete do Kerberos expirar.

  • Há um problema no Amazon EMR 6.1.0 que afeta os clusters que executam o Presto. Depois de um longo período (dias), o cluster pode gerar erros, como “su: failed to execute /bin/bash: Resource temporarily unavailable” ou “shell request failed on channel 0”. Esse problema é causado por um EMR processo interno da Amazon (InstanceController) que está gerando muitos processos leves (LWP), o que acaba fazendo com que o usuário do Hadoop exceda o limite de nproc. Isso impede que o usuário abra processos adicionais. A solução para esse problema é atualizar para EMR 6.2.0.

Versões de componente 6.1.0

Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.

Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado myapp-component com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2.

Componente Version (Versão) Descrição
aws-sagemaker-spark-sdk1.3.0Amazon SageMaker Spark SDK
emr-ddb4.14.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies3.1.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.5.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-s3-dist-cp2.14.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emr-s3-select2.0.0EMRConector S3Select
emrfs2.42.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.11.0Scripts do cliente da linha de comando e aplicativos do Apache Flink.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client3.2.1-amzn-1Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-1HDFSserviço em nível de nó para armazenar blocos.
hadoop-hdfs-library3.2.1-amzn-1HDFScliente e biblioteca de linha de comando
hadoop-hdfs-namenode3.2.1-amzn-1HDFSserviço para rastrear nomes de arquivos e localizações de blocos.
hadoop-hdfs-journalnode3.2.1-amzn-1HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA.
hadoop-httpfs-server3.2.1-amzn-1HTTPendpoint para HDFS operações.
hadoop-kms-server3.2.1-amzn-1Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-1MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo.
hadoop-yarn-nodemanager3.2.1-amzn-1YARNserviço para gerenciar contêineres em um nó individual.
hadoop-yarn-resourcemanager3.2.1-amzn-1YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server3.2.1-amzn-1Serviço para recuperar informações atuais e históricas para YARN aplicativos.
hbase-hmaster2.2.5Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos.
hbase-region-server2.2.5Serviço para atender a uma ou mais HBase regiões.
hbase-client2.2.5HBasecliente de linha de comando.
hbase-rest-server2.2.5Serviço que fornece um RESTful HTTP endpoint paraHBase.
hbase-thrift-server2.2.5Serviço que fornece um endpoint Thrift para. HBase
hcatalog-client3.1.2-amzn-2O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server3.1.2-amzn-2Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server3.1.2-amzn-2HTTPendpoint fornecendo uma REST interface paraHCatalog.
hive-client3.1.2-amzn-2O cliente da linha de comando do Hive.
hive-hbase3.1.2-amzn-2Cliente do Hive-hbase.
hive-metastore-server3.1.2-amzn-2Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL
hive-server23.1.2-amzn-2O serviço que aceita as consultas do Hive como solicitações da web.
hudi0.5.2-incubating-amzn-2Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência.
hudi-presto0.5.2-incubating-amzn-2Biblioteca de pacotes para executar o Presto com o Hudi.
hudi-prestosql0.5.2-incubating-amzn-2Biblioteca de pacotes para executar o Presto SQL com o Hudi.
hudi-spark0.5.2-incubating-amzn-2Biblioteca de pacotes para executar o Spark com o Hudi.
hue-server4.7.1O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
jupyterhub1.1.0Servidor de vários usuários para blocos de anotações Jupyter
livy-server0.7.0-incubatingRESTinterface para interagir com o Apache Spark
nginx1.12.1nginx [engine x] é HTTP um servidor proxy reverso
mxnet1.6.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mariadb-server5.5.64+Servidor de banco de dados MariaDB.
nvidia-cuda9.2.88Drivers NVIDIA e toolkit CUDA
oozie-client5.2.0O cliente da linha de comando do Oozie.
oozie-server5.2.0O serviço que aceita solicitações de fluxo de trabalho do Oozie.
opencv4.3.0Biblioteca de Visão Computacional de Código Aberto.
phoenix-library5.0.0- HBase -2,0As bibliotecas do phoenix para servidor e cliente
phoenix-query-server5.0.0- HBase -2,0Um servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API
presto-coordinator0.232O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.232O serviço que executa partes de uma consulta.
presto-client0.232Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
prestosql-coordinator338O serviço que aceita consultas e gerencia a execução de consultas entre os prestosql-workers.
prestosql-worker338O serviço que executa partes de uma consulta.
prestosql-client338Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
pig-client0.17.0O cliente da linha de comando do Pig.
r3.4.3O projeto R para computação estatística
ranger-kms-server2.0.0Sistema de gerenciamento de chaves Apache Ranger
spark-client3.0.0-amzn-0Os clientes da linha de comando do Spark.
spark-history-server3.0.0-amzn-0A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn3.0.0-amzn-0Mecanismo de execução na memória paraYARN.
spark-yarn-slave3.0.0-amzn-0Bibliotecas do Apache Spark necessárias para escravos. YARN
sqoop-client1.4.7O cliente da linha de comando do Apache Sqoop.
tensorflow2.1.0TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho.
tez-on-yarn0.9.2O YARN aplicativo e as bibliotecas tez.
webserver2.4.41+HTTPServidor Apache.
zeppelin-server0.9.0-preview1O notebook baseado na web que permite a análise de dados interativa.
zookeeper-server3.4.14O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.4.14ZooKeeper cliente de linha de comando.

Classificações de configuração 6.1.0

As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml. Para ter mais informações, consulte Configurar aplicações.

Classificações do emr-6.1.0
Classificações Descrição

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

container-executor

Altere os valores no arquivo container-executor.cfg YARN do Hadoop.

container-log4j

Altere os valores no arquivo container-log4j.properties YARN do Hadoop.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

emrfs-site

Altere EMRFS as configurações.

flink-conf

Alterar as configurações do flink-conf.yaml.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

flink-log4j-yarn-session

Altere as configurações do Flink log4 j-yarn-session .properties.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

hbase

Configurações EMR selecionadas pela Amazon para Apache. HBase

hbase-env

Mude os valores no HBase ambiente.

hbase-log4j

Altere os valores no arquivo HBase hbase-log4j.properties.

hbase-metrics

Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do.

hbase-policy

Altere os valores no HBase arquivo hbase-policy.xml do.

hbase-site

Altere os valores no HBase arquivo hbase-site.xml do.

hdfs-encryption-zones

Configure zonas de HDFS criptografia.

hdfs-env

Mude os valores no HDFS ambiente.

hdfs-site

Altere os valores no HDFS hdfs-site.xml.

hcatalog-env

Mude os valores no HCatalog ambiente.

hcatalog-server-jndi

Altere os valores em HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Altere os valores em HCatalog proto-hive-site .xml.

hcatalog-webhcat-env

Altere os valores no ambiente ebHCat de HCatalog W.

hcatalog-webhcat-log4j2

Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat

hive

Configurações EMR selecionadas pela Amazon para o Apache Hive.

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

hive-env

Alterar os valores no ambiente do Hive.

hive-exec-log4j2

Altere os valores no arquivo hive-exec-log 4j2.properties do Hive.

hive-llap-daemon-log4j2

Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

hue-ini

Alterar os valores no arquivo ini do Hue

httpfs-env

Mude os valores no HTTPFS ambiente.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

hadoop-kms-env

Altere os valores no ambiente HadoopKMS.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

hudi-env

Altere os valores no ambiente do Hudi.

jupyter-notebook-conf

Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter.

jupyter-hub-conf

Altere os valores no JupyterHubs arquivo jupyterhub_config.py do.

jupyter-s3-conf

Configurar a persistência do notebook Jupyter S3.

jupyter-sparkmagic-conf

Altere os valores no arquivo config.json do Sparkmagic.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

livy-env

Alterar os valores no ambiente do Livy.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

mapred-env

Altere os valores no ambiente do MapReduce aplicativo.

mapred-site

Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo.

oozie-env

Alterar os valores no ambiente do Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

pig-env

Alterar os valores no ambiente do Pig.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

presto-log

Alterar os valores no arquivo log.properties do Presto.

presto-config

Alterar os valores no arquivo config.properties do Presto.

presto-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

presto-node

Altere os valores no arquivo node.properties do Presto.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

presto-connector-memory

Alterar os valores no arquivo memory.properties do Presto.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

presto-connector-redshift

Alterar os valores no arquivo de propriedades redshift do Presto.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

presto-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Presto.

prestosql-log

Alterar os valores no arquivo log.properties do Presto.

prestosql-config

Alterar os valores no arquivo config.properties do Presto.

prestosql-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

prestosql-env

Altere os valores no arquivo presto-env.sh do Presto.

prestosql-node

Altere os valores no arquivo SQL node.properties do Presto.

prestosql-connector-blackhole

Altere os valores no arquivo SQL blackhole.properties do Presto.

prestosql-connector-cassandra

Altere os valores no arquivo SQL cassandra.properties do Presto.

prestosql-connector-hive

Altere os valores no arquivo SQL hive.properties do Presto.

prestosql-connector-jmx

Altere os valores no arquivo SQL jmx.properties do Presto.

prestosql-connector-kafka

Altere os valores no arquivo SQL kafka.properties do Presto.

prestosql-connector-localfile

Altere os valores no arquivo SQL localfile.properties do Presto.

prestosql-connector-memory

Altere os valores no arquivo SQL memory.properties do Presto.

prestosql-connector-mongodb

Altere os valores no arquivo SQL mongodb.properties do Presto.

prestosql-connector-mysql

Altere os valores no arquivo SQL mysql.properties do Presto.

prestosql-connector-postgresql

Altere os valores no arquivo SQL postgresql.properties do Presto.

prestosql-connector-raptor

Altere os valores no arquivo SQL raptor.properties do Presto.

prestosql-connector-redis

Altere os valores no arquivo SQL redis.properties do Presto.

prestosql-connector-redshift

Altere os valores no arquivo SQL redshift.properties do Presto.

prestosql-connector-tpch

Altere os valores no arquivo SQL tpch.properties do Presto.

prestosql-connector-tpcds

Altere os valores no arquivo SQL tpcds.properties do Presto.

ranger-kms-dbks-site

Altere os valores no arquivo dbks-site.xml do Ranger. KMS

ranger-kms-site

Altere os valores no ranger-kms-site arquivo.xml do RangerKMS.

ranger-kms-env

Altere os valores no KMS ambiente Ranger.

ranger-kms-log4j

Altere os valores no arquivo kms-log4j.properties do Ranger. KMS

ranger-kms-db-ca

Altere os valores do arquivo CA no S3 para Minha SQL SSL conexão com o RangerKMS.

spark

Configurações EMR selecionadas pela Amazon para o Apache Spark.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

spark-env

Alterar os valores no ambiente do Spark.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

sqoop-env

Alterar os valores no ambiente do Sqoop.

sqoop-oraoop-site

Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

yarn-env

Mude os valores no YARN ambiente.

yarn-site

Altere os valores no YARN arquivo yarn-site.xml do.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

zookeeper-config

Altere os valores no ZooKeeper arquivo zoo.cfg do.

zookeeper-log4j

Altere os valores no ZooKeeper arquivo log4j.properties.