Amazon EMR versão 6.4.0 - Amazon EMR

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Amazon EMR versão 6.4.0

Versões 6.4.0 da aplicação

Os seguintes aplicativos são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin, e ZooKeeper.

A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).

Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-6.4.0 emr-6.3.1 emr-6.3.0 emr-6.2.1
AWS SDK para Java 1.12.311.11.9771.11.9771.11.880
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.13.11.12.11.12.11.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.42.2.62.2.62.2.6-amzn-0
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.8.0-amzn-00.7.0-amzn-00.7.0-amzn-00.6.0-amzn-1
Hue4.9.04.9.04.9.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.2.21.2.21.1.0
Livy0.7.10.7.00.7.00.7.0
MXNet1.8.01.7.01.7.01.7.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.0
Phoenix5.1.25.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0,254,10,245,10,245,10,238,3
Spark3.1.23.1.13.1.13.0.1
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.4.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (Em breve) SQL359350350343
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.5.73.4.143.4.143.4.14

Notas da versão 6.4.0

As notas de lançamento a seguir incluem informações sobre a EMR versão 6.4.0 da Amazon. As alterações são referentes à versão 6.3.0.

Data da versão inicial: 20 de setembro de 2021

Data da versão atualizada: 21 de março de 2022

Aplicações compatíveis
  • AWS SDK for Java versão 1.12.31

  • CloudWatch Sink versão 2.2.0

  • Conector do DynamoDB versão 4.16.0

  • EMRFSversão 2.47.0

  • Amazon EMR Goodies versão 3.2.0

  • Amazon EMR Kinesis Connector versão 3.5.0

  • Amazon EMR Record Server versão 2.1.0

  • Amazon EMR Scripts versão 2.5.0

  • Flink versão 1.13.1

  • Ganglia versão 3.7.2

  • AWS Glue Hive Metastore Client versão 3.3.0

  • Hadoop versão 3.2.1-amzn-4

  • HBaseversão 2.4.4-amzn-0

  • HBase-operator-tools 1.1.0

  • HCatalogversão 3.1.2-amzn-5

  • Hive versão 3.1.2-amzn-5

  • Hudi versão 0.8.0-amzn-0

  • Hue versão 4.9.0

  • JDKVersão Java Corretto-8.302.08.1 (compilação 1.8.0_302-b08)

  • JupyterHub versão 1.4.1

  • Livy versão 0.7.1-incubating

  • MXNetversão 1.8.0

  • Oozie versão 5.2.1

  • Phoenix versão 5.1.2

  • Pig versão 0.17.0

  • Presto versão 0.254.1-amzn-0

  • Trino versão 359

  • Apache Ranger KMS (criptografia transparente multi-master) versão 2.0.0

  • ranger-plugins 2.0.1-amzn-0

  • ranger-s3-plugin 1.2.0

  • SageMaker Spark SDK versão 1.4.1

  • Scala versão 2.12.10 (VM de servidor aberto de JDK 64 bits, Java 1.8.0_282)

  • Spark versão 3.1.2-amzn-0

  • spark-rapids 0.4.1

  • Sqoop versão 1.4.7

  • TensorFlow versão 2.4.1

  • Tez versão 0.9.2

  • Zeppelin versão 0.9.0

  • Zookeeper versão 3.5.7

  • Conectores e drivers: DynamoDB Connector 4.16.0

Novos atributos
  • [Escalabilidade gerenciada] Otimização de escalabilidade gerenciada de dados do Spark shuffle - Para EMR as versões 5.34.0 e posteriores da Amazon e as EMR versões 6.4.0 e posteriores, a escalabilidade gerenciada agora reconhece os dados do Spark shuffle (dados que o Spark redistribui entre partições para realizar operações específicas). Para obter mais informações sobre operações aleatórias, consulte Usando escalabilidade EMR gerenciada na Amazon no Guia de EMR Gerenciamento EMR da Amazon e no Guia de Programação do Spark.

  • Em clusters EMR Amazon habilitados para Apache Ranger, você pode usar o Apache SQL Spark para inserir dados ou atualizar as tabelas de metastore do Apache Hive usando, e. INSERT INTO INSERT OVERWRITE ALTER TABLE Ao usar ALTER TABLE com o SparkSQL, um local de partição deve ser o diretório filho de um local de tabela. Atualmente, EMR a Amazon não suporta a inserção de dados em uma partição em que a localização da partição seja diferente da localização da tabela.

  • Presto SQL foi renomeado para Trino.

  • Hive: a execução de SELECT consultas simples com LIMIT cláusula é acelerada interrompendo a execução da consulta assim que o número de registros mencionados na LIMIT cláusula for obtido. SELECTConsultas simples são consultas que não têm a cláusula GROUP BY/ORDERby ou consultas que não têm um estágio redutor. Por exemplo, SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>.

Controle de simultaneidade do Hudi
  • O Hudi agora oferece suporte ao Optimistic Concurrency Control (OCC), que pode ser aproveitado com operações de gravação, como UPSERT e INSERT para permitir alterações de vários gravadores na mesma tabela Hudi. Isso é no nível do arquivoOCC, então quaisquer dois commits (ou escritores) podem gravar na mesma tabela, se suas alterações não entrarem em conflito. Para obter mais informações, consulte o Controle de simultaneidade do Hudi.

  • EMROs clusters da Amazon têm o Zookeeper instalado, que pode ser usado como provedor de bloqueio para. OCC Para facilitar o uso desse recurso, os EMR clusters da Amazon têm as seguintes propriedades pré-configuradas:

    hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port> hoodie.write.lock.zookeeper.base_path=/hudi

    Para habilitarOCC, você precisa configurar as seguintes propriedades com suas opções de trabalho Hudi ou no nível do cluster usando as configurações da Amazon: EMR API

    hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
Monitoramento Hudi: CloudWatch integração com a Amazon para reportar Hudi Metrics
  • A Amazon EMR oferece suporte à publicação de Hudi Metrics na Amazon CloudWatch. Isso é habilitado com a definição das seguintes configurações necessárias:

    hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
  • A seguir, são mostradas as configurações opcionais do Hudi que você pode alterar:

    Configuração Descrição Valor

    hoodie.metrics.cloudwatch.report.period.seconds

    Frequência (em segundos) na qual reportar métricas para a Amazon CloudWatch

    O valor padrão é 60s, o que é adequado para a resolução padrão de um minuto oferecida pela Amazon CloudWatch

    hoodie.metrics.cloudwatch.metric.prefix

    Prefixo a ser adicionado ao nome de cada métrica

    O valor padrão está vazio (sem prefixo)

    hoodie.metrics.cloudwatch.namespace

    CloudWatch Namespace da Amazon sob o qual as métricas são publicadas

    O valor padrão é Hudi

    hoodie.metrics.cloudwatch. maxDatumsPerSolicitação

    Número máximo de dados a serem incluídos em uma solicitação à Amazon CloudWatch

    O valor padrão é 20, que é o mesmo que o CloudWatch padrão da Amazon

Suporte e melhorias nas configurações do Amazon EMR Hudi
  • Agora, os clientes podem aproveitar o recurso de EMR configurações API e reconfiguração para configurar as configurações do Hudi no nível do cluster. Foi introduzido um novo suporte de configuração baseado em arquivos via /etc/hudi/conf/hudi -defaults.conf nos moldes de outros aplicativos como Spark, Hive etc. EMR Configura alguns padrões para melhorar a experiência do usuário:

    hoodie.datasource.hive_sync.jdbcurl está configurado para o servidor Hive do cluster URL e não precisa mais ser especificado. Isso é particularmente útil ao executar um trabalho no modo de cluster do Spark, onde anteriormente era necessário especificar o IP EMR principal da Amazon.

    — configurações HBase específicas, que são úteis para usar o HBase índice com o Hudi.

    — Configuração específica do provedor de bloqueio do Zookeeper, conforme discutido em Controle de simultaneidade, o que facilita o uso do Controle de Concorrência Otimista (). OCC

  • Alterações adicionais foram introduzidas para reduzir o número de configurações que você precisa passar e inferir automaticamente sempre que possível:

    — A palavra-chave partitionBy pode ser usada para especificar a coluna de partição.

    — Ao habilitar o Hive Sync, não é mais obrigatório passar HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY. Esses valores podem ser deduzidos com base no nome da tabela Hudi e no campo de partição.

    — não é obrigatório passar KEYGENERATOR_CLASS_OPT_KEY, que pode ser inferido com base em casos mais simples de SimpleKeyGenerator e ComplexKeyGenerator.

Advertências do Hudi
  • O Hudi não permite execução vetorizada no Hive de tabelas Merge on Read (MoR - Mesclar na leitura) e Bootstrap. Por exemplo, count(*) apresenta falha com a tabela do Hudi em tempo real quando hive.vectorized.execution.enabled está definido como verdadeiro. Como solução alternativa, você pode desabilitar a leitura vetorizada configurando hive.vectorized.execution.enabled como false.

  • O suporte a vários gravadores não é compatível com o atributo de bootstrap do Hudi.

  • O Flink Streamer e o Flink SQL são recursos experimentais nesta versão. Esses atributos não são recomendados para uso em implantações de produção.

Alterações, melhorias e problemas resolvidos

Esta é uma versão para corrigir problemas com o Amazon EMR Scaling quando ele falha na escalabilidade ou redução de escala de um cluster com sucesso ou causa falhas no aplicativo.

  • Anteriormente, a reinicialização manual do gerenciador de recursos em um cluster multimestre fazia com que os daemons EMR no cluster da Amazon, como o Zookeeper, recarregassem todos os nós anteriormente desativados ou perdidos no arquivo znode do Zookeeper. Isso fez com que os limites padrão fossem excedidos em determinadas situações. A Amazon EMR agora remove os registros de nós desativados ou perdidos há mais de uma hora do arquivo do Zookeeper e os limites internos foram aumentados.

  • Corrigido um problema em que as solicitações de escalabilidade falhavam em um cluster grande e altamente utilizado quando os daemons no cluster da EMR Amazon estavam executando atividades de verificação de integridade, como coletar o estado do nó e o estado do YARN nó. HDFS Isso estava acontecendo porque os daemons no cluster não conseguiam comunicar os dados do status de saúde de um nó aos componentes internos da Amazon. EMR

  • Daemons EMR no cluster aprimorados para rastrear corretamente os estados dos nós quando os endereços IP são reutilizados para melhorar a confiabilidade durante as operações de escalabilidade.

  • SPARK-29683. Corrigido um problema em que ocorriam falhas de trabalho durante a redução da escala verticalmente do cluster, pois o Spark presumia que todos os nós disponíveis estavam na lista de negação.

  • YARN-9011. Corrigido um problema em que falhas de trabalho ocorriam devido a uma condição de corrida no YARN descomissionamento quando o cluster tentava aumentar ou diminuir a escala.

  • Foi corrigido o problema com falhas de etapas ou tarefas durante a escalabilidade do cluster, garantindo que os estados dos nós fossem sempre consistentes entre os EMR daemons no cluster da Amazon e/. YARN HDFS

  • Corrigido um problema em que operações de cluster, como redução de escala e envio de etapas, falhavam em EMR clusters da Amazon habilitados com a autenticação Kerberos. Isso ocorreu porque o daemon no EMR cluster da Amazon não renovou o tíquete Kerberos, que é necessário para se comunicar de forma segura com/em execução no nó primário. HDFS YARN

  • Configurando um cluster para corrigir problemas de desempenho do Apache YARN Timeline Server versões 1 e 1.5

    As versões 1 e 1.5 do Apache YARN Timeline Server podem causar problemas de desempenho com EMR clusters grandes e muito ativos, especialmente comyarn.resourcemanager.system-metrics-publisher.enabled=true, que é a configuração padrão na Amazon. EMR Um YARN Timeline Server v2 de código aberto resolve o problema de desempenho relacionado à escalabilidade do YARN Timeline Server.

    Outras soluções alternativas para esse problema incluem:

    • Configurando yarn.resourcemanager. system-metrics-publisher.enabled=false em yarn-site.xml.

    • Habilitar a correção para esse problema na criação de um cluster, conforme descrito abaixo.

    As seguintes EMR versões da Amazon contêm uma correção para esse problema de desempenho YARN do Timeline Server.

    EMR5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

    Para habilitar a correção em qualquer uma das EMR versões da Amazon especificadas acima, defina essas propriedades true em um JSON arquivo de configurações que é passado usando o parâmetro de aws emr create-cluster comando:--configurations file://./configurations.json. Ou habilite a correção usando a interface do usuário do console de reconfiguração.

    Exemplo de conteúdo do arquivo configurations.json:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • Os servidores Web HDFS e HTTPFs estão desativados por padrão. Você pode reativar a Web HDFS usando a configuração do Hadoop,. dfs.webhdfs.enabled O servidor HttpFS pode ser iniciado usando sudo systemctl start hadoop-httpfs.

  • HTTPSagora está habilitado por padrão para repositórios Amazon Linux. Se você estiver usando uma VPCE política do Amazon S3 para restringir o acesso a buckets específicos, deverá adicionar o novo bucket Amazon Linux ARN arn:aws:s3:::amazonlinux-2-repos-$region/* à sua política ($regionsubstitua pela região onde está o endpoint). Para obter mais informações, consulte esse tópico nos fóruns de AWS discussão. Anúncio: o Amazon Linux 2 agora suporta a capacidade de uso HTTPS ao se conectar a repositórios de pacotes.

  • Hive: o desempenho da consulta de gravação foi aprimorado ao permitir o uso de um diretório temporário ativado HDFS para o último trabalho. Os dados temporários do trabalho final são gravados no Amazon S3, e o desempenho é aprimorado porque os dados são movidos HDFS para o local final da tabela (Amazon S3) em vez de entre dispositivos Amazon S3. HDFS

  • Hive: melhoria do tempo de compilação de consultas em até 2,5 vezes com a remoção de partições de metastores do Glue.

  • Por padrão, quando UDFs os integrados são passados pelo Hive para o Hive Metastore Server, somente um subconjunto desses incorporados é UDFs passado para o Glue Metastore, já que o Glue suporta apenas operadores de expressão limitados. Se você definir hive.glue.partition.pruning.client=true, toda a remoção de partições ocorrerá no lado do cliente. Se você definir hive.glue.partition.pruning.server=true, toda a remoção de partições ocorrerá no lado do servidor.

Problemas conhecidos
  • As consultas Hue não funcionam no Amazon EMR 6.4.0 porque o servidor Apache Hadoop HTTPFs está desativado por padrão. Para usar o Hue na Amazon EMR 6.4.0, inicie manualmente o servidor HTTPFs no nó EMR primário da Amazon usando sudo systemctl start hadoop-httpfs ou use uma etapa da Amazon. EMR

  • O recurso Amazon EMR Notebooks usado com a representação de usuário do Livy não funciona porque o HTTPFs está desativado por padrão. Nesse caso, o EMR notebook não pode se conectar ao cluster que tem a representação Livy ativada. A solução alternativa é iniciar o servidor HTTPFs antes de conectar o EMR notebook ao cluster usando o. sudo systemctl start hadoop-httpfs

  • Na EMR versão 6.4.0 da Amazon, o Phoenix não oferece suporte ao componente de conectores Phoenix.

  • Para usar as ações do Spark com o Apache Oozie, você deve adicionar a seguinte configuração ao seu arquivo workflow.xml do Oozie. Caso contrário, várias bibliotecas críticas, como a Hadoop e a Hadoop, EMRFS estarão ausentes do classpath dos executores do Spark que o Oozie lança.

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • Quando você usa o Spark com a formatação de localização de partições do Hive para ler dados no Amazon S3 e executa o Spark nas EMR versões 5.30.0 a 5.36.0 e 6.2.0 a 6.9.0 da Amazon, você pode encontrar um problema que impede seu cluster de ler os dados corretamente. Isso poderá acontecer se suas partições tiverem todas as características a seguir:

    • Duas ou mais partições são verificadas na mesma tabela.

    • Pelo menos um caminho de diretório de partição é um prefixo de pelo menos outro caminho de diretório de partição, por exemplo, s3://bucket/table/p=a é um prefixo de s3://bucket/table/p=a b.

    • O primeiro caractere que segue o prefixo no outro diretório de partição tem um valor UTF -8 menor que o / caractere (U+002F). Por exemplo, o caractere de espaço (U+0020) que ocorre entre a e b em s3://bucket/table/p=a b se enquadra nessa categoria. Observe que existem 14 outros caracteres que não são de controle: !"#$%&‘()*+,-. Para obter mais informações, consulte a tabela de codificação UTF -8 e caracteres Unicode.

    Como solução alternativa para esse problema, defina a configuração spark.sql.sources.fastS3PartitionDiscovery.enabled como false na classificação spark-defaults.

Versões de componente 6.4.0

Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.

Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado myapp-component com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2.

Componente Versão Descrição
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies3.2.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.5.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-notebook-env1.3.0Ambiente Conda para bloco de anotações do emr, que inclui o jupyter enterprise gateway
emr-s3-dist-cp2.18.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emr-s3-select2.1.0EMRConector S3Select
emrfs2.47.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.13.1Scripts do cliente da linha de comando e aplicativos do Apache Flink.
flink-jobmanager-config1.13.1Gerenciando recursos em EMR nós para o Apache JobManager Flink.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client3.2.1-amzn-4Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-4HDFSserviço em nível de nó para armazenar blocos.
hadoop-hdfs-library3.2.1-amzn-4HDFScliente e biblioteca de linha de comando
hadoop-hdfs-namenode3.2.1-amzn-4HDFSserviço para rastrear nomes de arquivos e localizações de blocos.
hadoop-hdfs-journalnode3.2.1-amzn-4HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA.
hadoop-httpfs-server3.2.1-amzn-4HTTPendpoint para HDFS operações.
hadoop-kms-server3.2.1-amzn-4Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-4MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo.
hadoop-yarn-nodemanager3.2.1-amzn-4YARNserviço para gerenciar contêineres em um nó individual.
hadoop-yarn-resourcemanager3.2.1-amzn-4YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server3.2.1-amzn-4Serviço para recuperar informações atuais e históricas para YARN aplicativos.
hbase-hmaster2.4.4-amzn-0Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos.
hbase-region-server2.4.4-amzn-0Serviço para atender a uma ou mais HBase regiões.
hbase-client2.4.4-amzn-0HBasecliente de linha de comando.
hbase-rest-server2.4.4-amzn-0Serviço que fornece um RESTful HTTP endpoint paraHBase.
hbase-thrift-server2.4.4-amzn-0Serviço que fornece um endpoint Thrift para. HBase
hcatalog-client3.1.2-amzn-5O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server3.1.2-amzn-5Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server3.1.2-amzn-5HTTPendpoint fornecendo uma REST interface paraHCatalog.
hive-client3.1.2-amzn-5O cliente da linha de comando do Hive.
hive-hbase3.1.2-amzn-5Cliente do Hive-hbase.
hive-metastore-server3.1.2-amzn-5Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL
hive-server23.1.2-amzn-5O serviço que aceita as consultas do Hive como solicitações da web.
hudi0.8.0-amzn-0Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência.
hudi-presto0.8.0-amzn-0Biblioteca de pacotes para executar o Presto com o Hudi.
hudi-trino0.8.0-amzn-0Biblioteca de pacotes para execução do Presto com o Hudi.
hudi-spark0.8.0-amzn-0Biblioteca de pacotes para executar o Spark com o Hudi.
hue-server4.9.0O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
jupyterhub1.4.1Servidor de vários usuários para blocos de anotações Jupyter
livy-server0.7.1-incubatingRESTinterface para interagir com o Apache Spark
nginx1.12.1nginx [engine x] é HTTP um servidor proxy reverso
mxnet1.8.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mariadb-server5.5.68+Servidor de banco de dados MariaDB.
nvidia-cuda10.1.243Drivers NVIDIA e toolkit CUDA
oozie-client5.2.1O cliente da linha de comando do Oozie.
oozie-server5.2.1O serviço que aceita solicitações de fluxo de trabalho do Oozie.
opencv4.5.0Biblioteca de Visão Computacional de Código Aberto.
phoenix-library5.1.2As bibliotecas do phoenix para servidor e cliente
phoenix-query-server5.1.2Um servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API
presto-coordinator0.254.1-amzn-0O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.254.1-amzn-0O serviço que executa partes de uma consulta.
presto-client0.254.1-amzn-0Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
trino-coordinator359Serviço que aceita consultas e gerencia a execução de consultas entre trino-workers.
trino-worker359O serviço que executa partes de uma consulta.
trino-client359Cliente de linha de comando do Trino instalado em mestres de espera de um cluster de alta disponibilidade (HA) em que o servidor do Trino não é iniciado.
pig-client0.17.0O cliente da linha de comando do Pig.
r4.0.2O projeto R para computação estatística
ranger-kms-server2.0.0Sistema de gerenciamento de chaves Apache Ranger
spark-client3.1.2-amzn-0Os clientes da linha de comando do Spark.
spark-history-server3.1.2-amzn-0A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn3.1.2-amzn-0Mecanismo de execução na memória paraYARN.
spark-yarn-slave3.1.2-amzn-0Bibliotecas do Apache Spark necessárias para escravos. YARN
spark-rapids0.4.1RAPIDSPlugin Nvidia Spark que acelera o Apache Spark com o. GPUs
sqoop-client1.4.7O cliente da linha de comando do Apache Sqoop.
tensorflow2.4.1TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho.
tez-on-yarn0.9.2O YARN aplicativo e as bibliotecas tez.
webserver2.4.41+HTTPServidor Apache.
zeppelin-server0.9.0O notebook baseado na web que permite um data analytics interativo.
zookeeper-server3.5.7O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.5.7ZooKeeper cliente de linha de comando.

Classificações de configuração 6.4.0

As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml. Para obter mais informações, consulte Configurar aplicações.

Ocorrem ações de reconfiguração quando você especifica uma configuração para grupos de instâncias em um cluster em execução. A Amazon EMR só inicia ações de reconfiguração para as classificações que você modifica. Para obter mais informações, consulte Reconfigurar um grupo de instâncias de um cluster em execução.

Classificações do emr-6.4.0
Classificações Descrição Ações de reconfiguração

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

Restarts the ResourceManager service.

container-executor

Altere os valores no arquivo container-executor.cfg YARN do Hadoop.

Not available.

container-log4j

Altere os valores no arquivo container-log4j.properties YARN do Hadoop.

Not available.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Alterar as configurações relacionadas ao docker.

Not available.

emrfs-site

Altere EMRFS as configurações.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Alterar as configurações do flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

Restarts Flink history server.

flink-log4j-session

Alterar as configurações de log4j-yarn-session.properties no Flink para sessão do Kubernetes/Yarn.

Restarts Flink history server.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

Restarts Flink history server.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

Not available.

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

Not available.

hbase

Configurações EMR selecionadas pela Amazon para Apache. HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Mude os valores no HBase ambiente.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Altere os valores no arquivo HBase hbase-log4j.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Altere os valores no HBase arquivo hbase-policy.xml do.

Not available.

hbase-site

Altere os valores no HBase arquivo hbase-site.xml do.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configure zonas de HDFS criptografia.

This classification should not be reconfigured.

hdfs-env

Mude os valores no HDFS ambiente.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Altere os valores no HDFS hdfs-site.xml.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Mude os valores no HCatalog ambiente.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Altere os valores em HCatalog jndi.properties.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Altere os valores em HCatalog proto-hive-site .xml.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Altere os valores no ambiente ebHCat de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat

Restarts Hive WebHCat server.

hive

Configurações EMR selecionadas pela Amazon para o Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

Not available.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

Not available.

hive-env

Alterar os valores no ambiente do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Altere os valores no arquivo hive-exec-log 4j2.properties do Hive.

Not available.

hive-llap-daemon-log4j2

Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive.

Not available.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

Not available.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

Not available.

hue-ini

Alterar os valores no arquivo ini do Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Mude os valores no HTTPFS ambiente.

Restarts Hadoop Httpfs service.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

Not available.

hadoop-kms-env

Altere os valores no ambiente HadoopKMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

Not available.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Altere os valores no ambiente do Hudi.

Not available.

hudi-defaults

Alterar os valores no arquivo hudi-defaults.conf do Hudi.

Not available.

jupyter-notebook-conf

Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter.

Not available.

jupyter-hub-conf

Altere os valores no JupyterHubs arquivo jupyterhub_config.py do.

Not available.

jupyter-s3-conf

Configurar a persistência do notebook Jupyter S3.

Not available.

jupyter-sparkmagic-conf

Altere os valores no arquivo config.json do Sparkmagic.

Not available.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

Restarts Livy Server.

livy-env

Alterar os valores no ambiente do Livy.

Restarts Livy Server.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

Restarts Livy Server.

mapred-env

Altere os valores no ambiente do MapReduce aplicativo.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Alterar os valores no ambiente do Oozie.

Restarts Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

Restarts Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

Not available.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

Not available.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

Not available.

pig-env

Alterar os valores no ambiente do Pig.

Not available.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

Restarts Oozie.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

Not available.

presto-log

Alterar os valores no arquivo log.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Alterar os valores no arquivo config.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

Not available.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Altere os valores no arquivo node.properties do Presto.

Not available.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

Not available.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

Not available.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

Not available.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

Not available.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

Not available.

presto-connector-memory

Alterar os valores no arquivo memory.properties do Presto.

Not available.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

Not available.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

Not available.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

Not available.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

Not available.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

Not available.

presto-connector-redshift

Alterar os valores no arquivo de propriedades redshift do Presto.

Not available.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

Not available.

presto-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Presto.

Not available.

trino-log

Alterar os valores no arquivo log.properties do Trino.

Restarts Trino-Server (for Trino)

trino-config

Alterar os valores no arquivo config.properties do Trino.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Alterar os valores no arquivo password-authenticator.properties do Trino.

Restarts Trino-Server (for Trino)

trino-env

Alterar os valores no arquivo trino-env.sh do Trino.

Restarts Trino-Server (for Trino)

trino-node

Alterar os valores no arquivo node.properties do Trino.

Not available.

trino-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Trino.

Not available.

trino-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Trino.

Not available.

trino-connector-hive

Alterar os valores no arquivo hive.properties do Trino.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Alterar os valores no arquivo jmx.properties do Trino.

Not available.

trino-connector-kafka

Alterar os valores no arquivo kafka.properties do Trino.

Not available.

trino-connector-localfile

Alterar os valores no arquivo localfile.properties do Trino.

Not available.

trino-connector-memory

Alterar os valores no arquivo memory.properties do Trino.

Not available.

trino-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Trino.

Not available.

trino-connector-mysql

Alterar os valores no arquivo mysql.properties do Trino.

Not available.

trino-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Trino.

Not available.

trino-connector-raptor

Alterar os valores no arquivo raptor.properties do Trino.

Not available.

trino-connector-redis

Alterar os valores no arquivo redis.properties do Trino.

Not available.

trino-connector-redshift

Alterar os valores no arquivo redshift.properties do Trino.

Not available.

trino-connector-tpch

Alterar os valores no arquivo tpch.properties do Trino.

Not available.

trino-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Trino.

Not available.

ranger-kms-dbks-site

Altere os valores no arquivo dbks-site.xml do Ranger. KMS

Restarts Ranger KMS Server.

ranger-kms-site

Altere os valores no ranger-kms-site arquivo.xml do RangerKMS.

Restarts Ranger KMS Server.

ranger-kms-env

Altere os valores no KMS ambiente Ranger.

Restarts Ranger KMS Server.

ranger-kms-log4j

Altere os valores no arquivo kms-log4j.properties do Ranger. KMS

Not available.

ranger-kms-db-ca

Altere os valores do arquivo CA no S3 para Minha SQL SSL conexão com o RangerKMS.

Not available.

spark

Configurações EMR selecionadas pela Amazon para o Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Alterar os valores no ambiente do Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

Not available.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Alterar os valores no ambiente do Sqoop.

Not available.

sqoop-oraoop-site

Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop.

Not available.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

Not available.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

Restart Oozie and HiveServer2.

yarn-env

Mude os valores no YARN ambiente.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Altere os valores no YARN arquivo yarn-site.xml do.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

Restarts Zeppelin.

zeppelin-site

Alterar as definições da configuração em zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Altere os valores no ZooKeeper arquivo zoo.cfg do.

Restarts Zookeeper server.

zookeeper-log4j

Altere os valores no ZooKeeper arquivo log4j.properties.

Restarts Zookeeper server.