As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Versão 5.30.0 do Amazon EMR
Versões 5.30.0 da aplicação
Essa versão inclui os seguintes aplicativos: Flink
A tabela abaixo lista as versões das aplicações disponíveis nesta versão do Amazon EMR e as versões de aplicações nas três versões anteriores do Amazon EMR (quando aplicável).
Para obter um histórico abrangente das versões das aplicações de cada versão do Amazon EMR, consulte os seguintes tópicos:
emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | |
---|---|---|---|---|
AWS SDK for Java | 1.11.759 | 1.11.682 | 1.11.659 | 1.11.659 |
Python | 2.7, 3.7 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 |
Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 |
HCatalog | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 |
Hadoop | 2.8.5 | 2.8.5 | 2.8.5 | 2.8.5 |
Hive | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 |
Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |
Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.6.0 | 0.6.0 | 0.6.0 |
MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 |
Phoenix | 4.14.3 | 4.14.3 | 4.14.3 | 4.14.3 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.232 | 0.227 | 0.227 | 0.227 |
Spark | 2.4.5 | 2.4.4 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notas da versão 5.30.0
As notas da versão a seguir incluem informações para a versão 5.30.0 do Amazon EMR. As alterações são referentes à versão 5.29.0.
Data da versão inicial: 13 de maio de 2020
Data da última atualização: 25 de junho de 2020
Atualizações
Atualizado para AWS SDK for Java a versão 1.11.759
SDK do Amazon SageMaker Spark atualizado para a versão 1.3.0
Atualização do EMR Record Server para a versão 1.6.0
Atualização do Flink para a versão 1.10.0
Atualização do Ganglia para a versão 3.7.2
Atualizado HBase para a versão 1.4.13
Atualização do Hudi para a versão 0.5.2-incubating
Atualização do Hue para a versão 4.6.0
Atualizado JupyterHub para a versão 1.1.0
Atualização do Livy para a versão 0.7.0-incubating
Atualização do Oozie para a versão 5.2.0
Atualização do Presto para a versão 0.232
Atualização do Spark para a versão 2.4.5
Atualização de conectores e drivers: Amazon Glue Connector 1.12.0; Amazon Kinesis Connector 3.5.0; EMR DynamoDB Connector 4.14.0
Novos recursos
Cadernos do EMR: quando usados com clusters do EMR criados com a versão 5.30.0, os kernels dos Cadernos do EMR são executados no cluster. Isso melhora o desempenho do bloco de anotações e permite que instalar e personalizar kernels. Você também pode instalar bibliotecas Python no nó primário do cluster. Para obter mais informações, consulte Instalar e usar kernels e bibliotecas no EMR Management Guide.
Ajuste de escala gerenciado: com as versões 5.30.0 e posteriores do Amazon EMR, é possível habilitar o ajuste de escala gerenciado pelo EMR para aumentar ou diminuir automaticamente o número de instâncias ou unidades no cluster com base na workload. O Amazon EMR avalia continuamente as métricas do cluster para tomar decisões de ajuste de escala que otimizam os clusters em termos de custo e velocidade. Para obter mais informações, consulte Escalar recursos de cluster no Guia de gerenciamento do Amazon EMR.
Criptografe arquivos de log armazenados no Amazon S3 — Com o Amazon EMR versão 5.30.0 e posterior, você pode criptografar arquivos de log armazenados no Amazon S3 com uma chave gerenciada pelo cliente. AWS KMS Para obter mais informações, consulte Encrypt log files stored in Amazon S3 no Guia de gerenciamento do Amazon EMR.
Suporte ao Amazon Linux 2: nas versões 5.30.0 e posteriores do EMR, o EMR usa o sistema operacional Amazon Linux 2. A nova personalização AMIs (Amazon Machine Image) deve ser baseada na Amazon Linux 2 AMI. Para obter mais informações, consulte Usando uma AMI personalizada.
Escalabilidade automática tranquila do Presto: os clusters do EMR que usam a versão 5.30.0 podem ser definidos com um período limite de ajuste de escala automático que dá tempo às tarefas do Presto para concluir a execução antes do nó delas ser desativado. Para obter mais informações, consulte Usar a escalabilidade automática do Presto com desativação tranquila.
Criação de instância de frota com nova opção de estratégia de alocação: uma nova opção de estratégia de alocação está disponível nas versões 5.12.1 e posteriores do EMR. Ele oferece provisionamento de cluster mais rápido, alocação de spot mais precisa e menos interrupção de instâncias spot. São necessárias atualizações para perfis de serviço do EMR não padrão. Consulte Configurar frotas de instâncias.
Comandos sudo systemctl stop e sudo systemctl start: nas versões 5.30.0 e posteriores do EMR, que usam o sistema operacional Amazon Linux 2, o EMR usa os comandos
sudo systemctl stop
esudo systemctl start
para reiniciar serviços. Para obter mais informações, consulte Como reinicio um serviço no Amazon EMR?.
Alterações, melhorias e problemas resolvidos
O EMR versão 5.30.0 não instala o Ganglia por padrão. É possível selecionar explicitamente o Ganglia para ser instalado ao criar um cluster.
Otimizações do desempenho do Spark
Otimizações do desempenho do Presto
O Python 3 é o padrão para as versões 5.30.0 e posteriores do Amazon EMR.
O grupo de segurança gerenciado padrão para acesso ao serviço em sub-redes privadas foi atualizado com novas regras. Se você usar um grupo de segurança personalizado para acesso ao serviço, será necessário incluir as mesmas regras do grupo de segurança gerenciado padrão. Para obter mais informações, consulte Grupo de segurança gerenciado pelo Amazon EMR para acesso ao serviço (sub-redes privadas). Se você usar um perfil de serviço personalizado para o Amazon EMR, será necessário conceder permissão para
ec2:describeSecurityGroups
de modo que o EMR possa validar se os grupos de segurança são criados corretamente. Se você usar oEMR_DefaultRole
, essa permissão já estará incluída na política gerenciada padrão.
Problemas conhecidos
-
Limite inferior de “Máximo de arquivos abertos” em versões mais antigas AL2 [corrigido em versões mais recentes]. Versões do Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 e emr-6.2.0 são baseadas em versões mais antigas do Amazon Linux 2 (), que AL2 têm uma configuração de limite inferior para “Máximo de arquivos abertos” quando clusters do Amazon EMR são criados com a AMI padrão. As versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores do Amazon EMR incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”. Versões com o limite inferior de arquivos abertos causam o erro “Muitos arquivos abertos” ao ser enviado um trabalho do Spark. Nas versões afetadas, a AMI padrão do Amazon EMR tem uma configuração de ulimit padrão de 4096 para “Máximo de arquivos abertos”, que é inferior ao limite de 65536 arquivos na AMI mais recente do Amazon Linux 2. A configuração inferior de ulimit para “Máximo de arquivos abertos” causa falhas em trabalhos do Spark quando o driver e o executor do Spark tentam abrir mais de 4096 arquivos. Para corrigir o problema, o Amazon EMR tem um script de ação de bootstrap (BA) que ajusta a configuração de ulimit na criação do cluster.
Se você está usando uma versão mais antiga do Amazon EMR que não tem a correção permanente para esse problema, a solução alternativa a seguir permite que você defina explicitamente o ulimit instance-controller para um máximo de 65536 arquivos.
Defina explicitamente um ulimit na linha de comando
Edite
/etc/systemd/system/instance-controller.service
para adicionar os seguintes parâmetros à seção Serviço.LimitNOFILE=65536
LimitNPROC=65536
Reiniciar InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Defina um ulimit usando a ação de bootstrap (BA)
Você também pode usar um script de ação de bootstrap (BA) para configurar o ulimit instance-controller para 65536 arquivos na criação do cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
Ajuste de escala gerenciado
As operações de ajuste de escala gerenciado nos clusters das versões 5.30.0 e 5.30.1 sem o Presto instalado podem causar falhas na aplicação ou fazer com que um grupo de instâncias ou uma frota de instâncias uniforme permaneça no estado
ARRESTED
, sobretudo quando uma operação de redução da escala verticalmente logo é seguida por uma operação de aumento da escala verticalmente.Como solução alternativa, escolha o Presto como uma aplicação a ser instalada ao criar um cluster com as versões 5.30.0 e 5.30.1 do Amazon EMR, mesmo que o trabalho não exija o Presto.
-
Problema conhecido em clusters com vários nós primários e autenticação Kerberos
Se você executar clusters com vários nós primários e autenticação Kerberos nas versões 5.20.0 e posteriores do Amazon EMR, poderá encontrar problemas nas operações de cluster, como redução da escala verticalmente ou envio de etapas depois que o cluster estiver em execução por algum tempo. O período depende do período de validade do tíquete do Kerberos que você definiu. O problema de redução da escala verticalmente afeta tanto as solicitações de redução automática quanto as de reduções explícitas que você enviou. Operações adicionais de cluster também podem ser afetadas.
Solução:
-
SSH como usuário do
hadoop
para o nó primário de liderança do cluster do EMR com vários nós primários. -
Execute o comando a seguir para renovar o tíquete do Kerberos para o usuário do
hadoop
.kinit -kt <keytab_file> <principal>
Normalmente, o arquivo keytab está localizado em
/etc/hadoop.keytab
e a entidade principal está na forma dehadoop/<hostname>@<REALM>
.
nota
Essa solução alternativa entrará em vigor durante o período de validade do tíquete do Kerberos. Essa duração é de 10 horas por padrão, mas pode ser configurada pelas definições do Kerberos. Você deve executar novamente o comando acima quando o tíquete do Kerberos expirar.
-
O mecanismo de banco de dados padrão para o Hue 4.6.0 é SQLite, o que causa problemas quando você tenta usar o Hue com um banco de dados externo. Para corrigir isso, defina
engine
na sua classificação de configuraçãohue-ini
comomysql
. Esse problema foi corrigido na versão 5.30.1 do Amazon EMR.Quando você usa o Spark com a formatação de localização de partições do Hive para ler dados no Amazon S3 e executa o Spark nas versões 5.30.0 a 5.36.0 e 6.2.0 a 6.9.0 do Amazon EMR, pode encontrar um problema que impede que o cluster leia os dados corretamente. Isso poderá acontecer se suas partições tiverem todas as características a seguir:
-
Duas ou mais partições são verificadas na mesma tabela.
-
Pelo menos um caminho de diretório de partição é um prefixo de pelo menos outro caminho de diretório de partição, por exemplo,
s3://bucket/table/p=a
é um prefixo des3://bucket/table/p=a b
. -
O primeiro caractere que segue o prefixo no outro diretório de partição tem um valor UTF-8 menor que o caractere
/
(U+002F). Por exemplo, o caractere de espaço (U+0020) que ocorre entre a e b ems3://bucket/table/p=a b
se enquadra nessa categoria. Observe que existem 14 outros caracteres que não são de controle:!"#$%&‘()*+,-
. Para obter mais informações, consulte Tabela de codificação UTF-8 e caracteres Unicode.
Como solução alternativa para esse problema, defina a configuração
spark.sql.sources.fastS3PartitionDiscovery.enabled
comofalse
na classificaçãospark-defaults
.-
Versões de componente 5.30.0
Os componentes que o Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos do Amazon EMR e instalados para processos e atributos do sistema. Eles normalmente começam com emr
ou aws
. Os pacotes de aplicações de big data na versão mais recente do Amazon EMR são geralmente a versão mais recente encontrada na comunidade. Disponibilizamos as versões da comunidade no Amazon EMR o mais rapidamente possível.
Alguns componentes no Amazon EMR diferem das versões da comunidade. Esses componentes tem um rótulo de versão no formulário
. O CommunityVersion
-amzn-EmrVersion
começa em 0. Por exemplo, se um componente da comunidade de código aberto denominado EmrVersion
myapp-component
com a versão 2.2 tiver sido alterado três vezes para inclusão em versões diferentes do Amazon EMR, sua versão será listada como 2.2-amzn-2
.
Componente | Versão | Descrição |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | SDK do Amazon SageMaker Spark |
emr-ddb | 4.14.0 | O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop. |
emr-goodies | 2.13.0 | Bibliotecas convenientes para o ecossistema do Hadoop. |
emr-kinesis | 3.5.0 | O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop. |
emr-notebook-env | 1.0.0 | Conda env para bloco de anotações do EMR |
emr-s3-dist-cp | 2.14.0 | Cópia distribuída otimizada de aplicativos para o Amazon S3. |
emr-s3-select | 1.5.0 | EMR S3Select Connector |
emrfs | 2.40.0 | O conector do Amazon S3 para aplicativos do ecossistema do Hadoop. |
flink-client | 1.10.0 | Scripts do cliente da linha de comando e aplicativos do Apache Flink. |
ganglia-monitor | 3.7.2 | O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia. |
ganglia-metadata-collector | 3.7.2 | O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia. |
ganglia-web | 3.7.1 | O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia. |
hadoop-client | 2.8.5-amzn-6 | Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'. |
hadoop-hdfs-datanode | 2.8.5-amzn-6 | O serviço de nível de nó do HDFS para armazenamento de blocos. |
hadoop-hdfs-library | 2.8.5-amzn-6 | O cliente de linha de comando e biblioteca do HDFS |
hadoop-hdfs-namenode | 2.8.5-amzn-6 | O serviço do HDFS para rastrear nomes de arquivos e locais de blocos. |
hadoop-hdfs-journalnode | 2.8.5-amzn-6 | O serviço do HDFS para gerenciar o lançamento de arquivos do Hadoop em clusters de HA. |
hadoop-httpfs-server | 2.8.5-amzn-6 | O endpoint de HTTP para as operações do HDFS. |
hadoop-kms-server | 2.8.5-amzn-6 | Servidor de gerenciamento de chaves criptográficas baseado na API do Hadoop. KeyProvider |
hadoop-mapred | 2.8.5-amzn-6 | MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo. |
hadoop-yarn-nodemanager | 2.8.5-amzn-6 | O serviço do YARN para o gerenciamento de contêineres em um nó individual. |
hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | O serviço do YARN para alocar e gerenciar recursos de cluster e aplicativos distribuídos. |
hadoop-yarn-timeline-server | 2.8.5-amzn-6 | O serviço para recuperar informações atuais e históricas dos aplicativos do YARN. |
hbase-hmaster | 1.4.13 | Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos. |
hbase-region-server | 1.4.13 | Serviço para atender a uma ou mais HBase regiões. |
hbase-client | 1.4.13 | HBase cliente de linha de comando. |
hbase-rest-server | 1.4.13 | Serviço que fornece um endpoint RESTful HTTP para HBase. |
hbase-thrift-server | 1.4.13 | Serviço que fornece um endpoint Thrift para. HBase |
hcatalog-client | 2.3.6-amzn-2 | O cliente da linha de comando 'hcat' para manipular o hcatalog-server. |
hcatalog-server | 2.3.6-amzn-2 | Fornecimento de serviços HCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos. |
hcatalog-webhcat-server | 2.3.6-amzn-2 | Ponto de extremidade HTTP fornecendo uma interface REST para HCatalog. |
hive-client | 2.3.6-amzn-2 | O cliente da linha de comando do Hive. |
hive-hbase | 2.3.6-amzn-2 | Cliente do Hive-hbase. |
hive-metastore-server | 2.3.6-amzn-2 | O serviço de acesso à metastore do Hive, um repositório de semântica que armazena metadados do SQL nas operações do Hadoop. |
hive-server2 | 2.3.6-amzn-2 | O serviço que aceita as consultas do Hive como solicitações da web. |
hudi | 0.5.2-incubating | Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência. |
hudi-presto | 0.5.2-incubating | Biblioteca de pacotes para executar o Presto com o Hudi. |
hue-server | 4.6.0 | O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop |
jupyterhub | 1.1.0 | Servidor de vários usuários para blocos de anotações Jupyter |
livy-server | 0.7.0-incubating | Interface REST para interagir com o Apache Spark |
nginx | 1.12.1 | nginx [mecanismo x] é um servidor de proxy reverso e HTTP |
mahout-client | 0.13.0 | A biblioteca de Machine Learning. |
mxnet | 1.5.1 | Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado. |
mariadb-server | 5.5.64 | O servidor de banco de dados MySQL. |
nvidia-cuda | 9.2.88 | Drivers NVIDIA e toolkit CUDA |
oozie-client | 5.2.0 | O cliente da linha de comando do Oozie. |
oozie-server | 5.2.0 | O serviço que aceita solicitações de fluxo de trabalho do Oozie. |
opencv | 3.4.0 | Biblioteca de Visão Computacional de Código Aberto. |
phoenix-library | 4.14.3- -1,4 HBase | As bibliotecas do phoenix para servidor e cliente |
phoenix-query-server | 4.14.3- -1,4 HBase | Um servidor leve que fornece acesso à JDBC, bem como buffers de protocolo e acesso no formato JSON à API do Avatica |
presto-coordinator | 0.232 | O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers. |
presto-worker | 0.232 | O serviço que executa partes de uma consulta. |
presto-client | 0.232 | Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado. |
pig-client | 0.17.0 | O cliente da linha de comando do Pig. |
r | 3.4.3 | O projeto R para computação estatística |
ranger-kms-server | 1.2.0 | Sistema de gerenciamento de chaves Apache Ranger |
spark-client | 2.4.5-amzn-0 | Os clientes da linha de comando do Spark. |
spark-history-server | 2.4.5-amzn-0 | A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído. |
spark-on-yarn | 2.4.5-amzn-0 | O mecanismo de execução em memória para o YARN. |
spark-yarn-slave | 2.4.5-amzn-0 | As bibliotecas do Apache Spark necessárias para subordinados do YARN. |
sqoop-client | 1.4.7 | O cliente da linha de comando do Apache Sqoop. |
tensorflow | 1.14.0 | TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho. |
tez-on-yarn | 0.9.2 | O aplicativo e as bibliotecas do YARN para Tez. |
webserver | 2.4.25+ | O servidor Apache HTTP. |
zeppelin-server | 0.8.2 | O notebook baseado na web que permite a análise de dados interativa. |
zookeeper-server | 3.4.14 | O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo. |
zookeeper-client | 3.4.14 | ZooKeeper cliente de linha de comando. |
Classificações de configuração 5.30.0
As classificações de configuração permitem que você personalize aplicações. Elas geralmente correspondem a um arquivo XML de configuração da aplicação, como hive-site.xml
. Para obter mais informações, consulte Configurar aplicações.
Classificações | Descrição |
---|---|
capacity-scheduler | Alterar os valores no arquivo capacity-scheduler.xml do Hadoop. |
container-log4j | Altere os valores no arquivo container-log4j.properties do YARN do Hadoop. |
core-site | Alterar os valores no arquivo core-site.xml do Hadoop. |
emrfs-site | Alterar as configurações do EMRFS. |
flink-conf | Alterar as configurações do flink-conf.yaml. |
flink-log4j | Alterar as configurações de log4j.properties no Flink. |
flink-log4j-yarn-session | Altere as configurações do Flink log4 j-yarn-session .properties. |
flink-log4j-cli | Alterar as configurações de log4j-cli.properties no Flink. |
hadoop-env | Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop. |
hadoop-log4j | Alterar os valores no arquivo log4j.properties do Hadoop. |
hadoop-ssl-server | Alterar a configuração do servidor SSL no Hadoop |
hadoop-ssl-client | Alterar a configuração do cliente SSL no Hadoop |
hbase | Configurações selecionadas pelo Amazon EMR para Apache. HBase |
hbase-env | Mude os valores no HBase ambiente. |
hbase-log4j | Altere os valores no arquivo HBase hbase-log4j.properties. |
hbase-metrics | Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do. |
hbase-policy | Altere os valores no HBase arquivo hbase-policy.xml do. |
hbase-site | Altere os valores no HBase arquivo hbase-site.xml do. |
hdfs-encryption-zones | Configurar as zonas de criptografia do HDFS. |
hdfs-site | Alterar os valores no arquivo hdfs-site.xml do HDFS. |
hcatalog-env | Mude os valores no HCatalog ambiente. |
hcatalog-server-jndi | Altere os valores em HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Altere os valores em HCatalog proto-hive-site .xml. |
hcatalog-webhcat-env | Mude os valores no ambiente HCat da HCatalog Web. |
hcatalog-webhcat-log4j2 | Altere os valores nas propriedades HCat log4j2.properties da HCatalog Web. |
hcatalog-webhcat-site | Altere os valores no arquivo webhcat-site.xml HCat da HCatalog Web. |
hive-beeline-log4j2 | Alterar os valores no arquivo beeline-log4j2.properties do Hive. |
hive-parquet-logging | Alterar os valores no arquivo parquet-logging.properties do Hive. |
hive-env | Alterar os valores no ambiente do Hive. |
hive-exec-log4j2 | Altere os valores no arquivo hive-exec-log 4j2.properties do Hive. |
hive-llap-daemon-log4j2 | Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive. |
hive-log4j2 | Alterar os valores no arquivo hive-log4j2.properties do Hive. |
hive-site | Alterar os valores no arquivo hive-site.xml do Hive. |
hiveserver2-site | Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2. |
hue-ini | Alterar os valores no arquivo ini do Hue |
httpfs-env | Alterar os valores no ambiente do HTTPFS. |
httpfs-site | Alterar os valores no arquivo httpfs-site.xml do Hadoop. |
hadoop-kms-acls | Alterar os valores no arquivo kms-acls.xml do Hadoop. |
hadoop-kms-env | Alterar os valores no ambiente do Hadoop KMS. |
hadoop-kms-log4j | Alterar os valores no arquivo kms-log4j.properties do Hadoop. |
hadoop-kms-site | Alterar os valores no arquivo kms-site.xml do Hadoop. |
hudi-env | Altere os valores no ambiente do Hudi. |
jupyter-notebook-conf | Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter. |
jupyter-hub-conf | Altere os valores no JupyterHubs arquivo jupyterhub_config.py do. |
jupyter-s3-conf | Configurar a persistência do notebook Jupyter S3. |
jupyter-sparkmagic-conf | Altere os valores no arquivo config.json do Sparkmagic. |
livy-conf | Alterar os valores no arquivo livy.conf do Livy. |
livy-env | Alterar os valores no ambiente do Livy. |
livy-log4j | Alterar as configurações de log4j.properties no Livy. |
mapred-env | Altere os valores no ambiente do MapReduce aplicativo. |
mapred-site | Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo. |
oozie-env | Alterar os valores no ambiente do Oozie. |
oozie-log4j | Alterar os valores no arquivo oozie-log4j.properties do Oozie. |
oozie-site | Alterar os valores no arquivo oozie-site.xml do Oozie. |
phoenix-hbase-metrics | Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix. |
phoenix-hbase-site | Alterar os valores no arquivo hbase-site.xml do Phoenix. |
phoenix-log4j | Alterar os valores no arquivo log4j.properties do Phoenix. |
phoenix-metrics | Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix. |
pig-env | Alterar os valores no ambiente do Pig. |
pig-properties | Alterar os valores no arquivo pig.properties do Pig. |
pig-log4j | Alterar os valores no arquivo log4j.properties do Pig. |
presto-log | Alterar os valores no arquivo log.properties do Presto. |
presto-config | Alterar os valores no arquivo config.properties do Presto. |
presto-password-authenticator | Altere os valores no arquivo password-authenticator.properties do Presto. |
presto-env | Altere os valores no arquivo presto-env.sh do Presto. |
presto-node | Altere os valores no arquivo node.properties do Presto. |
presto-connector-blackhole | Alterar os valores no arquivo blackhole.properties do Presto. |
presto-connector-cassandra | Alterar os valores no arquivo cassandra.properties do Presto. |
presto-connector-hive | Alterar os valores no arquivo hive.properties do Presto. |
presto-connector-jmx | Alterar os valores no arquivo jmx.properties do Presto. |
presto-connector-kafka | Alterar os valores no arquivo kafka.properties do Presto. |
presto-connector-localfile | Alterar os valores no arquivo localfile.properties do Presto. |
presto-connector-memory | Alterar os valores no arquivo memory.properties do Presto. |
presto-connector-mongodb | Alterar os valores no arquivo mongodb.properties do Presto. |
presto-connector-mysql | Alterar os valores no arquivo mysql.properties do Presto. |
presto-connector-postgresql | Alterar os valores no arquivo postgresql.properties do Presto. |
presto-connector-raptor | Alterar os valores no arquivo raptor.properties do Presto. |
presto-connector-redis | Alterar os valores no arquivo redis.properties do Presto. |
presto-connector-redshift | Alterar os valores no arquivo de propriedades redshift do Presto. |
presto-connector-tpch | Alterar os valores no arquivo tpch.properties do Presto. |
presto-connector-tpcds | Alterar os valores no arquivo tpcds.properties do Presto. |
ranger-kms-dbks-site | Altere os valores no arquivo dbks-site.xml do Ranger KMS. |
ranger-kms-site | Altere os valores no ranger-kms-site arquivo.xml do Ranger KMS. |
ranger-kms-env | Altere os valores no ambiente do Ranger KMS. |
ranger-kms-log4j | Altere os valores no arquivo kms-log4j.properties do Ranger KMS. |
ranger-kms-db-ca | Altere os valores do arquivo CA no S3 para conexão SSL do MySQL com o Ranger KMS. |
recordserver-env | Altere os valores no ambiente do EMR. RecordServer |
recordserver-conf | Altere os valores no arquivo erver.properties RecordServer do EMR. |
recordserver-log4j | Altere os valores no arquivo log4j.properties RecordServer do EMR. |
spark | As configurações administradas pelo Amazon EMR para o Apache Spark. |
spark-defaults | Alterar os valores no arquivo spark-defaults.conf do Spark. |
spark-env | Alterar os valores no ambiente do Spark. |
spark-hive-site | Alterar os valores no arquivo hive-site.xml do Spark. |
spark-log4j | Alterar os valores no arquivo log4j.properties do Spark. |
spark-metrics | Alterar os valores no arquivo metrics.properties do Spark. |
sqoop-env | Alterar os valores no ambiente do Sqoop. |
sqoop-oraoop-site | Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop. |
sqoop-site | Alterar os valores no arquivo sqoop-site.xml do Sqoop. |
tez-site | Alterar os valores no arquivo tez-site.xml do Tez. |
yarn-env | Alterar os valores no ambiente do YARN. |
yarn-site | Alterar os valores no arquivo yarn-site.xml do YARN. |
zeppelin-env | Alterar os valores no ambiente do Zeppelin. |
zookeeper-config | Altere os valores no ZooKeeper arquivo zoo.cfg do. |
zookeeper-log4j | Altere os valores no ZooKeeper arquivo log4j.properties. |