As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Amazon EMR versão 6.9.0
Versões da aplicação 6.9.0
Os seguintes aplicativos são compatíveis com esta versão: Delta
A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).
Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:
Informações da versão da aplicação | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDKpara Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | 2.1.0 | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 2.4.13 | 2.4.12 | 2.4.12 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 3.3.3 | 3.2.1 | 3.2.1 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0,276 | 0,273 | 0,273 | 0,272 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 3.3.0 | 3.3.0 | 3.3.0 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.10.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (Em breve) SQL | 398 | 388 | 388 | 378 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 |
Notas da versão 6.9.0
As notas de lançamento a seguir incluem informações sobre a EMR versão 6.9.0 da Amazon. As alterações são relativas à EMR versão 6.8.0 da Amazon. Para obter informações sobre o cronograma da versão, consulte o log de alterações.
Novos atributos
A EMR versão 6.9.0 da Amazon é compatível com Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 e Tez 0.10.2.
A EMR versão 6.9.0 da Amazon inclui um novo aplicativo de código aberto, 2.1.0. Delta Lake
A integração do Amazon Redshift para o Apache Spark está incluída nas EMR versões 6.9.0 e posteriores da Amazon. Anteriormente uma ferramenta de código aberto, a integração nativa é um conector do Spark que você pode usar para criar aplicações do Apache Spark que realizam a leitura e a gravação de dados no Amazon Redshift e no Amazon Redshift sem servidor. Para obter mais informações, consulte Usando a integração do Amazon Redshift para o Apache Spark com a Amazon EMR .
A EMR versão 6.9.0 da Amazon adiciona suporte ao arquivamento de registros no Amazon S3 durante a redução da escala do cluster. Anteriormente, só era possível arquivar arquivos de log no Amazon S3 durante o encerramento do cluster. A nova capacidade garante que os arquivos de log gerados no cluster persistam no Amazon S3 mesmo após o encerramento do nó. Para obter mais informações, consulte Configurar registro em log e depuração do cluster.
Para dar suporte a consultas de longa execução, o Trino agora inclui um mecanismo de execução tolerante a falhas. A execução tolerante a falhas atenua as falhas nas consultas ao tentar novamente as consultas com falha ou as tarefas dos seus componentes. Para obter mais informações, consulte Execução tolerante a falhas no Trino.
Você pode usar o Apache Flink na Amazon EMR para unificar
BATCH
eSTREAM
processar tabelas do Apache Hive ou metadados de qualquer fonte de tabela do Flink, como Iceberg, Kinesis ou Kafka. Você pode especificar o AWS Glue Data Catalog como metastore para o Flink usando o AWS Management Console,, AWS CLI ou Amazon. EMR API Para obter mais informações, consulte Configurando o Flink na Amazon EMR.Agora você pode especificar AWS Identity and Access Management (IAM) funções de tempo de execução e controle de acesso AWS Lake Formation baseado para consultas do Apache Spark, Apache Hive e Presto na Amazon EMR em EC2 clusters com o Amazon Studio. SageMaker Para obter mais informações, consulte Configurar funções de tempo de execução para EMR as etapas da Amazon.
Problemas conhecidos
Para a EMR versão 6.9.0 da Amazon, o Trino não funciona em clusters habilitados para o Apache Ranger. Se você precisar usar o Trino com o Ranger, entre em contato com o AWS Support
. Se você usar a integração do Amazon Redshift para Apache Spark e tiver um time, timetz, timestamp ou timestamptz com precisão de microssegundos no formato Parquet, o conector arredondará os valores de tempo para o valor de milissegundo mais próximo. Como solução alternativa, use o parâmetro
unload_s3_format
do formato de descarregamento de texto.Quando você usa o Spark com a formatação de localização de partições do Hive para ler dados no Amazon S3 e executa o Spark nas EMR versões 5.30.0 a 5.36.0 e 6.2.0 a 6.9.0 da Amazon, você pode encontrar um problema que impede seu cluster de ler os dados corretamente. Isso poderá acontecer se suas partições tiverem todas as características a seguir:
-
Duas ou mais partições são verificadas na mesma tabela.
-
Pelo menos um caminho de diretório de partição é um prefixo de pelo menos outro caminho de diretório de partição, por exemplo,
s3://bucket/table/p=a
é um prefixo des3://bucket/table/p=a b
. -
O primeiro caractere que segue o prefixo no outro diretório de partição tem um valor UTF -8 menor que o
/
caractere (U+002F). Por exemplo, o caractere de espaço (U+0020) que ocorre entre a e b ems3://bucket/table/p=a b
se enquadra nessa categoria. Observe que existem 14 outros caracteres que não são de controle:!"#$%&‘()*+,-
. Para obter mais informações, consulte a tabela de codificação UTF -8 e caracteres Unicode.
Como solução alternativa para esse problema, defina a configuração
spark.sql.sources.fastS3PartitionDiscovery.enabled
comofalse
na classificaçãospark-defaults
.-
As conexões com EMR clusters da Amazon a partir do Amazon SageMaker Studio podem falhar intermitentemente com um código de resposta 403 Forbidden. Esse erro ocorre quando a configuração da IAM função no cluster leva mais de 60 segundos. Como solução alternativa, você pode instalar um EMR patch da Amazon para permitir novas tentativas e aumentar o tempo limite para um mínimo de 300 segundos. Use as etapas a seguir para aplicar a ação de bootstrap quando iniciar o cluster.
Baixe o script e os RPM arquivos de bootstrap do Amazon URIs S3 a seguir.
s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
Carregue os arquivos da etapa anterior em um bucket do Amazon S3 de sua propriedade. O bucket deve estar no mesmo Região da AWS local em que você planeja iniciar o cluster.
Inclua a seguinte ação de bootstrap ao iniciar seu EMR cluster. Substituir
bootstrap_URI
eRPM_URI
com o correspondente URIs do Amazon S3.--bootstrap-actions "Path=
bootstrap_URI
,Args=[RPM_URI
]"
Com as EMR versões 5.36.0 e 6.6.0 a 6.9.0 da Amazon,
SecretAgent
os componentes doRecordServer
serviço podem sofrer perda de dados de log devido a uma configuração incorreta do padrão de nome de arquivo nas propriedades do Log4j2. A configuração incorreta faz com que os componentes gerem somente um arquivo de log por dia. Quando a estratégia de rotação ocorre, ela substitui o arquivo existente em vez de gerar um novo arquivo de log, conforme esperado. Como solução alternativa, use uma ação de bootstrap para gerar arquivos de log a cada hora e acrescentar um número inteiro de incremento automático no nome do arquivo para lidar com a rotação.Para as versões EMR 6.6.0 a 6.9.0 da Amazon, use a seguinte ação de bootstrap ao iniciar um cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
Para o Amazon EMR 5.36.0, use a seguinte ação de bootstrap ao iniciar um cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
-
O Apache Flink fornece FileSystem conectores nativos S3 FileSystem e Hadoop, que permitem que os aplicativos criem FileSink e gravem os dados no Amazon S3. Isso FileSink falha com uma das duas exceções a seguir.
java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy; at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
Como solução alternativa, você pode instalar um EMR patch da Amazon, que corrige o problema acima no Flink. Para aplicar a ação de bootstrap quando iniciar o cluster, execute as etapas a seguir.
-
Baixe o flink-rpm no bucket Amazon S3. Seu RPM caminho é
s3://
.DOC-EXAMPLE-BUCKET
/rpms/flink/ -
Faça o download do script e dos RPM arquivos de bootstrap do Amazon S3 usando o seguinte. URI
Substitua pelo Região da AWS local em que você planeja iniciar o cluster.regionName
s3://emr-data-access-control-
regionName
/customer-bootstrap-actions/gcsc/replace-rpms.sh O Hadoop 3.3.3 introduziu uma alteração em YARN (YARN-9608
) que mantém os nós em que os contêineres eram executados em um estado de descomissionamento até que o aplicativo seja concluído. Essa alteração garante que dados locais, como dados embaralhados, não sejam perdidos e que você não precise executar o trabalho novamente. Na Amazon EMR 6.8.0 e 6.9.0, essa abordagem também pode levar à subutilização de recursos em clusters com ou sem escalabilidade gerenciada habilitada. Com o Amazon EMR 6.10.0, há uma solução alternativa para esse problema: definir o valor de
yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications
to in.false
yarn-site.xml
Nas EMR versões 6.11.0 e superiores da Amazon, bem como nas 6.8.1, 6.9.1 e 6.10.1, a configuração é definida como padrão para resolver esse problema.false
-
Alterações, melhorias e problemas resolvidos
Para a Amazon EMR versão 6.9.0 e posterior, todos os componentes instalados pela Amazon EMR que usam bibliotecas Log4j usam Log4j versão 2.17.1 ou posterior.
-
Quando você usa o conector do DynamoDB com o Spark nas versões 6.6.0, 6.7.0 e 6.8.0 da EMR Amazon, todas as leituras da sua tabela retornam um resultado vazio, mesmo que a divisão de entrada faça referência a dados não vazios. A EMR versão 6.9.0 da Amazon corrige esse problema.
O Amazon EMR 6.9.0 adiciona suporte limitado ao controle de acesso baseado em Lake Formation com o Apache Hudi ao ler dados usando o Spark. SQL O suporte é para SELECT consultas usando o Spark SQL e é limitado ao controle de acesso em nível de coluna. Para obter mais informações, consulte Hudi e Lake Formation.
Quando você usa o Amazon EMR 6.9.0 para criar um cluster Hadoop com Node Labels
habilitados, as YARNmétricas API retornam informações agregadas em todas as partições, em vez da partição padrão. Para obter mais informações, consulte YARN-11414 . Com a EMR versão 6.9.0 da Amazon, atualizamos o Trino para a versão 398, que usa Java 17. A versão anterior compatível do Trino para Amazon EMR 6.8.0 era a Trino 388 em execução no Java 11. Para obter mais informações sobre essa alteração, consulte Atualizações do Trino para Java 17
no blog do Trino. Esta versão corrige um problema de incompatibilidade de sequência de tempo entre o Apache BigTop e a Amazon EMR na sequência de inicialização EC2 do cluster. Essa incompatibilidade de sequência de tempo ocorre quando um sistema tenta realizar duas ou mais operações ao mesmo tempo em vez de fazê-las na sequência correta. Como resultado, determinadas configurações de cluster apresentaram tempos limite de inicialização da instância e tempos de inicialização do cluster mais lentos.
Quando você inicia um cluster com a versão de patch mais recente do Amazon EMR 5.36 ou superior, 6.6 ou superior ou 7.0 ou superior, a Amazon EMR usa a versão mais recente do Amazon Linux 2023 ou Amazon Linux 2 para a Amazon padrão. EMR AMI Para obter mais informações, consulte Usando o Amazon Linux padrão AMI para a Amazon EMR.
nota
Esta versão não recebe mais AMI atualizações automáticas, pois foi sucedida por mais 1 lançamento de patch. A versão de patch é indicada pelo número após o segundo ponto decimal (
6.8.
). Para ver se você está usando a versão de patch mais recente, verifique as versões disponíveis no Guia de lançamento ou verifique o menu suspenso de EMRlançamentos da Amazon ao criar um cluster no console ou usar a ação1
ListReleaseLabels
APIoulist-release-labels
CLI. Para receber atualizações sobre novos lançamentos, assine o RSS feed do What's new? página.OsReleaseLabel (Versão Amazon Linux) Versão do kernel do Amazon Linux Data disponível Regiões compatíveis 2.0.20241001.0 4.14.352 4 de outubro de 2024 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Osaka) Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), (Oeste dos EUA), (Leste dos EUA), China AWS GovCloud (Pequim), China AWS GovCloud (Ningxia) 2.0.20240816.0 4.14.350 21 de agosto de 2024 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Osaka) Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), (Oeste dos EUA), (Leste dos EUA), China AWS GovCloud (Pequim), China AWS GovCloud (Ningxia) 2.0.20240809.0 4.14.349 20 de agosto de 2024 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Osaka) Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), (Oeste dos EUA), (Leste dos EUA), China AWS GovCloud (Pequim), China AWS GovCloud (Ningxia) 2.0.20240719.0 4.14.348 25 de julho de 2024 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Osaka) Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), (Oeste dos EUA), (Leste dos EUA), China AWS GovCloud (Pequim), China AWS GovCloud (Ningxia) 2.0.20240709.1 4.14.348 23 de julho de 2024 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Osaka) Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), (Oeste dos EUA), (Leste dos EUA), AWS GovCloud China (Pequim), China AWS GovCloud (Ningxia), Ásia Pacífico (Hyderabad), Oriente Médio (), Europa (EspanhaUAE), Europa (Zurique), Ásia-Pacífico (Melbourne), Israel (Tel Aviv), Oeste do Canadá (Calgary) 2.0.20230808.0 4.14.320 24 de agosto de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Frankfurt), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Melbourne), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Canadá (Central), Israel (Tel Aviv). 2.0.20230727.0 4.14.320 14 de agosto de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Espanha), Europa (Frankfurt), Europa (Zurique), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Hyderabad), Ásia-Pacífico (Hyderabad), Ásia-Pacífico (Hyderabad) Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Melbourne), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Oriente Médio (), Canadá (UAE Central), Israel (Tel Aviv) 2.0.20230719.0 4.14.320 2 de agosto de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Milão), Europa (Espanha), Europa (Frankfurt), Europa (Zurique), Europa (Irlanda), Europa (Londres), Europa (Paris), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Hyderabad), Ásia-Pacífico (Hyderabad), Ásia-Pacífico (Hyderabad) Tóquio), Ásia-Pacífico (Seul), Ásia-Pacífico (Osaka), Ásia-Pacífico (Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Melbourne), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein), Oriente Médio (), Canadá (UAE Central), Israel (Tel Aviv) 2.0.20230628.0 4.14.318 12 de julho de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230612.0 4.14.314 23 de junho de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230504.1 4.14.313 16 de maio de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230418.0 4.14.311 3 de maio de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230404.1 4.14.311 18 de abril de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230404.0 4.14.311 10 de abril de 2023 Leste dos EUA (Norte da Virgínia), Europa (Paris) 2.0.20230320.0 4.14.309 30 de março de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230307.0 4.14.305 15 de março de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20230207.0 4.14.304 22 de fevereiro de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20221210.1 4.14.301 12 de janeiro de 2023 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein) 2.0.20221103.3 4.14.296 5 de dezembro de 2022 Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Canadá (Central), Europa (Estocolmo), Europa (Irlanda), Europa (Londres), Europa (Paris), Europa (Frankfurt), Europa (Milão), Ásia-Pacífico (Hong Kong), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Jacarta), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Seul), Asia Pacific (Osaka), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), África (Cidade do Cabo), América do Sul (São Paulo), Oriente Médio (Bahrein)
Versões de componente 6.9.0
Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr
ou aws
. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.
Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário
. O CommunityVersion
-amzn-EmrVersion
começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado EmrVersion
myapp-component
com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2
.
Componente | Version (Versão) | Descrição |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK |
delta | 2.1.0 | O Delta Lake é um formato de tabela aberto para grandes conjuntos de dados analíticos |
emr-ddb | 4.16.0 | O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop. |
emr-goodies | 3.3.0 | Bibliotecas convenientes para o ecossistema do Hadoop. |
emr-kinesis | 3.6.0 | O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop. |
emr-notebook-env | 1.7.0 | Ambiente Conda para bloco de anotações do emr, que inclui o jupyter enterprise gateway |
emr-s3-dist-cp | 2.23.0 | Cópia distribuída otimizada de aplicativos para o Amazon S3. |
emr-s3-select | 2.2.0 | EMRConector S3Select |
emrfs | 2.54.0 | O conector do Amazon S3 para aplicações do ecossistema do Hadoop. |
flink-client | 1.15.2 | Scripts do cliente da linha de comando e aplicativos do Apache Flink. |
flink-jobmanager-config | 1.15.2 | Gerenciando recursos em EMR nós para o Apache JobManager Flink. |
ganglia-monitor | 3.7.2 | O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia. |
ganglia-metadata-collector | 3.7.2 | O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia. |
ganglia-web | 3.7.1 | O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia. |
hadoop-client | 3.3.3-amzn-1 | Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'. |
hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFSserviço em nível de nó para armazenar blocos. |
hadoop-hdfs-library | 3.3.3-amzn-1 | HDFScliente e biblioteca de linha de comando |
hadoop-hdfs-namenode | 3.3.3-amzn-1 | HDFSserviço para rastrear nomes de arquivos e localizações de blocos. |
hadoop-hdfs-journalnode | 3.3.3-amzn-1 | HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA. |
hadoop-httpfs-server | 3.3.3-amzn-1 | HTTPendpoint para HDFS operações. |
hadoop-kms-server | 3.3.3-amzn-1 | Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API |
hadoop-mapred | 3.3.3-amzn-1 | MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo. |
hadoop-yarn-nodemanager | 3.3.3-amzn-1 | YARNserviço para gerenciar contêineres em um nó individual. |
hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos. |
hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Serviço para recuperar informações atuais e históricas para YARN aplicativos. |
hbase-hmaster | 2.4.13-amzn-0 | Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos. |
hbase-region-server | 2.4.13-amzn-0 | Serviço para atender a uma ou mais HBase regiões. |
hbase-client | 2.4.13-amzn-0 | HBasecliente de linha de comando. |
hbase-rest-server | 2.4.13-amzn-0 | Serviço que fornece um RESTful HTTP endpoint paraHBase. |
hbase-thrift-server | 2.4.13-amzn-0 | Serviço que fornece um endpoint Thrift para. HBase |
hbase-operator-tools | 2.4.13-amzn-0 | Ferramenta de reparo para HBase clusters Apache. |
hcatalog-client | 3.1.3-amzn-2 | O cliente da linha de comando 'hcat' para manipular o hcatalog-server. |
hcatalog-server | 3.1.3-amzn-2 | Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos. |
hcatalog-webhcat-server | 3.1.3-amzn-2 | HTTPendpoint fornecendo uma REST interface paraHCatalog. |
hive-client | 3.1.3-amzn-2 | O cliente da linha de comando do Hive. |
hive-hbase | 3.1.3-amzn-2 | Cliente do Hive-hbase. |
hive-metastore-server | 3.1.3-amzn-2 | Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL |
hive-server2 | 3.1.3-amzn-2 | O serviço que aceita as consultas do Hive como solicitações da web. |
hudi | 0.12.1-amzn-0 | Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência. |
hudi-presto | 0.12.1-amzn-0 | Biblioteca de pacotes para executar o Presto com o Hudi. |
hudi-trino | 0.12.1-amzn-0 | Biblioteca de pacotes para execução do Presto com o Hudi. |
hudi-spark | 0.12.1-amzn-0 | Biblioteca de pacotes para executar o Spark com o Hudi. |
hue-server | 4.10.0 | O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop |
iceberg | 0.14.1-amzn-0 | Apache Iceberg é um formato de tabela aberta para conjuntos de dados analíticos imensos |
jupyterhub | 1.4.1 | Servidor de vários usuários para blocos de anotações Jupyter |
livy-server | 0.7.1-incubating | RESTinterface para interagir com o Apache Spark |
nginx | 1.12.1 | nginx [engine x] é HTTP um servidor proxy reverso |
mxnet | 1.9.1 | Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado. |
mariadb-server | 5.5.68+ | Servidor de banco de dados MariaDB. |
nvidia-cuda | 11.7.0 | Drivers NVIDIA e toolkit CUDA |
oozie-client | 5.2.1 | O cliente da linha de comando do Oozie. |
oozie-server | 5.2.1 | O serviço que aceita solicitações de fluxo de trabalho do Oozie. |
opencv | 4.5.0 | Biblioteca de Visão Computacional de Código Aberto. |
phoenix-library | 5.1.2 | As bibliotecas do phoenix para servidor e cliente |
phoenix-connectors | 6.0.0- SNAPSHOT | Conectores do Apache Phoenix para Spark-3 |
phoenix-query-server | 6.0.0 | Um servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API |
presto-coordinator | 0.276-amzn-0 | O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers. |
presto-worker | 0.276-amzn-0 | O serviço que executa partes de uma consulta. |
presto-client | 0.276-amzn-0 | Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado. |
trino-coordinator | 398-amzn-0 | Serviço que aceita consultas e gerencia a execução de consultas entre trino-workers. |
trino-worker | 398-amzn-0 | O serviço que executa partes de uma consulta. |
trino-client | 398-amzn-0 | Cliente de linha de comando do Trino instalado em mestres de espera de um cluster de alta disponibilidade (HA) em que o servidor do Trino não é iniciado. |
pig-client | 0.17.0 | O cliente da linha de comando do Pig. |
r | 4.0.2 | O projeto R para computação estatística |
ranger-kms-server | 2.0.0 | Sistema de gerenciamento de chaves Apache Ranger |
spark-client | 3.3.0-amzn-1 | Os clientes da linha de comando do Spark. |
spark-history-server | 3.3.0-amzn-1 | A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído. |
spark-on-yarn | 3.3.0-amzn-1 | Mecanismo de execução na memória paraYARN. |
spark-yarn-slave | 3.3.0-amzn-1 | Bibliotecas do Apache Spark necessárias para escravos. YARN |
spark-rapids | 22.08.0-amzn-0 | RAPIDSPlugin Nvidia Spark que acelera o Apache Spark com o. GPUs |
sqoop-client | 1.4.7 | O cliente da linha de comando do Apache Sqoop. |
tensorflow | 2.10.0 | TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho. |
tez-on-yarn | 0.10.2-amzn-0 | O YARN aplicativo e as bibliotecas tez. |
webserver | 2.4.41+ | HTTPServidor Apache. |
zeppelin-server | 0.10.1 | O notebook baseado na web que permite a análise de dados interativa. |
zookeeper-server | 3.5.10 | O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo. |
zookeeper-client | 3.5.10 | ZooKeeper cliente de linha de comando. |
Classificações de configuração 6.9.0
As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml
. Para obter mais informações, consulte Configurar aplicações.
Ocorrem ações de reconfiguração quando você especifica uma configuração para grupos de instâncias em um cluster em execução. A Amazon EMR só inicia ações de reconfiguração para as classificações que você modifica. Para obter mais informações, consulte Reconfigurar um grupo de instâncias de um cluster em execução.
Classificações do emr-6.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classificações | Descrição | Ações de reconfiguração | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Alterar os valores no arquivo capacity-scheduler.xml do Hadoop. | Restarts the ResourceManager service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-executor | Altere os valores no arquivo container-executor.cfg YARN do Hadoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Altere os valores no arquivo container-log4j.properties YARN do Hadoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Alterar os valores no arquivo core-site.xml do Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
docker-conf | Alterar as configurações relacionadas ao docker. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Altere EMRFS as configurações. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-conf | Alterar as configurações do flink-conf.yaml. | Restarts Flink history server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j | Alterar as configurações de log4j.properties no Flink. | Restarts Flink history server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-session | Alterar as configurações de log4j-yarn-session.properties no Flink para sessão do Kubernetes/Yarn. | Restarts Flink history server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-cli | Alterar as configurações de log4j-cli.properties no Flink. | Restarts Flink history server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Alterar os valores no arquivo log4j.properties do Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Alterar a configuração do servidor SSL no Hadoop | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Alterar a configuração do cliente SSL no Hadoop | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Configurações EMR selecionadas pela Amazon para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Mude os valores no HBase ambiente. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Altere os valores no arquivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Altere os valores no HBase arquivo hbase-policy.xml do. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Altere os valores no HBase arquivo hbase-site.xml do. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configure zonas de HDFS criptografia. | This classification should not be reconfigured. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-env | Mude os valores no HDFS ambiente. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Altere os valores no HDFS hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Mude os valores no HCatalog ambiente. | Restarts Hive HCatalog Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Altere os valores em HCatalog jndi.properties. | Restarts Hive HCatalog Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Altere os valores em HCatalog proto-hive-site .xml. | Restarts Hive HCatalog Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Altere os valores no ambiente ebHCat de HCatalog W. | Restarts Hive WebHCat server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W. | Restarts Hive WebHCat server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat | Restarts Hive WebHCat server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive | Configurações EMR selecionadas pela Amazon para o Apache Hive. | Sets configurations to launch Hive LLAP service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Alterar os valores no arquivo beeline-log4j2.properties do Hive. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Alterar os valores no arquivo parquet-logging.properties do Hive. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Alterar os valores no ambiente do Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Altere os valores no arquivo hive-exec-log 4j2.properties do Hive. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Alterar os valores no arquivo hive-log4j2.properties do Hive. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Alterar os valores no arquivo hive-site.xml do Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Alterar os valores no arquivo ini do Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Mude os valores no HTTPFS ambiente. | Restarts Hadoop Httpfs service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Alterar os valores no arquivo httpfs-site.xml do Hadoop. | Restarts Hadoop Httpfs service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Alterar os valores no arquivo kms-acls.xml do Hadoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Altere os valores no ambiente HadoopKMS. | Restarts Hadoop-KMS service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Alterar os valores no arquivo kms-log4j.properties do Hadoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Alterar os valores no arquivo kms-site.xml do Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hudi-env | Altere os valores no ambiente do Hudi. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hudi-defaults | Alterar os valores no arquivo hudi-defaults.conf do Hudi. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
iceberg-defaults | Alterar os valores no arquivo iceberg-defaults.conf do Iceberg. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
delta-defaults | Alterar os valores no arquivo delta-defaults.conf do Delta. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Altere os valores no JupyterHubs arquivo jupyterhub_config.py do. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configurar a persistência do notebook Jupyter S3. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Altere os valores no arquivo config.json do Sparkmagic. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Alterar os valores no arquivo livy.conf do Livy. | Restarts Livy Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Alterar os valores no ambiente do Livy. | Restarts Livy Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j2 | Alterar as configurações de log4j2.properties do Livy. | Restarts Livy Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Altere os valores no ambiente do MapReduce aplicativo. | Restarts Hadoop MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo. | Restarts Hadoop MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Alterar os valores no ambiente do Oozie. | Restarts Oozie. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Alterar os valores no arquivo oozie-log4j.properties do Oozie. | Restarts Oozie. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Alterar os valores no arquivo oozie-site.xml do Oozie. | Restarts Oozie. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Alterar os valores no arquivo hbase-site.xml do Phoenix. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Alterar os valores no arquivo log4j.properties do Phoenix. | Restarts Phoenix-QueryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-env | Alterar os valores no ambiente do Pig. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Alterar os valores no arquivo pig.properties do Pig. | Restarts Oozie. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Alterar os valores no arquivo log4j.properties do Pig. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Alterar os valores no arquivo log.properties do Presto. | Restarts Presto-Server (for PrestoDB) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Alterar os valores no arquivo config.properties do Presto. | Restarts Presto-Server (for PrestoDB) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Altere os valores no arquivo password-authenticator.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Altere os valores no arquivo presto-env.sh do Presto. | Restarts Presto-Server (for PrestoDB) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Altere os valores no arquivo node.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Alterar os valores no arquivo blackhole.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Alterar os valores no arquivo cassandra.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Alterar os valores no arquivo hive.properties do Presto. | Restarts Presto-Server (for PrestoDB) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Alterar os valores no arquivo jmx.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Alterar os valores no arquivo kafka.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-lakeformation | Alterar os valores no arquivo lakeformation.properties do Presto. | Restarts Presto-Server (for PrestoDB) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Alterar os valores no arquivo localfile.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Alterar os valores no arquivo memory.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Alterar os valores no arquivo mongodb.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Alterar os valores no arquivo mysql.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Alterar os valores no arquivo postgresql.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Alterar os valores no arquivo raptor.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Alterar os valores no arquivo redis.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Alterar os valores no arquivo de propriedades redshift do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Alterar os valores no arquivo tpch.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Alterar os valores no arquivo tpcds.properties do Presto. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-log | Alterar os valores no arquivo log.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-config | Alterar os valores no arquivo config.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-password-authenticator | Alterar os valores no arquivo password-authenticator.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-env | Alterar os valores no arquivo trino-env.sh do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-node | Alterar os valores no arquivo node.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-blackhole | Alterar os valores no arquivo blackhole.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-cassandra | Alterar os valores no arquivo cassandra.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-delta | Alterar os valores no arquivo delta.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-hive | Alterar os valores no arquivo hive.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-exchange-manager | Alterar os valores no arquivo exchange-manager.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-iceberg | Alterar os valores no arquivo iceberg.properties do Trino. | Restarts Trino-Server (for Trino) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-jmx | Alterar os valores no arquivo jmx.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-kafka | Alterar os valores no arquivo kafka.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-localfile | Alterar os valores no arquivo localfile.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-memory | Alterar os valores no arquivo memory.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-mongodb | Alterar os valores no arquivo mongodb.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-mysql | Alterar os valores no arquivo mysql.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-postgresql | Alterar os valores no arquivo postgresql.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-raptor | Alterar os valores no arquivo raptor.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-redis | Alterar os valores no arquivo redis.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-redshift | Alterar os valores no arquivo redshift.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-tpch | Alterar os valores no arquivo tpch.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
trino-connector-tpcds | Alterar os valores no arquivo tpcds.properties do Trino. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Altere os valores no arquivo dbks-site.xml do Ranger. KMS | Restarts Ranger KMS Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Altere os valores no ranger-kms-site arquivo.xml do RangerKMS. | Restarts Ranger KMS Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Altere os valores no KMS ambiente Ranger. | Restarts Ranger KMS Server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Altere os valores no arquivo kms-log4j.properties do Ranger. KMS | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Altere os valores do arquivo CA no S3 para Minha SQL SSL conexão com o RangerKMS. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Configurações EMR selecionadas pela Amazon para o Apache Spark. | This property modifies spark-defaults. See actions there. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Alterar os valores no arquivo spark-defaults.conf do Spark. | Restarts Spark history server and Spark thrift server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Alterar os valores no ambiente do Spark. | Restarts Spark history server and Spark thrift server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Alterar os valores no arquivo hive-site.xml do Spark. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j2 | Alterar os valores no arquivo log4j2.properties do Spark. | Restarts Spark history server and Spark thrift server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Alterar os valores no arquivo metrics.properties do Spark. | Restarts Spark history server and Spark thrift server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-env | Alterar os valores no ambiente do Sqoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-oraoop-site | Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-site | Alterar os valores no arquivo sqoop-site.xml do Sqoop. | Not available. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Alterar os valores no arquivo tez-site.xml do Tez. | Restart Oozie and HiveServer2. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Mude os valores no YARN ambiente. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Altere os valores no YARN arquivo yarn-site.xml do. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Alterar os valores no ambiente do Zeppelin. | Restarts Zeppelin. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-site | Alterar as definições da configuração em zeppelin-site.xml. | Restarts Zeppelin. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Altere os valores no ZooKeeper arquivo zoo.cfg do. | Restarts Zookeeper server. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Altere os valores no ZooKeeper arquivo log4j.properties. | Restarts Zookeeper server. |
Log de alterações 6.9.0
Log de alterações da versão 6.9.0 e das notas da versão | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Data | Evento | Descrição | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2023-08-30 | Atualizar notas da versão | Adicionada correção para um problema de incompatibilidade de sequência de tempo | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2023-08-21 | Atualizar notas da versão | Adicionado um problema conhecido com o Hadoop 3.3.3. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2023-07-26 | Atualizar | Novos rótulos de versão 2.0.20230612.0 e 2.0.20230628.0 do sistema operacional. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-12-13 | Notas da versão atualizadas | Recurso adicionado e problema conhecido para tempo de execução com SageMaker | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-11-29 | Notas da versão e documentação atualizadas | Adicionado atributo para a integração do Amazon Redshift para Apache Spark | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-11-23 | Notas da versão atualizadas | Removida entrada Log4j | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-11-18 | Implantação concluída | Amazon EMR 6.9 totalmente implantado em todas as regiões suportadas |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-11-18 | Publicação de documentos | Notas de lançamento do Amazon EMR 6.9 publicadas pela primeira vez | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
2022-11-14 | Lançamento inicial | Amazon EMR 6.9 implantado em regiões comerciais limitadas |