Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Amazon EMR, versión 6.4.0
Versiones de las aplicaciones de la versión 6.4.0
Esta versión incluye las siguientes aplicaciones: Flink
En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).
Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | |
---|---|---|---|---|
AWS SDK for Java | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.4 | 2.2.6 | 2.2.6 | 2.2.6-amzn-0 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 |
Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 |
Livy | 0.7.1 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 |
Phoenix | 5.1.2 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,254.1 | 0,245.1 | 0,245.1 | 0,238,3 |
Spark | 3.1.2 | 3.1.1 | 3.1.1 | 3.0.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestosQL) | 359 | 350 | 350 | 343 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 |
Notas de la versión 6.4.0
Las siguientes notas de la versión incluyen información sobre la versión 6.4.0 de Amazon EMR. Los cambios son respecto a la versión 6.3.0.
Fecha de lanzamiento inicial: 20 de septiembre de 2021
Fecha de lanzamiento: 21 de marzo de 2022
Aplicaciones compatibles
-
AWS SDK for Java versión 1.12.31
-
CloudWatch Sink versión 2.2.0
-
Conector de DynamoDB, versión 4.16.0
-
EMRFS, versión 2.47.0
-
Amazon EMR Goodies, versión 3.2.0
-
Conector de Kinesis para Amazon EMR, versión 3.5.0
-
Servidor de registros de Amazon EMR, versión 2.1.0
-
Scripts de Amazon EMR, versión 2.5.0
-
Flink, versión 1.13.1
-
Versión de Ganglia 3.7.2
-
AWS Cliente Glue Hive Metastore versión 3.3.0
-
Hadoop, versión 3.2.1-amzn-4
-
HBase versión 2.4.4-amzn-0
-
HBase-operator-tools 1.1.0
-
HCatalog versión 3.1.2-amzn-5
-
Hive, versión 3.1.2-amzn-5
-
Hudi versión 0.8.0-amzn-0
-
Hue versión 4.9.0
-
Java JDK, versión Corretto-8.302.08.1 (compilación 1.8.0_302-b08)
-
JupyterHub versión 1.4.1
-
Livy versión 0.7.1-incubating
-
MXNet versión 1.8.0
-
Oozie versión 5.2.1
-
Phoenix versión 5.1.2
-
Pig, versión 0.17.0
-
Presto, versión 0.254.1-amzn-0
-
Trino, versión 359
-
Apache Ranger KMS (cifrado transparente multimaestro), versión 2.0.0
-
ranger-plugins 2.0.1-amzn-0
-
ranger-s3-plugin 1.2.0
-
SageMaker Spark SDK versión 1.4.1
-
Scala, versión 2.12.10 (máquina virtual de servidor OpenJDK de 64 bits, Java 1.8.0_282)
-
Spark, versión 3.1.2-amzn-0
-
spark-rapids 0.4.1
-
Sqoop, versión 1.4.7
-
TensorFlow versión 2.4.1
-
Tez, versión 0.9.2
-
Zeppelin versión 0.9.0
-
ZooKeeper versión 3.5.7
-
Conectores y controladores: conector de DynamoDB 4.16.0
Nuevas características
-
[Escalado administrado] Optimización del escalado administrado de datos de mezclas aleatorias de Spark: para las versiones 5.34.0 y posteriores de Amazon EMR, y las versiones 6.4.0 y posteriores de EMR, el escalado administrado ahora es compatible con los datos de mezclas aleatorias de Spark (datos que Spark redistribuye entre las particiones para realizar operaciones específicas). Para más información sobre las operaciones de mezclas aleatorias, consulte Uso del escalado administrado de EMR en Amazon EMR en la Guía de administración de Amazon EMR y Spark Programming Guide
. -
En los clústeres de Amazon EMR habilitados para Apache Ranger, puede utilizar Apache Spark SQL para insertar datos o actualizar las tablas del metaalmacén de Apache Hive mediante
INSERT INTO
,INSERT OVERWRITE
yALTER TABLE
. Al utilizar ALTER TABLE con Spark SQL, la ubicación de una partición debe ser el directorio secundario de la ubicación de una tabla. Amazon EMR no admite actualmente la inserción de datos en una partición en la que la ubicación de la partición es diferente de la ubicación de la tabla. -
PrestoSQL se ha renombrado como Trino
. -
Hive: la ejecución de consultas SELECT sencillas con la cláusula LIMIT se acelera al detener la ejecución de las consultas en cuanto se obtiene el número de registros mencionado en la cláusula LIMIT. Las consultas SELECT simples son consultas que no tienen GROUP BY u ORDER BY por cláusula o consultas que no tienen una etapa reductora. Por ejemplo,
SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>
.
Control de simultaneidad de Hudi
-
Hudi ahora es compatible con el control de simultaneidad optimista (OCC), que se puede utilizar con operaciones de escritura como UPSERT e INSERT para permitir cambios desde varios escritores a la misma tabla de Hudi. Se trata de un OCC de nivel de archivo, por lo que dos confirmaciones (o escritores) pueden escribir en la misma tabla, siempre que sus cambios no entren en conflicto. Para más información, consulte Control de simultaneidad de Hudi
. -
Los clústeres de Amazon EMR tienen instalado ZooKeeper, que se puede utilizar como proveedor de bloqueos para OCC. Para facilitar el uso de esta característica, los clústeres de Amazon EMR tienen las siguientes propiedades preconfiguradas:
hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<
EMR Zookeeper URL
> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port
> hoodie.write.lock.zookeeper.base_path=/hudiPara habilitar el OCC, debe configurar las siguientes propiedades con sus opciones de trabajo de Hudi o en el nivel de clúster mediante la API de configuraciones de Amazon EMR:
hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=
<Key to uniquely identify the Hudi table>
(Table Name is a good option)
Hudi Monitoring: CloudWatch integración de Amazon para informar sobre las métricas de Hudi
-
Amazon EMR admite la publicación de Hudi Metrics en Amazon. CloudWatch Se habilita mediante el establecimiento de las siguientes configuraciones obligatorias:
hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
Las siguientes son configuraciones opcionales de Hudi que se pueden cambiar:
Opción Descripción Valor hoodie.metrics.cloudwatch.report.period.seconds
Frecuencia (en segundos) con la que se reportan las métricas a Amazon CloudWatch
El valor predeterminado es 60 segundos, lo cual está bien para la resolución predeterminada de un minuto que ofrece Amazon. CloudWatch
hoodie.metrics.cloudwatch.metric.prefix
Prefijo que se agregará al nombre de cada métrica
El valor predeterminado es vacío (sin prefijo)
hoodie.metrics.cloudwatch.namespace
Espacio de CloudWatch nombres de Amazon en el que se publican las métricas
El valor predeterminado es Hudi
hoodie.metrics.cloudwatch. maxDatumsPerSolicitud
Número máximo de datos que se pueden incluir en una solicitud a Amazon CloudWatch
El valor predeterminado es 20, que es el mismo que el CloudWatch valor predeterminado de Amazon
Soporte y mejoras en las configuraciones de Amazon EMR Hudi
-
Los clientes ahora pueden aprovechar la API de configuraciones de EMR y la característica de reconfiguración para configurar los ajustes de Hudi en el nivel de clúster. Se ha introducido un nuevo soporte de configuración basado en archivosvia /etc/hudi/conf/hudi: defaults.conf, similar al de otras aplicaciones como Spark, Hive, etc. EMR configura algunos valores predeterminados para mejorar la experiencia del usuario:
—
hoodie.datasource.hive_sync.jdbcurl
se ha configurado en la URL del servidor de Hive del clúster y ya no es necesario especificarlo. Esto resulta especialmente útil cuando se ejecuta un trabajo en el modo de clúster de Spark, en el que anteriormente había que especificar la IP maestra de Amazon EMR.— configuraciones HBase específicas, que son útiles para usar el índice con Hudi. HBase
— Configuración específica para el proveedor de bloqueos de ZooKeeper, tal como se explica en la sección de control de simultaneidad, que facilita el uso del control de simultaneidad optimista (OCC).
-
Se han introducido cambios adicionales para reducir el número de configuraciones que hay que pasar y, en la medida de lo posible, deducir automáticamente:
— La palabra clave
partitionBy
se puede utilizar para especificar la columna de particiones.— Al activar Hive Sync, ya no es obligatorio pasar
HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY
. Estos valores se pueden deducir del nombre de la tabla de Hudi y del campo de partición.— No es obligatorio pasar
KEYGENERATOR_CLASS_OPT_KEY
y se puede deducir de casos más simples deSimpleKeyGenerator
yComplexKeyGenerator
.
Advertencias de Hudi
-
Hudi no admite la ejecución vectorizada en las tablas Hive for Merge on Read (MoR) y Bootstrap. Por ejemplo,
count(*)
presenta un error con la tabla en tiempo real de Hudi cuandohive.vectorized.execution.enabled
se establece en true. Como solución alternativa, puede deshabilitar la lectura vectorizada al establecerhive.vectorized.execution.enabled
enfalse
. -
La compatibilidad con varios escritores no es compatible con la característica de arranque de Hudi.
-
Flink Streamer y Flink SQL son características experimentales de esta versión. Se recomienda el uso de estas características en implementaciones de producción.
Cambios, mejoras y problemas resueltos
Esta es una versión para solucionar problemas con el escalado de Amazon EMR cuando no logra escalar o reducir verticalmente de forma correcta un clúster o provoca errores en las aplicaciones.
Anteriormente, el reinicio manual del administrador de recursos en un clúster multimaestro provocaba que los daemons en el clúster de Amazon EMR, como ZooKeeper, recargaran todos los nodos perdidos o retirados previamente en el archivo znode de ZooKeeper. Esto provocaba que se superaran los límites predeterminados en ciertas situaciones. Amazon EMR ahora elimina del archivo de ZooKeeper los registros de nodos perdidos o retirados que tengan más de una hora de antigüedad y se han incrementado los límites internos.
Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
SPARK-29683
. Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados. YARN-9011
. Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente. Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debía a que el daemon en el clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con HDFS o YARN en ejecución en el nodo principal.
-
Configuración de un clúster para corregir los problemas de rendimiento del servidor YARN Timeline de Apache en las versiones 1 y 1.5
Las versiones 1 y 1.5 del servidor YARN Timeline de Apache pueden provocar problemas de rendimiento con clústeres de EMR grandes y muy activos, especialmente con
yarn.resourcemanager.system-metrics-publisher.enabled=true
, que es la configuración predeterminada de Amazon EMR. Un servidor YARN Timeline v2 de código abierto resuelve el problema de rendimiento relacionado con la escalabilidad del servidor YARN Timeline.Otras alternativas para este problema incluyen:
Configurando yarn.resourcemanager. system-metrics-publisher.enabled=false en yarn-site.xml.
La habilitación de la corrección para este problema al crear un clúster, tal y como se describe a continuación.
Las siguientes versiones de Amazon EMR contienen una corrección para este problema de rendimiento del servidor YARN Timeline.
EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x
Para habilitar la corrección en cualquiera de las versiones de Amazon EMR especificadas anteriormente, defina estas propiedades como
true
en un archivo JSON de configuración que se pasa mediante el parámetro de comandoaws emr create-cluster
:--configurations file://./configurations.json
. También puede habilitar la corrección mediante la interfaz de usuario de la consola de reconfiguración.Ejemplo del contenido del archivo configurations.json:
[ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
Los servidores WebHDFS y HttpFS están deshabilitados de forma predeterminada. Puede volver a habilitar WebHDFS mediante la configuración de Hadoop,
dfs.webhdfs.enabled
. El servidor HttpFS se puede iniciar mediantesudo systemctl start hadoop-httpfs
.-
HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN
arn:aws:s3:::amazonlinux-2-repos-$region/*
del bucket de Amazon Linux a su política (sustituya$region
por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de discusión. AWS Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes. -
Hive: se ha mejorado el rendimiento de las consultas de escritura al permitir el uso de un directorio temporal en HDFS para el último trabajo. Los datos temporales del trabajo final se escriben en HDFS en lugar de Amazon S3 y el rendimiento mejora porque los datos se mueven de HDFS a la ubicación de la tabla final (Amazon S3) en lugar de entre dispositivos Amazon S3.
-
Hive: mejora el tiempo de compilación de consultas hasta 2,5 veces con la eliminación de particiones del metaalmacén de Glue.
-
De forma predeterminada, cuando Hive UDFs transfiere los elementos integrados al servidor Hive Metastore, solo un subconjunto de los integrados UDFs se pasa a Glue Metastore, ya que Glue solo admite operadores de expresiones limitadas. Si configura
hive.glue.partition.pruning.client=true
, toda la eliminación de particiones se realiza en el cliente. Si configurahive.glue.partition.pruning.server=true
, entonces toda la eliminación de particiones se realiza en el lado del servidor.
Problemas conocidos
Las consultas de Hue no funcionan en Amazon EMR 6.4.0 porque el servidor HttpFS de Apache Hadoop está deshabilitado de forma predeterminada. Para usar Hue en Amazon EMR 6.4.0, inicie manualmente el servidor HttpFS en el nodo principal de Amazon EMR mediante
sudo systemctl start hadoop-httpfs
o utilice un paso de Amazon EMR.La característica Cuadernos de Amazon EMR que se utiliza con la suplantación de usuarios de Livy no funciona porque HttpFS está deshabilitado de forma predeterminada. En este caso, el cuaderno de EMR no puede conectarse al clúster que tiene habilitada la suplantación de Livy. La solución alternativa consiste en iniciar el servidor HttpFS antes de conectar el cuaderno de EMR al clúster mediante
sudo systemctl start hadoop-httpfs
.En la versión 6.4.0 de Amazon EMR, Phoenix no admite el componente de conectores de Phoenix.
Para utilizar las acciones de Spark con Apache Oozie, debe agregar la siguiente configuración al archivo
workflow.xml
de Oozie. De lo contrario, varias bibliotecas críticas, como Hadoop y EMRFS, no aparecerán en la ruta de clases de los ejecutores de Spark que lance Oozie.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
-
Se analizan dos o más particiones de la misma tabla.
-
Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo,
s3://bucket/table/p=a
es un prefijo des3://bucket/table/p=a b
. -
El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter
/
(U+002F). Por ejemplo, el carácter de espacio (U+0020) que aparece entre a y b ens3://bucket/table/p=a b
entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control:!"#$%&‘()*+,-
. Para más información, consulte UTF-8 encoding table and Unicode characters.
Como solución alternativa a este problema, defina la configuración
spark.sql.sources.fastS3PartitionDiscovery.enabled
comofalse
en la clasificaciónspark-defaults
.-
Versiones de los componentes de la versión 6.4.0
A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con emr
o aws
. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.
Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato
. La CommunityVersion
-amzn-EmrVersion
empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado EmrVersion
myapp-component
con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será 2.2-amzn-2
.
Componente | Versión | Descripción |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark |
emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. |
emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. |
emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. |
emr-notebook-env | 1.3.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter |
emr-s3-dist-cp | 2.18.0 | Aplicación de copia distribuida optimizada para Amazon S3. |
emr-s3-select | 2.1.0 | Conector S3Select de EMR |
emrfs | 2.47,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. |
flink-client | 1.13.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. |
flink-jobmanager-config | 1.13.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager |
ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. |
ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. |
ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. |
hadoop-client | 3.2.1-amzn-4 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-4 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. |
hadoop-hdfs-library | 3.2.1-amzn-4 | Biblioteca y cliente de línea de comandos HDFS |
hadoop-hdfs-namenode | 3.2.1-amzn-4 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. |
hadoop-hdfs-journalnode | 3.2.1-amzn-4 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. |
hadoop-httpfs-server | 3.2.1-amzn-4 | Punto de enlace HTTP para operaciones HDFS. |
hadoop-kms-server | 3.2.1-amzn-4 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider |
hadoop-mapred | 3.2.1-amzn-4 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-4 | Servicio de YARN para la administración de contenedores en un nodo individual. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. |
hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. |
hbase-hmaster | 2.4.4-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. |
hbase-region-server | 2.4.4-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. |
hbase-client | 2.4.4-amzn-0 | HBase cliente de línea de comandos. |
hbase-rest-server | 2.4.4-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase |
hbase-thrift-server | 2.4.4-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. |
hcatalog-client | 3.1.2-amzn-5 | El cliente de línea de comando "hcat" para manipular hcatalog-server. |
hcatalog-server | 3.1.2-amzn-5 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. |
hcatalog-webhcat-server | 3.1.2-amzn-5 | Punto final HTTP que proporciona una interfaz REST para HCatalog. |
hive-client | 3.1.2-amzn-5 | Cliente de línea de comando de Hive. |
hive-hbase | 3.1.2-amzn-5 | Hive-hbase client. |
hive-metastore-server | 3.1.2-amzn-5 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. |
hive-server2 | 3.1.2-amzn-5 | Servicio para aceptar consultas de Hive como solicitudes web. |
hudi | 0.8.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. |
hudi-presto | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. |
hudi-trino | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. |
hudi-spark | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. |
hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop |
jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter |
livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark |
nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso |
mxnet | 1.8.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. |
mariadb-server | 5.5.68+ | Servidor de base de datos de MariaDB. |
nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda |
oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. |
oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. |
opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. |
phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente |
phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica |
presto-coordinator | 0.254.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. |
presto-worker | 0.254.1-amzn-0 | Service para ejecutar partes de una consulta. |
presto-client | 0.254.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. |
trino-coordinator | 359 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. |
trino-worker | 359 | Service para ejecutar partes de una consulta. |
trino-client | 359 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. |
pig-client | 0.17.0 | Cliente de línea de comando de Pig. |
r | 4.0.2 | Proyecto R para análisis estadístico |
ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger |
spark-client | 3.1.2-amzn-0 | Clientes de línea de comando de Spark. |
spark-history-server | 3.1.2-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. |
spark-on-yarn | 3.1.2-amzn-0 | Motor de ejecución en memoria para YARN. |
spark-yarn-slave | 3.1.2-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. |
spark-rapids | 0.4.1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs |
sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. |
tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. |
webserver | 2.4.41+ | Servidor HTTP de Apache. |
zeppelin-server | 0.9.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. |
zookeeper-server | 3.5.7 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. |
zookeeper-client | 3.5.7 | ZooKeeper cliente de línea de comandos. |
Clasificaciones de configuración de la versión 6.4.0
Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, hive-site.xml
. Para obtener más información, consulte Configuración de aplicaciones.
Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte Reconfiguración de un grupo de instancias en un clúster en ejecución.
Clasificaciones | Descripción | Acciones de reconfiguración |
---|---|---|
capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. |
container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. |
container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. |
core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Cambie la configuración relacionada con el docker. | Not available. |
emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. |
flink-log4j-session | Cambie la configuración de log4j-session.properties de Flink para sesión de Kubernetes o Yarn. | Restarts Flink history server. |
flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. |
hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. |
hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. |
hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. |
hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. |
hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. |
hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. |
hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. |
hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. |
hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. |
hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. |
hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. |
hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. |
httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. |
hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. |
hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. |
hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. |
jupyter-notebook-conf | Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook. | Not available. |
jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. |
jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. |
livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. |
livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. |
livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. |
mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. |
oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. |
oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. |
phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. |
phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. |
pig-env | Cambiar los valores en el entorno de Pig. | Not available. |
pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. |
pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. |
presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. |
presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. |
presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. |
presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. |
presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. |
presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. |
presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. |
presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. |
presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. |
presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. |
presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. |
presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. |
presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. |
presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. |
presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. |
presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. |
trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) |
trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. |
trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. |
trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. |
trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. |
trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. |
trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. |
trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. |
trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. |
trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. |
trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. |
trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. |
trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. |
trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. |
trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. |
trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. |
ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. |
ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. |
spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. |
spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. |
sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. |
sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. |
tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. |
yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. |