Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Amazon EMR versión 6.3.0
Versiones de las aplicaciones de la versión 6.3.0
Esta versión admite las siguientes aplicaciones: Flink
En la siguiente tabla se enumeran las versiones de las aplicaciones disponibles en esta versión de Amazon EMR y las versiones de las aplicaciones en las tres EMR versiones anteriores de Amazon (cuando proceda).
Para obtener un historial completo de las versiones de las aplicaciones de cada versión de AmazonEMR, consulta los siguientes temas:
emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | |
---|---|---|---|---|
AWS SDKpara Java | 1.11.977 | 1.11.880 | 1.11.880 | 1.11,828 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 |
Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | - |
JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,245.1 | 0,238,3 | 0,238,3 | 0.232 |
Spark | 3.1.1 | 3.0.1 | 3.0.1 | 3.0.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (Presto) SQL | 350 | 343 | 343 | 338 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notas de la versión 6.3.0
Las siguientes notas de la versión incluyen información sobre la EMR versión 6.3.0 de Amazon. Los cambios son respecto a la versión 6.2.0.
Fecha de lanzamiento inicial: 12 de mayo de 2021
Fecha de la última actualización: 9 de agosto de 2021
Aplicaciones compatibles
AWS SDK for Java versión 1.11.977
CloudWatch Sink versión 2.1.0
Conector de DynamoDB, versión 4.16.0
EMRFSversión 2.46.0
Amazon EMR Goodies versión 3.2.0
Amazon EMR Kinesis Connector versión 3.5.0
Amazon EMR Record Server versión 2.0.0
Amazon EMR Scripts versión 2.5.0
Flink, versión 1.12.1
Versión de Ganglia 3.7.2
AWS Cliente Glue Hive Metastore versión 3.2.0
Hadoop, versión 3.2.1-amzn-3
HBaseversión 2.2.6-amzn-1
HBase-operator-tools 1.0.0
HCatalogversión 3.1.2-amzn-0
Hive, versión 3.1.2-amzn-4
Hudi versión 0.7.0-amzn-0
Hue versión 4.9.0
JDKVersión de Java Corretto-8.282.08.1 (compilación 1.8.0_282-b08)
JupyterHub versión 1.2.0
Livy versión 0.7.0-incubating
MXNetversión 1.7.0
Oozie versión 5.2.1
Versión de Phoenix 5.0.0
Pig, versión 0.17.0
Presto, versión 0.245.1-amzn-0
Presto versión 3.50 SQL
Apache Ranger KMS (cifrado transparente multimaestro) versión 2.0.0
ranger-plugins 2.0.1-amzn-0
ranger-s3-plugin 1.1.0
SageMaker Spark versión 1.4.1 SDK
Scala versión 2.12.10 (máquina virtual de servidor abierta de JDK 64 bits, Java 1.8.0_282)
Spark, versión 3.1.1-amzn-0
spark-rapids 0.4.1
Sqoop, versión 1.4.7
TensorFlow versión 2.4.1
Tez, versión 0.9.2
Zeppelin versión 0.9.0
Versión de Zookeeper 3.4.14
Conectores y controladores: conector de DynamoDB 4.16.0
Nuevas características
Amazon EMR es compatible con los puntos de acceso Amazon S3, una función de Amazon S3 que le permite administrar fácilmente el acceso a los lagos de datos compartidos. Con su alias de punto de acceso Amazon S3, puede simplificar el acceso a los datos a gran escala en AmazonEMR. Puede utilizar los puntos de acceso Amazon S3 con todas las versiones de Amazon sin EMR coste adicional en todas AWS las regiones en las que Amazon EMR esté disponible. Para más información acerca de los puntos de acceso de Amazon S3 y los alias de punto de acceso, consulte Uso de un alias de estilo bucket para el punto de acceso en la Guía del usuario de Amazon S3.
Las novedades
DescribeReleaseLabel
yListReleaseLabel
API los parámetros proporcionan los detalles de la etiqueta EMR de lanzamiento de Amazon. Puedes enumerar mediante programación las versiones disponibles en la región en la que se ejecuta la API solicitud y enumerar las aplicaciones disponibles para una etiqueta de EMR lanzamiento específica de Amazon. Los parámetros de las etiquetas de lanzamiento también muestran las EMR versiones de Amazon compatibles con una aplicación específica, como Spark. Esta información se puede utilizar para lanzar clústeres de Amazon EMR mediante programación. Por ejemplo, puede iniciar un clúster con la versión más reciente de los resultados deListReleaseLabel
. Para obtener más información, consulta DescribeReleaseLabely ListReleaseLabelsen Amazon EMR API Reference.Con Amazon EMR 6.3.0, puede lanzar un clúster que se integre de forma nativa con Apache Ranger. Apache Ranger es un marco de código abierto para habilitar, supervisar y administrar la seguridad integral de los datos en toda la plataforma Hadoop. Para obtener más información, consulte Apache Ranger
. Con la integración nativa, puedes usar tu propio Apache Ranger para aplicar un control de acceso a los datos detallado en Amazon. EMR Consulte Integrar Amazon EMR con Apache Ranger en la Guía de EMR administración de Amazon. Políticas administradas por alcance: para alinearse con las AWS mejores prácticas, Amazon EMR ha introducido políticas EMR administradas predeterminadas con alcance v2 como sustitutas de las políticas que quedarán obsoletas. Consulta las políticas EMR gestionadas por Amazon.
Estado de soporte de Instance Metadata Service (IMDS) V2: en Amazon EMR 6.2 o versiones posteriores, EMR los componentes de Amazon se utilizan IMDSv2 para todas las IMDS llamadas. Para IMDS las llamadas en el código de su aplicación, puede usar ambos IMDSv1 códigos o configurarlos para IMDS que se usen solo IMDSv2 para mayor seguridad. IMDSv2 Si lo inhabilitas IMDSv1 en versiones anteriores de Amazon EMR 6.x, se produce un error al iniciar el clúster.
Cambios, mejoras y problemas resueltos
-
Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra escalar correctamente un clúster hacia arriba o hacia abajo o provoca errores en las aplicaciones.
Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons del EMR clúster de Amazon ejecutaban actividades de comprobación de estado, como recopilar el estado y HDFS el estado del YARN nodo. Esto se debía a que los daemons del clúster no podían comunicar los datos del estado de salud de un nodo a los componentes internos de Amazon. EMR
Se han mejorado los daemons EMR del clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP, a fin de mejorar la fiabilidad durante las operaciones de escalado.
SPARK-29683
. Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados. YARN-9011.
Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante el YARN desmantelamiento, cuando el clúster intentaba ampliarse o reducirse. Se solucionó el problema que provocaba errores en los pasos o tareas durante el escalado del clúster al garantizar que los estados de los nodos fueran siempre coherentes entre los daemons del EMR clúster de Amazon y/. YARN HDFS
Se ha corregido un problema que provocaba que las operaciones de clúster, como la reducción de escala y el envío por pasos, fallaran en EMR los clústeres de Amazon habilitados con la autenticación Kerberos. Esto se debió a que el daemon EMR integrado en el clúster de Amazon no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura conHDFS/que se YARN ejecuta en el nodo principal.
Las EMR versiones más recientes de Amazon solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior AL2 en AmazonEMR. Las EMR versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores ahora incluyen una corrección permanente con una configuración más alta de «Máximo de archivos abiertos».
SQLEl modo de explicación de la
extended
formatted
interfaz de usuariode Spark ha cambiado por defecto de a en Spark 3.1. Amazon lo EMR revirtió extended
para incluir información del plan lógico en la SQL interfaz de usuario de Spark. Esto se puede revertir al establecerspark.sql.ui.explainMode
enformatted
.-
Se ha agregado portabilidad con versiones anteriores para las siguientes confirmaciones desde la ramificación maestra de Spark.
- [SPARK-34752] [BUILD] Cambia
Jetty a 9.4.37 para dirigirte a -2020-27223. CVE - [-34534] Se corrige el orden cuando se utilizan SPARK para
buscar bloques. blockIds FetchShuffleBlocks - [SPARK-34681] [SQL]
Se ha corregido un error que provocaba la unión completa del hash barajado exterior cuando se construía el lado izquierdo con condiciones desiguales. - [SPARK-34497] [SQL]
Se corrigieron los proveedores de JDBC conexión integrados para restablecer los cambios en el contexto de seguridad. JVM Para mejorar la interoperabilidad con el RAPIDs complemento de Nvidia Spark, se ha añadido una solución alternativa para solucionar un problema que impedía que se activara la reducción dinámica de particiones al utilizar Nvidia Spark RAPIDs con la ejecución de consultas adaptativas deshabilitada, consulte los números #1378 y RAPIDS #1386
. RAPIDS Para obtener más información sobre la nueva configuración spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse
, consulta el RAPIDSnúmero #1386.En Spark 3.1 de código abierto, se ha cambiado el algoritmo predeterminado del confirmador de salida de archivos de la versión 2 a la versión 1. Para obtener más información, consulta Amazon EMR Optimización del rendimiento de Spark: reducción dinámica de particiones
. Amazon EMR volvió al algoritmo v2, el predeterminado utilizado en las versiones anteriores de Amazon EMR 6.x, para evitar la regresión del rendimiento. Para restaurar el comportamiento de Spark 3.1 de código abierto, establezca
spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version
en1
. Spark, de código abierto, ha realizado este cambio porque la confirmación de tareas en la versión 2 del algoritmo de confirmación de salida de archivos no es atómica, lo que puede provocar un problema de corrección de los datos de salida en algunos casos. Sin embargo, la confirmación de tareas en la versión 1 del algoritmo tampoco es atómica. En algunos escenarios, la confirmación de tareas incluye una eliminación realizada antes del cambio de nombre. Esto puede provocar un problema silencioso de corrección de los datos.Se corrigieron los problemas de Managed Scaling en EMR versiones anteriores de Amazon y se realizaron mejoras para reducir significativamente las tasas de errores de las aplicaciones.
Se instaló el SDK paquete AWS Java en cada clúster nuevo. Se trata de un contenedor único que contiene todos los servicios SDKs y sus dependencias, en lugar de contenedores de componentes individuales. Para obtener más información, consulte Java SDK Bundled Dependency
.
Problemas conocidos
En el caso de los clústeres de subredes privadas de Amazon EMR 6.3.0 y 6.2.0, no puede acceder a la interfaz de usuario web de Ganglia. Aparecerá el error “Acceso denegado (403)”. Otras páginas webUIs, como Spark, Hue, Zeppelin JupyterHub, Livy y Tez, funcionan con normalidad. El acceso a la interfaz de usuario web de Ganglia en los clústeres de subredes públicas también funciona con normalidad. Para resolver este problema, reinicie el servicio httpd en el nodo principal con
sudo systemctl restart httpd
. Este problema se ha corregido en Amazon EMR 6.4.0.Cuando el catálogo de datos de AWS Glue está activado, es posible que no se URI pueda utilizar Spark para acceder a una base de datos de AWS Glue con una ubicación de cadena nula. Esto ocurre con las EMR versiones anteriores de Amazon, pero con la SPARK -31709 (https://issues.apache. org/jira/browse/SPARK-31709) hace que se aplique a más casos. Por ejemplo, al crear una tabla dentro de la base de datos AWS Glue predeterminada cuya ubicación URI es una cadena nula, se produce un
spark.sql("CREATE TABLE mytest (key string) location '/table_path';")
error con el mensaje «No se puede crear una ruta a partir de una cadena vacía». Para solucionar este problema, establece manualmente la ubicación URI de tus bases de datos de AWS Glue y, a continuación, crea tablas dentro de estas bases de datos con Spark.En Amazon EMR 6.3.0, Presto se SQL actualizó de la versión 343 a la versión 350. Hay dos cambios respecto a la seguridad en el código abierto que se relacionan con este cambio de versión. El control de acceso al catálogo basado en archivos cambia de
deny
aallow
cuando las reglas de propiedades de la tabla, el esquema o la sesión no están definidas. Además, el control de acceso al sistema basado en archivos se ha modificado para admitir archivos sin reglas de catálogo definidas. En este caso, se permite todo el acceso a los catálogos.Para más información, consulte Release 344 (9 Oct 2020)
. Tenga en cuenta el directorio de usuarios de Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop y sus subdirectorios, pero tenga en cuenta los permisos de esos directorios para proteger la información confidencial.
-
Reducir el límite de «máximo de archivos abiertos» en las versiones anteriores AL2 [corregido en las versiones más recientes]. EMRLas versiones de Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Linux ofAmazon 2 (), que tienen un valor de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon se crean con la AL2 configuración predeterminada. EMR AMI EMRLas versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores incluyen una corrección permanente con una configuración más alta de «Número máximo de archivos abiertos». Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la configuración EMR predeterminada de Amazon AMI tiene una configuración de límite ulimit predeterminada de 4096 para el «Máximo de archivos abiertos», que es inferior al límite de 65536 archivos de Linux 2. latestAmazon AMI La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración ulimit al crear el clúster.
Si utilizas una EMR versión anterior de Amazon que no tiene una solución permanente para este problema, la siguiente solución alternativa te permite establecer de forma explícita el límite ulimit del controlador de instancias en un máximo de 65536 archivos.
Establecimiento explícito de un ulimit desde la línea de comandos
Edite
/etc/systemd/system/instance-controller.service
para agregar los siguientes parámetros a la sección de servicio.LimitNOFILE=65536
LimitNPROC=65536
Reinicie InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Establecimiento de un ulimit mediante una acción de arranque (BA)
También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
importante
EMRlos clústeres que ejecutan Amazon Linux o Amazon Machine Images (AMIs) de Amazon Linux 2 utilizan el comportamiento predeterminado de Amazon Linux y no descargan e instalan automáticamente actualizaciones importantes y críticas del núcleo que requieren un reinicio. Este comportamiento es el mismo que el de otras EC2 instancias de Amazon que ejecutan el Amazon Linux predeterminadoAMI. Si aparecen nuevas actualizaciones de software de Amazon Linux que requieren un reinicio (como el núcleo y CUDA las actualizaciones) después de que esté disponible una EMR versión de Amazon, las instancias de EMR clúster que se ejecutan de forma predeterminada AMI no descargan e instalan automáticamente esas actualizaciones. NVIDIA Para obtener actualizaciones del núcleo, puedes personalizar tu Amazon EMR AMI para que utilice la versión más reciente de Amazon Linux AMI.
Para utilizar las acciones de Spark con Apache Oozie, debe agregar la siguiente configuración al archivo
workflow.xml
de Oozie. De lo contrario, EMRFS faltarán varias bibliotecas críticas, como Hadoop, en la ruta de clases de los ejecutores de Spark que lanza Oozie.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Si utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las EMR versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
-
Se analizan dos o más particiones de la misma tabla.
-
Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo,
s3://bucket/table/p=a
es un prefijo des3://bucket/table/p=a b
. -
El primer carácter que sigue al prefijo en el otro directorio de particiones tiene un valor UTF -8 inferior al carácter (U+002F).
/
Por ejemplo, el carácter de espacio (U+0020) que aparece entre a y b ens3://bucket/table/p=a b
entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control:!"#$%&‘()*+,-
. Para obtener más información, consulte la tabla de codificación UTF -8y los caracteres Unicode.
Como solución alternativa a este problema, defina la configuración
spark.sql.sources.fastS3PartitionDiscovery.enabled
comofalse
en la clasificaciónspark-defaults
.-
Versiones de los componentes de la versión 6.3.0
Los componentes que Amazon EMR instala con esta versión se muestran a continuación. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para los procesos y funciones del sistema. Normalmente, estos componentes comienzan con emr
o aws
. Los paquetes de aplicaciones de macrodatos de la versión más reciente de Amazon EMR suelen ser la última versión que se encuentra en la comunidad. Hacemos que las publicaciones para la comunidad estén disponibles en Amazon lo antes EMR posible.
Algunos componentes de Amazon EMR difieren de las versiones comunitarias. Estos componentes tienen una etiqueta de versión con el formato
. La CommunityVersion
-amzn-EmrVersion
empieza por 0. Por ejemplo, si el componente comunitario de código abierto denominado EmrVersion
myapp-component
en la versión 2.2 se ha modificado tres veces para incluirlo en diferentes EMR versiones de Amazon, su versión de lanzamiento aparece como2.2-amzn-2
.
Componente | Versión | Descripción |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. |
emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. |
emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. |
emr-notebook-env | 1.2.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter |
emr-s3-dist-cp | 2.18.0 | Aplicación de copia distribuida optimizada para Amazon S3. |
emr-s3-select | 2.1.0 | EMRConector S3Select |
emrfs | 2.46.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. |
flink-client | 1.12.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. |
flink-jobmanager-config | 1.12.1 | Administrar los recursos en EMR los nodos de Apache Flink. JobManager |
ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. |
ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. |
ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. |
hadoop-client | 3.2.1-amzn-3 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFSservicio a nivel de nodo para almacenar bloques. |
hadoop-hdfs-library | 3.2.1-amzn-3 | HDFSbiblioteca y cliente de línea de comandos |
hadoop-hdfs-namenode | 3.2.1-amzn-3 | HDFSservicio para rastrear nombres de archivos y ubicaciones de bloques. |
hadoop-hdfs-journalnode | 3.2.1-amzn-3 | HDFSservicio para administrar el diario del sistema de archivos Hadoop en clústeres de alta disponibilidad. |
hadoop-httpfs-server | 3.2.1-amzn-3 | HTTPpunto final para operaciones. HDFS |
hadoop-kms-server | 3.2.1-amzn-3 | Servidor de administración de claves criptográficas basado en el de Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-3 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-3 | YARNservicio para gestionar contenedores en un nodo individual. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | YARNservicio para asignar y administrar los recursos del clúster y las aplicaciones distribuidas. |
hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Servicio de recuperación de información actual e histórica para YARN aplicaciones. |
hbase-hmaster | 2.2.6-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. |
hbase-region-server | 2.2.6-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. |
hbase-client | 2.2.6-amzn-1 | HBasecliente de línea de comandos. |
hbase-rest-server | 2.2.6-amzn-1 | Servicio que proporciona un RESTful HTTP punto final para. HBase |
hbase-thrift-server | 2.2.6-amzn-1 | Servicio que proporciona un punto final de Thrift aHBase. |
hcatalog-client | 3.1.2-amzn-4 | El cliente de línea de comando "hcat" para manipular hcatalog-server. |
hcatalog-server | 3.1.2-amzn-4 | Prestación de serviciosHCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. |
hcatalog-webhcat-server | 3.1.2-amzn-4 | HTTPpunto final que proporciona una REST interfaz paraHCatalog. |
hive-client | 3.1.2-amzn-4 | Cliente de línea de comando de Hive. |
hive-hbase | 3.1.2-amzn-4 | Hive-hbase client. |
hive-metastore-server | 3.1.2-amzn-4 | Servicio para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL las operaciones de Hadoop. |
hive-server2 | 3.1.2-amzn-4 | Servicio para aceptar consultas de Hive como solicitudes web. |
hudi | 0.7.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. |
hudi-presto | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. |
hudi-prestosql | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. SQL |
hudi-spark | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. |
hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop |
jupyterhub | 1.2.2 | Servidor multiusuario para blocs de notas Jupyter |
livy-server | 0.7.0-incubating | RESTinterfaz para interactuar con Apache Spark |
nginx | 1.12.1 | nginx [engine x] es HTTP un servidor proxy inverso |
mxnet | 1.7.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. |
mariadb-server | 5,5,68 + | Servidor de base de datos de MariaDB. |
nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda |
oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. |
oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. |
opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. |
phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente |
phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor liviano que proporciona JDBC acceso, así como búferes de protocolo y acceso a JSON formatos al Avatica API |
presto-coordinator | 0.245.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. |
presto-worker | 0.245.1-amzn-0 | Service para ejecutar partes de una consulta. |
presto-client | 0.245.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. |
prestosql-coordinator | 350 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. |
prestosql-worker | 350 | Service para ejecutar partes de una consulta. |
prestosql-client | 350 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. |
pig-client | 0.17.0 | Cliente de línea de comando de Pig. |
r | 4.0.2 | Proyecto R para análisis estadístico |
ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger |
spark-client | 3.1.1-amzn-0 | Clientes de línea de comando de Spark. |
spark-history-server | 3.1.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. |
spark-on-yarn | 3.1.1-amzn-0 | Motor de ejecución en memoria para. YARN |
spark-yarn-slave | 3.1.1-amzn-0 | Bibliotecas Apache Spark que necesitan los YARN esclavos. |
spark-rapids | 0.4.1 | RAPIDSComplemento de Nvidia Spark que acelera Apache Spark conGPUs. |
sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. |
tez-on-yarn | 0.9.2 | La YARN aplicación y las bibliotecas de Tez. |
webserver | 2.4.41+ | HTTPServidor Apache. |
zeppelin-server | 0.9.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. |
zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. |
zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. |
Clasificaciones de configuración de la versión 6.3.0
Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un XML archivo de configuración de la aplicación, por ejemplohive-site.xml
. Para obtener más información, consulte Configuración de aplicaciones.
Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que modifique. Para obtener más información, consulte Reconfiguración de un grupo de instancias en un clúster en ejecución.
Clasificaciones | Descripción | Acciones de reconfiguración |
---|---|---|
capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. |
container-executor | Cambie los valores en el archivo container-executor.cfg de HadoopYARN. | Not available. |
container-log4j | Cambie los valores en el archivo container-log4j.properties de Hadoop. YARN | Not available. |
core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Cambie la configuración relacionada con el docker. | Not available. |
emrfs-site | EMRFSCambia la configuración. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. |
flink-log4j-session | Cambie la configuración de log4j-session.properties de Flink para sesión de Kubernetes o Yarn. | Restarts Flink history server. |
flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. |
hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. |
hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. |
hbase | EMRConfiguraciones seleccionadas por Amazon para ApacheHBase. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Cambie los valores en HBase su entorno. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. |
hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configure las zonas de HDFS cifrado. | This classification should not be reconfigured. |
hdfs-env | Cambie los valores del HDFS entorno. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Cambie los valores en HDFS el archivo hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Cambie los valores en .xmlHCatalog. proto-hive-site | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Cambie los valores en el entorno ebHCat de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Cambie los valores en el ebHCat log4j2.properties de HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Cambie los valores en el archivo webhcat-site.xml HCatalog de W. ebHCat | Restarts Hive WebHCat server. |
hive | EMRConfiguraciones seleccionadas por Amazon para Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. |
hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. |
hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. hive-exec-log | Not available. |
hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. |
hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. |
hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. |
hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Cambie los valores del entorno. HTTPFS | Restarts Hadoop Httpfs service. |
httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. |
hadoop-kms-env | Cambie los valores en el entorno de Hadoop. KMS | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. |
hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. |
jupyter-notebook-conf | Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook. | Not available. |
jupyter-hub-conf | Cambie los valores en el JupyterHubs archivo jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. |
jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. |
livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. |
livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. |
livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. |
mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. |
oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. |
oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. |
phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. |
phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. |
pig-env | Cambiar los valores en el entorno de Pig. | Not available. |
pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. |
pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. |
presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. |
presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. |
presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. |
presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. |
presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. |
presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. |
presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. |
presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. |
presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. |
presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. |
presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. |
presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. |
presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. |
presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. |
presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. |
presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. |
prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | Cambie los valores en el archivo SQL node.properties de Presto. | Not available. |
prestosql-connector-blackhole | Cambie los valores en el archivo blackhole.properties de PrestoSQL. | Not available. |
prestosql-connector-cassandra | Cambie los valores en el archivo cassandra.properties de PrestoSQL. | Not available. |
prestosql-connector-hive | Cambie los valores en el archivo hive.properties de Presto. SQL | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | Cambie los valores en el archivo jmx.properties de PrestoSQL. | Not available. |
prestosql-connector-kafka | Cambie los valores en el archivo kafka.properties de PrestoSQL. | Not available. |
prestosql-connector-localfile | Cambie los valores en el archivo localfile.properties de PrestoSQL. | Not available. |
prestosql-connector-memory | Cambie los valores en el archivo memory.properties de PrestoSQL. | Not available. |
prestosql-connector-mongodb | Cambie los valores en el archivo mongodb.properties de PrestoSQL. | Not available. |
prestosql-connector-mysql | Cambie los valores en el archivo mysql.properties de PrestoSQL. | Not available. |
prestosql-connector-postgresql | Cambie los valores en el archivo postgresql.properties de PrestoSQL. | Not available. |
prestosql-connector-raptor | Cambie los valores en el archivo raptor.properties de Presto. SQL | Not available. |
prestosql-connector-redis | Cambie los valores en el archivo redis.properties de PrestoSQL. | Not available. |
prestosql-connector-redshift | Cambie los valores en el archivo redshift.properties de PrestoSQL. | Not available. |
prestosql-connector-tpch | Cambie los valores en el archivo tpch.properties de Presto. SQL | Not available. |
prestosql-connector-tpcds | Cambie los valores en el archivo tpcds.properties de PrestoSQL. | Not available. |
ranger-kms-dbks-site | Cambie los valores en el archivo dbks-site.xml de Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-env | Cambie los valores en el entorno de RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Cambie los valores en el archivo kms-log4j.properties de Ranger. KMS | Not available. |
ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para Mi conexión con Ranger. SQL SSL KMS | Not available. |
spark | Configuración EMR seleccionada por Amazon para Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. |
spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. |
sqoop-oraoop-site | Cambia los valores en el archivo oraoop-site.xml de Sqoop OraOop. | Not available. |
sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. |
tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. |
yarn-env | Cambie los valores del YARN entorno. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Cambie los valores en YARN el archivo yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Cambie los valores en ZooKeeper el archivo zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. |