Amazon EMR, versión 4.7.0
Versiones de las aplicaciones de la versión 4.7.0
Esta versión admite las siguientes aplicaciones: Ganglia
En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).
Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | |
---|---|---|---|---|
AWS SDK para Java | 1.10.75 | 1.10.27 | 1.10.27 | 1.10.27 |
Python | No registrado | No registrado | No registrado | No registrado |
Scala | No registrado | No registrado | No registrado | No registrado |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | - | - | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.2.1 | 1.2.0 | 1.2.0 | - |
HCatalog | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hadoop | 2.7.2 | 2.7.2 | 2.7.2 | 2.7.2 |
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hudi | - | - | - | - |
Hue | 3.7.1 | 3.7.1 | 3.7.1 | 3.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 |
Oozie | - | - | - | - |
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 |
Phoenix | 4.7.0 | - | - | - |
Pig | 0.14.0 | 0.14.0 | 0.14.0 | 0.14.0 |
Presto | - | - | - | - |
Presto-Sandbox | 0.147 | 0.143 | 0.143 | 0.140 |
Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 |
Sqoop | - | - | - | - |
Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.3 | - | - | - |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | - | - | - | - |
Zeppelin-Sandbox | 0.5.6 | 0.5.6 | 0.5.6 | 0.5.6 |
ZooKeeper | - | - | - | - |
ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | - |
Notas de la versión 4.7.0
importante
Amazon EMR 4.7.0 está obsoleto. Utilice Amazon EMR 4.7.1 o una versión posterior en su lugar.
Fecha de lanzamiento: 2 de junio de 2016
Características
-
Se ha añadido Apache Phoenix 4.7.0
-
Se ha añadido Apache Tez 0.8.3
-
Actualizado a HBase 1.2.1
-
Actualizado a Mahout 0.12.0
-
Actualizado a Presto 0.147
-
AWS SDK for Java actualizado a 1.10.75
-
La marca final se ha eliminado de la propiedad
mapreduce.cluster.local.dir
enmapred-site.xml
para permitir a los usuarios ejecutar Pig en modo local. -
Los controladores JDBC de Amazon Redshift están disponibles en el clúster
Los controladores JDBC de Amazon Redshift ahora se incluyen en
/usr/share/aws/redshift/jdbc
./usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar
es el controlador de Amazon Redshift compatible con JDBC 4.1 y/usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar
es el controlador de Amazon Redshift compatible con JDBC 4.0. Para más información, consulte Configurar una conexión JDBC en la Guía de administración de Amazon Redshift. Java 8
Excepto para Presto, OpenJDK 1.7 es el JDK predeterminado para todas las aplicaciones. No obstante, tanto OpenJDK 1.7 como 1.8 están instalados. Para obtener más información sobre cómo definir
JAVA_HOME
para las aplicaciones, consulte Configuración de aplicaciones para utilizar Java 8.
Problemas conocidos resueltos de las versiones anteriores
-
Se ha corregido un problema de kernel que afectaba notablemente a los volúmenes de HDD de rendimiento optimizado (st1) de EBS para Amazon EMR en emr-4.6.0.
-
Se ha corregido un problema donde un clúster fallaría si alguna de la zona de cifrado de HDFS se especifica sin elegir Hadoop como aplicación.
-
Se ha cambiado la política de escritura de HDFS predeterminada
RoundRobin
aAvailableSpaceVolumeChoosingPolicy
. Algunos volúmenes no se utilizaban correctamente con la configuración RoundRobin, lo que se traducía en nodos secundarios fallidos y HDFS poco fiable. -
Se ha corregido un problema con la CLI de EMRFS que provocaría una excepción al crear la tabla de metadatos de DynamoDB predeterminada para vistas coherentes.
-
Se ha corregido un problema de bloqueo en EMRFS que ocurría potencialmente durante las operaciones de copia y cambio de nombre de multipartes.
-
Se ha corregido un error con EMRFS que provocaba que el valor predeterminado de tamaño de CopyPart fuera de 5 MB. El valor predeterminado se ha fijado correctamente ahora en 128 MB.
-
Se ha corregido un problema con la configuración de upstart de Zeppelin que potencialmente impedía parar el servicio.
-
Se ha corregido un problema con Spark y Zeppelin, que impedía que utilizara el esquema de URI de
s3a://
porque/usr/lib/hadoop/hadoop-aws.jar
no se cargó correctamente en la classpath respectiva. -
Se ha adaptado HUE-2484
. -
Se ha adaptado una confirmación
desde Hue 3.9.0 (no existe JIRA) para corregir un problema con la muestra de navegador de HBase. -
Se ha adaptado HIVE-9073
.
Versiones de los componentes de la versión 4.7.0
A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con emr
o aws
. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.
Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato
. La CommunityVersion
-amzn-EmrVersion
empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado EmrVersion
myapp-component
con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será 2.2-amzn-2
.
Componente | Versión | Descripción |
---|---|---|
emr-ddb | 3.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. |
emr-goodies | 2.0.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. |
emr-kinesis | 3.2.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. |
emr-s3-dist-cp | 2.4.0 | Aplicación de copia distribuida optimizada para Amazon S3. |
emrfs | 2.7.1 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. |
ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. |
ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. |
ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. |
hadoop-client | 2.7.2-amzn-2 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 2.7.2-amzn-2 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. |
hadoop-hdfs-library | 2.7.2-amzn-2 | Biblioteca y cliente de línea de comandos HDFS |
hadoop-hdfs-namenode | 2.7.2-amzn-2 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. |
hadoop-httpfs-server | 2.7.2-amzn-2 | Punto de enlace HTTP para operaciones HDFS. |
hadoop-kms-server | 2.7.2-amzn-2 | Servidor de administración de claves criptográficas basado en el API KeyProvider de Hadoop. |
hadoop-mapred | 2.7.2-amzn-2 | Bibliotecas de motor de ejecución de MapReduce para ejecutar una aplicación de MapReduce. |
hadoop-yarn-nodemanager | 2.7.2-amzn-2 | Servicio de YARN para la administración de contenedores en un nodo individual. |
hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. |
hadoop-yarn-timeline-server | 2.7.2-amzn-2 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. |
hbase-hmaster | 1.2.1 | Servicio para un clúster de HBase responsable de la coordinación de regiones y ejecución de comandos administrativos. |
hbase-region-server | 1.2.1 | Servicio que atiende a una o varias regiones de HBase. |
hbase-client | 1.2.1 | Cliente de línea de comando de HBase. |
hbase-rest-server | 1.2.1 | Servicio que proporciona un punto de enlace HTTP RESTful para HBase. |
hbase-thrift-server | 1.2.1 | Service que proporciona un punto de enlace de Thrift a HBase. |
hcatalog-client | 1.0.0-amzn-5 | El cliente de línea de comando "hcat" para manipular hcatalog-server. |
hcatalog-server | 1.0.0-amzn-5 | Service que proporciona a HCatalog, una tabla y capa de administración de almacenamiento para aplicaciones distribuidas. |
hcatalog-webhcat-server | 1.0.0-amzn-5 | Punto de enlace HTTP que proporciona una interfaz REST a HCatalog. |
hive-client | 1.0.0-amzn-5 | Cliente de línea de comando de Hive. |
hive-metastore-server | 1.0.0-amzn-5 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. |
hive-server | 1.0.0-amzn-5 | Servicio para aceptar consultas de Hive como solicitudes web. |
hue-server | 3.7.1-amzn-7 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop |
mahout-client | 0.12.0 | Biblioteca para machine learning. |
mysql-server | 5.5.46 | Servidor de bases de datos MySQL. |
oozie-client | 4.2.0 | Cliente de línea de comando de Oozie. |
oozie-server | 4.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. |
phoenix-library | 4.7.0-HBase-1.2 | Las bibliotecas de Phoenix para servidor y cliente |
phoenix-query-server | 4.7.0-HBase-1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica |
presto-coordinator | 0.147 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. |
presto-worker | 0.147 | Service para ejecutar partes de una consulta. |
pig-client | 0.14.0-amzn-0 | Cliente de línea de comando de Pig. |
spark-client | 1.6.1 | Clientes de línea de comando de Spark. |
spark-history-server | 1.6.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. |
spark-on-yarn | 1.6.1 | Motor de ejecución en memoria para YARN. |
spark-yarn-slave | 1.6.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. |
sqoop-client | 1.4.6 | Cliente de línea de comando de Apache Sqoop. |
tez-on-yarn | 0.8.3 | La aplicación YARN de tez y bibliotecas. |
webserver | 2.4.18 | Servidor HTTP de Apache. |
zeppelin-server | 0.5.6-incubating | Bloc de notas basado en web que permite el análisis de datos interactivo. |
zookeeper-server | 3.4.8 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. |
zookeeper-client | 3.4.8 | Cliente de línea de comando de ZooKeeper. |
Clasificaciones de configuración de la versión 4.7.0
Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, hive-site.xml
. Para obtener más información, consulte Configuración de aplicaciones.
Clasificaciones | Descripción |
---|---|
capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. |
core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. |
emrfs-site | Cambiar la configuración de EMRFS. |
hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. |
hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. |
hbase-env | Cambiar los valores en el entorno de HBase. |
hbase-log4j | Cambiar los valores en el archivo hbase-log4j.properties de HBase. |
hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbaase.properties de HBase. |
hbase-policy | Cambiar los valores en el archivo hbase-policy.xml de HBase. |
hbase-site | Cambiar los valores en el archivo hbase-site.xml de HBase. |
hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. |
hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. |
hcatalog-env | Cambiar los valores en el entorno de HCatalog. |
hcatalog-server-jndi | Cambiar los valores en jndi.properties de HCatalog. |
hcatalog-server-proto-hive-site | Cambiar los valores en proto-hive-site.xml de HCatalog. |
hcatalog-webhcat-env | Cambiar los valores en el entorno de HCatalog WebHCat. |
hcatalog-webhcat-log4j | Cambiar los valores en log4j.properties de HCatalog WebHCat. |
hcatalog-webhcat-site | Cambiar los valores en el archivo webhcat-site.xml de HCatalog WebHCat. |
hive-env | Cambiar los valores en el entorno de Hive. |
hive-exec-log4j | Cambiar los valores en el archivo hive-exec-log4j.properties de Hive. |
hive-log4j | Cambiar los valores en el archivo hive-log4.properties de Hive. |
hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. |
hue-ini | Cambiar los valores en el archivo ini de Hue |
httpfs-env | Cambiar los valores en el entorno de HTTPFS. |
httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. |
hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. |
hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. |
hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. |
hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. |
mapred-env | Cambiar los valores en el entorno de aplicación de MapReduce. |
mapred-site | Cambiar los valores en el archivo mapred-site.xml de la aplicación MapReduce. |
oozie-env | Cambiar los valores en el entorno de Oozie. |
oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. |
oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. |
phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. |
phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. |
phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. |
phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. |
pig-properties | Cambiar los valores en el archivo pig.properties de Pig. |
pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. |
presto-log | Cambiar los valores en el archivo log.properties de Presto. |
presto-config | Cambiar los valores en el archivo config.properties de Presto. |
presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. |
spark | Configuración de Amazon EMR mantenida para Apache Spark. |
spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. |
spark-env | Cambiar los valores en el entorno de Spark. |
spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. |
spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. |
sqoop-env | Cambiar los valores en el entorno de Sqoop. |
sqoop-oraoop-site | Cambiar los valores en el archivo oraoop-site.xml de Sqoop OraOop. |
sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. |
tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. |
yarn-env | Cambiar los valores en el entorno de YARN. |
yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. |
zeppelin-env | Cambiar los valores en el entorno de Zeppelin. |
zookeeper-config | Cambiar los valores del archivo zoo.cfg de ZooKeeper. |
zookeeper-log4j | Cambiar los valores en el archivo log4j.properties de ZooKeeper. |