Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Amazon EMR versión 4.7.0
Versiones de la aplicación 4.7.0
Esta versión admite las siguientes aplicaciones: Ganglia
La siguiente tabla muestra las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres EMR versiones anteriores de Amazon (cuando proceda).
Para obtener un historial completo de las versiones de las aplicaciones de cada versión de AmazonEMR, consulta los siguientes temas:
emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | |
---|---|---|---|---|
AWS SDKpara Java | 1.10.75 | 1.10,27 | 1.10,27 | 1.10,27 |
Python | No registrado | No registrado | No registrado | No registrado |
Scala | No registrado | No registrado | No registrado | No registrado |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | - | - | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.2.1 | 1.2.0 | 1.2.0 | - |
HCatalog | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hadoop | 2.7.2 | 2.7.2 | 2.7.2 | 2.7.2 |
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Hudi | - | - | - | - |
Hue | 3.7.1 | 3.7.1 | 3.7.1 | 3.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | - | - | - | - |
MXNet | - | - | - | - |
Mahout | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 |
Oozie | - | - | - | - |
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 |
Phoenix | 4.7.0 | - | - | - |
Pig | 0.14.0 | 0.14.0 | 0.14.0 | 0.14.0 |
Presto | - | - | - | - |
Presto-Sandbox | 0.147 | 0.143 | 0.143 | 0.140 |
Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 |
Sqoop | - | - | - | - |
Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.3 | - | - | - |
Trino (Presto) SQL | - | - | - | - |
Zeppelin | - | - | - | - |
Zeppelin-Sandbox | 0.5.6 | 0.5.6 | 0.5.6 | 0.5.6 |
ZooKeeper | - | - | - | - |
ZooKeeper-Caja de arena | 3.4.8 | 3.4.8 | 3.4.8 | - |
Notas de la versión 4.7.0
importante
Amazon EMR 4.7.0 está en desuso. En su lugar, usa Amazon EMR 4.7.1 o una versión posterior.
Fecha de lanzamiento: 2 de junio de 2016
Características
-
Se ha añadido Apache Phoenix 4.7.0
-
Se ha añadido Apache Tez 0.8.3
-
Actualizado a la versión HBase 1.2.1
-
Actualizado a Mahout 0.12.0
-
Actualizado a Presto 0.147
-
Se actualizó AWS SDK for Java a la versión 1.10.75
-
La marca final se ha eliminado de la propiedad
mapreduce.cluster.local.dir
enmapred-site.xml
para permitir a los usuarios ejecutar Pig en modo local. -
Los JDBC controladores Amazon Redshift están disponibles en el clúster
JDBCLos controladores de Amazon Redshift ahora están incluidos en.
/usr/share/aws/redshift/jdbc
/usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar
es el controlador Amazon Redshift JDBC compatible con 4.1/usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar
y es el controlador Amazon Redshift JDBC compatible con 4.0. Para obtener más información, consulte Configurar una JDBC conexión en la Guía de administración de Amazon Redshift. Java 8
A excepción de Presto, Open JDK 1.7 es el que se JDK usa de forma predeterminada para todas las aplicaciones. Sin embargo, tanto Open JDK 1.7 como 1.8 están instalados. Para obtener más información sobre cómo definir
JAVA_HOME
para las aplicaciones, consulte Configuración de aplicaciones para utilizar Java 8.
Problemas conocidos resueltos de las versiones anteriores
-
Se ha corregido un problema del kernel que afectaba significativamente al rendimiento de los EBS volúmenes optimizados para rendimiento HDD (st1) de Amazon EMR en emr-4.6.0.
-
Se solucionó un problema que provocaba que un clúster fallara si se especificaba alguna zona de HDFS cifrado sin elegir Hadoop como aplicación.
-
Se cambió la política de HDFS escritura predeterminada de a
RoundRobin
.AvailableSpaceVolumeChoosingPolicy
Algunos volúmenes no se utilizaron correctamente con la RoundRobin configuración, lo que provocó que los nodos principales fallaran y dejaran de ser fiablesHDFS. -
Se ha corregido un problema con EMRFSCLI, que provocaba una excepción al crear la tabla de metadatos predeterminada de DynamoDB para obtener vistas coherentes.
-
Se ha corregido un problema de bloqueo EMRFS que podía producirse durante las operaciones de copia y cambio de nombre de varias partes.
-
Se ha corregido un problema EMRFS que provocaba que el CopyPart tamaño predeterminado fuera de 5 MB. El valor predeterminado se ha fijado correctamente ahora en 128 MB.
-
Se ha corregido un problema con la configuración de upstart de Zeppelin que potencialmente impedía parar el servicio.
-
Se ha corregido un error con Spark y Zeppelin que impedía utilizar el
s3a://
URI esquema porque no/usr/lib/hadoop/hadoop-aws.jar
estaba cargado correctamente en sus respectivas rutas de clases. -
Se respaldó una confirmación
de Hue 3.9.0 (no JIRA existe) para solucionar un problema con el ejemplo del navegador. HBase
Versiones de componentes 4.7.0
Los componentes que Amazon EMR instala con esta versión se muestran a continuación. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para los procesos y funciones del sistema. Normalmente, estos componentes comienzan con emr
o aws
. Los paquetes de aplicaciones de macrodatos de la versión más reciente de Amazon EMR suelen ser la última versión que se encuentra en la comunidad. Hacemos que los lanzamientos comunitarios estén disponibles en Amazon lo antes EMR posible.
Algunos componentes de Amazon EMR difieren de las versiones comunitarias. Estos componentes tienen una etiqueta de versión con el formato
. La CommunityVersion
-amzn-EmrVersion
empieza por 0. Por ejemplo, si el componente comunitario de código abierto denominado EmrVersion
myapp-component
en la versión 2.2 se ha modificado tres veces para incluirlo en diferentes EMR versiones de Amazon, su versión de lanzamiento aparece como2.2-amzn-2
.
Componente | Versión | Descripción |
---|---|---|
emr-ddb | 3.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. |
emr-goodies | 2.0.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. |
emr-kinesis | 3.2.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. |
emr-s3-dist-cp | 2.4.0 | Aplicación de copia distribuida optimizada para Amazon S3. |
emrfs | 2.7.1 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. |
ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. |
ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. |
ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. |
hadoop-client | 2.7.2-amzn-2 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 2.7.2-amzn-2 | HDFSservicio a nivel de nodo para almacenar bloques. |
hadoop-hdfs-library | 2.7.2-amzn-2 | HDFSbiblioteca y cliente de línea de comandos |
hadoop-hdfs-namenode | 2.7.2-amzn-2 | HDFSservicio para rastrear nombres de archivos y ubicaciones de bloques. |
hadoop-httpfs-server | 2.7.2-amzn-2 | HTTPpunto final para HDFS las operaciones. |
hadoop-kms-server | 2.7.2-amzn-2 | Servidor de administración de claves criptográficas basado en el de Hadoop. KeyProvider API |
hadoop-mapred | 2.7.2-amzn-2 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce |
hadoop-yarn-nodemanager | 2.7.2-amzn-2 | YARNservicio para gestionar contenedores en un nodo individual. |
hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | YARNservicio para asignar y administrar los recursos del clúster y las aplicaciones distribuidas. |
hadoop-yarn-timeline-server | 2.7.2-amzn-2 | Servicio de recuperación de información actual e histórica para YARN aplicaciones. |
hbase-hmaster | 1.2.1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. |
hbase-region-server | 1.2.1 | Servicio para prestar servicio a una o más HBase regiones. |
hbase-client | 1.2.1 | HBasecliente de línea de comandos. |
hbase-rest-server | 1.2.1 | Servicio que proporciona un RESTful HTTP punto final para. HBase |
hbase-thrift-server | 1.2.1 | Servicio que proporciona un punto final de Thrift aHBase. |
hcatalog-client | 1.0.0-amzn-5 | El cliente de línea de comando "hcat" para manipular hcatalog-server. |
hcatalog-server | 1.0.0-amzn-5 | Prestación de serviciosHCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. |
hcatalog-webhcat-server | 1.0.0-amzn-5 | HTTPpunto final que proporciona una REST interfaz paraHCatalog. |
hive-client | 1.0.0-amzn-5 | Cliente de línea de comando de Hive. |
hive-metastore-server | 1.0.0-amzn-5 | Servicio para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL las operaciones de Hadoop. |
hive-server | 1.0.0-amzn-5 | Servicio para aceptar consultas de Hive como solicitudes web. |
hue-server | 3.7.1-amzn-7 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop |
mahout-client | 0.12.0 | Biblioteca para machine learning. |
mysql-server | 5.5.46 | Mi servidor de bases de datos. SQL |
oozie-client | 4.2.0 | Cliente de línea de comando de Oozie. |
oozie-server | 4.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. |
phoenix-library | 4.7.0- -1.2 HBase | Las bibliotecas de Phoenix para servidor y cliente |
phoenix-query-server | 4.7.0- -1.2 HBase | Un servidor liviano que proporciona JDBC acceso, así como búferes de protocolo y acceso a JSON formatos al Avatica API |
presto-coordinator | 0.147 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. |
presto-worker | 0.147 | Service para ejecutar partes de una consulta. |
pig-client | 0.14.0-amzn-0 | Cliente de línea de comando de Pig. |
spark-client | 1.6.1 | Clientes de línea de comando de Spark. |
spark-history-server | 1.6.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. |
spark-on-yarn | 1.6.1 | Motor de ejecución en memoria para. YARN |
spark-yarn-slave | 1.6.1 | Bibliotecas Apache Spark que necesitan los YARN esclavos. |
sqoop-client | 1.4.6 | Cliente de línea de comando de Apache Sqoop. |
tez-on-yarn | 0.8.3 | La YARN aplicación y las bibliotecas de Tez. |
webserver | 2.4.18 | HTTPServidor Apache. |
zeppelin-server | 0.5.6-incubating | Bloc de notas basado en web que permite el análisis de datos interactivo. |
zookeeper-server | 3.4.8 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. |
zookeeper-client | 3.4.8 | ZooKeeper cliente de línea de comandos. |
clasificaciones de configuración 4.7.0
Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un XML archivo de configuración de la aplicación, por ejemplo. hive-site.xml
Para obtener más información, consulte Configuración de aplicaciones.
Clasificaciones | Descripción |
---|---|
capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. |
core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. |
emrfs-site | Cambie EMRFS la configuración. |
hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. |
hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. |
hbase-env | Cambia los valores en HBase el entorno. |
hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. |
hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbaase.properties. HBase |
hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. |
hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. |
hdfs-encryption-zones | Configure las zonas de HDFS cifrado. |
hdfs-site | Cambie los valores en HDFS el archivo hdfs-site.xml. |
hcatalog-env | Cambie los valores en HCatalog el entorno. |
hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Cambie los valores en .xmlHCatalog. proto-hive-site |
hcatalog-webhcat-env | Cambie los valores en el entorno ebHCat de HCatalog W. |
hcatalog-webhcat-log4j | Cambie los valores en el ebHCat log4j.properties de HCatalog W. |
hcatalog-webhcat-site | Cambie los valores en el archivo HCatalog webhcat-site.xml ebHCat de W. |
hive-env | Cambiar los valores en el entorno de Hive. |
hive-exec-log4j | Cambie los valores en el archivo hive-exec-log 4j.properties de Hive. |
hive-log4j | Cambiar los valores en el archivo hive-log4.properties de Hive. |
hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. |
hue-ini | Cambiar los valores en el archivo ini de Hue |
httpfs-env | Cambie los valores del entorno. HTTPFS |
httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. |
hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. |
hadoop-kms-env | Cambie los valores en el entorno de Hadoop. KMS |
hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. |
hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. |
mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. |
mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. |
oozie-env | Cambiar los valores en el entorno de Oozie. |
oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. |
oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. |
phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. |
phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. |
phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. |
phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. |
pig-properties | Cambiar los valores en el archivo pig.properties de Pig. |
pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. |
presto-log | Cambiar los valores en el archivo log.properties de Presto. |
presto-config | Cambiar los valores en el archivo config.properties de Presto. |
presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. |
spark | EMRConfiguraciones seleccionadas por Amazon para Apache Spark. |
spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. |
spark-env | Cambiar los valores en el entorno de Spark. |
spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. |
spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. |
sqoop-env | Cambiar los valores en el entorno de Sqoop. |
sqoop-oraoop-site | Cambia los valores en el archivo oraoop-site.xml de Sqoop OraOop. |
sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. |
tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. |
yarn-env | Cambie los valores del YARN entorno. |
yarn-site | Cambie los valores en YARN el archivo yarn-site.xml. |
zeppelin-env | Cambiar los valores en el entorno de Zeppelin. |
zookeeper-config | Cambie los valores en ZooKeeper el archivo zoo.cfg. |
zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. |