Amazon EMR versión 4.7.0 - Amazon EMR

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon EMR versión 4.7.0

Versiones de la aplicación 4.7.0

Esta versión admite las siguientes aplicaciones: Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, Mahout, Oozie-Sandbox, Phoenix, Pig, Presto-Sandbox, Spark, Sqoop-Sandbox, Tez, Zeppelin-Sandbox, y ZooKeeper-Sandbox.

La siguiente tabla muestra las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres EMR versiones anteriores de Amazon (cuando proceda).

Para obtener un historial completo de las versiones de las aplicaciones de cada versión de AmazonEMR, consulta los siguientes temas:

Información sobre la versión de la aplicación
emr-4.7.0 emr-4.6.1 emr-4.6.0 emr-4.5.0
AWS SDKpara Java 1.10.751.10,271.10,271.10,27
Python No registradoNo registradoNo registradoNo registrado
Scala No registradoNo registradoNo registradoNo registrado
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink - - - -
Ganglia3.7.23.7.23.7.23.7.2
HBase1.2.11.2.01.2.0 -
HCatalog1.0.01.0.01.0.01.0.0
Hadoop2.7.22.7.22.7.22.7.2
Hive1.0.01.0.01.0.01.0.0
Hudi - - - -
Hue3.7.13.7.13.7.13.7.1
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy - - - -
MXNet - - - -
Mahout0.12.00.11.10.11.10.11.1
Oozie - - - -
Oozie-Sandbox4.2.04.2.04.2.04.2.0
Phoenix4.7.0 - - -
Pig0.14.00.14.00.14.00.14.0
Presto - - - -
Presto-Sandbox0.1470.1430.1430.140
Spark1.6.11.6.11.6.11.6.1
Sqoop - - - -
Sqoop-Sandbox1.4.61.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.3 - - -
Trino (Presto) SQL - - - -
Zeppelin - - - -
Zeppelin-Sandbox0.5.60.5.60.5.60.5.6
ZooKeeper - - - -
ZooKeeper-Caja de arena3.4.83.4.83.4.8 -

Notas de la versión 4.7.0

importante

Amazon EMR 4.7.0 está en desuso. En su lugar, usa Amazon EMR 4.7.1 o una versión posterior.

Fecha de lanzamiento: 2 de junio de 2016

Características
  • Se ha añadido Apache Phoenix 4.7.0

  • Se ha añadido Apache Tez 0.8.3

  • Actualizado a la versión HBase 1.2.1

  • Actualizado a Mahout 0.12.0

  • Actualizado a Presto 0.147

  • Se actualizó AWS SDK for Java a la versión 1.10.75

  • La marca final se ha eliminado de la propiedad mapreduce.cluster.local.dir en mapred-site.xml para permitir a los usuarios ejecutar Pig en modo local.

  • Los JDBC controladores Amazon Redshift están disponibles en el clúster

    JDBCLos controladores de Amazon Redshift ahora están incluidos en. /usr/share/aws/redshift/jdbc /usr/share/aws/redshift/jdbc/RedshiftJDBC41.jares el controlador Amazon Redshift JDBC compatible con 4.1 /usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar y es el controlador Amazon Redshift JDBC compatible con 4.0. Para obtener más información, consulte Configurar una JDBC conexión en la Guía de administración de Amazon Redshift.

  • Java 8

    A excepción de Presto, Open JDK 1.7 es el que se JDK usa de forma predeterminada para todas las aplicaciones. Sin embargo, tanto Open JDK 1.7 como 1.8 están instalados. Para obtener más información sobre cómo definir JAVA_HOME para las aplicaciones, consulte Configuración de aplicaciones para utilizar Java 8.

Problemas conocidos resueltos de las versiones anteriores
  • Se ha corregido un problema del kernel que afectaba significativamente al rendimiento de los EBS volúmenes optimizados para rendimiento HDD (st1) de Amazon EMR en emr-4.6.0.

  • Se solucionó un problema que provocaba que un clúster fallara si se especificaba alguna zona de HDFS cifrado sin elegir Hadoop como aplicación.

  • Se cambió la política de HDFS escritura predeterminada de aRoundRobin. AvailableSpaceVolumeChoosingPolicy Algunos volúmenes no se utilizaron correctamente con la RoundRobin configuración, lo que provocó que los nodos principales fallaran y dejaran de ser fiablesHDFS.

  • Se ha corregido un problema con EMRFSCLI, que provocaba una excepción al crear la tabla de metadatos predeterminada de DynamoDB para obtener vistas coherentes.

  • Se ha corregido un problema de bloqueo EMRFS que podía producirse durante las operaciones de copia y cambio de nombre de varias partes.

  • Se ha corregido un problema EMRFS que provocaba que el CopyPart tamaño predeterminado fuera de 5 MB. El valor predeterminado se ha fijado correctamente ahora en 128 MB.

  • Se ha corregido un problema con la configuración de upstart de Zeppelin que potencialmente impedía parar el servicio.

  • Se ha corregido un error con Spark y Zeppelin que impedía utilizar el s3a:// URI esquema porque no /usr/lib/hadoop/hadoop-aws.jar estaba cargado correctamente en sus respectivas rutas de clases.

  • Compatible con la versión -2484. HUE

  • Se respaldó una confirmación de Hue 3.9.0 (no JIRA existe) para solucionar un problema con el ejemplo del navegador. HBase

  • Compatible HIVE con el modelo -9073.

Versiones de componentes 4.7.0

Los componentes que Amazon EMR instala con esta versión se muestran a continuación. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para los procesos y funciones del sistema. Normalmente, estos componentes comienzan con emr o aws. Los paquetes de aplicaciones de macrodatos de la versión más reciente de Amazon EMR suelen ser la última versión que se encuentra en la comunidad. Hacemos que los lanzamientos comunitarios estén disponibles en Amazon lo antes EMR posible.

Algunos componentes de Amazon EMR difieren de las versiones comunitarias. Estos componentes tienen una etiqueta de versión con el formato CommunityVersion-amzn-EmrVersion. La EmrVersion empieza por 0. Por ejemplo, si el componente comunitario de código abierto denominado myapp-component en la versión 2.2 se ha modificado tres veces para incluirlo en diferentes EMR versiones de Amazon, su versión de lanzamiento aparece como2.2-amzn-2.

Componente Versión Descripción
emr-ddb3.1.0Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop.
emr-goodies2.0.0Bibliotecas especialmente prácticas para el ecosistema de Hadoop.
emr-kinesis3.2.0Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop.
emr-s3-dist-cp2.4.0Aplicación de copia distribuida optimizada para Amazon S3.
emrfs2.7.1Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop.
ganglia-monitor3.7.2Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia.
ganglia-metadata-collector3.7.2Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia.
ganglia-web3.7.1Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia.
hadoop-client2.7.2-amzn-2Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.7.2-amzn-2HDFSservicio a nivel de nodo para almacenar bloques.
hadoop-hdfs-library2.7.2-amzn-2HDFSbiblioteca y cliente de línea de comandos
hadoop-hdfs-namenode2.7.2-amzn-2HDFSservicio para rastrear nombres de archivos y ubicaciones de bloques.
hadoop-httpfs-server2.7.2-amzn-2HTTPpunto final para HDFS las operaciones.
hadoop-kms-server2.7.2-amzn-2Servidor de administración de claves criptográficas basado en el de Hadoop. KeyProvider API
hadoop-mapred2.7.2-amzn-2MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce
hadoop-yarn-nodemanager2.7.2-amzn-2YARNservicio para gestionar contenedores en un nodo individual.
hadoop-yarn-resourcemanager2.7.2-amzn-2YARNservicio para asignar y administrar los recursos del clúster y las aplicaciones distribuidas.
hadoop-yarn-timeline-server2.7.2-amzn-2Servicio de recuperación de información actual e histórica para YARN aplicaciones.
hbase-hmaster1.2.1Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos.
hbase-region-server1.2.1Servicio para prestar servicio a una o más HBase regiones.
hbase-client1.2.1HBasecliente de línea de comandos.
hbase-rest-server1.2.1Servicio que proporciona un RESTful HTTP punto final para. HBase
hbase-thrift-server1.2.1Servicio que proporciona un punto final de Thrift aHBase.
hcatalog-client1.0.0-amzn-5El cliente de línea de comando "hcat" para manipular hcatalog-server.
hcatalog-server1.0.0-amzn-5Prestación de serviciosHCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas.
hcatalog-webhcat-server1.0.0-amzn-5HTTPpunto final que proporciona una REST interfaz paraHCatalog.
hive-client1.0.0-amzn-5Cliente de línea de comando de Hive.
hive-metastore-server1.0.0-amzn-5Servicio para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL las operaciones de Hadoop.
hive-server1.0.0-amzn-5Servicio para aceptar consultas de Hive como solicitudes web.
hue-server3.7.1-amzn-7Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop
mahout-client0.12.0Biblioteca para machine learning.
mysql-server5.5.46Mi servidor de bases de datos. SQL
oozie-client4.2.0Cliente de línea de comando de Oozie.
oozie-server4.2.0Servicio para aceptar solicitudes de flujo de trabajo de Oozie.
phoenix-library4.7.0- -1.2 HBaseLas bibliotecas de Phoenix para servidor y cliente
phoenix-query-server4.7.0- -1.2 HBaseUn servidor liviano que proporciona JDBC acceso, así como búferes de protocolo y acceso a JSON formatos al Avatica API
presto-coordinator0.147Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers.
presto-worker0.147Service para ejecutar partes de una consulta.
pig-client0.14.0-amzn-0Cliente de línea de comando de Pig.
spark-client1.6.1Clientes de línea de comando de Spark.
spark-history-server1.6.1IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada.
spark-on-yarn1.6.1Motor de ejecución en memoria para. YARN
spark-yarn-slave1.6.1Bibliotecas Apache Spark que necesitan los YARN esclavos.
sqoop-client1.4.6Cliente de línea de comando de Apache Sqoop.
tez-on-yarn0.8.3La YARN aplicación y las bibliotecas de Tez.
webserver2.4.18HTTPServidor Apache.
zeppelin-server0.5.6-incubatingBloc de notas basado en web que permite el análisis de datos interactivo.
zookeeper-server3.4.8Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo.
zookeeper-client3.4.8ZooKeeper cliente de línea de comandos.

clasificaciones de configuración 4.7.0

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un XML archivo de configuración de la aplicación, por ejemplo. hive-site.xml Para obtener más información, consulte Configuración de aplicaciones.

Clasificaciones de emr-4.7.0
Clasificaciones Descripción

capacity-scheduler

Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop.

core-site

Cambiar los valores en el archivo core-site.xml de Hadoop.

emrfs-site

Cambie EMRFS la configuración.

hadoop-env

Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop.

hadoop-log4j

Cambiar los valores en el archivo log4j.properties de Hadoop.

hbase-env

Cambia los valores en HBase el entorno.

hbase-log4j

Cambie los valores en el archivo HBase hbase-log4j.properties.

hbase-metrics

Cambie los valores en el archivo hadoop-metrics2-hbaase.properties. HBase

hbase-policy

Cambie los valores en HBase el archivo hbase-policy.xml.

hbase-site

Cambie los valores en HBase el archivo hbase-site.xml.

hdfs-encryption-zones

Configure las zonas de HDFS cifrado.

hdfs-site

Cambie los valores en HDFS el archivo hdfs-site.xml.

hcatalog-env

Cambie los valores en HCatalog el entorno.

hcatalog-server-jndi

Cambie los valores en HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Cambie los valores en .xmlHCatalog. proto-hive-site

hcatalog-webhcat-env

Cambie los valores en el entorno ebHCat de HCatalog W.

hcatalog-webhcat-log4j

Cambie los valores en el ebHCat log4j.properties de HCatalog W.

hcatalog-webhcat-site

Cambie los valores en el archivo HCatalog webhcat-site.xml ebHCat de W.

hive-env

Cambiar los valores en el entorno de Hive.

hive-exec-log4j

Cambie los valores en el archivo hive-exec-log 4j.properties de Hive.

hive-log4j

Cambiar los valores en el archivo hive-log4.properties de Hive.

hive-site

Cambiar los valores en el archivo hive-site.xml de Hive.

hue-ini

Cambiar los valores en el archivo ini de Hue

httpfs-env

Cambie los valores del entorno. HTTPFS

httpfs-site

Cambiar los valores en el archivo httpfs-site.xml de Hadoop.

hadoop-kms-acls

Cambiar los valores en el archivo kms-acls.xml de Hadoop.

hadoop-kms-env

Cambie los valores en el entorno de Hadoop. KMS

hadoop-kms-log4j

Cambiar los valores en el archivo kms-log4j.properties de Hadoop.

hadoop-kms-site

Cambiar los valores en el archivo kms-site.xml de Hadoop.

mapred-env

Cambie los valores en el entorno de la MapReduce aplicación.

mapred-site

Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación.

oozie-env

Cambiar los valores en el entorno de Oozie.

oozie-log4j

Cambiar los valores en el archivo oozie-log4j.properties de Oozie.

oozie-site

Cambiar los valores en el archivo oozie-site.xml de Oozie.

phoenix-hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Cambiar los valores en el archivo hbase-site.xml de Phoenix.

phoenix-log4j

Cambiar los valores en el archivo log4j.properties de Phoenix.

phoenix-metrics

Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix.

pig-properties

Cambiar los valores en el archivo pig.properties de Pig.

pig-log4j

Cambiar los valores en el archivo log4j.properties de Pig.

presto-log

Cambiar los valores en el archivo log.properties de Presto.

presto-config

Cambiar los valores en el archivo config.properties de Presto.

presto-connector-hive

Cambiar los valores en el archivo hive.properties de Presto.

spark

EMRConfiguraciones seleccionadas por Amazon para Apache Spark.

spark-defaults

Cambiar los valores en el archivo spark-defaults.conf de Spark.

spark-env

Cambiar los valores en el entorno de Spark.

spark-log4j

Cambiar los valores en el archivo log4j.properties de Spark.

spark-metrics

Cambiar los valores en el archivo metrics.properties de Spark.

sqoop-env

Cambiar los valores en el entorno de Sqoop.

sqoop-oraoop-site

Cambia los valores en el archivo oraoop-site.xml de Sqoop OraOop.

sqoop-site

Cambiar los valores en el archivo sqoop-site.xml de Sqoop.

tez-site

Cambiar los valores en el archivo tez-site.xml de Tez.

yarn-env

Cambie los valores del YARN entorno.

yarn-site

Cambie los valores en YARN el archivo yarn-site.xml.

zeppelin-env

Cambiar los valores en el entorno de Zeppelin.

zookeeper-config

Cambie los valores en ZooKeeper el archivo zoo.cfg.

zookeeper-log4j

Cambie los valores en el ZooKeeper archivo log4j.properties.