Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Amazon-EMR-Version 4.3.0 - Amazon EMR

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon-EMR-Version 4.3.0

4.3.0-Anwendungsversionen

Diese Version umfasst die folgenden Anwendungen: Ganglia, Hadoop, Hive, Hue, Mahout, Oozie-Sandbox, Pig, Presto-Sandbox, Spark, und Zeppelin-Sandbox.

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:

Informationen zur Anwendungsversion
emr-4.3.0 emr-4.2.0 emr-4.1.0 emr-4.0.0
AWS SDK for Java 1.10.271.10.27Nicht nachverfolgtNicht nachverfolgt
Python Nicht nachverfolgtNicht nachverfolgtNicht nachverfolgtNicht nachverfolgt
Scala Nicht nachverfolgtNicht nachverfolgtNicht nachverfolgtNicht nachverfolgt
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink - - - -
Ganglia3.7.23.6.0 - -
HBase - - - -
HCatalog - - - -
Hadoop2.7.12.6.02.6.02.6.0
Hive1.0.01.0.01.0.01.0.0
Hudi - - - -
Hue3.7.13.7.13.7.1 -
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy - - - -
MXNet - - - -
Mahout0.11.00.11.00.11.00.10.0
Oozie - - - -
Oozie-Sandbox4.2.04.2.04.0.1 -
Phoenix - - - -
Pig0,14.00,14,00,14,00,14,0
Presto - - - -
Presto-Sandbox0.1300.1250.119 -
Spark1.6.01.5.21.5.01.4.1
Sqoop - - - -
Sqoop-Sandbox - - - -
TensorFlow - - - -
Tez - - - -
Trino (PrestoSQL) - - - -
Zeppelin - - - -
Zeppelin-Sandbox0.5.50,5,50.6.0-SNAPSHOT -
ZooKeeper - - - -
ZooKeeper-Sandkasten - - - -

Versionshinweise zu 4.3.0

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 4.3.0.

Veröffentlichungsdatum: 19. Januar 2016

Features
  • Upgrade auf Hadoop 2.7.1

  • Upgrade auf Spark 1.6.0

  • Upgrade auf Ganglia 3.7.2

  • Upgrade auf Presto 0.130

  • Amazon EMR hat einige Änderungen an der Einstellung spark.dynamicAllocation.enabled vorgenommen, wenn sie auf „true“ gesetzt wurde. Standardmäßig lautet der Wert „false“. Wenn die Einstellung auf "true" festgelegt ist, wirkt sich dies auf von der Einstellung maximizeResourceAllocation vorgenommene Standardeinstellungen aus:

    • Wenn spark.dynamicAllocation.enabled auf "true" eingestellt ist, wird spark.executor.instances nicht von maximizeResourceAllocation festgelegt.

    • Die Einstellung spark.driver.memory wird nun basierend auf den Instance-Typen im Cluster auf ähnliche Weise konfiguriert, wie spark.executors.memory festgelegt wird. Da die Spark-Treiberanwendung jedoch entweder in der Master-Instance oder in einer der Core-Instances ausgeführt werden kann (z. B. im YARN-Client- bzw. -Cluster-Modus), wird die Einstellung spark.driver.memory auf der Grundlage des kleineren Instance-Typs in diesen beiden Instance-Gruppen festgelegt.

    • Die Einstellung spark.default.parallelism wird jetzt auf die doppelte Anzahl von CPU-Kernen für YARN Container festgelegt. In früheren Versionen war dies die Hälfte des Werts.

    • Die Berechnungen für den Arbeitsspeicher-Overhead, der für Spark YARN-Prozesse reserviert wurde, wurde präziser angepasst. Dies führt zu einer kleinen Erhöhung des gesamten, verfügbaren Speichers für Spark (d. h. spark.executor.memory).

Bekannte Probleme aus den früheren Versionen, die behoben wurden
  • Die YARN-Protokollaggregation ist jetzt standardmäßig aktiviert.

  • Es wurde ein Problem behoben, bei dem Protokolle nicht per Push auf den Amazon-S3-Protokoll-Bucket für das Cluster übertragen wurden, wenn die YARN-Protokollaggregation aktiviert war.

  • Die Größe von YARN-Containern haben jetzt ein neues Minimum von 32 für alle Knotentypen.

  • Es wurde ein Problem mit Ganglia behoben, dass zu übermäßigen Festplatten-E/A-Vorgängen auf dem Primärknoten in großen Clustern führte.

  • Es wurde ein Problem behoben, das verhinderte, das Anwendungsprotokolle per Push-Verfahren an Amazon S3 übertragen wurden, wenn ein Cluster heruntergefahren wird.

  • Es wurde ein Problem in der EMRFS-CLI behoben, das dazu führte, dass einige Befehle fehlschlugen.

  • Es wurde ein Problem mit Zeppelin behoben, das verhinderte, dass Abhängigkeiten in die Basisdatei geladen wurden. SparkContext

  • Es wurde ein Problem behoben, das aus einer Größenanpassung resultierte bei dem Versuch, Instances hinzuzufügen.

  • Es wurde ein Problem in Hive behoben, bei dem CREATE TABLE AS SELECT übermäßige Listenaufrufe an Amazon S3 erstellt.

  • Es wurde ein Problem behoben, bei dem große Cluster nicht ordnungsgemäß bereitgestellt wurden wenn Hue, Oozie und Ganglia installiert sind.

  • Es wurde ein Problem in s3-dist-cp behoben, bei dem ein Beendigungscode gleich Null zurückgegeben wurde, wenn ein Fehler auftrat.

4.3.0-Komponentenversionen

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit emr oder aws. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form CommunityVersion-amzn-EmrVersion. Der EmrVersion beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen myapp-component der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als 2.2-amzn-2 aufgeführt.

Komponente Version Beschreibung
emr-ddb3.0.0Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem.
emr-goodies2.0.0Praktische Bibliotheken für das Hadoop-Ökosystem.
emr-kinesis3.1.0Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem.
emr-s3-dist-cp2.1.0Verteilte Kopieranwendung, die für Amazon S3 optimiert ist.
emrfs2.3.0Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem.
ganglia-monitor3.7.2Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent.
ganglia-metadata-collector3.7.2Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten.
ganglia-web3.7.1Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken.
hadoop-client2.7.1-amzn-0Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn".
hadoop-hdfs-datanode2.7.1-amzn-0HDFS-Service auf Knotenebene zum Speichern von Blöcken.
hadoop-hdfs-library2.7.1-amzn-0HDFS-Client und -Bibliothek für die Befehlszeile
hadoop-hdfs-namenode2.7.1-amzn-0HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten.
hadoop-httpfs-server2.7.1-amzn-0HTTP-Endpunkt für HDFS-Operationen.
hadoop-kms-server2.7.1-amzn-0Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider
hadoop-mapred2.7.1-amzn-0MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung.
hadoop-yarn-nodemanager2.7.1-amzn-0YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten.
hadoop-yarn-resourcemanager2.7.1-amzn-0YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen.
hive-client1.0.0-amzn-2Hive-Befehlszeilen-Client.
hive-metastore-server1.0.0-amzn-2Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen).
hive-server1.0.0-amzn-2Service zur Annahme von Hive-Abfragen als Webanfragen.
hue-server3.7.1-amzn-5Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen.
mahout-client0.11.0Bibliothek für Machine Learning.
mysql-server5.5MySQL-Datenbankserver.
oozie-client4.2.0Oozie-Befehlszeilen-Client.
oozie-server4.2.0Service für die Annahme von Oozie Workflow-Anforderungen.
presto-coordinator0.130Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker.
presto-worker0.130Service für das Ausführen von Teilen einer Abfrage.
pig-client0.14.0-amzn-0Pig-Befehlszeilen-Client.
spark-client1.6.0Spark-Befehlszeilen-Clients.
spark-history-server1.6.0Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung.
spark-on-yarn1.6.0In-Memory-Ausführungs-Engine für YARN.
spark-yarn-slave1.6.0Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden.
webserver2.4Apache HTTP-Server.
zeppelin-server0.5.5-incubating-amzn-1Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht.

4.3.0 Konfigurationsklassifizierungen

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. hive-site.xml Weitere Informationen finden Sie unter Anwendungen konfigurieren.

emr-4.3.0-Klassifizierungen
Klassifizierungen Beschreibung

capacity-scheduler

Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop.

core-site

Ändert die Werte in der core-site.xml-Datei in Hadoop.

emrfs-site

Ändert die EMRFS-Einstellungen.

hadoop-env

Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten.

hadoop-log4j

Ändert die Werte in der log4j.properties-Datei in Hadoop.

hdfs-encryption-zones

Konfiguriert die HDFS-Verschlüsselungszonen.

hdfs-site

Ändert die Werte in der hdfs-site.xml-Datei in HDFS.

hive-env

Ändert die Werte in der Hive-Umgebung.

hive-exec-log4j

Ändern Sie die Werte in der Datei 4j.properties von hive-exec-log Hive.

hive-log4j

Ändert die Werte in der hive-log4j.properties-Datei in Hive.

hive-site

Ändert die Werte in der hive-site.xml-Datei in Hive.

hue-ini

Ändert die Werte in der INI-Datei in Hue.

httpfs-env

Ändert die Werte in der HTTPFS-Umgebung.

httpfs-site

Ändert die Werte in der httpfs-site.xml-Datei in Hadoop.

hadoop-kms-acls

Ändert die Werte in der kms-acls.xml-Datei in Hadoop.

hadoop-kms-env

Ändert die Werte in der KMS-Umgebung in Hadoop.

hadoop-kms-log4j

Ändert die Werte in der kms-log4j.properties-Datei in Hadoop.

hadoop-kms-site

Ändert die Werte in der kms-site.xml-Datei in Hadoop.

mapred-env

Ändern Sie die Werte in der MapReduce Anwendungsumgebung.

mapred-site

Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung.

oozie-env

Ändert die Werte in der Oozie-Umgebung.

oozie-log4j

Ändert die Werte in der oozie-log4j.properties-Datei in Oozie.

oozie-site

Ändert die Werte in der oozie-site.xml-Datei in Oozie.

pig-properties

Ändert die Werte in der pig.properties-Datei in Pig.

pig-log4j

Ändert die Werte in der log4j.properties-Datei in Pig.

presto-log

Ändert die Werte in der log.properties-Datei in Presto.

presto-config

Ändert die Werte in der config.properties-Datei in Presto.

presto-connector-hive

Ändert die Werte in der hive.properties-Datei in Presto.

spark

Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark.

spark-defaults

Ändert die Werte in der spark-defaults.conf-Datei in Spark.

spark-env

Ändert die Werte in der Spark-Umgebung.

spark-log4j

Ändert die Werte in der log4j.properties-Datei in Spark.

spark-metrics

Ändert die Werte in der metrics.properties-Datei in Spark.

yarn-env

Ändert die Werte in der YARN-Umgebung.

yarn-site

Ändert die Werte in der yarn-site.xml-Datei in YARN.

zeppelin-env

Ändert die Werte in der Zeppelin-Umgebung.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.