Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
EMRAmazon-Version 4.3.0
4.3.0-Anwendungsversionen
Die folgenden Anwendungen werden in dieser Version unterstützt: Ganglia
In der folgenden Tabelle sind die in dieser Version von Amazon verfügbaren Anwendungsversionen EMR und die Anwendungsversionen der vorherigen drei EMR Amazon-Versionen (sofern zutreffend) aufgeführt.
Eine umfassende Historie der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
Informationen zur Anwendungsversion | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDK for Java | 1.10.27 | 1.10.27 | Nicht nachverfolgt | Nicht nachverfolgt | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | Nicht nachverfolgt | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.6.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 2.7.1 | 2.6.0 | 2.6.0 | 2.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 3.7.1 | 3.7.1 | 3.7.1 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0,14,0 | 0,14,0 | 0,14,0 | 0,14,0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto-Sandbox | 0.130 | 0.125 | 0.119 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop-Sandbox | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin-Sandbox | 0.5.5 | 0,5,5 | 0,6,0- SNAPSHOT | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper-Sandbox | - | - | - | - |
Versionshinweise zu 4.3.0
Die folgenden Versionshinweise enthalten Informationen für die Amazon-Version EMR 4.3.0.
Veröffentlichungsdatum: 19. Januar 2016
Features
-
Upgrade auf Hadoop 2.7.1
-
Upgrade auf Spark 1.6.0
-
Upgrade auf Ganglia 3.7.2
-
Upgrade auf Presto 0.130
Amazon EMR hat einige Änderungen daran vorgenommen,
spark.dynamicAllocation.enabled
wann es auf true gesetzt ist; es ist standardmäßig falsch. Wenn die Einstellung auf "true" festgelegt ist, wirkt sich dies auf von der EinstellungmaximizeResourceAllocation
vorgenommene Standardeinstellungen aus:-
Wenn
spark.dynamicAllocation.enabled
auf "true" eingestellt ist, wirdspark.executor.instances
nicht vonmaximizeResourceAllocation
festgelegt. -
Die Einstellung
spark.driver.memory
wird nun basierend auf den Instance-Typen im Cluster auf ähnliche Weise konfiguriert, wiespark.executors.memory
festgelegt wird. Da die Spark-Treiberanwendung jedoch entweder auf der Master- oder auf einer der Core-Instances ausgeführt werden kann (z. B. im YARN Client- bzw. Cluster-Modus), wird diespark.driver.memory
Einstellung auf der Grundlage des Instance-Typs des kleineren Instance-Typs zwischen diesen beiden Instance-Gruppen festgelegt. -
Die
spark.default.parallelism
Einstellung ist jetzt auf die doppelte Anzahl der für YARN Container verfügbaren CPU Kerne festgelegt. In früheren Versionen war dies die Hälfte des Werts. -
Die Berechnungen für den für YARN Spark-Prozesse reservierten Speicher-Overhead wurden angepasst, um genauer zu sein, was zu einer geringfügigen Erhöhung der Gesamtspeichermenge führte, die Spark zur Verfügung steht (d. h.
spark.executor.memory
).
-
Bekannte Probleme aus den früheren Versionen, die behoben wurden
-
YARNDie Protokollaggregation ist jetzt standardmäßig aktiviert.
-
Es wurde ein Problem behoben, bei dem Protokolle nicht in den Amazon S3 S3-Log-Bucket für den Cluster übertragen wurden, wenn die YARN Protokollaggregation aktiviert war.
-
YARNDie Containergrößen haben jetzt ein neues Minimum von 32 für alle Knotentypen.
-
Es wurde ein Problem mit Ganglia behoben, dass zu übermäßigen Festplatten-E/A-Vorgängen auf dem Primärknoten in großen Clustern führte.
-
Es wurde ein Problem behoben, das verhinderte, das Anwendungsprotokolle per Push-Verfahren an Amazon S3 übertragen wurden, wenn ein Cluster heruntergefahren wird.
-
Es wurde ein Problem behoben EMRFSCLI, das dazu führte, dass bestimmte Befehle fehlschlugen.
-
Es wurde ein Problem mit Zeppelin behoben, das verhinderte, dass Abhängigkeiten in die Basisdatei geladen wurden. SparkContext
-
Es wurde ein Problem behoben, das aus einer Größenanpassung resultierte bei dem Versuch, Instances hinzuzufügen.
-
Es wurde ein Problem in Hive behoben, bei dem CREATE TABLE AS übermäßig SELECT viele Listenaufrufe an Amazon S3 tätigte.
-
Es wurde ein Problem behoben, bei dem große Cluster nicht ordnungsgemäß bereitgestellt wurden wenn Hue, Oozie und Ganglia installiert sind.
-
Es wurde ein Problem in s3-dist-cp behoben, bei dem ein Beendigungscode gleich Null zurückgegeben wurde, wenn ein Fehler auftrat.
4.3.0-Komponentenversionen
Die Komponenten, die Amazon mit dieser Version EMR installiert, sind unten aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur bei Amazon erhältlich EMR und werden für Systemprozesse und Funktionen installiert. Diese beginnen in der Regel mit emr
oder aws
. Big-Data-Anwendungspakete in der neuesten EMR Amazon-Version sind normalerweise die neueste Version, die in der Community zu finden ist. Wir stellen Community-Veröffentlichungen EMR so schnell wie möglich auf Amazon zur Verfügung.
Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form
. Der CommunityVersion
-amzn-EmrVersion
beginnt bei 0. Wenn beispielsweise eine Open-Source-Community-Komponente, die EmrVersion
myapp-component
mit Version 2.2 benannt ist, dreimal geändert wurde, um sie in verschiedenen EMR Amazon-Versionen aufzunehmen, wird ihre Release-Version als aufgeführt2.2-amzn-2
.
Komponente | Version | Beschreibung |
---|---|---|
emr-ddb | 3.0.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. |
emr-goodies | 2.0.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. |
emr-kinesis | 3.1.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. |
emr-s3-dist-cp | 2.1.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. |
emrfs | 2.3.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. |
ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. |
ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. |
ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. |
hadoop-client | 2.7.1-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". |
hadoop-hdfs-datanode | 2.7.1-amzn-0 | HDFSService auf Knotenebene zum Speichern von Blöcken. |
hadoop-hdfs-library | 2.7.1-amzn-0 | HDFSBefehlszeilenclient und Bibliothek |
hadoop-hdfs-namenode | 2.7.1-amzn-0 | HDFSDienst zum Verfolgen von Dateinamen und Blockspeicherorten. |
hadoop-httpfs-server | 2.7.1-amzn-0 | HTTPEndpunkt für HDFS Operationen. |
hadoop-kms-server | 2.7.1-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf dem von Hadoop basiert. KeyProvider API |
hadoop-mapred | 2.7.1-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. |
hadoop-yarn-nodemanager | 2.7.1-amzn-0 | YARNDienst zur Verwaltung von Containern auf einem einzelnen Knoten. |
hadoop-yarn-resourcemanager | 2.7.1-amzn-0 | YARNDienst für die Zuweisung und Verwaltung von Clusterressourcen und verteilten Anwendungen. |
hive-client | 1.0.0-amzn-2 | Hive-Befehlszeilen-Client. |
hive-metastore-server | 1.0.0-amzn-2 | Dienst für den Zugriff auf den Hive Metastore, ein semantisches Repository, das Metadaten für SQL Hadoop-Operationen speichert. |
hive-server | 1.0.0-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. |
hue-server | 3.7.1-amzn-5 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. |
mahout-client | 0.11.0 | Bibliothek für Machine Learning. |
mysql-server | 5.5 | Mein Datenbankserver. SQL |
oozie-client | 4.2.0 | Oozie-Befehlszeilen-Client. |
oozie-server | 4.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. |
presto-coordinator | 0.130 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. |
presto-worker | 0.130 | Service für das Ausführen von Teilen einer Abfrage. |
pig-client | 0.14.0-amzn-0 | Pig-Befehlszeilen-Client. |
spark-client | 1.6.0 | Spark-Befehlszeilen-Clients. |
spark-history-server | 1.6.0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. |
spark-on-yarn | 1.6.0 | In-Memory-Ausführungsengine fürYARN. |
spark-yarn-slave | 1.6.0 | Apache Spark-Bibliotheken, die von YARN Slaves benötigt werden. |
webserver | 2.4 | HTTPApache-Server. |
zeppelin-server | 0.5.5-incubating-amzn-1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. |
4.3.0 Konfigurationsklassifizierungen
Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML Konfigurationsdatei für die Anwendung, wie z. hive-site.xml
Weitere Informationen finden Sie unter Anwendungen konfigurieren.
emr-4.3.0-Klassifizierungen | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Klassifizierungen | Beschreibung | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | EMRFSEinstellungen ändern. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Konfigurieren Sie HDFS Verschlüsselungszonen. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Ändern Sie die Werte in HDFS's hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Ändert die Werte in der Hive-Umgebung. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j | Ändern Sie die Werte in der Datei hive-exec-log 4j.properties von Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j | Ändert die Werte in der hive-log4j.properties-Datei in Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Ändert die Werte in der INI-Datei in Hue. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Werte in der Umgebung ändern. HTTPFS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Werte in der KMS Hadoop-Umgebung ändern. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Werte in der MapReduce Anwendungsumgebung ändern. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Ändert die Werte in der Oozie-Umgebung. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Ändert die Werte in der log.properties-Datei in Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Ändert die Werte in der config.properties-Datei in Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Amazon EMR — kuratierte Einstellungen für Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Ändert die Werte in der Spark-Umgebung. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Werte in der Umgebung ändern. YARN | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Ändern Sie die Werte in YARN der Datei yarn-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. |