Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Verwaltung von Python-Abhängigkeiten in requirements.txt
In diesem Thema wird beschrieben, wie Python-Abhängigkeiten in einer requirements.txt
Datei für eine Amazon Managed Workflows for Apache Airflow-Umgebung installiert und verwaltet werden.
Inhalt
- Testen DAGs mit dem MWAA CLI Amazon-Hilfsprogramm
- Installation von Python-Abhängigkeiten mit dem PyPi .org-Anforderungsdateiformat
- Logs auf der MWAA Amazon-Konsole aktivieren
- Protokolle in der CloudWatch Logs-Konsole anzeigen
- Fehler in der Apache Airflow-Benutzeroberfläche anzeigen
- Beispielszenarien requirements.txt
Testen DAGs mit dem MWAA CLI Amazon-Hilfsprogramm
-
Das Befehlszeilenprogramm interface (CLI) repliziert eine Amazon Managed Workflows for Apache Airflow-Umgebung lokal.
-
Das CLI erstellt lokal ein Docker-Container-Image, das einem MWAA Amazon-Produktions-Image ähnelt. Auf diese Weise können Sie eine lokale Apache Airflow-Umgebung ausführen, um benutzerdefinierte Plugins und Abhängigkeiten zu entwickeln und zu testenDAGs, bevor Sie sie auf Amazon MWAA bereitstellen.
-
Informationen zum CLI Ausführen von finden Sie aws-mwaa-local-runner
unter GitHub.
Installation von Python-Abhängigkeiten mit dem PyPi .org-Anforderungsdateiformat
Im folgenden Abschnitt werden die verschiedenen Möglichkeiten beschrieben, Python-Abhängigkeiten gemäß dem PyPi .org Requirements File Format
Option eins: Python-Abhängigkeiten aus dem Python-Paketindex
Im folgenden Abschnitt wird beschrieben, wie Python-Abhängigkeiten aus dem Python-Paketindexrequirements.txt
Datei angegeben werden.
Option zwei: Python-Räder (.whl)
Ein Python-Rad ist ein Paketformat, das entwickelt wurde, um Bibliotheken mit kompilierten Artefakten auszuliefern. Wheel-Pakete als Methode zur Installation von Abhängigkeiten in Amazon bieten mehrere VorteileMWAA:
-
Schnellere Installation — Die WHL Dateien werden einzeln ZIP in den Container kopiert und dann lokal installiert, ohne dass jede Datei heruntergeladen werden muss.
-
Weniger Konflikte — Sie können die Versionskompatibilität für Ihre Pakete im Voraus ermitteln. Daher ist es nicht erforderlich, rekursiv kompatible Versionen
pip
zu ermitteln. -
Höhere Stabilität — Bei extern gehosteten Bibliotheken können sich die nachgelagerten Anforderungen ändern, was zu Versionsinkompatibilität zwischen Containern in einer MWAA Amazon-Umgebung führt. Da Abhängigkeiten nicht von einer externen Quelle abhängig sind, verfügt jeder Container über dieselben Bibliotheken, unabhängig davon, wann jeder Container instanziiert wird.
Wir empfehlen die folgenden Methoden, um Python-Abhängigkeiten aus einem Python-Radarchiv (.whl
) in Ihrem zu installierenrequirements.txt
.
Methoden
Verwenden der plugins.zip
Datei in einem Amazon S3 S3-Bucket
Der Apache Airflow-Scheduler, die Worker und der Webserver (für Apache Airflow v2.2.2 und höher) suchen beim Start auf dem AWS-verwalteten Fargate-Container für Ihre Umgebung unter nach benutzerdefinierten Plugins. /usr/local/airflow/plugins/
Dieser Prozess beginnt vor den Abhängigkeiten MWAA von Amazon *
pip3 install -r requirements.txt
for Python und dem Start des Apache Airflow-Dienstes. Eine plugins.zip
Datei kann für alle Dateien verwendet werden, die während der Ausführung der Umgebung nicht ständig geändert werden sollen oder für die Sie Benutzern, die schreibenDAGs, keinen Zugriff gewähren möchten. Zum Beispiel Raddateien, Zertifikatsdateien und PEM YAML Konfigurationsdateien der Python-Bibliothek.
Im folgenden Abschnitt wird beschrieben, wie Sie ein Rad, das sich in der plugins.zip
Datei befindet, in Ihrem Amazon S3 S3-Bucket installieren.
-
Laden Sie die erforderlichen WHL Dateien herunter, die Sie
pip download
mit Ihrem requirements.txt
auf dem Amazon MWAA Local-Runneroder einem anderen Amazon Linux 2-Container vorhandenen Container verwenden können, um die erforderlichen Python-Wheel-Dateien aufzulösen und herunterzuladen. $
pip3 download -r "$AIRFLOW_HOME/dags/requirements.txt" -d "$AIRFLOW_HOME/plugins"
$
cd "
$AIRFLOW_HOME
/plugins"$
zip "
$AIRFLOW_HOME
/plugins.zip" * -
Geben Sie den Pfad in Ihrem an.
requirements.txt
Geben Sie das Plugins-Verzeichnis oben in Ihrer Datei requirements.txt an--find-links
und weisen Sie an, pip
keine Installation aus anderen Quellen zu verwenden--no-index
, wie im Folgenden gezeigt --find-links /usr/local/airflow/plugins --no-index
Beispiel Rad in requirements.txt
Im folgenden Beispiel wird davon ausgegangen, dass Sie das Rad in eine
plugins.zip
Datei im Stammverzeichnis Ihres Amazon S3 S3-Buckets hochgeladen haben. Beispielsweise:--find-links /usr/local/airflow/plugins --no-index numpy
Amazon MWAA ruft das
numpy-1.20.1-cp37-cp37m-manylinux1_x86_64.whl
Rad aus demplugins
Ordner ab und installiert es in Ihrer Umgebung.
Verwenden einer WHL Datei, die auf einem gehostet wird URL
Im folgenden Abschnitt wird beschrieben, wie Sie ein Rad installieren, das auf einem gehostet wirdURL. Das URL muss entweder öffentlich zugänglich sein oder von dem benutzerdefinierten Amazon aus zugänglich sein, das VPC Sie für Ihre MWAA Amazon-Umgebung angegeben haben.
-
Geben Sie eine an URL. Stellen Sie URL das einem Rad in Ihrem zur Verfügung
requirements.txt
.Beispiel Radarchiv öffentlich URL
Im folgenden Beispiel wird ein Rad von einer öffentlichen Site heruntergeladen.
--find-links https://files.pythonhosted.org/packages/ --no-index
Amazon MWAA ruft das Rad von dem von URL Ihnen angegebenen ab und installiert es in Ihrer Umgebung.
Anmerkung
URLssind nicht von privaten Webservern aus zugänglich, die die Installationsanforderungen in Amazon MWAA v2.2.2 und höher erfüllen.
Erstellen einer WHL Datei aus einem DAG
Wenn Sie einen privaten Webserver haben, der Apache Airflow v2.2.2 oder höher verwendet, und Sie die Anforderungen nicht installieren können, weil Ihre Umgebung keinen Zugriff auf externe Repositorys hat, können Sie wie folgt Ihre bestehenden MWAA Amazon-Anforderungen übernehmen und sie DAG auf Amazon S3 verpacken:
from airflow import DAG from airflow.operators.bash_operator import BashOperator from airflow.utils.dates import days_ago S3_BUCKET = 'my-s3-bucket' S3_KEY = 'backup/plugins_whl.zip' with DAG(dag_id="create_whl_file", schedule_interval=None, catchup=False, start_date=days_ago(1)) as dag: cli_command = BashOperator( task_id="bash_command", bash_command=f"mkdir /tmp/whls;pip3 download -r /usr/local/airflow/requirements/requirements.txt -d /tmp/whls;zip -j /tmp/plugins.zip /tmp/whls/*;aws s3 cp /tmp/plugins.zip s3://
{S3_BUCKET}
/{S3_KEY}
" )
Verwenden Sie nach dem DAG Ausführen von diese neue Datei als Ihr Amazon MWAAplugins.zip
, optional im Paket mit anderen Plugins. Aktualisieren Sie dann Ihre requirements.txt
vorherige Version mit --find-links /usr/local/airflow/plugins
und --no-index
ohne Hinzufügen--constraint
.
Mit dieser Methode können Sie dieselben Bibliotheken offline verwenden.
Option drei: Python-Abhängigkeiten, die auf einem privaten PyPi/PEP-503-konformen Repo gehostet werden
Im folgenden Abschnitt wird beschrieben, wie Sie ein Apache Airflow-Extra installieren, das auf einem privaten URL Server mit Authentifizierung gehostet wird.
-
Fügen Sie Ihren Benutzernamen und Ihr Passwort als Apache Airflow-Konfigurationsoptionen hinzu. Beispielsweise:
-
foo.user
:YOUR_USER_NAME
-
foo.pass
:YOUR_PASSWORD
-
-
Erstellen Sie Ihre
requirements.txt
Datei. Ersetzen Sie die Platzhalter im folgenden Beispiel durch Ihre privaten und den Benutzernamen und das PasswortURL, die Sie als Apache Airflow-Konfigurationsoptionen hinzugefügt haben. Beispielsweise:--index-url https://${AIRFLOW__FOO__USER}:${AIRFLOW__FOO__PASS}@my.privatepypi.com
-
Fügen Sie Ihrer Datei weitere Bibliotheken hinzu
requirements.txt
. Beispielsweise:--index-url https://${AIRFLOW__FOO__USER}:${AIRFLOW__FOO__PASS}@my.privatepypi.com my-private-package==1.2.3
Logs auf der MWAA Amazon-Konsole aktivieren
Die Ausführungsrolle für Ihre MWAA Amazon-Umgebung benötigt die Erlaubnis, Protokolle an Logs zu CloudWatch senden. Informationen zum Aktualisieren der Berechtigungen einer Ausführungsrolle finden Sie unterMWAAAmazon-Ausführungsrolle.
Sie können Apache Airflow-Protokolle auf der CRITICAL
EbeneINFO
, WARNING
ERROR
, oder aktivieren. Wenn Sie eine Protokollebene wählen, MWAA sendet Amazon Protokolle für diese Stufe und alle höheren Schweregrade. Wenn Sie beispielsweise Protokolle auf der INFO
Ebene aktivieren, MWAA sendet Amazon INFO
Protokolle und WARNING
ERROR
, und CRITICAL
Protokollebenen an CloudWatch Logs. Wir empfehlen, die Apache Airflow-Protokolle auf der INFO
Ebene zu aktivieren, auf der der Scheduler die für den empfangenen Protokolle einsehen kann. requirements.txt
Protokolle in der CloudWatch Logs-Konsole anzeigen
Sie können die Apache Airflow-Protokolle für den Scheduler einsehen, Ihre Workflows planen und Ihren Ordner analysieren. dags
In den folgenden Schritten wird beschrieben, wie Sie die Protokollgruppe für den Scheduler auf der MWAA Amazon-Konsole öffnen und Apache Airflow-Protokolle in der CloudWatch Logs-Konsole anzeigen.
Um Protokolle für ein anzuzeigen requirements.txt
-
Öffnen Sie die Seite Umgebungen
auf der MWAA Amazon-Konsole. -
Wählen Sie eine Umgebung aus.
-
Wählen Sie im Bereich Überwachung die Protokollgruppe Airflow Scheduler aus.
-
Wählen Sie unter
requirements_install_ip
Log-Streams die Option Log Streams aus. -
Sie sollten die Liste der Pakete, die in der Umgebung installiert wurden, unter finden
/usr/local/airflow/.local/bin
. Beispielsweise:Collecting appdirs==1.4.4 (from -r /usr/local/airflow/.local/bin (line 1)) Downloading https://files.pythonhosted.org/packages/3b/00/2344469e2084fb28kjdsfiuyweb47389789vxbmnbjhsdgf5463acd6cf5e3db69324/appdirs-1.4.4-py2.py3-none-any.whl Collecting astroid==2.4.2 (from -r /usr/local/airflow/.local/bin (line 2))
-
Sehen Sie sich die Liste der Pakete an und überprüfen Sie, ob bei der Installation eines dieser Pakete ein Fehler aufgetreten ist. Wenn etwas schief gelaufen ist, wird möglicherweise ein Fehler ähnlich dem folgenden angezeigt:
2021-03-05T14:34:42.731-07:00 No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4)) No matching distribution found for LibraryName==1.0.0 (from -r /usr/local/airflow/.local/bin (line 4))
Fehler in der Apache Airflow-Benutzeroberfläche anzeigen
Möglicherweise möchten Sie auch Ihre Apache Airflow-Benutzeroberfläche überprüfen, um festzustellen, ob ein Fehler möglicherweise mit einem anderen Problem zusammenhängt. Der häufigste Fehler, auf den Sie bei Apache Airflow bei Amazon stoßen können, MWAA ist:
Broken DAG: No module named
x
Wenn Sie diesen Fehler in Ihrer Apache Airflow-Benutzeroberfläche sehen, fehlt Ihnen wahrscheinlich eine erforderliche Abhängigkeit in Ihrer requirements.txt
Datei.
Bei Apache Airflow anmelden
Sie benötigen Zugriffsrichtlinie für die Apache Airflow-Benutzeroberfläche: A mazonMWAAWeb ServerAccess Berechtigungen für Ihr AWS Konto in AWS Identity and Access Management (IAM), um Ihre Apache Airflow-Benutzeroberfläche anzeigen zu können.
Um auf Ihre Apache Airflow-Benutzeroberfläche zuzugreifen
-
Öffnen Sie die Seite Umgebungen
auf der MWAA Amazon-Konsole. -
Wählen Sie eine Umgebung aus.
-
Wählen Sie „Airflow-Benutzeroberfläche öffnen“.
Beispielszenarien requirements.txt
Sie können verschiedene Formate in Ihrem mischen und anpassenrequirements.txt
. Das folgende Beispiel verwendet eine Kombination der verschiedenen Möglichkeiten zur Installation von Extras.
Beispiel Extras auf PyPi .org und in der Öffentlichkeit URL
Sie müssen --index-url
diese Option verwenden, wenn Sie Pakete von PyPi .org angeben, zusätzlich zu Paketen in einem öffentlichen RepositoryURL, wie z. B. einem benutzerdefinierten PEP 503-kompatiblen RepoURLs.
aws-batch == 0.6 phoenix-letter >= 0.3 --index-url http://dist.repoze.org/zope2/2.10/simple zopelib