

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Ajouter ou mettre à jour DAGs
<a name="configuring-dag-folder"></a>

Les graphes acycliques dirigés (DAGs) sont définis dans un fichier Python qui définit la structure du DAG sous forme de code. Vous pouvez utiliser la console Amazon S3 AWS CLI ou la console Amazon S3 pour effectuer le téléchargement DAGs dans votre environnement. Cette rubrique décrit les étapes pour ajouter ou mettre à jour Apache Airflow DAGs dans votre environnement Amazon Managed Workflows for Apache Airflow à l'aide `dags` du dossier de votre compartiment Amazon S3.

**Topics**
+ [Prérequis](#configuring-dag-folder-prereqs)
+ [Comment ça marche](#configuring-dag-folder-how)
+ [Qu'est-ce qui a changé ?](#configuring-dag-folder-changed)
+ [Tests DAGs à l'aide de l'utilitaire Amazon MWAA CLI](#working-dag-folder-cli-utility)
+ [Téléchargement du code DAG sur Amazon S3](#configuring-dag-folder-uploading)
+ [Spécifier le chemin d'accès à votre DAGs dossier sur la console Amazon MWAA (pour la première fois)](#configuring-dag-folder-mwaaconsole)
+ [Accès aux modifications sur votre interface utilisateur Apache Airflow](#configuring-dag-folder-mwaaconsole-view)
+ [Quelle est la prochaine étape ?](#configuring-dag-folder-next-up)

## Prérequis
<a name="configuring-dag-folder-prereqs"></a>

Vous aurez besoin des éléments suivants avant de pouvoir effectuer les étapes indiquées sur cette page.
+ **Autorisations** — Votre administrateur Compte AWS doit vous avoir accordé l'accès à la politique de contrôle MWAAFull ConsoleAccess d'accès [Amazon](access-policies.md#console-full-access) pour votre environnement. En outre, votre environnement Amazon MWAA doit être autorisé par votre [rôle d'exécution](mwaa-create-role.md) à accéder aux AWS ressources utilisées par votre environnement.
+ **Accès** : si vous avez besoin d'accéder à des référentiels publics pour installer des dépendances directement sur le serveur Web, votre environnement doit être configuré avec un accès au serveur Web **du réseau public**. Pour plus d’informations, consultez [Modes d’accès Apache Airflow](configuring-networking.md).
+ **Configuration Amazon S3** — Le compartiment [Amazon S3](mwaa-s3-bucket.md) utilisé pour stocker vos DAGs plugins personnalisés et vos dépendances Python `requirements.txt` doit être configuré avec l'*accès public bloqué* et le *versionnage activé*. `plugins.zip`

## Comment ça marche
<a name="configuring-dag-folder-how"></a>

Un graphe acyclique dirigé (DAG) est défini dans un seul fichier Python qui définit la structure du DAG sous forme de code. Il comprend les éléments suivants :
+ Une définition du [DAG](https://airflow.apache.org/docs/stable/concepts.html#dags).
+ [Opérateurs](https://airflow.apache.org/concepts.html#operators) qui décrivent comment exécuter le DAG et les [tâches](https://airflow.apache.org/docs/stable/concepts.html#tasks) à exécuter.
+ [Relations entre les opérateurs](https://airflow.apache.org/concepts.html#bitshift-composition) qui décrivent l'ordre dans lequel les tâches doivent être exécutées.

Pour exécuter une plateforme Apache Airflow dans un environnement Amazon MWAA, vous devez copier la définition de votre DAG dans le `dags` dossier de votre bucket de stockage. Par exemple, le dossier DAG de votre bucket de stockage doit ressembler à :

**Example dossier DAG**  

```
dags/
└ dag_def.py
```

Amazon MWAA synchronise automatiquement les objets nouveaux et modifiés de votre compartiment Amazon S3 avec le planificateur Amazon MWAA et le `/usr/local/airflow/dags` dossier des conteneurs de travail toutes les 30 secondes, préservant ainsi la hiérarchie des fichiers de la source Amazon S3, quel que soit le type de fichier. L'heure à laquelle la nouvelle DAGs prise doit être répertoriée dans votre interface utilisateur d'Apache Airflow est contrôlée par. `scheduler.dag\$1dir\$1list\$1interval` Les modifications apportées à l'existant DAGs seront prises en compte lors de la prochaine [boucle de traitement DAG](best-practices-tuning.md#best-practices-tuning-scheduler).

**Note**  
Il n'est pas nécessaire d'inclure le fichier `airflow.cfg` de configuration dans votre dossier DAG. Vous pouvez remplacer les configurations par défaut d'Apache Airflow depuis la console Amazon MWAA. Pour plus d’informations, consultez [Utilisation des options de configuration d'Apache Airflow sur Amazon MWAA](configuring-env-variables.md).

## Qu'est-ce qui a changé ?
<a name="configuring-dag-folder-changed"></a>

Pour consulter les modifications apportées à une version spécifique d'Apache Airflow, reportez-vous à la page des [notes de version](https://airflow.apache.org/docs/apache-airflow/stable/release_notes.html#release-notes).
+ [Configurations d'Apache Airflow v3 : référence de configuration](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html)
+ Informations sur l'interface publique d'Apache Airflow v2 : [Interface publique](https://airflow.apache.org/docs/apache-airflow/2.10.3/public-airflow-interface.html) d'Airflow

## Tests DAGs à l'aide de l'utilitaire Amazon MWAA CLI
<a name="working-dag-folder-cli-utility"></a>
+ L'utilitaire d'interface de ligne de commande (CLI) reproduit localement un environnement Amazon Managed Workflows pour Apache Airflow.
+ La CLI crée localement une image de conteneur Docker similaire à une image de production Amazon MWAA. Vous pouvez l'utiliser pour exécuter un environnement Apache Airflow local afin de développer et de tester DAGs des plugins personnalisés et des dépendances avant le déploiement sur Amazon MWAA.
+ Pour exécuter la CLI, reportez-vous à la section [aws-mwaa-docker-images](https://github.com/aws/amazon-mwaa-docker-images)on GitHub.

## Téléchargement du code DAG sur Amazon S3
<a name="configuring-dag-folder-uploading"></a>

Vous pouvez utiliser la console Amazon S3 ou le AWS Command Line Interface (AWS CLI) pour télécharger le code DAG dans votre compartiment Amazon S3. Les étapes suivantes supposent que vous téléchargez du code (`.py`) dans un dossier nommé `dags` dans votre compartiment Amazon S3.

### En utilisant le AWS CLI
<a name="configuring-dag-folder-cli"></a>

The AWS Command Line Interface (AWS CLI) est un outil open source que vous pouvez utiliser pour interagir avec les AWS services à l'aide de commandes dans votre interface de ligne de commande. Pour effectuer les étapes indiquées sur cette page, vous avez besoin des éléments suivants :
+ [AWS CLI — Installez la version 2](https://docs.aws.amazon.com/cli/latest/userguide/install-cliv2.html).
+ [AWS CLI — Configuration rapide avec `aws configure`](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html).

**Pour effectuer un téléchargement à l'aide du AWS CLI**

1. Utilisez la commande suivante pour répertorier tous vos compartiments Amazon S3.

   ```
   aws s3 ls
   ```

1. Utilisez la commande suivante pour répertorier les fichiers et les dossiers du compartiment Amazon S3 de votre environnement.

   ```
   aws s3 ls s3://YOUR_S3_BUCKET_NAME
   ```

1. La commande suivante télécharge un `dag_def.py` fichier `dags` dans un dossier. 

   ```
   aws s3 cp dag_def.py s3://amzn-s3-demo-bucket/dags/
   ```

   Si aucun dossier nommé `dags` n'existe déjà dans votre compartiment Amazon S3, cette commande crée le `dags` dossier et télécharge le fichier nommé `dag_def.py` dans le nouveau dossier.

### Utilisation de la console Amazon S3
<a name="configuring-dag-folder-console"></a>

La console Amazon S3 est une interface utilisateur Web que vous pouvez utiliser pour créer et gérer les ressources de votre compartiment Amazon S3. Les étapes suivantes supposent que vous avez un DAGs dossier nommé`dags`.

**Pour charger à l'aide de la console Amazon S3**

1. Ouvrez la page [Environnements](https://console.aws.amazon.com/mwaa/home#/environments) sur la console Amazon MWAA.

1. Choisissez un environnement.

1. Sélectionnez le lien du **compartiment S3** dans le **code DAG du volet S3** pour ouvrir votre compartiment de stockage dans la console.

1. Choisissez le dossier `dags`.

1. Choisissez **Charger**.

1. Choisissez **Ajouter un fichier**.

1. Sélectionnez la copie locale de votre fichier`dag_def.py`, puis choisissez **Upload**.

## Spécifier le chemin d'accès à votre DAGs dossier sur la console Amazon MWAA (pour la première fois)
<a name="configuring-dag-folder-mwaaconsole"></a>

Les étapes suivantes supposent que vous spécifiez le chemin d'accès à un dossier nommé dans votre compartiment Amazon S3`dags`.

1. Ouvrez la page [Environnements](https://console.aws.amazon.com/mwaa/home#/environments) sur la console Amazon MWAA.

1. Choisissez l'environnement dans lequel vous souhaitez exécuter DAGs.

1. Choisissez **Modifier**.

1. Dans le **code DAG dans le volet Amazon S3**, choisissez **Browse S3** à côté du champ du **dossier DAG**.

1. Sélectionnez votre `dags` dossier.

1. Choisissez **Choisir**.

1. Choisissez **Suivant**, **Mettre à jour l'environnement**.

## Accès aux modifications sur votre interface utilisateur Apache Airflow
<a name="configuring-dag-folder-mwaaconsole-view"></a>

Vous avez besoin d'[Politique d'accès à l'interface utilisateur d'Apache Airflow : Amazon MWAAWeb ServerAccess](access-policies.md#web-ui-access)autorisations pour que votre Compte AWS identifiant Gestion des identités et des accès AWS (IAM) puisse accéder à votre interface utilisateur Apache Airflow.

**Pour accéder à votre interface utilisateur Apache Airflow**

1. Ouvrez la page [Environnements](https://console.aws.amazon.com/mwaa/home#/environments) sur la console Amazon MWAA.

1. Choisissez un environnement.

1. Choisissez **Open Airflow UI**.

## Quelle est la prochaine étape ?
<a name="configuring-dag-folder-next-up"></a>

Testez vos DAGs plugins personnalisés et vos dépendances Python localement en utilisant [aws-mwaa-docker-images](https://github.com/aws/amazon-mwaa-docker-images)on GitHub.