

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Création de pipelines
<a name="Creating-pipelines"></a>

L'assistant de configuration du pipeline vous guide tout au long de la création de votre pipeline de données.

1. Sous **Paramètres généraux**, fournissez les détails de la source de données, y compris le nom et le type de la source. Vous pouvez également spécifier des balises de pipeline et le nom de votre pipeline.

1. Sous **Destination**, spécifiez les détails de la destination. CloudWatch Les journaux sont la destination par défaut. 

1. Sous **Processeur**, ajoutez les processeurs et les analyseurs souhaités. Un analyseur syntaxique est une première étape obligatoire pour certains types de données. Vous pouvez effectuer une analyse personnalisée à l'aide de processeurs tels que Grok ou CSV. Les processeurs qui ne sont pas pris en charge par le type de données sont désactivés.

   Pour configurer les processeurs à l'aide du langage naturel, activez le bouton **assisté par l'IA**. Entrez une description des transformations de journal dont vous avez besoin, et CloudWatch Pipelines génère automatiquement la configuration du processeur. Pour les AWS journaux vendus, un exemple d'événement de journal est également généré afin que vous puissiez vérifier le résultat avant le déploiement. Vous pouvez revoir et modifier la configuration générée avant de créer le pipeline.
**Important**  
Pour utiliser la configuration du processeur assistée par l'IA, vous devez disposer de l'autorisation `logs:GeneratePipeline` IAM. Pour de plus amples informations, veuillez consulter [Autorisations de configuration du processeur assistées par l'IA](pipeline-iam-reference.md#ai-assisted-permissions).

   Vous pouvez également ajouter des règles de traitement conditionnel aux processeurs pris en charge à l'aide du `when` paramètre. Le traitement conditionnel vous permet de contrôler les entrées du journal sur lesquelles un processeur agit. Pour connaître la syntaxe des expressions et les processeurs pris en charge, consultez[Syntaxe d'expression pour le traitement conditionnel](conditional-processing.md).

   Pour conserver les copies non modifiées de vos données de journal à des fins d'audit ou de conformité, activez le bouton **Conserver le journal d'origine**. Lorsque cette option est activée, les CloudWatch pipelines stockent automatiquement une copie de chaque événement du journal brut avant toute transformation. Cela garantit que les données d'origine sont toujours disponibles pour les audits ou les enquêtes, même après que les processeurs ont modifié les événements du journal. L'option **Conserver le journal d'origine** n'est disponible que pour les pipelines dotés d'une source CloudWatch de journal vendue.

1. Sous **Vérifier et créer**, passez en revue la configuration du pipeline. Si vous êtes satisfait de la configuration, choisissez **Create pipeline** pour démarrer le déploiement et la création de ressources de pipeline. L'achèvement de la création du pipeline prend jusqu'à 5 minutes selon le type de source. Une fois terminé, vous serez redirigé vers l'onglet Pipelines de la console d'ingestion.

**Important**  
Les configurations des processeurs de pipeline sont enregistrées dans AWS CloudTrail des événements à des fins d'audit et de conformité. Pour protéger les informations sensibles, n'incluez pas de mots de passe, de clés d'API ou d'autres informations sensibles dans les configurations du processeur.