

 Amazon Redshift ne prendra plus en charge la création de nouveaux Python à UDFs partir du patch 198. UDFs Le Python existant continuera de fonctionner jusqu'au 30 juin 2026. Pour plus d’informations, consultez le [ billet de blog ](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Chargement des données à partir d’Amazon S3
<a name="query-editor-v2-loading-data"></a>

Vous pouvez charger des données Amazon S3 dans une table existante ou nouvelle.

**Pour charger des données dans une table existante**

La commande COPY est utilisée par l’éditeur de requête v2 pour charger des données depuis Amazon S3. La commande COPY générée et utilisée dans l'assistant de chargement de données de l'éditeur de requête v2 prend en charge la plupart des paramètres disponibles dans la syntaxe de la commande COPY pour la copie depuis Amazon S3. Pour plus d’informations sur la commande COPY et ses options utilisées pour charger des données à partir d’Amazon S3, consultez [Commande COPY depuis Amazon Simple Storage Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) dans le *Guide du développeur de base de données Amazon Redshift*. 

1. Vérifiez que la table est déjà créée dans la base de données où vous souhaitez charger des données. 

1. Vérifiez que vous êtes connecté à la base de données cible dans le volet d'arborescence de l'éditeur de requête v2 avant de continuer. Vous pouvez créer une connexion avec le cluster ou le groupe de travail où les données seront chargées, en utilisant le menu contextuel (clic droit).

   Choisissez ![\[Load\]](http://docs.aws.amazon.com/fr_fr/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Charger les données).

1. Dans **Source de données**, choisissez **Charger depuis le compartiment S3**.

1. Dans **S3 URIs**, choisissez **Browse S3** pour rechercher le compartiment Amazon S3 contenant les données à charger. 

1. Si le compartiment Amazon S3 spécifié ne se trouve pas dans la même table Région AWS que la table cible, choisissez l'**emplacement du fichier S3** Région AWS où se trouvent les données.

1. Choisissez **Ce fichier est un fichier manifeste** si le fichier Amazon S3 est en fait un manifeste contenant plusieurs compartiments Amazon S3 URIs.

1. Choisissez le **format de fichier** pour le fichier à charger. Les formats de données pris en charge sont CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET et ORC. En fonction du format de fichier spécifié, vous pouvez choisir les **options de fichier** correspondantes. Vous pouvez également sélectionner **Data is encrypted (Les données sont chiffrées)** si les données sont chiffrées et saisir l’Amazon Resource Name (ARN) de la clé KMS utilisée pour chiffrer les données.

   Si vous choisissez CSV ou DELIMITER, vous pouvez également choisir le **caractère de délimitation** et l'option **Ignorer les lignes d'en-tête** si le nombre de lignes spécifié correspond à des noms de colonnes et non à des données à charger.

1. Choisissez une méthode de compression pour compresser votre fichier. La valeur par défaut est sans compression.

1. (Facultatif) Les **paramètres avancés** prennent en charge divers **paramètres de conversion de données** et **opérations de chargement**. Saisissez ces informations si nécessaire pour votre fichier.

   Pour plus d’informations sur la conversion des données et les paramètres de chargement des données, consultez [Paramètres de conversion de données](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) et [Opérations de chargement de données](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) dans le *Guide du développeur de base de données Amazon Redshift*.

1. Choisissez **Suivant**.

1. Choisissez **Charger la table existante**.

1. Confirmez ou choisissez l’emplacement de la **Table cible**, notamment le **Cluster ou groupe de travail**, la **Base de données**, le **Schéma** et le nom de la **Table** où sont chargées les données.

1. Choisissez un **rôle IAM** qui dispose des autorisations requises pour charger des données à partir de Amazon S3.

1. (Facultatif) Choisissez les noms des colonnes pour les saisir dans **Column mapping** (Mappage de colonnes) pour mapper les colonnes dans l'ordre du fichier de données d'entrée.

1. Choisissez **Load data (Charger les données)** pour démarrer le chargement des données.

   Lorsque le chargement est terminé, l'éditeur de requête s'affiche avec la commande COPY générée qui a été utilisée pour charger vos données. Le **résultat** de la commande COPY s'affiche. En cas de succès, vous pouvez désormais utiliser SQL pour sélectionner des données à partir de la table chargée. En cas d'erreur, interrogez la vue système STL\$1LOAD\$1ERRORS pour obtenir plus de détails. Pour plus d’informations sur les erreurs de commande COPY, consultez [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) dans le *Guide du développeur de la base de données Amazon Redshift*.

Lorsque vous chargez des données dans une nouvelle table, l'éditeur de requête v2 crée d'abord la table dans la base de données, puis charge les données en tant qu'actions distinctes dans le même flux de travail.

**Pour charger des données dans une nouvelle table**

La commande COPY est utilisée par l’éditeur de requête v2 pour charger des données depuis Amazon S3. La commande COPY générée et utilisée dans l'assistant de chargement de données de l'éditeur de requête v2 prend en charge la plupart des paramètres disponibles dans la syntaxe de la commande COPY pour la copie depuis Amazon S3. Pour plus d’informations sur la commande COPY et ses options utilisées pour charger des données à partir d’Amazon S3, consultez [Commande COPY depuis Amazon Simple Storage Service](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-source-s3.html) dans le *Guide du développeur de base de données Amazon Redshift*. 

1. Vérifiez que vous êtes connecté à la base de données cible dans le volet d'arborescence de l'éditeur de requête v2 avant de continuer. Vous pouvez créer une connexion avec le cluster ou le groupe de travail où les données seront chargées, en utilisant le menu contextuel (clic droit).

   Choisissez ![\[Load\]](http://docs.aws.amazon.com/fr_fr/redshift/latest/mgmt/images/qev2-upload.png)**Load data** (Charger les données).

1. Dans **Source de données**, choisissez **Charger depuis le compartiment S3**.

1. Dans **S3 URIs**, choisissez **Browse S3** pour rechercher le compartiment Amazon S3 contenant les données à charger. 

1. Si le compartiment Amazon S3 spécifié ne se trouve pas dans la même table Région AWS que la table cible, choisissez l'**emplacement du fichier S3** Région AWS où se trouvent les données.

1. Choisissez **Ce fichier est un fichier manifeste** si le fichier Amazon S3 est en fait un manifeste contenant plusieurs compartiments Amazon S3 URIs.

1. Choisissez le **format de fichier** pour le fichier à charger. Les formats de données pris en charge sont CSV, JSON, DELIMITER, FIXEDWIDTH, SHAPEFILE, AVRO, PARQUET et ORC. En fonction du format de fichier spécifié, vous pouvez choisir les **options de fichier** correspondantes. Vous pouvez également sélectionner **Data is encrypted (Les données sont chiffrées)** si les données sont chiffrées et saisir l’Amazon Resource Name (ARN) de la clé KMS utilisée pour chiffrer les données.

   Si vous choisissez CSV ou DELIMITER, vous pouvez également choisir le **caractère de délimitation** et l'option **Ignorer les lignes d'en-tête** si le nombre de lignes spécifié correspond à des noms de colonnes et non à des données à charger.

1. Choisissez une méthode de compression pour compresser votre fichier. La valeur par défaut est sans compression.

1. (Facultatif) Les **paramètres avancés** prennent en charge divers **paramètres de conversion de données** et **opérations de chargement**. Saisissez ces informations si nécessaire pour votre fichier.

   Pour plus d’informations sur la conversion des données et les paramètres de chargement des données, consultez [Paramètres de conversion de données](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-conversion.html) et [Opérations de chargement de données](https://docs.aws.amazon.com/redshift/latest/dg/copy-parameters-data-load.html) dans le *Guide du développeur de base de données Amazon Redshift*.

1. Choisissez **Suivant**.

1. Choisissez **Charger une nouvelle table**.

   Les colonnes de la table sont déduites des données d'entrée. Vous pouvez modifier la définition du schéma de la table en ajoutant des colonnes et des détails sur la table. Pour revenir au schéma de table dérivé de l'éditeur de requête v2, choisissez **Rétablir les valeurs par défaut**.

1. Confirmez ou choisissez l’emplacement de la **Table cible**, y compris le **Cluster ou groupe de travail**, la **Base de données** et le **Schéma** dans lequel les données sont chargées. Saisissez le nom de la **table** à créer.

1. Choisissez un **rôle IAM** qui dispose des autorisations requises pour charger des données à partir de Amazon S3.

1. Sélectionnez **Créer une table** pour créer la table à l'aide de la définition indiquée.

   Un résumé de la définition de la table s'affiche. La table est créée dans la base de données. Pour supprimer ultérieurement la table, exécutez la commande SQL DROP TABLE. Pour plus d'informations, consultez la section [DROP TABLE](https://docs.aws.amazon.com/redshift/latest/dg/r_DROP_TABLE) dans le *Guide du développeur de la base de données Amazon Redshift*.

1. Choisissez **Load data (Charger les données)** pour démarrer le chargement des données.

   Lorsque le chargement est terminé, l'éditeur de requête s'affiche avec la commande COPY générée qui a été utilisée pour charger vos données. Le **résultat** de la commande COPY s'affiche. En cas de succès, vous pouvez désormais utiliser SQL pour sélectionner des données à partir de la table chargée. En cas d'erreur, interrogez la vue système STL\$1LOAD\$1ERRORS pour obtenir plus de détails. Pour plus d’informations sur les erreurs de commande COPY, consultez [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) dans le *Guide du développeur de la base de données Amazon Redshift*.