Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Chargement de données à partir d'un fichier local : configuration et flux de travail
Vous pouvez charger des données d'un fichier local dans une table existante ou nouvelle.
Configuration administrateur pour charger des données à partir d'un fichier local
Votre administrateur de l'éditeur de requête v2 doit spécifier le compartiment Amazon S3 commun dans la fenêtre Account settings (Paramètres du compte). Les utilisateurs du compte doivent être configurés avec les autorisations appropriées.
IAMAutorisations requises : les utilisateurs du chargement à partir d'un fichier local doivent disposer des
s3:deleteObject
autorisationss3:ListBucket
s3:GetBucketLocation
s3:putObject
s3:getObject
,,, et. Leoptional-prefix
peut être spécifié pour limiter l'utilisation de ce compartiment liée à l'éditeur de requêtes v2 aux objets portant ce préfixe. Vous pouvez utiliser cette option lorsque ce même compartiment Amazon S3 est utilisé dans d'autres contextes que l'éditeur de requête v2. Pour en savoir plus sur les compartiments et les préfixes, consultez Managing user access to specific folders (Gestion de l'accès des utilisateurs à des dossiers spécifiques) dans Amazon Simple Storage Service User Guide (Guide de l'utilisateur d'Amazon Simple Storage Service). Pour s'assurer que l'accès aux données entre utilisateurs n'est pas autorisé, nous recommandons à l'administrateur de l'éditeur de requête v2 d'utiliser une politique de compartiment Amazon S3 pour restreindre l'accès aux objets en fonction deaws:userid
. L'exemple suivant autorise Amazon S3 à accéder à un<staging-bucket-name>
avec un accès en lecture/écriture uniquement aux objets Amazon S3 avec le préfixeaws:userid
comme préfixe.{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:ListBucket", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::
<staging-bucket-name>
" ] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": [ "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]
/${aws:userid}/*" ] } ] }Séparation des données – Nous déconseillons d'accorder aux utilisateurs un accès mutuel à leurs données respectives (même brièvement). Le chargement à partir d'un fichier local utilise le compartiment Amazon S3 intermédiaire configuré par l'administrateur de l'éditeur de requête v2. Configurez la politique de compartiment pour le compartiment intermédiaire afin d'assurer une séparation des données entre les utilisateurs. L'exemple suivant montre une politique de compartiment qui sépare les données entre les utilisateurs du
<staging-bucket-name>
.{ "Version": "2012-10-17", "Statement": [ {"Sid": "userIdPolicy", "Effect": "Deny", "Principal": "*", "Action": ["s3:PutObject", "s3:GetObject", "s3:DeleteObject"], "NotResource": [ "arn:aws:s3:::
<staging-bucket-name>[/<optional-prefix>]
/${aws:userid}/*" ] } ] }
Chargement de données à partir d'un fichier local
Pour charger les données d'un fichier local dans une table existante
L'administrateur de votre éditeur de requêtes v2 doit spécifier le compartiment Amazon S3 commun dans la fenêtre des paramètres du compte. L'éditeur de requêtes v2 télécharge automatiquement le fichier local dans un compartiment Amazon S3 commun utilisé par votre compte, puis utilise la COPY commande pour charger les données. La COPY commande générée et exécutée par la fenêtre de chargement du fichier local de l'éditeur de requêtes v2 prend en charge de nombreux paramètres disponibles pour la syntaxe de COPY commande à copier depuis Amazon S3. Pour plus d'informations sur la COPY commande et ses options utilisées pour charger des données depuis Amazon S3, consultez COPY le manuel Amazon Redshift Database Developer Guide du développeur de base de données Amazon Redshift.
Vérifiez que la table est déjà créée dans la base de données où vous souhaitez charger des données.
Vérifiez que vous êtes connecté à la base de données cible dans le volet d'arborescence de l'éditeur de requête v2. Vous pouvez créer une connexion avec le cluster ou le groupe de travail où les données seront chargées, en utilisant le menu contextuel (clic droit).
Choisissez Load data (Charger les données).
Dans Data source (Source de données), choisissez Load from local file (Charger depuis un fichier local).
Choisissez Parcourir pour rechercher le fichier qui contient les données en question et sélectionnez Charger un fichier. Par défaut, les fichiers portant les extensions
.csv
,.avro
,.parquet
et.orc
sont affichés, mais vous pouvez choisir d'autres types de fichiers. La taille maximale du fichier est de 100 Mo.Choisissez le format de fichier pour le fichier à charger. Les formats de données pris en charge sont CSV JSONDELIMITER,FIXEDWIDTH,SHAPEFILE,AVRO,PARQUET, etORC. En fonction du format de fichier spécifié, vous pouvez choisir les options de fichier correspondantes. Vous pouvez également sélectionner Les données sont cryptées si les données sont cryptées et saisir le nom de ressource Amazon (ARN) de la KMS clé utilisée pour chiffrer les données.
Si vous choisissez CSV ouDELIMITER, vous pouvez également choisir le caractère délimiteur et choisir d'ignorer les lignes d'en-tête si le nombre de lignes spécifié correspond en fait à des noms de colonnes et non à des données à charger.
(Facultatif) Les paramètres avancés prennent en charge divers paramètres de conversion de données et opérations de chargement. Saisissez ces informations si nécessaire pour votre fichier.
Pour plus d'informations sur la conversion des données et les paramètres de chargement des données, consultez Paramètres de conversion de données et Opérations de chargement de données dans le Guide du développeur de base de données Amazon Redshift.
Choisissez Suivant.
Choisissez Charger la table existante.
Confirmez ou choisissez l'emplacement de la table cible (Target table), notamment le cluster ou le groupe de travail (Cluster or workgroup), la base de données (Database), le schéma (Schema) et le nom de la Table où sont stockées les données.
(Facultatif) Vous pouvez choisir les noms de colonnes à saisir dans Column mapping (Mappage de colonnes) pour mapper les colonnes dans l'ordre du fichier de données d'entrée.
Choisissez Load data (Charger les données) pour démarrer le chargement des données.
À l'issue du chargement, un message s'affiche indiquant si le chargement a abouti ou non. En cas de succès, vous pouvez désormais l'utiliser SQL pour sélectionner les données de la table chargée. En cas d'erreur, interrogez la vue système STL _ LOAD _ ERRORS pour obtenir plus de détails. Pour plus d'informations sur les erreurs de COPY commande, consultez STL_ LOAD _ ERRORS dans le manuel Amazon Redshift Database Developer Guide.
Le modèle de COPY commande utilisé pour charger les données apparaît dans l'historique de vos requêtes. Ce modèle de COPY commande indique certains des paramètres utilisés, mais il ne peut pas être exécuté directement dans un onglet de l'éditeur. Pour en savoir plus sur l'historique des requêtes, consultez Afficher l’historique des requêtes et des onglets.
Lorsque vous chargez des données dans une nouvelle table, l'éditeur de requête v2 crée d'abord la table dans la base de données, puis charge les données en tant qu'actions distinctes dans le même flux de travail.
Pour charger les données d'un fichier local dans une nouvelle table
Votre administrateur de l'éditeur de requête v2 doit spécifier le compartiment Amazon S3 commun dans la fenêtre Account settings (Paramètres du compte). Le fichier local est automatiquement chargé dans un compartiment Amazon S3 commun utilisé par votre compte, puis la COPY commande est utilisée par l'éditeur de requêtes v2 pour charger les données. La COPY commande générée et exécutée par la fenêtre de chargement du fichier local de l'éditeur de requêtes v2 prend en charge de nombreux paramètres disponibles pour la syntaxe de COPY commande à copier depuis Amazon S3. Pour plus d'informations sur la COPY commande et ses options utilisées pour charger des données depuis Amazon S3, consultez COPY le manuel Amazon Redshift Database Developer Guide du développeur de base de données Amazon Redshift.
Vérifiez que vous êtes connecté à la base de données cible dans le volet d'arborescence de l'éditeur de requête v2. Vous pouvez créer une connexion avec le cluster ou le groupe de travail où les données seront chargées, en utilisant le menu contextuel (clic droit).
Choisissez Load data (Charger les données).
Dans Data source (Source de données), choisissez Load from local file (Charger depuis un fichier local).
Choisissez Parcourir pour rechercher le fichier qui contient les données en question et sélectionnez Charger un fichier. Par défaut, les fichiers portant les extensions
.csv
,.avro
,.parquet
et.orc
sont affichés, mais vous pouvez choisir d'autres types de fichiers. La taille maximale du fichier est de 100 Mo.Choisissez le format de fichier pour le fichier à charger. Les formats de données pris en charge sont CSV JSONDELIMITER,FIXEDWIDTH,SHAPEFILE,AVRO,PARQUET, etORC. En fonction du format de fichier spécifié, vous pouvez choisir les options de fichier correspondantes. Vous pouvez également sélectionner Les données sont cryptées si les données sont cryptées et saisir le nom de ressource Amazon (ARN) de la KMS clé utilisée pour chiffrer les données.
Si vous choisissez CSV ouDELIMITER, vous pouvez également choisir le caractère délimiteur et choisir d'ignorer les lignes d'en-tête si le nombre de lignes spécifié correspond en fait à des noms de colonnes et non à des données à charger.
(Facultatif) Les paramètres avancés prennent en charge divers paramètres de conversion de données et opérations de chargement. Saisissez ces informations si nécessaire pour votre fichier.
Pour plus d'informations sur la conversion des données et les paramètres de chargement des données, consultez Paramètres de conversion de données et Opérations de chargement de données dans le Guide du développeur de base de données Amazon Redshift.
Choisissez Suivant.
Choisissez Charger une nouvelle table.
Confirmez ou choisissez l'emplacement de la table cible, y compris le cluster ou le groupe de travail, la base de données et le schéma dans lequel les données sont chargées. Saisissez le nom de la table à créer.
Sélectionnez Créer une table pour créer la table à l'aide de la définition indiquée.
Un résumé de la définition de la table s'affiche. La table est créée dans la base de données. Pour supprimer ultérieurement la table, exécutez une DROP TABLE SQL commande. Pour plus d'informations, consultez le DROPTABLEmanuel Amazon Redshift Database Developer Guide.
Choisissez Load data (Charger les données) pour démarrer le chargement des données.
Lorsque le chargement est terminé, un message s'affiche pour indiquer si le chargement a réussi ou non. En cas de succès, vous pouvez désormais l'utiliser SQL pour sélectionner les données de la table chargée. En cas d'erreur, interrogez la vue système STL _ LOAD _ ERRORS pour obtenir plus de détails. Pour plus d'informations sur les erreurs de COPY commande, consultez STL_ LOAD _ ERRORS dans le manuel Amazon Redshift Database Developer Guide.
Le modèle de COPY commande utilisé pour charger les données apparaît dans l'historique de vos requêtes. Ce modèle de COPY commande indique certains des paramètres utilisés, mais il ne peut pas être exécuté directement dans un onglet de l'éditeur. Pour en savoir plus sur l'historique des requêtes, consultez Afficher l’historique des requêtes et des onglets.