

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Exportation de données d’instantanés de bases de données vers Amazon S3 pour Amazon RDS
<a name="USER_ExportSnapshot"></a>

Vous pouvez exporter des données d'instantanés de bases de données vers un compartiment Amazon S3. Le processus d’exportation s’exécute en arrière-plan et n’affecte pas les performances de votre base de données active.

Lorsque vous exportez un instantané de base de données, Amazon RDS extrait les données de l'instantané et les stocke dans un compartiment Amazon S3. Les données sont stockées dans un format Apache Parquet qui est compressé et cohérent.

Vous pouvez exporter tous les types de instantanés de base de données, y compris les instantanés manuels, les instantanés du système automatisés et les instantanés créés par le service. AWS Backup Par défaut, toutes les données de l’instantané sont exportées. Toutefois, vous pouvez choisir d'exporter des ensembles spécifiques de bases de données, de schémas ou de tables.

Une fois les données exportées, vous pouvez les analyser directement via des outils tels que Amazon Athena ou Amazon Redshift Spectrum. Pour plus d'informations sur l'utilisation d'Athena pour lire les données de Parquet, consultez [Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) dans le guide de l'utilisateur d'*Amazon Athena*. Pour plus d’informations sur l’utilisation de Redshift Spectrum pour lire des données Parquet, consultez [COPY depuis les formats de données en colonnes](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) dans le *Guide du développeur de base de données Amazon Redshift*.

**Avertissement**  
Vous ne pouvez pas restaurer les données des instantanés exportées de S3 vers une nouvelle instance de base de données. Vous ne pouvez pas importer les données des instantanés de S3 vers une instance de base de données existante. Toutefois, vous pouvez traiter les données à l’aide d’Amazon Athena ou de Redshift Spectrum à des fins d’analyse. En outre, vous pouvez transformer AWS Glue les données, puis les importer dans Amazon RDS à l'aide d'outils tels que AWS DMS des scripts personnalisés.

Pour plus d’informations sur l’exportation d’instantanés de base de données vers Amazon S3, consultez les rubriques suivantes.

**Rubriques**
+ [Surveillance des exportations d’instantanés pour Amazon RDS](USER_ExportSnapshot.Monitoring.md)
+ [Annulation d’une tâche d’exportation d’instantané pour Amazon RDS](USER_ExportSnapshot.Canceling.md)
+ [Messages d’échec relatifs aux tâches d’exportation Amazon S3 pour Amazon RDS](USER_ExportSnapshot.failure-msg.md)
+ [Résolution des erreurs d’autorisations RDS pour PostgreSQL](USER_ExportSnapshot.postgres-permissions.md)
+ [Conventions de dénomination des fichiers pour les exportations vers Amazon S3 pour Amazon RDS](USER_ExportSnapshot.FileNames.md)
+ [Conversion des données lors de l’exportation vers un compartiment Amazon S3 pour Amazon RDS](USER_ExportSnapshot.data-types.md)

## Présentation de l'exportation des données d'instantané
<a name="USER_ExportSnapshot.Overview"></a>

Vous utilisez le processus suivant pour exporter des données d'instantané de base de données vers un compartiment Amazon S3. Pour plus de détails, consultez les sections suivantes.

1. Identifiez l'instantané à exporter.

   Utilisez un instantané automatisé ou manuel existant ou créez un instantané manuel d’une instance de base de données ou d’un cluster de bases de données multi-AZ.

1. Configurez l’accès au compartiment Amazon S3.

   Un *compartiment* est un conteneur d’objets ou de fichiers Amazon S3. Pour fournir les informations permettant d’accéder à un compartiment, procédez comme suit :

   1. Identifiez le compartiment S3 vers lequel l’instantané doit être exporté. Le compartiment S3 doit se trouver dans la même AWS région que le snapshot. Pour de plus amples informations, veuillez consulter [Identification du compartiment Amazon S3 pour l’exportation](#USER_ExportSnapshot.SetupBucket).

   1. Créez un rôle Gestion des identités et des accès AWS (IAM) qui accorde à la tâche d'exportation de snapshots l'accès au compartiment S3. Pour de plus amples informations, veuillez consulter [Fournir l’accès à un compartiment Amazon S3 à l’aide d’un rôle IAM](#USER_ExportSnapshot.SetupIAMRole). 

1. Créez un chiffrement symétrique AWS KMS key pour le chiffrement côté serveur. La clé KMS est utilisée par la tâche d'exportation de snapshots pour configurer le chiffrement AWS KMS côté serveur lors de l'écriture des données d'exportation dans S3.

   La politique de clés KMS doit inclure à la fois les autorisations `kms:CreateGrant` et `kms:DescribeKey`. Pour plus d'informations sur l'utilisation des clés KMS dans Amazon RDS, consultez [AWS KMS key gestion](Overview.Encryption.Keys.md).

   Si votre politique de clé KMS contient une déclaration de refus, assurez-vous d'exclure explicitement le principal du AWS service`export.rds.amazonaws.com`.

   Vous pouvez utiliser une clé KMS dans votre AWS compte, ou vous pouvez utiliser une clé KMS entre comptes. Pour de plus amples informations, veuillez consulter [Utilisation d'un compte croisé AWS KMS key pour chiffrer les exportations Amazon S3](#USER_ExportSnapshot.CMK).

1. Exportez l’instantané vers Amazon S3 à l’aide de la console ou de la commande de CLI `start-export-task`. Pour de plus amples informations, veuillez consulter [Exportation d'un instantané de base de données vers un compartiment Amazon S3](#USER_ExportSnapshot.Exporting). 

1. Pour accéder aux données exportées dans le compartiment Amazon S3, consultez [Chargement, téléchargement et gestion d'objets](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) dans le *Guide de l'utilisateur Amazon Simple Storage Service*.

## Configuration de l’accès à un compartiment Amazon S3
<a name="USER_ExportSnapshot.Setup"></a>

Pour exporter des données d'instantané de base de données vers un fichier Amazon S3, vous accordez d'abord à l'instantané l'autorisation d'accéder au compartiment Amazon S3. Vous créez ensuite un rôle IAM pour autoriser le service Amazon RDS à écrire dans le compartiment Amazon S3.

**Topics**
+ [Identification du compartiment Amazon S3 pour l’exportation](#USER_ExportSnapshot.SetupBucket)
+ [Fournir l’accès à un compartiment Amazon S3 à l’aide d’un rôle IAM](#USER_ExportSnapshot.SetupIAMRole)
+ [Utilisation d’un compartiment Amazon S3 entre comptes](#USER_ExportSnapshot.Setup.XAcctBucket)
+ [Utilisation d'un compte croisé AWS KMS key pour chiffrer les exportations Amazon S3](#USER_ExportSnapshot.CMK)

### Identification du compartiment Amazon S3 pour l’exportation
<a name="USER_ExportSnapshot.SetupBucket"></a>

Identifiez le compartiment Amazon S3 vers lequel exporter l’instantané de base de données. Utilisez un compartiment S3 existant ou créez un nouveau compartiment S3.

**Note**  
Le compartiment S3 vers lequel effectuer l'exportation doit se trouver dans la même AWS région que le snapshot.

Pour plus d’informations sur l’utilisation des Amazon S3 compartiments, consultez les points suivants dans le *Guide de l’utilisateur Amazon Simple Storage Service* :
+ [ Comment afficher les propriétés d’un compartiment S3 ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [ Comment activer le chiffrement par défaut pour un compartiment Amazon S3 ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [ Comment créer un compartiment S3 ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

### Fournir l’accès à un compartiment Amazon S3 à l’aide d’un rôle IAM
<a name="USER_ExportSnapshot.SetupIAMRole"></a>

Avant d’exporter les données d’instantané de base de données vers Amazon S3, vous devez accorder aux tâches d’exportation d’instantané une autorisation d’accès en écriture au compartiment Amazon S3. 

Pour accorder cette autorisation, créez une politique IAM qui donne accès au compartiment, puis créez un rôle IAM et attachez la politique au rôle. Vous affectez ultérieurement le rôle IAM à votre tâche d'exportation d'instantané.

Pour en savoir plus sur les autres outils de gestion des accès Amazon S3, consultez [Contrôle des accès dans Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-management.html) dans le *Guide de l’utilisateur Amazon S3*.

**Important**  
Si vous prévoyez d'utiliser le AWS Management Console pour exporter votre instantané, vous pouvez choisir de créer la politique IAM et le rôle automatiquement lorsque vous exportez le cliché. Pour obtenir des instructions, veuillez consulter [Exportation d'un instantané de base de données vers un compartiment Amazon S3](#USER_ExportSnapshot.Exporting).

**Pour accorder aux tâches d’instantané de base de données l’accès à Amazon S3**

1. Créez une politique IAM. Cette politique fournit les autorisations d’accès au compartiment et aux objets qui permettent à votre tâche d’exportation d’instantané d’accéder à Amazon S3. 

   Dans la politique, incluez les actions obligatoires suivantes pour permettre le transfert de fichiers depuis Amazon RDS vers un compartiment S3. 
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   Dans la politique, incluez les ressources suivantes pour identifier le compartiment S3 et les objets qu'il contient. La liste de ressources suivante indique le format Amazon Resource Name (ARN) pour l’accès à Amazon S3.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Pour plus d’informations sur la création d’une politique IAM pour Amazon RDS, consultez [Création et utilisation d'une politique IAM pour l'accès à une base de données IAM](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Consultez également [Didacticiel : création et attachement de votre première politique gérée par le client](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) dans le *Guide de l’utilisateur IAM*.

   La AWS CLI commande suivante crée une politique IAM nommée `ExportPolicy` avec ces options. Elle accorde un accès à un compartiment nommé *amzn-s3-demo-bucket*. 
**Note**  
Après avoir créé la politique, notez son ARN. Vous en aurez besoin par la suite pour attacher la politique à un rôle IAM. 

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Créez un rôle IAM, afin qu'Amazon RDS puisse endosser ce rôle IAM en votre nom pour accéder à vos compartiments Amazon S3. Pour plus d’informations, consultez [Création d’un rôle pour déléguer des autorisations à un utilisateur IAM](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) dans le *Guide de l’utilisateur IAM*.

   L'exemple suivant montre comment utiliser la AWS CLI commande pour créer un rôle nommé`rds-s3-export-role`.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Attachez la politique IAM que vous avez créée au rôle IAM que vous venez de créer.

   La AWS CLI commande suivante associe la politique créée précédemment au rôle nommé`rds-s3-export-role`. Remplacez `your-policy-arn` par l’ARN de stratégie que vous avez noté lors d’une étape précédente. 

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

### Utilisation d’un compartiment Amazon S3 entre comptes
<a name="USER_ExportSnapshot.Setup.XAcctBucket"></a>

Vous pouvez utiliser des compartiments Amazon S3 sur plusieurs AWS comptes. Pour utiliser un compartiment entre comptes, ajoutez une politique de compartiment afin d’autoriser l’accès au rôle IAM que vous utilisez pour les exportations S3. Pour plus d’informations, consultez [ Exemple 2 : propriétaire d’un compartiment accordant à ses utilisateurs des autorisations entre comptes sur un compartiment](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-walkthroughs-managing-access-example2.html).

Attachez une politique de compartiment à votre compartiment, comme illustré dans l’exemple suivant.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::123456789012:role/Admin"
            },
            "Action": [
                "s3:PutObject*",
                "s3:ListBucket",
                "s3:GetObject*",
                "s3:DeleteObject*",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-destination-bucket",
                "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
            ]
        }
    ]
}
```

------

### Utilisation d'un compte croisé AWS KMS key pour chiffrer les exportations Amazon S3
<a name="USER_ExportSnapshot.CMK"></a>

Vous pouvez utiliser un compte croisé AWS KMS key pour chiffrer les exportations Amazon S3. Tout d’abord, vous ajoutez une politique de clé au compte local, puis vous ajoutez des politiques IAM au compte externe. Pour plus d’informations, consultez [Autorisation des utilisateurs d’autres comptes à utiliser une clé KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html).

**Pour utiliser une clé KMS entre comptes**

1. Ajoutez une politique de clé au compte local.

   L’exemple suivant accorde `ExampleRole` et `ExampleUser` dans les autorisations 444455556666 du compte externe dans le compte local 123456789012.

   ```
   {
       "Sid": "Allow an external account to use this KMS key",
       "Effect": "Allow",
       "Principal": {
           "AWS": [
               "arn:aws:iam::444455556666:role/ExampleRole",
               "arn:aws:iam::444455556666:user/ExampleUser"
           ]
       },
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "*"
   }
   ```

1. Ajoutez des politiques IAM au compte externe.

   L’exemple de stratégie IAM suivant autorise le principal à utiliser la clé KMS dans le compte 123456789012 pour les opérations cryptographiques. Pour accorder cette autorisation aux `ExampleRole` et `ExampleUser` du compte 444455556666, [attachez-leur la politique](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-using.html#attach-managed-policy-console) dans ce compte.

   ```
   {
       "Sid": "Allow use of KMS key in account 123456789012",
       "Effect": "Allow",
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "arn:aws:kms:us-west-2:123456789012:key/1234abcd-12ab-34cd-56ef-1234567890ab"
   }
   ```

## Exportation d'un instantané de base de données vers un compartiment Amazon S3
<a name="USER_ExportSnapshot.Exporting"></a>

Vous pouvez avoir jusqu'à cinq tâches simultanées d'exportation de snapshots de base de données en cours par Compte AWS.

**Note**  
L’exportation d’instantanés RDS peut prendre un certain temps en fonction du type et de la taille de votre base de données. La tâche d’exportation commence par restaurer et mettre à l’échelle l’ensemble de la base de données avant d’extraire les données vers Amazon S3. La progression de la tâche au cours de cette phase s’affiche sous l’intitulé **Starting**. Lorsque la tâche passe à l’exportation de données vers S3, la progression affiche l’intitulé **En cours**.  
La durée nécessaire à l’exportation dépend des données stockées dans la base de données. Par exemple, l’exportation des tables comportant des colonnes numériques d’index ou de clé primaire bien distribuées est la plus rapide. L’opération prend plus de temps pour les tables qui ne contiennent pas de colonne adaptée au partitionnement et les tables avec un seul index sur une colonne basée sur une chaîne. Ce délai d’exportation est plus long, car l’exportation utilise un processus à thread unique plus lent. 

Vous pouvez exporter un instantané de base de données vers Amazon S3 à l'aide de l'API AWS Management Console, de AWS CLI, ou de l'API RDS. Pour exporter un instantané de base de données vers un compartiment Amazon S3 multi-comptes, utilisez l'API AWS CLI ou l'API RDS.

Si vous utilisez une fonction Lambda pour exporter un instantané, ajoutez l’action `kms:DescribeKey` à la stratégie de fonction Lambda. Pour plus d’informations, consultez [Autorisations AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

### Console
<a name="USER_ExportSnapshot.ExportConsole"></a>

L’option de console **Exporter vers Amazon S3** s’affiche uniquement pour les instantanés pouvant être exportés vers Amazon S3. Un instantané peut ne pas être disponible pour l’exportation pour les raisons suivantes :
+ Le moteur de base de données n’est pas pris en charge pour l’exportation S3.
+ La version du moteur de base de données n’est pas prise en charge pour l’exportation S3.
+ L'exportation S3 n'est pas prise en charge dans la AWS région où l'instantané a été créé.

**Pour exporter un instantané de base de données**

1. Connectez-vous à la console Amazon RDS AWS Management Console et ouvrez-la à [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/)l'adresse.

1. Dans le panneau de navigation, choisissez **Snapshots**.

1. Dans les onglets, choisissez le type d’instantané que vous souhaitez exporter.

1. Dans la liste des instantanés, choisissez celui que vous souhaitez exporter.

1. Pour **actions**, choisissez **Export to Amazon S3 (Exporter vers Amazon S3)**.

   La fenêtre **Export to Amazon S3 (Exporter vers Amazon S3)** apparaît.

1. Dans **Export Identifier (Identifiant d’exportation)**, entrez un nom pour identifier la tâche d’exportation. Cette valeur est également utilisée pour le nom du fichier créé dans le compartiment S3.

1. Choisissez les données à exporter :
   + Choisissez **All (Tout)** pour exporter toutes les données de l’instantané.
   + Choisissez **Partial (Partiel)** pour exporter des parties spécifiques de l’instantané. Pour identifier les parties de l’instantané à exporter, entrez un(e) ou plusieurs bases de données, schémas ou tables pour **Identifiants**, séparés par des espaces.

     Utilisez le format suivant :

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Exemples :

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Pour **S3 bucket (Compartiment S3)**, choisissez le compartiment vers lequel exporter.

   Pour affecter les données exportées à un chemin d’accès de dossier dans le compartiment S3, entrez le chemin d’accès facultatif pour **S3 prefix (Préfixe S3)**.

1. Pour **Rôle IAM**, choisissez un rôle qui vous accorde un accès en écriture au compartiment S3 choisi, ou créez un nouveau rôle. 
   + Si vous avez créé un rôle en suivant les étapes décrites dans [Fournir l’accès à un compartiment Amazon S3 à l’aide d’un rôle IAM](#USER_ExportSnapshot.SetupIAMRole), choisissez ce rôle.
   + Si vous n’avez pas créé un rôle qui vous accorde un accès en écriture au compartiment S3 que vous avez choisi, choisissez **Create a new role** (Créer un nouveau rôle) pour créer le rôle automatiquement. Ensuite, saisissez un nom pour le rôle dans **Nom du rôle IAM**.

1. Pour **AWS KMS key**, entrez l’ARN de la clé à utiliser pour chiffrer les données exportées.

1. Choisissez **Export to Amazon S3 (Exporter vers Amazon S3)**.

### AWS CLI
<a name="USER_ExportSnapshot.ExportCLI"></a>

Pour exporter un instantané de base de données vers Amazon S3 à l'aide de AWS CLI, utilisez la [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)commande avec les options requises suivantes :
+ `--export-task-identifier` 
+ `--source-arn` 
+ `--s3-bucket-name` 
+ `--iam-role-arn` 
+ `--kms-key-id` 

Dans les exemples suivants, la tâche d'exportation d'instantanés est nommée*my-snapshot-export*. Elle exporte un instantané vers un compartiment S3 nommé*amzn-s3-demo-bucket*.

**Example**  
Pour Linux, macOS ou Unix :  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-snapshot-export \
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name \
4.     --s3-bucket-name amzn-s3-demo-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Pour Windows :  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-snapshot-export ^
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name ^
4.     --s3-bucket-name amzn-s3-demo-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
Vous trouverez ci-après un exemple de sortie.  

```
{
    "Status": "STARTING", 
    "IamRoleArn": "iam-role", 
    "ExportTime": "2019-08-12T01:23:53.109Z", 
    "S3Bucket": "my-export-bucket", 
    "PercentProgress": 0, 
    "KmsKeyId": "my-key", 
    "ExportTaskIdentifier": "my-snapshot-export", 
    "TotalExtractedDataInGB": 0, 
    "TaskStartTime": "2019-11-13T19:46:00.173Z", 
    "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name"
}
```
Pour fournir un chemin de dossier dans le compartiment S3 pour l'exportation des instantanés, incluez l'`--s3-prefix`option dans la [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html)commande.

### API RDS
<a name="USER_ExportSnapshot.ExportAPI"></a>

Pour exporter un instantané de base de données vers Amazon S3 à l'aide de l'API Amazon RDS, utilisez l'[StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html)opération avec les paramètres obligatoires suivants :
+ `ExportTaskIdentifier`
+ `SourceArn`
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

## Disponibilité des régions et des versions
<a name="USER_ExportSnapshot.RegionVersionAvailability"></a>

La disponibilité et la prise en charge des fonctionnalités varient selon les versions spécifiques de chaque moteur de base de données, et selon les Régions AWS. Pour obtenir plus d'informations sur la disponibilité des versions et des régions avec l'exportation d'instantanés vers S3, consultez [Régions et moteurs de base de données pris en charge pour l’exportation d’instantanés vers S3 dans Amazon RDS](Concepts.RDS_Fea_Regions_DB-eng.Feature.ExportSnapshotToS3.md).

## Limitations
<a name="USER_ExportSnapshot.Limits"></a>

L’exportation de données d’instantané de bases de données vers Amazon S3 présente les limites suivantes :
+ Vous ne pouvez pas exécuter simultanément plusieurs tâches d'exportation pour le même instantané de base de données. Cette règle s'applique aux exportations complètes et partielles.
+ L’exportation d’instantanés à partir de base de données qui utilisent le stockage magnétique n’est pas prise en charge.
+ Les exportations vers S3 ne prennent pas en charge les préfixes S3 contenant le signe des deux-points (:).
+ Les caractères suivants du chemin d’accès au fichier S3 sont convertis en traits de soulignement (\$1) lors de l’exportation :

  ```
  \ ` " (space)
  ```
+ Si une base de données, un schéma ou une table comporte des caractères autres que les suivants, l’exportation partielle n’est pas prise en charge. Toutefois, vous pouvez exporter l’intégralité de l’instantané de base de données.
  + Lettres latines (A–Z)
  + Chiffres (0–9)
  + Symbole dollar (\$1)
  + Trait de soulignement (\$1)
+ Les espaces ( ) et certains caractères ne sont pas pris en charge dans les noms de colonnes des tables de base de données. Les tables dont les noms de colonnes contiennent les caractères suivants sont ignorées lors de l’exportation :

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Les tables dont les noms contiennent des barres obliques (/) sont ignorées lors de l’exportation.
+ Les tables temporaires et non journalisées de RDS pour PostgreSQL sont ignorées lors de l’exportation.
+ Si les données contiennent un objet volumineux tel qu’un objet BLOB ou CLOB proche de ou supérieur à 500 Mo, l’exportation échoue.
+ Si une table contient une grande ligne proche de ou supérieure à 2 Go, la table est ignorée lors de l’exportation.
+ Pour les exportations partielles, la taille maximale de la liste `ExportOnly` est de 200 Ko.
+ Nous vous recommandons vivement d’utiliser un nom unique pour chaque tâche d’exportation. Si vous n’utilisez pas un nom de tâche unique, vous risquez de recevoir le message d’erreur suivant :

  ExportTaskAlreadyExistsFault: Une erreur s'est produite (ExportTaskAlreadyExists) lors de l'appel de l' StartExportTaskopération : la tâche d'exportation portant l'ID existe *xxxxx* déjà.
+ Vous pouvez supprimer un instantané lors de l’exportation de ses données vers S3, mais les coûts de stockage de cet instantané vous sont tout de même facturés tant que la tâche d’exportation n’est pas terminée.
+ Vous ne pouvez pas restaurer les données des instantanés exportées de S3 vers une nouvelle instance de base de données. Vous ne pouvez pas importer les données des instantanés de S3 vers une instance de base de données existante.
+ Vous pouvez avoir jusqu'à cinq tâches simultanées d'exportation de snapshots de base de données en cours par Compte AWS.
+ Pour exporter un instantané de base de données vers un compartiment Amazon S3 multi-comptes, vous devez utiliser l'API AWS CLI ou l'API RDS.
+ Lorsque Amazon RDS aura terminé une tâche d’exportation, vous devrez peut-être attendre un peu avant de démarrer une autre tâche d’exportation à partir du même instantané de base de données.
+ Vous ne pouvez pas exporter de vues ni de vues matérialisées.
+ RDS Export vers S3 ne prend pas en charge le contrôle d'accès basé sur des balises pour. GuardDuty Malware Protection for S3

# Surveillance des exportations d’instantanés pour Amazon RDS
<a name="USER_ExportSnapshot.Monitoring"></a>

Vous pouvez surveiller les exportations d'instantanés de bases de données à l'aide de l'AWS Management Console, de l'AWS CLI ou de l'API RDS.

## Console
<a name="USER_ExportSnapshot.MonitorConsole"></a>

**Pour surveiller les exportations d'instantanés de bases de données**

1. Connectez-vous à la AWS Management Console et ouvrez la console Amazon RDS à l’adresse [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Dans le panneau de navigation, choisissez **Snapshots**.

1. Pour afficher la liste des exportations d'instantanés, choisissez l'onglet **Exportations dans Amazon S3**.

1. Pour afficher des informations sur une exportation d'instantané spécifique, choisissez la tâche d'exportation.

## AWS CLI
<a name="USER_ExportSnapshot.MonitorCLI"></a>

Pour surveiller les exportations d'instantanés de bases de données à l'aide de l'AWS CLI, utilisez la commande [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html) .

L'exemple suivant montre comment afficher les informations actuelles sur toutes vos exportations d'instantanés.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2019-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "ExportTime": "2019-10-24T20:23:48.364Z",
10.             "S3Bucket": "amzn-s3-demo-bucket",
11.             "PercentProgress": 0,
12.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
13.             "ExportTaskIdentifier": "anewtest",
14.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
15.             "TotalExtractedDataInGB": 0,
16.             "TaskStartTime": "2019-10-25T19:10:58.885Z",
17.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:parameter-groups-test"
18.         },
19. {
20.             "Status": "COMPLETE",
21.             "TaskEndTime": "2019-10-31T21:37:28.312Z",
22.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
23.             "S3Prefix": "",
24.             "ExportTime": "2019-10-31T06:44:53.452Z",
25.             "S3Bucket": "amzn-s3-demo-bucket1",
26.             "PercentProgress": 100,
27.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
28.             "ExportTaskIdentifier": "thursday-events-test", 
29.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
30.             "TotalExtractedDataInGB": 263,
31.             "TaskStartTime": "2019-10-31T20:58:06.998Z",
32.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-31-06-44"
33.         },
34.         {
35.             "Status": "FAILED",
36.             "TaskEndTime": "2019-10-31T02:12:36.409Z",
37.             "FailureCause": "The S3 bucket edgcuc-export isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
38.             "S3Prefix": "",
39.             "ExportTime": "2019-10-30T06:45:04.526Z",
40.             "S3Bucket": "amzn-s3-demo-bucket2",
41.             "PercentProgress": 0,
42.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
43.             "ExportTaskIdentifier": "wednesday-afternoon-test",
44.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
45.             "TotalExtractedDataInGB": 0,
46.             "TaskStartTime": "2019-10-30T22:43:40.034Z",
47.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-30-06-45"
48.         }
49.     ]
50. }
```
Pour afficher des informations sur une exportation d'instantané spécifique, incluez l'option `--export-task-identifier` avec la commande `describe-export-tasks`. Pour filtrer la sortie, incluez l'option `--Filters`. Pour plus d’options, consultez la commande [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html) .

## API RDS
<a name="USER_ExportSnapshot.MonitorAPI"></a>

Pour afficher des informations sur les exportations d'instantanés de bases de données à l'aide de l'API Amazon RDS, utilisez l'opération [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html) .

Pour suivre l'achèvement du workflow d'exportation ou pour initier un autre workflow, vous pouvez vous abonner à des rubriques Amazon Simple Notification Service. Pour plus d’informations sur Amazon SNS, consultez [Utiliser la notification d'événements d'Amazon RDS](USER_Events.md).

# Annulation d’une tâche d’exportation d’instantané pour Amazon RDS
<a name="USER_ExportSnapshot.Canceling"></a>

Vous pouvez annuler une tâche d'exportation d'instantané de base de données à l'aide de l'AWS Management Console, de l'AWS CLI ou de l'API RDS.

**Note**  
L'annulation d'une tâche d'exportation d'instantané ne supprime aucune des données exportées vers Amazon S3. Pour plus d’informations sur la suppression des données à l’aide de la console, consultez [Comment supprimer des objets d’un compartiment S3 ?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html). Pour supprimer les données à l’aide de la CLI, utilisez la commande [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Console
<a name="USER_ExportSnapshot.CancelConsole"></a>

**Pour annuler une tâche d'importation d'instantané**

1. Connectez-vous à la AWS Management Console et ouvrez la console Amazon RDS à l’adresse [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Dans le panneau de navigation, choisissez **Snapshots**.

1. Choisissez l'onglet **Exports in Amazon S3 (Exportations dans Amazon S3)** .

1. Choisissez la tâche d'exportation d'instantané que vous souhaitez annuler.

1. Choisissez **Cancel (Annuler)**.

1. Choisissez **Cancel export task (Annuler la tâche d'exportation)** sur la page de confirmation.

 

## AWS CLI
<a name="USER_ExportSnapshot.CancelCLI"></a>

Pour annuler une tâche d'exportation d'instantané à l'aide de l'AWS CLI, utilisez la commande [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html). La commande requiert l'option `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my_export
 2. {
 3.     "Status": "CANCELING", 
 4.     "S3Prefix": "", 
 5.     "ExportTime": "2019-08-12T01:23:53.109Z", 
 6.     "S3Bucket": "amzn-s3-demo-bucket", 
 7.     "PercentProgress": 0, 
 8.     "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY", 
 9.     "ExportTaskIdentifier": "my_export", 
10.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", 
11.     "TotalExtractedDataInGB": 0, 
12.     "TaskStartTime": "2019-11-13T19:46:00.173Z", 
13.     "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:export-example-1"
14. }
```

## API RDS
<a name="USER_ExportSnapshot.CancelAPI"></a>

Pour annuler une tâche d'exportation d'instantané à l'aide de l'API Amazon RDS, utilisez l'opération [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) avec le paramètre `ExportTaskIdentifier`.

# Messages d’échec relatifs aux tâches d’exportation Amazon S3 pour Amazon RDS
<a name="USER_ExportSnapshot.failure-msg"></a>

Le tableau suivant décrit les messages renvoyés en cas d’échec des tâches d’exportation Amazon S3.


| Message d'échec | Description | 
| --- | --- | 
| Une erreur interne inconnue s'est produite. |  La tâche a échoué en raison d'une erreur inconnue, d'une exception ou d'un échec.  | 
| Une erreur interne inconnue s'est produite lors de l'écriture des métadonnées de la tâche d'exportation dans le compartiment S3 [nom du compartiment]. |  La tâche a échoué en raison d'une erreur inconnue, d'une exception ou d'un échec.  | 
| L'exportation RDS n'a pas réussi à écrire les métadonnées de la tâche d'exportation, car elle ne peut pas assumer le rôle IAM [ARN du rôle]. |  La tâche d'exportation assume votre rôle IAM pour vérifier si elle est autorisée à écrire des métadonnées dans votre compartiment S3. Si la tâche ne peut pas assumer votre rôle IAM, elle échoue.  | 
| L'exportation RDS n'a pas réussi à écrire les métadonnées de la tâche d'exportation dans le compartiment S3 [nom du compartiment] à l'aide du rôle IAM [ARN du rôle] avec la clé KMS [ID de la clé]. Code d'erreur : [code d'erreur] |  Une ou plusieurs autorisations sont manquantes et dès lors, la tâche d’exportation ne peut pas accéder au compartiment S3. Ce message d'échec est généré lors de la réception de l'un des codes d'erreur suivants : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.failure-msg.html) Ces codes d'erreur indiquent que les paramètres sont mal configurés pour le rôle IAM, le compartiment S3 ou la clé KMS.  | 
| Le rôle IAM [ARN du rôle] n’est pas autorisé à appeler [action S3] sur le compartiment S3 [nom du compartiment]. Examinez vos autorisations et retentez l'exportation. |  La politique IAM est mal configurée. L'autorisation pour l'action S3 spécifique sur le compartiment S3 est manquante, ce qui entraîne l'échec de la tâche d'exportation.  | 
| La vérification de la clé KMS a échoué. Vérifiez les informations d'identification de votre clé KMS et réessayez. | La vérification des informations d'identification de clé KMS a échoué. | 
| La vérification des informations d'identification S3 a échoué. Vérifiez les autorisations de votre compartiment S3 et de la politique IAM. | La vérification des informations d'identification S3 a échoué. | 
| Le compartiment S3 [nom du compartiment] n'est pas valide. Il n'est peut-être pas situé dans la région AWS actuelle ou il n'existe pas. Vérifiez le nom de votre compartiment S3 et retentez l'exportation. | Le compartiment S3 n'est pas valide. | 
| Le compartiment S3 [nom du compartiment] ne se trouve pas dans la région AWS actuelle. Vérifiez le nom de votre compartiment S3 et retentez l'exportation. | Le compartiment S3 ne se trouve pas dans la bonne région AWS. | 

# Résolution des erreurs d’autorisations RDS pour PostgreSQL
<a name="USER_ExportSnapshot.postgres-permissions"></a>

Lors de l’exportation de bases de données PostgreSQL vers Amazon S3, vous pouvez voir une erreur `PERMISSIONS_DO_NOT_EXIST` indiquant que certaines tables ont été ignorées. Cette erreur se produit généralement lorsque le superutilisateur, que vous avez spécifié lors de la création de la base de données, n’a pas les autorisations nécessaires pour accéder à ces tables.

Pour corriger cette erreur, exécutez la commande suivante :

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Pour plus d’informations sur les privilèges des superutilisateurs, consultez [Privilèges du compte utilisateur principal](UsingWithRDS.MasterAccounts.md).

# Conventions de dénomination des fichiers pour les exportations vers Amazon S3 pour Amazon RDS
<a name="USER_ExportSnapshot.FileNames"></a>

Les données exportées pour des tables spécifiques sont stockées au format `base_prefix/files`, qui utilise le préfixe de base suivant :

```
export_identifier/database_name/schema_name.table_name/
```

Par exemple :

```
export-1234567890123-459/rdststdb/rdststdb.DataInsert_7ADB5D19965123A2/
```

Il existe deux conventions de dénomination des fichiers.
+ Convention actuelle :

  ```
  batch_index/part-partition_index-random_uuid.format-based_extension
  ```

  L’indice de lot est un numéro de séquence qui représente un lot de données lues dans la table. Si votre table ne peut pas être partitionnée en petits segments à exporter en parallèle, il y aura plusieurs indices de lot. Il en va de même si votre table est partitionnée en plusieurs tables. Il y aura plusieurs indices de lot, un pour chacune des partitions effectuées à partir de la table principale.

  Si votre table peut être partitionnée en petits segments à lire en parallèle, il n’y aura que le dossier `1` d’indice de lot.

  Ce dossier inclut un ou plusieurs fichiers Parquet qui contiennent les données de votre table. Le préfixe du nom du fichier Parquet est `part-partition_index`. Si votre table est partitionnée, plusieurs fichiers commencent par l’indice de partition `00000`.

  Il peut y avoir des écarts dans la séquence d’indices de partition. Cela se produit parce que chaque partition est générée à partir d’une requête basée sur une plage de données dans votre table. S’il n’y a pas de données dans la plage de cette partition, le numéro de séquence est ignoré.

  Supposons, par exemple, que la colonne `id` soit la clé primaire de la table et que ses valeurs minimale et maximale soient `100` et `1000`. 9 Lorsque nous essayons d’exporter cette table avec 9 partitions, nous la lisons avec des requêtes parallèles telles que les suivantes :

  ```
  SELECT * FROM table WHERE id <= 100 AND id < 200
  SELECT * FROM table WHERE id <= 200 AND id < 300
  ```

  Cela devrait générer 9 fichiers, allant de `part-00000-random_uuid.gz.parquet` à `part-00008-random_uuid.gz.parquet`. Toutefois, s’il n’existe aucune ligne dont les identifiants sont compris entre `200` et `350`, l’une des partitions terminées est vide. Aucun fichier ne sera donc créé pour elle. Dans l’exemple précédent, `part-00001-random_uuid.gz.parquet` n’est pas créé.
+ Ancienne convention :

  ```
  part-partition_index-random_uuid.format-based_extension
  ```

  Elle est identique à la convention actuelle, mais sans le préfixe `batch_index`, par exemple :

  ```
  part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
  part-00001-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
  part-00002-f5a991ab-59aa-7fa6-3333-d41eccd340a7-c000.gz.parquet
  ```

La convention de dénomination de fichiers est sujette à modification. Par conséquent, lors de la lecture des tables cibles, nous vous conseillons de lire tout ce qui se trouve à l’intérieur du préfixe de base de la table.

# Conversion des données lors de l’exportation vers un compartiment Amazon S3 pour Amazon RDS
<a name="USER_ExportSnapshot.data-types"></a>

Lorsque vous exportez un instantané de base de données vers un compartiment Amazon S3, Amazon RDS convertit les données, les exporte et les stocke au format Parquet. Pour plus d’informations sur Parquet, consultez le site web [Apache Parquet](https://parquet.apache.org/docs/).

Parquet stocke toutes les données sous l’un des types primitifs suivants :
+ BOOLEAN
+ INT32
+ INT64
+ INT96
+ FLOAT
+ DOUBLE
+ BYTE\$1ARRAY : tableau d’octets de longueur variable, également connu sous le nom de binaire
+ FIXED\$1LEN\$1BYTE\$1ARRAY : tableau d’octets de longueur fixe utilisé lorsque les valeurs ont une taille constante

Les types de données Parquet sont peu nombreux afin de la complexité de la lecture et de l’écriture du format. Parquet fournit des types logiques pour étendre les types primitifs. Un *type logique* est implémenté sous forme d’annotation avec les données dans un champ de métadonnées `LogicalType`. L’annotation de type logique explique comment interpréter le type primitif. 

Lorsque le type logique `STRING` annote un type `BYTE_ARRAY`, il indique que le tableau d’octets doit être interprété comme une chaîne de caractères codée en UTF-8. Une fois la tâche d'exportation terminée, Amazon RDS vous avertit si une conversion de chaîne s'est produite. Les données sous-jacentes exportées sont toujours les mêmes que celles de la source. Cependant, en raison de la différence d’encodage en UTF-8, certains caractères peuvent apparaître différents de la source lorsqu’ils sont lus dans des outils tels que Athena.

Pour plus d’informations, consultez [Parquet Logical Type Definitions](https://github.com/apache/parquet-format/blob/master/LogicalTypes.md) dans la documentation Parquet.

**Topics**
+ [Mappage de type de données MySQL et MariaDB vers Parquet](#USER_ExportSnapshot.data-types.MySQL)
+ [Mappage de type de données PostgreSQL vers Parquet](#USER_ExportSnapshot.data-types.PostgreSQL)

## Mappage de type de données MySQL et MariaDB vers Parquet
<a name="USER_ExportSnapshot.data-types.MySQL"></a>

Le tableau suivant montre le mappage des types de données MySQL et MariaDB aux types de données Parquet lorsque les données sont converties et exportées vers Amazon S3.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.data-types.html)

## Mappage de type de données PostgreSQL vers Parquet
<a name="USER_ExportSnapshot.data-types.PostgreSQL"></a>

Le tableau suivant montre le mappage des types de données PostgreSQL aux types de données Parquet lorsque les données sont converties et exportées vers Amazon S3.


| Type de données PostgreSQL | Type primitif du format Parquet | Annotation de type logique | Notes de mappage | 
| --- | --- | --- | --- | 
| Types de données numériques | 
| BIGINT | INT64 |  |   | 
| BIGSERIAL | INT64 |  |   | 
| DECIMAL | BYTE\$1ARRAY | STRING | Un type DECIMAL est converti en chaîne de type BYTE\$1ARRAY et codé sous la forme. UTF8Cette conversion vise à éviter les complications dues à la précision des données et aux valeurs de données qui ne sont pas un nombre (NaN). | 
| DOUBLE PRECISION | DOUBLE |  |   | 
| INTEGER | INT32 |  |   | 
| MONEY | BYTE\$1ARRAY | STRING |   | 
| REAL | FLOAT |  |   | 
| SERIAL | INT32 |  |   | 
| SMALLINT | INT32 | INT(16, true) |   | 
| SMALLSERIAL | INT32 | INT(16, true) |   | 
| Types de chaînes et de données associés | 
| ARRAY | BYTE\$1ARRAY | STRING |  Un tableau est converti en chaîne et codé sous la forme BINARY (UTF8). Cette conversion vise à éviter les complications dues à la précision des données, aux valeurs de données qui ne sont pas un nombre (NaN) et aux valeurs de données horaires.  | 
| BIT | BYTE\$1ARRAY | STRING |   | 
| BIT VARYING | BYTE\$1ARRAY | STRING |   | 
| BYTEA | BINARY |  |   | 
| CHAR | BYTE\$1ARRAY | STRING |   | 
| CHAR(N) | BYTE\$1ARRAY | STRING |   | 
| ENUM | BYTE\$1ARRAY | STRING |   | 
| NAME | BYTE\$1ARRAY | STRING |   | 
| TEXT | BYTE\$1ARRAY | STRING |   | 
| TEXT SEARCH | BYTE\$1ARRAY | STRING |   | 
| VARCHAR(N) | BYTE\$1ARRAY | STRING |   | 
| xml | BYTE\$1ARRAY | STRING |   | 
| Types de données de date et d’heure | 
| DATE | BYTE\$1ARRAY | STRING |   | 
| INTERVAL | BYTE\$1ARRAY | STRING |   | 
| TIME | BYTE\$1ARRAY | STRING |  | 
| TIME WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| Types de données géométriques | 
| BOX | BYTE\$1ARRAY | STRING |   | 
| CIRCLE | BYTE\$1ARRAY | STRING |   | 
| LINE | BYTE\$1ARRAY | STRING |   | 
| LINESEGMENT | BYTE\$1ARRAY | STRING |   | 
| PATH | BYTE\$1ARRAY | STRING |   | 
| POINT | BYTE\$1ARRAY | STRING |   | 
| POLYGON | BYTE\$1ARRAY | STRING |   | 
| Types de données JSON | 
| JSON | BYTE\$1ARRAY | STRING |   | 
| JSONB | BYTE\$1ARRAY | STRING |   | 
| Autres types de données | 
| BOOLEAN | BOOLEAN |  |   | 
| CIDR | BYTE\$1ARRAY | STRING |  Type de données de réseau | 
| COMPOSITE | BYTE\$1ARRAY | STRING |   | 
| DOMAIN | BYTE\$1ARRAY | STRING |   | 
| INET | BYTE\$1ARRAY | STRING |  Type de données de réseau | 
| MACADDR | BYTE\$1ARRAY | STRING |   | 
| OBJECT IDENTIFIER | N/A |  |  | 
| PG\$1LSN | BYTE\$1ARRAY | STRING |   | 
| RANGE | BYTE\$1ARRAY | STRING |   | 
| UUID | BYTE\$1ARRAY | STRING |   | 