

# Exportación de datos de instantáneas de bases de datos a Amazon S3 para Amazon RDS
<a name="USER_ExportSnapshot"></a>

Puede exportar datos de instantáneas de bases de datos a un bucket de Amazon S3. El proceso de exportación se ejecuta en segundo plano y no afecta al rendimiento de la base de datos activa.

Al exportar una instantánea de base de datos, Amazon RDS extrae los datos de la instantánea y los almacena en un bucket de Amazon S3. Los datos se almacenan en formato Apache Parquet comprimido y consistente.

Puede exportar todos los tipos de instantáneas de base de datos, como instantáneas manuales, instantáneas del sistema automatizadas o instantáneas creadas por el servicio de AWS Backup. De forma predeterminada, se exportan todos los datos de la instantánea. Sin embargo, también puede optar por exportar conjuntos específicos de bases de datos, esquemas o tablas.

Después de exportar los datos, puede analizar los datos exportados directamente con herramientas como Amazon Athena o Amazon Redshift Spectrum. Para obtener más información sobre cómo utilizar Athena para leer los datos de [Parquet, consulte Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) en *Guía del usuario de Amazon Athena*. Para obtener más información sobre cómo utilizar Redshift Spectrum para leer datos de Parquet, vea [Uso de COPY con formatos de datos de columnas](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) en la *Guía para desarrolladores de bases de datos Amazon Redshift*.

**aviso**  
No puede restaurar los datos de instantáneas exportados de S3 a una nueva instancia de base de datos ni importar datos de instantáneas de S3 a una instancia de base de datos existente. No obstante, puede procesar los datos mediante Amazon Athena o Redshift Spectrum para el análisis. Además, puede utilizar AWS Glue para transformar los datos y, a continuación, importarlos a Amazon RDS mediante herramientas como AWS DMS o scripts personalizados.

Para obtener más información sobre cómo exportar instantáneas de bases de datos a Amazon S3, consulte los siguientes temas.

**Temas**
+ [Supervisión de las exportaciones de instantáneas para Amazon RDS](USER_ExportSnapshot.Monitoring.md)
+ [Cancelación de una tarea de exportación de instantáneas para Amazon RDS](USER_ExportSnapshot.Canceling.md)
+ [Mensajes de error para tareas de exportación de Amazon S3 para Amazon RDS](USER_ExportSnapshot.failure-msg.md)
+ [Solución de problemas de errores de permisos de RDS para PostgreSQL](USER_ExportSnapshot.postgres-permissions.md)
+ [Convenciones de nomenclatura de archivos para exportaciones a Amazon S3 para Amazon RDS](USER_ExportSnapshot.FileNames.md)
+ [Conversión de datos al exportar a un bucket de Amazon S3 para Amazon RDS](USER_ExportSnapshot.data-types.md)

## Información general acerca de la exportación de datos de instantáneas
<a name="USER_ExportSnapshot.Overview"></a>

Utilice el siguiente proceso para exportar datos de instantáneas de base de datos a un bucket de Amazon S3. Para obtener más detalles, consulte las siguientes secciones.

1. Identifique la instantánea que desee exportar.

   Utilice una instantánea automática o manual ya existente, o bien cree una instantánea manual de una instancia de base de datos o un clúster de base de datos multi-AZ.

1. Configure el acceso al bucket de Amazon S3.

   Un *bucket* es un contenedor de objetos o archivos de Amazon S3. Para proporcionar la información necesario para obtener acceso a un bucket, siga los siguientes pasos:

   1. Identifique el bucket de S3 al que se va a exportar la instantánea. El bucket de S3 debe estar en la misma región de AWS que la instantánea. Para obtener más información, consulte [Identificación del bucket de Amazon S3 para exportación](#USER_ExportSnapshot.SetupBucket).

   1. Cree un rol de AWS Identity and Access Management (IAM) que conceda a la tarea de exportación de instantáneas acceso al bucket de S3. Para obtener más información, consulte [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](#USER_ExportSnapshot.SetupIAMRole). 

1. Cree una AWS KMS key de cifrado simétrica para el cifrado del lado del servidor. La tarea de exportación de instantáneas utiliza la clave de KMS para configurar el cifrado del lado del servidor de AWS KMS al escribir los datos de exportación en S3.

   La política de clave KMS debe incluir los permisos `kms:CreateGrant` y `kms:DescribeKey`. Para obtener más información acerca del uso de claves KMS en Amazon RDS, consulte [AWS KMS keyAdministración de](Overview.Encryption.Keys.md).

   Además, si tiene una instrucción deny en la política de claves KMS, asegúrese de excluir explícitamente la entidad principal del servicio de AWS `export.rds.amazonaws.com`.

   Puede utilizar una clave de KMS en su cuenta de AWS o puede utilizar una clave KMS en diversas cuentas. Para obtener más información, consulte [Uso de una AWS KMS key en diversas cuentas para cifrar las exportaciones de Amazon S3](#USER_ExportSnapshot.CMK).

1. Exporte la instantánea a Amazon S3 mediante la consola o el comando `start-export-task` de la CLI. Para obtener más información, consulte [Exportación de una instantánea de base de datos a un bucket de Amazon S3](#USER_ExportSnapshot.Exporting). 

1. Para obtener acceso a los datos exportados al bucket de Amazon S3, consulte [Carga, descarga y administración de objetos](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) en la *Guía del usuario de Amazon Simple Storage Service*.

## Configuración del acceso a un bucket de Amazon S3
<a name="USER_ExportSnapshot.Setup"></a>

Para exportar los datos de una instantánea de base de datos a un archivo de Amazon S3, primero debe conceder permiso a la instantánea para obtener acceso al bucket de Amazon S3. Luego cree un rol de IAM para permitir que el servicio de Amazon RDS escriba en el bucket de Amazon S3.

**Topics**
+ [Identificación del bucket de Amazon S3 para exportación](#USER_ExportSnapshot.SetupBucket)
+ [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](#USER_ExportSnapshot.SetupIAMRole)
+ [Uso de un bucket de Amazon S3 en diversas cuentas](#USER_ExportSnapshot.Setup.XAcctBucket)
+ [Uso de una AWS KMS key en diversas cuentas para cifrar las exportaciones de Amazon S3](#USER_ExportSnapshot.CMK)

### Identificación del bucket de Amazon S3 para exportación
<a name="USER_ExportSnapshot.SetupBucket"></a>

Identifique el bucket de Amazon S3 al que se exportará la instantánea de base de datos. Utilice un bucket de S3 ya existente, o bien cree un bucket S3 nuevo.

**nota**  
El bucket de S3 al que se realizará la exportación debe estar en la misma región de AWS que la instantánea.

Para obtener más información acerca de cómo trabajar con buckets de Amazon S3, consulte lo siguiente en *Guía del usuario de Amazon Simple Storage Service*:
+ [ Cómo se consultan las propiedades de un bucket de S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [ Cómo puedo habilitar el cifrado predeterminado para un bucket de Amazon S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [ Cómo se puede crear un bucket de S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

### Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM
<a name="USER_ExportSnapshot.SetupIAMRole"></a>

Antes de exportar datos de instantáneas de bases de datos a Amazon S3, conceda a las tareas de exportación de instantáneas permiso de acceso de escritura al bucket de Amazon S3. 

Para conceder este permiso, cree una política de IAM que proporcione acceso al bucket y cree un rol de IAM y adjunte la política al rol. Más adelante, asignará el rol de IAM a la tarea de exportación de instantáneas.

Para obtener más información sobre el uso de IAM con Amazon S3, consulte [Identity and Access Management en Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-management.html) en la *Guía del usuario de Amazon S3*.

**importante**  
Si prevé utilizar la Consola de administración de AWS para exportar la instantánea, puede elegir crear la política de IAM y el rol automáticamente al exportar la instantánea. Para obtener instrucciones, consulte [Exportación de una instantánea de base de datos a un bucket de Amazon S3](#USER_ExportSnapshot.Exporting).

**Para dar a las tareas de instantáneas de base de datos acceso a Amazon S3**

1. Cree una política de IAM. Esta política proporciona los permisos de bucket y objeto que permiten a la tarea de exportación de instantáneas obtener acceso a Amazon S3. 

   En la política, incluya las siguientes acciones obligatorias para permitir transferir archivos desde Amazon RDS a un bucket de S3: 
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   En la política, incluya los siguientes recursos para identificar el bucket de S3 y los objetos incluidos en él. En la siguiente lista de recursos se muestra el formato de nombre de recurso de Amazon (ARN) para obtener acceso a Amazon S3.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Para obtener más información sobre cómo crear una política de IAM para Amazon RDS, consulte [Creación y uso de una política de IAM para el acceso a bases de datos de IAM](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Consulte también el [Tutorial: Crear y asociar su primera política administrada por el cliente](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) en la *Guía del usuario de IAM*.

   El siguiente comando de la AWS CLI crea una política de IAM denominada `ExportPolicy` con estas opciones. Otorga acceso a un bucket denominado *amzn-s3-demo-bucket*. 
**nota**  
Después de crear la política, apunte el ARN de esta. Cuando asocia la política a un rol de IAM, necesita el ARN para realizar un paso posterior. 

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Cree un rol de IAM que Amazon RDS pueda asumir en su nombre para acceder a sus buckets de Amazon S3. Para obtener más información, vea [Crear un rol para delegar permisos a un IAM usuario ](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) en *Guía del usuario de IAM. *

   En el siguiente ejemplo se muestra cómo se usa el comando de la AWS CLI para crear un rol denominado `rds-s3-export-role`.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Asocie la política de IAM que creó al rol de IAM creado.

   El siguiente comando de la AWS CLI asocia la política creada anteriormente al rol denominado `rds-s3-export-role`. Sustituya `your-policy-arn` por el ARN de la política que ha apuntado en el paso anterior. 

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

### Uso de un bucket de Amazon S3 en diversas cuentas
<a name="USER_ExportSnapshot.Setup.XAcctBucket"></a>

Puede utilizar buckets de Amazon S3 en cuentas de AWS. Para utilizar un bucket en diversas cuentas, agregue una política de bucket para permitir el acceso al rol de IAM que está utilizando para las exportaciones de S3. Para obtener más información, consulte el [Ejemplo 2: Propietario del bucket que concede permisos de bucket en diversas cuentas](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-walkthroughs-managing-access-example2.html).

Adjunte una política de bucket a su bucket, como se muestra en el siguiente ejemplo.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::123456789012:role/Admin"
            },
            "Action": [
                "s3:PutObject*",
                "s3:ListBucket",
                "s3:GetObject*",
                "s3:DeleteObject*",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-destination-bucket",
                "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
            ]
        }
    ]
}
```

------

### Uso de una AWS KMS key en diversas cuentas para cifrar las exportaciones de Amazon S3
<a name="USER_ExportSnapshot.CMK"></a>

Puede utilizar una AWS KMS key en diversas cuentas para cifrar las exportaciones de Amazon S3. En primer lugar, agregue una política de claves a la cuenta local y, a continuación, agregue las políticas de IAM en la cuenta externa. Para obtener más información, consulte [Allowing users in other accounts to use a KMS key](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) (Permitir que los usuarios de otras cuentas utilicen una clave KMS).

**Para utilizar una clave KMS en diversas cuentas**

1. Agregue una política de claves a la cuenta local.

   El siguiente ejemplo proporciona `ExampleRole` y `ExampleUser` en la cuenta externa 444455556666 permisos en la cuenta local 123456789012.

   ```
   {
       "Sid": "Allow an external account to use this KMS key",
       "Effect": "Allow",
       "Principal": {
           "AWS": [
               "arn:aws:iam::444455556666:role/ExampleRole",
               "arn:aws:iam::444455556666:user/ExampleUser"
           ]
       },
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "*"
   }
   ```

1. Agregar políticas de IAM a la cuenta externa.

   La siguiente política de IAM de ejemplo permite a la entidad principal utilizar la clave KMS en la cuenta 123456789012 para operaciones criptográficas. Para conceder este permiso a `ExampleRole` y `ExampleUser` de la cuenta 444455556666, [adjunte la política](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-using.html#attach-managed-policy-console) en esa cuenta.

   ```
   {
       "Sid": "Allow use of KMS key in account 123456789012",
       "Effect": "Allow",
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:CreateGrant",
           "kms:DescribeKey",
           "kms:RetireGrant"
       ],
       "Resource": "arn:aws:kms:us-west-2:123456789012:key/1234abcd-12ab-34cd-56ef-1234567890ab"
   }
   ```

## Exportación de una instantánea de base de datos a un bucket de Amazon S3
<a name="USER_ExportSnapshot.Exporting"></a>

Puede tener hasta cinco tareas de exportación de instantáneas de base de datos en curso por Cuenta de AWS.

**nota**  
La exportación de instantáneas de RDS puede tardar un tiempo en función del tipo y tamaño de la base de datos. La tarea de exportación primero restaura y escala toda la base de datos antes de extraer los datos a Amazon S3. El progreso de la tarea durante esta fase se muestra como **Starting (Iniciándose)**. Cuando la tarea cambia a exportar datos a S3, el progreso se muestra como **In progress (En curso)**.  
El tiempo que tarda la exportación en completarse depende de los datos almacenados en la base de datos. Por ejemplo, las tablas con columnas de índice o claves primarias numéricas bien distribuidas se exportarán más rápido. Las tablas que no contienen una columna adecuada para la partición y las tablas con un solo índice en una columna basada en cadenas tardarán más tiempo. Este tiempo de exportación más prolongado se produce porque la exportación utiliza un proceso de subproceso único más lento. 

Puede exportar una instantánea de base de datos a Amazon S3 mediante la Consola de administración de AWS, la AWS CLI o la API de RDS. Para exportar una instantánea de base de datos a un bucket de Amazon S3 en diversas cuentas, utilice la AWS CLI o la API de RDS.

Si utiliza una función Lambda para exportar una instantánea, agregue la acción `kms:DescribeKey` a la política de la función Lambda. Para obtener más información, consulte [Permisos de AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

### Consola
<a name="USER_ExportSnapshot.ExportConsole"></a>

La opción de la consola **Export to Amazon S3 (Exportar a Amazon S3)** solo aparece para las instantáneas que se pueden exportar a Amazon S3. Es posible que una instantánea no esté disponible para la exportación debido a las siguientes razones:
+ El motor de base de datos no es compatible con la exportación de S3.
+ La versión del motor de base de datos no es compatible con la exportación de S3.
+ La exportación de S3 no se admite en la región de AWS donde se creó la instantánea.

**Para exportar una instantánea de base de datos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, elija **Snapshots (Instantáneas)**.

1. En las pestañas, elija el tipo de instantánea que desee exportar.

1. En la lista de instantáneas, elija la instantánea que desee exportar.

1. En **Actions (Acciones)**, seleccione **Export to Amazon S3 (Exportar a Amazon S3)**.

   Se visualizará la ventana **Export to Amazon S3 (Exportar a Amazon S3)**.

1. En **Export Identifier (Identificador de exportación)**, escriba un nombre para identificar la tarea de exportación. Este valor también se utiliza para el nombre del archivo creado en el bucket de S3.

1. Elija los datos que desea exportar:
   + Seleccione **All (Todo)** para exportar todos los datos de la instantánea.
   + Seleccione **Partial (Parcial)** para exportar partes específicas de la instantánea. Para identificar qué partes de la instantánea exportar, introduzca una o más bases de datos, esquemas o tablas para **Identifiers (Identificadores)**, separadas por espacios.

     Use el siguiente formato:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Por ejemplo:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Para el **S3 bucket (Bucket de S3)**, elija el bucket al que desee realizar la exportación.

   Para asignar los datos exportados a la ruta de una carpeta en el bucket de S3, escriba la ruta opcional para el **S3 prefix (Prefijo de S3)**.

1. Para el **rol de IAM**, elija un rol que le conceda acceso de escritura al bucket de S3 elegido o cree un nuevo rol. 
   + Si ha creado un rol siguiendo los pasos indicados en [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](#USER_ExportSnapshot.SetupIAMRole), elija dicho rol.
   + Si no ha creado un rol que le conceda acceso de escritura al bucket de S3 elegido, elija **Create a new role** (Crear un nuevo rol) para crear el rol automáticamente. A continuación, escriba un nombre para el rol en el **IAM role name (Nombre del rol de IAM)**.

1. En **AWS KMS key**, ingrese el ARN de la clave que debe utilizarse para cifrar los datos exportados.

1. Elija **Export to Amazon S3 (Exportar a Amazon S3)**.

### AWS CLI
<a name="USER_ExportSnapshot.ExportCLI"></a>

Para exportar una instantánea de base de datos a Amazon S3 mediante la AWS CLI, ejecute el comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html) con las siguientes opciones obligatorias:
+ `--export-task-identifier` 
+ `--source-arn` 
+ `--s3-bucket-name` 
+ `--iam-role-arn` 
+ `--kms-key-id` 

En los siguientes ejemplos, la tarea de exportación de instantáneas se denomina *my-snapshot-export*, y exporta una instantánea a un bucket de S3 denominado *amzn-s3-demo-bucket*.

**Example**  
Para Linux, macOS o Unix:  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-snapshot-export \
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name \
4.     --s3-bucket-name amzn-s3-demo-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Para Windows:  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-snapshot-export ^
3.     --source-arn arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name ^
4.     --s3-bucket-name amzn-s3-demo-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
A continuación, se muestra un resultado de ejemplo.  

```
{
    "Status": "STARTING", 
    "IamRoleArn": "iam-role", 
    "ExportTime": "2019-08-12T01:23:53.109Z", 
    "S3Bucket": "my-export-bucket", 
    "PercentProgress": 0, 
    "KmsKeyId": "my-key", 
    "ExportTaskIdentifier": "my-snapshot-export", 
    "TotalExtractedDataInGB": 0, 
    "TaskStartTime": "2019-11-13T19:46:00.173Z", 
    "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:snapshot-name"
}
```
Para proporcionar la ruta de una carpeta del bucket S3 para la exportación de instantáneas, incluya la opción `--s3-prefix` en el comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html).

### API de RDS
<a name="USER_ExportSnapshot.ExportAPI"></a>

Para exportar una instantánea de base de datos a Amazon S3 con la API de Amazon RDS, ejecute la operación [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html) con los siguientes parámetros obligatorios:
+ `ExportTaskIdentifier`
+ `SourceArn`
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

## Disponibilidad en regiones y versiones
<a name="USER_ExportSnapshot.RegionVersionAvailability"></a>

La disponibilidad y compatibilidad de las características varía según las versiones específicas de cada motor de base de datos y entre Regiones de AWS. Para obtener más información sobre la disponibilidad en versiones y regiones de la exportación de instantáneas a S3, consulte [Regiones y motores de base de datos admitidos para exportar instantáneas a S3 en Amazon RDS](Concepts.RDS_Fea_Regions_DB-eng.Feature.ExportSnapshotToS3.md).

## Limitaciones
<a name="USER_ExportSnapshot.Limits"></a>

Exportar datos de instantáneas de base de datos a Amazon S3 tiene las siguientes limitaciones:
+ No puede ejecutar varias tareas de exportación para la misma instantánea de base de datos simultáneamente. Esto es cierto para las exportaciones completas y parciales.
+ No se admite la exportación de instantáneas de base de datos que utilizan almacenamiento magnético.
+ Las exportaciones a S3 no admiten prefijos S3 que contengan dos puntos (:).
+ Los siguientes caracteres en la ruta del archivo S3 se convierten en guiones bajos (\$1) durante la exportación:

  ```
  \ ` " (space)
  ```
+ Si una base de datos, esquema o tabla tiene caracteres en su nombre distintos del siguiente, no se admite la exportación parcial. Sin embargo, puede exportar toda la instantánea de base de datos.
  + Letras latinas (A–Z)
  + Dígitos (0–9)
  + Símbolo de dólar (\$1)
  + Guion bajo (\$1)
+ No se admiten espacios ( ) ni determinados caracteres en los nombres de columna de las tablas de bases de datos. Las tablas con los siguientes caracteres en los nombres de columna se omiten durante la exportación:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Las tablas con barras diagonales (/) en el nombre se omiten durante la exportación.
+ Las tablas temporales y no registradas de RDS para PostgreSQL se omiten durante la exportación.
+ Si los datos contienen un objeto grande, como un BLOB o CLOB, cercano o superior a 500 MB, se producirá un error en la exportación.
+ Si una tabla contiene una fila grande cercana o superior a 2 GB, la tabla se omite durante la exportación.
+ Para exportaciones parciales, la lista `ExportOnly` tiene un tamaño máximo de 200 KB.
+ Es muy recomendable que utilice un nombre exclusivo para cada tarea de exportación. Si no utiliza un nombre de tarea exclusivo, es posible que aparezca el siguiente mensaje de error como el que sigue:

  exportTaskAlreadyExistsFault: Se ha producido un error (exportTaskAlReadyExists) al llamar a la operación StartExportTask: la tarea de exportación con ID *xxxxx* ya existe.
+ Puede eliminar una instantánea mientras exporta los datos a S3, pero se le seguirán cobrando los costos de almacenamiento de esa instantánea hasta que se complete la tarea de exportación.
+ No puede restaurar los datos de instantáneas exportados de S3 a una nueva instancia de base de datos ni importar datos de instantáneas de S3 a una instancia de base de datos existente.
+ Puede tener hasta cinco tareas de exportación de instantáneas de base de datos en curso por Cuenta de AWS.
+ Para exportar una instantánea de base de datos a un bucket de Amazon S3 en diversas cuentas, debe usar la AWS CLI o la API de RDS.
+ Una vez que Amazon RDS complete una tarea de exportación, es posible que tenga que esperar un poco para iniciar otra tarea de exportación desde la misma instantánea de base de datos.
+ No se pueden exportar vistas ni vistas materializadas.
+ La exportación de RDS a S3 no admite el control de acceso basado en etiquetas para Malware Protection for S3 de GuardDuty.

# Supervisión de las exportaciones de instantáneas para Amazon RDS
<a name="USER_ExportSnapshot.Monitoring"></a>

Puede monitorear las exportaciones de instantáneas de bases de datos mediante Consola de administración de AWS, la AWS CLI o la API de RDS.

## Consola
<a name="USER_ExportSnapshot.MonitorConsole"></a>

**Para monitorear las exportaciones de instantáneas de bases de datos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, elija **Snapshots (Instantáneas)**.

1. Para ver la lista de exportaciones de instantáneas, seleccione la pestaña **Exports in Amazon S3 (Exportaciones en Amazon S3)**.

1. Para ver información acerca de la exportación de una instantánea específica, elija la tarea de exportación.

## AWS CLI
<a name="USER_ExportSnapshot.MonitorCLI"></a>

Para monitorear exportaciones de instantáneas de bases de datos mediante la AWS CLI, ejecute el comando [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html) .

En el ejemplo siguiente se muestra cómo mostrar la información actual acerca de todas las exportaciones de instantáneas.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2019-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "ExportTime": "2019-10-24T20:23:48.364Z",
10.             "S3Bucket": "amzn-s3-demo-bucket",
11.             "PercentProgress": 0,
12.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
13.             "ExportTaskIdentifier": "anewtest",
14.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
15.             "TotalExtractedDataInGB": 0,
16.             "TaskStartTime": "2019-10-25T19:10:58.885Z",
17.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:parameter-groups-test"
18.         },
19. {
20.             "Status": "COMPLETE",
21.             "TaskEndTime": "2019-10-31T21:37:28.312Z",
22.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
23.             "S3Prefix": "",
24.             "ExportTime": "2019-10-31T06:44:53.452Z",
25.             "S3Bucket": "amzn-s3-demo-bucket1",
26.             "PercentProgress": 100,
27.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
28.             "ExportTaskIdentifier": "thursday-events-test", 
29.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
30.             "TotalExtractedDataInGB": 263,
31.             "TaskStartTime": "2019-10-31T20:58:06.998Z",
32.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-31-06-44"
33.         },
34.         {
35.             "Status": "FAILED",
36.             "TaskEndTime": "2019-10-31T02:12:36.409Z",
37.             "FailureCause": "The S3 bucket edgcuc-export isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
38.             "S3Prefix": "",
39.             "ExportTime": "2019-10-30T06:45:04.526Z",
40.             "S3Bucket": "amzn-s3-demo-bucket2",
41.             "PercentProgress": 0,
42.             "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
43.             "ExportTaskIdentifier": "wednesday-afternoon-test",
44.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
45.             "TotalExtractedDataInGB": 0,
46.             "TaskStartTime": "2019-10-30T22:43:40.034Z",
47.             "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:rds:example-1-2019-10-30-06-45"
48.         }
49.     ]
50. }
```
Para mostrar información sobre una exportación de instantáneas específica, incluya la opción `--export-task-identifier` con el comando `describe-export-tasks`. Para filtrar la salida, incluya la opción `--Filters`. Para obtener más opciones, consulte el comando [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

## API de RDS
<a name="USER_ExportSnapshot.MonitorAPI"></a>

Para mostrar información sobre las exportaciones de instantáneas de bases de datos mediante la API de Amazon RDS, ejecute la operación [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html).

Para realizar un seguimiento del flujo de trabajo de exportación o para iniciar otro flujo de trabajo, puede suscribirse a temas de Amazon Simple Notification Service. Para obtener más información sobre Amazon SNS, consulte [Uso de notificaciones de eventos de Amazon RDS](USER_Events.md).

# Cancelación de una tarea de exportación de instantáneas para Amazon RDS
<a name="USER_ExportSnapshot.Canceling"></a>

Puede cancelar una tarea de exportación de instantáneas de bases de datos mediante Consola de administración de AWS, la AWS CLI o la API de RDS.

**nota**  
La cancelación de una tarea de exportación de instantáneas no elimina los datos exportados a Amazon S3. Para obtener información acerca de cómo eliminar los datos mediante la consola, consulte [¿Cómo se eliminan objetos de un bucket de S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html) Para eliminar los datos mediante la CLI, ejecute el comando [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Consola
<a name="USER_ExportSnapshot.CancelConsole"></a>

**Para cancelar una tarea de exportación de una instantánea**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, elija **Snapshots (Instantáneas)**.

1. Seleccione la pestaña **Exports in Amazon S3 (Exportaciones en Amazon S3)**.

1. Elija la tarea de exportación de instantáneas que desee cancelar.

1. Elija **Cancel**.

1. Seleccione **Cancel export task (Cancelar tarea de exportación)** en la página de confirmación.

 

## AWS CLI
<a name="USER_ExportSnapshot.CancelCLI"></a>

Para cancelar una tarea de exportación de instantáneas mediante la AWS CLI, ejecute el comando [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html) . El comando requiere la opción `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my_export
 2. {
 3.     "Status": "CANCELING", 
 4.     "S3Prefix": "", 
 5.     "ExportTime": "2019-08-12T01:23:53.109Z", 
 6.     "S3Bucket": "amzn-s3-demo-bucket", 
 7.     "PercentProgress": 0, 
 8.     "KmsKeyId": "arn:aws:kms:AWS_Region:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY", 
 9.     "ExportTaskIdentifier": "my_export", 
10.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3", 
11.     "TotalExtractedDataInGB": 0, 
12.     "TaskStartTime": "2019-11-13T19:46:00.173Z", 
13.     "SourceArn": "arn:aws:rds:AWS_Region:123456789012:snapshot:export-example-1"
14. }
```

## API de RDS
<a name="USER_ExportSnapshot.CancelAPI"></a>

Para cancelar una tarea de exportación de instantáneas mediante la API de Amazon RDS, ejecute la operación [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) con el parámetro `ExportTaskIdentifier`.

# Mensajes de error para tareas de exportación de Amazon S3 para Amazon RDS
<a name="USER_ExportSnapshot.failure-msg"></a>

En la tabla siguiente se describen los mensajes que se devuelven cuando se producen errores en las tareas de exportación de Amazon S3.


| Mensaje de error | Descripción | 
| --- | --- | 
| Se ha producido un error interno desconocido. |  La tarea no se pudo completar debido a un error, excepción o falla desconocidos.  | 
| Ocurrió un error interno desconocido al escribir los metadatos de la tarea de exportación en el bucket de S3 [nombre del bucket]. |  La tarea no se pudo completar debido a un error, excepción o falla desconocidos.  | 
| La exportación de RDS no pudo escribir los metadatos de la tarea de exportación porque no puede asumir el rol de IAM [ARN de rol]. |  La tarea de exportación asume el rol de IAM para validar si está permitido escribir metadatos en el bucket de S3. Si la tarea no puede asumir su rol de IAM, muestra un error.  | 
| La exportación de RDS no pudo escribir los metadatos de la tarea de exportación en el bucket de S3 [nombre del bucket] que utiliza el rol de IAM [ARN de rol] con la clave KMS [ID de clave]. Código de error: [código de error] |  Faltan uno o más permisos, por lo que la tarea de exportación no puede acceder al bucket de S3. Este mensaje de error aparece cuando se recibe uno de los siguientes códigos de error: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.failure-msg.html) Estos códigos de error indican que la configuración del rol de IAM, el bucket de S3 o la clave KMS es incorrecta.  | 
| El rol de IAM [ARN de rol] no está autorizado para llamar a [acción de S3] en el bucket de S3 [nombre del bucket]. Revise sus permisos y vuelva a intentar la exportación. |  La política de IAM está mal configurada. Falta el permiso para la acción específica de S3 en el bucket de S3, que provoca que falle la tarea de exportación.  | 
| Error en la verificación de claves KMS Verifique las credenciales de la clave KMS e inténtelo de nuevo. | Error en la verificación de credenciales de la clave KMS. | 
| Error en la verificación de credenciales de S3. Verifique los permisos de su bucket de S3 y de la política de IAM. | Error en la verificación de credenciales de S3. | 
| El bucket de S3 [nombre del bucket] no es válido. O no se encuentra en la Región de AWS actual o no existe. Revise el nombre del bucket de S3 e intente hacer la exportación de nuevo. | El bucket de S3 no es válido. | 
| El bucket de S3 [nombre del bucket] no se encuentra en la Región de AWS actual. Revise el nombre del bucket de S3 e intente hacer la exportación de nuevo. | El bucket de S3 está en la Región de AWS equivocada. | 

# Solución de problemas de errores de permisos de RDS para PostgreSQL
<a name="USER_ExportSnapshot.postgres-permissions"></a>

Al exportar bases de datos PostgreSQL a Amazon S3, es posible que vea un error `PERMISSIONS_DO_NOT_EXIST` que indica que se omitieron ciertas tablas. Esto suele deberse a que el superusuario, que se especifica al crear la base de datos, no tiene permisos para acceder a dichas tablas.

Para corregir este error, ejecute el siguiente comando:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Para obtener más información sobre los privilegios de superusuario, consulte [Privilegios de la cuenta de usuario maestro](UsingWithRDS.MasterAccounts.md).

# Convenciones de nomenclatura de archivos para exportaciones a Amazon S3 para Amazon RDS
<a name="USER_ExportSnapshot.FileNames"></a>

Los datos exportados para tablas específicas se almacenan en el formato `base_prefix/files`, donde el prefijo base es el siguiente:

```
export_identifier/database_name/schema_name.table_name/
```

Por ejemplo:

```
export-1234567890123-459/rdststdb/rdststdb.DataInsert_7ADB5D19965123A2/
```

Hay dos convenciones para la forma en que se denominan los archivos.
+ Convención actual:

  ```
  batch_index/part-partition_index-random_uuid.format-based_extension
  ```

  El índice de lote es un número secuencial que representa un lote de datos leídos desde la tabla. Si no podemos dividir su tabla en pequeños fragmentos para exportarlos en paralelo, habrá varios índices de lote. Lo mismo ocurre si la tabla está dividida en varias tablas. Habrá varios índices de lote, uno para cada una de las particiones de la tabla principal.

  Si podemos dividir su tabla en pequeños fragmentos para que se lean en paralelo, solo estará la carpeta de índices de lote `1`.

  Dentro de la carpeta de índices de lote, habrá uno o varios archivos Parquet que contienen los datos de la tabla. El prefijo del nombre de archivo Parquet es `part-partition_index`. Si la tabla está particionada, habrá varios archivos que comiencen por el índice de partición `00000`.

  Puede haber huecos en la secuencia del índice de partición. Esto sucede porque cada partición se obtiene de una consulta por rangos de la tabla. Si no hay datos en el rango de esa partición, se omite ese número secuencial.

  Por ejemplo, supongamos que la columna `id` es la clave principal de la tabla y que sus valores mínimo y máximo son `100` y `1000`. Al intentar exportar esta tabla con nueve particiones, la leemos con consultas paralelas como las siguientes:

  ```
  SELECT * FROM table WHERE id <= 100 AND id < 200
  SELECT * FROM table WHERE id <= 200 AND id < 300
  ```

  Esto debería generar nueve archivos, del `part-00000-random_uuid.gz.parquet` al `part-00008-random_uuid.gz.parquet`. Sin embargo, si no hay filas con ID entre `200` y `350`, una de las particiones completadas estará vacía y no se creará ningún archivo para ella. En el ejemplo anterior, no se crea `part-00001-random_uuid.gz.parquet`.
+ Convención anterior:

  ```
  part-partition_index-random_uuid.format-based_extension
  ```

  Es igual a la convención actual, pero sin el prefijo `batch_index`, por ejemplo:

  ```
  part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
  part-00001-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
  part-00002-f5a991ab-59aa-7fa6-3333-d41eccd340a7-c000.gz.parquet
  ```

La convención de nomenclatura de archivos está sujeta a cambios. Por lo tanto, cuando lea tablas de destino, recomendamos que lea todo lo que hay dentro del prefijo base de la tabla.

# Conversión de datos al exportar a un bucket de Amazon S3 para Amazon RDS
<a name="USER_ExportSnapshot.data-types"></a>

Cuando exporta una instantánea de base de datos a un bucket de Amazon S3, Amazon RDS convierte los datos al formato Parquet, y exporta y almacena los datos en dicho formato. Para obtener más información sobre Parquet, consulte el sitio web de [Apache Parquet](https://parquet.apache.org/docs/).

Parquet almacena todos los datos como uno de los siguientes tipos primitivos:
+ BOOLEANO
+ INT32
+ INT64
+ INT96
+ FLOAT
+ DOUBLE
+ BYTE\$1ARRAY: matriz de bytes de longitud variable, también conocida como binario.
+ FIXED\$1LEN\$1BYTE\$1ARRAY. matriz de bytes de longitud fija utilizada cuando los valores tienen un tamaño constante.

Los tipos de datos Parquet son pocos para reducir la complejidad de leer y escribir el formato. Parquet proporciona tipos lógicos para ampliar los tipos primitivos. Un *tipo lógico* se implementa como una anotación con los datos en un campo de metadatos `LogicalType`. La anotación de tipo lógico explica cómo interpretar el tipo primitivo. 

Cuando el tipo lógico `STRING` anota un tipo `BYTE_ARRAY`, indica que la matriz de bytes debe interpretarse como una cadena de caracteres codificada UTF-8. Cuando se complete la tarea de exportación, Amazon RDS le notificará si se ha producido alguna conversión de cadena. Los datos subyacentes exportados siempre son los mismos que los datos del origen. Sin embargo, debido a la diferencia de codificación en UTF-8, algunos caracteres pueden parecer diferentes a los del origen cuando se leen en herramientas como Athena.

Para obtener más información, consulte [Definiciones de tipos lógicos de Parquet](https://github.com/apache/parquet-format/blob/master/LogicalTypes.md) en la documentación de Parquet.

**Topics**
+ [Mapeo del tipo de datos MySQL y MariaDB con Parquet](#USER_ExportSnapshot.data-types.MySQL)
+ [Mapeo de tipos de datos PostgreSQL con Parquet](#USER_ExportSnapshot.data-types.PostgreSQL)

## Mapeo del tipo de datos MySQL y MariaDB con Parquet
<a name="USER_ExportSnapshot.data-types.MySQL"></a>

En la siguiente tabla se muestra el mapeo de los tipos de datos MySQL y MariaDB con los tipos de datos Parquet cuando los datos se convierten y se exportan a Amazon S3.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/AmazonRDS/latest/UserGuide/USER_ExportSnapshot.data-types.html)

## Mapeo de tipos de datos PostgreSQL con Parquet
<a name="USER_ExportSnapshot.data-types.PostgreSQL"></a>

En la tabla siguiente se muestra el mapeo de los tipos de datos PostgreSQL con los tipos de datos Parquet cuando los datos se convierten y se exportan a Amazon S3.


| Tipos de datos de PostgreSQL | Tipo primitivo de Parquet | Anotación de tipo lógico | Notas de mapeo | 
| --- | --- | --- | --- | 
| Tipos de datos numéricos | 
| BIGINT | INT64 |  |   | 
| BIGSERIAL | INT64 |  |   | 
| DECIMAL | BYTE\$1ARRAY | STRING | Un tipo DECIMAL se convierte en una cadena en un tipo BYTE\$1ARRAY y se codifica como UTF8.Esta conversión se realiza para evitar complicaciones debidas a la precisión de los datos y los valores de datos que no son un número (NaN). | 
| DOUBLE PRECISION | DOUBLE |  |   | 
| INTEGER | INT32 |  |   | 
| MONEY | BYTE\$1ARRAY | STRING |   | 
| REAL | FLOAT |  |   | 
| SERIAL | INT32 |  |   | 
| SMALLINT | INT32 | INT(16, true) |   | 
| SMALLSERIAL | INT32 | INT(16, true) |   | 
| Tipos de datos de cadena y relacionados | 
| ARRAY | BYTE\$1ARRAY | STRING |  Una matriz se convierte en una cadena y se codifica como BINARY (UTF8). Esta conversión se realiza para evitar complicaciones debido a la precisión de los datos, valores de datos que no son un número (NaN) y valores de datos de tiempo.  | 
| BIT | BYTE\$1ARRAY | STRING |   | 
| BIT VARYING | BYTE\$1ARRAY | STRING |   | 
| BYTEA | BINARY |  |   | 
| CHAR | BYTE\$1ARRAY | STRING |   | 
| CHAR(N) | BYTE\$1ARRAY | STRING |   | 
| ENUM | BYTE\$1ARRAY | STRING |   | 
| NAME | BYTE\$1ARRAY | STRING |   | 
| TEXT | BYTE\$1ARRAY | STRING |   | 
| TEXT SEARCH | BYTE\$1ARRAY | STRING |   | 
| VARCHAR(N) | BYTE\$1ARRAY | STRING |   | 
| XML | BYTE\$1ARRAY | STRING |   | 
| Tipos de datos de fecha y hora | 
| FECHA | BYTE\$1ARRAY | STRING |   | 
| INTERVAL | BYTE\$1ARRAY | STRING |   | 
| TIME | BYTE\$1ARRAY | STRING |  | 
| TIME WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP | BYTE\$1ARRAY | STRING |  | 
| TIMESTAMP WITH TIME ZONE | BYTE\$1ARRAY | STRING |  | 
| Tipos de datos geométricos | 
| BOX | BYTE\$1ARRAY | STRING |   | 
| CIRCLE | BYTE\$1ARRAY | STRING |   | 
| LINE | BYTE\$1ARRAY | STRING |   | 
| LINESEGMENT | BYTE\$1ARRAY | STRING |   | 
| PATH | BYTE\$1ARRAY | STRING |   | 
| POINT | BYTE\$1ARRAY | STRING |   | 
| POLYGON | BYTE\$1ARRAY | STRING |   | 
| Tipos de datos JSON | 
| JSON | BYTE\$1ARRAY | STRING |   | 
| JSONB | BYTE\$1ARRAY | STRING |   | 
| Otros tipos de datos | 
| BOOLEANO | BOOLEANO |  |   | 
| CIDR | BYTE\$1ARRAY | STRING |  Tipo de datos de red | 
| COMPOSITE | BYTE\$1ARRAY | STRING |   | 
| DOMAIN | BYTE\$1ARRAY | STRING |   | 
| INET | BYTE\$1ARRAY | STRING |  Tipo de datos de red | 
| MACADDR | BYTE\$1ARRAY | STRING |   | 
| OBJECT IDENTIFIER | N/A |  |  | 
| PG\$1LSN | BYTE\$1ARRAY | STRING |   | 
| RANGE | BYTE\$1ARRAY | STRING |   | 
| UUID | BYTE\$1ARRAY | STRING |   | 