

# Exportación de datos del clúster de base de datos a Amazon S3
<a name="export-cluster-data"></a>

Puede exportar datos desde un clúster de base de datos de Amazon Aurora activo a un bucket de Amazon S3. El proceso de exportación se ejecuta en segundo plano y no afecta al rendimiento del clúster de la base de datos activa.

De forma predeterminada, se exportan todos los datos del clúster de base de datos. Sin embargo, también puede optar por exportar conjuntos específicos de bases de datos, esquemas o tablas.

Amazon Aurora clona el clúster de base de datos, extrae los datos del clon y los almacena en un bucket de Amazon S3. Los datos se almacenan en formato Apache Parquet comprimido y consistente. Los archivos individuales de Parquet suelen tener un tamaño de entre 1 y 10 MB.

El rendimiento más rápido que se puede obtener al exportar datos de instantáneas para las versiones 2 y 3 de Aurora MySQL no se aplica a la exportación de datos de clústeres de bases de datos. Para obtener más información, consulte [Exportación de datos de instantánea del clúster de bases de datos a Amazon S3](aurora-export-snapshot.md).

Se le cobrará por exportar todo el clúster de base de datos, ya exporte todos los datos o parte de ellos. Para obtener más información, consulte la [Página de precios de Amazon Aurora](https://aws.amazon.com/rds/aurora/pricing/).

Después de exportar los datos, puede analizar los datos exportados directamente con herramientas como Amazon Athena o Amazon Redshift Spectrum. Para obtener más información sobre cómo utilizar Athena para leer los datos de [Parquet, consulte Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) en *Guía del usuario de Amazon Athena*. Para obtener más información sobre cómo utilizar Redshift Spectrum para leer datos de Parquet, vea [Uso de COPY con formatos de datos de columnas](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) en la *Guía para desarrolladores de bases de datos Amazon Redshift*.

La disponibilidad de las características varía según las versiones específicas de cada motor de base de datos y entre Regiones de AWS. Para obtener más información sobre la disponibilidad en versiones y regiones de la exportación de datos de clústeres de base de datos a S3, consulte [Regiones y motores de base de datos Aurora admitidos para exportar datos del clúster a Amazon S3](Concepts.Aurora_Fea_Regions_DB-eng.Feature.ExportClusterToS3.md).

Utilice el siguiente proceso para exportar datos de clústeres de base de datos a un bucket de Amazon S3. Para obtener más detalles, consulte las siguientes secciones.

**Información general de la exportación de datos de un clúster de base de datos**

1. Identifique el clúster de base de datos cuyos datos desea exportar.

1. Configure el acceso al bucket de Amazon S3.

   Un *bucket* es un contenedor de objetos o archivos de Amazon S3. Para proporcionar la información necesario para obtener acceso a un bucket, siga los siguientes pasos:

   1. Identifique el bucket de S3 al que se van a exportar los datos del clúster de base de datos. El bucket de S3; debe estar en la misma región de AWS que el clúster de base de datos. Para obtener más información, consulte [Identificación del bucket de Amazon S3 para exportación](export-cluster-data.Setup.md#export-cluster-data.SetupBucket).

   1. Cree un rol de AWS Identity and Access Management (IAM) que conceda a la tarea de exportación del clúster de base de datos acceso al bucket de S3. Para obtener más información, consulte [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole).

1. Cree una AWS KMS key de cifrado simétrica para el cifrado del lado del servidor. La tarea de exportación del clúster utiliza la clave KMS para configurar el cifrado del lado del servidor de AWS KMS al escribir los datos de exportación en S3.

   La política de clave KMS debe incluir los permisos `kms:CreateGrant` y `kms:DescribeKey`. Para obtener más información acerca del uso de claves KMS en Amazon Aurora, consulte [AWS KMS keyAdministración de](Overview.Encryption.Keys.md).

   Además, si tiene una instrucción deny en la política de claves KMS, asegúrese de excluir explícitamente la entidad principal del servicio de AWS `export.rds.amazonaws.com`.

   Puede utilizar una clave de KMS en su cuenta de AWS o puede utilizar una clave KMS en diversas cuentas. Para obtener más información, consulte [Uso de un AWS KMS key en diversas cuentas](aurora-export-snapshot.Setup.md#aurora-export-snapshot.CMK).

1. Exporte el clúster de base de datos a Amazon S3 mediante la consola o el comando `start-export-task` de la CLI. Para obtener más información, consulte [Creación de tareas de exportación del clúster de base de datos](export-cluster-data.Exporting.md). 

1. Para obtener acceso a los datos exportados al bucket de Amazon S3, consulte [Carga, descarga y administración de objetos](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) en la *Guía del usuario de Amazon Simple Storage Service*.

En las siguientes secciones, descubrirá el proceso de configuración, exportación, monitorización, cancelación y resolución de problemas para tareas de exportación de clústeres de base de datos.

**Topics**
+ [Observaciones sobre la exportación de un clúster de base de datos](export-cluster-data.Considerations.md)
+ [Configuración del acceso a un bucket de Amazon S3](export-cluster-data.Setup.md)
+ [Creación de tareas de exportación del clúster de base de datos](export-cluster-data.Exporting.md)
+ [Supervisión de tareas de exportación del clúster de base de datos](export-cluster-data.Monitoring.md)
+ [Cancelación de una tarea de exportación de un clúster de base de datos](export-cluster-data.Canceling.md)
+ [Resolución de problemas en las exportaciones de clústeres de base de datos](export-cluster-data.Troubleshooting.md)

# Observaciones sobre la exportación de un clúster de base de datos
<a name="export-cluster-data.Considerations"></a>

Utilice las siguientes secciones para obtener información sobre las limitaciones, las convenciones de nomenclatura de archivos y la conversión y el almacenamiento de datos al exportar datos de clústeres de bases de datos a Amazon S3.

**Topics**
+ [Limitaciones](#export-cluster-data.Limits)
+ [Convención de nomenclatura de archivos](#export-cluster-data.FileNames)
+ [Formato de almacenamiento y conversión de datos](#export-cluster-data.data-types)

## Limitaciones
<a name="export-cluster-data.Limits"></a>

La exportación de datos de clústeres de base de datos a Amazon S3 tiene las siguientes limitaciones:
+ No puede ejecutar varias tareas de exportación para el mismo clúster de base de datos simultáneamente. Esto es cierto para las exportaciones completas y parciales.
+ Puede tener hasta cinco tareas de exportación de instantáneas de base de datos en curso por Cuenta de AWS.
+ Los clústeres de base de datos de Aurora Serverless v1 no admiten la exportación a S3.
+ Aurora MySQL y Aurora PostgreSQL admiten exportaciones a S3 solo para el modo de motor aprovisionado.
+ Las exportaciones a S3 no admiten prefijos S3 que contengan dos puntos (:).
+ Los siguientes caracteres en la ruta del archivo S3 se convierten en guiones bajos (\$1) durante la exportación:

  ```
  \ ` " (space)
  ```
+ Si una base de datos, esquema o tabla tiene caracteres en su nombre distintos del siguiente, no se admite la exportación parcial. Sin embargo, puede exportar todo el clúster de base de datos.
  + Letras latinas (A–Z)
  + Dígitos (0–9)
  + Símbolo de dólar (\$1)
  + Guion bajo (\$1)
+ No se admiten espacios ( ) ni determinados caracteres en los nombres de columna de las tablas de bases de datos. Las tablas con los siguientes caracteres en los nombres de columna se omiten durante la exportación:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Las tablas con barras diagonales (/) en el nombre se omiten durante la exportación.
+ Las tablas temporales y no registradas de Aurora PostgreSQL se omiten durante la exportación.
+ Si los datos contienen un objeto grande, como un BLOB o CLOB, cercano o superior a 500 MB, se producirá un error en la exportación.
+ Si una tabla contiene una fila grande cercana o superior a 2 GB, la tabla se omite durante la exportación.
+ Para exportaciones parciales, la lista `ExportOnly` tiene un tamaño máximo de 200 KB.
+ Es muy recomendable que utilice un nombre exclusivo para cada tarea de exportación. Si no utiliza un nombre de tarea exclusivo, es posible que aparezca el siguiente mensaje de error como el que sigue:

  exportTaskAlreadyExistsFault: Se ha producido un error (exportTaskAlReadyExists) al llamar a la operación StartExportTask: la tarea de exportación con ID *xxxxx* ya existe.
+ Dado que es posible que se omitan algunas tablas, le recomendamos que verifique los recuentos de filas y tablas de los datos después de la exportación.

## Convención de nomenclatura de archivos
<a name="export-cluster-data.FileNames"></a>

Los datos exportados para tablas específicas se almacenan en el formato `base_prefix/files`, donde el prefijo base es el siguiente:

```
export_identifier/database_name/schema_name.table_name/
```

Por ejemplo:

```
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
```

Los archivos de salida utilizan la siguiente convención de nomenclatura, donde *partition\$1index* es alfanumérico:

```
partition_index/part-00000-random_uuid.format-based_extension
```

Por ejemplo:

```
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
    a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
```

La convención de nomenclatura de archivos está sujeta a cambios. Por lo tanto, cuando lea tablas de destino, recomendamos que lea todo lo que hay dentro del prefijo base de la tabla.

## Formato de almacenamiento y conversión de datos
<a name="export-cluster-data.data-types"></a>

Cuando exporta un clúster de base de datos a un bucket de Amazon S3, Amazon Aurora convierte, exporta y almacena los datos con el formato Parquet. Para obtener más información, consulte [Conversión de datos al exportar a un bucket de Amazon S3](aurora-export-snapshot.Considerations.md#aurora-export-snapshot.data-types).

# Configuración del acceso a un bucket de Amazon S3
<a name="export-cluster-data.Setup"></a>

Una vez identificado el bucket de Amazon S3, dé a la tarea de exportación del clúster de base de datos permiso para acceder a él.

**Topics**
+ [Identificación del bucket de Amazon S3 para exportación](#export-cluster-data.SetupBucket)
+ [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](#export-cluster-data.SetupIAMRole)
+ [Uso de un bucket de Amazon S3 en diversas cuentas](#export-cluster-data.Setup.XAcctBucket)

## Identificación del bucket de Amazon S3 para exportación
<a name="export-cluster-data.SetupBucket"></a>

Identifique el bucket de Amazon S3 al que se exportará el clúster de base de datos. Utilice un bucket de S3 ya existente, o bien cree un bucket S3 nuevo.

**nota**  
El bucket de S3; debe estar en la misma región de AWS que el clúster de base de datos.

Para obtener más información acerca de cómo trabajar con buckets de Amazon S3, consulte lo siguiente en *Guía del usuario de Amazon Simple Storage Service*:
+ [ Cómo se consultan las propiedades de un bucket de S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [ Cómo puedo habilitar el cifrado predeterminado para un bucket de Amazon S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [ Cómo se puede crear un bucket de S?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

## Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM
<a name="export-cluster-data.SetupIAMRole"></a>

Antes de exportar datos de clústeres de bases de datos a Amazon S3, conceda a las tareas de exportación permiso de acceso de escritura al bucket de Amazon S3.

Para conceder este permiso, cree una política de IAM que proporcione acceso al bucket y cree un rol de IAM y adjunte la política al rol. Más adelante, puede asignar el rol de IAM a la tarea de exportación del clúster de base de datos.

**importante**  
Si prevé utilizar la Consola de administración de AWS para exportar el clúster de base de datos, puede elegir crear la política de IAM y el rol automáticamente al exportar el clúster de base de datos. Para obtener instrucciones, consulte [Creación de tareas de exportación del clúster de base de datos](export-cluster-data.Exporting.md).

**Para dar a las tareas acceso a Amazon S3**

1. Cree una política de IAM. Esta política proporciona los permisos de bucket y objeto que permiten a la tarea de exportación de clústeres de base de datos obtener acceso a Amazon S3.

   En la política, incluya las siguientes acciones obligatorias para permitir transferir archivos desde Amazon Aurora a un bucket de S3:
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   En la política, incluya los siguientes recursos para identificar el bucket de S3 y los objetos incluidos en él. En la siguiente lista de recursos se muestra el formato de nombre de recurso de Amazon (ARN) para obtener acceso a Amazon S3.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Para obtener más información sobre cómo crear una política de IAM para Amazon Aurora, consulte [Creación y uso de una política de IAM para el acceso a bases de datos de IAM](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Consulte también el [Tutorial: Crear y asociar su primera política administrada por el cliente](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) en la *Guía del usuario de IAM*.

   El siguiente comando de la AWS CLI crea una política de IAM denominada `ExportPolicy` con estas opciones. Otorga acceso a un bucket denominado *amzn-s3-demo-bucket*.
**nota**  
Después de crear la política, apunte el ARN de esta. Cuando asocia la política a un rol de IAM, necesita el ARN para realizar un paso posterior.

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Cree un rol de IAM que Aurora pueda asumir en su nombre para acceder a sus buckets de Amazon S3. Para obtener más información, vea [Crear un rol para delegar permisos a un IAM usuario ](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) en *Guía del usuario de IAM. *

   En el siguiente ejemplo se muestra cómo se usa el comando de la AWS CLI para crear un rol denominado `rds-s3-export-role`.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Asocie la política de IAM que creó al rol de IAM creado.

   El siguiente comando de la AWS CLI asocia la política creada anteriormente al rol denominado `rds-s3-export-role`. Sustituya `your-policy-arn` por el ARN de la política que ha apuntado en el paso anterior.

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

## Uso de un bucket de Amazon S3 en diversas cuentas
<a name="export-cluster-data.Setup.XAcctBucket"></a>

Puede utilizar buckets de S3 en cuentas de AWS. Para obtener más información, consulte [Uso de un bucket de Amazon S3 en diversas cuentas](aurora-export-snapshot.Setup.md#aurora-export-snapshot.Setup.XAcctBucket).

# Creación de tareas de exportación del clúster de base de datos
<a name="export-cluster-data.Exporting"></a>

Cree tareas de exportación para exportar datos desde su clúster de base de datos de Aurora a un bucket de Amazon S3. Puede tener hasta cinco tareas de exportación de clústeres de base de datos en curso por Cuenta de AWS.

**nota**  
La exportación de datos de clústeres de base de datos puede tardar un tiempo en función del tipo y tamaño de la base de datos. La tarea de exportación primero clona y escala toda la base de datos antes de extraer los datos a Amazon S3. El progreso de la tarea durante esta fase se muestra como **Starting (Iniciándose)**. Cuando la tarea cambia a exportar datos a S3, el progreso se muestra como **In progress (En curso)**.  
El tiempo que tarda la exportación en completarse depende de los datos almacenados en la base de datos. Por ejemplo, las tablas con columnas de índice o claves primarias numéricas bien distribuidas se exportarán más rápido. Las tablas que no contienen una columna adecuada para la partición y las tablas con un solo índice en una columna basada en cadenas tardarán más tiempo porque la exportación utiliza un proceso más lento que tiene un único subproceso.

Puede exportar datos de clúster esde base de datos a Amazon S3 mediante la Consola de administración de AWS, la AWS CLI o la API de RDS.

Si utiliza una función de Lambda para exportar los datos de clústeres de base de datos, añada la acción `kms:DescribeKey` a la política de la función de Lambda. Para obtener más información, consulte [Permisos de AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

## Consola
<a name="export-cluster-data.ExportConsole"></a>

La opción de la consola **Export to Amazon S3** (Exportar a Amazon S3) solo aparece para los clústeres de base de datos que se pueden exportar a Amazon S3. Es posible que un clúster de base de datos no esté disponible para la exportación debido a las siguientes razones:
+ El motor de base de datos no es compatible con la exportación de S3.
+ La versión del clúster de base de datoss no es compatible con la exportación de S3.
+ La exportación de S3 no se admite en la región de AWS donde se creó el clúster de base de datos.

**Para exportar datos del clúster de base de datos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, seleccione **Databases** (Bases de datos).

1. Elija el clúster de base de datos cuyos datos desea exportar.

1. En **Actions (Acciones)**, seleccione **Export to Amazon S3 (Exportar a Amazon S3)**.

   Se visualizará la ventana **Export to Amazon S3 (Exportar a Amazon S3)**.

1. En **Export Identifier (Identificador de exportación)**, escriba un nombre para identificar la tarea de exportación. Este valor también se utiliza para el nombre del archivo creado en el bucket de S3.

1. Elija los datos que desea exportar:
   + Seleccione **All** (Todo) para exportar todos los datos del clúster de base de datos.
   + Seleccione **Partial** (Parcial) para exportar partes específicas del clúster de base de datos. Para identificar qué partes del clúster exportar, introduzca una o más bases de datos, esquemas o tablas para **Identifiers** (Identificadores) separadas por espacios.

     Use el siguiente formato:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Por ejemplo:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Para el **S3 bucket (Bucket de S3)**, elija el bucket al que desee realizar la exportación.

   Para asignar los datos exportados a la ruta de una carpeta en el bucket de S3, escriba la ruta opcional para el **S3 prefix (Prefijo de S3)**.

1. Para el **rol de IAM**, elija un rol que le conceda acceso de escritura al bucket de S3 elegido o cree un nuevo rol.
   + Si ha creado un rol siguiendo los pasos indicados en [Proporcionar acceso a un bucket de Amazon S3 mediante un rol de IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole), elija dicho rol.
   + Si no ha creado un rol que le conceda acceso de escritura al bucket de S3 elegido, elija **Create a new role** (Crear un nuevo rol) para crear el rol automáticamente. A continuación, escriba un nombre para el rol en el **IAM role name (Nombre del rol de IAM)**.

1. En **KMS key** (Clave KMS), introduzca el ARN de la clave que debe utilizarse para cifrar los datos exportados.

1. Elija **Export to Amazon S3 (Exportar a Amazon S3)**.

## AWS CLI
<a name="export-cluster-data.ExportCLI"></a>

Para exportar un clúster de base de datos a Amazon S3 mediante la AWS CLI, ejecute el comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html) con las siguientes opciones obligatorias:
+ `--export-task-identifier`
+ `--source-arn`: el nombre de recurso de Amazon (ARN) del clúster de base de datos.
+ `--s3-bucket-name`
+ `--iam-role-arn`
+ `--kms-key-id`

En los siguientes ejemplos, la tarea de exportación se denomina *my-clúster-export* y exporta los datos a un bucket de S3 denominado *amzn-s3-demo-destination-bucket*.

**Example**  
Para Linux, macOS o:Unix  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-cluster-export \
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster \
4.     --s3-bucket-name amzn-s3-demo-destination-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
En:Windows  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-DB-cluster-export ^
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster ^
4.     --s3-bucket-name amzn-s3-demo-destination-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
A continuación, se muestra un resultado de ejemplo.  

```
{
    "ExportTaskIdentifier": "my-cluster-export",
    "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:my-cluster",
    "S3Bucket": "amzn-s3-demo-destination-bucket",
    "IamRoleArn": "arn:aws:iam:123456789012:role/ExportTest",
    "KmsKeyId": "my-key",
    "Status": "STARTING",
    "PercentProgress": 0,
    "TotalExtractedDataInGB": 0,
}
```
Para proporcionar la ruta de una carpeta del bucket S3 para la exportación del clúster de base de datos, incluya la opción `--s3-prefix` en el comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html).

## API de RDS
<a name="export-cluster-data.ExportAPI"></a>

Para exportar un clúster de base de datos a Amazon S3 con la API de Amazon RDS, ejecute la operación [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html) con los siguientes parámetros obligatorios:
+ `ExportTaskIdentifier`
+ `SourceArn`: el ARN del clúster de base de datos.
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

# Supervisión de tareas de exportación del clúster de base de datos
<a name="export-cluster-data.Monitoring"></a>

Puede supervisar las exportaciones de clústeres de base de datos mediante la Consola de administración de AWS, la AWS CLI o la API de RDS.

## Consola
<a name="export-cluster-data.MonitorConsole"></a>

**Para supervisar las exportaciones del clúster de base de datos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, elija **Exports in Amazon S3** (Exportaciones en Amazon S3).

   Las exportaciones de clústeres de base de datos se indican en la columna **Source type** (Tipo de fuente). El estado de exportación se muestra en la columna **Status** (Estado).

1. Para ver información detallada acerca de la exportación de un clúster de base de datos específico, elija la tarea de exportación.

## AWS CLI
<a name="export-cluster-data.MonitorCLI"></a>

Para supervisar exportaciones de clústeres de base de datos mediante la AWS CLI, ejecute el comando [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html) .

En el ejemplo siguiente, se indica cómo mostrar la información actual acerca de todas las exportaciones de clústeres de base de datos.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2022-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "S3Bucket": "amzn-s3-demo-bucket",
10.             "PercentProgress": 0,
11.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
12.             "ExportTaskIdentifier": "anewtest",
13.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
14.             "TotalExtractedDataInGB": 0,
15.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:parameter-groups-test"
16.         },
17. {
18.             "Status": "COMPLETE",
19.             "TaskStartTime": "2022-10-31T20:58:06.998Z",
20.             "TaskEndTime": "2022-10-31T21:37:28.312Z",
21.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
22.             "S3Prefix": "",
23.             "S3Bucket": "amzn-s3-demo-bucket1",
24.             "PercentProgress": 100,
25.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
26.             "ExportTaskIdentifier": "thursday-events-test", 
27.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
28.             "TotalExtractedDataInGB": 263,
29.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-31-06-44"
30.         },
31.         {
32.             "Status": "FAILED",
33.             "TaskEndTime": "2022-10-31T02:12:36.409Z",
34.             "FailureCause": "The S3 bucket amzn-s3-demo-bucket2 isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
35.             "S3Prefix": "",
36.             "S3Bucket": "amzn-s3-demo-bucket2",
37.             "PercentProgress": 0,
38.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
39.             "ExportTaskIdentifier": "wednesday-afternoon-test",
40.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
41.             "TotalExtractedDataInGB": 0,
42.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-30-06-45"
43.         }
44.     ]
45. }
```
Para mostrar información sobre una exportación de clústeres de base de datos específica, incluya la opción `--export-task-identifier` con el comando `describe-export-tasks`. Para filtrar la salida, incluya la opción `--Filters`. Para obtener más opciones, consulte el comando [ describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

## API de RDS
<a name="export-cluster-data.MonitorAPI"></a>

Para mostrar información sobre las exportaciones de clústeres de base de datos mediante la API de Amazon RDS, ejecute la operación [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html).

Para realizar un seguimiento del flujo de trabajo de exportación o para iniciar otro flujo de trabajo, puede suscribirse a temas de Amazon Simple Notification Service. Para obtener más información sobre Amazon SNS, consulte [Uso de notificaciones de eventos de Amazon RDS](USER_Events.md).

# Cancelación de una tarea de exportación de un clúster de base de datos
<a name="export-cluster-data.Canceling"></a>

Puede cancelar una tarea de exportación de clústeres de base de datos mediante la Consola de administración de AWS, la AWS CLI o la API de RDS.

**nota**  
La cancelación de una tarea de exportación no elimina los datos exportados a Amazon S3. Para obtener información acerca de cómo eliminar los datos mediante la consola, consulte [¿Cómo se eliminan objetos de un bucket de S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html) Para eliminar los datos mediante la CLI, ejecute el comando [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Consola
<a name="export-cluster-data.CancelConsole"></a>

**Para cancelar una tarea de exportación de un clúster de base de datos**

1. Inicie sesión en la Consola de administración de AWS y abra la consola de Amazon RDS en [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. En el panel de navegación, elija **Exports in Amazon S3** (Exportaciones en Amazon S3).

   Las exportaciones de clústeres de base de datos se indican en la columna **Source type** (Tipo de fuente). El estado de exportación se muestra en la columna **Status** (Estado).

1. Elija la tarea de exportación que desee cancelar.

1. Elija **Cancel**.

1. Seleccione **Cancel export task (Cancelar tarea de exportación)** en la página de confirmación.

 

## AWS CLI
<a name="export-cluster-data.CancelCLI"></a>

Para cancelar una tarea de exportación mediante la AWS CLI, ejecute el comando [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html) . El comando requiere la opción `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my-export
 2. {
 3.     "Status": "CANCELING",
 4.     "S3Prefix": "",
 5.     "S3Bucket": "amzn-s3-demo-bucket",
 6.     "PercentProgress": 0,
 7.     "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
 8.     "ExportTaskIdentifier": "my-export",
 9.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
10.     "TotalExtractedDataInGB": 0,
11.     "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:export-example-1"
12. }
```

## API de RDS
<a name="export-cluster-data.CancelAPI"></a>

Para cancelar una tarea de exportación mediante la API de Amazon RDS, ejecute la operación [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) con el parámetro `ExportTaskIdentifier`.

# Resolución de problemas en las exportaciones de clústeres de base de datos
<a name="export-cluster-data.Troubleshooting"></a>

Utilice las siguientes secciones para solucionar los mensajes de error y los errores de permisos de PostgreSQL para las tareas de exportación de clústeres de bases de datos a Amazon S3.

## Mensajes de error para tareas de exportación de Amazon S3
<a name="export-cluster-data.failure-msg"></a>

En la tabla siguiente se describen los mensajes que se devuelven cuando se producen errores en las tareas de exportación de Amazon S3.


| Mensaje de error | Descripción | 
| --- | --- | 
| No se pudo encontrar el clúster de base de datos de origen ni acceder a él: [nombre del clúster] | El clúster de base de datos de origen no se puede clonar. | 
| Se ha producido un error interno desconocido. |  La tarea no se pudo completar debido a un error, excepción o falla desconocidos.  | 
| Ocurrió un error interno desconocido al escribir los metadatos de la tarea de exportación en el bucket de S3 [nombre del bucket]. |  La tarea no se pudo completar debido a un error, excepción o falla desconocidos.  | 
| La exportación de RDS no pudo escribir los metadatos de la tarea de exportación porque no puede asumir el rol de IAM [ARN de rol]. |  La tarea de exportación asume el rol de IAM para validar si está permitido escribir metadatos en el bucket de S3. Si la tarea no puede asumir su rol de IAM, muestra un error.  | 
| La exportación de RDS no pudo escribir los metadatos de la tarea de exportación en el bucket de S3 [nombre del bucket] que utiliza el rol de IAM [ARN de rol] con la clave KMS [ID de clave]. Código de error: [código de error] |  Faltan uno o más permisos, por lo que la tarea de exportación no puede acceder al bucket de S3. Este mensaje de error aparece cuando se recibe uno de los siguientes códigos de error: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/AmazonRDS/latest/AuroraUserGuide/export-cluster-data.Troubleshooting.html) Estos códigos de error indican que la configuración del rol de IAM, el bucket de S3 o la clave KMS es incorrecta.  | 
| El rol de IAM [ARN de rol] no está autorizado para llamar a [acción de S3] en el bucket de S3 [nombre del bucket]. Revise sus permisos y vuelva a intentar la exportación. |  La política de IAM está mal configurada. Falta el permiso para la acción específica de S3 en el bucket de S3, que provoca que falle la tarea de exportación.  | 
| Error en la verificación de claves KMS Verifique las credenciales de la clave KMS e inténtelo de nuevo. | Error en la verificación de credenciales de la clave KMS. | 
| Error en la verificación de credenciales de S3. Verifique los permisos de su bucket de S3 y de la política de IAM. | Error en la verificación de credenciales de S3. | 
| El bucket de S3 [nombre del bucket] no es válido. O no se encuentra en la Región de AWS actual o no existe. Revise el nombre del bucket de S3 e intente hacer la exportación de nuevo. | El bucket de S3 no es válido. | 
| El bucket de S3 [nombre del bucket] no se encuentra en la Región de AWS actual. Revise el nombre del bucket de S3 e intente hacer la exportación de nuevo. | El bucket de S3 está en la Región de AWS equivocada. | 

## Solución de problemas de errores de permisos de PostgreSQL
<a name="export-cluster-data.postgres-permissions"></a>

Al exportar bases de datos PostgreSQL a Amazon S3, es posible que vea un error `PERMISSIONS_DO_NOT_EXIST` que indica que se omitieron ciertas tablas. Esto suele deberse a que el superusuario, que se especifica al crear el clúster de base de datos, no tiene permisos para acceder a dichas tablas.

Para corregir este error, ejecute el siguiente comando:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Para obtener más información sobre los privilegios de superusuario, consulte [Privilegios de la cuenta de usuario maestro](UsingWithRDS.MasterAccounts.md).