

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esportazione dei dati del cluster database in Amazon S3
<a name="export-cluster-data"></a>

È possibile esportare i dati da un cluster database Amazon Aurora in tempo reale in un bucket Amazon S3. Il processo di esportazione viene eseguito in background e non ha ripercussioni sulle prestazioni dell'istanza del cluster di database attivo.

Per impostazione predefinita, vengono esportati tutti i dati nel cluster database. Tuttavia, è possibile scegliere di esportare set specifici di database, schemi o tabelle.

Amazon Aurora clona il cluster database, estrae i dati dal clone e li archivia in un bucket Amazon S3. I dati vengono archiviati in un formato Apache Parquet compresso e coerente. I singoli file Parquet hanno in genere una dimensione compresa tra 1 e 10 MB.

Le prestazioni più veloci che si possono ottenere con l'esportazione dei dati di shapshot per Aurora MySQL versione 2 e versione 3 non si applicano all'esportazione dei dati del cluster database. Per ulteriori informazioni, consulta [Esportazione dei dati dello snapshot del cluster di database in Amazon S3](aurora-export-snapshot.md).

Ti viene addebitato il costo dell'esportazione dell'intero cluster di database, indipendentemente dal fatto che esporti tutti o parte dei dati. Per ulteriori informazioni, consulta la [pagina Prezzi di Amazon Aurora](https://aws.amazon.com/rds/aurora/pricing/).

Dopo l'esportazione dei dati, è possibile analizzare i dati esportati direttamente mediante strumenti quali Amazon Athena o Amazon Redshift Spectrum. Per ulteriori informazioni sull'utilizzo Athena per leggere i dati Parquet, consulta[Parquet SerDe](https://docs.aws.amazon.com/athena/latest/ug/parquet-serde.html) in *Guida per l'utente di Amazon Athena*. Per ulteriori informazioni sull'utilizzo Redshift Spectrum per leggere i dati Parquet, consulta [COPY da formati di dati a colonna](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) nella *Guida per gli sviluppatori di database di Amazon Redshift*.

Il supporto varia a seconda delle versioni specifiche di ciascun motore di database e a seconda delle Regioni AWS. Per ulteriori informazioni sulla disponibilità di versioni e regioni per l'esportazione dei dati del cluster database in S3, consulta [Regioni e motori di database Aurora supportati per l’esportazione dei dati del cluster in Amazon S3](Concepts.Aurora_Fea_Regions_DB-eng.Feature.ExportClusterToS3.md).

Per esportare i dati del cluster database in un bucket Amazon S3 puoi utilizzare il processo riportato di seguito. Per ulteriori dettagli, consulta le seguenti sezioni:

**Panoramica sull'esportazione dei dati di un cluster database**

1. Identifica il cluster database di cui desideri esportare i dati.

1. Configurare l'accesso al bucket Simple Storage Service (Amazon S3).

   Un *bucket* è un container per oggetti o file Simple Storage Service (Amazon S3). Per fornire le informazioni per accedere a un bucket, attenersi alla seguente procedura:

   1. Identifica il bucket S3 in cui devono essere esportati i dati del cluster database. Il bucket S3 deve trovarsi nella stessa Regione AWS del cluster database. Per ulteriori informazioni, consulta [Identificazione del bucket Simple Storage Service (Amazon S3) in cui esportare](export-cluster-data.Setup.md#export-cluster-data.SetupBucket).

   1. Crea un ruolo AWS Identity and Access Management (IAM) che conceda all'attività di esportazione del cluster database l'accesso al bucket S3. Per ulteriori informazioni, consulta [Fornire l'accesso a un bucket Simple Storage Service (Amazon S3) utilizzando un ruolo IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole).

1. Crea una AWS KMS key di crittografia simmetrica per la crittografia lato server. La chiave KMS viene utilizzata dall'attività di esportazione del cluster per impostare la crittografia lato server AWS KMS per la scrittura dei dati dell'esportazione in S3.

   La policy della chiave KMS deve includere entrambe le autorizzazioni `kms:CreateGrant` e `kms:DescribeKey`. Per ulteriori informazioni sull'uso delle chiavi KMS in Amazon Aurora, consulta [AWS KMS key gestione](Overview.Encryption.Keys.md).

   Inoltre, se nella policy della chiave KMS è presente un'istruzione di negazione, assicurati di escludere esplicitamente il principale del servizio AWS `export.rds.amazonaws.com`.

   È possibile utilizzare una chiave KMS all'interno dell'account AWS oppure puoi usare una chiave KMS cross-account. Per ulteriori informazioni, consulta [Utilizzo di un account multiplo AWS KMS key](aurora-export-snapshot.Setup.md#aurora-export-snapshot.CMK).

1. Esporta il cluster database in Amazon S3 utilizzando la console o il comando dell'interfaccia della linea di comando `start-export-task`. Per ulteriori informazioni, consulta [Creazione di attività di esportazione del cluster di database](export-cluster-data.Exporting.md). 

1. Per accedere ai dati esportati nel bucket Simple Storage Service (Amazon S3), consulta [Caricamento, download e gestione di oggetti](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-download-objects.html) nella *Guida per l'utente di Amazon Simple Storage Service*.

Nelle sezioni seguenti sono fornite informazioni su come configurare, esportare, monitorare, annullare e risolvere i problemi relativi alle attività di esportazione di cluster di database.

**Topics**
+ [Considerazioni per le esportazioni del cluster di database](export-cluster-data.Considerations.md)
+ [Configurazione dell'accesso a un bucket Simple Storage Service (Amazon S3)](export-cluster-data.Setup.md)
+ [Creazione di attività di esportazione del cluster di database](export-cluster-data.Exporting.md)
+ [Monitoraggio delle attività di esportazione del cluster database](export-cluster-data.Monitoring.md)
+ [Annullamento di un'attività di esportazione del cluster database](export-cluster-data.Canceling.md)
+ [Risoluzione dei problemi delle esportazioni del cluster di database](export-cluster-data.Troubleshooting.md)

# Considerazioni per le esportazioni del cluster di database
<a name="export-cluster-data.Considerations"></a>

Utilizza le sezioni seguenti per scoprire le limitazioni, le convenzioni di denominazione dei file e la conversione e l’archiviazione dei dati durante l’esportazione dei dati dei cluster di database in Amazon S3.

**Topics**
+ [Limitazioni](#export-cluster-data.Limits)
+ [Convenzione di denominazione file](#export-cluster-data.FileNames)
+ [Formato di conversione e archiviazione dei dati](#export-cluster-data.data-types)

## Limitazioni
<a name="export-cluster-data.Limits"></a>

L'esportazione dei dati del cluster database in Amazon S3 presenta le seguenti limitazioni:
+ Non è possibile eseguire contemporaneamente più attività di esportazione per lo stesso cluster database. Ciò è valido sia per le esportazioni totali sia per le esportazioni parziali.
+ È possibile avere fino a cinque attività di esportazione di snapshot di database simultanee in esecuzione per ogni Account AWS.
+ I cluster database Aurora Serverless v1 non supportano le esportazioni in S3.
+ Aurora MySQL e Aurora PostgreSQL supportano le esportazioni in S3 solo per la modalità del motore allocato.
+ Le esportazioni in S3 non supportano i prefissi S3 contenenti i due punti (:).
+ I seguenti caratteri nel percorso del file S3 vengono convertiti in caratteri di sottolineatura (\$1) durante l'esportazione:

  ```
  \ ` " (space)
  ```
+ Se un database, uno schema o una tabella contiene caratteri diversi da quelli riportati di seguito, l'esportazione parziale non è supportata. Tuttavia, è possibile esportare l'intero cluster database.
  + Lettere latine (A–Z)
  + Numeri (0–9)
  + Simbolo del dollaro (\$1)
  + Carattere di sottolineatura (\$1)
+ Gli spazi ( ) e alcuni caratteri non sono supportati nei nomi delle colonne delle tabelle del database. Le tabelle con i seguenti caratteri nei nomi delle colonne vengono ignorate durante l'esportazione:

  ```
  , ; { } ( ) \n \t = (space)
  ```
+ Le tabelle con barre (/) nei rispettivi nomi vengono ignorate durante l'esportazione.
+ Le tabelle temporanee e non registrate di Aurora PostgreSQL vengono ignorate durante l'esportazione.
+ Se i dati contengono un oggetto di grandi dimensioni, ad esempio un BLOB o un CLOB, vicino o superiore a 500 MB, l'esportazione non riesce.
+ Se una tabella contiene una riga di grandi dimensioni, vicine o superiori a 2 GB, la tabella viene ignorata durante l'esportazione.
+ Per le esportazioni parziali, l’elenco `ExportOnly` ha una dimensione massima di 200 KB.
+ Si consiglia vivamente di utilizzare un nome univoco per ogni attività di esportazione. Se non utilizzi un nome di attività univoco, potresti ricevere il seguente messaggio di errore:

  ExportTaskAlreadyExistsFault: si è verificato un errore (ExportTaskAlreadyExists) durante la chiamata all'operazione StartExportTask: l'attività di esportazione con ID *xxxxx* esiste già.
+ Poiché alcune tabelle potrebbero essere ignorate, ti consigliamo di verificare il numero di righe e tabelle nei dati dopo l'esportazione.

## Convenzione di denominazione file
<a name="export-cluster-data.FileNames"></a>

I dati esportati per tabelle specifiche vengono memorizzati nel formato `base_prefix/files`, dove il prefisso di base è il seguente:

```
export_identifier/database_name/schema_name.table_name/
```

Per esempio:

```
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
```

I file di output utilizzano la seguente convenzione di denominazione, in cui *partition\$1index* è alfanumerico:

```
partition_index/part-00000-random_uuid.format-based_extension
```

Per esempio:

```
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet
    a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
```

La convenzione di denominazione file è soggetta a modifiche. Pertanto, quando usi le tabelle di destinazione ti consigliamo di leggere tutto quanto riportato all'interno del prefisso di base della tabella.

## Formato di conversione e archiviazione dei dati
<a name="export-cluster-data.data-types"></a>

Quando esporti un cluster di database in un bucket Amazon S3, Amazon Aurora converte, esporta e archivia i dati nel formato Parquet. Per ulteriori informazioni, consulta [Conversione dei dati durante l'esportazione in un bucket Simple Storage Service (Amazon S3)](aurora-export-snapshot.Considerations.md#aurora-export-snapshot.data-types).

# Configurazione dell'accesso a un bucket Simple Storage Service (Amazon S3)
<a name="export-cluster-data.Setup"></a>

Individua il bucket Amazon S3 e fornisci all'attività di esportazione del cluster database l'autorizzazione per accedervi.

**Topics**
+ [Identificazione del bucket Simple Storage Service (Amazon S3) in cui esportare](#export-cluster-data.SetupBucket)
+ [Fornire l'accesso a un bucket Simple Storage Service (Amazon S3) utilizzando un ruolo IAM](#export-cluster-data.SetupIAMRole)
+ [Utilizzo di un bucket Simple Storage Service (Amazon S3) multiaccount](#export-cluster-data.Setup.XAcctBucket)

## Identificazione del bucket Simple Storage Service (Amazon S3) in cui esportare
<a name="export-cluster-data.SetupBucket"></a>

Identifica il bucket Amazon S3 in cui esportare il cluster database. Utilizzare un bucket S3 esistente o crearne uno nuovo.

**Nota**  
Il bucket S3 deve trovarsi nella stessa AWS regione del cluster DB.

Per ulteriori informazioni sull'utilizzo dei bucket Simple Storage Service (Amazon S3), vedere quanto segue in *Guida per l'utente di Amazon Simple Storage Service*:
+ [ Come visualizzare le proprietà di un bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/view-bucket-properties.html)
+ [ In che modo si abilita la crittografia di default per un bucket Amazon S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/default-bucket-encryption.html)
+ [ Come creare un bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-bucket.html)

## Fornire l'accesso a un bucket Simple Storage Service (Amazon S3) utilizzando un ruolo IAM
<a name="export-cluster-data.SetupIAMRole"></a>

Prima di esportare i dati del cluster database in Amazon S3, fornisci l'autorizzazione di accesso in scrittura alle attività di esportazione al bucket Amazon S3.

Per concedere l'autorizzazione, crea una policy IAM che fornisca accesso al bucket, crea un ruolo IAM e collega la policy al ruolo. Successivamente assegna il ruolo IAM all'attività di esportazione del cluster database.

**Importante**  
Se prevedi di utilizzare il Console di gestione AWS per esportare il tuo cluster DB, puoi scegliere di creare automaticamente la policy IAM e il ruolo quando esporti il cluster DB. Per istruzioni, consulta [Creazione di attività di esportazione del cluster di database](export-cluster-data.Exporting.md).

**Per fornire alle attività l'accesso ad Amazon S3**

1. Creare una policy IAM Questa policy fornisce le autorizzazioni per bucket e oggetti che consentono all'attività di esportazione del cluster database l'accesso ad Amazon S3.

   Includi nella policy le seguenti operazioni obbligatorie per consentire il trasferimento dei file da Amazon Aurora a un bucket S3:
   + `s3:PutObject*`
   + `s3:GetObject*` 
   + `s3:ListBucket` 
   + `s3:DeleteObject*`
   +  `s3:GetBucketLocation`

   Includi nella policy le seguenti risorse per identificare il bucket S3 e gli oggetti nel bucket. Il seguente elenco di risorse mostra il formato Amazon Resource Name (ARN) per l'accesso a Amazon S3.
   + `arn:aws:s3:::amzn-s3-demo-bucket`
   + `arn:aws:s3:::amzn-s3-demo-bucket/*`

   Per ulteriori informazioni sulla creazione di una policy IAM per Amazon Aurora, consulta [Creazione e utilizzo di una policy IAM per l'accesso al database IAM](UsingWithRDS.IAMDBAuth.IAMPolicy.md). Consulta anche il [Tutorial: Creare e collegare la prima policy gestita dal cliente](https://docs.aws.amazon.com//IAM/latest/UserGuide/tutorial_managed-policies.html) nella *Guida per l'utente di IAM*.

   Il AWS CLI comando seguente crea una policy IAM denominata `ExportPolicy` con queste opzioni. Concede l'accesso a un bucket denominato *amzn-s3-demo-bucket*.
**Nota**  
Dopo aver creato la policy, prendere nota del relativo ARN. Per la fase successiva, in cui si associa la policy a un ruolo IAM, è necessario l'ARN.

   ```
   aws iam create-policy  --policy-name ExportPolicy --policy-document '{
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "ExportPolicy",
               "Effect": "Allow",
               "Action": [
                   "s3:PutObject*",
                   "s3:ListBucket",
                   "s3:GetObject*",
                   "s3:DeleteObject*",
                   "s3:GetBucketLocation"
               ],
               "Resource": [
                   "arn:aws:s3:::amzn-s3-demo-bucket",
                   "arn:aws:s3:::amzn-s3-demo-bucket/*"
               ]
           }
       ]
   }'
   ```

1. Crea un ruolo IAM in modo che Aurora possa assumere questo ruolo IAM per tuo conto per accedere ai bucket Amazon S3. Per ulteriori informazioni, consulta la pagina relativa alla [creazione di un ruolo per delegare le autorizzazioni a un utente IAM](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-user.html) nella *Guida per l'utente IAM*.

   L'esempio seguente mostra l'utilizzo del AWS CLI comando per creare un ruolo denominato`rds-s3-export-role`.

   ```
   aws iam create-role  --role-name rds-s3-export-role  --assume-role-policy-document '{
        "Version": "2012-10-17",		 	 	 
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
               "Service": "export.rds.amazonaws.com"
             },
            "Action": "sts:AssumeRole"
          }
        ] 
      }'
   ```

1. Collegare la policy IAM al ruolo IAM creato.

   Il AWS CLI comando seguente collega la politica creata in precedenza al ruolo denominato`rds-s3-export-role`. Sostituire `your-policy-arn` con l'ARN della policy annotato nella fase precedente.

   ```
   aws iam attach-role-policy  --policy-arn your-policy-arn  --role-name rds-s3-export-role
   ```

## Utilizzo di un bucket Simple Storage Service (Amazon S3) multiaccount
<a name="export-cluster-data.Setup.XAcctBucket"></a>

Puoi utilizzare i bucket S3 su più account. AWS Per ulteriori informazioni, consulta [Utilizzo di un bucket Simple Storage Service (Amazon S3) multiaccount](aurora-export-snapshot.Setup.md#aurora-export-snapshot.Setup.XAcctBucket).

# Creazione di attività di esportazione del cluster di database
<a name="export-cluster-data.Exporting"></a>

Crea attività di esportazione per esportare i dati del cluster di database Aurora in un bucket Amazon S3. È possibile avere fino a cinque attività di esportazione di cluster database simultanee in esecuzione per ogni Account AWS.

**Nota**  
L'esportazione dei dati del cluster database può richiedere qualche minuto a seconda del tipo e delle dimensioni del database. L'attività di esportazione clona e ridimensiona innanzitutto l'intero database prima di estrarre i dati su Amazon S3. Lo stato di avanzamento dell'attività durante questa fase viene visualizzato come **Avvio**. Quando l'attività passa all'esportazione dei dati in S3, lo stato di avanzamento diventa **In progress (In corso)**.  
Il tempo necessario per completare l'esportazione dipende dai dati memorizzati nel database. Ad esempio, le tabelle con chiave primaria numerica o colonne indice ben distribuite esporteranno più velocemente. Le tabelle che non contengono una colonna adatta al partizionamento e le tabelle con un solo indice su una colonna basata su stringhe richiedono più tempo perché l'esportazione utilizza un processo a thread singolo più lento.

È possibile esportare i dati del cluster database in Amazon S3 utilizzando la Console di gestione AWS, AWS CLI o l'API RDS.

Se usi una funzione Lambda per esportare i dati del cluster database, aggiungi l'operazione `kms:DescribeKey` alla policy della funzione Lambda. Per ulteriori informazioni, consulta [Autorizzazioni di AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-permissions.html).

## Console
<a name="export-cluster-data.ExportConsole"></a>

L'opzione **Export to Amazon S3** (Esporta in Amazon S3) viene visualizzata solo per i cluster database che possono essere esportati in Amazon S3. Un cluster database potrebbe non essere disponibile per l'esportazione a causa dei seguenti motivi:
+ Il motore del database non è supportato per l'esportazione S3.
+ La versione del cluster database non è supportata per l'esportazione in S3.
+ L'esportazione in S3 non è supportata nella Regione AWS in cui è stato creato il cluster database.

**Per esportare i dati del cluster database**

1. Accedi alla Console di gestione AWS e apri la console Amazon RDS all'indirizzo [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Nel pannello di navigazione, scegliere **Databases (Database)**.

1. Scegli il cluster database di cui desideri esportare i dati.

1. Per **Actions (Operazioni)**, scegli **Export to Amazon S3 (Esporta in Simple Storage Service (Amazon S3)**.

   Viene visualizzata la finestra **Export to Amazon S3 (Esporta in Simple Storage Service (Amazon S3))**.

1. Per **Export identifier (Identificatore di esportazione)**, immettere un nome per identificare l'attività di esportazione. Questo valore viene utilizzato anche per il nome del file creato nel bucket S3.

1. Scegli i dati da esportare:
   + Scegli **All** (Tutto) per esportare tutti i dati del cluster database.
   + Scegli **Partial** (Parziale) per esportare parti specifiche del cluster database. Per identificare le parti del cluster da esportare, immetti uno o più database, schemi o tabelle per **Identifiers** (Identificatori), separati da spazi.

     Utilizza il seguente formato:

     ```
     database[.schema][.table] database2[.schema2][.table2] ... databasen[.scheman][.tablen]
     ```

     Per esempio:

     ```
     mydatabase mydatabase2.myschema1 mydatabase2.myschema2.mytable1 mydatabase2.myschema2.mytable2
     ```

1. Per **S3 bucket (Bucket S3)**, scegliere il bucket in cui esportare.

   Per assegnare i dati esportati a un percorso di cartella nel bucket S3, immettere il percorso opzionale per **S3 prefix (Prefisso S3)**.

1. Per il **ruolo IAM**, scegliere un ruolo che conceda l'accesso in scrittura al bucket S3 scelto o creare un nuovo ruolo.
   + Se è stato creato un ruolo seguendo le fasi in [Fornire l'accesso a un bucket Simple Storage Service (Amazon S3) utilizzando un ruolo IAM](export-cluster-data.Setup.md#export-cluster-data.SetupIAMRole), scegliere tale ruolo.
   + Se non è stato creato un ruolo che fornisce l'accesso in scrittura al bucket S3 scelto, scegli **Create a new role** (Crea un nuovo ruolo) per creare automaticamente il ruolo. Immettere quindi un nome per il ruolo nel **nome del ruolo IAM**.

1. Per **KMS key** (Chiave KMS), immetti l'ARN per la chiave da utilizzare per crittografare i dati esportati.

1. Scegliere **Export to Amazon S3 (Esporta in Simple Storage Service (Amazon S3))**.

## AWS CLI
<a name="export-cluster-data.ExportCLI"></a>

Per esportare i dati del cluster database in Amazon S3 tramite AWS CLI, utilizza il comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html) con le seguenti opzioni richieste:
+ `--export-task-identifier`
+ `--source-arn` - Il nome della risorsa Amazon (ARN) del cluster database
+ `--s3-bucket-name`
+ `--iam-role-arn`
+ `--kms-key-id`

Negli esempi seguenti, l’attività di esportazione è denominata *my-cluster-export*, che esporta i dati in un bucket S3 chiamato *amzn-s3-demo-destination-bucket*.

**Example**  
Per Linux, macOS o Unix:  

```
1. aws rds start-export-task \
2.     --export-task-identifier my-cluster-export \
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster \
4.     --s3-bucket-name amzn-s3-demo-destination-bucket \
5.     --iam-role-arn iam-role \
6.     --kms-key-id my-key
```
Per Windows:  

```
1. aws rds start-export-task ^
2.     --export-task-identifier my-DB-cluster-export ^
3.     --source-arn arn:aws:rds:us-west-2:123456789012:cluster:my-cluster ^
4.     --s3-bucket-name amzn-s3-demo-destination-bucket ^
5.     --iam-role-arn iam-role ^
6.     --kms-key-id my-key
```
Di seguito è riportato un output di esempio.  

```
{
    "ExportTaskIdentifier": "my-cluster-export",
    "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:my-cluster",
    "S3Bucket": "amzn-s3-demo-destination-bucket",
    "IamRoleArn": "arn:aws:iam:123456789012:role/ExportTest",
    "KmsKeyId": "my-key",
    "Status": "STARTING",
    "PercentProgress": 0,
    "TotalExtractedDataInGB": 0,
}
```
Per fornire un percorso di cartella nel bucket S3 per l'esportazione del cluster database, includi l'opzione `--s3-prefix` nel comando [start-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/start-export-task.html).

## API RDS
<a name="export-cluster-data.ExportAPI"></a>

Per esportare i dati del cluster database in Amazon S3 utilizzando l'API Amazon RDS, usa l'operazione [StartExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_StartExportTask.html) con i seguenti parametri richiesti:
+ `ExportTaskIdentifier`
+ `SourceArn` - Il nome della risorsa Amazon del cluster di database
+ `S3BucketName`
+ `IamRoleArn`
+ `KmsKeyId`

# Monitoraggio delle attività di esportazione del cluster database
<a name="export-cluster-data.Monitoring"></a>

È possibile monitorare le esportazioni del cluster database utilizzando la Console di gestione AWS, AWS CLI o l'API RDS.

## Console
<a name="export-cluster-data.MonitorConsole"></a>

**Per monitorare le esportazioni del cluster database**

1. Accedi alla Console di gestione AWS e apri la console Amazon RDS all'indirizzo [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Nel riquadro di navigazione scegli **Exports in Amazon S3** (Esporta in Amazon S3).

   Le esportazioni del cluster database sono indicate nella colonna **Source type** (Tipo di origine). Lo stato dell'esportazione è visualizzato nella colonna **Status** (Stato).

1. Per visualizzare informazioni dettagliate su un'esportazione del cluster database specifica, scegli l'attività di esportazione.

## AWS CLI
<a name="export-cluster-data.MonitorCLI"></a>

Per monitorare le attività di esportazione del cluster database utilizzando AWS CLI, usa il comando [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

Nell'esempio seguente viene illustrato come visualizzare le informazioni correnti su tutte le esportazioni del cluster database.

**Example**  

```
 1. aws rds describe-export-tasks
 2. 
 3. {
 4.     "ExportTasks": [
 5.         {
 6.             "Status": "CANCELED",
 7.             "TaskEndTime": "2022-11-01T17:36:46.961Z",
 8.             "S3Prefix": "something",
 9.             "S3Bucket": "amzn-s3-demo-bucket",
10.             "PercentProgress": 0,
11.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
12.             "ExportTaskIdentifier": "anewtest",
13.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
14.             "TotalExtractedDataInGB": 0,
15.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:parameter-groups-test"
16.         },
17. {
18.             "Status": "COMPLETE",
19.             "TaskStartTime": "2022-10-31T20:58:06.998Z",
20.             "TaskEndTime": "2022-10-31T21:37:28.312Z",
21.             "WarningMessage": "{\"skippedTables\":[],\"skippedObjectives\":[],\"general\":[{\"reason\":\"FAILED_TO_EXTRACT_TABLES_LIST_FOR_DATABASE\"}]}",
22.             "S3Prefix": "",
23.             "S3Bucket": "amzn-s3-demo-bucket1",
24.             "PercentProgress": 100,
25.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
26.             "ExportTaskIdentifier": "thursday-events-test", 
27.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
28.             "TotalExtractedDataInGB": 263,
29.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-31-06-44"
30.         },
31.         {
32.             "Status": "FAILED",
33.             "TaskEndTime": "2022-10-31T02:12:36.409Z",
34.             "FailureCause": "The S3 bucket amzn-s3-demo-bucket2 isn't located in the current AWS Region. Please, review your S3 bucket name and retry the export.",
35.             "S3Prefix": "",
36.             "S3Bucket": "amzn-s3-demo-bucket2",
37.             "PercentProgress": 0,
38.             "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/2Zp9Utk/h3yCo8nvbEXAMPLEKEY",
39.             "ExportTaskIdentifier": "wednesday-afternoon-test",
40.             "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
41.             "TotalExtractedDataInGB": 0,
42.             "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:example-1-2019-10-30-06-45"
43.         }
44.     ]
45. }
```
Per visualizzare informazioni su un'attività di esportazione specifica, includi l'opzione `--export-task-identifier` nel comando `describe-export-tasks`. Per filtrare l'output, includere l'opzione `--Filters`. Per ulteriori opzioni, consultare il comando [describe-export-tasks](https://docs.aws.amazon.com/cli/latest/reference/rds/describe-export-tasks.html).

## API RDS
<a name="export-cluster-data.MonitorAPI"></a>

Per visualizzare informazioni sulle esportazioni del cluster database utilizzando l'API Amazon RDS, usa l'operazione [DescribeExportTasks](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_DescribeExportTasks.html).

Per tenere traccia del completamento del flusso di lavoro di esportazione o per attivare un altro flusso di lavoro, è possibile sottoscrivere gli argomenti del Servizio di notifica semplice Amazon. Per ulteriori informazioni su Amazon SNS, consulta [Utilizzo della notifica degli eventi di Amazon RDS](USER_Events.md).

# Annullamento di un'attività di esportazione del cluster database
<a name="export-cluster-data.Canceling"></a>

È possibile annullare un'attività di esportazione del cluster database utilizzando la Console di gestione AWS, AWS CLI o l'API RDS.

**Nota**  
L'annullamento di un'attività di esportazione non rimuove i dati esportati in Amazon S3. Per informazioni su come eliminare i dati utilizzando la console, consultare [Come eliminare oggetti da un bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/delete-objects.html) Per eliminare i dati utilizzando l'interfaccia della riga di comando (CLI), utilizzare il comando [delete-object](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html).

## Console
<a name="export-cluster-data.CancelConsole"></a>

**Per annullare un'attività di esportazione del cluster database**

1. Accedi alla Console di gestione AWS e apri la console Amazon RDS all'indirizzo [https://console.aws.amazon.com/rds/](https://console.aws.amazon.com/rds/).

1. Nel riquadro di navigazione scegli **Exports in Amazon S3** (Esporta in Amazon S3).

   Le esportazioni del cluster database sono indicate nella colonna **Source type** (Tipo di origine). Lo stato dell'esportazione è visualizzato nella colonna **Status** (Stato).

1. Scegli l'attività di esportazione che vuoi annullare.

1. Seleziona **Cancel (Annulla)**.

1. Scegli **Cancel export task (Annulla attività di esportazione)** nella pagina di conferma.

 

## AWS CLI
<a name="export-cluster-data.CancelCLI"></a>

Per annullare un'attività di esportazione utilizzando l'AWS CLI, usa il comando [cancel-export-task](https://docs.aws.amazon.com/cli/latest/reference/rds/cancel-export-task.html). Il comando richiede l'opzione `--export-task-identifier`.

**Example**  

```
 1. aws rds cancel-export-task --export-task-identifier my-export
 2. {
 3.     "Status": "CANCELING",
 4.     "S3Prefix": "",
 5.     "S3Bucket": "amzn-s3-demo-bucket",
 6.     "PercentProgress": 0,
 7.     "KmsKeyId": "arn:aws:kms:us-west-2:123456789012:key/K7MDENG/bPxRfiCYEXAMPLEKEY",
 8.     "ExportTaskIdentifier": "my-export",
 9.     "IamRoleArn": "arn:aws:iam::123456789012:role/export-to-s3",
10.     "TotalExtractedDataInGB": 0,
11.     "SourceArn": "arn:aws:rds:us-west-2:123456789012:cluster:export-example-1"
12. }
```

## API RDS
<a name="export-cluster-data.CancelAPI"></a>

Per annullare un'attività di esportazione utilizzando l'API Amazon RDS, usa l'operazione [CancelExportTask](https://docs.aws.amazon.com/AmazonRDS/latest/APIReference/API_CancelExportTask.html) con il parametro `ExportTaskIdentifier`.

# Risoluzione dei problemi delle esportazioni del cluster di database
<a name="export-cluster-data.Troubleshooting"></a>

Utilizza le seguenti sezioni per la risoluzione dei problemi relativi ai messaggi di errore e agli errori di autorizzazione PostgreSQL per le attività di esportazione di cluster di database in Amazon S3.

## Messaggi di errore per le attività di esportazione di Amazon S3
<a name="export-cluster-data.failure-msg"></a>

Nella tabella seguente vengono descritti i messaggi restituiti quando le attività di esportazione di Amazon S3 non riescono.


| Messaggio di errore | Descrizione | 
| --- | --- | 
| Impossibile trovare o accedere al cluster database di origine: [nome cluster] | Il cluster database di origine non può essere clonato. | 
| Si è verificato un errore interno sconosciuto. |  L'elaborazione della richiesta non è riuscita a causa di un errore, un'eccezione o un guasto interno sconosciuto.  | 
| Si è verificato un errore interno sconosciuto durante la scrittura dei metadati dell'attività di esportazione nel bucket S3 [nome bucket]. |  L'elaborazione della richiesta non è riuscita a causa di un errore, un'eccezione o un guasto interno sconosciuto.  | 
| L'esportazione RDS non è riuscita a scrivere i metadati dell'attività di esportazione perché non può assumere il ruolo IAM [ruolo ARN]. |  L'attività di esportazione assume il ruolo IAM per verificare se è consentito scrivere metadati nel bucket S3. Se l'attività non può assumere il ruolo IAM, non riesce.  | 
| L'esportazione RDS non è riuscita a scrivere i metadati dell'attività di esportazione nel bucket S3 [nome bucket] utilizzando il ruolo IAM [ruolo ARN] con la chiave KMS [ID chiave]. Codice di errore: [codice di errore] |  Mancano una o più autorizzazioni, quindi l'attività di esportazione non può accedere al bucket S3. Questo messaggio di errore viene generato quando si riceve uno dei seguenti codici di errore: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/AmazonRDS/latest/AuroraUserGuide/export-cluster-data.Troubleshooting.html) Questi codici di errore indicano che le impostazioni non sono configurate correttamente per il ruolo IAM, il bucket S3 o la chiave KMS.  | 
| Il ruolo IAM [ruolo ARN] non è autorizzato a chiamare [azione S3] sul bucket S3 [nome bucket]. Controlla le tue autorizzazioni e riprova l'esportazione. |  La policy IAM è configurata in modo errato. L'autorizzazione per l'azione S3 specifica sul bucket S3 è mancante e questa condizione causa l'esito negativo dell'attività di esportazione.  | 
| Controllo chiave KMS non riuscito. Controlla le credenziali sulla tua chiave KMS e riprova. | Controllo delle credenziali della chiave KMS non riuscito. | 
| Controllo delle credenziali S3 non riuscito. Controlla le autorizzazioni per il bucket S3 e la policy IAM. | Il controllo delle credenziali S3 non è riuscito. | 
| Il bucket S3 [nome bucket] non è valido. Non si trova nella corrente Regione AWS oppure non esiste. Esamina il nome del bucket S3 e riprova l'esportazione. | Bucket S3 non è valido. | 
| Il bucket S3 [nome bucket] non si trova nella corrente Regione AWS. Esamina il nome del bucket S3 e riprova l'esportazione. | Il bucket S3 è nella Regione AWS sbagliata. | 

## Risoluzione degli errori di autorizzazione PostgreSQL
<a name="export-cluster-data.postgres-permissions"></a>

Quando si esportano i database PostgreSQL in Simple Storage Service (Amazon S3), è possibile che venga visualizzato un errore `PERMISSIONS_DO_NOT_EXIST` che indica che alcune tabelle sono state ignorate. Questo errore si verifica in genere quando l'utente con privilegi avanzati che hai specificato durante la creazione del cluster database, non dispone delle autorizzazioni per accedere alle tabelle.

Per risolvere questo errore, eseguire il comando seguente:

```
GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA schema_name TO superuser_name
```

Per ulteriori informazioni sui privilegi utente con privilegi avanzati, vedere [Privilegi dell'account utente master](UsingWithRDS.MasterAccounts.md).