

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Qual è il AWS Schema Conversion Tool?
<a name="CHAP_Welcome"></a>

È possibile utilizzare AWS Schema Conversion Tool (AWS SCT) per convertire lo schema del database esistente da un motore di database a un altro. Puoi convertire lo schema OLTP relazionale o lo schema del data warehouse. Lo schema convertito è adatto per Amazon Relational Database Service (Amazon RDS) MySQL, MariaDB, Oracle, SQL Server, database PostgreSQL, cluster Amazon Aurora DB o cluster Amazon Redshift. Lo schema convertito può essere utilizzato anche con un database su un' EC2 istanza Amazon o archiviato come dati su un bucket Amazon S3.

AWS SCT supporta diversi standard di settore, tra cui Federal Information Processing Standards (FIPS), per le connessioni a un bucket Amazon S3 o a un'altra risorsa. AWS AWS SCT è inoltre conforme al Federal Risk and Authorization Management Program (FedRAMP). Per i dettagli AWS e gli sforzi di conformità, consulta la sezione [AWS Servizi rientranti nell'](https://aws.amazon.com/compliance/services-in-scope/)ambito del programma di conformità.

AWS SCT supporta le seguenti conversioni OLTP. 


****  

| Database di origine | Database di destinazione | 
| --- | --- | 
| IBM Db2 per z/OS (versione 12) |  Edizione compatibile con Amazon Aurora MySQL (Aurora MySQL), edizione compatibile con Amazon Aurora PostgreSQL (Aurora PostgreSQL), MySQL, PostgreSQL  Per ulteriori informazioni, consulta [Connessione a IBM for z/OS DB2 ](CHAP_Source.DB2zOS.md).   | 
|  IBM Db2 LUW (versioni 9.1, 9.5, 9.7, 10.5, 11.1 e 11.5)  |  Aurora MySQL, Aurora PostgreSQL, MariaDB, MySQL, PostgreSQL  Per ulteriori informazioni, consulta [database IBM Db2 LUW](CHAP_Source.DB2LUW.md).   | 
| Database SQL di Microsoft Azure |  Aurora MySQL, Aurora PostgreSQL, MySQL, PostgreSQL  Per ulteriori informazioni, consulta [Connessione ad Azure SQL](CHAP_Source.AzureSQL.md).   | 
|  Microsoft SQL Server (versione 2008 R2, 2012, 2014, 2016, 2017, 2019 e 2022)  |  Aurora MySQL, Aurora PostgreSQL, Babelfish per Aurora PostgreSQL (solo per i report di valutazione), MariaDB, Microsoft SQL Server, MySQL, PostgreSQL   Per ulteriori informazioni, consulta [Database SQL Server](CHAP_Source.SQLServer.md).   | 
|  MySQL (versione 5.5 e successive)  |  Aurora PostgreSQL, MySQL, PostgreSQL  Per ulteriori informazioni, consulta [Utilizzo di MySQL come origine](CHAP_Source.MySQL.md).  È possibile migrare schemi e dati da MySQL a un cluster Aurora MySQL DB senza utilizzarli. AWS SCT Per ulteriori informazioni, consulta [Migrazione dei dati in un cluster Amazon Aurora DB](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.Migrate.html).   | 
|  Oracle (versione 10.1 e successive)  |   Aurora MySQL, Aurora PostgreSQL, MariaDB, MySQL, Oracle, PostgreSQL   Per ulteriori informazioni, consulta [I database Oracle](CHAP_Source.Oracle.md).   | 
|  PostgreSQL (versione 9.1 e successive)  |  Aurora MySQL, Aurora PostgreSQL, MySQL, PostgreSQL  Per ulteriori informazioni, consulta [Database PostgreSQL](CHAP_Source.PostgreSQL.md).   | 
| SAP ASE (versioni 12.5.4, 15.0.2, 15.5, 15.7 e 16.0) |   Aurora MySQL, Aurora PostgreSQL, MariaDB, MySQL, PostgreSQL   Per ulteriori informazioni, consulta [Database SAP](CHAP_Source.SAP.md).   | 

AWS SCT supporta le seguenti conversioni di data warehouse. 


****  

| Data warehouse di origine | Data warehouse di destinazione | 
| --- | --- | 
|  Amazon Redshift  |  Amazon Redshift  Per ulteriori informazioni, consulta [Amazon Redshift](CHAP_Source.Redshift.md).   | 
|  Analisi di Azure Synapse  |  Amazon Redshift  Per ulteriori informazioni, consulta [Azure Synapse Analytics come fonte](CHAP_Source.AzureSynapse.md).   | 
|  BigQuery  |  Amazon Redshift  Per ulteriori informazioni, consulta [BigQuery come fonte](CHAP_Source.BigQuery.md).   | 
|  Database Greenplum (versioni 4.3 e 6.21)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Database Greenplum](CHAP_Source.Greenplum.md).   | 
|  Microsoft SQL Server (versione 2008 e successive)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Data Warehouse SQL Server](CHAP_Source.SQLServerDW.md).   | 
|  Netezza (versione 7.0.3 e successive)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Database Netezza](CHAP_Source.Netezza.md).   | 
|  Oracle (versione 10.1 e successive)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Data warehouse Oracle](CHAP_Source.OracleDW.md).   | 
|  Snowflake (versione 3)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Snowflake](CHAP_Source.Snowflake.md).   | 
|  Teradata (versione 13 e successive)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Database Teradata](CHAP_Source.Teradata.md).   | 
|  Vertica (versione 7.2.2 e successive)  |  Amazon Redshift  Per ulteriori informazioni, consulta [Database Vertica](CHAP_Source.Vertica.md).   | 

AWS SCT supporta le seguenti conversioni di database NoSQL di dati. 


****  

| Database di origine | Database di destinazione | 
| --- | --- | 
|  Apache Cassandra (versioni 2.1.x, 2.2.16 e 3.11.x)  |  Amazon DynamoDB  Per ulteriori informazioni, consulta [Connessione ad Apache Cassandra](CHAP_Source.Cassandra.md).   | 

AWS SCT supporta le conversioni dei seguenti processi di estrazione, trasformazione e caricamento (ETL). Per ulteriori informazioni, consulta [Conversione di dati mediante ETL](CHAP-converting-etl.md). 


****  

| Origine | Target | 
| --- | --- | 
| script ETL di Informatica | Informatica | 
| Pacchetti ETL di Microsoft SQL Server Integration Services (SSIS) | AWS Glue oppure AWS Glue Studio | 
| Script di shell con comandi incorporati da Teradata Basic Teradata Query (BTEQ)  | RSQL Amazon Redshift | 
| Script Teradata BTEQ ETL | AWS Glue o Amazon Redshift RSQL | 
| script di lavoro FastExport Teradata | RSQL Amazon Redshift | 
| Script di lavoro Teradata FastLoad  | RSQL Amazon Redshift | 
| Script di lavoro Teradata MultiLoad  | RSQL Amazon Redshift | 

AWS SCT supporta le seguenti migrazioni di framework per big data. Per ulteriori informazioni, consulta [Migrazione di framework per big data](CHAP-migrating-big-data.md). 


****  

| Origine | Target | 
| --- | --- | 
|  Apache Hive (versione 0.13.0 e successive)  |  Hive su Amazon EMR  | 
|  Apache HDFS  |  Amazon S3 o HDFS su Amazon EMR  | 
|  Apache Oozie  |  AWS Step Functions  | 

## Panoramica sulla conversione dello schema
<a name="CHAP_Welcome.Overview"></a>

AWS SCT fornisce un'interfaccia utente basata su progetti per convertire automaticamente lo schema del database di origine in un formato compatibile con l'istanza Amazon RDS di destinazione. Se lo schema del database di origine non può essere convertito automaticamente, AWS SCT fornisce indicazioni su come creare uno schema equivalente nel database Amazon RDS di destinazione. 

Per informazioni su come installare AWS SCT, consulta[Installazione e configurazione AWS Schema Conversion Tool](CHAP_Installing.md). 

Per un'introduzione all'interfaccia AWS SCT utente, vedere[Navigazione nell'interfaccia utente di AWS SCT](CHAP_UserInterface.md). 

Per informazioni sul processo di conversione, consulta [Conversione degli schemi di database in AWS Schema Conversion Tool](CHAP_Converting.md). 

Oltre a convertire lo schema di database esistente da un motore di database a un altro, AWS SCT offre alcune funzionalità aggiuntive che consentono di spostare dati e applicazioni sul AWS cloud: 
+ Puoi utilizzare agenti di estrazione dati per estrarre dati dal tuo data warehouse e prepararti alla migrazione su Amazon Redshift. Per gestire gli agenti di estrazione dei dati, puoi usare AWS SCT. Per ulteriori informazioni, consulta [Migrazione dei dati dal data warehouse locale ad Amazon Redshift con AWS Schema Conversion Tool](agents.md). 
+ Puoi utilizzarlo AWS SCT per creare AWS DMS endpoint e attività. È possibile eseguire e monitorare queste attività da AWS SCT. Per ulteriori informazioni, consulta [Integrazione con AWS Database Migration Service AWS Schema Conversion Tool](CHAP_DMSIntegration.md). 
+ In alcuni casi, le funzionalità del database non possono essere convertite in funzionalità equivalenti di Amazon RDS o Amazon Redshift. La procedura guidata per i pacchetti di AWS SCT estensione può aiutarti a installare AWS Lambda funzioni e librerie Python per emulare le funzionalità che non possono essere convertite. Per ulteriori informazioni, consulta [Utilizzo dei pacchetti di estensione con AWS Schema Conversion Tool](CHAP_ExtensionPack.md). 
+ Puoi utilizzarlo AWS SCT per ottimizzare il tuo database Amazon Redshift esistente. AWS SCT consiglia chiavi di ordinamento e chiavi di distribuzione per ottimizzare il database. Per ulteriori informazioni, consulta [Conversione di dati da Amazon Redshift tramite AWS Schema Conversion Tool](CHAP_Converting.DW.RedshiftOpt.md). 
+ Puoi usarlo AWS SCT per copiare lo schema del database locale esistente su un'istanza database Amazon RDS che esegue lo stesso motore. Puoi utilizzare questa caratteristica per analizzare il potenziale risparmio sui costi del passaggio al cloud e della modifica del tipo di licenza. 
+ Puoi utilizzare AWS SCT per convertire SQL in codice C\$1\$1, C\$1, Java o altro tipo di codice dell'applicazione. Puoi visualizzare, analizzare, modificare e salvare il codice SQL convertito. Per ulteriori informazioni, consulta [Conversione del codice SQL dell'applicazione utilizzando AWS SCT](CHAP_Converting.App.md). 
+ Puoi utilizzarlo AWS SCT per migrare i processi di estrazione, trasformazione e caricamento (ETL). Per ulteriori informazioni, consulta [Conversione di dati utilizzando processi ETL in AWS Schema Conversion Tool](CHAP-converting-etl.md). 

## Fornire un feedback
<a name="CHAP_Welcome.Feedback"></a>

Puoi fornire feedback su AWS SCT. Puoi inviare una segnalazione di bug, inviare una richiesta di funzionalità o fornire informazioni generali.

**Per fornire feedback su AWS SCT**

1. Avvia il AWS Schema Conversion Tool.

1. Apri il menu **Help** (Aiuto) e quindi scegli **Leave Feedback** (Lascia un feedback). Viene visualizzata la finestra di dialogo **Leave Feedback** (Lascia feedback). 

1. Per **Area** (Area), scegli **Information** (Informazioni), **Bug report** (Report sui bug) o **Feature request** (Richiesta di funzionalità). 

1. Per **Source database** (Database di origine), scegli il tuo database di origine. Scegli **Any** (Qualsiasi) se il feedback non si riferisce a un database specifico. 

1. Per **Target database** (Database di destinazione), scegli il tuo database di destinazione. Scegli **Any** (Qualsiasi) se il feedback non si riferisce a un database specifico. 

1. Per **Title** (Titolo), digita un titolo per il tuo feedback. 

1. Per **Message** (Messaggio), digita il tuo feedback. 

1. Scegli **Send** (Invia) per inviare il tuo feedback. 