

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verbindung zu einem Snowflake-Data Warehouse herstellen mit AWS Schema Conversion Tool
<a name="CHAP_Source.Snowflake"></a>

Sie können AWS SCT es verwenden, um Schemas, Codeobjekte und Anwendungscode von Snowflake nach Amazon Redshift zu konvertieren.

## Rechte für Snowflake als Quelldatenbank
<a name="CHAP_Source.Snowflake.Permissions"></a>

Sie können eine Rolle mit Rechten erstellen und dieser Rolle den Namen eines Benutzers zuweisen, indem Sie die `SECURITYADMIN` Rolle und den `SECURITYADMIN` Sitzungskontext verwenden.

Das folgende Beispiel erstellt minimale Rechte und gewährt sie dem `min_privs` Benutzer. 

```
create role role_name;
grant role role_name to role sysadmin;
grant usage on database db_name to role role_name;
grant usage on schema db_name.schema_name to role role_name;             
grant usage on warehouse datawarehouse_name to role role_name;
grant monitor on database db_name to role role_name;
grant monitor on warehouse datawarehouse_name to role role_name;
grant select on all tables in schema db_name.schema_name to role role_name;
grant select on future tables in schema db_name.schema_name to role role_name;
grant select on all views in schema db_name.schema_name to role role_name;
grant select on future views in schema db_name.schema_name to role role_name;
grant select on all external tables in schema db_name.schema_name to role role_name;
grant select on future external tables in schema db_name.schema_name to role role_name;
grant usage on all sequences in schema db_name.schema_name to role role_name;
grant usage on future sequences in schema db_name.schema_name to role role_name;
grant usage on all functions in schema db_name.schema_name to role role_name;
grant usage on future functions in schema db_name.schema_name to role role_name;
grant usage on all procedures in schema db_name.schema_name to role role_name;
grant usage on future procedures in schema db_name.schema_name to role role_name;
create user min_privs password='real_user_password'  
DEFAULT_ROLE = role_name DEFAULT_WAREHOUSE = 'datawarehouse_name';
grant role role_name to user min_privs;
```

Ersetzen Sie im vorherigen Beispiel die Platzhalter wie folgt:
+ *`role_name`*Ersetzen Sie ihn durch den Namen einer Rolle mit schreibgeschützten Rechten.
+ Durch `db_name` den Namen der Quelldatenbank ersetzen.
+ `schema_name`Ersetzen Sie durch den Namen des Quellschemas.
+ *`datawarehousename`*Ersetzen Sie es durch den Namen eines erforderlichen Data Warehouse.
+ `min_privs`Ersetzen Sie es durch den Namen eines Benutzers mit minimalen Rechten.

Die `DEFAULT_WAREHOUSE` Parameter `DEFAULT_ROLE` und sind schlüsselabhängig.

## Konfiguration des sicheren Zugriffs auf Amazon S3
<a name="CHAP_Source.Snowflake.IAM"></a>

Sicherheits- und Zugriffsverwaltungsrichtlinien für einen Amazon S3 S3-Bucket ermöglichen Snowflake den Zugriff auf den S3-Bucket, das Lesen von Daten und das Schreiben von Daten in den S3-Bucket. Sie können den sicheren Zugriff auf einen privaten Amazon S3 S3-Bucket mithilfe des `STORAGE INTEGRATION` Snowflake-Objekttyps konfigurieren. Ein Snowflake-Speicherintegrationsobjekt delegiert die Verantwortung für die Authentifizierung an eine Snowflake-Identitäts- und Zugriffsverwaltungseinheit.

Weitere Informationen finden Sie unter [Konfiguration einer Snowflake-Speicherintegration für den Zugriff auf Amazon S3](https://docs.snowflake.com/en/user-guide/data-load-s3-config-storage-integration.html) in der Snowflake-Dokumentation.

## Verbindung zu Snowflake als Quelle herstellen
<a name="CHAP_Source.Snowflake.Connecting"></a>

Gehen Sie wie folgt vor, um mit dem eine Verbindung zu Ihrer Quelldatenbank herzustellen. AWS Schema Conversion Tool

**So stellen Sie eine Verbindung zu einer Snowflake-Quelldatenbank her**

1. Wählen Sie in der die Option AWS Schema Conversion Tool Quelle **hinzufügen** aus. 

1. **Wählen Sie **Snowflake** und dann Weiter.** 

   Das Dialogfeld „**Quelle hinzufügen**“ wird angezeigt.

1. Geben Sie **unter Verbindungsname** einen Namen für Ihre Datenbank ein. AWS SCT zeigt diesen Namen in der Baumstruktur im linken Bereich an. 

1. Verwenden Sie die Datenbankanmeldedaten von AWS Secrets Manager oder geben Sie sie manuell ein:
   + Gehen Sie wie folgt vor, um Datenbankanmeldedaten von Secrets Manager zu verwenden:

     1. Wählen Sie für **AWS Secret** den Namen des Secrets aus.

     1. Wählen Sie **Auffüllen**, um alle Werte im Datenbankverbindungsdialogfeld von Secrets Manager automatisch auszufüllen.

     Hinweise zur Verwendung von Datenbankanmeldedaten von Secrets Manager finden Sie unter[Konfiguration AWS Secrets Manager in der AWS Schema Conversion Tool](CHAP_UserInterface.SecretsManager.md).
   + Gehen Sie wie folgt vor, um die Verbindungsinformationen für das Snowflake-Quell-Data Warehouse manuell einzugeben:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/SchemaConversionTool/latest/userguide/CHAP_Source.Snowflake.html)

1. Wählen Sie **Verbindung testen**, um zu überprüfen, ob eine Verbindung zu Ihrer Quelldatenbank hergestellt werden AWS SCT kann. 

1. Wählen Sie **Connect**, um eine Verbindung zu Ihrer Quelldatenbank herzustellen.

## Einschränkungen für Snowflake als Quelle
<a name="CHAP_Source.Snowflake.Limitations"></a>

Im Folgenden finden Sie Einschränkungen bei der Verwendung von Snowflake als Quelle für: AWS SCT
+ Objektkennungen müssen im Kontext des Objekttyps und des übergeordneten Objekts eindeutig sein:  
**Datenbank**  
Schema-IDs müssen innerhalb einer Datenbank eindeutig sein.  
**Schemata**  
Objektbezeichner, z. B. für Tabellen und Ansichten, müssen innerhalb eines Schemas eindeutig sein.  
**Tabellen/Ansichten**  
Spaltenbezeichner müssen innerhalb einer Tabelle eindeutig sein.
+ Die maximale Anzahl von Tabellen für große und extragroße Cluster-Knotentypen beträgt 9.900. Bei Cluster-Knotentypen vom Typ 8xlarge beträgt die maximale Anzahl von Tabellen 100.000. Das Limit umfasst temporäre Tabellen, sowohl benutzerdefinierte Tabellen als auch Tabellen, die von Amazon Redshift während der Abfrageverarbeitung oder Systemwartung erstellt wurden. Weitere Informationen finden Sie unter [Amazon Redshift quotas](https://docs.aws.amazon.com/redshift/latest/mgmt/amazon-redshift-limits.html) (Amazon-Redshift-Kontingente) im *Amazon-Redshift-Clusterverwaltungshandbuch*.
+ Für gespeicherte Prozeduren beträgt die maximale Anzahl von Eingabe- und Ausgabeargumenten 32.

## Quelldatentypen für Snowflake
<a name="CHAP_Source.Snowflake.DataTypes"></a>

Im Folgenden finden Sie die Snowflake-Quelldatentypen, die bei der Verwendung unterstützt werden, AWS SCT und die Standardzuordnung zu einem Amazon Redshift Redshift-Ziel.


| Snowflake-Datentypen | Amazon-Redshift-Datentypen | 
| --- | --- | 
|  NUMBER  |  NUMERISCH (38)  | 
|  NUMBER(p)  |  Wenn p =< 4 ist, dann SMALLINT Wenn p => 5 und =< 9 ist, dann INTEGER Wenn p => 10 und =< 18 ist, dann BIGINT Wenn p => 19 ist, dann NUMERIC (p)   | 
|  ZAHL (p, 0)  |  Wenn p =< 4 ist, dann SMALLINT Wenn p => 5 und =< 9 ist, dann INTEGER Wenn p => 10 und =< 18 ist, dann BIGINT Wenn p => 19 ist, dann: NUMERIC (p,0)  | 
|  ZAHL (p, s)  |  Wenn p => 1 und =< 38 ist und wenn s => 1 und =< 37 ist, dann NUMERIC (p,s)   | 
|  FLOAT  | FLOAT | 
|  TEXT Unicode-Zeichen bis zu 16.777.216 Byte; bis zu 4 Byte pro Zeichen.  |  VARCHAR(MAX)  | 
|  TEXT (p) Unicode-Zeichen bis zu 65.535 Byte; bis zu 4 Byte pro Zeichen.  |  Wenn p =< 65.535 ist, dann ist VARCHAR (p)  | 
|  TEXT (p) Unicode-Zeichen bis zu 16.777.216 Byte; bis zu 4 Byte pro Zeichen.  |  Wenn p => 65.535 und =< 16.777.216 ist, dann ist VARCHAR (MAX)  | 
|  BINARY Einzelbyte-Zeichen bis zu 8.388.608 Byte; 1 Byte pro Zeichen.  | VARCHAR(MAX) | 
|  BINÄR (p) Einzelbyte-Zeichen bis zu 65.535 Byte; 1 Byte pro Zeichen.  | VARCHAR (p) | 
|  BINÄR (p) Einzelbyte-Zeichen bis zu 8.388.608 Byte; 1 Byte pro Zeichen.  | VARCHAR(MAX) | 
|  BOOLEAN  | BOOLEAN | 
|  DATE  | DATE | 
|  TIME Zeitwerte zwischen 00:00:00 und 23:59:59.999 999999.  | VARCHAR(18) | 
|  ZEIT (f) Zeitwerte zwischen 00:00:00 und 23:59:59.9 (f).   | VARCHAR (n) — 9 \$1 dt-attr-1 | 
|  TIMESTAMP\$1NTZ  | TIMESTAMP (ZEITSTEMPEL) | 
|  ZEITSTEMPEL\$1TZ  | TIMESTAMPTZ | 

## Einstellungen für die Konvertierung von Snowflake nach Amazon Redshift
<a name="CHAP_Source.Snowflake.ConversionSettings"></a>

**Um die Konvertierungseinstellungen von Snowflake nach Amazon Redshift zu bearbeiten, wählen Sie **Einstellungen** in AWS SCT und dann Konvertierungseinstellungen aus.** Wählen Sie in der oberen Liste **Snowflake** und dann **Snowflake — Amazon Redshift** aus. AWS SCT zeigt alle verfügbaren Einstellungen für die Konvertierung von Snowflake zu Amazon Redshift an.

Die Konvertierungseinstellungen von Snowflake zu Amazon Redshift AWS SCT enthalten Optionen für Folgendes:
+ Um die Anzahl der Kommentare mit Aktionselementen im konvertierten Code zu begrenzen.

  Wählen **Sie für Hinzufügen von Kommentaren zum konvertierten Code für Aktionselemente mit ausgewähltem Schweregrad und höherem** Schweregrad den Schweregrad der Aktionspunkte aus. AWS SCT fügt dem konvertierten Code Kommentare für Aktionspunkte mit dem ausgewählten Schweregrad und höher hinzu.

  Beispiel: Um die Anzahl der Kommentare im konvertierten Code zu minimieren, wählen Sie **Nur Fehler** aus. Um Kommentare zu allen Aktionselementen in den konvertierten Code aufzunehmen, wählen Sie **Alle Nachrichten** aus.
+ Um die maximale Anzahl von Tabellen festzulegen, die für Ihren Amazon Redshift Redshift-Zielcluster gelten AWS SCT können.

  Wählen Sie **unter Die maximale Anzahl von Tabellen für den Amazon Redshift Redshift-Zielcluster** die Anzahl der Tabellen aus, die für Ihren Amazon Redshift Redshift-Cluster gelten AWS SCT können.

  Amazon Redshift verfügt über Kontingente, die die Verwendungstabellen für verschiedene Cluster-Knotentypen einschränken. Wenn Sie **Auto** wählen, AWS SCT bestimmt die Anzahl der Tabellen, die auf Ihren Amazon Redshift Redshift-Zielcluster angewendet werden sollen, je nach Knotentyp. Wählen Sie den Wert optional manuell aus. Weitere Informationen finden Sie unter [Kontingente und Limits in Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/amazon-redshift-limits.html) im *Verwaltungshandbuch zu Amazon Redshift*.

  AWS SCT konvertiert all Ihre Quelltabellen, auch wenn das mehr ist, als Ihr Amazon Redshift Redshift-Cluster speichern kann. AWS SCT speichert den konvertierten Code in Ihrem Projekt und wendet ihn nicht auf die Zieldatenbank an. Wenn Sie beim Anwenden des konvertierten Codes das Amazon Redshift Redshift-Clusterkontingent für die Tabellen erreichen, wird eine Warnmeldung AWS SCT angezeigt. AWS SCT Wendet außerdem Tabellen auf Ihren Amazon Redshift Redshift-Zielcluster an, bis die Anzahl der Tabellen das Limit erreicht.
+ Um die Komprimierung auf Amazon Redshift Redshift-Tabellenspalten anzuwenden. Wählen Sie dazu **Kompressionskodierung verwenden** aus.

  AWS SCT weist Spalten mithilfe des standardmäßigen Amazon Redshift Redshift-Algorithmus automatisch eine Komprimierungskodierung zu. Weitere Informationen finden Sie unter [Kompressionskodierungen](https://docs.aws.amazon.com/redshift/latest/dg/c_Compression_encodings.html) im *Amazon Redshift Database Developer Guide*.

  Standardmäßig wendet Amazon Redshift keine Komprimierung auf Spalten an, die als Sortier- und Verteilungsschlüssel definiert sind. Sie können dieses Verhalten ändern und die Komprimierung auf diese Spalten anwenden. Wählen Sie dazu die Option **Komprimierungskodierung für KEY-Spalten verwenden** aus. Sie können diese Option nur auswählen, wenn Sie die Option **Komprimierungskodierung verwenden** auswählen.

## Einstellungen für die Optimierung der Konvertierung von Snowflake zu Amazon Redshift
<a name="CHAP_Source.Snowflake.ConversionOptimizationSettings"></a>

**Um die Einstellungen für die Konversionsoptimierung von Snowflake zu Amazon Redshift zu bearbeiten, wählen Sie **Einstellungen** in AWS SCT und dann Konvertierungseinstellungen aus.** Wählen Sie in der oberen Liste **Snowflake** und dann **Snowflake — Amazon Redshift** aus. **Wählen Sie im linken Bereich Optimierungsstrategien aus.** AWS SCT zeigt Einstellungen zur Konvertierungsoptimierung für die Konvertierung von Snowflake zu Amazon Redshift an.

Die Einstellungen zur Optimierung der Konvertierung von Snowflake zu Amazon Redshift AWS SCT beinhalten Optionen für Folgendes:
+ Um mit der automatischen Tabellenoptimierung zu arbeiten. Wählen Sie dazu **Automatische Tabellenoptimierung von Amazon Redshift verwenden** aus.

  Die automatische Tabellenoptimierung ist ein sich selbst optimierender Prozess in Amazon Redshift, der das Design von Tabellen automatisch optimiert. Weitere Informationen finden Sie unter [Arbeiten mit automatischer Tabellenoptimierung](https://docs.aws.amazon.com/redshift/latest/dg/t_Creating_tables.html) im *Amazon Redshift Database Developer Guide*.

  Wenn Sie sich nur auf die automatische Tabellenoptimierung verlassen möchten, wählen Sie „**Keine**“ als **Strategie für die anfängliche Schlüsselauswahl**.
+ Um Sortier- und Verteilungsschlüssel anhand Ihrer Strategie auszuwählen.

  Sie können Sortier- und Verteilungsschlüssel mithilfe von Amazon Redshift Redshift-Metadaten, statistischen Informationen oder beiden Optionen auswählen. Wählen Sie für **Strategie zur ersten Schlüsselauswahl** auf der Registerkarte **Optimierungsstrategien** eine der folgenden Optionen:
  + Verwenden Sie Metadaten, ignorieren Sie statistische Informationen
  + Ignorieren Sie Metadaten, verwenden Sie statistische Informationen
  + Verwenden Sie Metadaten und statistische Informationen

  Je nachdem, welche Option Sie wählen, können Sie Optimierungsstrategien auswählen. Geben Sie dann für jede Strategie den Wert (0—100) ein. Diese Werte definieren das Gewicht jeder Strategie. Anhand dieser Gewichtungswerte AWS SCT wird definiert, wie sich jede Regel auf die Wahl der Verteilungs- und Sortierschlüssel auswirkt. Die Standardwerte basieren auf den bewährten Methoden für die AWS Migration.

  Sie können die Größe kleiner Tabellen für die Strategie „**Kleine Tabellen suchen**“ definieren. Geben Sie für **Min. Tabellenzeilenanzahl** und **Max. Tabellenzeilenanzahl** die Mindest- und Höchstanzahl von Zeilen in einer Tabelle ein, um sie als kleine Tabelle zu definieren. AWS SCT wendet den `ALL` Verteilungsstil auf kleine Tabellen an. In diesem Fall wird eine Kopie der gesamten Tabelle an jeden Knoten verteilt.
+ Um Strategiedetails zu konfigurieren.

  Sie können nicht nur die Gewichtung für jede Optimierungsstrategie definieren, sondern auch die Optimierungseinstellungen konfigurieren. Wählen Sie dazu **Konversionsoptimierung** aus. 
  + Geben Sie unter **Limit für Sortierschlüsselspalten** die maximale Anzahl von Spalten im Sortierschlüssel ein.
  + Geben Sie für **Schrägschwellenwert** den Prozentsatz (0—100) eines schiefen Werts für eine Spalte ein. AWS SCT schließt Spalten, bei denen der Schrägwert größer als der Schwellenwert ist, aus der Kandidatenliste für den Verteilungsschlüssel aus. AWS SCT definiert den schiefen Wert für eine Spalte als das prozentuale Verhältnis der Anzahl der Vorkommen des am häufigsten vorkommenden Werts zur Gesamtzahl der Datensätze.
  + Geben Sie für die **Top N-Abfragen aus der Tabelle mit dem Abfrageverlauf** die Anzahl (1—100) der am häufigsten zu analysierenden Abfragen ein.
  + **Wählen Sie unter Statistikbenutzer** auswählen den Datenbankbenutzer aus, für den Sie die Abfragestatistiken analysieren möchten.

  Außerdem können Sie auf der Registerkarte **Optimierungsstrategien** die Größe kleiner Tabellen für die Strategie „**Kleine Tabellen suchen**“ definieren. Geben Sie für **Min. Tabellenzeilenanzahl** und **Max. Tabellenzeilenanzahl** die Mindest- und Höchstanzahl von Zeilen in einer Tabelle ein, um sie als kleine Tabelle zu betrachten. AWS SCT wendet den `ALL` Verteilungsstil auf kleine Tabellen an. In diesem Fall wird eine Kopie der gesamten Tabelle an jeden Knoten verteilt.