Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Fehlerbehebung Aurora-Zero-Integrationen mit Amazon Redshift
Sie können den Status einer ETL Zero-Integration überprüfen, indem Sie die INTEGRATION Systemtabelle SVV_ in Amazon Redshift abfragen. Wenn die Spalte state
den Wert ErrorState
aufweist, bedeutet das, dass ein Fehler vorliegt. Weitere Informationen finden Sie unter Überwachen von Integrationen mithilfe von Systemtabellen.
Verwenden Sie die folgenden Informationen, um häufig auftretende Probleme mit Aurora Zero ETL Integrations with Amazon Redshift zu beheben.
Themen
- Ich kann keine Null-Integration erstellen ETL
- Meine Integration steckt in einem Zustand von Syncing
- Meine Tabellen werden nicht auf Amazon Redshift repliziert
- Eine oder mehrere meiner Amazon-Redshift-Tabellen erfordern eine erneute Synchronisation
- DDLÄnderungen werden in Amazon Redshift vorgenommen, bevor die DDL Transaktion für Aurora Postgre abgeschlossen ist SQL
Ich kann keine Null-Integration erstellen ETL
Wenn Sie keine ETL Nullintegration erstellen können, stellen Sie sicher, dass die folgenden Angaben für Ihre Quelldatenbank korrekt sind:
-
In Ihrer Quelldatenbank muss eine unterstützte DB-Engine-Version ausgeführt werden. Eine Liste der unterstützten Versionen finden Sie unter Unterstützte Regionen und Aurora-DB-Engines ohne ETL Integrationen mit Amazon Redshift.
-
Sie haben die DB-Parameter korrekt konfiguriert. Wenn die erforderlichen Parameter falsch gesetzt oder nicht mit der Datenbank verknüpft sind, schlägt die Erstellung fehl. Siehe Schritt 1: Erstellen einer benutzerdefinierten DB-Cluster-Parametergruppe.
Stellen Sie außerdem Folgendes für Ihr Ziel-Data-Warehouse sicher:
-
Die Unterscheidung zwischen Groß- und Kleinschreibung ist aktiviert. Siehe Aktivieren der Unterscheidung zwischen Groß- und Kleinschreibung für Ihr Data Warehouse.
-
Sie haben den richtigen autorisierten Prinzipal und die richtige Integrationsquelle hinzugefügt. Weitere Informationen finden Sie unter Autorisierung für Ihr Amazon Redshift Data Warehouse konfigurieren.
-
Das Data Warehouse ist verschlüsselt (wenn es sich um einen bereitgestellten Cluster handelt). Siehe Amazon Redshift Redshift-Datenbankverschlüsselung.
Meine Integration steckt in einem Zustand von Syncing
Ihre Integration zeigt möglicherweise durchgängig den Status an, Syncing
wenn Sie den Wert eines der erforderlichen DB-Parameter ändern.
Um dieses Problem zu beheben, überprüfen Sie die Werte der Parameter in der Parametergruppe, die dem zugeordnet ist, und stellen Sie sicher, dass sie den erforderlichen Werten entsprechen. Weitere Informationen finden Sie unter Schritt 1: Erstellen einer benutzerdefinierten DB-Cluster-Parametergruppe.
Wenn Sie Parameter ändern, stellen Sie sicher, dass Sie den neu starten, um die Änderungen zu übernehmen.
Meine Tabellen werden nicht auf Amazon Redshift repliziert
Wenn Sie eine oder mehrere Tabellen nicht in Amazon Redshift sehen, können Sie den folgenden Befehl ausführen, um sie erneut zu synchronisieren:
ALTER DATABASE
dbname
INTEGRATION REFRESH TABLEStable1
,table2
;
Weitere Informationen finden Sie ALTERDATABASEin der Amazon Redshift SQL Redshift-Referenz.
Ihre Daten werden möglicherweise nicht repliziert, weil eine oder mehrere Ihrer Quelltabellen keinen Primärschlüssel haben. Das Monitoring-Dashboard in Amazon Redshift zeigt den Status dieser Tabellen als anFailed
, und der Status der gesamten ETL Zero-Integration ändert sich aufNeeds attention
. Um dieses Problem zu lösen, können Sie einen vorhandenen Schlüssel in Ihrer Tabelle identifizieren, der zu einem Primärschlüssel werden kann, oder Sie können einen synthetischen Primärschlüssel hinzufügen. Ausführliche Lösungen finden Sie unter . die folgenden Ressourcen:
Eine oder mehrere meiner Amazon-Redshift-Tabellen erfordern eine erneute Synchronisation
Wenn Sie bestimmte Befehle in Ihrer Quelldatenbank ausführen, müssen Ihre Tabellen möglicherweise erneut synchronisiert werden. In diesen Fällen wird in der STATE Systemansicht SVVINTEGRATIONTABLE_ _ _ ein table_state
von angezeigtResyncRequired
, was bedeutet, dass die Integration die Daten für diese spezifische Tabelle vollständig von My SQL nach Amazon Redshift neu laden muss.
Wenn die Tabelle mit der erneuten Synchronisation beginnt, wechselt sie in den Status Syncing
. Sie müssen keine manuellen Maßnahmen ergreifen, um eine Tabelle erneut zu synchronisieren. Während die Tabellendaten erneut synchronisiert werden, können Sie in Amazon Redshift nicht darauf zugreifen.
Im Folgenden finden Sie einige Beispieloperationen, mit denen eine Tabelle in den Status ResyncRequired
versetzt werden kann, sowie mögliche Alternativen, die Sie in Betracht ziehen sollten.
Operation | Beispiel | Alternative |
---|---|---|
Hinzufügen einer Spalte an einer bestimmten Position |
|
Amazon Redshift unterstützt nicht das Hinzufügen von Spalten an bestimmten Positionen mithilfe der Schlüsselwörter first oder after . Wenn die Reihenfolge der Spalten in der Zieltabelle nicht wichtig ist, fügen Sie die Spalte mit einem einfacheren Befehl am Ende der Tabelle hinzu:
|
Hinzufügen einer Zeitstempelspalte mit dem Standardwert CURRENT_TIMESTAMP |
|
Der CURRENT_TIMESTAMP Wert für bestehende Tabellenzeilen wird von berechnet SQL und kann in Amazon Redshift ohne vollständige Resynchronisierung der Tabellendaten nicht simuliert werden. Wenn möglich, ändern Sie den Standardwert in eine Literalkonstante wie |
Ausführen mehrerer Spaltenoperationen innerhalb eines einzigen Befehls |
|
Überlegen Sie, ob Sie den Befehl in zwei separate Operationen, ADD und RENAME , aufteilen sollten, die keine erneute Synchronisation erfordern. |
DDLÄnderungen werden in Amazon Redshift vorgenommen, bevor die DDL Transaktion für Aurora Postgre abgeschlossen ist SQL
DDLÄnderungen können in Amazon Redshift auftreten, bevor ein DDL Vorgang in Aurora Postgre SQL Zero Integrations abgeschlossen ist. ETL Weitere Informationen finden Sie unter DDLOperationen für Aurora Postgre SQL.