Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow - Amazon Redshift

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Laden von Daten aus einer lokalen Datei – Einrichtung und Workflow

Sie können Daten aus einer lokalen Datei in eine vorhandene oder neue Tabelle laden.

Einrichtung durch den Administrator für das Laden von Daten aus einer lokalen Datei

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster Account settings (Kontoeinstellungen) angeben. Die Kontobenutzer müssen mit den richtigen Berechtigungen konfiguriert werden.

  • Erforderliche IAM Berechtigungen — Die Benutzer von Load from local file müssen über die s3:deleteObject Berechtigungen s3:ListBuckets3:GetBucketLocation,s3:putObject,s3:getObject, und verfügen. Das Tool optional-prefix kann angegeben werden, um die Verwendung dieses Buckets im Zusammenhang mit dem Abfrage-Editor v2 auf Objekte mit diesem Präfix zu beschränken. Diese Option könnten Sie verwenden, wenn Sie denselben Amazon-S3-Bucket auch für andere Zwecke als den Abfrage-Editor v2 verwenden. Weitere Informationen zu Buckets und Präfixen finden Sie unter Verwalten des Benutzerzugriffs auf bestimmte Ordner im Benutzerhandbuch zu Amazon Simple Storage Service. Um sicherzustellen, dass kein benutzerübergreifender Datenzugriff zulässig ist, empfehlen wir dem Administrator für Query Editor v2, eine Amazon-S3-Bucket-Richtlinie zu verwenden, um den Objektzugriff auf der Grundlage von aws:userid einzuschränken. Das folgende Beispiel ermöglicht Amazon S3 S3-Berechtigungen für <staging-bucket-name> mit Lese-/Schreibzugriff nur auf Amazon S3 S3-Objekte mit dem aws:userid als Präfix.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:ListBucket", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::<staging-bucket-name>" ] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": [ "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*" ] } ] }
  • Datentrennung: Die Benutzer sollten keinen Zugriff auf die Daten der anderen Benutzer haben (auch nicht kurzzeitig). Beim Laden aus einer lokalen Datei wird der Amazon-S3-Staging-Bucket verwendet, der vom Administrator für den Abfrage-Editor v2 eingerichtet wurde. Konfigurieren Sie die Bucket-Richtlinie für den Staging-Bucket, um für eine Datentrennung zwischen Benutzern zu sorgen. Das folgende Beispiel zeigt eine Bucket-Richtlinie, die Daten zwischen Benutzern des <staging-bucket-name>.

    { "Version": "2012-10-17", "Statement": [ {"Sid": "userIdPolicy", "Effect": "Deny", "Principal": "*", "Action": ["s3:PutObject", "s3:GetObject", "s3:DeleteObject"], "NotResource": [ "arn:aws:s3:::<staging-bucket-name>[/<optional-prefix>]/${aws:userid}/*" ] } ] }

Laden von Daten aus einer lokalen Datei

So laden Sie Daten aus einer lokalen Datei in eine vorhandene Tabelle

Ihr Abfrage-Editor v2-Administrator muss den gemeinsamen Amazon S3 S3-Bucket im Fenster mit den Kontoeinstellungen angeben. Der Abfrage-Editor v2 lädt die lokale Datei automatisch in einen gemeinsamen Amazon S3 S3-Bucket hoch, der von Ihrem Konto verwendet wird, und verwendet dann den COPY Befehl, um Daten zu laden. Der COPY Befehl, der vom Fenster zum Laden lokaler Dateien im Abfrage-Editor v2 generiert und ausgeführt wird, unterstützt viele der Parameter, die für die COPY Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Informationen zu dem COPY Befehl und seinen Optionen, die zum Laden von Daten aus Amazon S3 verwendet werden, finden Sie unter COPYVon Amazon S3 im Amazon Redshift Database Developer Guide.

  1. Vergewissern Sie sich, dass die Tabelle bereits in der Datenbank erstellt wurde, in die Sie Daten laden möchten.

  2. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

  3. Wählen Sie LoadLoad data (Daten laden) aus.

  4. Wählen Sie für Data source (Datenquelle) die Option Load from local file (Aus lokaler Datei laden) aus.

  5. Wählen Sie Durchsuchen aus, um nach der Datei zu suchen, die die Daten für Datei laden enthält. Standardmäßig werden Dateien mit der Erweiterung .csv, .avro, .parquet und .orc angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

  6. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSVJSON,DELIMITER,FIXEDWIDTH,SHAPEFILE, AVROPARQUET, undORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Daten sind verschlüsselt auswählen, wenn die Daten verschlüsselt sind, und den Amazon-Ressourcennamen (ARN) des KMS Schlüssels eingeben, der zur Verschlüsselung der Daten verwendet wurde.

    Wenn Sie CSV oder wählenDELIMITER, können Sie auch das Trennzeichen wählen und festlegen, ob Kopfzeilen ignoriert werden sollen, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  7. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  8. Wählen Sie Weiter.

  9. Wählen Sie Bestehende Tabelle laden aus.

  10. Bestätigen oder wählen Sie den Standort der Zieltabelle (Target table), einschließlich Cluster oder Arbeitsgruppe, Datenbank, Schema und Name der Tabelle, in die die Daten geladen werden.

  11. (Optional) Sie können Spaltennamen auswählen, um sie in das Feld Column mapping (Spaltenzuordnung) einzugeben, damit die Spalten in der Reihenfolge der Eingabedatendatei zugeordnet werden.

  12. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie SQL nun Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, fragen Sie die Systemansicht STL _ LOAD _ abERRORS, um weitere Informationen zu erhalten. Informationen zu COPY Befehlsfehlern finden Sie unter STL_ LOAD _ ERRORS im Amazon Redshift Database Developer Guide.

    Die COPY Befehlsvorlage, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf angezeigt. Diese COPY Befehlsvorlage zeigt einige der verwendeten Parameter, sie kann jedoch nicht direkt in einer Editor-Registerkarte ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter Abfrage- und Registerkarten-Verlauf anzeigen.

Wenn Sie Daten in eine neue Tabelle laden, erstellt Query Editor v2 zuerst die Tabelle in der Datenbank und lädt die Daten dann als separate Aktionen in demselben Workflow.

So laden Sie Daten aus einer lokalen Datei in eine neue Tabelle

Ihr Administrator für den Abfrage-Editor v2 muss den gemeinsamen Amazon-S3-Bucket im Fenster Account settings (Kontoeinstellungen) angeben. Die lokale Datei wird automatisch in einen gemeinsamen Amazon S3 S3-Bucket hochgeladen, der von Ihrem Konto verwendet wird. Anschließend wird der COPY Befehl vom Abfrage-Editor v2 zum Laden von Daten verwendet. Der COPY Befehl, der vom Fenster zum Laden lokaler Dateien im Abfrage-Editor v2 generiert und ausgeführt wird, unterstützt viele der Parameter, die für die COPY Befehlssyntax zum Kopieren aus Amazon S3 verfügbar sind. Informationen zu dem COPY Befehl und seinen Optionen, die zum Laden von Daten aus Amazon S3 verwendet werden, finden Sie unter COPYVon Amazon S3 im Amazon Redshift Database Developer Guide.

  1. Vergewissern Sie sich in der Strukturansicht des Abfrageeditors v2, dass Sie mit der Zieldatenbank verbunden sind. Sie können über das Kontextmenü (rechte Maustaste) eine Verbindung zu dem Cluster oder der Arbeitsgruppe herstellen, in den/die die Daten geladen werden.

  2. Wählen Sie LoadLoad data (Daten laden) aus.

  3. Wählen Sie für Data source (Datenquelle) die Option Load from local file (Aus lokaler Datei laden) aus.

  4. Wählen Sie Durchsuchen aus, um nach der Datei zu suchen, die die Daten für Datei laden enthält. Standardmäßig werden Dateien mit der Erweiterung .csv, .avro, .parquet und .orc angezeigt, Sie können jedoch auch andere Dateitypen auswählen. Die maximale -Dateigröße ist 100 MB.

  5. Wählen Sie das File format (Dateiformat) für die hochzuladende Datei. Die unterstützten Datenformate sind CSVJSON,DELIMITER,FIXEDWIDTH,SHAPEFILE, AVROPARQUET, undORC. Abhängig vom angegebenen Dateiformat können Sie die jeweiligen File options (Dateioptionen) auswählen. Sie können auch Daten sind verschlüsselt auswählen, wenn die Daten verschlüsselt sind, und den Amazon-Ressourcennamen (ARN) des KMS Schlüssels eingeben, der zur Verschlüsselung der Daten verwendet wurde.

    Wenn Sie CSV oder wählenDELIMITER, können Sie auch das Trennzeichen wählen und festlegen, ob Kopfzeilen ignoriert werden sollen, wenn es sich bei der angegebenen Anzahl von Zeilen tatsächlich um Spaltennamen und nicht um zu ladende Daten handelt.

  6. (Optional) In den Advanced settings (erweiterten Einstellungen) finden Sie verschiedene Data conversion parameters (Datenkonvertierungsparameter) und Load operations (Ladeoperationen). Geben Sie diese Informationen nach Bedarf für Ihre Datei ein.

    Weitere Informationen zu Datenkonvertierung und Datenladeparametern finden Sie unter Data conversion parameters (Datenkonvertierungsparameter) und Data load operations (Datenladeoperationen) im Amazon Redshift Database Developer Guide (Datenbankleitfaden zu Amazon Redshift).

  7. Wählen Sie Weiter.

  8. Wählen Sie Neue Tabelle laden aus.

  9. Bestätigen oder wählen Sie den Standort der Zieltabelle, einschließlich Cluster oder Arbeitsgruppe, Datenbank und Schema, in die die Daten geladen werden. Geben Sie einen Namen für die zu erstellende Tabelle ein.

  10. Wählen Sie Tabelle erstellen aus, um die Tabelle unter Verwendung der angezeigten Definition zu erstellen.

    Eine Zusammenfassung der Tabellendefinition zur Überprüfung wird angezeigt. Die Tabelle wird in der Datenbank erstellt. Führen Sie einen Befehl aus, um die Tabelle später zu löschen. DROP TABLE SQL Weitere Informationen finden Sie DROPTABLEim Amazon Redshift Database Developer Guide.

  11. Wählen Sie Load data (Daten laden), um das Laden der Daten zu starten.

    Wenn der Ladevorgang abgeschlossen ist, wird eine Nachricht mit der Mitteilung angezeigt, ob der Ladevorgang erfolgreich war oder nicht. Bei Erfolg können Sie SQL nun Daten aus der geladenen Tabelle auswählen. Wenn ein Fehler auftritt, fragen Sie die Systemansicht STL _ LOAD _ abERRORS, um weitere Informationen zu erhalten. Informationen zu COPY Befehlsfehlern finden Sie unter STL_ LOAD _ ERRORS im Amazon Redshift Database Developer Guide.

    Die COPY Befehlsvorlage, die zum Laden von Daten verwendet wurde, wird in Ihrem Abfrageverlauf angezeigt. Diese COPY Befehlsvorlage zeigt einige der verwendeten Parameter, sie kann jedoch nicht direkt in einer Editor-Registerkarte ausgeführt werden. Weitere Informationen zum Abfrageverlauf finden Sie unter Abfrage- und Registerkarten-Verlauf anzeigen.