- Amazon Aurora

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Puoi importare i dati archiviati utilizzando Amazon Simple Storage Service in una tabella su un'istanza del cluster Aurora Postgre SQL DB un'istanza Postgre DB. SQL aws_s3 Questa estensione fornisce le funzioni utilizzate per importare i dati da un bucket Amazon S3. Un bucket è un container Amazon S3 per oggetti e file. I dati possono trovarsi in un file con valori separati da virgole (CSV), un file di testo o un file compresso (gzip). Di seguito, sono fornite informazioni su come installare l'estensione e come importare dati da Amazon S3 in una tabella.

Aurora Postger. SQL

Se Amazon S3 non contiene dati, occorre innanzitutto creare un bucket e archiviare i dati. Per ulteriori informazioni, consulta i seguenti argomenti nella Guida per l'utente di Servizio di archiviazione semplice Amazon.

È supportata l'importazione multiaccount da Amazon S3. Per ulteriori informazioni, consulta Concessione di autorizzazioni multiaccount nella Guida per l'utente di Amazon Simple Storage Service.

Puoi utilizzare la chiave gestita dal cliente per la crittografia durante l'importazione dei dati da S3. Per ulteriori informazioni, consulta KMSle chiavi memorizzate AWS KMS nella Guida per l'utente di Amazon Simple Storage Service.

Nota

L'importazione di dati da Amazon S3 non è supportata per Aurora Serverless v1. È supportata per Aurora Serverless v2.

Installazione dell'estensione aws_s3

Prima di poter utilizzare Amazon S3 con il cluster Aurora Postgre SQL DB, , devi installare l'estensione. aws_s3 Questa estensione fornisce funzioni per l'importazione dei dati da Amazon S3. Fornisce inoltre funzioni per esportare dati da un'istanza di un cluster Aurora Postgree DB e per un'istanza SQL Postgree DB . Per ulteriori informazioni, consulta Esportazione di dati da un . L'estensione aws_s3 dipende da alcune delle funzioni helper nell'estensione aws_commons, che vengono installate automaticamente quando necessario.

Per installare l'estensione aws_s3
  1. Usa psql (orpgAdmin) per connetterti all'istanza writer del tuo RDS cluster Aurora Postgre DB per l'istanza SQL Postgre DB . rds_superuser Se hai mantenuto il nome predefinito durante il processo di configurazione, esegui la connessione come postgres.

    psql --host=111122223333.aws-region.rds.amazonaws.com --port=5432 --username=postgres --password
  2. Per installare l'estensione, esegui il comando seguente.

    postgres=> CREATE EXTENSION aws_s3 CASCADE; NOTICE: installing required extension "aws_commons" CREATE EXTENSION
  3. Per verificare che l'estensione sia installata, puoi usare il metacomando psql \dx.

    postgres=> \dx List of installed extensions Name | Version | Schema | Description -------------+---------+------------+--------------------------------------------- aws_commons | 1.2 | public | Common data types across AWS services aws_s3 | 1.1 | public | AWS S3 extension for importing data from S3 plpgsql | 1.0 | pg_catalog | PL/pgSQL procedural language (3 rows)

Le funzioni per importare dati da Amazon S3 ed esportare dati in Amazon S3 sono ora disponibili per l'uso.

Panoramica dell'importazione di dati dai dati di Amazon S3

Raccogli innanzitutto i dettagli che devi fornire alla funzione. Questi includono il nome della tabella sull'istanza del cluster Aurora Postgre SQL DB, l'istanza RDS per Postgre SQL DB e il nome del il tipo di file e dove sono archiviati i dati di Regione AWS Amazon S3. Per ulteriori informazioni, consulta Visualizzazione di un oggetto nella Guida per l'utente di Servizio di archiviazione semplice Amazon.

Nota

L'importazione in più parti da Amazon S3 non è attualmente supportata.

  1. Otteni il nome della tabella in cui la funzione aws_s3.table_import_from_s3 deve importare dati. Il seguente comando, ad esempio, crea una tabella t1 che può essere utilizzata in fasi successive.

    postgres=> CREATE TABLE t1 (col1 varchar(80), col2 varchar(80), col3 varchar(80));
  2. Ottieni i dettagli relativi al bucket Amazon S3 e i dati da importare. A tale scopo, apri la console Amazon S3 all'indirizzo e scegli https://console.aws.amazon.com/s3/Bucket. Individua il bucket contenente i dati nell'elenco. Scegli il bucket, apri la pagina Object overview (Panoramica degli oggetti) e quindi scegli Properties (Proprietà).

    Prendi nota del nome, del percorso, del e del tipo di file del Regione AWS bucket. Avrai bisogno di Amazon Resource Name (ARN) in un secondo momento, per configurare l'accesso ad Amazon S3 tramite un IAM ruolo. Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Amazon S3. Un esempio è illustrato nell'immagine seguente.

    Immagine di un oggetto file in un bucket Amazon S3.
  3. Puoi verificare il percorso dei dati nel bucket Amazon S3 utilizzando il comando. AWS CLI aws s3 cp Se le informazioni sono corrette, questo comando scarica una copia del file Amazon S3.

    aws s3 cp s3://amzn-s3-demo-bucket/sample_file_path ./
  4. Configura le autorizzazioni sul tuo consentire l'accesso al file nel bucket Amazon S3. A tale scopo, puoi utilizzare un ruolo () o credenziali di sicurezza. AWS Identity and Access Management IAM Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Amazon S3.

  5. Fornisci il percorso e altri dettagli dell'oggetto Amazon S3 raccolti (vedi passaggio 2) alla create_s3_uri funzione per costruire un oggetto Amazon S3. URI Per ulteriori informazioni su questa funzione, consulta aws_commons.create_s3_uri. Di seguito è riportato un esempio di costruzione dell'oggetto durante una sessione psql.

    postgres=> SELECT aws_commons.create_s3_uri( 'docs-lab-store-for-rpg', 'versions_and_jdks_listing.csv', 'us-west-1' ) AS s3_uri \gset

    Nella fase seguente, si passa questo oggetto (aws_commons._s3_uri_1) alla funzione aws_s3.table_import_from_s3 per importare i dati nella tabella.

  6. Invoca la funzione aws_s3.table_import_from_s3 per importare dati da Amazon S3 nella tabella. Per informazioni di riferimento, consulta aws_s3.table_import_from_s3. Per alcuni esempi, consulta .

Configurazione dell'accesso a un bucket Amazon S3

Per importare dati da un file Amazon S3, concedi al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB Amazon S3 contenente il file. Puoi concedere l'accesso a un bucket Amazon S3 in uno dei due modi descritti negli argomenti seguenti.

Utilizzo di un IAM ruolo per accedere a un bucket Amazon S3

Prima di caricare i dati da un file Amazon S3, concedi al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB Amazon S3 in cui si trova il file. In questo modo non dovrai gestire ulteriori informazioni sulle credenziali né fornirle nella chiamata della funzione aws_s3.table_import_from_s3.

A tale scopo, crea una IAM policy che fornisca l'accesso al bucket Amazon S3. Crea un IAM ruolo e associa la policy al ruolo. Quindi assegna il IAM ruolo all' del cluster DB.

Nota

Non è possibile associare un IAM ruolo a un cluster Aurora Serverless v1 DB, quindi i seguenti passaggi non si applicano.

Fornire a un cluster Aurora Postgre SQL DB RDS per un'istanza Postgre DB SQL Amazon S3 tramite un ruolo IAM
  1. Crea IAM una policy.

    Questa policy fornisce le autorizzazioni per bucket e oggetti che consentono al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB .

    • s3:GetObject

    • s3:ListBucket

    Includere nella policy le seguenti risorse per identificare il bucket Amazon S3 e gli oggetti nel bucket. Questo mostra il formato Amazon Resource Name (ARN) per accedere ad Amazon S3.

    • arn:aws:s3:::amzn-s3-demo-bucket

    • arn:aws:s3:::amzn-s3-demo-bucket/*

    Per ulteriori informazioni sulla creazione di una IAM politica per Aurora Postgre SQL Postgre, vedere. SQL Creazione e utilizzo di una policy IAM per l'accesso al database IAM Vedi anche Tutorial: Crea e allega la tua prima politica gestita dai clienti nella Guida per l'utente. IAM

    Il AWS CLI comando seguente crea una IAM politica denominata rds-s3-import-policy con queste opzioni. Garantisce l'accesso a un bucket denominato amzn-s3-demo-bucket.

    Nota

    Prendi nota dell'Amazon Resource Name (ARN) della policy restituita da questo comando. Ti servirà ARN in un passaggio successivo quando associ la policy a un IAM ruolo.

    Esempio

    Per LinuxmacOS, oUnix:

    aws iam create-policy \ --policy-name rds-s3-import-policy \ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3import", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*" ] } ] }'

    Per Windows:

    aws iam create-policy ^ --policy-name rds-s3-import-policy ^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3import", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*" ] } ] }'
  2. Crea un IAM ruolo.

    Lo fai in modo che Aurora Postgre SQL RDS possa assumere IAM questo ruolo per accedere ai tuoi bucket Amazon S3. Per ulteriori informazioni, consulta Creazione di un ruolo per delegare le autorizzazioni a un utente nella Guida per l'utente. IAM IAM

    Si consiglia di utilizzare le chiavi di contesto delle condizioni globali aws:SourceArn e aws:SourceAccount nelle policy basate sulle risorse per limitare le autorizzazioni del servizio a una risorsa specifica. Questo è il modo più efficace per proteggersi dal problema di deputy confused.

    Se si utilizzano entrambe le chiavi di contesto delle condizioni globali e il valore aws:SourceArn contiene l'ID account, il valore aws:SourceAccount e l’account nel valore aws:SourceArn devono utilizzare lo stesso ID account quando viene utilizzato nella stessa dichiarazione di policy.

    • Utilizzare aws:SourceArn se si desidera un accesso cross-service per una singola risorsa.

    • Utilizzare aws:SourceAccount se si desidera consentire l'associazione di qualsiasi risorsa in tale account all'uso cross-service.

    Nella policy, assicurati di utilizzare la chiave di contesto della condizione aws:SourceArn globale con l'intera ARN risorsa. L'esempio seguente mostra come eseguire questa operazione utilizzando il AWS CLI comando per creare un ruolo denominatords-s3-import-role.

    Esempio

    Per LinuxmacOS, oUnix:

    aws iam create-role \ --role-name rds-s3-import-role \ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "111122223333", "aws:SourceArn": "arn:aws:rds:us-east-1:111122223333:cluster:clustername" } } } ] }'

    Per Windows:

    aws iam create-role ^ --role-name rds-s3-import-role ^ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "111122223333", "aws:SourceArn": "arn:aws:rds:us-east-1:111122223333:cluster:clustername" } } } ] }'
  3. Allega la IAM policy che hai creato al IAM ruolo che hai creato.

    Il AWS CLI comando seguente associa la politica creata nel passaggio precedente al ruolo denominato rds-s3-import-role Replace your-policy-arn con la politica ARN annotato in un passaggio precedente.

    Esempio

    Per LinuxmacOS, oUnix:

    aws iam attach-role-policy \ --policy-arn your-policy-arn \ --role-name rds-s3-import-role

    Per Windows:

    aws iam attach-role-policy ^ --policy-arn your-policy-arn ^ --role-name rds-s3-import-role
  4. Aggiungere il IAM ruolo all' del cluster DB.

    A tale scopo, utilizzare AWS Management Console o AWS CLI, come descritto di seguito.

Per aggiungere un IAM ruolo per un' del cluster Postgree SQL DB utilizzando la console
  1. Accedi a AWS Management Console e apri la RDS console Amazon all'indirizzo https://console.aws.amazon.com/rds/.

  2. Scegli il nome dell' del cluster Postgre SQL DB per visualizzarne i dettagli.

  3. In Feature (Caratteristica), scegliere s3Import.

  4. Scegliere Add role (Aggiungi ruolo).

Per aggiungere un IAM ruolo per un cluster Postgre SQL DB utilizzando il CLI
  • Usa il comando seguente per aggiungere il ruolo al cluster Postgre SQL DB denominato. my-db-cluster Replace (Sostituisci) your-role-arn con il ruolo ARN che hai annotato in un passaggio precedente. Utilizzare s3Import come valore dell'opzione --feature-name.

    Esempio

    Per LinuxmacOS, oUnix:

    aws rds add-role-to-db-cluster \ --db-cluster-identifier my-db-cluster \ --feature-name s3Import \ --role-arn your-role-arn \ --region your-region

    Per Windows:

    aws rds add-role-to-db-cluster ^ --db-cluster-identifier my-db-cluster ^ --feature-name s3Import ^ --role-arn your-role-arn ^ --region your-region

Per aggiungere un IAM ruolo per un' del cluster Postgre SQL DB utilizzando Amazon RDSAPI, chiama l'AddRoleToDBClusteroperazione.

Utilizzo delle credenziali di sicurezza per accedere a un bucket Amazon S3

Se preferisci, puoi utilizzare le credenziali di sicurezza per fornire l'accesso a un bucket Amazon S3 anziché fornire l'accesso con un ruolo. IAM A tale scopo, specifica il parametro credentials nella chiamata di funzione aws_s3.table_import_from_s3.

Il credentials parametro è una struttura di tipo che contiene le aws_commons._aws_credentials_1 credenziali. AWS Utilizzare la funzione aws_commons.create_aws_credentials per impostare la chiave di accesso e la chiave segreta in una struttura aws_commons._aws_credentials_1, come illustrato di seguito.

postgres=> SELECT aws_commons.create_aws_credentials( 'sample_access_key', 'sample_secret_key', '') AS creds \gset

Dopo aver creato la struttura aws_commons._aws_credentials_1 , utilizzare la funzione aws_s3.table_import_from_s3 con il parametro credentials per importare i dati, come illustrato di seguito.

postgres=> SELECT aws_s3.table_import_from_s3( 't', '', '(format csv)', :'s3_uri', :'creds' );

Oppure si può includere la chiamata inline di funzione aws_commons.create_aws_credentials all'interno della chiamata di funzione aws_s3.table_import_from_s3.

postgres=> SELECT aws_s3.table_import_from_s3( 't', '', '(format csv)', :'s3_uri', aws_commons.create_aws_credentials('sample_access_key', 'sample_secret_key', '') );

Risoluzione dei problemi di accesso a Amazon S3

Se riscontri problemi di connessione quanto tenti di importare i dati da Amazon S3, segui questi suggerimenti:

Importa i dati dal bucket Amazon S3 utilizzando la funzione table_import_from_s3 dell'estensione aws_s3. Per informazioni di riferimento, consulta aws_s3.table_import_from_s3.

Nota

Gli esempi seguenti utilizzano il metodo IAM role per consentire l'accesso al bucket Amazon S3. Pertanto, le chiamate della funzione aws_s3.table_import_from_s3 non includono parametri di credenziali.

Di seguito viene illustrato un tipico esempio.

postgres=> SELECT aws_s3.table_import_from_s3( 't1', '', '(format csv)', :'s3_uri' );

I parametri sono i seguenti:

  • t1— Il nome della tabella nell' del cluster Postgre SQL DB in cui copiare i dati.

  • '' – Un elenco opzionale di colonne nella tabella di database. Questo parametro può essere utilizzato per indicare quali colonne di dati S3 vanno in quali colonne della tabella. Se non viene specificata alcuna colonna, tutte le colonne vengono copiate nella tabella. Per un esempio di utilizzo di un elenco di colonne, consulta Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato.

  • (format csv)— Argomenti SQL COPY Postgre. Il processo di copia utilizza gli argomenti e il formato del SQL COPY comando Postgre per importare i dati. Le scelte per il formato includono il valore separato da virgole (CSV), come mostrato in questo esempio, text e binary. Il valore predefinito è testo.

  • s3_uri – Una struttura contenente le informazioni che identificano il file Amazon S3. Per un esempio di utilizzo della funzione aws_commons.create_s3_uri per creare una struttura s3_uri, consulta Panoramica dell'importazione di dati dai dati di Amazon S3.

Per ulteriori informazioni su questa funzione, consulta aws_s3.table_import_from_s3.

La funzione restituisce aws_s3.table_import_from_s3. Per specificare altri tipi di file da importare da un bucket Amazon S3, consulta uno dei seguenti esempi.

Nota

L'importazione di un file da 0 byte genererà un errore.

Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato

Il seguente esempio mostra come importare un file che utilizza un delimitatore personalizzato. Mostra anche come controllare dove inserire i dati nella tabella di database utilizzando il parametro column_list della funzione aws_s3.table_import_from_s3.

In questo esempio si presuppone che le seguenti informazioni siano organizzate in colonne delimitate da pipe nel file Amazon S3.

1|foo1|bar1|elephant1 2|foo2|bar2|elephant2 3|foo3|bar3|elephant3 4|foo4|bar4|elephant4 ...
Per importare un file che utilizza un delimitatore personalizzato
  1. Creare una tabella nel database per i dati importati.

    postgres=> CREATE TABLE test (a text, b text, c text, d text, e text);
  2. Utilizzare il seguente formato della funzione aws_s3.table_import_from_s3 per importare i dati dal file Amazon S3.

    Si può includere la chiamata inline di funzione aws_commons.create_s3_uri all'interno della chiamata di funzione aws_s3.table_import_from_s3 per specificare il file.

    postgres=> SELECT aws_s3.table_import_from_s3( 'test', 'a,b,d,e', 'DELIMITER ''|''', aws_commons.create_s3_uri('amzn-s3-demo-bucket', 'pipeDelimitedSampleFile', 'us-east-2') );

I dati sono ora nella tabella nelle seguenti colonne.

postgres=> SELECT * FROM test; a | b | c | d | e ---+------+---+---+------+----------- 1 | foo1 | | bar1 | elephant1 2 | foo2 | | bar2 | elephant2 3 | foo3 | | bar3 | elephant3 4 | foo4 | | bar4 | elephant4

Importazione di un file compresso (gzip) Amazon S3

Il seguente esempio mostra come importare da Amazon S3 un file compresso con gzip. Il file importato deve avere i seguenti metadati Amazon S3:

  • Chiave: Content-Encoding

  • Valore: gzip

Se caricate il file utilizzando il AWS Management Console, i metadati vengono in genere applicati dal sistema. Per informazioni sul caricamento di file su Amazon S3 utilizzando AWS Management Console la, la, o AWS CLI la, consulta Uploading API objects nella Amazon Simple Storage Service User Guide.

Per ulteriori informazioni sui metadati di Amazon S3 e i dettagli sui metadati forniti dal sistema, consulta la sezione Modifica dei metadati degli oggetti nella console Amazon S3 nella Guida per l'utente di Amazon Simple Storage Service.

Importa il file gzip nel .

postgres=> CREATE TABLE test_gzip(id int, a text, b text, c text, d text); postgres=> SELECT aws_s3.table_import_from_s3( 'test_gzip', '', '(format csv)', 'amzn-s3-demo-bucket', 'test-data.gz', 'us-east-2' );

Importazione di un file Amazon S3 codificato

Il seguente esempio mostra come importare da Amazon S3 un file codificato con Windows-1252

postgres=> SELECT aws_s3.table_import_from_s3( 'test_table', '', 'encoding ''WIN1252''', aws_commons.create_s3_uri('amzn-s3-demo-bucket', 'SampleFile', 'us-east-2') );

Informazioni di riferimento sulle funzioni

aws_s3.table_import_from_s3

L'estensione aws_s3 fornisce la funzione aws_s3.table_import_from_s3. Il valore restituito è testo.

Sintassi

I parametri richiesti sono table_name, column_list e options. Identificano la tabella di database e specificano il modo in cui i dati vengono copiati nella tabella

Puoi inoltre utilizzare i seguenti parametri:

  • Il parametro s3_info specifica il file Amazon S3 da importare.

    aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, s3_info aws_commons._s3_uri_1 )
  • Il parametro credentials specifica le credenziali per accedere a Amazon S3. Quando si utilizza questo parametro, non si utilizza alcun ruolo. IAM

    aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, s3_info aws_commons._s3_uri_1, credentials aws_commons._aws_credentials_1 )

Parametri

table_name

Una stringa di testo obbligatoria contenente il nome della tabella del SQL database Postgre in cui importare i dati.

column_list

Una stringa di testo obbligatoria contenente un elenco opzionale delle colonne della tabella del SQL database Postgre in cui copiare i dati. Se la stringa è vuota, vengono utilizzate tutte le colonne della tabella. Per un esempio, consulta Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato.

options

Una stringa di testo obbligatoria contenente argomenti per il comando SQL COPY Postgre. Questi argomenti specificano come i dati devono essere copiati nella tabella Postgre. SQL Per maggiori dettagli, consulta la documentazione di Postgre. SQL COPY

s3_info

Un tipo composito aws_commons._s3_uri_1 contenente le seguenti informazioni sull'oggetto S3:

  • bucket – Il nome del bucket Amazon S3 contenente il file.

  • file_path – Il nome file di Amazon S3, incluso il percorso.

  • region— La AWS regione in cui si trova il file. Per un elenco dei nomi delle AWS regioni e dei valori associati, vedereRegioni e zone di disponibilità.

credenziali

Un tipo composito aws_commons._aws_credentials_1 contenente le seguenti credenziali da utilizzare per l'operazione di importazione:

  • Chiave di accesso

  • Chiave segreta

  • Token di sessione

Per informazioni sulla creazione di una struttura composita aws_commons._aws_credentials_1, consulta aws_commons.create_aws_credentials.

Sintassi alternativa

Per un aiuto nei test, si può utilizzare un set più ampio di parametri al posto dei parametri s3_info e credentials. Di seguito vengono riportate le variazioni di sintassi aggiuntive per la funzione aws_s3.table_import_from_s3.

  • Invece di utilizzare il parametro s3_info per identificare un file Amazon S3, utilizzare la combinazione dei parametri bucket, file_path e region. Con questa forma di funzione, l'accesso ad Amazon S3 è fornito da un IAM ruolo sull'istanza DB di SQL Postgre.

    aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, bucket text, file_path text, region text )
  • Invece di utilizzare il parametro credentials per specificare l'accesso a Amazon S3, utilizzare la combinazione dei parametri access_key, session_key e session_token.

    aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, bucket text, file_path text, region text, access_key text, secret_key text, session_token text )

Parametri alternativi

bucket

Una stringa di testo contenente il nome del bucket Amazon S3 che contiene il file

file_path

Una stringa di testo contenente il nome file di Amazon S3, incluso il percorso.

Regione

Una stringa di testo che identifica la Regione AWS posizione del file. Per un elenco dei Regione AWS nomi e dei valori associati, vedereRegioni e zone di disponibilità.

chiave_accesso

Una stringa di testo contenente la chiave di accesso da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.

secret_key

Una stringa di testo contenente la chiave segreta da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.

session_token

(Opzionale) Una stringa di testo contenente la chiave di sessione da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.

aws_commons.create_s3_uri

Crea una struttura aws_commons._s3_uri_1 per conservare le informazioni relative al file Amazon S3. Si utilizzano i risultati della funzione aws_commons.create_s3_uri nel parametro s3_info della funzione aws_s3.table_import_from_s3.

Sintassi

aws_commons.create_s3_uri( bucket text, file_path text, region text )

Parametri

bucket

Una stringa di testo obbligatoria contenente il nome del bucket Amazon S3 del file.

file_path

Una stringa di testo obbligatoria contenente il nome file di Amazon S3, incluso il percorso.

Regione

Una stringa di testo obbligatoria Regione AWS contenente il file in cui si trova. Per un elenco dei Regione AWS nomi e dei valori associati, vedereRegioni e zone di disponibilità.

aws_commons.create_aws_credentials

Imposta una chiave di accesso e una chiave segreta in una struttura aws_commons._aws_credentials_1. Si utilizzano i risultati della funzione aws_commons.create_aws_credentials nel parametro credentials della funzione aws_s3.table_import_from_s3.

Sintassi

aws_commons.create_aws_credentials( access_key text, secret_key text, session_token text )

Parametri

chiave_accesso

Una stringa di testo obbligatoria contenente la chiave di accesso da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL.

secret_key

Una stringa di testo obbligatoria contenente la chiave segreta da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL.

session_token

Una stringa di testo opzionale contenente il token di sessione da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL. Se si fornisce un session_token opzionale, è possibile utilizzare credenziali temporanee.