Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Puoi importare i dati archiviati utilizzando Amazon Simple Storage Service in una tabella su un'istanza del cluster Aurora Postgre SQL DB un'istanza Postgre DB. SQL aws_s3
Questa estensione fornisce le funzioni utilizzate per importare i dati da un bucket Amazon S3. Un bucket è un container Amazon S3 per oggetti e file. I dati possono trovarsi in un file con valori separati da virgole (CSV), un file di testo o un file compresso (gzip). Di seguito, sono fornite informazioni su come installare l'estensione e come importare dati da Amazon S3 in una tabella.
Aurora Postger. SQL
Se Amazon S3 non contiene dati, occorre innanzitutto creare un bucket e archiviare i dati. Per ulteriori informazioni, consulta i seguenti argomenti nella Guida per l'utente di Servizio di archiviazione semplice Amazon.
È supportata l'importazione multiaccount da Amazon S3. Per ulteriori informazioni, consulta Concessione di autorizzazioni multiaccount nella Guida per l'utente di Amazon Simple Storage Service.
Puoi utilizzare la chiave gestita dal cliente per la crittografia durante l'importazione dei dati da S3. Per ulteriori informazioni, consulta KMSle chiavi memorizzate AWS KMS nella Guida per l'utente di Amazon Simple Storage Service.
Nota
L'importazione di dati da Amazon S3 non è supportata per Aurora Serverless v1. È supportata per Aurora Serverless v2.
Argomenti
Installazione dell'estensione aws_s3
Prima di poter utilizzare Amazon S3 con il cluster Aurora Postgre SQL DB, , devi installare l'estensione. aws_s3
Questa estensione fornisce funzioni per l'importazione dei dati da Amazon S3. Fornisce inoltre funzioni per esportare dati da un'istanza di un cluster Aurora Postgree DB e per un'istanza SQL Postgree DB . Per ulteriori informazioni, consulta Esportazione di dati da un . L'estensione aws_s3
dipende da alcune delle funzioni helper nell'estensione aws_commons
, che vengono installate automaticamente quando necessario.
Per installare l'estensione aws_s3
Usa psql (orpgAdmin) per connetterti all'istanza writer del tuo RDS cluster Aurora Postgre DB per l'istanza SQL Postgre DB .
rds_superuser
Se hai mantenuto il nome predefinito durante il processo di configurazione, esegui la connessione comepostgres
.psql --host=
111122223333
.aws-region
.rds.amazonaws.com --port=5432 --username=postgres --passwordPer installare l'estensione, esegui il comando seguente.
postgres=>
CREATE EXTENSION aws_s3 CASCADE;NOTICE: installing required extension "aws_commons" CREATE EXTENSION
Per verificare che l'estensione sia installata, puoi usare il metacomando psql
\dx
.postgres=>
\dxList of installed extensions Name | Version | Schema | Description -------------+---------+------------+--------------------------------------------- aws_commons | 1.2 | public | Common data types across AWS services aws_s3 | 1.1 | public | AWS S3 extension for importing data from S3 plpgsql | 1.0 | pg_catalog | PL/pgSQL procedural language (3 rows)
Le funzioni per importare dati da Amazon S3 ed esportare dati in Amazon S3 sono ora disponibili per l'uso.
Panoramica dell'importazione di dati dai dati di Amazon S3
Raccogli innanzitutto i dettagli che devi fornire alla funzione. Questi includono il nome della tabella sull'istanza del cluster Aurora Postgre SQL DB, l'istanza RDS per Postgre SQL DB e il nome del il tipo di file e dove sono archiviati i dati di Regione AWS Amazon S3. Per ulteriori informazioni, consulta Visualizzazione di un oggetto nella Guida per l'utente di Servizio di archiviazione semplice Amazon.
Nota
L'importazione in più parti da Amazon S3 non è attualmente supportata.
Otteni il nome della tabella in cui la funzione
aws_s3.table_import_from_s3
deve importare dati. Il seguente comando, ad esempio, crea una tabellat1
che può essere utilizzata in fasi successive.postgres=>
CREATE TABLE t1 (col1 varchar(80), col2 varchar(80), col3 varchar(80));Ottieni i dettagli relativi al bucket Amazon S3 e i dati da importare. A tale scopo, apri la console Amazon S3 all'indirizzo e scegli https://console.aws.amazon.com/s3/
Bucket. Individua il bucket contenente i dati nell'elenco. Scegli il bucket, apri la pagina Object overview (Panoramica degli oggetti) e quindi scegli Properties (Proprietà). Prendi nota del nome, del percorso, del e del tipo di file del Regione AWS bucket. Avrai bisogno di Amazon Resource Name (ARN) in un secondo momento, per configurare l'accesso ad Amazon S3 tramite un IAM ruolo. Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Amazon S3. Un esempio è illustrato nell'immagine seguente.
Puoi verificare il percorso dei dati nel bucket Amazon S3 utilizzando il comando. AWS CLI
aws s3 cp
Se le informazioni sono corrette, questo comando scarica una copia del file Amazon S3.aws s3 cp s3://
amzn-s3-demo-bucket
/sample_file_path
./-
Configura le autorizzazioni sul tuo consentire l'accesso al file nel bucket Amazon S3. A tale scopo, puoi utilizzare un ruolo () o credenziali di sicurezza. AWS Identity and Access Management IAM Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Amazon S3.
Fornisci il percorso e altri dettagli dell'oggetto Amazon S3 raccolti (vedi passaggio 2) alla
create_s3_uri
funzione per costruire un oggetto Amazon S3. URI Per ulteriori informazioni su questa funzione, consulta aws_commons.create_s3_uri. Di seguito è riportato un esempio di costruzione dell'oggetto durante una sessione psql.postgres=>
SELECT aws_commons.create_s3_uri( 'docs-lab-store-for-rpg', 'versions_and_jdks_listing.csv', 'us-west-1' ) AS s3_uri \gsetNella fase seguente, si passa questo oggetto (
aws_commons._s3_uri_1
) alla funzioneaws_s3.table_import_from_s3
per importare i dati nella tabella.-
Invoca la funzione
aws_s3.table_import_from_s3
per importare dati da Amazon S3 nella tabella. Per informazioni di riferimento, consulta aws_s3.table_import_from_s3. Per alcuni esempi, consulta .
Configurazione dell'accesso a un bucket Amazon S3
Per importare dati da un file Amazon S3, concedi al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB Amazon S3 contenente il file. Puoi concedere l'accesso a un bucket Amazon S3 in uno dei due modi descritti negli argomenti seguenti.
Argomenti
Utilizzo di un IAM ruolo per accedere a un bucket Amazon S3
Prima di caricare i dati da un file Amazon S3, concedi al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB Amazon S3 in cui si trova il file. In questo modo non dovrai gestire ulteriori informazioni sulle credenziali né fornirle nella chiamata della funzione aws_s3.table_import_from_s3.
A tale scopo, crea una IAM policy che fornisca l'accesso al bucket Amazon S3. Crea un IAM ruolo e associa la policy al ruolo. Quindi assegna il IAM ruolo all' del cluster DB.
Nota
Non è possibile associare un IAM ruolo a un cluster Aurora Serverless v1 DB, quindi i seguenti passaggi non si applicano.
Fornire a un cluster Aurora Postgre SQL DB RDS per un'istanza Postgre DB SQL Amazon S3 tramite un ruolo IAM
-
Crea IAM una policy.
Questa policy fornisce le autorizzazioni per bucket e oggetti che consentono al cluster Aurora Postgre DB RDS per l'istanza Postgre SQL DB .
-
s3:GetObject
-
s3:ListBucket
Includere nella policy le seguenti risorse per identificare il bucket Amazon S3 e gli oggetti nel bucket. Questo mostra il formato Amazon Resource Name (ARN) per accedere ad Amazon S3.
-
arn:aws:s3:::
amzn-s3-demo-bucket
-
arn:aws:s3:::
amzn-s3-demo-bucket
/*
Per ulteriori informazioni sulla creazione di una IAM politica per Aurora Postgre SQL Postgre, vedere. SQL Creazione e utilizzo di una policy IAM per l'accesso al database IAM Vedi anche Tutorial: Crea e allega la tua prima politica gestita dai clienti nella Guida per l'utente. IAM
Il AWS CLI comando seguente crea una IAM politica denominata
rds-s3-import-policy
con queste opzioni. Garantisce l'accesso a un bucket denominatoamzn-s3-demo-bucket
.Nota
Prendi nota dell'Amazon Resource Name (ARN) della policy restituita da questo comando. Ti servirà ARN in un passaggio successivo quando associ la policy a un IAM ruolo.
Esempio
Per LinuxmacOS, oUnix:
aws iam create-policy \ --policy-name rds-s3-import-policy \ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3import", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::
amzn-s3-demo-bucket
", "arn:aws:s3:::amzn-s3-demo-bucket
/*" ] } ] }'Per Windows:
aws iam create-policy ^ --policy-name rds-s3-import-policy ^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3import", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::
amzn-s3-demo-bucket
", "arn:aws:s3:::amzn-s3-demo-bucket
/*" ] } ] }' -
-
Crea un IAM ruolo.
Lo fai in modo che Aurora Postgre SQL RDS possa assumere IAM questo ruolo per accedere ai tuoi bucket Amazon S3. Per ulteriori informazioni, consulta Creazione di un ruolo per delegare le autorizzazioni a un utente nella Guida per l'utente. IAM IAM
Si consiglia di utilizzare le chiavi di contesto delle condizioni globali
aws:SourceArn
eaws:SourceAccount
nelle policy basate sulle risorse per limitare le autorizzazioni del servizio a una risorsa specifica. Questo è il modo più efficace per proteggersi dal problema di deputy confused.Se si utilizzano entrambe le chiavi di contesto delle condizioni globali e il valore
aws:SourceArn
contiene l'ID account, il valoreaws:SourceAccount
e l’account nel valoreaws:SourceArn
devono utilizzare lo stesso ID account quando viene utilizzato nella stessa dichiarazione di policy.Utilizzare
aws:SourceArn
se si desidera un accesso cross-service per una singola risorsa.-
Utilizzare
aws:SourceAccount
se si desidera consentire l'associazione di qualsiasi risorsa in tale account all'uso cross-service.
Nella policy, assicurati di utilizzare la chiave di contesto della condizione
aws:SourceArn
globale con l'intera ARN risorsa. L'esempio seguente mostra come eseguire questa operazione utilizzando il AWS CLI comando per creare un ruolo denominatords-s3-import-role
.Esempio
Per LinuxmacOS, oUnix:
aws iam create-role \ --role-name rds-s3-import-role \ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "
111122223333
", "aws:SourceArn": "arn:aws:rds:us-east-1:111122223333:cluster:clustername
" } } } ] }'Per Windows:
aws iam create-role ^ --role-name rds-s3-import-role ^ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "
111122223333
", "aws:SourceArn": "arn:aws:rds:us-east-1:111122223333:cluster:clustername
" } } } ] }' -
Allega la IAM policy che hai creato al IAM ruolo che hai creato.
Il AWS CLI comando seguente associa la politica creata nel passaggio precedente al ruolo denominato
rds-s3-import-role
Replace
con la politica ARN annotato in un passaggio precedente.your-policy-arn
Esempio
Per LinuxmacOS, oUnix:
aws iam attach-role-policy \ --policy-arn
your-policy-arn
\ --role-name rds-s3-import-rolePer Windows:
aws iam attach-role-policy ^ --policy-arn
your-policy-arn
^ --role-name rds-s3-import-role -
Aggiungere il IAM ruolo all' del cluster DB.
A tale scopo, utilizzare AWS Management Console o AWS CLI, come descritto di seguito.
Per aggiungere un IAM ruolo per un' del cluster Postgree SQL DB utilizzando la console
Accedi a AWS Management Console e apri la RDS console Amazon all'indirizzo https://console.aws.amazon.com/rds/
. -
Scegli il nome dell' del cluster Postgre SQL DB per visualizzarne i dettagli.
-
-
In Feature (Caratteristica), scegliere s3Import.
-
Scegliere Add role (Aggiungi ruolo).
Per aggiungere un IAM ruolo per un cluster Postgre SQL DB utilizzando il CLI
-
Usa il comando seguente per aggiungere il ruolo al cluster Postgre SQL DB denominato.
my-db-cluster
Replace (Sostituisci)
con il ruolo ARN che hai annotato in un passaggio precedente. Utilizzareyour-role-arn
s3Import
come valore dell'opzione--feature-name
.Esempio
Per LinuxmacOS, oUnix:
aws rds add-role-to-db-cluster \ --db-cluster-identifier
my-db-cluster
\ --feature-name s3Import \ --role-arnyour-role-arn
\ --regionyour-region
Per Windows:
aws rds add-role-to-db-cluster ^ --db-cluster-identifier
my-db-cluster
^ --feature-name s3Import ^ --role-arnyour-role-arn
^ --regionyour-region
Per aggiungere un IAM ruolo per un' del cluster Postgre SQL DB utilizzando Amazon RDSAPI, chiama l'AddRoleToDBClusteroperazione.
Utilizzo delle credenziali di sicurezza per accedere a un bucket Amazon S3
Se preferisci, puoi utilizzare le credenziali di sicurezza per fornire l'accesso a un bucket Amazon S3 anziché fornire l'accesso con un ruolo. IAM A tale scopo, specifica il parametro credentials
nella chiamata di funzione aws_s3.table_import_from_s3.
Il credentials
parametro è una struttura di tipo che contiene le aws_commons._aws_credentials_1
credenziali. AWS Utilizzare la funzione aws_commons.create_aws_credentials per impostare la chiave di accesso e la chiave segreta in una struttura aws_commons._aws_credentials_1
, come illustrato di seguito.
postgres=>
SELECT aws_commons.create_aws_credentials( 'sample_access_key
', 'sample_secret_key
', '') AS creds \gset
Dopo aver creato la struttura aws_commons._aws_credentials_1
, utilizzare la funzione aws_s3.table_import_from_s3 con il parametro credentials
per importare i dati, come illustrato di seguito.
postgres=>
SELECT aws_s3.table_import_from_s3( 't', '', '(format csv)', :'s3_uri', :'creds' );
Oppure si può includere la chiamata inline di funzione aws_commons.create_aws_credentials all'interno della chiamata di funzione aws_s3.table_import_from_s3
.
postgres=>
SELECT aws_s3.table_import_from_s3( 't', '', '(format csv)', :'s3_uri', aws_commons.create_aws_credentials('sample_access_key
', 'sample_secret_key
', '') );
Risoluzione dei problemi di accesso a Amazon S3
Se riscontri problemi di connessione quanto tenti di importare i dati da Amazon S3, segui questi suggerimenti:
-
Risoluzione dei problemi di identità e accesso in Amazon Aurora
-
Risoluzione dei problemi di Amazon S3 nella Guida per l'utente di Amazon Simple Storage Service
-
Risoluzione dei problemi di Amazon S3 e IAM nella guida per l'utente IAM
Importa i dati dal bucket Amazon S3 utilizzando la funzione table_import_from_s3
dell'estensione aws_s3. Per informazioni di riferimento, consulta aws_s3.table_import_from_s3.
Nota
Gli esempi seguenti utilizzano il metodo IAM role per consentire l'accesso al bucket Amazon S3. Pertanto, le chiamate della funzione aws_s3.table_import_from_s3
non includono parametri di credenziali.
Di seguito viene illustrato un tipico esempio.
postgres=>
SELECT aws_s3.table_import_from_s3( 't1', '', '(format csv)', :'s3_uri' );
I parametri sono i seguenti:
-
t1
— Il nome della tabella nell' del cluster Postgre SQL DB in cui copiare i dati. -
''
– Un elenco opzionale di colonne nella tabella di database. Questo parametro può essere utilizzato per indicare quali colonne di dati S3 vanno in quali colonne della tabella. Se non viene specificata alcuna colonna, tutte le colonne vengono copiate nella tabella. Per un esempio di utilizzo di un elenco di colonne, consulta Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato. -
(format csv)
— Argomenti SQL COPY Postgre. Il processo di copia utilizza gli argomenti e il formato del SQL COPY comando Postgre per importare i dati.Le scelte per il formato includono il valore separato da virgole (CSV), come mostrato in questo esempio, text e binary. Il valore predefinito è testo. -
s3_uri
– Una struttura contenente le informazioni che identificano il file Amazon S3. Per un esempio di utilizzo della funzione aws_commons.create_s3_uri per creare una strutturas3_uri
, consulta Panoramica dell'importazione di dati dai dati di Amazon S3.
Per ulteriori informazioni su questa funzione, consulta aws_s3.table_import_from_s3.
La funzione restituisce aws_s3.table_import_from_s3
. Per specificare altri tipi di file da importare da un bucket Amazon S3, consulta uno dei seguenti esempi.
Nota
L'importazione di un file da 0 byte genererà un errore.
Argomenti
Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato
Il seguente esempio mostra come importare un file che utilizza un delimitatore personalizzato. Mostra anche come controllare dove inserire i dati nella tabella di database utilizzando il parametro column_list
della funzione aws_s3.table_import_from_s3.
In questo esempio si presuppone che le seguenti informazioni siano organizzate in colonne delimitate da pipe nel file Amazon S3.
1|foo1|bar1|elephant1
2|foo2|bar2|elephant2
3|foo3|bar3|elephant3
4|foo4|bar4|elephant4
...
Per importare un file che utilizza un delimitatore personalizzato
-
Creare una tabella nel database per i dati importati.
postgres=>
CREATE TABLE test (a text, b text, c text, d text, e text); -
Utilizzare il seguente formato della funzione aws_s3.table_import_from_s3 per importare i dati dal file Amazon S3.
Si può includere la chiamata inline di funzione aws_commons.create_s3_uri all'interno della chiamata di funzione
aws_s3.table_import_from_s3
per specificare il file.postgres=>
SELECT aws_s3.table_import_from_s3( 'test', 'a,b,d,e', 'DELIMITER ''|''', aws_commons.create_s3_uri('amzn-s3-demo-bucket
', 'pipeDelimitedSampleFile', 'us-east-2') );
I dati sono ora nella tabella nelle seguenti colonne.
postgres=>
SELECT * FROM test;a | b | c | d | e ---+------+---+---+------+----------- 1 | foo1 | | bar1 | elephant1 2 | foo2 | | bar2 | elephant2 3 | foo3 | | bar3 | elephant3 4 | foo4 | | bar4 | elephant4
Importazione di un file compresso (gzip) Amazon S3
Il seguente esempio mostra come importare da Amazon S3 un file compresso con gzip. Il file importato deve avere i seguenti metadati Amazon S3:
-
Chiave:
Content-Encoding
-
Valore:
gzip
Se caricate il file utilizzando il AWS Management Console, i metadati vengono in genere applicati dal sistema. Per informazioni sul caricamento di file su Amazon S3 utilizzando AWS Management Console la, la, o AWS CLI la, consulta Uploading API objects nella Amazon Simple Storage Service User Guide.
Per ulteriori informazioni sui metadati di Amazon S3 e i dettagli sui metadati forniti dal sistema, consulta la sezione Modifica dei metadati degli oggetti nella console Amazon S3 nella Guida per l'utente di Amazon Simple Storage Service.
Importa il file gzip nel .
postgres=>
CREATE TABLE test_gzip(id int, a text, b text, c text, d text);
postgres=>
SELECT aws_s3.table_import_from_s3(
'test_gzip', '', '(format csv)',
'amzn-s3-demo-bucket
', 'test-data.gz', 'us-east-2'
);
Importazione di un file Amazon S3 codificato
Il seguente esempio mostra come importare da Amazon S3 un file codificato con Windows-1252
postgres=>
SELECT aws_s3.table_import_from_s3(
'test_table', '', 'encoding ''WIN1252''',
aws_commons.create_s3_uri('amzn-s3-demo-bucket
', 'SampleFile', 'us-east-2')
);
Informazioni di riferimento sulle funzioni
aws_s3.table_import_from_s3
L'estensione aws_s3
fornisce la funzione aws_s3.table_import_from_s3
. Il valore restituito è testo.
Sintassi
I parametri richiesti sono table_name
, column_list
e options
. Identificano la tabella di database e specificano il modo in cui i dati vengono copiati nella tabella
Puoi inoltre utilizzare i seguenti parametri:
-
Il parametro
s3_info
specifica il file Amazon S3 da importare.aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, s3_info aws_commons._s3_uri_1 )
-
Il parametro
credentials
specifica le credenziali per accedere a Amazon S3. Quando si utilizza questo parametro, non si utilizza alcun ruolo. IAMaws_s3.table_import_from_s3 ( table_name text, column_list text, options text, s3_info aws_commons._s3_uri_1, credentials aws_commons._aws_credentials_1 )
Parametri
- table_name
-
Una stringa di testo obbligatoria contenente il nome della tabella del SQL database Postgre in cui importare i dati.
- column_list
-
Una stringa di testo obbligatoria contenente un elenco opzionale delle colonne della tabella del SQL database Postgre in cui copiare i dati. Se la stringa è vuota, vengono utilizzate tutte le colonne della tabella. Per un esempio, consulta Importazione di un file Amazon S3 che utilizza un delimitatore personalizzato.
- options
-
Una stringa di testo obbligatoria contenente argomenti per il comando SQL
COPY
Postgre. Questi argomenti specificano come i dati devono essere copiati nella tabella Postgre. SQL Per maggiori dettagli, consulta la documentazione di Postgre. SQL COPY - s3_info
-
Un tipo composito
aws_commons._s3_uri_1
contenente le seguenti informazioni sull'oggetto S3:-
bucket
– Il nome del bucket Amazon S3 contenente il file. -
file_path
– Il nome file di Amazon S3, incluso il percorso. -
region
— La AWS regione in cui si trova il file. Per un elenco dei nomi delle AWS regioni e dei valori associati, vedereRegioni e zone di disponibilità.
-
- credenziali
-
Un tipo composito
aws_commons._aws_credentials_1
contenente le seguenti credenziali da utilizzare per l'operazione di importazione:-
Chiave di accesso
-
Chiave segreta
-
Token di sessione
Per informazioni sulla creazione di una struttura composita
aws_commons._aws_credentials_1
, consulta aws_commons.create_aws_credentials. -
Sintassi alternativa
Per un aiuto nei test, si può utilizzare un set più ampio di parametri al posto dei parametri s3_info
e credentials
. Di seguito vengono riportate le variazioni di sintassi aggiuntive per la funzione aws_s3.table_import_from_s3
.
-
Invece di utilizzare il parametro
s3_info
per identificare un file Amazon S3, utilizzare la combinazione dei parametribucket
,file_path
eregion
. Con questa forma di funzione, l'accesso ad Amazon S3 è fornito da un IAM ruolo sull'istanza DB di SQL Postgre.aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, bucket text, file_path text, region text )
-
Invece di utilizzare il parametro
credentials
per specificare l'accesso a Amazon S3, utilizzare la combinazione dei parametriaccess_key
,session_key
esession_token
.aws_s3.table_import_from_s3 ( table_name text, column_list text, options text, bucket text, file_path text, region text, access_key text, secret_key text, session_token text )
Parametri alternativi
- bucket
-
Una stringa di testo contenente il nome del bucket Amazon S3 che contiene il file
- file_path
-
Una stringa di testo contenente il nome file di Amazon S3, incluso il percorso.
- Regione
-
Una stringa di testo che identifica la Regione AWS posizione del file. Per un elenco dei Regione AWS nomi e dei valori associati, vedereRegioni e zone di disponibilità.
- chiave_accesso
-
Una stringa di testo contenente la chiave di accesso da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.
- secret_key
-
Una stringa di testo contenente la chiave segreta da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.
- session_token
-
(Opzionale) Una stringa di testo contenente la chiave di sessione da utilizzare per l'operazione di importazione. L'impostazione predefinita èNULL.
aws_commons.create_s3_uri
Crea una struttura aws_commons._s3_uri_1
per conservare le informazioni relative al file Amazon S3. Si utilizzano i risultati della funzione aws_commons.create_s3_uri
nel parametro s3_info
della funzione aws_s3.table_import_from_s3.
Sintassi
aws_commons.create_s3_uri(
bucket text,
file_path text,
region text
)
Parametri
- bucket
-
Una stringa di testo obbligatoria contenente il nome del bucket Amazon S3 del file.
- file_path
-
Una stringa di testo obbligatoria contenente il nome file di Amazon S3, incluso il percorso.
- Regione
-
Una stringa di testo obbligatoria Regione AWS contenente il file in cui si trova. Per un elenco dei Regione AWS nomi e dei valori associati, vedereRegioni e zone di disponibilità.
aws_commons.create_aws_credentials
Imposta una chiave di accesso e una chiave segreta in una struttura aws_commons._aws_credentials_1
. Si utilizzano i risultati della funzione aws_commons.create_aws_credentials
nel parametro credentials
della funzione aws_s3.table_import_from_s3.
Sintassi
aws_commons.create_aws_credentials(
access_key text,
secret_key text,
session_token text
)
Parametri
- chiave_accesso
-
Una stringa di testo obbligatoria contenente la chiave di accesso da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL.
- secret_key
-
Una stringa di testo obbligatoria contenente la chiave segreta da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL.
- session_token
-
Una stringa di testo opzionale contenente il token di sessione da utilizzare per l'importazione di un file Amazon S3. L'impostazione predefinita èNULL. Se si fornisce un
session_token
opzionale, è possibile utilizzare credenziali temporanee.