Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Integrazione Amazon S3
Puoi trasferire i file tra un'istanza database Amazon RDS per Oracle e un bucket Amazon S3. Puoi utilizzare l'integrazione Amazon S3 con le funzionalità Oracle Database, ad esempio Oracle Data Pump. Ad esempio, è possibile scaricare i file di Data Pump da Amazon S3 sull'istanza database RDS per Oracle. Per ulteriori informazioni, consulta Importazione di dati in Oracle in Amazon RDS.
Nota
L'istanza database e il bucket Amazon S3 devono trovarsi nella stessa Regione AWS.
Argomenti
- Configurazione delle autorizzazioni IAM per l'integrazione di RDS per Oracle con Amazon S3
- Aggiunta dell'opzione di integrazione Amazon S3
- Trasferimento dei file tra Amazon RDS for Oracle e un bucket Amazon S3
- Risoluzione dei problemi di integrazione Amazon S3
- Rimozione dell'opzione di integrazione Amazon S3
Configurazione delle autorizzazioni IAM per l'integrazione di RDS per Oracle con Amazon S3
Affinché RDS per Oracle si integri con Amazon S3, l'istanza database avere accesso a un bucket Amazon S3. Il Amazon VPC utilizzato dall'istanza database non deve fornire accesso agli endpoint Amazon S3.
RDS per Oracle supporta il trasferimento di file tra un'istanza DB in un account e un bucket Amazon S3 in un account diverso. Se sono necessari ulteriori passaggi, vengono annotati nelle sezioni seguenti.
Argomenti
Fase 3: creazione di una policy IAM per il ruolo di Amazon RDS
In questo passaggio, crei una policy AWS Identity and Access Management (IAM) con le autorizzazioni necessarie per trasferire file tra il bucket Amazon S3 e l'istanza DB RDS. Questo passaggio presuppone che tu abbia già creato un bucket S3.
Prima di creare la policy, prendi nota delle seguenti informazioni:
-
L'Amazon Resource Name (ARN) del bucket
-
L'ARN per la tua AWS KMS chiave, se il bucket utilizza la crittografia SSE-KMS o SSE-S3
Nota
Un'istanza database RDS per Oracle non può accedere ai bucket Amazon S3 crittografati con SSE-C.
Per ulteriori informazioni, consulta Protezione dei dati con la crittografia lato server nella Guida per l'utente di Amazon Simple Storage Service.
Per creare una policy IAM per consentire ad Amazon RDS l'accesso a un bucket Amazon S3
-
Aprire la console di gestione IAM
. -
In Gestione accessi scegli Policy.
-
Scegliere Create Policy (Crea policy).
-
Nella scheda Visual editor (Editor visivo) selezionare Choose a service (Scegli un servizio) e quindi S3.
-
Per Operazioni, seleziona Espandi tutto, quindi sceglie le autorizzazioni del bucket e dell’oggetto necessarie per trasferire i file da un bucket Amazon S3 a Amazon RDS. Ad esempio, completa le seguenti operazioni:
-
Espandi Elenco, ListBucketquindi seleziona.
-
Espandi Leggi, quindi seleziona GetObject.
-
Espandi Scrittura, quindi seleziona PutObjecte DeleteObject.
-
Espandi Gestione delle autorizzazioni, quindi seleziona PutObjectAcl. Questa autorizzazione è necessaria se si prevede di caricare file in un bucket di proprietà di un account diverso e questo account ha bisogno del pieno controllo del contenuto del bucket.
Le autorizzazioni oggetto sono autorizzazioni per operazioni sugli oggetti in Amazon S3. Devi concedere queste autorizzazioni agli oggetti presenti nel bucket e non al bucket stesso. Per ulteriori informazioni, consulta la pagina Autorizzazioni per le operazioni sugli oggetti.
-
-
Scegli Aggiungi regola, quindi effettua le seguenti operazioni:
-
Scegli Specifiche.
-
In Bucket, scegli Aggiungi ARN. Inserisci l'ARN del bucket. Il nome del bucket viene inserito automaticamente. Quindi scegliere Add (Aggiungi).
-
Se viene visualizzata la risorsa oggetto, scegli Aggiungi ARN per aggiungere risorse manualmente o scegli Qualsiasi.
Nota
È possibile impostare Amazon Resource Name (ARN) su un valore dell'ARN più specifico in modo da consentire ad Amazon RDS di accedere solo a specifici file o cartelle presenti in un bucket Amazon S3. Per ulteriori informazioni su come definire una policy di accesso per Amazon S3, consulta Gestione delle autorizzazioni di accesso alle risorse Amazon S3.
-
-
(Facoltativo) Scegli Aggiungi autorizzazioni aggiuntive per aggiungere risorse alla policy. Ad esempio, completa le seguenti operazioni:
-
Se il bucket è crittografato con una chiave KMS personalizzata, seleziona KMS per il servizio.
-
In Operazioni manuali, seleziona quanto segue:
-
Encrypt
-
ReEncrypt da e per ReEncrypt
-
Decrypt
-
DescribeKey
-
GenerateDataChiave
-
-
In Risorse, scegli Specifiche.
-
In Chiave, scegli Aggiungi ARN. Specifica l'ARN della chiave personalizzata come risorsa, quindi scegli Aggiungi.
Per ulteriori informazioni, consulta Protezione dei dati utilizzando la crittografia lato server con chiavi KMS archiviate in AWS Key Management Service (SSE-KMS) nella Guida per l'utente di Amazon Simple Storage Service.
-
Se desideri che Amazon RDS acceda ad altri bucket, aggiungi gli ARN per questi bucket. Facoltativamente, è anche possibile concedere l'accesso a tutti i bucket e gli oggetti in Amazon S3.
-
-
Scegliere Next: Tags (Successivo: Tag) e Next: Review (Successivo: Verifica).
-
Per Name (Nome), immettere un nome per la policy IAM, ad esempio
rds-s3-integration-policy
. Questo nome viene utilizzato quando si crea un ruolo IAM e lo si associa all'istanza database. È anche possibile aggiungere un valore Description (Descrizione) facoltativo. -
Seleziona Create Policy (Crea policy).
Crea una policy AWS Identity and Access Management (IAM) che conceda ad Amazon RDS l'accesso a un bucket Amazon S3. Dopo aver creato la policy, prendere nota del relativo ARN. L'ARN servirà in una fase successiva.
Includi le azioni appropriate nella policy in base al tipo di accesso richiesto:
-
GetObject
– È necessario trasferire i file da un bucket Amazon S3 a Amazon RDS. -
ListBucket
– È necessario trasferire i file da un bucket Amazon S3 a Amazon RDS. -
PutObject
– È necessario trasferire i file da un bucket Amazon RDS a un bucket Amazon S3.
Il AWS CLI comando seguente crea una policy IAM denominata
con queste opzioni. Concede l'accesso a un bucket denominato rds-s3-integration-policy
.DOC-EXAMPLE-BUCKET
Esempio
Per LinuxmacOS, oUnix:
aws iam create-policy \ --policy-name
rds-s3-integration-policy
\ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration
", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET
", "arn:aws:s3:::DOC-EXAMPLE-BUCKET
/*
" ] } ] }'
Nell'esempio seguente sono incluse le autorizzazioni per le chiavi KMS personalizzate.
aws iam create-policy \ --policy-name
rds-s3-integration-policy
\ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration
", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject", "kms:Decrypt", "kms:Encrypt", "kms:ReEncrypt*", "kms:GenerateDataKey", "kms:DescribeKey", ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET
", "arn:aws:s3:::DOC-EXAMPLE-BUCKET
/*
", "arn:aws:kms:::your-kms-arn
" ] } ] }'
Per Windows:
aws iam create-policy ^ --policy-name
rds-s3-integration-policy
^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration
", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject" ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET
", "arn:aws:s3:::DOC-EXAMPLE-BUCKET
/*
" ] } ] }'
Nell'esempio seguente sono incluse le autorizzazioni per le chiavi KMS personalizzate.
aws iam create-policy ^ --policy-name
rds-s3-integration-policy
^ --policy-document '{ "Version": "2012-10-17", "Statement": [ { "Sid": "s3integration
", "Action": [ "s3:GetObject", "s3:ListBucket", "s3:PutObject", "kms:Decrypt", "kms:Encrypt", "kms:ReEncrypt", "kms:GenerateDataKey", "kms:DescribeKey", ], "Effect": "Allow", "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-BUCKET
", "arn:aws:s3:::DOC-EXAMPLE-BUCKET
/*
", "arn:aws:kms:::your-kms-arn
" ] } ] }'
Fase 2: (facoltativo) creazione di una policy IAM per il bucket Amazon S3
Questo passaggio è necessario solo nelle seguenti condizioni:
-
Prevedi di caricare i file su un bucket Amazon S3 da un account (account A) e di accedervi da un altro account (account B).
-
L'account B possiede il bucket.
-
L'account B necessita del pieno controllo degli oggetti caricati nel bucket.
Se le condizioni precedenti non si applicano al tuo scenario, passa a Fase 3: creazione di un ruolo IAM per l'istanza database e collegamento della policy.
Per creare la policy per il bucket, assicurati di disporre di quanto segue:
-
L'ID account dell'account A.
-
Il nome utente dell'account A
-
Il valore ARN per il bucket Amazon S3 nell'account B
Per creare o modificare una policy di bucket
-
Nell'elenco Buckets (Bucket) scegliere il nome del bucket per il quale si desidera creare o modificare una policy di bucket.
-
Seleziona Autorizzazioni.
-
In Bucket Policy (Policy del bucket) scegliere Edit (Modifica). Verrà visualizzata la pagina Modifica policy del bucket.
-
Nella pagina Edit bucket policy (Modifica policy del bucket) vai negli Esempi di policy della Guida per l'utente di Amazon S3 e scegli Policy generator (Generatore di policy) per generare automaticamente una policy o modificare il JSON nella sezione Policy.
Se scegli Policy generator, il AWS Policy Generator si apre in una nuova finestra:
-
Nella pagina Generatore di policy di AWS , all'opzione Seleziona tipo di Policy, scegli Policy del bucket S3.
-
Aggiungi un'istruzione inserendo le informazioni nei campi forniti, quindi scegli Aggiungi istruzione. Ripetere per tutte le istruzioni che si desidera aggiungere. Per ulteriori informazioni su questi campi, consulta Riferimento agli elementi delle policy IAM JSON nella Guida per l'utente IAM.
Nota
Per comodità, la pagina Modifica policy del bucket mostra l'ARN (Amazon Resource Name) del bucket corrente sopra il campo di testo della Policy. Puoi copiare questo ARN per utilizzarlo nelle istruzioni alla pagina Generatore di policy di AWS .
-
Dopo aver aggiunto le istruzioni, scegli Genera policy.
-
Copia il testo della policy generata, scegli Chiudi e torna alla pagina Modifica policy del bucket nella console di Amazon S3.
-
-
Nella casella Policy, modificare la policy esistente o incollare la policy del bucket dal generatore di policy. Assicurati di risolvere gli avvisi di sicurezza, gli errori, gli avvisi generali e i suggerimenti prima di salvare la tua policy.
{ "Version": "2012-10-17", "Statement": [ { "Sid": "Example permissions", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::
account-A-ID
:account-A-user
" }, "Action": [ "s3:PutObject", "s3:PutObjectAcl" ], "Resource": [ "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET
", "arn:aws:s3:::DOC-EXAMPLE-DESTINATION-BUCKET
/*" ] } ] } -
Scegli Salva le modifiche, che ti riporterà alla pagina Autorizzazioni bucket.
Fase 3: creazione di un ruolo IAM per l'istanza database e collegamento della policy
Questo passaggio presuppone che tu abbia creato la policy IAM in Fase 3: creazione di una policy IAM per il ruolo di Amazon RDS. In questo passaggio, si crea un ruolo per l'istanza database RDS per Oracle e quindi si collega la policy al ruolo.
Per creare un ruolo IAM per consentire ad Amazon RDS l'accesso a un bucket Amazon S3
-
Aprire la console di gestione IAM
. -
Nel pannello di navigazione, seleziona Roles (Ruoli).
-
Selezionare Create role (Crea ruolo).
-
Scegli un servizio in Servizio AWS .
-
Per i casi d'uso per altri AWS servizi: scegli RDS e poi RDS — Aggiungi ruolo al database. Quindi scegli Successivo.
-
In Cerca, in Policy di autorizzazione, inserisci il nome della policy IAM creata in Fase 3: creazione di una policy IAM per il ruolo di Amazon RDS e seleziona la policy quando viene visualizzata nell'elenco. Quindi scegli Successivo.
-
In Nome ruolo, specifica un nome per il ruolo IAM, ad esempio
rds-s3-integration-role
. È anche possibile aggiungere un valore Description (Descrizione) facoltativo. -
Scegli Crea ruolo.
Per creare un ruolo e collegarvi una policy
-
Creare un ruolo IAM che Amazon RDS può assumere per conto dell'utente per accedere ai bucket Amazon S3.
Si consiglia di utilizzare le chiavi di contesto delle condizioni globali
aws:SourceArn
eaws:SourceAccount
nelle relazioni di trust basate sulle risorse per limitare le autorizzazioni del servizio relative a una risorsa specifica. Questo è il modo più efficace per proteggersi dal problema di deputy confused.Puoi usare le chiavi di contesto delle condizioni globali e avere il valore
aws:SourceArn
che contiene l'ID dell'account. In questo caso, il valoreaws:SourceAccount
e l'account nel valoreaws:SourceArn
deve utilizzare lo stesso ID account quando viene utilizzato nella stessa istruzione.-
Utilizzare
aws:SourceArn
se si desidera un accesso cross-service per una singola risorsa. -
Utilizzare
aws:SourceAccount
se si desidera consentire l'associazione di qualsiasi risorsa in tale account all'uso cross-service.
Nella relazione di trust, assicurati di utilizzare la chiave di contesto della condizione globale
aws:SourceArn
con l'Amazon Resource Name (ARN) completo delle risorse che accedono al ruolo.Il AWS CLI comando seguente crea il ruolo denominato
per questo scopo.rds-s3-integration-role
Esempio
Per LinuxmacOS, oUnix:
aws iam create-role \ --role-name
rds-s3-integration-role
\ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount":my_account_ID
, "aws:SourceArn": "arn:aws:rds:Region
:my_account_ID
:db:dbname
" } } } ] }'Per Windows:
aws iam create-role ^ --role-name
rds-s3-integration-role
^ --assume-role-policy-document '{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "rds.amazonaws.com" }, "Action": "sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount":my_account_ID
, "aws:SourceArn": "arn:aws:rds:Region
:my_account_ID
:db:dbname
" } } } ] }'Per ulteriori informazioni, consulta la pagina relativa alla creazione di un ruolo per delegare le autorizzazioni a un utente IAM nella Guida per l'utente IAM.
-
-
Una volta creato il ruolo, annota l'ARN del ruolo. L'ARN servirà in una fase successiva.
-
Collega la policy creata al ruolo creato.
Il AWS CLI comando seguente associa la policy al ruolo denominato
.rds-s3-integration-role
Esempio
Per LinuxmacOS, oUnix:
aws iam attach-role-policy \ --policy-arn
your-policy-arn
\ --role-namerds-s3-integration-role
Per Windows:
aws iam attach-role-policy ^ --policy-arn
your-policy-arn
^ --role-namerds-s3-integration-role
Sostituire
con l'ARN della policy annotato nel passaggio precedente.your-policy-arn
Fase 4: associazione del ruolo IAM all'istanza database RDS per Oracle
L'ultimo passaggio per configurare le autorizzazioni per l'integrazione di Amazon S3 prevede l'associazione del ruolo IAM all'istanza database. Si notino i requisiti seguenti:
-
Devi disporre dell'accesso a un ruolo a cui sono collegate le policy di autorizzazione di Amazon S3.
-
È possibile associare un solo ruolo IAM alla volta all'istanza RDS per Oracle.
-
Lo stato dell'istanza database deve essere Disponibile.
Per associare il ruolo IAM all'istanza database RDS per Oracle
Accedi AWS Management Console e apri la console Amazon RDS all'indirizzo https://console.aws.amazon.com/rds/
. -
Nel pannello di navigazione seleziona Database.
-
Scegli il nome dell'istanza database RDS per Oracle per visualizzarne i dettagli.
-
Sulla scheda Connettività e sicurezza, scorri verso il basso fino alla sezione Gestisci i ruoli IAM in fondo alla pagina.
-
Per Aggiungi i ruoli IAM a questa istanza, scegli il ruolo creato in Fase 3: creazione di un ruolo IAM per l'istanza database e collegamento della policy.
-
Per Feature (Caratteristica), selezionare S3_INTEGRATION.
-
Scegliere Add role (Aggiungi ruolo).
Il AWS CLI comando seguente aggiunge il ruolo a un'istanza Oracle DB denominata
.mydbinstance
Esempio
Per LinuxmacOS, oUnix:
aws rds add-role-to-db-instance \ --db-instance-identifier
mydbinstance
\ --feature-name S3_INTEGRATION \ --role-arnyour-role-arn
Per Windows:
aws rds add-role-to-db-instance ^ --db-instance-identifier
mydbinstance
^ --feature-name S3_INTEGRATION ^ --role-arnyour-role-arn
Sostituire
con il ruolo ARN annotato nel passaggio precedente. your-role-arn
S3_INTEGRATION
deve essere specificato per l'opzione --feature-name
.
Aggiunta dell'opzione di integrazione Amazon S3
Per utilizzare l'integrazione tra Amazon RDS per Oracle e Amazon S3, l'istanza database deve essere associata a un gruppo di opzioni che include l'opzione S3_INTEGRATION
.
Per configurare un gruppo di opzioni per l'integrazione Amazon S3
-
Creare un nuovo gruppo di opzioni o identificare un gruppo opzioni esistente a cui è possibile aggiungere l'opzione
S3_INTEGRATION
.Per informazioni sulla creazione di un gruppo di opzioni, consulta Creazione di un gruppo di opzioni.
-
Aggiungere l'opzione
S3_INTEGRATION
al gruppo di opzioni.Per informazioni sull'aggiunta di un'opzione a un gruppo di opzioni, consulta Aggiunta di un'opzione a un gruppo di opzioni.
-
Crea una nuova istanza database RDS per Oracle e associarvi il gruppo opzioni oppure modificare un'istanza database RDS per Oracle per associare il gruppo opzioni a essa.
Per informazioni sulla creazione di un'istanza database, consulta Creazione di un'istanza database Amazon RDS.
Per ulteriori informazioni sulla modifica di un'istanza di database, consulta Modifica di un'istanza database Amazon RDS.
Per configurare un gruppo di opzioni per l'integrazione Amazon S3
-
Creare un nuovo gruppo di opzioni o identificare un gruppo opzioni esistente a cui è possibile aggiungere l'opzione
S3_INTEGRATION
.Per informazioni sulla creazione di un gruppo di opzioni, consulta Creazione di un gruppo di opzioni.
-
Aggiungere l'opzione
S3_INTEGRATION
al gruppo di opzioni.Ad esempio, il AWS CLI comando seguente aggiunge l'
S3_INTEGRATION
opzione a un gruppo di opzioni denominatomyoptiongroup
.Esempio
Per LinuxmacOS, oUnix:
aws rds add-option-to-option-group \ --option-group-name
myoptiongroup
\ --options OptionName=S3_INTEGRATION,OptionVersion=1.0Per Windows:
aws rds add-option-to-option-group ^ --option-group-name
myoptiongroup
^ --options OptionName=S3_INTEGRATION,OptionVersion=1.0 -
Crea una nuova istanza database RDS per Oracle e associarvi il gruppo opzioni oppure modificare un'istanza database RDS per Oracle per associare il gruppo opzioni a essa.
Per informazioni sulla creazione di un'istanza database, consulta Creazione di un'istanza database Amazon RDS.
Per informazioni sulla modifica di un'istanza database RDS per Oracle, consulta Modifica di un'istanza database Amazon RDS.
Trasferimento dei file tra Amazon RDS for Oracle e un bucket Amazon S3
Puoi utilizzare il package Amazon RDS rdsadmin_s3_tasks
per trasferire file tra un'istanza database RDS per Oracle e un bucket Amazon S3. È possibile comprimere i file con GZIP al momento del caricamento e decomprimerli al momento del download.
Argomenti
Requisiti e limitazioni per i trasferimenti di file
Prima di trasferire file tra l'istanza DB e un bucket Amazon S3, tieni presente quanto segue:
-
Il
rdsadmin_s3_tasks
pacchetto trasferisce i file che si trovano in un'unica directory. Non è possibile includere sottodirectory in un trasferimento. -
La dimensione massima dell'oggetto in un bucket Amazon S3 è di 5 TB.
-
Le attività create da vengono eseguite in modo
rdsadmin_s3_tasks
asincrono. -
È possibile caricare file dalla directory Data Pump, ad esempio
DATA_PUMP_DIR
, o da qualsiasi directory creata dall'utente. Non è possibile caricare file da una directory utilizzata dai processi in background di Oracle, ad esempio letrace
directoryadump
bdump
, o. -
Il limite di download è di 2000 file per procedura richiesta.
download_from_s3
Se devi scaricare più di 2000 file da Amazon S3, suddividi il processo di scaricamento in operazioni distinte contenenti non più di 2000 file per chiamata. -
Se esiste un file nella cartella di scaricamento e si tenta di scaricare un file con lo stesso nome,
download_from_s3
ignora lo scaricamento del file in questione. Per rimuovere un file dalla directory di download, utilizzare la procedura PL/SQL UTL_FILE.REMOVE.
Caricamento di file da un'istanza database Oracle a un bucket Amazon S3
Per caricare i file da un'istanza database a un bucket Amazon S3, utilizza la procedura rdsadmin.rdsadmin_s3_tasks.upload_to_s3
. Ad esempio, è possibile caricare i file di backup di Oracle Recovery Manager (RMAN) o i file di Oracle Data Pump. Per informazioni sull'utilizzo di oggetti, consulta Guida per l'utente di Amazon Simple Storage Service. Per ulteriori informazioni sull'esecuzione dei backup RMAN, consulta Esecuzione di attività RMAN comuni per le istanze database Oracle.
La procedura rdsadmin.rdsadmin_s3_tasks.upload_to_s3
include i seguenti parametri.
Nome del parametro | Tipo di dati | Default | Campo obbligatorio | Descrizione |
---|---|---|---|---|
|
VARCHAR2 |
– |
obbligatorio |
Il nome del bucket Amazon S3 in cui caricare i file. |
|
VARCHAR2 |
– |
obbligatorio |
Il nome dell'oggetto directory Oracle da cui caricare i file. La directory può essere un qualsiasi oggetto directory creato dall'utente o directory Data Pump, come NotaÈ possibile solo caricare i file dalla directory specificata. NOn è possibile caricare i file nelle sottodirectory nella directory specificata. |
|
VARCHAR2 |
– |
obbligatorio |
Un prefisso del nome file Amazon S3 con cui vengono caricati i file. Un prefisso vuoto carica tutti i file al livello superiore nel bucket Amazon S3 specificato e non aggiunge un prefisso ai nomi file. Ad esempio, se il prefisso è |
|
VARCHAR2 |
– |
obbligatorio |
Un prefisso nome file con cui i nomi file devono corrispondere per essere caricati. Un prefisso vuoto carica tutti i file nella directory specificata. |
|
NUMBER |
|
facoltativo |
Il livello di compressione GZIP. I valori validi sono compresi tra
|
|
VARCHAR2 |
– |
facoltativo |
L'impostazione di controllo degli accessi per il bucket. Gli unici valori validi sono null o |
Il valore restituito per la procedura rdsadmin.rdsadmin_s3_tasks.upload_to_s3
è un ID attività.
L'esempio seguente carica tutti i file della
I file non vengono compressi.
directory nel bucket Amazon S3 denominato DOC-EXAMPLE-BUCKET.DATA_PUMP_DIR
SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_prefix => '', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR
') AS TASK_ID FROM DUAL;
L'esempio seguente carica tutti i file con prefisso
nella directory db
nel bucket Amazon S3 denominato DATA_PUMP_DIR
. Amazon RDS applica ai file il livello di compressione GZIP più alto.DOC-EXAMPLE-BUCKET
SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_prefix => 'db
', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR
', p_compression_level =>9
) AS TASK_ID FROM DUAL;
L'esempio seguente carica tutti i file nella directory
nel bucket Amazon S3 denominato DATA_PUMP_DIR
. I file vengono caricati in una cartella DOC-EXAMPLE-BUCKET
dbfiles
. In questo esempio, il livello di compressione GZIP è 1
, che è il livello di compressione più veloce.
SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_prefix => '', p_s3_prefix => 'dbfiles/
', p_directory_name => 'DATA_PUMP_DIR
', p_compression_level =>1
) AS TASK_ID FROM DUAL;
L'esempio seguente carica tutti i file nella directory
nel bucket Amazon S3 denominato DATA_PUMP_DIR
. I file vengono caricati in una cartella DOC-EXAMPLE-BUCKET
dbfiles
e ora
viene aggiunto all'inizio di ogni nome file. Non viene applicata alcuna compressione.
SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_prefix => '', p_s3_prefix => 'dbfiles/ora
', p_directory_name => 'DATA_PUMP_DIR
') AS TASK_ID FROM DUAL;
L'esempio seguente presuppone che il comando sia eseguito nell'account A, ma l'account B richiede il pieno controllo del contenuto del bucket. Il comando rdsadmin_s3_tasks.upload_to_s3
trasferisce tutti i file nella directory
al bucket denominato DATA_PUMP_DIR
. Il controllo degli accessi è impostato su s3bucketOwnedByAccountB
FULL_CONTROL
in modo che l'account B possa accedere ai file nel bucket. Il livello di compressione GZIP è 6
, ovvero il giusto compromesso tra velocità e dimensioni dei file.
SELECT rdsadmin.rdsadmin_s3_tasks.upload_to_s3( p_bucket_name => '
s3bucketOwnedByAccountB
', p_prefix => '', p_s3_prefix => '', p_directory_name => 'DATA_PUMP_DIR
', p_bucket_owner_full_control => 'FULL_CONTROL', p_compression_level =>6
) AS TASK_ID FROM DUAL;
In ogni esempio, l'istruzione SELECT
restituisce l'ID dell'attività in un tipo di dati VARCHAR2
.
È possibile visualizzare il risultato visualizzando il file di output dell'attività.
SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-
task-id
.log'));
Sostituire
con l'ID attività restituito dalla procedura.task-id
Nota
Le attività vengono eseguite in modo asincrono.
Download di file da un bucket Amazon S3 a un'istanza database Oracle
Per scaricare i file da un bucket Amazon S3 a un'istanza database RDS per Oracle, utilizza la procedura Amazon RDS rdsadmin.rdsadmin_s3_tasks.download_from_s3
.
La procedura download_from_s3
include i seguenti parametri.
Nome del parametro | Tipo di dati | Default | Campo obbligatorio | Descrizione |
---|---|---|---|---|
|
VARCHAR2 |
– |
Richiesto |
Il nome del bucket Amazon S3 da cui scaricare i file. |
|
VARCHAR2 |
– |
Richiesto |
Il nome dell'oggetto directory Oracle su cui scaricare i file. La directory può essere un qualsiasi oggetto directory creato dall'utente o directory Data Pump, come |
|
VARCHAR2 |
FALSE |
Facoltativo |
Un flag che determina se l'attività genera un errore quando nessun oggetto nel bucket Amazon S3 corrisponde al prefisso. Se questo parametro non è impostato o è impostato su FALSE (impostazione predefinita), l'attività stampa un messaggio che indica che non è stato trovato alcun oggetto, ma non genera un'eccezione o un errore. Se questo parametro è TRUE, l'attività genera un'eccezione e non riesce. Esempi di specifiche dei prefissi che possono non riuscire nei test di corrispondenza sono gli spazi nei prefissi, come in |
|
VARCHAR2 |
– |
Richiesto |
Un prefisso nome file con cui i nomi file devono corrispondere per essere scaricati. Un prefisso vuoto scarica tutti i file di livello superiore nel bucket Amazon S3 specificato, ma non i file nelle cartelle nel bucket. La procedura scarica gli oggetti Amazon S3 solo dalla cartella di primo livello che corrisponde al prefisso. Le strutture directory nidificate corrispondenti al prefisso specificato non vengono scaricate. Ad esempio, si supponga che un bucket Amazon S3 abbia la struttura della cartella Se, invece, viene specificato il prefisso |
|
VARCHAR2 |
– |
Facoltativo |
Il formato di decompressione. I valori validi sono |
Il valore restituito per la procedura rdsadmin.rdsadmin_s3_tasks.download_from_s3
è un ID attività.
L'esempio seguente scarica tutti i file nel bucket Amazon S3 denominato
nella directory DOC-EXAMPLE-BUCKET
. I file non sono compressi, quindi non viene applicata alcuna decompressione.DATA_PUMP_DIR
SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_directory_name => 'DATA_PUMP_DIR
') AS TASK_ID FROM DUAL;
L'esempio seguente scarica tutti i file con prefisso
nel bucket Amazon S3 denominato db
nella directory DOC-EXAMPLE-BUCKET
. I file non sono compressi, quindi non viene applicata alcuna decompressione. Il parametro DATA_PUMP_DIR
p_error_on_zero_downloads
attiva il controllo degli errori dei prefissi, quindi se il prefisso non corrisponde a nessun file nel bucket, l'attività genera un'eccezione e non riesce.
SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_s3_prefix => 'db
', p_directory_name => 'DATA_PUMP_DIR
', p_decompression_format => 'GZIP
', p_error_on_zero_downloads => 'TRUE
') AS TASK_ID FROM DUAL;
L'esempio seguente scarica tutti i file nella cartella
nel bucket Amazon S3 denominato myfolder/
nella directory DOC-EXAMPLE-BUCKET
. Utilizzare il parametro DATA_PUMP_DIR
p_s3_prefix
per specificare la cartella Amazon S3. I file caricati vengono compressi con GZIP, ma non vengono decompressi durante il download.
SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_s3_prefix => 'myfolder/
', p_directory_name => 'DATA_PUMP_DIR
', p_decompression_format => 'NONE
') AS TASK_ID FROM DUAL;
L'esempio seguente scarica il file
nel bucket Amazon S3 denominato mydumpfile.dmp
nella directory DOC-EXAMPLE-BUCKET
. Non viene applicata alcuna decompressione.DATA_PUMP_DIR
SELECT rdsadmin.rdsadmin_s3_tasks.download_from_s3( p_bucket_name => '
DOC-EXAMPLE-BUCKET
', p_s3_prefix => 'mydumpfile.dmp
', p_directory_name => 'DATA_PUMP_DIR
') AS TASK_ID FROM DUAL;
In ogni esempio, l'istruzione SELECT
restituisce l'ID dell'attività in un tipo di dati VARCHAR2
.
È possibile visualizzare il risultato visualizzando il file di output dell'attività.
SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','dbtask-
task-id
.log'));
Sostituire
con l'ID attività restituito dalla procedura.task-id
Nota
Le attività vengono eseguite in modo asincrono.
Per rimuovere i file da una directory, è possibile utilizzare la procedura Oracle UTL_FILE.FREMOVE
. Per ulteriori informazioni, consulta la sezione relativa alla Procedura FREMOVE
Monitoraggio dello stato di un file transfer
Le attività di file transfer pubblicano gli eventi Amazon RDS al loro inizio e al completamento. Il messaggio dell'evento contiene l'ID dell'attività per il trasferimento file. Per informazioni sulla visualizzazione degli eventi, consultare Visualizzazione di eventi Amazon RDS.
È possibile visualizzare lo stato di un'attività in corso in un file bdump. I file bdump si trovano nella directory /rdsdbdata/log/trace
. Il nome del file bdump ha il formato che segue.
dbtask-
task-id
.log
Sostituire
con l'ID dell'attività da monitorare.task-id
Nota
Le attività vengono eseguite in modo asincrono.
Puoi usare la procedura memorizzata in rdsadmin.rds_file_util.read_text_file
per visualizzare i contenuti dei file bdump. Ad esempio, la query seguente restituisce i contenuti del file bdump
.dbtask-1234567890123-1234.log
SELECT text FROM table(rdsadmin.rds_file_util.read_text_file('BDUMP','
dbtask-1234567890123-1234.log
'));
L'esempio seguente mostra il file di log di un trasferimento non riuscito.
TASK_ID -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 1234567890123-1234 TEXT -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 2023-04-17 18:21:33.993 UTC [INFO ] File #1: Uploading the file /rdsdbdata/datapump/A123B4CDEF567890G1234567890H1234/sample.dmp to Amazon S3 with bucket name
DOC-EXAMPLE-BUCKET
and key sample.dmp. 2023-04-17 18:21:34.188 UTC [ERROR] RDS doesn't have permission to write to Amazon S3 bucket nameDOC-EXAMPLE-BUCKET
and key sample.dmp. 2023-04-17 18:21:34.189 UTC [INFO ] The task failed.
Risoluzione dei problemi di integrazione Amazon S3
Per suggerimenti sulla risoluzione dei problemi, consulta l'articolo AWS Re:post Come si risolvono i problemi quando integro Amazon RDS for Oracle con Amazon S3
Rimozione dell'opzione di integrazione Amazon S3
Puoi rimuovere l'opzione di integrazione Amazon S3 da un'istanza database.
Per rimuovere l'opzione di integrazione Amazon S3 da un'istanza database, procedi in uno dei seguenti modi:
-
Per rimuovere l'opzione di integrazione Amazon S3 da più istanze database, rimuovere l'opzione
S3_INTEGRATION
dal gruppo di opzioni a cui appartengono le istanze database. Questa modifica coinvolge tutte le istanze database che usano il gruppo di opzioni. Per ulteriori informazioni, consulta Rimozione di un'opzione da un gruppo di opzioni. -
Per rimuovere l'opzione di integrazione Amazon S3 da una singola istanza database, modifica l'istanza database e specifica un gruppo di opzioni diverso che non comprenda l'opzione
S3_INTEGRATION
. È possibile specificare il gruppo di opzioni predefinito (vuoto) o un gruppo di opzioni personalizzato diverso. Per ulteriori informazioni, consulta Modifica di un'istanza database Amazon RDS.