Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Visão geral da importação de dados do Amazon S3 - Amazon Aurora

Visão geral da importação de dados do Amazon S3

Para importar dados do S3 para o Aurora PostgreSQL

Primeiro, reúna os detalhes que você precisa fornecer à função. Isso inclui o nome da tabela na sua instância do cluster de banco de dados do Aurora PostgreSQL, e o nome do bucket, o caminho do arquivo, o tipo de arquivo e a Região da AWS em que os dados do Amazon S3 estão armazenados. Para ter mais informações, consulte Visualizar um objeto no Guia do usuário do Amazon Simple Storage Service.

nota

A importação de dados multipart do Amazon S3 não é compatível atualmente.

  1. Obtenha o nome da tabela para a qual a função aws_s3.table_import_from_s3 deverá importar os dados. Por exemplo, o comando a seguir cria uma tabela t1 que pode ser utilizada em etapas posteriores.

    postgres=> CREATE TABLE t1 (col1 varchar(80), col2 varchar(80), col3 varchar(80));
  2. Veja os detalhes sobre o bucket do Amazon S3 e os dados a importar. Para fazer isso, abra o console do Amazon S3 em https://console.aws.amazon.com/s3/ e escolha Buckets. Encontre o bucket que contém seus dados na lista. Escolha o bucket, abra a página Object overview (Visão geral do objeto) e escolha Properties (Propriedades).

    Anote o nome do bucket, o caminho, a Região da AWS e o tipo de arquivo. Posteriormente, você precisará do nome do recurso da Amazon (ARN) para configurar o acesso ao Amazon S3 por meio de um perfil do IAM. Para ter mais informações, consulte Configurar o acesso a um bucket do Amazon S3. A imagem a seguir mostra um exemplo.

    Imagem de um objeto de arquivo em um bucket do Amazon S3.
  3. Você pode verificar o caminho dos dados no bucket do Amazon S3 usando o comando aws s3 cp da AWS CLI. Se as informações estiverem corretas, esse comando baixará uma cópia do arquivo do Amazon S3.

    aws s3 cp s3://amzn-s3-demo-bucket/sample_file_path ./
  4. Configure permissões em seu cluster de banco de dados do Aurora PostgreSQLpara permitir acesso ao arquivo no bucket do Amazon S3. Para fazer isso, use um perfil AWS Identity and Access Management (do IAM) ou credenciais de segurança. Para ter mais informações, consulte Configurar o acesso a um bucket do Amazon S3.

  5. Forneça o caminho e outros detalhes do objeto do Amazon S3 coletados (consulte a etapa 2) para a função create_s3_uri a fim de construir um objeto URI do Amazon S3. Para saber mais sobre essa função, consulte aws_commons.create_s3_uri. Veja a seguir um exemplo de como construir esse objeto durante uma sessão psql.

    postgres=> SELECT aws_commons.create_s3_uri( 'docs-lab-store-for-rpg', 'versions_and_jdks_listing.csv', 'us-west-1' ) AS s3_uri \gset

    Na próxima etapa, passe esse objeto (aws_commons._s3_uri_1) para a função aws_s3.table_import_from_s3 a fim de importar os dados para a tabela.

  6. Invoque a função aws_s3.table_import_from_s3 para importar os dados do Amazon S3 para a sua tabela. Para obter informações de referência, consulte aws_s3.table_import_from_s3. Para ver exemplos, consulte Importar dados do Amazon S3 para um cluster de banco de dados do Aurora PostgreSQL.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.