As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
CasosAWS DataSync de uso adicionais
Nesta seção, você pode encontrar informações sobre casos de usoAWS DataSync que não são comuns à maioria dos usuários.
Tópicos
Transferindo arquivos em direções opostas
A transferência de dados em direções opostas permite fluxos de trabalho em que o aplicativo ativo se move entre locais. AWS DataSync não oferece suporte a fluxos de trabalho em que vários aplicativos ativos gravam em ambos os locais ao mesmo tempo. Use as etapas do procedimento a seguir para configurar DataSync a transferência de dados em direções opostas.
DataSync Para configurar transferências de dados em direções opostas
Crie um local e forneça a ele o nome Location A (Local A).
Crie um segundo local e forneça a ele o nome Location B (Local B).
Crie uma tarefa, forneça a ela o nome Task A-B (Tarefa A-B) e configure o Location A (Local A) como o local de origem e Location B (Local B) como o local de destino.
Crie uma segunda tarefa, forneça a ela o nome Task B-A (Tarefa B-A) e configure o Location B (Local B) como o local de origem e Location A (Local A) como o local de destino.
Para atualizar o Location B (Local B) com dados do Location A (Local A), execute Task A-B (Tarefa A-B).
Para atualizar o Location A (Local A) com dados do Location B (Local B), execute Task B-A (Tarefa B-A).
Não execute essas duas tarefas simultaneamente. DataSync pode transferir arquivos em direções opostas periodicamente. No entanto, ele não oferece suporte a fluxos de trabalho onde vários aplicativos ativos gravam no Location A (Local A) e Location B (Local B) simultaneamente.
Usando várias tarefas para gravar no mesmo bucket do Amazon S3
Em alguns casos de uso, você pode desejar que tarefas diferentes gravem no mesmo bucket do Amazon S3. Nesse caso, você cria pastas diferentes no bucket do S3 para cada tarefa. Essa abordagem evita conflitos de nomes de arquivos entre as tarefas e também significa que você pode definir permissões diferentes para cada uma das pastas.
Por exemplo, você pode ter três tarefas: task1
, task2
e task3
gravam em um bucket do S3 chamado MyBucket
.
Você cria três pastas no bucket:
s3://MyBucket/task1
s3://MyBucket/task2
s3://MyBucket/task3
Para cada tarefa, escolha a pasta em MyBucket
que corresponde à tarefa como destino e defina permissões diferentes para cada uma das três pastas.
Permitindo DataSync o acesso a um bucket do Amazon S3 restrito
Em alguns casos, você pode desejar limitar o acesso ao seu bucket do Amazon S3. Você pode editar a política de bucket do S3 para que ainda DataSync possa acessar o bucket ao executar uma tarefa.
Para permitir DataSync o acesso a um bucket S3 restrito
-
Copie o comando de exemplo a seguir.
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Deny", "Principal": "*", "Action": "s3:*", "Resource": [ "arn:aws:s3:::
bucket-name
", "arn:aws:s3:::bucket-name
/*" ], "Condition": { "StringNotLike": { "aws:userid": [ "datasync-role-id
:*", "your-role-id
" ] } } } ] } -
Na política de exemplo, substitua esses valores:
-
nome do bucket
: o nome do bucket do S3 ao qual você está restringindo o acesso. -
datasync-role-id
: o ID da função do IAM que DataSync acessa o bucket do S3 com. Execute oAWS CLI comando a seguir para obter o ID da função do IAM:aws iam get-role --role-name
datasync-iam-role-name
Na saída, procure o
RoleId
valor:"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"
-
your-role-id
: o ID da função do IAM com a qual você cria o DataSync local para o bucket do S3. Execute o comando a seguir para obter o ID da função do IAM:aws iam get-role --role-name
your-iam-role-name
Na saída, procure o
UserId
valor:"RoleId": "AIDACKCEVSQ6C2EXAMPLE"
-
-
Adicione essa política à sua política de bucket do S3. Para obter mais informações, consulte como editar uma política de bucket no Guia do usuário do Amazon S3.
Depois de atualizar a política de bucket do S3, você deve adicionar funções ou usuários adicionais do IAM à política para aqueles que precisam acessar o bucket do S3.