

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Übertragung Ihrer Daten mit AWS DataSync
<a name="transferring-data-datasync"></a>

Mit AWS DataSync können Sie Daten zu oder von Speichern übertragen, die sich vor Ort AWS, in oder in anderen Clouds befinden.

Die Einrichtung einer DataSync Übertragung umfasst im Allgemeinen die folgenden Schritte:

1. Stellen Sie fest, ob [Ihre Übertragung DataSync unterstützt](working-with-locations.md) wird.

1. Wenn [Sie einen DataSync Agenten für Ihre Übertragung benötigen](do-i-need-datasync-agent.md), setzen Sie einen Agenten so nah wie möglich an einem Ihrer Speichersysteme ein und aktivieren Sie ihn.

   Wenn Sie beispielsweise Daten von einem lokalen NFS-Dateiserver (Network File System) übertragen, setzen Sie den Agenten so nah wie möglich an diesem Dateiserver ein.

1. Gewähren Sie DataSync Zugriff auf Ihr Speichersystem.

   DataSync benötigt die Erlaubnis, von Ihrem Speicher zu lesen oder in ihn zu schreiben (je nachdem, ob es sich bei Ihrem Speicher um einen Quell- oder Zielort handelt). Erfahren Sie beispielsweise, wie Sie [ DataSync Zugriff auf NFS-Dateiserver gewähren](create-nfs-location.md#accessing-nfs).

1. [Connect Sie Ihr Netzwerk](networking-datasync.md) für den Verkehr zwischen Ihrem Speichersystem und DataSync.

1. Erstellen Sie mithilfe der DataSync Konsole oder DataSync API einen Speicherort für Ihr Quellspeichersystem. AWS CLI

   Erfahren Sie beispielsweise, wie Sie [einen NFS-Standort oder einen [Amazon S3 S3-Standort](create-s3-location.md#create-s3-location-how-to) erstellen](create-nfs-location.md#create-nfs-location-how-to).

1. Wiederholen Sie die Schritte 3 bis 5, um den Zielort Ihrer Übertragung zu erstellen.

1. [Erstellen und starten Sie eine DataSync Übertragungsaufgabe](create-task-how-to.md), die Ihre Quell- und Zielorte umfasst.

**Topics**
+ [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md)
+ [Übertragung zu oder von einem lokalen Speicher mit AWS DataSync](transferring-on-premises-storage.md)
+ [Übertragung in oder aus dem AWS Speicher mit AWS DataSync](transferring-aws-storage.md)
+ [Übertragung zu oder von einem anderen Cloud-Speicher mit AWS DataSync](transferring-other-cloud-storage.md)
+ [Eine Aufgabe für die Übertragung Ihrer Daten erstellen](create-task-how-to.md)
+ [Eine Aufgabe zur Übertragung Ihrer Daten starten](run-task.md)

# Mit wem kann ich meine Daten übertragen AWS DataSync?
<a name="working-with-locations"></a>

Wohin Sie Ihre Daten übertragen können, AWS DataSync hängt von den folgenden Faktoren ab:
+ Die Quell- und [Zielorte](how-datasync-transfer-works.md#sync-locations) Ihrer Übertragung
+ Wenn sich Ihre Standorte an unterschiedlichen Orten befinden AWS-Konten
+ Wenn sich Ihre Standorte an unterschiedlichen Orten befinden AWS-Regionen
+ Wenn Sie den Basismodus oder den erweiterten Modus verwenden

## Unterstützte Übertragungen im selben AWS-Konto
<a name="working-with-locations-same-account"></a>

DataSync unterstützt Übertragungen zwischen den folgenden Speicherressourcen, die derselben zugeordnet sind AWS-Konto.


| Quelle | Ziel | Erfordert einen Agenten? | Unterstützter Task-Modus | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nur für den Basismodus  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nur für den Basismodus  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 

## Unterstützte Übertragungen zwischen AWS-Konten
<a name="working-with-locations-across-accounts"></a>

DataSync unterstützt einige Übertragungen zwischen Speicherressourcen, die verschiedenen zugeordnet sind AWS-Konten.


| Quelle | Ziel | Erfordert einen Agenten? | Unterstützter Task-Modus | 
| --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Einfach, erweitert  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Nein  |  Nur Basic  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/working-with-locations.html)  |  Ja (wenn als NFS/SMB Standort verwendet)  |  Nur Basic  | 

1 Als [NFS-Standort](create-nfs-location.md) konfiguriert.

2 Als [SMB-Standort](create-smb-location.md) konfiguriert.

3 Als NFS- oder SMB-Standort konfiguriert.

## Unterstützte Übertragungen im selben AWS-Region
<a name="working-with-locations-same-region"></a>

Es gibt keine Einschränkungen bei der Übertragung von Daten innerhalb derselben Regionen AWS-Region (einschließlich [optionaler Regionen](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)). Weitere Informationen finden Sie unter [AWS-Regionen unterstützt von DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html).

## Unterstützte Übertragungen zwischen AWS-Regionen
<a name="working-with-locations-cross-regions"></a>

Beachten Sie Folgendes bei der Übertragung von Daten zwischen, die [AWS-Regionen unterstützt werden von DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html):
+ Bei der Übertragung zwischen AWS Speicherdiensten an verschiedenen AWS-Regionen Orten muss sich einer der beiden Standorte in der Region befinden, die Sie verwenden DataSync.
+ Sie können keine Übertragung zwischen Regionen mit einem NFS-, SMB-, HDFS- oder Objektspeicherort durchführen. In diesen Situationen müssen sich Ihre beiden Übertragungsorte in derselben Region befinden, in der Sie Ihren Agenten [aktivieren](activate-agent.md). DataSync
+ Mit AWS GovCloud (US) Regionen können Sie:
  + Transfer zwischen den Regionen AWS GovCloud (US-Ost) und AWS GovCloud (US-West).
  + Transfer zwischen einer AWS GovCloud (US) Region und einer kommerziellen Region AWS-Region, z. B. USA Ost (Nord-Virginia). Für diese Art der Übertragung ist bei der Übertragung zwischen Amazon EFS- oder FSx Amazon-Dateisystemen ein [Agent](agent-requirements.md) erforderlich.

**Wichtig**  
Sie zahlen für die Datenübertragung zwischen AWS-Regionen. Diese Übertragung wird als Datenübertragung von der Quell- zur Zielregion abgerechnet. Weitere Informationen finden Sie unter [AWS DataSync  – Preise](https://aws.amazon.com/datasync/pricing/).

## Stellen Sie fest, ob für Ihre Übertragung ein Agent erforderlich ist DataSync
<a name="datasync-transfer-requirements"></a>

Abhängig von Ihrem Übertragungsszenario benötigen Sie möglicherweise einen DataSync Agenten. Weitere Informationen finden Sie unter [Brauche ich einen AWS DataSync Agenten?](do-i-need-datasync-agent.md).

# Übertragung zu oder von einem lokalen Speicher mit AWS DataSync
<a name="transferring-on-premises-storage"></a>

Mit AWS DataSync können Sie Dateien und Objekte zwischen einer Reihe von lokalen oder selbstverwalteten Speichersystemen und den folgenden Speicherdiensten übertragen: AWS 
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx für Windows-Dateiserver](create-fsx-location.md)
+ [Amazon FSx für Lustre](create-lustre-location.md)
+ [Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Amazon FSx für NetApp ONTAP](create-ontap-location.md)

**Topics**
+ [Konfiguration von AWS DataSync Übertragungen mit einem NFS-Dateiserver](create-nfs-location.md)
+ [Konfiguration von AWS DataSync Übertragungen mit einem SMB-Dateiserver](create-smb-location.md)
+ [Konfiguration von AWS DataSync Übertragungen mit einem HDFS-Cluster](create-hdfs-location.md)
+ [Konfiguration von DataSync Übertragungen mit einem Objektspeichersystem](create-object-location.md)

# Konfiguration von AWS DataSync Übertragungen mit einem NFS-Dateiserver
<a name="create-nfs-location"></a>

Mit AWS DataSync können Sie Daten zwischen Ihrem Network File System (NFS) -Dateiserver und den folgenden AWS Speicherdiensten übertragen. Die unterstützten Speicherdienste hängen von Ihrem Aufgabenmodus ab, wie unten dargestellt:


| Basismodus | Verbesserter Modus | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-nfs-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-nfs-location.html)  | 

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Speicherort](how-datasync-transfer-works.md#sync-locations) für Ihren NFS-Dateiserver. Sie können diesen Speicherort als Übertragungsquelle oder -ziel verwenden.

## Bereitstellung des DataSync Zugriffs auf NFS-Dateiserver
<a name="accessing-nfs"></a>

[Für DataSync den Zugriff auf Ihren NFS-Dateiserver benötigen Sie einen DataSync Agenten.](how-datasync-transfer-works.md#sync-agents) Der Agent mountet mithilfe des NFS-Protokolls einen Export auf Ihrem Dateiserver. Stellen Sie sicher, dass Sie den Agenten verwenden, der Ihrem gewünschten Aufgabenmodus entspricht.

**Topics**
+ [Konfiguration Ihres NFS-Exports](#accessing-nfs-configuring-export)
+ [Unterstützte NFS-Versionen](#supported-nfs-versions)

### Konfiguration Ihres NFS-Exports
<a name="accessing-nfs-configuring-export"></a>

Welcher Export für Ihre Übertragung DataSync erforderlich ist, hängt davon ab, ob es sich bei Ihrem NFS-Dateiserver um einen Quell- oder Zielspeicherort handelt und wie die Berechtigungen Ihres Dateiservers konfiguriert sind.

Wenn es sich bei Ihrem Dateiserver um einen Quellspeicherort handelt, müssen Sie DataSync lediglich Ihre Dateien und Ordner lesen und durchqueren. Wenn es sich um einen Zielort handelt, DataSync benötigt er Root-Zugriff, um in den Speicherort zu schreiben und Besitzrechte, Berechtigungen und andere Metadaten für die Dateien und Ordner, die Sie kopieren, festzulegen. Sie können die `no_root_squash` Option verwenden, um Root-Zugriff für Ihren Export zu gewähren.

In den folgenden Beispielen wird beschrieben, wie Sie einen NFS-Export konfigurieren, der Zugriff DataSync auf ermöglicht.

**Wenn Ihr NFS-Dateiserver ein Quellspeicherort ist (Root-Zugriff)**  
Konfigurieren Sie Ihren Export mithilfe des folgenden Befehls, der DataSync nur Leseberechtigungen (`ro`) und Root-Zugriff () gewährt: `no_root_squash`

```
export-path datasync-agent-ip-address(ro,no_root_squash)
```

**Wenn Ihr NFS-Dateiserver ein Zielort ist**  
Konfigurieren Sie Ihren Export mithilfe des folgenden Befehls, der DataSync Schreibberechtigungen (`rw`) und Root-Zugriff (`no_root_squash`) bereitstellt:

```
export-path datasync-agent-ip-address(rw,no_root_squash)
```

**Wenn Ihr NFS-Dateiserver ein Quellverzeichnis ist (kein Root-Zugriff)**  
Konfigurieren Sie Ihren Export mithilfe des folgenden Befehls, der die POSIX-Benutzer-ID (UID) und Gruppen-ID (GID) angibt, von denen Sie wissen, dass sie nur DataSync Leseberechtigungen für den Export gewähren würden:

```
export-path datasync-agent-ip-address(ro,all_squash,anonuid=uid,anongid=gid)
```

### Unterstützte NFS-Versionen
<a name="supported-nfs-versions"></a>

 DataSync Verwendet standardmäßig NFS-Version 4.1. DataSync unterstützt auch NFS 4.0 und 3.x.

## Konfiguration Ihres Netzwerks für NFS-Übertragungen
<a name="configure-network-nfs-location"></a>

Für Ihre DataSync Übertragung müssen Sie den Verkehr für einige Netzwerkverbindungen konfigurieren: 

1. Erlauben Sie Datenverkehr über die folgenden Ports von Ihrem DataSync Agenten zu Ihrem NFS-Dateiserver:
   + **Für NFS-Versionen 4.1 und 4.0** — TCP-Port 2049
   + **Für NFS-Version 3.x** — TCP-Ports 111 und 2049

   Andere NFS-Clients in Ihrem Netzwerk sollten in der Lage sein, den NFS-Export zu mounten, den Sie für die Datenübertragung verwenden. Der Export muss auch ohne Kerberos-Authentifizierung zugänglich sein.

1. Konfigurieren Sie den Datenverkehr für Ihre [Service-Endpunktverbindung](datasync-network.md) (z. B. einen VPC-, öffentlichen oder FIPS-Endpunkt).

1. Erlauben Sie Datenverkehr vom DataSync Service zum [AWS Speicherservice](datasync-network.md#storage-service-network-requirements), zu dem oder von dem Sie übertragen.

## Erstellen Sie Ihren NFS-Übertragungsort
<a name="create-nfs-location-how-to"></a>

Bevor Sie beginnen, beachten Sie Folgendes:
+ Sie benötigen einen NFS-Dateiserver, von dem Sie Daten übertragen möchten.
+ Sie benötigen einen DataSync Agenten, der [auf Ihren Dateiserver zugreifen](#accessing-nfs) kann.
+  DataSync unterstützt nicht das Kopieren von NFS Version 4-Zugriffskontrolllisten (ACLs).

### Verwenden der Konsole DataSync
<a name="create-nfs-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Network File System (NFS)** aus.

1. Wählen Sie für **Agenten** den DataSync Agenten aus, der eine Verbindung zu Ihrem NFS-Dateiserver herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für **NFS-Server** den DNS-Namen (Domain Name System) oder die IP-Adresse des NFS-Dateiservers ein, mit dem Ihr DataSync Agent eine Verbindung herstellt.

1. Geben Sie **unter Bereitstellungspfad** den NFS-Exportpfad ein, den Sie mounten möchten DataSync .

   Dieser Pfad (oder ein Unterverzeichnis des Pfads) ist der Ort, an den Daten DataSync übertragen werden oder von diesem Pfad. Weitere Informationen finden Sie unter [Konfiguration Ihres NFS-Exports](#accessing-nfs-configuring-export).

1. (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie eine bestimmte **NFS-Version** aus, die Sie beim Zugriff auf Ihren Dateiserver verwenden möchten. DataSync 

   Weitere Informationen finden Sie unter [Unterstützte NFS-Versionen](#supported-nfs-versions).

1. (Optional) Wählen Sie **Tag hinzufügen**, um Ihren NFS-Speicherort zu kennzeichnen.

   *Tags* sind Schlüssel-Wert-Paare, mit denen Sie Ihre Standorte verwalten, filtern und nach ihnen suchen können. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-nfs-cli"></a>
+ Verwenden Sie den folgenden Befehl, um einen NFS-Speicherort zu erstellen.

  ```
  aws datasync create-location-nfs \
      --server-hostname nfs-server-address \
      --on-prem-config AgentArns=datasync-agent-arns \
      --subdirectory nfs-export-path
  ```

  Weitere Informationen zum Erstellen des Speicherorts finden Sie unter[Bereitstellung des DataSync Zugriffs auf NFS-Dateiserver](#accessing-nfs).

  DataSync wählt automatisch die NFS-Version aus, die zum Lesen von einem NFS-Speicherort verwendet wird. Um eine NFS-Version anzugeben, verwenden Sie in der API-Operation [NfsMountOptions](API_NfsMountOptions.md) den optionalen Parameter `Version`.

Dieser Befehl gibt für den NFS-Speicherort einen Amazon-Ressourcennamen (ARN) ähnlich dem folgenden ARN zurück.

```
{
    "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0f01451b140b2af49"
}
```

Um zu überprüfen, ob das Verzeichnis gemountet werden kann, können Sie eine Verbindung zu einem Computer mit der gleichen Netzwerkkonfiguration wie Ihr Agent herstellen und den folgenden CLI-Befehl ausführen. 

```
mount -t nfs -o nfsvers=<nfs-server-version <nfs-server-address:<nfs-export-path <test-folder
```

Im Folgenden finden Sie ein Beispiel für den Befehl.

```
mount -t nfs -o nfsvers=3 198.51.100.123:/path_for_sync_to_read_from /temp_folder_to_test_mount_on_local_machine
```

# Konfiguration von AWS DataSync Übertragungen mit einem SMB-Dateiserver
<a name="create-smb-location"></a>

Mit AWS DataSync können Sie Daten zwischen Ihrem Server Message Block (SMB) -Dateiserver und den folgenden AWS Speicherdiensten übertragen. Die unterstützten Speicherdienste hängen von Ihrem Aufgabenmodus ab, wie unten dargestellt:


| Basismodus | Verbesserter Modus | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-smb-location.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-smb-location.html)  | 

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Speicherort](how-datasync-transfer-works.md#sync-locations) für Ihren SMB-Dateiserver. Sie können dies als Übertragungsquelle oder -ziel verwenden. Stellen Sie sicher, dass Sie den Agenten verwenden, der Ihrem gewünschten Aufgabenmodus entspricht.

## Bereitstellung des DataSync Zugriffs auf SMB-Dateiserver
<a name="configuring-smb"></a>

DataSync stellt über das SMB-Protokoll eine Verbindung zu Ihrem Dateiserver her und kann sich mit NTLM oder Kerberos authentifizieren.

**Topics**
+ [Unterstützte SMB-Versionen](#configuring-smb-version)
+ [Verwenden der NTLM-Authentifizierung](#configuring-smb-ntlm-authentication)
+ [Verwenden der Kerberos-Authentifizierung](#configuring-smb-kerberos-authentication)
+ [Erforderliche Berechtigungen](#configuring-smb-permissions)
+ [DFS-Namespaces](#configuring-smb-location-dfs)

### Unterstützte SMB-Versionen
<a name="configuring-smb-version"></a>

Wählt standardmäßig DataSync automatisch eine Version des SMB-Protokolls auf der Grundlage der Verhandlungen mit Ihrem SMB-Dateiserver aus.

Sie können auch die Verwendung einer bestimmten SMB-Version konfigurieren. Wir empfehlen jedoch, dies nur dann DataSync zu tun, wenn DataSync Probleme bei der automatischen Aushandlung mit dem SMB-Dateiserver auftreten. DataSync unterstützt SMB-Versionen 1.0 und höher. Aus Sicherheitsgründen empfehlen wir die Verwendung von SMB Version 3.0.2 oder höher. Frühere Versionen, wie SMB 1.0, enthalten bekannte Sicherheitslücken, die Angreifer ausnutzen können, um Ihre Daten zu gefährden.

In der folgenden Tabelle finden Sie eine Liste der Optionen in der DataSync Konsole und der API:


| Konsolenoption | API-Option | Description | 
| --- | --- | --- | 
| Automatisch |  `AUTOMATIC`  |  DataSync und der SMB-Dateiserver handeln zwischen 2.1 und 3.1.1 die höchste Version von SMB aus, die sie gegenseitig unterstützen. Dies ist die Standardoption und die empfohlene Option. Wenn Sie stattdessen eine bestimmte Version auswählen, die Ihr Dateiserver nicht unterstützt, erhalten Sie möglicherweise eine `Operation Not Supported`-Fehlermeldung.  | 
|  SMB 3.0.2  |  `SMB3`  |  Beschränkt die Protokollaushandlung nur auf SMB-Version 3.0.2.  | 
| SMB 2.1 |  `SMB2`  | Beschränkt die Protokollaushandlung nur auf SMB-Version 2.1. | 
| SMB 2.0 | `SMB2_0` | Beschränkt die Protokollaushandlung nur auf SMB Version 2.0. | 
| SMB 1.0 | `SMB1` | Beschränkt die Protokollaushandlung nur auf SMB Version 1.0. | 

### Verwenden der NTLM-Authentifizierung
<a name="configuring-smb-ntlm-authentication"></a>

Um die NTLM-Authentifizierung zu verwenden, geben Sie einen Benutzernamen und ein Passwort an, mit denen Sie auf den SMB-Dateiserver zugreifen können, DataSync zu dem oder von dem Sie Daten übertragen. Der Benutzer kann ein lokaler Benutzer auf Ihrem Dateiserver oder ein Domänenbenutzer in Ihrem Microsoft Active Directory sein.

### Verwenden der Kerberos-Authentifizierung
<a name="configuring-smb-kerberos-authentication"></a>

Um die Kerberos-Authentifizierung zu verwenden, stellen Sie einen Kerberos-Prinzipal, eine Kerberos-Schlüsseltabellendatei (Keytab) und eine Kerberos-Konfigurationsdatei bereit, die den Zugriff auf den SMB-Dateiserver ermöglichen, DataSync zu dem oder von dem Sie übertragen.

**Topics**
+ [Voraussetzungen](#configuring-smb-kerberos-prerequisites)
+ [DataSync Konfigurationsoptionen für Kerberos](#configuring-smb-kerberos-options)

#### Voraussetzungen
<a name="configuring-smb-kerberos-prerequisites"></a>

Sie müssen einige Kerberos-Artefakte erstellen und Ihr Netzwerk so konfigurieren, dass es auf Ihren SMB-Dateiserver zugreifen kann. DataSync 
+ [https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/ktpass)

  Das folgende Beispiel erstellt eine Keytab-Datei mithilfe von. `ktpass` Der Kerberos-Bereich, den Sie angeben (`MYDOMAIN.ORG`), muss in Großbuchstaben geschrieben werden.

  ```
  ktpass /out C:\YOUR_KEYTAB.keytab /princ HOST/kerberosuser@MYDOMAIN.ORG /mapuser kerberosuser /pass * /crypto AES256-SHA1 /ptype KRB5_NT_PRINCIPAL
  ```
+ Bereiten Sie eine vereinfachte Version der Kerberos-Konfigurationsdatei vor (). `krb5.conf` Fügen Sie Informationen über den Bereich, den Standort der Domain-Admin-Server und Zuordnungen von Hostnamen zu einem Kerberos-Bereich hinzu.

  Stellen Sie sicher, dass der `krb5.conf` Inhalt mit der richtigen Groß- und Kleinschreibung für die Namen der Bereiche und Domänenbereiche formatiert ist. Beispiel:

  ```
  [libdefaults] 
    dns_lookup_realm = true 
    dns_lookup_kdc = true 
    forwardable = true 
    default_realm = MYDOMAIN.ORG
  
  [realms] 
    MYDOMAIN.ORG = { 
      kdc = mydomain.org 
      admin_server = mydomain.org 
    }
  
  [domain_realm] 
    .mydomain.org = MYDOMAIN.ORG 
    mydomain.org = MYDOMAIN.ORG
  ```
+ Stellen Sie in Ihrer Netzwerkkonfiguration sicher, dass Ihr Kerberos Key Distribution Center (KDC) -Serverport geöffnet ist. Der KDC-Port ist in der Regel der TCP-Port 88.

#### DataSync Konfigurationsoptionen für Kerberos
<a name="configuring-smb-kerberos-options"></a>

Wenn Sie einen SMB-Standort erstellen, der Kerberos verwendet, konfigurieren Sie die folgenden Optionen.


| Konsolenoption | API-Option | Description | 
| --- | --- | --- | 
|  **SMB-Server**  |  `ServerHostName`  |  Der Domainname des SMB-Dateiservers, den Ihr DataSync Agent mounten wird. Für Kerberos können Sie die IP-Adresse des Dateiservers nicht angeben.  | 
|  **Kerberos-Prinzipal**  |  `KerberosPrincipal`  |  Eine Identität in Ihrem Kerberos-Bereich, die berechtigt ist, auf die Dateien, Ordner und Dateimetadaten auf Ihrem SMB-Dateiserver zuzugreifen. Ein Kerberos-Prinzipal könnte so aussehen. `HOST/kerberosuser@MYDOMAIN.ORG` Bei Prinzipalnamen wird Groß- und Kleinschreibung beachtet.  | 
|  **Keytab-Datei**  |  `KerberosKeytab`   |  Eine Kerberos-Schlüsseltabellendatei (Keytab), die Zuordnungen zwischen Ihrem Kerberos-Prinzipal und den Verschlüsselungsschlüsseln enthält.  | 
|  **Kerberos-Konfigurationsdatei**  |  `KerberosKrbConf`  |  Eine `krb5.conf` Datei, die Ihre Kerberos-Realm-Konfiguration definiert.  | 
|  **DNS-IP-Adressen (optional**)  |  `DnsIpAddresses`  |  Die IPv4 Adressen für die DNS-Server, zu denen Ihr SMB-Dateiserver gehört. Wenn Sie mehrere Domänen in Ihrer Umgebung haben, stellen Sie durch diese Konfiguration sicher, dass DataSync eine Verbindung zum richtigen SMB-Dateiserver hergestellt wird.  | 

### Erforderliche Berechtigungen
<a name="configuring-smb-permissions"></a>

Die von Ihnen angegebene Identität DataSync muss berechtigt sein, die Dateien, Ordner und Dateimetadaten Ihres SMB-Dateiservers bereitzustellen und darauf zuzugreifen.

Wenn Sie in Ihrem Active Directory eine Identität angeben, muss diese Mitglied einer Active Directory-Gruppe mit einem oder beiden der folgenden Benutzerrechte sein (abhängig von den [Metadaten, die Sie kopieren DataSync möchten](configure-metadata.md)):


| Benutzerrecht | Description | 
| --- | --- | 
|  **Dateien und Verzeichnisse wiederherstellen** (`SE_RESTORE_NAME`)  |  Ermöglicht DataSync das Kopieren von Objekteigentümern, Berechtigungen, Dateimetadaten und beliebigen NTFS-Zugriffslisten ()DACLs. Dieses Benutzerrecht wird normalerweise Mitgliedern der Gruppen **Domänen-Admins** und **Backup-Operatoren** gewährt (beide sind Active Directory-Standardgruppen).  | 
|  **Überwachungs- und Sicherheitsprotokoll verwalten** () `SE_SECURITY_NAME`  |  Ermöglicht DataSync das Kopieren von NTFS-Systemzugriffskontrolllisten (SACLs). Dieses Benutzerrecht wird normalerweise Mitgliedern der Gruppe **Domänen-Admins** gewährt.   | 

Wenn Sie Windows kopieren möchten ACLs und zwischen einem SMB-Dateiserver und einem anderen Speichersystem, das SMB verwendet (wie Amazon FSx für Windows File Server oder FSx für ONTAP), übertragen, DataSync muss die von Ihnen angegebene Identität zu derselben Active Directory-Domäne gehören oder über eine Active Directory-Vertrauensstellung zwischen ihren Domänen verfügen.

### DFS-Namespaces
<a name="configuring-smb-location-dfs"></a>

DataSync unterstützt keine Microsoft Distributed File System (DFS) -Namespaces. Wir empfehlen, bei der Erstellung Ihres Standorts stattdessen einen zugrunde liegenden Dateiserver oder eine Dateifreigabe anzugeben. DataSync 

## Erstellen Sie Ihren SMB-Übertragungsort
<a name="create-smb-location-how-to"></a>

Bevor Sie beginnen, benötigen Sie einen SMB-Dateiserver, von dem Sie Daten übertragen möchten.

### Verwenden der Konsole DataSync
<a name="create-smb-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie für **Location type (Speicherorttyp)** **Server Message Block (SMB)**.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Wählen Sie für **Agenten** den DataSync Agenten aus, der eine Verbindung zu Ihrem SMB-Dateiserver herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für **SMB-Server** den Domainnamen oder die IP-Adresse des SMB-Dateiservers ein, den Ihr DataSync Agent bereitstellen wird.

   Beachten Sie bei dieser Einstellung Folgendes:
   + Sie können keine IP-Adresse der Version 6 (IPv6) angeben.
   + Wenn Sie die Kerberos-Authentifizierung verwenden, müssen Sie einen Domänennamen angeben.

1. Geben Sie unter **Freigabename** den Namen der Freigabe ein, die von Ihrem SMB-Dateiserver exportiert wurde und auf der Daten gelesen oder DataSync geschrieben werden sollen.

   Sie können ein Unterverzeichnis in den Freigabepfad aufnehmen (z. B.`/path/to/subdirectory`). Stellen Sie sicher, dass andere SMB-Clients in Ihrem Netzwerk diesen Pfad ebenfalls bereitstellen können. 

   Um alle Daten im Unterverzeichnis zu kopieren, DataSync müssen Sie in der Lage sein, die SMB-Freigabe zu mounten und auf alle zugehörigen Daten zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#configuring-smb-permissions).

1. (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie eine **SMB-Version** aus, die Sie beim Zugriff auf Ihren Dateiserver verwenden möchten. DataSync 

   Wählt standardmäßig DataSync automatisch eine Version aus, die auf Verhandlungen mit dem SMB-Dateiserver basiert. Weitere Informationen finden Sie unter [Unterstützte SMB-Versionen](#configuring-smb-version).

1. **Wählen Sie als **Authentifizierungstyp** **NTLM** oder Kerberos aus.**

1. Führen Sie je nach Authentifizierungstyp einen der folgenden Schritte aus:

------
#### [ NTLM ]
   + Geben Sie **unter Benutzer** einen Benutzernamen ein, der Ihren SMB-Dateiserver einbinden kann und der Zugriff auf die Dateien und Ordner hat, die an Ihrer Übertragung beteiligt sind.

     Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#configuring-smb-permissions).
   + Geben Sie **unter Passwort** das Passwort des Benutzers ein, der Ihren SMB-Dateiserver mounten kann und Zugriff auf die Dateien und Ordner hat, die an Ihrer Übertragung beteiligt sind.
   + (Optional) Geben Sie unter **Domain** den Windows-Domänennamen ein, zu dem Ihr SMB-Dateiserver gehört.

     Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieser Einstellung sichergestellt, dass DataSync eine Verbindung zum richtigen SMB-Dateiserver hergestellt wird.

------
#### [ Kerberos ]
   + Geben Sie für **Kerberos-Prinzipal** einen Prinzipal in Ihrem Kerberos-Bereich an, der berechtigt ist, auf die Dateien, Ordner und Dateimetadaten auf Ihrem SMB-Dateiserver zuzugreifen.

     Ein Kerberos-Prinzipal könnte wie folgt aussehen. `HOST/kerberosuser@MYDOMAIN.ORG`

     Bei Prinzipalnamen wird Groß- und Kleinschreibung beachtet. Ihre DataSync Aufgabenausführung schlägt fehl, wenn der Prinzipal, den Sie für diese Einstellung angeben, nicht exakt dem Prinzipal entspricht, den Sie zum Erstellen der Keytab-Datei verwenden.
   + Laden Sie für die **Keytab-Datei** eine Keytab-Datei hoch, die Zuordnungen zwischen Ihrem Kerberos-Prinzipal und den Verschlüsselungsschlüsseln enthält.
   + Laden Sie für die **Kerberos-Konfigurationsdatei eine `krb5.conf` Datei hoch, die Ihre** Kerberos-Realm-Konfiguration definiert.
   + (Optional) Geben Sie für **DNS-IP-Adressen bis zu zwei IPv4 Adressen** für die DNS-Server an, zu denen Ihr SMB-Dateiserver gehört. 

     Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieses Parameters sichergestellt, dass DataSync eine Verbindung zum richtigen SMB-Dateiserver hergestellt wird.

------

1. (Optional) Wählen Sie **Tag hinzufügen** aus, um Ihren SMB-Standort zu kennzeichnen.

   *Stichwörter* sind Schlüssel-Wert-Paare, die Ihnen helfen, Ihre Standorte zu verwalten, zu filtern und nach ihnen zu suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-smb-cli"></a>

In den folgenden Anweisungen wird beschrieben, wie SMB-Standorte mit NTLM- oder Kerberos-Authentifizierung erstellt werden.

------
#### [ NTLM ]

1. Kopieren Sie den folgenden Befehl. `create-location-smb`

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "NTLM" \
       --user user-who-can-mount-share \
       --password user-password \
       --domain windows-domain-of-smb-server
   ```

1. Geben Sie für `--agent-arns` den DataSync Agenten an, der eine Verbindung zu Ihrem SMB-Dateiserver herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für `--server-hostname` den Domainnamen oder die IPv4 Adresse des SMB-Dateiservers an, den Ihr DataSync Agent bereitstellen wird. 

1. Geben Sie für den Namen der Freigabe an`--subdirectory`, die von Ihrem SMB-Dateiserver exportiert wurde und auf der Daten gelesen oder geschrieben DataSync werden sollen.

   Sie können ein Unterverzeichnis in den Freigabepfad aufnehmen (z. B.`/path/to/subdirectory`). Stellen Sie sicher, dass andere SMB-Clients in Ihrem Netzwerk diesen Pfad ebenfalls bereitstellen können. 

   Um alle Daten im Unterverzeichnis zu kopieren, DataSync müssen Sie in der Lage sein, die SMB-Freigabe zu mounten und auf alle zugehörigen Daten zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#configuring-smb-permissions).

1. Geben Sie zum Beispiel einen Benutzernamen an`--user`, der Ihren SMB-Dateiserver einbinden kann und der Zugriff auf die Dateien und Ordner hat, die an Ihrer Übertragung beteiligt sind.

   Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#configuring-smb-permissions).

1. Geben Sie zum `--password` Beispiel das Passwort des Benutzers an, der Ihren SMB-Dateiserver bereitstellen kann und über Zugriffsrechte auf die Dateien und Ordner verfügt, die an Ihrer Übertragung beteiligt sind.

1. (Optional) Geben Sie für `--domain` den Windows-Domänennamen an, zu dem Ihr SMB-Dateiserver gehört.

   Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieser Einstellung sichergestellt, dass DataSync eine Verbindung zum richtigen SMB-Dateiserver hergestellt wird.

1. (Optional) Fügen Sie die `--version` Option hinzu, wenn Sie eine bestimmte SMB-Version verwenden möchten DataSync . Weitere Informationen finden Sie unter [Unterstützte SMB-Versionen](#configuring-smb-version).

1. Führen Sie den Befehl `create-location-smb` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------
#### [ Kerberos ]

1. Kopieren Sie den folgenden `create-location-smb` Befehl.

   ```
   aws datasync create-location-smb \
       --agent-arns datasync-agent-arns \
       --server-hostname smb-server-address \
       --subdirectory smb-export-path \
       --authentication-type "KERBEROS" \
       --kerberos-principal "HOST/kerberosuser@EXAMPLE.COM" \
       --kerberos-keytab "fileb://path/to/file.keytab" \
       --kerberos-krb5-conf "file://path/to/krb5.conf" \
       --dns-ip-addresses array-of-ipv4-addresses
   ```

1. Geben Sie für `--agent-arns` den DataSync Agenten an, der eine Verbindung zu Ihrem SMB-Dateiserver herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für `--server-hostname` den Domainnamen des SMB-Dateiservers an, den Ihr DataSync Agent bereitstellen wird. 

1. Geben Sie für den Namen der Freigabe an`--subdirectory`, die von Ihrem SMB-Dateiserver exportiert wurde und auf der Daten gelesen oder geschrieben DataSync werden sollen.

   Sie können ein Unterverzeichnis in den Freigabepfad aufnehmen (z. B.`/path/to/subdirectory`). Stellen Sie sicher, dass andere SMB-Clients in Ihrem Netzwerk diesen Pfad ebenfalls bereitstellen können. 

   Um alle Daten im Unterverzeichnis zu kopieren, DataSync müssen Sie in der Lage sein, die SMB-Freigabe zu mounten und auf alle zugehörigen Daten zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#configuring-smb-permissions).

1. Gehen Sie für die Kerberos-Optionen wie folgt vor:
   + `--kerberos-principal`: Geben Sie einen Principal in Ihrem Kerberos-Bereich an, der berechtigt ist, auf die Dateien, Ordner und Dateimetadaten auf Ihrem SMB-Dateiserver zuzugreifen.

     Ein Kerberos-Prinzipal könnte wie folgt aussehen. `HOST/kerberosuser@MYDOMAIN.ORG`

     Bei Prinzipalnamen wird Groß- und Kleinschreibung beachtet. Ihre DataSync Aufgabenausführung schlägt fehl, wenn der Prinzipal, den Sie für diese Option angeben, nicht exakt dem Prinzipal entspricht, den Sie zum Erstellen der Keytab-Datei verwenden.
   + `--kerberos-keytab`: Geben Sie eine Keytab-Datei an, die Zuordnungen zwischen Ihrem Kerberos-Prinzipal und den Verschlüsselungsschlüsseln enthält.
   + `--kerberos-krb5-conf`: Geben Sie eine `krb5.conf` Datei an, die Ihre Kerberos-Realm-Konfiguration definiert.
   + (Optional)`--dns-ip-addresses`: Geben Sie bis zu zwei IPv4 Adressen für die DNS-Server an, zu denen Ihr SMB-Dateiserver gehört. 

     Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieses Parameters sichergestellt, dass DataSync eine Verbindung zum richtigen SMB-Dateiserver hergestellt wird.

1. (Optional) Fügen Sie die `--version` Option hinzu, wenn Sie eine bestimmte SMB-Version verwenden möchten DataSync . Weitere Informationen finden Sie unter [Unterstützte SMB-Versionen](#configuring-smb-version).

1. Führen Sie den Befehl `create-location-smb` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

------

# Konfiguration von AWS DataSync Übertragungen mit einem HDFS-Cluster
<a name="create-hdfs-location"></a>

Mit AWS DataSync können Sie mithilfe von Aufgaben im Basismodus Daten zwischen Ihrem Hadoop Distributed File System (HDFS) -Cluster und einem der folgenden AWS Speicherdienste übertragen:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx für Windows-Dateiserver](create-fsx-location.md)
+ [Amazon FSx für Lustre](create-lustre-location.md)
+ [Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Amazon FSx für NetApp ONTAP](create-ontap-location.md)

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Speicherort](how-datasync-transfer-works.md#sync-locations) für Ihren HDFS-Cluster. Sie können diesen Standort als Übertragungsquelle oder -ziel verwenden.

## Bereitstellung des DataSync Zugriffs auf HDFS-Cluster
<a name="accessing-hdfs"></a>

Um eine Verbindung zu Ihrem HDFS-Cluster herzustellen, DataSync wird ein [Agent im Basismodus verwendet, den Sie so nah wie möglich an Ihrem HDFS-Cluster bereitstellen](deploy-agents.md). Der DataSync Agent fungiert als HDFS-Client und kommuniziert mit dem NameNodes und DataNodes in Ihrem Cluster.

Wenn Sie eine Übertragungsaufgabe starten, werden die NameNode Speicherorte von Dateien und Ordnern auf dem Cluster DataSync abgefragt. Wenn Sie Ihren HDFS-Speicherort als Quellverzeichnis konfigurieren, DataSync liest Dateien und Ordnerdaten aus DataNodes dem Cluster und kopiert diese Daten an das Ziel. Wenn Sie Ihren HDFS-Speicherort als Zielspeicherort konfigurieren, werden dann Dateien und Ordner von der Quelle in den Ordner DataNodes in Ihrem Cluster DataSync geschrieben.

### Authentifizierung
<a name="accessing-hdfs-authentication"></a>

 DataSync Unterstützt beim Herstellen einer Verbindung zu einem HDFS-Cluster die einfache Authentifizierung oder die Kerberos-Authentifizierung. Um die einfache Authentifizierung zu verwenden, geben Sie den Benutzernamen eines Benutzers mit Lese- und Schreibberechtigungen für den HDFS-Cluster an. Um die Kerberos-Authentifizierung zu verwenden, geben Sie eine Kerberos-Konfigurationsdatei, eine Kerberos-Schlüsseltabellendatei (Keytab) und einen Kerberos-Prinzipalnamen an. Die Anmeldeinformationen des Kerberos-Prinzipals müssen in der bereitgestellten Keytab-Datei enthalten sein.

### Verschlüsselung
<a name="accessing-hdfs-encryption"></a>

 DataSync Unterstützt bei Verwendung der Kerberos-Authentifizierung die Verschlüsselung von Daten bei der Übertragung zwischen dem DataSync Agenten und Ihrem HDFS-Cluster. Verschlüsseln Sie Ihre Daten, indem Sie die QOP-Konfigurationseinstellungen (Quality of Protection) auf Ihrem HDFS-Cluster verwenden und die QOP-Einstellungen bei der Erstellung Ihres HDFS-Standorts angeben. Die QOP-Konfiguration umfasst Einstellungen für den Datenübertragungsschutz und den RPC-Schutz (Remote Procedure Call). 

**DataSync unterstützt die folgenden Kerberos-Verschlüsselungstypen:**
+ `des-cbc-crc`
+ `des-cbc-md4`
+ `des-cbc-md5`
+ `des3-cbc-sha1`
+ `arcfour-hmac`
+ `arcfour-hmac-exp`
+ `aes128-cts-hmac-sha1-96`
+ `aes256-cts-hmac-sha1-96`
+ `aes128-cts-hmac-sha256-128`
+ `aes256-cts-hmac-sha384-192`
+ `camellia128-cts-cmac`
+ `camellia256-cts-cmac`

Sie können HDFS-Cluster auch für die Verschlüsselung im Ruhezustand mithilfe von Transparent Data Encryption (TDE) konfigurieren. Bei Verwendung der einfachen Authentifizierung werden DataSync Lese- und Schreibvorgänge in TDE-fähige Cluster ausgeführt. Wenn Sie Daten in einen TDE-fähigen Cluster kopieren DataSync möchten, konfigurieren Sie zunächst die Verschlüsselungszonen auf dem HDFS-Cluster. DataSync erstellt keine Verschlüsselungszonen. 

## HDFS-Funktionen werden nicht unterstützt
<a name="hdfs-unsupported-features"></a>

Die folgenden HDFS-Funktionen werden derzeit nicht unterstützt von: DataSync
+ Transparente Datenverschlüsselung (TDE) bei Verwendung der Kerberos-Authentifizierung
+ Konfiguration mehrerer NameNodes
+ Hadoop HDFS über HTTP (HttpFS)
+ POSIX-Zugriffskontrolllisten () ACLs
+ Erweiterte HDFS-Attribute (Xattrs)
+ HDFS-Cluster, die Apache verwenden HBase

## Erstellen Sie Ihren HDFS-Übertragungsort
<a name="create-hdfs-location-how-to"></a>

Sie können Ihren Standort als Quelle oder Ziel für Ihre DataSync Übertragung verwenden.

**Bevor Sie beginnen**: Überprüfen Sie die Netzwerkkonnektivität zwischen Ihrem Agenten und dem Hadoop-Cluster, indem Sie wie folgt vorgehen:
+ Testen Sie den Zugriff auf die unter aufgeführten TCP-Ports. [Netzwerkanforderungen für lokalen, selbstverwalteten und anderen Cloud-Speicher](datasync-network.md#on-premises-network-requirements)
+ Testen Sie den Zugriff zwischen Ihrem lokalen Agenten und Ihrem Hadoop-Cluster. Detaillierte Anweisungen finden Sie unter [Überprüfen Sie die Verbindung Ihres Agenten zu Ihrem Speichersystem](test-agent-connections.md#self-managed-storage-connectivity).

### Verwenden der Konsole DataSync
<a name="create-hdfs-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Hadoop Distributed File System (HDFS**) aus.

   Sie können diesen Speicherort später als Quelle oder Ziel konfigurieren. 

1. Wählen Sie für **Agents den Agenten** aus, der eine Verbindung zu Ihrem HDFS-Cluster herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für **NameNode**den Domainnamen oder die IP-Adresse des primären NameNode HDFS-Clusters an.

1. Geben Sie unter **Ordner** einen Ordner auf Ihrem HDFS-Cluster ein, den Sie für die Datenübertragung verwenden DataSync möchten.

   Wenn es sich bei Ihrem HDFS-Speicherort um eine Quelle handelt, werden die Dateien in diesem Ordner an das Ziel DataSync kopiert. Wenn es sich bei Ihrem Standort um ein Ziel handelt, werden Dateien in diesen Ordner DataSync geschrieben.

1. Um die **Blockgröße** oder den **Replikationsfaktor** festzulegen, wählen Sie **Zusätzliche Einstellungen**.

   Die Standardblockgröße ist 128 MiB. Die von Ihnen angegebenen Blockgrößen müssen ein Vielfaches von 512 Byte sein.

    DataNodes Bei der Übertragung auf den HDFS-Cluster ist der Standardreplikationsfaktor drei. 

1. Wählen Sie im Abschnitt **Sicherheit** den **Authentifizierungstyp** aus, der auf Ihrem HDFS-Cluster verwendet wird. 
   + **Einfach** — Geben Sie für **Benutzer** den Benutzernamen mit den folgenden Berechtigungen auf dem HDFS-Cluster an (abhängig von Ihrem Anwendungsfall):
     + Wenn Sie diesen Speicherort als Quellspeicherort verwenden möchten, geben Sie einen Benutzer an, der nur über Leseberechtigungen verfügt.
     + Wenn Sie diesen Speicherort als Zielspeicherort verwenden möchten, geben Sie einen Benutzer mit Lese- und Schreibberechtigungen an.

     Geben Sie optional den URI des Key Management Servers (KMS) Ihres HDFS-Clusters an. 
   + **Kerberos** — Geben Sie den **Kerberos-Prinzipal** mit Zugriff auf Ihren HDFS-Cluster an. Geben Sie als Nächstes die **KeyTabDatei an, die den bereitgestellten Kerberos-Prinzipal** enthält. Stellen Sie dann die **Kerberos-Konfigurationsdatei** bereit. Geben Sie abschließend die Art der Verschlüsselung beim Übertragungsschutz in den Dropdownlisten **RPC-Schutz** und **Datenübertragungsschutz** an.

1. (Optional) Wählen Sie **Tag hinzufügen** aus, um Ihren HDFS-Standort zu kennzeichnen.

   *Tags* sind Schlüssel-Wert-Paare, die Ihnen helfen, Ihre Standorte zu verwalten, zu filtern und nach ihnen zu suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-hdfs-cli"></a>

1. Kopieren Sie den folgenden `create-location-hdfs` Befehl.

   ```
   aws datasync create-location-hdfs --name-nodes [{"Hostname":"host1", "Port": 8020}] \
       --authentication-type "SIMPLE|KERBEROS" \
       --agent-arns [arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890example] \
       --subdirectory "/path/to/my/data"
   ```

1. Geben Sie für den `--name-nodes` Parameter den Hostnamen oder die IP-Adresse des primären HDFS-Clusters NameNode und den TCP-Port an, den der NameNode empfängt.

1. Geben Sie für den `--authentication-type` Parameter den Authentifizierungstyp an, der für die Verbindung mit dem Hadoop-Cluster verwendet werden soll. Sie können `SIMPLE` oder `KERBEROS` angeben.

   Wenn Sie die `SIMPLE` Authentifizierung verwenden, verwenden Sie den `--simple-user` Parameter, um den Benutzernamen des Benutzers anzugeben. Wenn Sie die `KERBEROS` Authentifizierung verwenden, verwenden Sie die `--kerberos-krb5-conf` Parameter `--kerberos-principal``--kerberos-keytab`, und. Weitere Informationen finden Sie unter [create-location-hdfs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-location-hdfs.html).

1. Geben Sie für den `--agent-arns` Parameter den ARN des DataSync Agenten an, der eine Verbindung zu Ihrem HDFS-Cluster herstellen kann.

   Sie können mehr als einen Agenten auswählen. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. (Optional) Geben Sie für den `--subdirectory` Parameter einen Ordner auf Ihrem HDFS-Cluster DataSync an, den Sie für die Datenübertragung verwenden möchten.

   Wenn es sich bei Ihrem HDFS-Speicherort um eine Quelle handelt, werden die Dateien in diesem Ordner an das Ziel DataSync kopiert. Wenn es sich bei Ihrem Standort um ein Ziel handelt, werden Dateien in diesen Ordner DataSync geschrieben.

1. Führen Sie den Befehl `create-location-hdfs` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890example"
   }
   ```

# Konfiguration von DataSync Übertragungen mit einem Objektspeichersystem
<a name="create-object-location"></a>

Mit AWS DataSync können Sie mithilfe von Aufgaben im Basismodus Daten zwischen Ihrem Objektspeichersystem und einem der folgenden AWS Speicherdienste übertragen:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx für Windows-Dateiserver](create-fsx-location.md)
+ [Amazon FSx für Lustre](create-lustre-location.md)
+ [Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Amazon FSx für NetApp ONTAP](create-ontap-location.md)

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Speicherort](how-datasync-transfer-works.md#sync-locations) für Ihr Objektspeichersystem. Sie können diesen Speicherort als Übertragungsquelle oder -ziel verwenden. Für die Übertragung von Daten zu oder von Ihrem lokalen Objektspeicher ist ein DataSync Agent im Basismodus erforderlich.

## Voraussetzungen
<a name="create-object-location-prerequisites"></a>

Ihr Objektspeichersystem muss mit den folgenden [Amazon S3 S3-API-Vorgängen](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) kompatibel sein DataSync , um eine Verbindung herzustellen:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

## Erstellen Sie Ihren Objektspeicher-Transferort
<a name="create-object-location-how-to"></a>

Bevor Sie beginnen, benötigen Sie ein Objektspeichersystem, zu dem Sie Daten übertragen möchten oder von dem Sie Daten übertragen möchten.

### Verwenden der DataSync Konsole
<a name="create-object-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Geben Sie für **Server** den Domainnamen oder die IP-Adresse des Objektspeicherservers an. 

1. Geben Sie als **Bucket-Namen** den Namen des Objektspeicher-Buckets ein, der an der Übertragung beteiligt ist.

1. Geben Sie für **Ordner** ein Objektpräfix ein.

   DataSync kopiert nur Objekte mit diesem Präfix. 

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den DataSync Agenten aus, der eine Verbindung zu Ihrem Objektspeichersystem herstellt.

   Für einige Übertragungen sind keine Agenten erforderlich. In anderen Szenarien möchten Sie möglicherweise mehr als einen Agenten verwenden. Weitere Informationen erhalten Sie unter [Situationen, in denen Sie keinen DataSync Agenten benötigen](do-i-need-datasync-agent.md#when-agent-not-required) und [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Um die Verbindung zum Object Storage-Server zu konfigurieren, erweitern Sie **Zusätzliche Einstellungen** und gehen Sie wie folgt vor:

   1. Wählen Sie als **Serverprotokoll** **HTTP** oder **HTTPS** aus.

   1. Verwenden Sie als **Serverport** einen Standardport (**80** für HTTP oder **443** für HTTPS) oder geben Sie bei Bedarf einen benutzerdefinierten Port an.

   1. **Wenn Ihr Objektspeichersystem eine private oder selbstsignierte Zertifizierungsstelle (CA) verwendet, wählen Sie unter Zertifikat die Option **Datei auswählen** und geben Sie eine einzelne `.pem` Datei mit einer vollständigen Zertifikatskette an.**

      Die Zertifikatskette könnte Folgendes beinhalten:
      + Das Zertifikat des Objektspeichersystems
      + Alle Zwischenzertifikate (falls vorhanden)
      + Das Stammzertifikat der signierenden Zertifizierungsstelle

      Sie können Ihre Zertifikate zu einer `.pem` Datei zusammenfügen (die vor der Base64-Kodierung bis zu 32768 Byte groß sein kann). Mit dem folgenden `cat` Beispielbefehl wird eine `object_storage_certificates.pem` Datei erstellt, die drei Zertifikate enthält:

      ```
      cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
      ```

1. Wenn der Objektspeicherserver Anmeldeinformationen für den Zugriff benötigt, wählen Sie **Anmeldedaten erforderlich** aus und geben Sie den **Zugriffsschlüssel** ein, den Sie für den Zugriff auf den Bucket verwenden. Geben Sie dann entweder den **geheimen Schlüssel** direkt ein oder geben Sie ein AWS Secrets Manager Geheimnis an, das den Schlüssel enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Der Zugriffsschlüssel und der geheime Schlüssel können jeweils ein Benutzername und ein Passwort sein.

1. (Optional) Wählen Sie **Tag hinzufügen** aus, um Ihren Objektspeicherort zu kennzeichnen.

   *Tags* sind Schlüssel-Wert-Paare, die Ihnen helfen, Ihre Standorte zu verwalten, zu filtern und nach ihnen zu suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-object-cli"></a>

1. Kopieren Sie den folgenden `create-location-object-storage` Befehl:

   ```
   aws datasync create-location-object-storage \
       --server-hostname object-storage-server.example.com \
       --bucket-name your-bucket \
       --agent-arns arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb
   ```

1. Geben Sie im Befehl die folgenden erforderlichen Parameter an:
   + `--server-hostname`— Geben Sie den Domainnamen oder die IP-Adresse Ihres Objektspeicherservers an.
   + `--bucket-name`— Geben Sie den Namen des Buckets auf Ihrem Objektspeicherserver an, zu dem oder von dem Sie Daten übertragen.

1. (Optional) Fügen Sie dem Befehl einen der folgenden Parameter hinzu:
   + `--agent-arns`— Geben Sie die DataSync Agenten an, die Sie mit Ihrem Object Storage-Server verbinden möchten.
   + `--server-port`— Gibt den Port an, über den Ihr Objektspeicherserver eingehenden Netzwerkverkehr akzeptiert (z. B. Port`443`).
   + `--server-protocol`— Gibt das Protokoll (`HTTP`oder`HTTPS`) an, das Ihr Objektspeicherserver für die Kommunikation verwendet.
   + `--access-key`— Gibt den Zugriffsschlüssel (z. B. einen Benutzernamen) an, wenn Anmeldeinformationen für die Authentifizierung beim Objektspeicherserver erforderlich sind.
   + `--secret-key`— Gibt den geheimen Schlüssel (z. B. ein Passwort) an, wenn Anmeldeinformationen für die Authentifizierung beim Objektspeicherserver erforderlich sind.

     Sie können auch zusätzliche Parameter für die Sicherung Ihrer Schlüssel angeben, indem AWS Secrets Manager Sie. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
   + `--server-certificate`— Gibt eine Zertifikatskette für DataSync die Authentifizierung bei Ihrem Objektspeichersystem an, falls das System eine private oder selbstsignierte Zertifizierungsstelle (CA) verwendet. Sie müssen eine einzelne `.pem` Datei mit einer vollständigen Zertifikatskette angeben (z. B.`file:///home/user/.ssh/object_storage_certificates.pem`).

     Die Zertifikatskette könnte Folgendes beinhalten:
     + Das Zertifikat des Objektspeichersystems
     + Alle Zwischenzertifikate (falls vorhanden)
     + Das Stammzertifikat der signierenden Zertifizierungsstelle

     Sie können Ihre Zertifikate zu einer `.pem` Datei zusammenfügen (die vor der Base64-Kodierung bis zu 32768 Byte groß sein kann). Mit dem folgenden `cat` Beispielbefehl wird eine `object_storage_certificates.pem` Datei erstellt, die drei Zertifikate enthält:

     ```
     cat object_server_certificate.pem intermediate_certificate.pem ca_root_certificate.pem > object_storage_certificates.pem
     ```
   + `--subdirectory`— Gibt das Objektpräfix für Ihren Objektspeicherserver an.

     DataSync kopiert nur Objekte mit diesem Präfix. 
   + `--tags`— Gibt das Schlüssel-Wert-Paar an, das ein Tag darstellt, das Sie der Standortressource hinzufügen möchten.

     Mithilfe von Tags können Sie Ihre Ressourcen verwalten, filtern und suchen. Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Führen Sie den Befehl `create-location-object-storage` aus.

   Sie erhalten eine Antwort, die Ihnen den Standort-ARN anzeigt, den Sie gerade erstellt haben.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

# Übertragung in oder aus dem AWS Speicher mit AWS DataSync
<a name="transferring-aws-storage"></a>

Mit AWS DataSync können Sie Daten zu oder von einer Reihe von AWS Speicherdiensten übertragen. Weitere Informationen finden Sie unter [Wo kann ich meine Daten übertragen DataSync?](working-with-locations.md)

**Topics**
+ [Konfiguration von AWS DataSync Übertragungen mit Amazon S3](create-s3-location.md)
+ [Konfiguration von AWS DataSync Übertragungen mit Amazon EFS](create-efs-location.md)
+ [Konfiguration von Übertragungen mit FSx für Windows File Server](create-fsx-location.md)
+ [DataSync Transfers mit FSx for Lustre konfigurieren](create-lustre-location.md)
+ [Konfiguration von DataSync Übertragungen mit Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Konfiguration von Übertragungen mit Amazon FSx für NetApp ONTAP](create-ontap-location.md)

# Konfiguration von AWS DataSync Übertragungen mit Amazon S3
<a name="create-s3-location"></a>

Um Daten zu oder von Ihrem Amazon S3 S3-Bucket zu übertragen, erstellen Sie einen AWS DataSync *Übertragungsort*. DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs auf S3-Buckets
<a name="create-s3-location-access"></a>

DataSync benötigt Zugriff auf den S3-Bucket, in den oder von dem Sie übertragen. Dazu müssen Sie eine AWS Identity and Access Management (IAM-) Rolle erstellen, die über die für DataSync den Zugriff auf den Bucket erforderlichen Berechtigungen verfügt. Diese Rolle geben Sie dann an, wenn [Sie Ihren Amazon S3 S3-Standort für erstellen DataSync](#create-s3-location-how-to).

**Contents**
+ [Erforderliche Berechtigungen](#create-s3-location-required-permissions)
+ [Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](#create-role-manually)
+ [Zugriff auf S3-Buckets mithilfe serverseitiger Verschlüsselung](#create-s3-location-encryption)
+ [Zugriff auf eingeschränkte S3-Buckets](#denying-s3-access)
+ [Zugriff auf S3-Buckets mit eingeschränktem VPC-Zugriff](#create-s3-location-restricted-vpc)

### Erforderliche Berechtigungen
<a name="create-s3-location-required-permissions"></a>

Die Berechtigungen, die Ihre IAM-Rolle benötigt, können davon abhängen, ob es sich bei dem Bucket um einen DataSync Quell- oder Zielspeicherort handelt. Für Amazon S3 on Outposts sind andere Berechtigungen erforderlich.

------
#### [ Amazon S3 (source location) ]

```
{
    "Version": "2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetBucketLocation",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
        },
        {
            "Action": [
                "s3:GetObject",
                "s3:GetObjectTagging",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:ListMultipartUploadParts"
              ],
            "Effect": "Allow",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*"
        }
    ]
}
```

------
#### [ Amazon S3 (destination location) ]

```
{
 "Version": "2012-10-17",		 	 	 
 "Statement": [
     {
         "Action": [
             "s3:GetBucketLocation",
             "s3:ListBucket",
             "s3:ListBucketMultipartUploads"
         ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     },
     {
         "Action": [
             "s3:AbortMultipartUpload",
             "s3:DeleteObject",
             "s3:GetObject",
             "s3:GetObjectTagging",
             "s3:GetObjectVersion",
             "s3:GetObjectVersionTagging",
             "s3:ListMultipartUploadParts",
             "s3:PutObject",
             "s3:PutObjectTagging"
           ],
         "Effect": "Allow",
         "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
         "Condition": {
             "StringEquals": {
                 "aws:ResourceAccount": "123456789012"
             }
         }
     }
 ]
}
```

------
#### [ Amazon S3 on Outposts ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3-outposts:ListBucket",
                "s3-outposts:ListBucketMultipartUploads"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
            ]
        },
        {
            "Action": [
                "s3-outposts:AbortMultipartUpload",
                "s3-outposts:DeleteObject",
                "s3-outposts:GetObject",
                "s3-outposts:GetObjectTagging",
                "s3-outposts:GetObjectVersion",
                "s3-outposts:GetObjectVersionTagging",
                "s3-outposts:ListMultipartUploadParts",
                "s3-outposts:PutObject",
                "s3-outposts:PutObjectTagging"
            ],
            "Effect": "Allow",
            "Resource": [
            "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/bucket/amzn-s3-demo-bucket/*",
    "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name/*"
            ]
        },
        {
            "Action": "s3-outposts:GetAccessPoint",
            "Effect": "Allow",
            "Resource": "arn:aws:s3-outposts:us-east-1:123456789012:outpost/outpost-id/accesspoint/bucket-access-point-name"
        }
    ]
}
```

------

### Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort
<a name="create-role-manually"></a>

Wenn [Sie Ihren Amazon S3 S3-Standort in der Konsole erstellen](#create-s3-location-how-to), DataSync können Sie automatisch eine IAM-Rolle erstellen und annehmen, die normalerweise über die richtigen Berechtigungen für den Zugriff auf Ihren S3-Bucket verfügt.

In einigen Situationen müssen Sie diese Rolle möglicherweise manuell erstellen (z. B. für den Zugriff auf Buckets mit zusätzlichen Sicherheitsebenen oder für die Übertragung zu oder von einem Bucket in einem anderen AWS-Konten).

#### Manuelles Erstellen einer IAM-Rolle für DataSync
<a name="create-role-manually-steps"></a>

1. Öffnen Sie unter [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/) die IAM-Konsole.

1. Wählen Sie im linken Navigationsbereich unter **Zugriffsverwaltung** die Option **Rollen** und dann **Rolle erstellen** aus.

1. **Wählen Sie auf der Seite Vertrauenswürdige Entität** auswählen für **Vertrauenswürdigen Entitätstyp** die Option **AWS-Service**.

1. Wählen Sie **DataSync**in der Dropdownliste für **Anwendungsfall** die Option aus und wählen Sie aus **DataSync**. Wählen Sie **Weiter** aus.

1. Wählen Sie auf der Seite **Add permissions** (Berechtigungen hinzufügen) die Option **Next** (Weiter) aus. Geben Sie Ihrer Rolle einen Namen und wählen Sie **Rolle erstellen**.

1. Suchen Sie auf der Seite **Rollen** nach der Rolle, die Sie gerade erstellt haben, und wählen Sie ihren Namen aus.

1. Wählen Sie auf der Detailseite der Rolle den Tab **Berechtigungen** aus. Wählen Sie **Berechtigungen hinzufügen** und dann **Inline-Richtlinie erstellen** aus.

1. Wählen Sie die Registerkarte **JSON** und [fügen Sie die für den Zugriff auf Ihren Bucket erforderlichen Berechtigungen](#create-s3-location-required-permissions) zum Richtlinieneditor hinzu.

1. Wählen Sie **Weiter** aus. Geben Sie Ihrer Richtlinie einen Namen und wählen Sie **Richtlinie erstellen** aus.

1. (Empfohlen) Gehen Sie wie folgt vor, um das [dienstübergreifende Problem mit verwirrten Stellvertretern](cross-service-confused-deputy-prevention.md) zu vermeiden:

   1. Wählen Sie auf der Detailseite der Rolle die Registerkarte **Vertrauensbeziehungen** aus. Wählen Sie **Vertrauensrichtlinie bearbeiten** aus.

   1. Aktualisieren Sie die Vertrauensrichtlinie anhand des folgenden Beispiels, das die Kontextschlüssel `aws:SourceArn` und die `aws:SourceAccount` globalen Bedingungsschlüssel enthält:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "444455556666"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:444455556666:*"
                  }
              }
            }
        ]
      }
      ```

------

   1. Wählen Sie **Richtlinie aktualisieren**.

Sie können diese Rolle bei der Erstellung Ihres Amazon S3 S3-Standorts angeben.

### Zugriff auf S3-Buckets mithilfe serverseitiger Verschlüsselung
<a name="create-s3-location-encryption"></a>

DataSync kann Daten zu oder von [S3-Buckets übertragen, die serverseitige Verschlüsselung verwenden](https://docs.aws.amazon.com/AmazonS3/latest/userguide/serv-side-encryption.html). Die Art des Verschlüsselungsschlüssels, den ein Bucket verwendet, kann bestimmen, ob Sie eine benutzerdefinierte Richtlinie für den DataSync Zugriff auf den Bucket benötigen.

Beachten Sie bei der Verwendung DataSync mit S3-Buckets, die serverseitige Verschlüsselung verwenden, Folgendes:
+ **Wenn Ihr S3-Bucket mit einem AWS verwalteten Schlüssel verschlüsselt ist**, DataSync können Sie standardmäßig auf die Objekte des Buckets zugreifen, wenn sich alle Ihre Ressourcen im selben Bucket befinden. AWS-Konto
+ **Wenn Ihr S3-Bucket mit einem vom Kunden verwalteten AWS Key Management Service (AWS KMS) Schlüssel (SSE-KMS) verschlüsselt ist**, muss die [Richtlinie des Schlüssels](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) die IAM-Rolle enthalten, die für den Zugriff auf den Bucket DataSync verwendet wird.
+ **Wenn Ihr S3-Bucket mit einem vom Kunden verwalteten SSE-KMS-Schlüssel verschlüsselt ist und sich in einem anderen AWS-Konto befindet, ist eine** Zugriffsberechtigung für den Bucket im anderen DataSync erforderlich. AWS-Konto Sie können dies wie folgt einrichten:
  + In der DataSync verwendeten IAM-Rolle müssen Sie den SSE-KMS-Schlüssel des kontoübergreifenden Buckets angeben, indem Sie den vollqualifizierten Amazon-Ressourcennamen (ARN) des Schlüssels verwenden. Dies ist derselbe Schlüssel-ARN, den Sie zur Konfiguration der [Standardverschlüsselung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) des Buckets verwenden. In dieser Situation können Sie keine Schlüssel-ID, keinen Aliasnamen oder einen Alias-ARN angeben.

    Hier ist ein Beispiel für einen Schlüssel-ARN:

    `arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab`

    Weitere Informationen zur Angabe von KMS-Schlüsseln in IAM-Richtlinienerklärungen finden Sie im *[AWS Key Management Service Entwicklerhandbuch](https://docs.aws.amazon.com/kms/latest/developerguide/cmks-in-iam-policies.html)*.
  + [Geben Sie in der SSE-KMS-Schlüsselrichtlinie die IAM-Rolle an, die](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying-external-accounts.html) von verwendet wird. DataSync
+ **Wenn Ihr S3-Bucket mit einem vom Kunden verwalteten AWS KMS Schlüssel (DSSE-KMS) für die serverseitige Dual-Layer-Verschlüsselung verschlüsselt ist**, muss die [Richtlinie des Schlüssels](https://docs.aws.amazon.com/kms/latest/developerguide/key-policy-modifying.html) die IAM-Rolle enthalten, die für den Zugriff auf den Bucket verwendet wird. DataSync (Beachten Sie, dass DSSE-KMS keine [S3-Bucket-Keys](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-key.html) unterstützt, wodurch die Anforderungskosten gesenkt werden können.) AWS KMS 
+ **Wenn Ihr S3-Bucket mit einem vom Kunden bereitgestellten Verschlüsselungsschlüssel (SSE-C) verschlüsselt ist**, DataSync können Sie nicht auf diesen Bucket zugreifen.

#### Beispiel: SSE-KMS-Schlüsselrichtlinie für DataSync
<a name="create-s3-location-encryption-example"></a>

Das folgende Beispiel ist eine [Schlüsselrichtlinie](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) für einen vom Kunden verwalteten SSE-KMS-Schlüssel. Die Richtlinie ist einem S3-Bucket zugeordnet, der serverseitige Verschlüsselung verwendet.

Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die folgenden Werte durch Ihre eigenen:
+ *account-id*— Ihr AWS-Konto.
+ *admin-role-name*— Der Name der IAM-Rolle, die den Schlüssel verwalten kann.
+ *datasync-role-name*— Der Name der IAM-Rolle, die es ermöglicht, den Schlüssel beim Zugriff auf den Bucket DataSync zu verwenden.

------
#### [ JSON ]

****  

```
{
    "Id": "key-consolepolicy-3",
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Enable IAM Permissions",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:root"
            },
            "Action": "kms:*",
            "Resource": "*"
        },
        {
            "Sid": "Allow access for Key Administrators",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/admin-role-name"
            },
            "Action": [
                "kms:Create*",
                "kms:Describe*",
                "kms:Enable*",
                "kms:List*",
                "kms:Put*",
                "kms:Update*",
                "kms:Revoke*",
                "kms:Disable*",
                "kms:Get*",
                "kms:Delete*",
                "kms:TagResource",
                "kms:UntagResource",
                "kms:ScheduleKeyDeletion",
                "kms:CancelKeyDeletion"
            ],
            "Resource": "*"
        },
        {
            "Sid": "Allow use of the key",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/datasync-role-name"
            },
            "Action": [
                "kms:Encrypt",
                "kms:Decrypt",
                "kms:ReEncrypt*",
                "kms:GenerateDataKey*"
            ],
            "Resource": "*"
        }
    ]
}
```

------

### Zugriff auf eingeschränkte S3-Buckets
<a name="denying-s3-access"></a>

Wenn Sie zu oder von einem S3-Bucket wechseln müssen, der normalerweise jeglichen Zugriff verweigert, können Sie die Bucket-Richtlinie so bearbeiten, dass nur für Ihre Übertragung auf den Bucket zugegriffen werden DataSync kann.

#### Beispiel: Zulassen des Zugriffs auf der Grundlage von IAM-Rollen
<a name="denying-s3-access-example"></a>

1. Kopieren Sie die folgende S3-Bucket-Richtlinie.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "Deny-access-to-bucket",
           "Effect": "Deny",
           "Principal": "*",
           "Action": "s3:*",
           "Resource": [
               "arn:aws:s3:::amzn-s3-demo-bucket",
               "arn:aws:s3:::amzn-s3-demo-bucket/*"
           ],
           "Condition": {
               "StringNotLike": {
                   "aws:userid": [
                       "datasync-iam-role-id:*",
                       "your-iam-role-id"
                   ]
               }
           }
       }]
   }
   ```

------

1. Ersetzen Sie in der Richtlinie die folgenden Werte:
   + `amzn-s3-demo-bucket`— Geben Sie den Namen des eingeschränkten S3-Buckets an.
   + `datasync-iam-role-id`— Geben Sie die ID der [IAM-Rolle an, die für den Zugriff auf den Bucket DataSync verwendet](#create-s3-location-access) wird.

     Führen Sie den folgenden AWS CLI Befehl aus, um die IAM-Rollen-ID abzurufen:

     `aws iam get-role --role-name datasync-iam-role-name`

     Suchen Sie in der Ausgabe nach dem `RoleId` Wert:

     `"RoleId": "ANPAJ2UCCR6DPCEXAMPLE"`
   + `your-iam-role-id`— Geben Sie die ID der IAM-Rolle an, mit der Sie Ihren DataSync Standort für den Bucket erstellen.

     Führen Sie den folgenden Befehl aus, um die IAM-Rollen-ID abzurufen:

     `aws iam get-role --role-name your-iam-role-name`

     Suchen Sie in der Ausgabe nach dem `RoleId` Wert:

     `"RoleId": "AIDACKCEVSQ6C2EXAMPLE"`

1. [Fügen Sie diese Richtlinie](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) zu Ihrer S3-Bucket-Richtlinie hinzu.

1. Wenn Sie den eingeschränkten Bucket nicht mehr verwenden DataSync , entfernen Sie die Bedingungen für beide IAM-Rollen aus der Bucket-Richtlinie.

### Zugriff auf S3-Buckets mit eingeschränktem VPC-Zugriff
<a name="create-s3-location-restricted-vpc"></a>

Ein Amazon S3 S3-Bucket, der [den Zugriff auf bestimmte Virtual Private Cloud (VPC) -Endpunkte einschränkt oder VPCs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html) die Übertragung zu oder DataSync von diesem Bucket verweigert. Um Übertragungen in diesen Situationen zu ermöglichen, können Sie die Richtlinie des Buckets so aktualisieren, dass sie die IAM-Rolle enthält, die Sie [mit Ihrem Standort angeben](#create-s3-location-how-to). DataSync 

------
#### [ Option 1: Allowing access based on DataSync location role ARN ]

In der S3-Bucket-Richtlinie können Sie den Amazon-Ressourcennamen (ARN) Ihrer DataSync Standort-IAM-Rolle angeben.

Das folgende Beispiel ist eine S3-Bucket-Richtlinie, die allen außer zwei VPCs (`vpc-1234567890abcdef0`und`vpc-abcdef01234567890`) den Zugriff verweigert. Die Richtlinie umfasst jedoch auch den Schlüssel [ArnNotLikeIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)condition und [aws: PrincipalArn](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principalarn) condition, mit denen der ARN einer DataSync Standortrolle auf den Bucket zugreifen kann.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ]
                },
                "ArnNotLikeIfExists": {
                    "aws:PrincipalArn": [
                        "arn:aws:iam::111122223333:role/datasync-location-role-name"
                    ]
                }
            }
        }
    ]
}
```

------
#### [ Option 2: Allowing access based on DataSync location role tag ]

In der S3-Bucket-Richtlinie können Sie ein Tag angeben, das an Ihre DataSync Standort-IAM-Rolle angehängt ist.

Das folgende Beispiel ist eine S3-Bucket-Richtlinie, die allen außer zwei VPCs (`vpc-1234567890abcdef0`und`vpc-abcdef01234567890`) den Zugriff verweigert. Die Richtlinie umfasst jedoch auch den [StringNotEqualsIfExists](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition_operators.html)Bedingungsschlüssel condition und [aws: PrincipalTag](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_condition-keys.html#condition-keys-principaltag) condition, die einen Prinzipal mit dem Tag key `exclude-from-vpc-restriction` and value `true` zulassen. Sie können einen ähnlichen Ansatz in Ihrer Bucket-Richtlinie ausprobieren, indem Sie ein Tag angeben, das Ihrer DataSync Standortrolle zugeordnet ist.

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "Access-to-specific-VPCs-only",
            "Effect": "Deny",
            "Principal": "*",
            "Action": "s3:*",
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/*",
            "Condition": {
                "StringNotEqualsIfExists": {
                    "aws:SourceVpc": [
                        "vpc-1234567890abcdef0",
                        "vpc-abcdef01234567890"
                    ],
                    "aws:PrincipalTag/exclude-from-vpc-restriction": "true"
                }
            }
        }
    ]
}
```

------

## Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen
<a name="using-storage-classes"></a>

Wenn Amazon S3 Ihr Zielort ist, DataSync können Sie Ihre Daten direkt in eine bestimmte [Amazon S3 S3-Speicherklasse](https://aws.amazon.com/s3/storage-classes/) übertragen.

Einige Speicherklassen weisen Verhaltensweisen auf, die sich auf Ihre Amazon S3 S3-Speicherkosten auswirken können. Wenn Sie Speicherklassen verwenden, für die zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen von Objekten anfallen können, führen Änderungen an Objektdaten oder Metadaten zu solchen Gebühren. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

**Wichtig**  
Neue Objekte, die an Ihren Amazon S3 S3-Zielort übertragen werden, werden mit der Speicherklasse gespeichert, die Sie bei der [Erstellung Ihres Standorts](#create-s3-location-how-to) angeben.  
Standardmäßig wird die Speicherklasse vorhandener Objekte an Ihrem Zielort DataSync beibehalten, sofern Sie Ihre Aufgabe nicht so konfigurieren, dass [alle Daten übertragen](configure-metadata.md#task-option-transfer-mode) werden. In diesen Situationen wird die Speicherklasse, die Sie bei der Erstellung Ihres Standorts angeben, für alle Objekte verwendet.


| Amazon S3 S3-Speicherklasse | Überlegungen | 
| --- | --- | 
| S3 Standard | Wählen Sie S3 Standard, um Ihre häufig aufgerufenen Dateien redundant in mehreren Availability Zones zu speichern, die geografisch getrennt sind. Dies ist die Standardeinstellung, wenn Sie keine Speicherklasse angeben.  | 
| S3 Intelligent-Tiering |  Wählen Sie S3 Intelligent-Tiering, um die Speicherkosten zu optimieren, indem Sie Daten automatisch zur kostengünstigsten Speicherzugriffsstufe verschieben. Sie zahlen eine monatliche Gebühr pro Objekt, das in der Speicherklasse S3 Intelligent-Tiering gespeichert ist. Diese Amazon S3 S3-Gebühr beinhaltet die Überwachung von Datenzugriffsmustern und das Verschieben von Objekten zwischen Stufen.  | 
| S3 Standard-IA |  Wählen Sie S3 Standard-IA, um Ihre Objekte, auf die selten zugegriffen wird, redundant in mehreren Availability Zones zu speichern, die geografisch getrennt sind.  Für Objekte, die in der Speicherklasse S3 Standard-IA gespeichert sind, können zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen anfallen. Bedenken Sie, wie oft diese Objekte geändert werden, wie lange Sie diese Objekte behalten möchten und wie oft Sie darauf zugreifen müssen. Änderungen an Objektdaten oder Metadaten entsprechen dem Löschen eines Objekts und dem Erstellen eines neuen Objekts, um es zu ersetzen. Dies führt zu zusätzlichen Gebühren für Objekte, die in der Speicherklasse S3 Standard-IA gespeichert sind. Objekte mit weniger als 128 KB unterschreiten die Mindestkapazitätsgebühr pro Objekt in der Speicherklasse S3 Standard-IA. Diese Objekte werden in der Speicherklasse S3 Standard gespeichert.  | 
| S3 One Zone-IA  |  Wählen Sie S3 One Zone-IA, um Ihre selten aufgerufenen Objekte in einer einzigen Availability Zone zu speichern.  Für Objekte, die in der Speicherklasse S3 One Zone-IA gespeichert sind, können zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen anfallen. Bedenken Sie, wie oft diese Objekte geändert werden, wie lange Sie diese Objekte behalten möchten und wie oft Sie darauf zugreifen müssen. Änderungen an Objektdaten oder Metadaten entsprechen dem Löschen eines Objekts und dem Erstellen eines neuen Objekts, um es zu ersetzen. Dies führt zu zusätzlichen Gebühren für Objekte, die in der Speicherklasse S3 One Zone-IA gespeichert sind. Objekte mit weniger als 128 KB unterschreiten die Mindestkapazitätsgebühr pro Objekt in der Speicherklasse S3 One Zone-IA. Diese Objekte werden in der Speicherklasse S3 Standard gespeichert.  | 
| S3 Glacier Instant Retrieval |  Wählen Sie S3 Glacier Instant Retrieval, um Objekte zu archivieren, auf die selten zugegriffen wird, die aber innerhalb von Millisekunden abgerufen werden müssen. Daten, die in der Speicherklasse S3 Glacier Instant Retrieval gespeichert sind, bieten Kosteneinsparungen im Vergleich zur Speicherklasse S3 Standard-IA bei gleicher Latenz und Durchsatzleistung. S3 Glacier Instant Retrieval hat jedoch höhere Datenzugriffskosten als S3 Standard-IA. Bei Objekten, die in S3 Glacier Instant Retrieval gespeichert sind, können zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen anfallen. Bedenken Sie, wie oft diese Objekte geändert werden, wie lange Sie diese Objekte behalten möchten und wie oft Sie darauf zugreifen müssen. Änderungen an Objektdaten oder Metadaten entsprechen dem Löschen eines Objekts und dem Erstellen eines neuen Objekts, um es zu ersetzen. Dies führt zu zusätzlichen Gebühren für Objekte, die in der Speicherklasse S3 Glacier Instant Retrieval gespeichert sind. Objekte mit weniger als 128 KB unterschreiten die Mindestkapazitätsgebühr pro Objekt in der Speicherklasse S3 Glacier Instant Retrieval. Diese Objekte werden in der Speicherklasse S3 Standard gespeichert.  | 
| S3 Glacier Flexible Retrieval | Wählen Sie S3 Glacier Flexible Retrieval für aktivere Archive.Bei Objekten, die in S3 Glacier Flexible Retrieval gespeichert sind, können zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen anfallen. Bedenken Sie, wie oft diese Objekte geändert werden, wie lange Sie diese Objekte behalten möchten und wie oft Sie darauf zugreifen müssen. Änderungen an Objektdaten oder Metadaten entsprechen dem Löschen eines Objekts und dem Erstellen eines neuen Objekts, um es zu ersetzen. Dies führt zu zusätzlichen Gebühren für Objekte, die in der Speicherklasse S3 Glacier Flexible Retrieval gespeichert sind.Die Speicherklasse S3 Glacier Flexible Retrieval erfordert 40 KB an zusätzlichen Metadaten für jedes archivierte Objekt. DataSync platziert Objekte, die weniger als 40 KB groß sind, in die Speicherklasse S3 Standard. Sie müssen in dieser Speicherklasse archivierte Objekte wiederherstellen, bevor Sie sie lesen DataSync können. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) im Amazon S3 S3-Benutzerhandbuch.Wenn Sie S3 Glacier Flexible Retrieval verwenden, wählen Sie **die Option Nur übertragene Daten verifizieren**, um die Prüfsummen der Daten und Metadaten am Ende der Übertragung zu vergleichen. Sie können die Option **Alle Daten im Ziel verifizieren** für diese Speicherklasse nicht verwenden, da dafür alle vorhandenen Objekte vom Ziel abgerufen werden müssen. | 
| S3 Glacier Deep Archive |  Wählen Sie S3 Glacier Deep Archive, um Ihre Objekte für die langfristige Datenspeicherung und digitale Aufbewahrung zu archivieren, wobei ein- oder zweimal pro Jahr auf Daten zugegriffen wird. Bei Objekten, die in S3 Glacier Deep Archive gespeichert sind, können zusätzliche Gebühren für das Überschreiben, Löschen oder Abrufen anfallen. Bedenken Sie, wie oft diese Objekte geändert werden, wie lange Sie diese Objekte behalten möchten und wie oft Sie darauf zugreifen müssen. Änderungen an Objektdaten oder Metadaten entsprechen dem Löschen eines Objekts und dem Erstellen eines neuen Objekts, um es zu ersetzen. Dies führt zu zusätzlichen Gebühren für Objekte, die in der Speicherklasse S3 Glacier Deep Archive gespeichert sind. Die Speicherklasse S3 Glacier Deep Archive benötigt 40 KB an zusätzlichen Metadaten für jedes archivierte Objekt. DataSync platziert Objekte, die weniger als 40 KB groß sind, in die Speicherklasse S3 Standard. Sie müssen in dieser Speicherklasse archivierte Objekte wiederherstellen, bevor Sie sie lesen DataSync können. Weitere Informationen finden Sie unter [Arbeiten mit archivierten Objekten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/archived-objects.html) im *Amazon S3 S3-Benutzerhandbuch*. Wenn Sie S3 Glacier Deep Archive verwenden, wählen Sie die Aufgabenoption **Nur übertragene Daten verifizieren**, um Daten- und Metadaten-Prüfsummen am Ende der Übertragung zu vergleichen. Sie können die Option **Alle Daten im Ziel verifizieren** für diese Speicherklasse nicht verwenden, da dafür alle vorhandenen Objekte vom Ziel abgerufen werden müssen.  | 
|  S3-Outposts  |  Die Speicherklasse für Amazon S3 auf Outposts.  | 

## Bewertung der Kosten für S3-Anfragen bei der Verwendung DataSync
<a name="create-s3-location-s3-requests"></a>

Bei Amazon S3 S3-Standorten entstehen Ihnen Kosten im Zusammenhang mit S3-API-Anfragen von DataSync. In diesem Abschnitt erfahren Sie, wie diese Anfragen DataSync verwendet werden und wie sie sich auf Ihre [Amazon S3 S3-Kosten](https://aws.amazon.com/s3/pricing/) auswirken können.

**Topics**
+ [S3-Anfragen von DataSync](#create-s3-location-s3-requests-made)
+ [Kostenüberlegungen](#create-s3-location-s3-requests-cost)

### S3-Anfragen von DataSync
<a name="create-s3-location-s3-requests-made"></a>

In der folgenden Tabelle werden die S3-Anfragen beschrieben, die beim Kopieren von Daten an oder von einem Amazon S3 S3-Standort gestellt werden DataSync können.


| S3-Anfrage | Wie DataSync benutzt es | 
| --- | --- | 
|  [ListObjectV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)  |  DataSync stellt mindestens eine `LIST` Anfrage für jedes Objekt, das mit einem Schrägstrich (`/`) endet, um die Objekte aufzulisten, die mit diesem Präfix beginnen. Diese Anforderung wird während der [Vorbereitungsphase](run-task.md#understand-task-execution-statuses) einer Aufgabe aufgerufen.  | 
|  [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)  | DataSync stellt während der [Vorbereitungs](run-task.md#understand-task-execution-statuses) - und [Überprüfungsphase](run-task.md#understand-task-execution-statuses) einer Aufgabe `HEAD` Anfragen zum Abrufen von Objektmetadaten. Je nachdem, wie Sie die [Integrität der übertragenen Daten überprüfen DataSync möchten, kann es mehrere `HEAD` Anfragen pro Objekt geben.](configure-data-verification-options.md) | 
|  [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)  |  DataSync stellt während der [Übertragungsphase](run-task.md#understand-task-execution-statuses) einer Aufgabe `GET` Anfragen zum Lesen von Daten aus einem Objekt. Für große Objekte kann es mehrere `GET` Anfragen geben.  | 
|  [GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)  |  Wenn Sie Ihre Aufgabe so konfigurieren, dass sie [Objekt-Tags kopiert](configure-metadata.md), DataSync sendet diese `GET` Anfragen, um während der [Vorbereitungs](run-task.md#understand-task-execution-statuses) - und [Übertragungsphase](run-task.md#understand-task-execution-statuses) der Aufgabe nach Objekt-Tags zu suchen.  | 
|  [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)  |  DataSync stellt während der [Übertragungsphase](run-task.md#understand-task-execution-statuses) einer Aufgabe `PUT` Anfragen zur Erstellung von Objekten und Präfixen in einem S3-Ziel-Bucket. Da die [mehrteilige Upload-Funktion von Amazon S3 DataSync ](https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html) verwendet wird, kann es mehrere `PUT` Anfragen für große Objekte geben. Um die Speicherkosten zu minimieren, empfehlen wir die Verwendung einer [Lebenszykluskonfiguration](), um unvollständige mehrteilige Uploads zu verhindern.  | 
|  [PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)  | Wenn Ihre Quellobjekte über Tags verfügen und Sie Ihre Aufgabe so konfigurieren, dass [Objekt-Tags kopiert](configure-metadata.md) werden, DataSync stellt diese `PUT` Anfragen bei der [Übertragung](run-task.md#understand-task-execution-statuses) dieser Tags. | 
|  [CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)  |  DataSync `COPY`fordert nur dann an, eine Kopie eines Objekts zu erstellen, wenn sich die Metadaten dieses Objekts ändern. Dies kann passieren, wenn Sie ursprünglich Daten mit einem anderen Dienst oder Tool, dessen Metadaten nicht übernommen wurden, in den S3-Bucket kopiert haben.  | 

### Kostenüberlegungen
<a name="create-s3-location-s3-requests-cost"></a>

DataSync stellt jedes Mal, wenn Sie Ihre Aufgabe ausführen, S3-Anfragen an S3-Buckets. Dies kann dazu führen, dass sich die Gebühren in bestimmten Situationen summieren. Beispiel:
+ Sie übertragen häufig Objekte in oder aus einem S3-Bucket.
+ Sie übertragen vielleicht nicht viele Daten, aber Ihr S3-Bucket enthält viele Objekte. In diesem Szenario können Sie immer noch hohe Gebühren feststellen, da DataSync S3-Anfragen für jedes Objekt des Buckets gestellt werden.
+ Sie übertragen zwischen S3-Buckets, ebenso DataSync wie S3-Anfragen an die Quelle und das Ziel.

Beachten Sie Folgendes, um die damit verbundenen Kosten für S3-Anfragen zu DataSync minimieren:

**Topics**
+ [Welche S3-Speicherklassen verwende ich?](#create-s3-location-s3-requests-storage-classes)
+ [Wie oft muss ich meine Daten übertragen?](#create-s3-location-s3-requests-recurring-transfers)

#### Welche S3-Speicherklassen verwende ich?
<a name="create-s3-location-s3-requests-storage-classes"></a>

Die Gebühren für S3-Anfragen können je nach der Amazon S3 S3-Speicherklasse, die Ihre Objekte verwenden, variieren, insbesondere für Klassen, die Objekte archivieren (wie S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive).

Im Folgenden sind einige Szenarien aufgeführt, in denen sich Speicherklassen auf Ihre Gebühren für S3-Anfragen auswirken können, wenn Sie sie verwenden: DataSync
+ Stellt jedes Mal, wenn Sie eine Aufgabe ausführen, DataSync `HEAD` Anfragen zum Abrufen von Objektmetadaten. Diese Anfragen führen zu Gebühren, auch wenn Sie keine Objekte verschieben. Wie stark sich diese Anfragen auf Ihre Rechnung auswirken, hängt von der Speicherklasse ab, die Ihre Objekte verwenden, und von der Anzahl der Objekte, die DataSync gescannt werden.
+ Wenn Sie Objekte in die Speicherklasse S3 Glacier Instant Retrieval verschoben haben (entweder direkt oder über eine Bucket-Lebenszykluskonfiguration), sind Anfragen für Objekte dieser Klasse teurer als Objekte in anderen Speicherklassen.
+ Wenn Sie Ihre DataSync Aufgabe so konfigurieren[, dass überprüft wird, ob Ihre Quell- und Zielspeicherorte vollständig synchronisiert sind](configure-data-verification-options.md), werden `GET` Anfragen für jedes Objekt in allen Speicherklassen (außer S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive) gestellt.
+ Zusätzlich zu `GET` Anfragen fallen für Sie Kosten für den Datenabruf für Objekte der Speicherklasse S3 Standard-IA, S3 One Zone-IA oder S3 Glacier Instant Retrieval an.

Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

#### Wie oft muss ich meine Daten übertragen?
<a name="create-s3-location-s3-requests-recurring-transfers"></a>

Wenn Sie Daten regelmäßig verschieben müssen, sollten Sie sich einen [Zeitplan](task-scheduling.md) überlegen, in dem nicht mehr Aufgaben ausgeführt werden, als Sie benötigen.

Sie können auch erwägen, den Umfang Ihrer Übertragungen einzuschränken. Sie können beispielsweise so konfigurieren, dass der Fokus DataSync auf Objekte in bestimmten Präfixen liegt, oder Sie können [filtern, welche Daten übertragen werden](filtering.md). Diese Optionen können dazu beitragen, die Anzahl der S3-Anfragen zu reduzieren, die bei jeder Ausführung Ihrer DataSync Aufgabe gestellt werden.

## Überlegungen zu Objekten bei Amazon S3 S3-Übertragungen
<a name="create-s3-location-considerations"></a>
+ Wenn Sie Daten aus einem S3-Bucket übertragen, verwenden Sie [S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_basics_metrics_recommendations.html), um zu ermitteln, wie viele Objekte Sie verschieben.
+ Bei der Übertragung zwischen S3-Buckets empfehlen wir, den [erweiterten Aufgabenmodus](choosing-task-mode.md) zu verwenden, da für Sie keine DataSync [Aufgabenkontingente](datasync-limits.md) gelten.
+ DataSync überträgt möglicherweise kein Objekt mit Sonderzeichen im Namen. Weitere Informationen finden Sie in den [Richtlinien zur Benennung von Objektschlüsseln](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-keys.html#object-key-guidelines) im *Amazon S3 S3-Benutzerhandbuch*.
+ Beachten Sie bei der Verwendung DataSync mit einem S3-Bucket, der [Versionierung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html) verwendet, Folgendes:
  +  DataSync Erstellt bei der Übertragung in einen S3-Bucket eine neue Version eines Objekts, wenn dieses Objekt an der Quelle geändert wird. Dies führt zu zusätzlichen Gebühren.
  + Ein Objekt hat unterschiedliche Versionen IDs im Quell- und Ziel-Bucket.
  + Nur die neueste Version jedes Objekts wird aus dem Quell-Bucket übertragen. Frühere Versionen werden nicht in das Ziel kopiert.
+ Nach der anfänglichen Übertragung von Daten aus einem S3-Bucket in ein Dateisystem (z. B. NFS oder Amazon FSx) enthalten nachfolgende Ausführungen derselben DataSync Aufgabe keine Objekte, die geändert wurden, aber dieselbe Größe wie bei der ersten Übertragung haben.

## Ihren Übertragungsort für einen Amazon S3 S3-Allzweck-Bucket erstellen
<a name="create-s3-location-how-to"></a>

Um einen Standort für Ihre Übertragung zu erstellen, benötigen Sie einen vorhandenen S3-Allzweck-Bucket. Falls Sie noch keinen haben, finden Sie weitere Informationen im [https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**Wichtig**  
Bevor Sie Ihren Standort erstellen, stellen Sie sicher, dass Sie die folgenden Abschnitte gelesen haben:  
[Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](#using-storage-classes)
[Bewertung der Kosten für S3-Anfragen bei der Verwendung DataSync](#create-s3-location-s3-requests)

### Verwenden der DataSync Konsole
<a name="create-s3-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon S3** und dann **General Purpose Bucket** aus.

1. Geben Sie für **S3-URI** den Bucket und das Präfix ein, das Sie für Ihren Standort verwenden möchten, oder wählen Sie es aus.
**Warnung**  
DataSync kann keine Objekte übertragen, deren Präfix mit einem Schrägstrich (`/`) beginnt oder `/../` Muster enthält`//`. `/./` Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Wählen Sie für **S3-Speicherklasse bei Verwendung als Ziel eine** Speicherklasse aus, die Ihre Objekte verwenden sollen, wenn Amazon S3 ein Übertragungsziel ist.

   Weitere Informationen finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](#using-storage-classes).

1. Führen Sie für **IAM role (IAM-Rolle)** einen der folgenden Schritte aus:
   + Wählen Sie **Automatisch generieren** für DataSync , um automatisch eine IAM-Rolle mit den für den Zugriff auf den S3-Bucket erforderlichen Berechtigungen zu erstellen.

     Wenn Sie DataSync zuvor eine IAM-Rolle für diesen S3-Bucket erstellt haben, wird diese Rolle standardmäßig ausgewählt.
   + Wählen Sie eine benutzerdefinierte IAM-Rolle aus, die Sie erstellt haben. Weitere Informationen finden Sie unter [Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](#create-role-manually).

1. (Optional) Wählen Sie **Neues Tag hinzufügen**, um Ihren Amazon S3 S3-Standort zu kennzeichnen.

   Mithilfe von Tags können Sie Ihre Ressourcen verwalten, filtern und suchen. Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Wählen Sie **Standort erstellen**.

### Verwenden Sie den AWS CLI
<a name="create-location-s3-cli"></a>

1. Kopieren Sie den folgenden `create-location-s3` Befehl:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'arn:aws:s3:::amzn-s3-demo-bucket' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-prefix-name
   ```

1. Geben Sie für `--s3-bucket-arn` den ARN des S3-Buckets an, den Sie als Speicherort verwenden möchten.

1. Geben Sie für `--s3-storage-class` eine Speicherklasse an, die Ihre Objekte verwenden sollen, wenn Amazon S3 ein Übertragungsziel ist.

1. Geben Sie für `--s3-config` den ARN der IAM-Rolle an, die auf Ihren Bucket zugreifen DataSync muss.

   Weitere Informationen finden Sie unter [Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](#create-role-manually).

1. Geben Sie für `--subdirectory` ein Präfix im S3-Bucket an, aus dem DataSync gelesen oder geschrieben wird (je nachdem, ob es sich bei dem Bucket um einen Quell- oder Zielspeicherort handelt).
**Warnung**  
DataSync kann keine Objekte mit einem Präfix übertragen, das mit einem Schrägstrich (`/`) beginnt oder `/../` Muster einschließt`//`. `/./` Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Führen Sie den Befehl `create-location-s3` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Sie können diesen Speicherort als Quelle oder Ziel für Ihre DataSync Aufgabe verwenden.

## Erstellen Sie Ihren Transferort für einen S3-Bucket auf Outposts
<a name="create-s3-location-outposts-how-to"></a>

Um einen Standort für Ihre Übertragung zu erstellen, benötigen Sie einen vorhandenen Amazon S3 on Outposts-Bucket. Falls Sie noch keinen haben, finden Sie weitere Informationen im [https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3onOutposts.html).

Sie benötigen auch einen DataSync Agenten. Weitere Informationen finden Sie unter [Bereitstellen Ihres Agenten im Basismodus auf AWS Outposts](deploy-agents.md#outposts-agent).

Bei der Übertragung von einem S3-Bucket-Präfix auf Outposts, das einen großen Datensatz enthält (z. B. Hunderttausende oder Millionen von Objekten), kann es zu einem Timeout für Ihre DataSync Aufgabe kommen. Um dies zu vermeiden, sollten Sie ein [DataSync Manifest](transferring-with-manifest.md) verwenden, mit dem Sie genau die Objekte angeben können, die Sie übertragen müssen.

### Verwenden der DataSync Konsole
<a name="create-s3-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon S3** und dann **Outposts Bucket** aus.

1. Wählen Sie für den **S3-Bucket** einen Amazon S3 S3-Zugriffspunkt, der auf Ihren S3 on Outposts-Bucket zugreifen kann. 

   Weitere Informationen finden Sie im [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Wählen Sie für **S3-Speicherklasse bei Verwendung als Ziel eine** Speicherklasse aus, die Ihre Objekte verwenden sollen, wenn Amazon S3 ein Übertragungsziel ist.

   Weitere Informationen finden Sie unter[Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](#using-storage-classes). DataSync verwendet standardmäßig die Speicherklasse S3 Outposts für Amazon S3 auf Outposts.

1. Geben Sie für **Agenten** den Amazon-Ressourcennamen (ARN) des DataSync Agenten in Ihrem Outpost an.

1. Geben Sie für **Ordner** ein Präfix im S3-Bucket ein, das aus oder DataSync in das geschrieben wird (je nachdem, ob es sich bei dem Bucket um einen Quell- oder Zielspeicherort handelt).
**Warnung**  
DataSync kann keine Objekte mit einem Präfix übertragen, das mit einem Schrägstrich (`/`) beginnt oder `/../` Muster einschließt`//`. `/./` Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Führen Sie für **IAM role (IAM-Rolle)** einen der folgenden Schritte aus:
   + Wählen Sie **Automatisch generieren** für DataSync , um automatisch eine IAM-Rolle mit den für den Zugriff auf den S3-Bucket erforderlichen Berechtigungen zu erstellen.

     Wenn Sie DataSync zuvor eine IAM-Rolle für diesen S3-Bucket erstellt haben, wird diese Rolle standardmäßig ausgewählt.
   + Wählen Sie eine benutzerdefinierte IAM-Rolle aus, die Sie erstellt haben. Weitere Informationen finden Sie unter [Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](#create-role-manually).

1. (Optional) Wählen Sie **Neues Tag hinzufügen**, um Ihren Amazon S3 S3-Standort zu kennzeichnen.

   Mithilfe von Tags können Sie Ihre Ressourcen verwalten, filtern und suchen. Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Wählen Sie **Standort erstellen**.

### Verwenden Sie den AWS CLI
<a name="create-location-s3-cli"></a>

1. Kopieren Sie den folgenden `create-location-s3` Befehl:

   ```
   aws datasync create-location-s3 \
       --s3-bucket-arn 'bucket-access-point' \
       --s3-storage-class 'your-S3-storage-class' \
       --s3-config 'BucketAccessRoleArn=arn:aws:iam::account-id:role/role-allowing-datasync-operations' \
       --subdirectory /your-folder \
       --agent-arns 'arn:aws:datasync:your-region:account-id::agent/agent-agent-id'
   ```

1. Geben Sie für `--s3-bucket-arn` den ARN einen Amazon S3 S3-Zugriffspunkt an, der auf Ihren S3 on Outposts-Bucket zugreifen kann.

   Weitere Informationen finden Sie im [https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html).

1. Geben Sie für `--s3-storage-class` eine Speicherklasse an, die Ihre Objekte verwenden sollen, wenn Amazon S3 ein Übertragungsziel ist.

   Weitere Informationen finden Sie unter[Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](#using-storage-classes). DataSync verwendet standardmäßig die Speicherklasse S3 Outposts für S3 auf Outposts.

1. Geben Sie für `--s3-config` den ARN der IAM-Rolle an, die auf Ihren Bucket zugreifen DataSync muss.

   Weitere Informationen finden Sie unter [Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](#create-role-manually).

1. Geben Sie für `--subdirectory` ein Präfix im S3-Bucket an, aus dem DataSync gelesen oder geschrieben wird (je nachdem, ob es sich bei dem Bucket um einen Quell- oder Zielspeicherort handelt).
**Warnung**  
DataSync kann keine Objekte mit einem Präfix übertragen, das mit einem Schrägstrich (`/`) beginnt oder `/../` Muster einschließt`//`. `/./` Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Geben Sie für `--agent-arns` den ARN des DataSync Agenten in Ihrem Outpost an.

1. Führen Sie den Befehl `create-location-s3` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

Sie können diesen Speicherort als Quelle oder Ziel für Ihre DataSync Aufgabe verwenden.

## Amazon S3 S3-Übertragungen zwischen AWS-Konten
<a name="create-s3-location-cross-transfers"></a>

Mit DataSync können Sie Daten in [verschiedene AWS-Konten](working-with-locations.md#working-with-locations-across-accounts) S3-Buckets verschieben. Weitere Informationen finden Sie in den folgenden Tutorials:
+ [Übertragung von Daten aus dem lokalen Speicher zu Amazon S3 über AWS-Konten](s3-cross-account-transfer.md)
+ [Übertragung von Daten von Amazon S3 zu Amazon S3 über AWS-Konten](tutorial_s3-s3-cross-account-transfer.md)

## Amazon S3 S3-Übertragungen zwischen kommerziellen und AWS GovCloud (US) Regions
<a name="create-s3-location-govcloud"></a>

Standardmäßig werden DataSync keine Übertragungen zwischen S3-Buckets im kommerziellen und AWS GovCloud (US) Regions. Sie können diese Art der Übertragung jedoch trotzdem einrichten, indem Sie einen Objektspeicherort für einen der S3-Buckets in Ihrer Übertragung erstellen. Sie können diese Art der Übertragung mit oder ohne Agenten durchführen. Wenn Sie einen Agenten verwenden, muss Ihre Aufgabe für den **Basismodus** konfiguriert sein. Um ohne Agenten zu übertragen, müssen Sie den **erweiterten** Modus verwenden.

**Bevor Sie beginnen**: Vergewissern Sie sich, dass Sie die Kosten verstehen, die eine Übertragung zwischen Regionen mit sich bringt. Weitere Informationen finden Sie unter [AWS DataSync  – Preise](https://aws.amazon.com/datasync/pricing/).

**Contents**
+ [Bereitstellung des DataSync Zugriffs auf den Bucket Ihres Objektspeichers](#create-s3-location-govcloud-iam)
+ [Erstellen Sie Ihren DataSync Agenten (optional)](#create-s3-location-govcloud-create-agent)
+ [Einen Objektspeicherort für Ihren S3-Bucket erstellen](#create-s3-location-govcloud-how-to)

### Bereitstellung des DataSync Zugriffs auf den Bucket Ihres Objektspeichers
<a name="create-s3-location-govcloud-iam"></a>

Wenn Sie den Objektspeicherort für diese Übertragung erstellen, müssen Sie DataSync die Anmeldeinformationen eines IAM-Benutzers angeben, der berechtigt ist, auf den S3-Bucket des Standorts zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#create-s3-location-required-permissions).

**Warnung**  
IAM-Benutzer verfügen über langfristige Anmeldeinformationen, was ein Sicherheitsrisiko darstellt. Um dieses Risiko zu minimieren, empfehlen wir, diesen Benutzern nur die Berechtigungen zu gewähren, die sie für die Ausführung der Aufgabe benötigen, und diese Benutzer zu entfernen, wenn sie nicht mehr benötigt werden.

### Erstellen Sie Ihren DataSync Agenten (optional)
<a name="create-s3-location-govcloud-create-agent"></a>

Wenn Sie Ihre Übertragung im **Basismodus** ausführen möchten, müssen Sie einen Agenten verwenden. Da Sie zwischen einer kommerziellen und einer kommerziellen Instanz wechseln AWS GovCloud (US) Region, setzen Sie Ihren DataSync Agenten als Amazon EC2 EC2-Instance in einer der Regionen ein. Wir empfehlen, dass Ihr Agent einen VPC-Serviceendpunkt verwendet, um Gebühren für die Datenübertragung ins öffentliche Internet zu vermeiden. Weitere Informationen finden Sie unter [Amazon EC2 Data Transfer — Preise](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer).

Wählen Sie eines der folgenden Szenarien, in denen beschrieben wird, wie Sie einen Agenten erstellen, der auf der Region basiert, in der Sie Ihre DataSync Aufgabe ausführen möchten.

#### Wenn Sie eine DataSync Aufgabe in einer Handelsregion ausführen
<a name="using-datasync-in-commercial"></a>

Das folgende Diagramm zeigt eine Übertragung, bei der sich Ihre DataSync Aufgabe und Ihr Agent in der Handelsregion befinden.

![\[Ein DataSync Agent, der in einer Handelsregion für eine regionsübergreifende Übertragung in einen S3-Bucket in einem AWS GovCloud (US) Region eingesetzt wird.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/s3-task-in-commercial.png)



| Referenz | Description | 
| --- | --- | 
| 1 | In der kommerziellen Region, in der Sie eine DataSync Aufgabe ausführen, werden Daten aus dem S3-Quell-Bucket übertragen. Der Quell-Bucket ist als [Amazon S3 S3-Standort](#create-s3-location-how-to) in der Handelsregion konfiguriert. | 
| 2 | Datenübertragungen über den DataSync Agenten, der sich in derselben VPC und demselben Subnetz befindet, in denen sich der VPC-Dienstendpunkt und die [Netzwerkschnittstellen befinden](required-network-interfaces.md). | 
| 3 | Datenübertragungen an den Ziel-S3-Bucket im. AWS GovCloud (US) Region Der Ziel-Bucket ist als [Objektspeicherort](#create-s3-location-govcloud-how-to) in der Handelsregion konfiguriert.  | 

Sie können dasselbe Setup verwenden, um auch die umgekehrte Richtung von der AWS GovCloud (US) Region zur Handelsregion zu übertragen.

**Um Ihren DataSync Agenten zu erstellen**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent-how-to) in Ihrer Handelsregion bereit.

1. Konfigurieren Sie Ihren Agenten für die Verwendung eines [VPC-Serviceendpunkts](choose-service-endpoint.md#datasync-in-vpc).

1. [Aktivieren Sie Ihren Agenten](activate-agent.md).

#### Wenn Sie eine DataSync Aufgabe in einer Region GovCloud (USA) ausführen
<a name="using-datasync-in-govcloud-1"></a>

Das folgende Diagramm zeigt eine Übertragung, bei der sich Ihre DataSync Aufgabe und Ihr Agent in der AWS GovCloud (US) Region.

![\[Ein DataSync Agent, der in einem AWS GovCloud (US) Region oder einer regionsübergreifenden Übertragung auf einen S3-Bucket in derselben AWS GovCloud (US) Region Region bereitgestellt wird.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/s3-task-in-govcloud-1.png)



| Referenz | Description | 
| --- | --- | 
| 1 | Datenübertragungen vom S3-Quell-Bucket in der Handelsregion zu dem AWS GovCloud (US) Region Ort, an dem Sie eine DataSync Aufgabe ausführen. Der Quell-Bucket ist als [Objektspeicherort](#create-s3-location-govcloud-how-to) im konfiguriert AWS GovCloud (US) Region.  | 
| 2 | In der AWS GovCloud (US) Region, Datenübertragungen über den DataSync Agenten in derselben VPC und demselben Subnetz, in dem sich der VPC-Dienstendpunkt und die [Netzwerkschnittstellen befinden](required-network-interfaces.md). | 
| 3 | Datenübertragungen an den Ziel-S3-Bucket im. AWS GovCloud (US) Region Der Ziel-Bucket ist als [Amazon S3 S3-Standort](#create-s3-location-how-to) in der konfiguriert AWS GovCloud (US) Region. | 

Sie können dasselbe Setup verwenden, um auch die umgekehrte Richtung von der AWS GovCloud (US) Region zur Handelsregion zu übertragen.

**Um Ihren DataSync Agenten zu erstellen**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent-how-to) in Ihrem AWS GovCloud (US) Region bereit.

1. Konfigurieren Sie Ihren Agenten für die Verwendung eines [VPC-Serviceendpunkts](choose-service-endpoint.md#datasync-in-vpc).

1. [Aktivieren Sie Ihren Agenten](activate-agent.md).

Wenn Ihr Datensatz stark komprimierbar ist, können Sie die Kosten senken, wenn Sie Ihren Agenten stattdessen in einer Handelsregion erstellen und gleichzeitig eine Aufgabe in einer ausführen. AWS GovCloud (US) Region Die Erstellung dieses Agenten erfordert mehr Einstellungen als üblich, einschließlich der Vorbereitung des Agenten für den Einsatz in einer Handelsregion. Informationen zum Erstellen eines Agenten für dieses Setup finden Sie [im AWS DataSync Blog Daten ein- und AWS GovCloud (US) auslagern](https://aws.amazon.com/blogs/publicsector/move-data-in-out-aws-govcloud-datasync/).

### Einen Objektspeicherort für Ihren S3-Bucket erstellen
<a name="create-s3-location-govcloud-how-to"></a>

Sie benötigen einen Objektspeicherort für den S3-Bucket, der sich in der Region befindet, in der Sie Ihre DataSync Aufgabe nicht ausführen.

#### Verwenden Sie die DataSync Konsole
<a name="create-s3-location-govcloud-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Stellen Sie sicher, dass Sie sich in derselben Region befinden, in der Sie Ihre Aufgabe ausführen möchten.

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

1. Wählen Sie für **Agenten** den DataSync Agenten aus, den Sie für diese Übertragung erstellt haben.

1. Geben Sie für **Server** einen Amazon S3 S3-Endpunkt für Ihren Bucket ein, indem Sie eines der folgenden Formate verwenden:
   + **Bucket für die Handelsregion:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region Eimer**: `s3.your-gov-region.amazonaws.com`

   Eine Liste der Amazon S3 S3-Endpunkte finden Sie unter *[Allgemeine AWS-Referenz](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Geben Sie als **Bucket-Namen** den Namen des S3-Buckets ein.

1. Geben Sie für **Ordner** ein Präfix im S3-Bucket ein, das aus oder DataSync in das geschrieben wird (je nachdem, ob es sich bei dem Bucket um einen Quell- oder Zielspeicherort handelt).
**Warnung**  
DataSync kann keine Objekte mit einem Präfix übertragen, das mit einem Schrägstrich (`/`) beginnt oder `/../` Muster einschließt`//`. `/./` Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. Wählen Sie **Anmeldedaten erforderlich** aus und gehen Sie wie folgt vor:
   + Geben Sie **unter Zugriffsschlüssel** den Zugriffsschlüssel für einen [IAM-Benutzer](#create-s3-location-govcloud-iam) ein, der auf den Bucket zugreifen kann.
   + Geben Sie **unter Geheimer Schlüssel den geheimen Schlüssel** desselben IAM-Benutzers ein.

1. (Optional) Wählen Sie **Tag hinzufügen**, um Ihren Standort zu taggen.

   Mithilfe von Tags können Sie Ihre Ressourcen verwalten, filtern und suchen. Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Wählen Sie **Standort erstellen** aus.

#### Verwenden Sie den AWS CLI
<a name="create-s3-location-govcloud-how-to-cli"></a>

1. Kopieren Sie den folgenden `create-location-object-storage` Befehl:

   ```
   aws datasync create-location-object-storage \
       --server-hostname s3-endpoint \
       --bucket-name amzn-s3-demo-bucket \
       --agent-arns arn:aws:datasync:your-region:123456789012:agent/agent-01234567890deadfb
   ```

1. Geben Sie für den `--server-hostname` Parameter einen Amazon S3 S3-Endpunkt für Ihren Bucket an, indem Sie eines der folgenden Formate verwenden:
   + **Bucket für die Handelsregion:** `s3.your-region.amazonaws.com`
   + **AWS GovCloud (US) Region Eimer**: `s3.your-gov-region.amazonaws.com`

   Stellen Sie sicher, dass Sie für die Region auf dem Endpunkt dieselbe Region angeben, in der Sie Ihre Aufgabe ausführen möchten.

   Eine Liste der Amazon S3 S3-Endpunkte finden Sie unter *[Allgemeine AWS-Referenz](https://docs.aws.amazon.com/general/latest/gr/s3.html)*.

1. Geben Sie für den `--bucket-name` Parameter den Namen des S3-Buckets an.

1. Geben Sie für den `--agent-arns` Parameter den DataSync Agenten an, den Sie für diese Übertragung erstellt haben.

1. Geben Sie für den `--access-key` Parameter den Zugriffsschlüssel für einen [IAM-Benutzer](#create-s3-location-govcloud-iam) an, der auf den Bucket zugreifen kann.

1. Geben Sie für den `--secret-key` Parameter den geheimen Schlüssel desselben IAM-Benutzers ein.

1. (Optional) Geben Sie für den `--subdirectory` Parameter ein Präfix im S3-Bucket an, das DataSync Lese- oder Schreibvorgänge vornimmt (je nachdem, ob es sich bei dem Bucket um einen Quell- oder Zielspeicherort handelt).
**Warnung**  
DataSync kann keine Objekte übertragen, deren Präfix mit einem Schrägstrich (`/`) beginnt oder ein Include- `//``/./`, oder `/../` Muster enthält. Beispiel:  
`/photos`
`photos//2006/January`
`photos/./2006/February`
`photos/../2006/March`

1. (Optional) Geben Sie für den `--tags` Parameter Schlüssel-Wert-Paare an, die Tags für die Standortressource darstellen.

   Mithilfe von Tags können Sie Ihre Ressourcen verwalten, filtern und suchen. Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Führen Sie den Befehl `create-location-object-storage` aus.

   Sie erhalten eine Antwort, die Ihnen den Standort-ARN anzeigt, den Sie gerade erstellt haben.

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-01234567890abcdef"
   }
   ```

Sie können diesen Speicherort als Quelle oder Ziel für Ihre DataSync Aufgabe verwenden. [Erstellen Sie für den anderen S3-Bucket in dieser Übertragung einen Amazon S3 S3-Standort](#create-s3-location-how-to).

## Nächste Schritte
<a name="create-s3-location-next-steps"></a>

Zu den möglichen nächsten Schritten gehören:

1. Erstellen Sie bei Bedarf Ihren anderen Standort. Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. [Konfigurieren Sie unter anderem DataSync Aufgabeneinstellungen](task-options.md), z. B. welche Dateien übertragen werden sollen, wie mit Metadaten umgegangen werden soll.

1. [Legen Sie einen Zeitplan](task-scheduling.md) für Ihre DataSync Aufgabe fest.

1. [Konfigurieren Sie die Überwachung](monitoring-overview.md) für Ihre DataSync Aufgabe.

1. [Starten](run-task.md) Sie Ihre Aufgabe.

# Konfiguration von AWS DataSync Übertragungen mit Amazon EFS
<a name="create-efs-location"></a>

Um Daten zu oder von Ihrem Amazon EFS-Dateisystem zu übertragen, müssen Sie einen AWS DataSync *Übertragungsort* erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs auf Amazon EFS-Dateisysteme
<a name="create-efs-location-access"></a>

[Um einen Standort zu erstellen](#create-efs-location-how-to), müssen Sie wissen, wie Sie auf Ihren Speicher zugreifen DataSync können. Mounten Sie für Amazon DataSync EFS Ihr Dateisystem als Root-Benutzer aus Ihrer Virtual Private Cloud (VPC) mithilfe von [Netzwerkschnittstellen](required-network-interfaces.md).

**Contents**
+ [Ermitteln des Subnetzes und der Sicherheitsgruppen für Ihr Mount-Ziel](#create-efs-location-mount-target)
+ [Zugriff auf eingeschränkte Dateisysteme](#create-efs-location-iam)
  + [Eine DataSync IAM-Rolle für den Dateisystemzugriff erstellen](#create-efs-location-iam-role)
  + [Beispiel für eine Dateisystemrichtlinie, die DataSync den Zugriff ermöglicht](#create-efs-location-iam-policy)

### Ermitteln des Subnetzes und der Sicherheitsgruppen für Ihr Mount-Ziel
<a name="create-efs-location-mount-target"></a>

Bei der Erstellung Ihres Standorts geben Sie das Subnetz und die Sicherheitsgruppen an, die eine Verbindung DataSync zu einem der [Mount-Ziele](https://docs.aws.amazon.com/efs/latest/ug/accessing-fs.html) Ihres Amazon EFS-Dateisystems ermöglichen.

Das von Ihnen angegebene Subnetz muss sich befinden:
+ In derselben VPC wie Ihr Dateisystem.
+ In derselben Availability Zone wie mindestens ein Mount-Ziel für Ihr Dateisystem.

**Anmerkung**  
Sie müssen kein Subnetz angeben, das ein Bereitstellungsziel für das Dateisystem enthält.

Die von Ihnen angegebenen Sicherheitsgruppen müssen eingehenden Datenverkehr auf Port 2049 (Network File System) zulassen. Informationen zum Erstellen und Aktualisieren von Sicherheitsgruppen für Ihre Mount-Ziele finden Sie im [https://docs.aws.amazon.com/efs/latest/ug/network-access.html](https://docs.aws.amazon.com/efs/latest/ug/network-access.html).

**Angeben von Sicherheitsgruppen, die einem Mount-Ziel zugeordnet sind**  
Sie können eine Sicherheitsgruppe angeben, die einem der Mount-Ziele Ihres Dateisystems zugeordnet ist. Wir empfehlen diesen Ansatz aus Sicht der Netzwerkverwaltung.

**Angabe von Sicherheitsgruppen, die keinem Mount-Ziel zugeordnet sind**  
Sie können auch eine Sicherheitsgruppe angeben, die keinem der Mount-Ziele Ihres Dateisystems zugeordnet ist. Diese Sicherheitsgruppe muss jedoch in der Lage sein, mit der Sicherheitsgruppe eines Mount-Ziels zu kommunizieren.  
So könnten Sie beispielsweise eine Beziehung zwischen Sicherheitsgruppe D (für DataSync) und Sicherheitsgruppe M (für das Mount-Ziel) erstellen:  
+ Sicherheitsgruppe D, die Sie bei der Erstellung Ihres Standorts angeben, muss über eine Regel verfügen, die ausgehende Verbindungen über den NFS-Port 2049 zur Sicherheitsgruppe M zulässt.
+ Die Sicherheitsgruppe M, die Sie dem Mount-Ziel zuordnen, muss eingehenden Zugriff auf den NFS-Port 2049 von der Sicherheitsgruppe D aus zulassen.

**Um die Sicherheitsgruppe eines Mount-Ziels zu finden**

Die folgenden Anweisungen können Ihnen helfen, die Sicherheitsgruppe eines Amazon EFS-Dateisystem-Mount-Ziels DataSync zu identifizieren, das Sie für Ihre Übertragung verwenden möchten.

1. Führen Sie im AWS CLI den folgenden `describe-mount-targets` Befehl aus.

   ```
   aws efs describe-mount-targets \
       --region file-system-region  \
       --file-system-id file-system-id
   ```

   Dieser Befehl gibt Informationen über die Mount-Ziele Ihres Dateisystems zurück (ähnlich der folgenden Beispielausgabe).

   ```
   {
       "MountTargets": [
           {
               "OwnerId": "111222333444",
               "MountTargetId": "fsmt-22334a10",
               "FileSystemId": "fs-123456ab",
               "SubnetId": "subnet-f12a0e34",
               "LifeCycleState": "available",
               "IpAddress": "11.222.0.123",
               "NetworkInterfaceId": "eni-1234a044"
           }
       ]
   }
   ```

1. Notieren Sie sich den `MountTargetId` Wert, den Sie verwenden möchten.

1. Führen Sie den folgenden `describe-mount-target-security-groups` Befehl mit dem aus`MountTargetId`, um die Sicherheitsgruppe Ihres Mount-Ziels zu sehen.

   ```
   aws efs describe-mount-target-security-groups \
       --region file-system-region \
       --mount-target-id mount-target-id
   ```

Sie geben diese Sicherheitsgruppe an, wenn [Sie Ihren Standort erstellen](#create-efs-location-how-to).

### Zugriff auf eingeschränkte Dateisysteme
<a name="create-efs-location-iam"></a>

DataSync kann Daten zu oder von Amazon EFS-Dateisystemen übertragen, die den Zugriff über [Zugriffspunkte](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html) und [IAM-Richtlinien](https://docs.aws.amazon.com/efs/latest/ug/iam-access-control-nfs-efs.html) einschränken.

**Anmerkung**  
[Wenn DataSync auf ein Zieldateisystem über einen Zugriffspunkt zugegriffen wird, der die [Benutzeridentität erzwingt](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html#enforce-identity-access-points), bleiben der POSIX-Benutzer und die POSIX-Gruppe IDs für Ihre Quelldaten nicht erhalten, wenn Sie Ihre DataSync Aufgabe so konfigurieren, dass der Besitz kopiert wird.](configure-metadata.md) Stattdessen werden die übertragenen Dateien und Ordner dem Benutzer und der Gruppe des Access Points zugewiesen. IDs In diesem Fall schlägt die Aufgabenüberprüfung fehl, da DataSync eine Diskrepanz zwischen den Metadaten im Quell- und Zielverzeichnis festgestellt wird.

**Contents**
+ [Eine DataSync IAM-Rolle für den Dateisystemzugriff erstellen](#create-efs-location-iam-role)
+ [Beispiel für eine Dateisystemrichtlinie, die DataSync den Zugriff ermöglicht](#create-efs-location-iam-policy)

#### Eine DataSync IAM-Rolle für den Dateisystemzugriff erstellen
<a name="create-efs-location-iam-role"></a>

Wenn Sie über ein Amazon EFS-Dateisystem verfügen, das den Zugriff über eine IAM-Richtlinie einschränkt, können Sie eine IAM-Rolle erstellen, die das Lesen oder Schreiben von Daten aus dem Dateisystem ermöglicht DataSync . Möglicherweise müssen Sie diese Rolle dann in Ihrer [Dateisystemrichtlinie](#create-efs-location-iam-policy) angeben.

**Um die DataSync IAM-Rolle zu erstellen**

1. Öffnen Sie unter [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/) die IAM-Konsole.

1. Wählen Sie im linken Navigationsbereich unter **Zugriffsverwaltung** die Option **Rollen** und dann **Rolle erstellen** aus.

1. **Wählen Sie auf der Seite Vertrauenswürdige Entität** auswählen für **Vertrauenswürdigen Entitätstyp** die Option **Benutzerdefinierte Vertrauensrichtlinie** aus.

1. Fügen Sie den folgenden JSON-Code in den Richtlinien-Editor ein:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Effect": "Allow",
           "Principal": {
               "Service": "datasync.amazonaws.com"
           },
           "Action": "sts:AssumeRole"
       }]
   }
   ```

------

1. Wählen Sie **Weiter** aus. Wählen Sie auf der Seite **Add permissions** (Berechtigungen hinzufügen) die Option **Next** (Weiter) aus.

1. Geben Sie Ihrer Rolle einen Namen und wählen Sie **Rolle erstellen**.

Diese Rolle geben Sie bei der [Erstellung Ihres Standorts an](#create-efs-location-how-to).

#### Beispiel für eine Dateisystemrichtlinie, die DataSync den Zugriff ermöglicht
<a name="create-efs-location-iam-policy"></a>

Die folgende Beispiel-Dateisystemrichtlinie zeigt, wie der Zugriff auf ein Amazon EFS-Dateisystem (in der Richtlinie als gekennzeichnet`fs-1234567890abcdef0`) eingeschränkt ist, aber dennoch den Zugriff DataSync über eine IAM-Rolle mit dem Namen `MyDataSyncRole` ermöglicht:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "ExampleEFSFileSystemPolicy",
    "Statement": [{
        "Sid": "AccessEFSFileSystem",
        "Effect": "Allow",
        "Principal": {
            "AWS": "arn:aws:iam::111122223333:role/MyDataSyncRole"
        },
        "Action": [
            "elasticfilesystem:ClientMount",
            "elasticfilesystem:ClientWrite",
            "elasticfilesystem:ClientRootAccess"
        ],
        "Resource": "arn:aws:elasticfilesystem:us-east-1:111122223333:file-system/fs-1234567890abcdef0",
        "Condition": {
            "Bool": {
                "aws:SecureTransport": "true"
            },
            "StringEquals": {
                "elasticfilesystem:AccessPointArn": "arn:aws:elasticfilesystem:us-east-1:111122223333:access-point/fsap-abcdef01234567890"
            }
        }
    }]
}
```

------
+ `Principal`— Gibt eine [IAM-Rolle](#create-efs-location-iam) an, die die DataSync Erlaubnis zum Zugriff auf das Dateisystem erteilt.
+ `Action`— Gewährt DataSync Root-Zugriff und ermöglicht das Lesen aus dem Dateisystem und das Schreiben in das Dateisystem.
+ `aws:SecureTransport`— Erfordert, dass NFS-Clients TLS verwenden, wenn sie sich mit dem Dateisystem verbinden.
+ `elasticfilesystem:AccessPointArn`— Erlaubt den Zugriff auf das Dateisystem nur über einen bestimmten Zugriffspunkt.

## Überlegungen zum Netzwerk bei Amazon EFS-Übertragungen
<a name="efs-network-considerations"></a>

VPCs die Sie mit verwenden, DataSync muss über eine Standardmandantenfähigkeit verfügen. VPCs mit Dedicated Tenancy werden nicht unterstützt.

## Überlegungen zur Leistung bei Amazon EFS-Übertragungen
<a name="efs-considerations"></a>

Der Durchsatzmodus Ihres Amazon EFS-Dateisystems kann die Übertragungsdauer und die Dateisystemleistung während der Übertragung beeinflussen. Berücksichtigen Sie dabei Folgendes:
+ Für optimale Ergebnisse empfehlen wir die Verwendung des Elastic Throughput-Modus. Wenn Sie den Elastic Throughput-Modus nicht verwenden, kann Ihre Übertragung länger dauern.
+ Wenn Sie den Bursting-Durchsatzmodus verwenden, kann die Leistung der Anwendungen Ihres Dateisystems beeinträchtigt werden, da Burst-Credits im Dateisystem DataSync verbraucht werden.
+ Die Art und Weise, wie Sie [ DataSync die Überprüfung Ihrer übertragenen Daten konfigurieren](configure-data-verification-options.md), kann sich auf die Leistung des Dateisystems und die Datenzugriffskosten auswirken.

Weitere Informationen finden Sie unter [Amazon EFS-Leistung](https://docs.aws.amazon.com/efs/latest/ug/performance.html) im *Amazon Elastic File System-Benutzerhandbuch* und auf der Seite mit den [Amazon EFS-Preisen](https://aws.amazon.com/efs/pricing/).

## Ihren Amazon EFS-Übertragungsort erstellen
<a name="create-efs-location-how-to"></a>

Um den Übertragungsort zu erstellen, benötigen Sie ein vorhandenes Amazon EFS-Dateisystem. Falls Sie noch keinen haben, finden Sie weitere Informationen unter [Erste Schritte mit Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/getting-started.html) im *Amazon Elastic File System-Benutzerhandbuch*.

### Verwenden der DataSync Konsole
<a name="create-efs-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Speicherortyp** **Amazon EFS-Dateisystem** aus.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel. 

1. Wählen Sie **unter Dateisystem** das Amazon EFS-Dateisystem aus, das Sie als Speicherort verwenden möchten.

1. Geben Sie **unter Bereitstellungspfad** einen Bereitstellungspfad für Ihr Amazon EFS-Dateisystem ein.

   Dies gibt an, wo Daten in Ihrem Dateisystem DataSync gelesen oder geschrieben werden (je nachdem, ob es sich um einen Quell- oder Zielort handelt).

    DataSync Verwendet standardmäßig das Stammverzeichnis (oder den [Access Point](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), falls Sie einen für die **EFS-Zugriffspunkteinstellung** angeben). Sie können Unterverzeichnisse auch mit Schrägstrichen angeben (z. B.`/path/to/directory`).

1. Wählen Sie **unter Subnetz** ein Subnetz aus, in dem Sie die [Netzwerkschnittstellen](required-network-interfaces.md) für die Verwaltung Ihres Datenübertragungsverkehrs erstellen möchten DataSync .

   Befinden muss sich das Subnetz:
   + In derselben VPC wie Ihr Dateisystem.
   + In derselben Availability Zone wie mindestens ein Dateisystem-Mount-Ziel.
**Anmerkung**  
Sie müssen kein Subnetz angeben, das ein Bereitstellungsziel für das Dateisystem enthält.

1. Wählen Sie für **Sicherheitsgruppen** die Sicherheitsgruppe aus, die dem Mount-Ziel Ihres Amazon EFS-Dateisystems zugeordnet ist. Sie können mehr als eine Sicherheitsgruppe auswählen.
**Anmerkung**  
Die von Ihnen angegebenen Sicherheitsgruppen müssen eingehenden Datenverkehr auf dem NFS-Port 2049 zulassen. Weitere Informationen finden Sie unter [Ermitteln des Subnetzes und der Sicherheitsgruppen für Ihr Mount-Ziel](#create-efs-location-mount-target).

1. Wählen Sie **für die Verschlüsselung während der Übertragung** aus, ob Sie DataSync die Transport Layer Security (TLS) -Verschlüsselung für die Übertragung von Daten zu oder von Ihrem Dateisystem verwenden möchten.
**Anmerkung**  
Sie müssen diese Einstellung aktivieren, um einen Access Point, eine IAM-Rolle oder beides mit Ihrem Amazon EFS-Standort zu konfigurieren.

1. (Optional) Wählen Sie für **den EFS-Zugriffspunkt** einen Zugriffspunkt aus, über den Sie Ihr Dateisystem mounten DataSync können.

   Weitere Informationen finden Sie unter [Zugriff auf eingeschränkte Dateisysteme](#create-efs-location-iam).

1. (Optional) Geben Sie für die **IAM-Rolle** eine Rolle an, die DataSync den Zugriff auf Ihr Dateisystem ermöglicht.

   Informationen zum Anlegen dieser Rolle finden Sie unter [Eine DataSync IAM-Rolle für den Dateisystemzugriff erstellen](#create-efs-location-iam-role).

1. (Optional) Wählen Sie **Tag hinzufügen** aus, um Ihr Dateisystem zu kennzeichnen.

   Ein *Tag* ist ein Schlüssel/Wert-Paar, das Ihnen hilft, Ihre Speicherorte zu verwalten, zu filtern und zu suchen. 

1. Wählen Sie „**Speicherort erstellen**“.

### Verwenden Sie den AWS CLI
<a name="create-location-efs-cli"></a>

1. Kopieren Sie den folgenden `create-location-efs` Befehl:

   ```
   aws datasync create-location-efs \
       --efs-filesystem-arn 'arn:aws:elasticfilesystem:region:account-id:file-system/file-system-id' \
       --subdirectory /path/to/your/subdirectory \
       --ec2-config SecurityGroupArns='arn:aws:ec2:region:account-id:security-group/security-group-id',SubnetArn='arn:aws:ec2:region:account-id:subnet/subnet-id' \
       --in-transit-encryption TLS1_2 \
       --access-point-arn 'arn:aws:elasticfilesystem:region:account-id:access-point/access-point-id' \
       --file-system-access-role-arn 'arn:aws:iam::account-id:role/datasync-efs-access-role
   ```

1. Geben Sie für `--efs-filesystem-arn` den Amazon-Ressourcennamen (ARN) des Amazon EFS-Dateisystems an, zu dem oder von dem Sie Daten übertragen.

1. Geben Sie für `--subdirectory` einen Bereitstellungspfad für Ihr Dateisystem an.

   Hier werden Daten in Ihrem Dateisystem DataSync gelesen oder geschrieben (je nachdem, ob es sich um einen Quell- oder Zielort handelt). 

    DataSync Verwendet standardmäßig das Stammverzeichnis (oder den [Access Point](https://docs.aws.amazon.com/efs/latest/ug/efs-access-points.html), falls Sie einen angeben`--access-point-arn`). Sie können Unterverzeichnisse auch mit Schrägstrichen angeben (z. B.`/path/to/directory`).

1. Als `--ec2-config` führen Sie Folgendes aus:
   + Geben Sie für den ARN der Sicherheitsgruppe an`SecurityGroupArns`, die dem Mount-Ziel Ihres Dateisystems zugeordnet ist. Sie können mehr als eine Sicherheitsgruppe angeben.
**Anmerkung**  
Die von Ihnen angegebenen Sicherheitsgruppen müssen eingehenden Datenverkehr auf dem NFS-Port 2049 zulassen. Weitere Informationen finden Sie unter [Ermitteln des Subnetzes und der Sicherheitsgruppen für Ihr Mount-Ziel](#create-efs-location-mount-target).
   + Geben Sie für den ARN des Subnetzes an`SubnetArn`, in dem Sie die [Netzwerkschnittstellen](required-network-interfaces.md) für die Verwaltung Ihres Datenübertragungsverkehrs erstellen möchten DataSync .

     Befinden muss sich das Subnetz:
     + In derselben VPC wie Ihr Dateisystem.
     + In derselben Availability Zone wie mindestens ein Dateisystem-Mount-Ziel.
**Anmerkung**  
Sie müssen kein Subnetz angeben, das ein Bereitstellungsziel für das Dateisystem enthält.

1. Geben Sie für an`--in-transit-encryption`, ob Sie DataSync die Transport Layer Security (TLS) -Verschlüsselung verwenden möchten, wenn Daten zu oder von Ihrem Dateisystem übertragen werden.
**Anmerkung**  
Sie müssen dies auf einstellen, `TLS1_2` um einen Access Point, eine IAM-Rolle oder beides mit Ihrem Amazon EFS-Standort zu konfigurieren.

1. (Optional) Geben Sie für `--access-point-arn` den ARN eines Access Points an, den Sie zum Mounten Ihres Dateisystems verwenden DataSync können.

   Weitere Informationen finden Sie unter [Zugriff auf eingeschränkte Dateisysteme](#create-efs-location-iam).

1. (Optional) Geben Sie für `--file-system-access-role-arn` den ARN einer IAM-Rolle an, die DataSync den Zugriff auf Ihr Dateisystem ermöglicht.

   Informationen zum Anlegen dieser Rolle finden Sie unter [Eine DataSync IAM-Rolle für den Dateisystemzugriff erstellen](#create-efs-location-iam-role).

1. Führen Sie den Befehl `create-location-efs` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:111222333444:location/loc-0b3017fc4ba4a2d8d"
   }
   ```

# Konfiguration von Übertragungen mit FSx für Windows File Server
<a name="create-fsx-location"></a>

Um Daten zu oder von Ihrem Amazon FSx for Windows File Server-Dateisystem zu übertragen, müssen Sie einen AWS DataSync *Übertragungsort* erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs auf Dateisysteme FSx für Windows-Dateiserver
<a name="create-fsx-location-access"></a>

DataSync [stellt über das Server Message Block (SMB) -Protokoll eine Verbindung zu Ihrem Dateisystem FSx für Windows File Server her und mountet es mithilfe von Netzwerkschnittstellen von Ihrer Virtual Private Cloud (VPC) aus.](required-network-interfaces.md)

**Anmerkung**  
VPCs das Sie mit verwenden, DataSync muss über eine Standardmandantenfähigkeit verfügen. VPCs mit Dedicated Tenancy werden nicht unterstützt.

**Topics**
+ [Erforderliche Berechtigungen](#create-fsx-windows-location-permissions)
+ [Erforderliche Authentifizierungsprotokolle](#configuring-fsx-windows-authentication-protocols)
+ [DFS-Namespaces](#configuring-fsx-windows-location-dfs)

### Erforderliche Berechtigungen
<a name="create-fsx-windows-location-permissions"></a>

Sie müssen DataSync einem Benutzer die erforderlichen Rechte zum Mounten und Zugreifen auf Ihre Dateien, Ordner und Dateimetadaten FSx für Windows File Server gewähren.

Wir empfehlen, dass dieser Benutzer zu einer Microsoft Active Directory-Gruppe für die Verwaltung Ihres Dateisystems gehört. Die Besonderheiten dieser Gruppe hängen von Ihrem Active Directory-Setup ab:
+ Wenn Sie AWS Directory Service for Microsoft Active Directory with FSx für Windows File Server verwenden, muss der Benutzer Mitglied der Gruppe **AWS Delegierte FSx Administratoren** sein.
+ Wenn Sie selbstverwaltetes Active Directory mit FSx für Windows File Server verwenden, muss der Benutzer Mitglied einer von zwei Gruppen sein:
  + Die Gruppe **Domänen-Admins**, die Standardgruppe für delegierte Administratoren.
  + Eine benutzerdefinierte Gruppe delegierter Administratoren mit Benutzerrechten, die das Kopieren von Objektbesitzberechtigungen und Windows-Zugriffskontrolllisten () ermöglichen DataSync . ACLs
**Wichtig**  
Sie können die Gruppe der delegierten Administratoren nicht mehr ändern, nachdem das Dateisystem bereitgestellt wurde. Sie müssen das Dateisystem entweder erneut bereitstellen oder es aus einer Sicherung wiederherstellen, um die benutzerdefinierte delegierte Administratorgruppe mit den folgenden Benutzerrechten verwenden zu können, die Metadaten kopieren DataSync muss.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-fsx-location.html)
+ Wenn Sie Windows kopieren möchten ACLs und Daten zwischen einem SMB-Dateiserver und FSx dem Dateisystem Windows File Server oder zwischen Dateisystemen FSx für Windows File Server übertragen, DataSync müssen die von Ihnen angegebenen Benutzer derselben Active Directory-Domäne angehören oder über eine Active Directory-Vertrauensstellung zwischen ihren Domänen verfügen.

**Warnung**  
Der SYSTEM-Benutzer Ihres Dateisystems FSx für Windows File Server muss über **Vollzugriff** auf alle Ordner in Ihrem Dateisystem verfügen. Ändern Sie nicht die NTFS-ACL-Berechtigungen für diesen Benutzer in Ihren Ordnern. Wenn Sie dies tun, DataSync können Sie die Berechtigungen Ihres Dateisystems so ändern, dass auf Ihre Dateifreigabe nicht mehr zugegriffen werden kann und Dateisystemsicherungen nicht verwendet werden können. Weitere Informationen zum Zugriff auf Datei- und Ordnerebene finden Sie im *[Amazon FSx for Windows File Server-Benutzerhandbuch](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-file-folder.html)*.

### Erforderliche Authentifizierungsprotokolle
<a name="configuring-fsx-windows-authentication-protocols"></a>

Ihr Dateiserver FSx für Windows muss die NTLM-Authentifizierung verwenden, DataSync um darauf zugreifen zu können. DataSynckann nicht auf einen Dateiserver zugreifen, der die Kerberos-Authentifizierung verwendet. 

### DFS-Namespaces
<a name="configuring-fsx-windows-location-dfs"></a>

DataSync unterstützt keine Microsoft Distributed File System (DFS) -Namespaces. Wir empfehlen, bei der Erstellung Ihres Standorts stattdessen einen zugrunde liegenden Dateiserver oder eine Dateifreigabe anzugeben. DataSync 

Weitere Informationen finden Sie unter [Gruppierung mehrerer Dateisysteme mit DFS-Namespaces](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/group-file-systems.html) im *Amazon FSx for Windows* File Server-Benutzerhandbuch.

## Ihren Übertragungsort FSx für Windows File Server erstellen
<a name="create-fsx-location-how-to"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie einen vorhandenen Dateiserver FSx für Windows in Ihrem haben AWS-Region. Weitere Informationen finden Sie unter [Erste Schritte mit Amazon FSx ](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/getting-started.html) im *Amazon FSx for Windows File Server-Benutzerhandbuch*.

### Verwenden der DataSync Konsole
<a name="create-fsx-location-access-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon** aus FSx.

1. Wählen Sie als **FSx Dateisystem** das Dateisystem FSx für Windows File Server aus, das Sie als Speicherort verwenden möchten.

1. Geben Sie unter **Freigabename** einen Bereitstellungspfad FSx für Ihren Windows-Dateiserver mit Schrägstrichen ein.

   Dies gibt den Pfad an, in den Daten DataSync gelesen oder geschrieben werden (je nachdem, ob es sich um einen Quell- oder Zielspeicherort handelt).

   Sie können auch Unterverzeichnisse einbeziehen (z. B.`/path/to/directory`).

1. Wählen Sie für **Sicherheitsgruppen** bis zu fünf Amazon EC2-Sicherheitsgruppen aus, die Zugriff auf das bevorzugte Subnetz Ihres Dateisystems ermöglichen.

   Die von Ihnen ausgewählten Sicherheitsgruppen müssen in der Lage sein, mit den Sicherheitsgruppen Ihres Dateisystems zu kommunizieren. Informationen zur Konfiguration von Sicherheitsgruppen für den Dateisystemzugriff finden Sie im [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Anmerkung**  
Wenn Sie eine Sicherheitsgruppe wählen, die keine internen Verbindungen zulässt, gehen Sie wie folgt vor:  
Konfigurieren Sie die Sicherheitsgruppe so, dass sie mit sich selbst kommunizieren kann.
Wählen Sie eine andere Sicherheitsgruppe, die mit der Sicherheitsgruppe des Mount-Ziels kommunizieren kann.

1. Geben Sie unter **Benutzer** den Namen eines Benutzers ein, der auf Ihren FSx Windows-Dateiserver zugreifen kann.

   Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](#create-fsx-windows-location-permissions).

1. Geben Sie unter **Passwort** das Passwort des Benutzernamens ein.

1. (Optional) Geben Sie unter **Domäne** den Namen der Windows-Domäne ein, zu der Ihr Dateisystem FSx für Windows File Server gehört.

   Wenn Sie mehrere Active Directory-Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieser Einstellung sichergestellt, dass die DataSync Verbindung zum richtigen Dateisystem hergestellt wird.

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um sie FSx für den Windows-Dateiserver zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-fsx-cli"></a>

**Um einen Speicherort FSx für Windows-Dateiserver zu erstellen, verwenden Sie AWS CLI**
+ Verwenden Sie den folgenden Befehl, um einen FSx Amazon-Standort zu erstellen.

  ```
  aws datasync create-location-fsx-windows \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --user smb-user --password password
  ```

  Gehen Sie im `create-location-fsx-windows` Befehl wie folgt vor:
  + `fsx-filesystem-arn`— Geben Sie den Amazon-Ressourcennamen (ARN) des Dateisystems an, zu dem oder von dem Sie Daten übertragen möchten.
  + `security-group-arns`— Geben Sie die ARNs von bis zu fünf Amazon EC2-Sicherheitsgruppen an, die den Zugriff auf das bevorzugte Subnetz Ihres Dateisystems ermöglichen.

    Die von Ihnen angegebenen Sicherheitsgruppen müssen in der Lage sein, mit den Sicherheitsgruppen Ihres Dateisystems zu kommunizieren. Informationen zur Konfiguration von Sicherheitsgruppen für den Dateisystemzugriff finden Sie im [https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/limit-access-security-groups.html).
**Anmerkung**  
Wenn Sie eine Sicherheitsgruppe wählen, die keine internen Verbindungen zulässt, gehen Sie wie folgt vor:  
Konfigurieren Sie die Sicherheitsgruppe so, dass sie mit sich selbst kommunizieren kann.
Wählen Sie eine andere Sicherheitsgruppe, die mit der Sicherheitsgruppe des Mount-Ziels kommunizieren kann.
  + Die AWS-Region — Die Region, die Sie angeben, ist die, in der sich Ihr FSx Amazon-Zieldateisystem befindet.

Der Befehl gibt einen Speicherort-ARN ähnlich dem folgenden zurück.

```
{ 
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07db7abfc326c50fb" 
}
```

# DataSync Transfers mit FSx for Lustre konfigurieren
<a name="create-lustre-location"></a>

Um Daten zu oder von Ihrem Amazon FSx for Lustre-Dateisystem zu übertragen, müssen Sie einen AWS DataSync *Übertragungsort* erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs auf FSx Dateisysteme von For Lustre
<a name="create-lustre-location-access"></a>

DataSync greift mithilfe des Lustre-Clients auf Ihr FSx for Lustre-Dateisystem zu. DataSyncbenötigt Zugriff auf alle Daten auf Ihrem FSx for Lustre-Dateisystem. Um diese Zugriffsebene zu haben, hängen DataSync Sie Ihr Dateisystem als Root-Benutzer mit einer Benutzer-ID (UID) und Gruppen-ID (GID) von ein. `0`

DataSync mountet Ihr Dateisystem mithilfe von [Netzwerkschnittstellen](required-network-interfaces.md) aus Ihrer Virtual Private Cloud (VPC). DataSync verwaltet die Erstellung, Verwendung und Löschung dieser Netzwerkschnittstellen vollständig in Ihrem Namen.

**Anmerkung**  
VPCs die Sie mit verwenden, DataSync muss über eine Standardmandantenfähigkeit verfügen. VPCs mit Dedicated Tenancy werden nicht unterstützt.

## Erstellen Sie Ihren FSx Transferstandort für Lustre
<a name="create-lustre-location-how-to"></a>

Um den Übertragungsort zu erstellen, benötigen Sie ein FSx für Lustre vorhandenes Dateisystem. Weitere Informationen finden Sie unter [Erste Schritte mit Amazon FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/getting-started.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

### Verwenden der Konsole DataSync
<a name="create-lustre-location-how-to-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon** aus FSx.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel. 

1. Wählen Sie als **FSx Dateisystem** das FSx for Lustre-Dateisystem aus, das Sie als Speicherort verwenden möchten. 

1. Geben Sie **unter Mount-Pfad** den Mount-Pfad für Ihr FSx for Lustre-Dateisystem ein.

   Der Pfad kann ein Unterverzeichnis beinhalten. Wenn der Speicherort als Quelle verwendet wird, DataSync liest Daten aus dem Mount-Pfad. Wenn der Speicherort als Ziel verwendet wird, werden alle Daten in den Mount-Pfad DataSync geschrieben. Wenn kein Unterverzeichnis angegeben wird, wird das Stammverzeichnis (`/`) DataSync verwendet.

1. Wählen Sie für **Sicherheitsgruppen** bis zu fünf Sicherheitsgruppen aus, die Zugriff auf Ihr FSx for Lustre-Dateisystem ermöglichen.

   Die Sicherheitsgruppen müssen auf die Ports des Dateisystems zugreifen können. Das Dateisystem muss auch den Zugriff von den Sicherheitsgruppen aus ermöglichen.

   Weitere Informationen zu Sicherheitsgruppen finden Sie unter [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/LustreGuide/limit-access-security-groups.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um das FSx for Lustre-Dateisystem zu kennzeichnen.

   Mithilfe von Tags können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-location-lustre-cli"></a>

**Um einen FSx For Lustre-Standort mit dem zu erstellen AWS CLI**
+ Verwenden Sie den folgenden Befehl, um einen Standort FSx für Lustre zu erstellen.

  ```
  aws datasync create-location-fsx-lustre \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system:filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id
  ```

  Die folgenden Parameter sind für den `create-location-fsx-lustre` Befehl erforderlich.
  + `fsx-filesystem-arn`— Der vollqualifizierte Amazon-Ressourcenname (ARN) des Dateisystems, aus dem Sie lesen oder in das Sie schreiben möchten.
  + `security-group-arns`— Der ARN einer Amazon EC2-Sicherheitsgruppe, der auf die [Netzwerkschnittstellen](required-network-interfaces.md) des bevorzugten Subnetzes des Dateisystems angewendet werden soll.

Der vorherige Befehl gibt einen Standort-ARN zurück, der dem folgenden ähnelt.

```
{
    "LocationArn": "arn:aws:datasync:us-west-2:111222333444:location/loc-07sb7abfc326c50fb"
}
```

# Konfiguration von DataSync Übertragungen mit Amazon FSx für OpenZFS
<a name="create-openzfs-location"></a>

*Um Daten zu oder von Ihrem Amazon FSx for OpenZFS-Dateisystem zu übertragen, müssen Sie einen AWS DataSync Übertragungsort erstellen.* DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs auf FSx OpenZFS-Dateisysteme
<a name="create-openzfs-access"></a>

DataSync [mountet Ihr FSx für OpenZFS-Dateisystem aus Ihrer Virtual Private Cloud (VPC) mithilfe von Netzwerkschnittstellen.](required-network-interfaces.md) DataSyncverwaltet die Erstellung, Verwendung und Löschung dieser Netzwerkschnittstellen vollständig in Ihrem Namen.

**Anmerkung**  
VPCs die Sie mit verwenden, DataSync muss über eine Standardmandantenfähigkeit verfügen. VPCs mit Dedicated Tenancy werden nicht unterstützt.

## Konfiguration FSx für die OpenZFS-Dateisystemautorisierung
<a name="configure-openzfs-authorization"></a>

DataSync greift als NFS-Client auf Ihr Dateisystem FSx für OpenZFS zu und mountet das Dateisystem als Root-Benutzer mit einer Benutzer-ID (UID) und Gruppen-ID (GID) von. `0`

 DataSync Um all Ihre Datei-Metadaten zu kopieren, müssen Sie die NFS-Exporteinstellungen auf Ihren Dateisystem-Volumes mithilfe von konfigurieren. `no_root_squash` Sie können diese Zugriffsebene jedoch nur auf eine bestimmte DataSync Aufgabe beschränken.

Weitere Informationen finden Sie unter [Volume-Eigenschaften](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/managing-volumes.html#volume-properties) im *Amazon FSx for OpenZFS-Benutzerhandbuch*.

### Spezifische Konfiguration von NFS-Exporten für (empfohlen DataSync )
<a name="configure-nfs-export-recommended"></a>

Sie können einen NFS-Export konfigurieren, der für jedes Volume spezifisch ist, auf das nur Ihre DataSync Task zugreift. Tun Sie dies für das neueste Vorgänger-Volume des Mount-Pfads, den Sie bei der Erstellung Ihres Standorts FSx für OpenZFS angeben.

**Um einen NFS-Export zu konfigurieren, der spezifisch ist für DataSync**

1. Erstellen Sie Ihre [DataSyncAufgabe](create-task-how-to.md).

   Dadurch werden die Netzwerkschnittstellen der Aufgabe erstellt, die Sie in Ihren NFS-Exporteinstellungen angeben.

1. Suchen Sie die privaten IP-Adressen der Netzwerkschnittstellen der Aufgabe mithilfe der Amazon EC2 EC2-Konsole oder AWS CLI.

1. Konfigurieren Sie FSx für Ihr OpenZFS-Dateisystem-Volume die folgenden NFS-Exporteinstellungen für jede Netzwerkschnittstelle der Aufgabe:
   + **Client-Adresse**: Geben Sie die private IP-Adresse der Netzwerkschnittstelle ein (z. B.). `10.24.34.0`
   + **NFS-Optionen**: Geben Sie ein`rw,no_root_squash`.

### Konfiguration von NFS-Exporten für alle Clients
<a name="configure-nfs-export-general"></a>

Sie können einen NFS-Export angeben, der Root-Zugriff auf alle Clients ermöglicht.

**Um einen NFS-Export für alle Clients zu konfigurieren**
+ Konfigurieren Sie FSx für Ihr OpenZFS-Dateisystemvolume die folgenden NFS-Exporteinstellungen:
  + **Client-Adresse**: Geben Sie ein. `*`
  + **NFS-Optionen**: Geben Sie ein`rw,no_root_squash`.

## Erstellen Sie Ihren FSx Übertragungsort für OpenZFS
<a name="create-openzfs-location-how-to"></a>

Um den Speicherort zu erstellen, benötigen Sie ein FSx für OpenZFS vorhandenes Dateisystem. Falls Sie noch keinen haben, finden Sie weitere Informationen unter [Erste Schritte mit Amazon FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/getting-started.html) im *Amazon FSx for OpenZFS-Benutzerhandbuch*.

### Verwenden der Konsole DataSync
<a name="create-openzfs-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Standorte** und dann **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon** aus FSx.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Wählen Sie als **FSx Dateisystem** das Dateisystem FSx für OpenZFS aus, das Sie als Speicherort verwenden möchten. 

1. Geben Sie **unter Mount-Pfad** den Mount-Pfad FSx für Ihr OpenZFS-Dateisystem ein. 

   Der Pfad muss mit einem beliebigen Verzeichnispfad im Dateisystem beginnen `/fsx` und kann ein beliebiger vorhandener Verzeichnispfad sein. Wenn der Speicherort als Quelle verwendet wird, DataSync liest Daten aus dem Mount-Pfad. Wenn der Speicherort als Ziel verwendet wird, werden alle Daten in den Mount-Pfad DataSync geschrieben. Wenn kein Unterverzeichnis angegeben ist, wird das Stammverzeichnis des Volumes DataSync verwendet (z. B.`/fsx`).

1. Wählen Sie für **Sicherheitsgruppen** bis zu fünf Sicherheitsgruppen aus, die den Netzwerkzugriff auf Ihr FSx OpenZFS-Dateisystem ermöglichen. 

   Die Sicherheitsgruppen müssen Zugriff auf die Netzwerkports gewähren, die vom FSx for OpenZFS-Dateisystem verwendet werden. Das Dateisystem muss den Netzwerkzugriff von den Sicherheitsgruppen aus ermöglichen.

   Weitere Informationen zu Sicherheitsgruppen finden Sie unter [Dateisystemzugriffskontrolle mit Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) im *Amazon FSx for OpenZFS-Benutzerhandbuch*.

1. (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie für die **NFS-Version die NFS-Version** aus, die für den Zugriff auf Ihr Dateisystem DataSync verwendet wird.

    DataSync Verwendet standardmäßig NFS-Version 4.1.

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um das FSx OpenZFS-Dateisystem zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihren Standort verwalten, filtern und danach suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-openzfs-location-cli"></a>

**Um einen Speicherort FSx für OpenZFS zu erstellen, verwenden Sie AWS CLI**

1. Kopieren Sie den folgenden Befehl: `create-location-fsx-open-zfs`

   ```
   aws datasync create-location-fsx-open-zfs \
      --fsx-filesystem-arn arn:aws:fsx:region:account-id:file-system/filesystem-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol NFS={}
   ```

1. Geben Sie im Befehl die folgenden erforderlichen Optionen an:
   + Geben Sie für `fsx-filesystem-arn` den vollqualifizierten Amazon-Ressourcennamen (ARN) des Standortdateisystems an. Dazu gehören der AWS-Region Speicherort Ihres Dateisystems AWS-Konto, Ihre und die Dateisystem-ID.
   + Geben Sie für `security-group-arns` den ARN der Amazon EC2-Sicherheitsgruppe an, die den Zugriff auf die [Netzwerkschnittstellen](required-network-interfaces.md) des bevorzugten Subnetzes Ihres FSx OpenZFS-Dateisystems ermöglicht. Dazu gehören der Standort AWS-Region Ihrer Amazon EC2 EC2-Instance AWS-Konto, Ihre und die Sicherheitsgruppen-ID.

     Weitere Informationen zu Sicherheitsgruppen finden Sie unter [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/limit-access-security-groups.html) im *Amazon FSx for OpenZFS-Benutzerhandbuch*.
   + Geben Sie für das Protokoll an`protocol`, das für den Zugriff auf Ihr Dateisystem DataSync verwendet wird. (unterstützt DataSync derzeit nur NFS.)

1. Führen Sie den Befehl aus. Sie erhalten eine Antwort mit dem Standort, den Sie gerade erstellt haben.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Konfiguration von Übertragungen mit Amazon FSx für NetApp ONTAP
<a name="create-ontap-location"></a>

Um Daten zu oder von Ihrem Amazon FSx for NetApp ONTAP-Dateisystem zu übertragen, müssen Sie einen AWS DataSync *Übertragungsort* erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für die Übertragung von Daten verwenden.

## Bereitstellung des DataSync Zugriffs FSx auf ONTAP-Dateisysteme
<a name="create-ontap-location-access"></a>

Um auf ein FSx für ONTAP Dateisystem zuzugreifen, DataSync mounten Sie mithilfe von [Netzwerkschnittstellen](required-network-interfaces.md) in Ihrer Virtual Private Cloud (VPC) eine virtuelle Speichermaschine (SVM) auf Ihrem Dateisystem. DataSync erstellt diese Netzwerkschnittstellen nur dann im bevorzugten Subnetz Ihres Dateisystems, wenn Sie eine Aufgabe erstellen, die Ihren Standort für ONTAP enthält. FSx 

**Anmerkung**  
VPCs die Sie mit verwenden, DataSync muss über eine Standardmandantenfähigkeit verfügen. VPCs mit Dedicated Tenancy werden nicht unterstützt.

DataSync kann mithilfe des Network File System (NFS) - oder Server Message Block (SMB) -Protokolls eine FSx Verbindung zur SVM eines ONTAP-Dateisystems herstellen und Daten kopieren.

**Topics**
+ [Verwenden des NFS-Protokolls](#create-ontap-location-supported-protocols)
+ [Verwenden des SMB-Protokolls](#create-ontap-location-smb)
+ [Nicht unterstützte Protokolle](#create-ontap-location-unsupported-protocols)
+ [Das richtige Protokoll wählen](#create-ontap-location-choosing-protocol)
+ [SnapLock Zugreifen auf Volumes](#create-ontap-location-snaplock)

### Verwenden des NFS-Protokolls
<a name="create-ontap-location-supported-protocols"></a>

 DataSync Verwendet beim NFS-Protokoll den `AUTH_SYS` Sicherheitsmechanismus mit einer Benutzer-ID (UID) und einer Gruppen-ID (GID) von, um sich bei Ihrer SVM `0` zu authentifizieren.

**Anmerkung**  
DataSync unterstützt derzeit nur NFS Version 3 mit vier ONTAP-Standorten. FSx 

### Verwenden des SMB-Protokolls
<a name="create-ontap-location-smb"></a>

 DataSync Verwendet beim SMB-Protokoll die Anmeldeinformationen, die Sie zur Authentifizierung bei Ihrer SVM angeben.

**Unterstützte SMB-Versionen**  
Wählt standardmäßig DataSync automatisch eine Version des SMB-Protokolls auf der Grundlage der Verhandlungen mit Ihrem SMB-Dateiserver aus. Sie können auch die Verwendung einer bestimmten Version konfigurieren, aber wir empfehlen, dies nur dann DataSync zu tun, wenn Sie Probleme haben, DataSync automatisch mit dem SMB-Dateiserver zu verhandeln. Aus Sicherheitsgründen empfehlen wir die Verwendung von SMB Version 3.0.2 oder höher.  
In der folgenden Tabelle finden Sie eine Liste der Optionen in der DataSync Konsole und in der API für die Konfiguration einer SMB-Version mit Ihrem FSx ONTAP-Standort:      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-ontap-location.html)

**Erforderliche Berechtigungen**  
Sie müssen DataSync einem lokalen Benutzer in Ihrer SVM oder einem Domänenbenutzer in Ihrem Microsoft Active Directory die erforderlichen Rechte zum Mounten und Zugreifen auf Ihre Dateien, Ordner und Dateimetadaten gewähren.  
Beachten Sie Folgendes, wenn Sie einen Benutzer in Ihrem Active Directory angeben:  
+ Wenn Sie verwenden AWS Directory Service for Microsoft Active Directory, muss der Benutzer Mitglied der Gruppe **AWS Delegierte FSx Administratoren** sein.
+ Wenn Sie ein selbstverwaltetes Active Directory verwenden, muss der Benutzer Mitglied einer von zwei Gruppen sein:
  + Die Gruppe der **Domänen-Admins**, die Standardgruppe für delegierte Administratoren.
  + Eine benutzerdefinierte Gruppe delegierter Administratoren mit Benutzerrechten, die das Kopieren von Objektbesitzberechtigungen und Windows-Zugriffskontrolllisten () ermöglichen DataSync . ACLs
**Wichtig**  
Sie können die Gruppe der delegierten Administratoren nicht mehr ändern, nachdem das Dateisystem bereitgestellt wurde. Sie müssen das Dateisystem entweder erneut bereitstellen oder es aus einer Sicherung wiederherstellen, um die benutzerdefinierte delegierte Administratorgruppe mit den folgenden Benutzerrechten verwenden zu können, die Metadaten kopieren DataSync muss.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/create-ontap-location.html)
+ Wenn Sie Windows kopieren möchten ACLs und zwischen FSx ONTAP-Dateisystemen mithilfe von SMB (oder anderen Arten von Dateisystemen, die SMB verwenden) wechseln möchten, DataSync müssen die von Ihnen angegebenen Benutzer derselben Active Directory-Domäne angehören oder über eine Active Directory-Vertrauensstellung zwischen ihren Domänen verfügen.

**Erforderliche Authentifizierungsprotokolle**  
 DataSync Um auf Ihren SMB-Share zugreifen zu können, muss Ihr FSx ONTAP-Dateisystem die NTLM-Authentifizierung verwenden. DataSync kann nicht auf ONTAP-Dateisysteme zugreifen, FSx die die Kerberos-Authentifizierung verwenden.

**DFS-Namespaces**  
DataSync unterstützt keine Microsoft Distributed File System (DFS) -Namespaces. Wir empfehlen, bei der Erstellung Ihres Standorts stattdessen einen zugrunde liegenden Dateiserver oder eine Dateifreigabe anzugeben. DataSync 

### Nicht unterstützte Protokolle
<a name="create-ontap-location-unsupported-protocols"></a>

DataSync kann nicht auf ONTAP-Dateisysteme zugreifen FSx , die das iSCSI-Protokoll (Internet Small Computer Systems Interface) verwenden.

### Das richtige Protokoll wählen
<a name="create-ontap-location-choosing-protocol"></a>

Um Dateimetadaten FSx für ONTAP-Migrationen beizubehalten, konfigurieren Sie Ihre DataSync Quell- und Zielspeicherorte so, dass sie dasselbe Protokoll verwenden. Unter den unterstützten Protokollen bewahrt SMB Metadaten mit der höchsten Genauigkeit (Einzelheiten finden Sie unter). [Verstehen, wie DataSync mit Datei- und Objektmetadaten umgegangen wird](metadata-copied.md)

Gehen Sie bei der Migration von einem Unix-Server (Linux) oder einer NAS-Freigabe (Network Attached Storage), die Benutzern über NFS zur Verfügung steht, wie folgt vor:

1. [Erstellen Sie einen NFS-Speicherort](create-nfs-location.md) für den Unix (Linux) -Server oder die NAS-Freigabe. (Dies wird Ihr Quellspeicherort sein.)

1. Konfigurieren Sie das FSx ONTAP-Volume, auf das Sie Daten übertragen, mit dem [Unix-Sicherheitsstil](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Erstellen Sie einen Speicherort FSx für Ihr ONTAP-Dateisystem, das für NFS konfiguriert ist. (Dies wird Ihr Zielort sein.)

Gehen Sie bei der Migration von einem Windows-Server oder einer NAS-Freigabe, die Benutzer über SMB bedient, wie folgt vor:

1. [Erstellen Sie einen SMB-Standort](create-smb-location.md) für den Windows-Server oder die NAS-Freigabe. (Dies wird Ihr Quellstandort sein.)

1. Konfigurieren Sie das FSx ONTAP-Volume, auf das Sie Daten übertragen, mit dem [NTFS-Sicherheitsstil](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-volumes.html#volume-security-style).

1. Erstellen Sie einen Speicherort FSx für Ihr ONTAP-Dateisystem, das für SMB konfiguriert ist. (Dies wird Ihr Zielort sein.)

Wenn Ihre FSx für ONTAP Umgebung mehrere Protokolle verwendet, empfehlen wir die Zusammenarbeit mit einem AWS Speicherspezialisten. Weitere Informationen zu bewährten Methoden für den Multiprotokollzugriff finden Sie unter [Aktivieren von Multiprotokoll-Workloads mit Amazon FSx ](https://aws.amazon.com/blogs/storage/enabling-multiprotocol-workloads-with-amazon-fsx-for-netapp-ontap/) für ONTAP. NetApp

### SnapLock Zugreifen auf Volumes
<a name="create-ontap-location-snaplock"></a>

Wenn Sie Daten auf ein [SnapLock Volume](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/snaplock.html) auf einem FSx für ONTAP Dateisystem übertragen, stellen Sie sicher, dass die SnapLock Einstellungen **Autocommit** und **Volume Append Mode** auf dem Volume während der Übertragung deaktiviert sind. Sie können diese Einstellungen wieder aktivieren, wenn Sie mit der Datenübertragung fertig sind.

## Erstellen Sie Ihren FSx Übertragungsort für ONTAP
<a name="create-ontap-location-how-to"></a>

Um den Speicherort zu erstellen, benötigen Sie ein FSx für ONTAP vorhandenes Dateisystem. Falls Sie noch keinen haben, finden Sie weitere Informationen unter [Erste Schritte mit Amazon FSx for NetApp ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/getting-started.html) im *Amazon FSx for NetApp ONTAP-Benutzerhandbuch*.

### Verwenden der Konsole DataSync
<a name="create-ontap-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** **Amazon** aus FSx.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Wählen Sie als **FSx Dateisystem** das FSx für ONTAP geeignete Dateisystem aus, das Sie als Speicherort verwenden möchten.

1. Wählen Sie für **virtuelle Speichermaschine** eine virtuelle Speichermaschine (SVM) in Ihrem Dateisystem aus, in die Sie Daten kopieren möchten oder von der Sie Daten kopieren möchten.

1. Geben Sie **unter Bereitstellungspfad** einen Pfad zur Dateifreigabe auf der SVM an, in die Sie Ihre Daten kopieren werden.

   Sie können einen Knotenpfad (auch als Mount-Punkt bezeichnet), einen Qtree-Pfad (für NFS-Dateifreigaben) oder einen Share-Namen (für SMB-Dateifreigaben) angeben. Ihr Mount-Pfad könnte zum Beispiel `/vol1`, `/vol1/tree1` oder `/share1` sein.
**Tipp**  
Geben Sie keinen Pfad im Root-Volume der SVM an. Weitere Informationen finden Sie unter [Verwaltung FSx virtueller ONTAP-Speichermaschinen](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/managing-svms.html) im *Amazon FSx for NetApp ONTAP-Benutzerhandbuch*.

1. Wählen Sie für **Sicherheitsgruppen** bis zu fünf Amazon EC2-Sicherheitsgruppen aus, die Zugriff auf das bevorzugte Subnetz Ihres Dateisystems ermöglichen.

   Die Sicherheitsgruppen müssen ausgehenden Datenverkehr an den folgenden Ports zulassen (abhängig vom verwendeten Protokoll):
   + **NFS** — TCP-Ports 111, 635 und 2049 
   + **SMB — TCP-Anschluss** 445

   Die Sicherheitsgruppen Ihres Dateisystems müssen auch eingehenden Datenverkehr über dieselben Ports zulassen.

1. Wählen Sie **unter Protokoll das** Datenübertragungsprotokoll aus, das für den Zugriff auf die SVM Ihres Dateisystems DataSync verwendet wird.

   Weitere Informationen finden Sie unter [Das richtige Protokoll wählen](#create-ontap-location-choosing-protocol).

------
#### [ NFS ]

   DataSync verwendet NFS Version 3.

------
#### [ SMB ]

   Konfigurieren Sie eine SMB-Version, einen Benutzer, ein Passwort und einen Active Directory-Domänennamen (falls erforderlich) für den Zugriff auf die SVM.
   + (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie eine **SMB-Version** für den DataSync Zugriff auf Ihre SVM aus.

     Wählt standardmäßig DataSync automatisch eine Version aus, die auf den Verhandlungen mit dem SMB-Dateiserver basiert. Weitere Informationen finden Sie unter [Verwenden des SMB-Protokolls](#create-ontap-location-smb).
   + **Geben Sie im Feld Benutzer einen Benutzernamen ein, der die Dateien, Ordner und Metadaten, die Sie auf die SVM übertragen möchten, bereitstellen und darauf zugreifen kann.**

     Weitere Informationen finden Sie unter [Verwenden des SMB-Protokolls](#create-ontap-location-smb).
   + **Geben Sie im Feld Passwort das Passwort des angegebenen Benutzers ein, der auf die SVM zugreifen kann.**
   + (Optional) Geben Sie für den **Active Directory-Domänennamen** den vollqualifizierten Domänennamen (FQDN) des Active Directory-Verzeichnisses ein, zu dem Ihre SVM gehört.

     Wenn Sie mehrere Domänen in Ihrer Umgebung haben, stellen Sie durch die Konfiguration dieser Einstellung sicher, dass die DataSync Verbindung zur richtigen SVM hergestellt wird.

------

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um das FSx ONTAP-Dateisystem zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="create-ontap-location-cli"></a>

**Um einen Standort FSx für ONTAP zu erstellen, verwenden Sie AWS CLI**

1. Kopieren Sie den folgenden `create-location-fsx-ontap` Befehl:

   ```
   aws datasync create-location-fsx-ontap \
      --storage-virtual-machine-arn arn:aws:fsx:region:account-id:storage-virtual-machine/fs-file-system-id \
      --security-group-arns arn:aws:ec2:region:account-id:security-group/group-id \
      --protocol data-transfer-protocol={}
   ```

1. Geben Sie im Befehl die folgenden erforderlichen Optionen an:
   + Geben Sie für `storage-virtual-machine-arn` den vollqualifizierten Amazon-Ressourcennamen (ARN) einer virtuellen Speichermaschine (SVM) in Ihrem Dateisystem an, in die Sie Daten kopieren möchten oder von der Sie Daten kopieren möchten.

     Dieser ARN beinhaltet den AWS-Region Speicherort Ihres Dateisystems, Ihr AWS-Konto Dateisystem, das Dateisystem und die IDs SVM.
   + Geben Sie für `security-group-arns` die ARNs der Amazon EC2-Sicherheitsgruppen an, die den Zugriff auf die [Netzwerkschnittstellen](required-network-interfaces.md) des bevorzugten Subnetzes Ihres Dateisystems ermöglichen.

     Dazu gehören der AWS-Region Standort Ihrer Amazon EC2 EC2-Instance AWS-Konto, Ihre und Ihre Sicherheitsgruppe. IDs Sie können bis zu fünf Sicherheitsgruppen angeben. ARNs

     Weitere Informationen zu Sicherheitsgruppen finden Sie unter [File System Access Control with Amazon VPC](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html) im *Amazon FSx for NetApp ONTAP User Guide*.
   + Konfigurieren Sie zum `protocol` Beispiel das Protokoll, das für den Zugriff auf die SVM Ihres Dateisystems DataSync verwendet wird.
     + Für NFS können Sie die Standardkonfiguration verwenden:

       `--protocol NFS={}`
     + Für SMB müssen Sie einen Benutzernamen und ein Passwort für den Zugriff auf die SVM angeben:

       `--protocol SMB={User=smb-user,Password=smb-password}`

1. Führen Sie den Befehl aus.

   Sie erhalten eine Antwort, in der der Standort angezeigt wird, den Sie gerade erstellt haben.

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-west-2:123456789012:location/loc-abcdef01234567890" 
   }
   ```

# Übertragung zu oder von einem anderen Cloud-Speicher mit AWS DataSync
<a name="transferring-other-cloud-storage"></a>

Mit AWS DataSync können Sie Daten zwischen einigen anderen Cloud-Anbietern und AWS Speicherdiensten übertragen. Weitere Informationen finden Sie unter [Wohin kann ich meine Daten übertragen DataSync?](working-with-locations.md)

**Topics**
+ [Planung von Übertragungen zu oder von Cloud-Speichersystemen von Drittanbietern](third-party-cloud-transfer-considerations.md)
+ [AWS DataSync Übertragungen mit Google Cloud Storage konfigurieren](tutorial_transfer-google-cloud-storage.md)
+ [Transfers konfigurieren mit Microsoft Azure Blob Storage](creating-azure-blob-location.md)
+ [Konfiguration von AWS DataSync Übertragungen mit Microsoft Azure Files SMB-Aktien](transferring-azure-files.md)
+ [Konfiguration von Übertragungen mit anderem Cloud-Objektspeicher](creating-other-cloud-object-location.md)

# Planung von Übertragungen zu oder von Cloud-Speichersystemen von Drittanbietern
<a name="third-party-cloud-transfer-considerations"></a>

Beachten Sie bei der Planung cloudübergreifender Datenübertragungen Folgendes:
+ **Verwendung eines Agenten:** Ein Agent muss nur dann auf Speicher in anderen Clouds zugreifen, wenn Aufgaben im Basismodus verwendet werden. Für [Aufgaben im erweiterten Modus](https://docs.aws.amazon.com/datasync/latest/userguide/choosing-task-mode.html) ist kein Agent erforderlich. Wenn Sie sich für die Verwendung eines Agenten entscheiden, können Sie ihn bei der Übertragung aus dem S3-kompatiblen Objektspeicher eines Cloud-Anbieters als [Amazon EC2 EC2-Instance](https://docs.aws.amazon.com/datasync/latest/userguide/deploy-agents.html#ec2-deploy-agent) oder als Google Compute Engine bzw. Azure Virtual Machine für Übertragungen von diesen spezifischen Speicherdiensten bereitstellen. Bei der Übertragung von Dateisystemen in Google und Azure empfehlen wir, den Agenten als Google- oder Azure-VM bereitzustellen, damit sich der Agent so nah wie möglich am Dateisystem befindet. Darüber hinaus werden die Daten vom Agenten auf DataSync komprimiert AWS, wodurch die Kosten für ausgehenden Datenverkehr gesenkt werden können. DataSync bietet eine Liste [validierter Cloud-Standorte](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html), die die erforderliche [Amazon S3 S3-API-Kompatibilität](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-access) bieten.
+ **Der Objektspeicher-Endpunkt der anderen Cloud:** Der Speicherendpunkt für einen Cloud-Drittanbieter ist in der Regel region- oder kontospezifisch. Der regionale Endpunkt wird zusammen mit einem angegebenen Bucket-Namen als Server am DataSync Objektspeicherort verwendet.
+ **Speicherklassen der Quellobjekte:** Wie Amazon S3 unterstützen einige Cloud-Anbieter eine Archivschicht, die eine Wiederherstellung erfordert, bevor auf die archivierten Objekte zugegriffen werden kann. Beispielsweise müssen Objekte in der Azure BLOB-Archivschicht vor einer Datenübertragung für den Standardzugriff abgerufen werden. Auf Objekte in der Google Cloud Storage-Archivschicht kann sofort zugegriffen werden und sie müssen nicht wiederhergestellt werden. Allerdings fallen im Zusammenhang mit dem direkten Zugriff auf die Archivebene Abrufkosten an. Bevor Sie mit der Datenübertragung beginnen, lesen Sie in der Dokumentation zu Ihrer Cloud-übergreifenden Speicherklasse die Zugriffsanforderungen und Abrufgebühren. Weitere Informationen zum Wiederherstellen archivierter Objekte in Amazon S3 finden Sie unter [Wiederherstellen eines archivierten Objekts](https://docs.aws.amazon.com/AmazonS3/latest/userguide/restoring-objects.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.
+ **Zugriff auf Objektspeicher:** Für die Übertragung von Daten zwischen Cloud-Drittanbietern ist der Zugriff auf den Objektspeicher der anderen Cloud in Form von Authentifizierungsschlüsseln erforderlich. Um beispielsweise Zugriff auf Google Cloud Storage zu gewähren, konfigurieren Sie einen DataSync Objektspeicherort, der eine Verbindung zur [Google Cloud Storage-XML-API](https://cloud.google.com/storage/docs/xml-api/overview) herstellt und sich mithilfe eines [Hash-basierten HMAC-Schlüssels (Message Authentication Code)](https://docs.aws.amazon.com/datasync/latest/userguide/tutorial_transfer-google-cloud-storage.html#transfer-google-cloud-storage-create-hmac-key) für Ihr Dienstkonto authentifiziert. [Für Azure Blob Storage konfigurieren Sie einen dedizierten [Azure DataSync Blob-Speicherort](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#creating-azure-blob-location-how-to), der mithilfe von SAS-Token authentifiziert wird.](https://docs.aws.amazon.com/datasync/latest/userguide/creating-azure-blob-location.html#azure-blob-access) DataSync verwendet AWS Secrets Manager , um Ihre Objektspeicher-Anmeldeinformationen sicher zu speichern. Weitere Informationen finden Sie unter [Sichern der Anmeldeinformationen für den Speicherort](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).
+ **Unterstützung für Objekt-Tags:**
  + Im Gegensatz zu Amazon S3 unterstützen nicht alle Cloud-Anbieter [Objekt-Tags](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html). DataSync Aufgaben können beim Versuch, Tags vom Quellspeicherort zu lesen, fehlschlagen, wenn der Cloud-Anbieter keine Objekt-Tags über die Amazon S3 S3-API unterstützt oder wenn die von Ihnen angegebenen Anmeldeinformationen nicht ausreichen, um die Tags abzurufen. DataSyncbietet eine Aufgabenoption, um das [Lesen und Kopieren von Objekt-Tags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) während einer Übertragung auszuschalten, wenn Objekt-Tags nicht unterstützt werden oder Sie die Tags nicht behalten möchten. Lesen Sie in der Dokumentation Ihres Cloud-Anbieters nach, ob Objekt-Tags unterstützt werden, und überprüfen Sie die Objekt-Tag-Einstellungen Ihrer Übertragungsaufgabe, bevor Sie die Übertragung starten.
  + Sie können die Amazon S3 S3-API verwenden, um zu überprüfen, ob ein Cloud-Anbieter eine `get-object-tagging` Anfrage zurückgibt. Weitere Informationen finden Sie unter [get-object-tagging](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object-tagging.html) in der Referenz zum *AWS CLI -Befehl*.

    Ein Cloud-Anbieter, der Objekt-Tags unterstützt, gibt eine Antwort zurück, die dem folgenden Beispiel ähnelt:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
                                        
    {
    
        "TagSet": []
    
    }
    ```

    Ein Cloud-Anbieter, der dies nicht unterstützt`get-object-tagging`, gibt die folgende Meldung zurück:

    ```
    aws s3api get-object-tagging --bucket BUCKET_NAME --endpoint- url=https://BUCKET_ENDPOINT --key prefix/file1
    
    An error occurred (OperationNotSupported) when calling the GetObjectTagging operation: The operation is not supported for this resource
    ```
+ **Damit verbundene Kosten für Anfragen und ausgehende Daten:** Beim Übertragen von Daten aus dem Cloud-Objektspeicher [fallen Kosten für Anfragen](https://docs.aws.amazon.com/datasync/latest/userguide/creating-other-cloud-object-location.html#other-cloud-considerations-costs) und ausgehende Daten an. Die Gebühren für Anfragen variieren je nach Cloud-Anbieter und gegebenenfalls zwischen Speicherklassen. Informationen zu den spezifischen Kosten für Anfragen im Verhältnis zur Speicherklasse, aus der Sie lesen möchten, finden Sie in der Dokumentation Ihres Cloud-Anbieters. Eine Übersicht über die Gebühren, die DataSync für Datenübertragungen anfallen, finden Sie unter [Bewertung der Kosten für S3-Anfragen bei der Nutzung DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html#create-s3-location-s3-requests) und [AWS DataSync Preisgestaltung](https://aws.amazon.com/datasync/pricing/). Bei der Übertragung von Daten von bestimmten Cloud-Anbietern fallen Gebühren für ausgehenden Datenverkehr an. Die Kosten für die Datenübertragung variieren zwischen den Cloud-Anbietern und hängen auch von der Region ab, in der die Daten gespeichert sind.
+ **Anforderungsraten für Objektspeicher:** Cloud-Anbieter weisen für ihre Objektspeicherplattformen unterschiedliche Leistungs- und Anforderungsratenmerkmale auf. Prüfen Sie die Anforderungsraten Ihres anderen Cloud-Anbieters und ermitteln Sie, wo die Anforderungslimits gelten. Planen Sie im Voraus für stark parallelisierte Übertragungen, die aus mehreren Agenten bestehen und bei denen möglicherweise spezifische Partitionierungen oder Leistungssteigerungen erforderlich sind.

  Amazon S3 verfügt über dokumentierte Anforderungsraten, auf die Sie Ihre Lösung aufbauen können. Die Amazon S3 S3-Anforderungsraten gelten pro partitioniertem Präfix und sind auf mehrere Präfixe skalierbar. Weitere Informationen finden Sie unter [Bewährte Entwurfsmuster: Optimierung der Amazon S3 S3-Leistung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/optimizing-performance.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.

# AWS DataSync Übertragungen mit Google Cloud Storage konfigurieren
<a name="tutorial_transfer-google-cloud-storage"></a>

Mit AWS DataSync können Sie Daten zwischen Google Cloud Storage und den folgenden AWS Speicherdiensten übertragen:
+ Amazon S3
+ Amazon EFS
+ Amazon FSx für Windows-Dateiserver
+ Amazon FSx für Lustre
+ Amazon FSx für OpenZFS
+ Amazon FSx für NetApp ONTAP

Um mit der Einrichtung der Übertragung zu beginnen, erstellen Sie einen Speicherort für Ihren Google Cloud Storage. Dieser Standort kann entweder als Übertragungsquelle oder als Ziel für die Übertragung dienen. Ein DataSync Agent ist nur erforderlich, wenn Sie Daten zwischen Google Cloud Storage und Amazon EFS oder Amazon FSx übertragen oder wenn Sie Aufgaben **im Basismodus** verwenden. Für Datenübertragungen **im erweiterten Modus** zwischen Google Cloud Storage und Amazon S3 ist kein Agent erforderlich.

**Anmerkung**  
Verwenden Sie für private Cloud-Konnektivität zwischen Google Cloud Storage und AWS den Basismodus mit Agenten.

## -Übersicht
<a name="transfer-google-cloud-storage-overview"></a>

DataSync verwendet die [Google Cloud Storage-XML-API](https://cloud.google.com/storage/docs/xml-api/overview) für Datenübertragungen. Diese API bietet eine Amazon S3 S3-kompatible Schnittstelle zum Lesen und Schreiben von Daten mit Google Cloud Storage-Buckets.

Wenn Sie den Basismodus für Übertragungen verwenden, können Sie den Agenten in Google Cloud Storage oder Ihrer Amazon VPC bereitstellen.

------
#### [ Agent in Google Cloud ]

1. Sie stellen einen DataSync Agenten in Ihrer Google Cloud-Umgebung bereit.

1. Der Agent liest Ihren Google Cloud Storage-Bucket mithilfe eines Hash-basierten HMAC-Schlüssels (Message Authentication Code).

1. Die Objekte aus Ihrem Google Cloud Storage-Bucket werden mithilfe eines öffentlichen Endpunkts sicher über TLS 1.3 in den AWS Cloud übertragen.

1. Der DataSync Dienst schreibt die Daten in Ihren S3-Bucket.

Das folgende Diagramm veranschaulicht die Übertragung.

![\[Eine DataSync Beispielübertragung zeigt, wie Objektdaten von einem Google Cloud Storage-Bucket in einen S3-Bucket übertragen werden. Zunächst wird der DataSync Agent in Ihrer Google Cloud-Umgebung bereitgestellt. Anschließend liest der DataSync Agent den Google Cloud Storage-Bucket. Die Daten werden sicher über einen öffentlichen Endpunkt in einen S3-Bucket übertragen AWS, wo sie in denselben S3-Bucket DataSync geschrieben werden AWS-Region , den Sie verwenden DataSync.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage-public.png)


------
#### [ Agent in your VPC ]

1. Sie stellen einen DataSync Agenten in einer Virtual Private Cloud (VPC) in Ihrer AWS Umgebung bereit.

1. Der Agent liest Ihren Google Cloud Storage-Bucket mithilfe eines Hash-basierten HMAC-Schlüssels (Message Authentication Code).

1. Die Objekte aus Ihrem Google Cloud Storage-Bucket werden AWS Cloud mithilfe eines privaten VPC-Endpunkts sicher über TLS 1.3 in den übertragen.

1. Der DataSync Dienst schreibt die Daten in Ihren S3-Bucket.

Das folgende Diagramm veranschaulicht die Übertragung.

![\[Eine DataSync Beispielübertragung zeigt, wie Objektdaten von einem Google Cloud Storage-Bucket in einen S3-Bucket übertragen werden. Zunächst wird der DataSync Agent in einer VPC bereitgestellt. AWS Anschließend liest der DataSync Agent den Google Cloud Storage-Bucket. Die Daten werden sicher über einen VPC-Endpunkt in einen VPC-Endpunkt übertragen AWS, wo die Objekte in einen S3-Bucket in derselben AWS-Region VPC DataSync geschrieben werden.\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/images/diagram-transfer-google-cloud-storage.png)


------

## Kosten
<a name="transfer-google-cloud-storage-cost"></a>

Die mit dieser Migration verbundenen Gebühren können Folgendes beinhalten:
+ Ausführen einer virtuellen Maschine (VM) von Google [Compute Engine](https://cloud.google.com/compute/all-pricing) (wenn Sie Ihren DataSync Agenten in Google Cloud bereitstellen)
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) (wenn Sie Ihren DataSync Agenten in einer VPC innerhalb bereitstellen) AWS
+ Übertragung der Daten über [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich der Gebühren für Anfragen im Zusammenhang mit [Google Cloud Storage](https://cloud.google.com/storage/pricing) und [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (falls S3 einer Ihrer Übertragungsorte ist)
+ Übertragung von Daten aus [Google Cloud Storage](https://cloud.google.com/storage/pricing)
+ Speichern von Daten in [Amazon S3](https://aws.amazon.com/s3/pricing/)

## Voraussetzungen
<a name="transfer-google-cloud-storage-prerequisites"></a>

Bevor Sie beginnen, gehen Sie wie folgt vor, falls Sie dies noch nicht getan haben:
+ [Erstellen Sie einen Google Cloud Storage-Bucket](https://cloud.google.com/storage/docs/creating-buckets) mit den Objekten, in die Sie Daten übertragen möchten AWS.
+ [Melde dich für eine an AWS-Konto](https://portal.aws.amazon.com/billing/signup).
+ [Erstellen Sie einen Amazon S3 S3-Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html), in dem Sie Ihre Objekte speichern können, nachdem sie eingetroffen sind AWS.

## Einen HMAC-Schlüssel für Ihren Google Cloud Storage-Bucket erstellen
<a name="transfer-google-cloud-storage-create-hmac-key"></a>

DataSync verwendet einen HMAC-Schlüssel, der mit Ihrem Google-Dienstkonto verknüpft ist, um sich bei dem Bucket zu authentifizieren und den Bucket zu lesen, aus dem Sie Daten übertragen. (Eine ausführliche Anleitung zum Erstellen von HMAC-Schlüsseln finden Sie in der [Google Cloud Storage-Dokumentation](https://cloud.google.com/storage/docs/authentication/hmackeys).)

**Um einen HMAC-Schlüssel zu erstellen**

1. Erstellen Sie einen HMAC-Schlüssel für Ihr Google-Dienstkonto.

1. Stellen Sie sicher, dass Ihr Google-Dienstkonto mindestens über `Storage Object Viewer` Berechtigungen verfügt.

1. Speichern Sie die Zugriffs-ID und das Geheimnis Ihres HMAC-Schlüssels an einem sicheren Ort.

   Sie benötigen diese Elemente später, um Ihren DataSync Quellstandort zu konfigurieren.

## Schritt 2: Konfigurieren Sie Ihr Netzwerk
<a name="transfer-google-cloud-storage-configure-network"></a>

Die Netzwerkkonfiguration ist nur erforderlich, wenn Sie bei Ihrer Übertragung einen DataSync Agenten verwenden. Die Netzwerkanforderungen für diese Migration hängen davon ab, wo Sie Ihren Agenten einsetzen möchten.

### Für einen DataSync Agenten in Google Cloud
<a name="transfer-google-cloud-storage-configure-public"></a>

Wenn Sie Ihren DataSync Agenten in Google Cloud hosten möchten, konfigurieren Sie Ihr Netzwerk so, [dass DataSync Übertragungen über einen öffentlichen Endpunkt](datasync-network.md#using-public-endpoints) möglich sind.

### Für einen DataSync Agenten in Ihrer VPC
<a name="transfer-google-cloud-storage-configure-vpc"></a>

Wenn Sie Ihren Agenten hosten möchten AWS, benötigen Sie eine VPC mit einem Schnittstellenendpunkt. DataSync verwendet den VPC-Endpunkt, um die Übertragung zu erleichtern.

**So konfigurieren Sie Ihr Netzwerk für einen VPC-Endpunkt**

1. Wenn Sie noch keine haben, [erstellen Sie eine VPC](https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#Create-VPC) in derselben Umgebung AWS-Region wie in Ihrem S3-Bucket.

1. [Erstellen Sie ein privates Subnetz für Ihre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/create-subnets.html).

1. [Erstellen Sie einen VPC-Serviceendpunkt](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html) für DataSync.

1. Konfigurieren Sie Ihr Netzwerk so, [dass DataSync Übertragungen über einen VPC-Serviceendpunkt](datasync-network.md#using-vpc-endpoint) möglich sind.

   Ändern Sie dazu die [Sicherheitsgruppe](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html), die Ihrem VPC-Dienstendpunkt zugeordnet ist.

## Schritt 3: Erstellen Sie einen DataSync Agenten (optional)
<a name="transfer-google-cloud-storage-create-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Sie Aufgaben im **Basismodus** verwenden. Wenn Sie den **erweiterten** Modus für die Übertragung zwischen Google Cloud Storage (GCS) und Amazon S3 verwenden, ist kein Agent erforderlich. Wenn Sie den **Basismodus** verwenden möchten, benötigen Sie einen DataSync Agenten, der auf Ihren GCS-Bucket zugreifen kann.

### Für Google Cloud
<a name="transfer-google-cloud-storage-choose-endpoint"></a>

In diesem Szenario wird der DataSync Agent in Ihrer Google Cloud-Umgebung ausgeführt.

**Bevor Sie beginnen**: [Installieren Sie die Google Cloud CLI](https://cloud.google.com/sdk/docs/install).

**Um den Agenten für Google Cloud zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie für **Hypervisor** **die Option Image herunterladen** aus **VMware ESXi**, um eine `.zip` Datei herunterzuladen, die den Agenten enthält.

1. Öffnen Sie ein -Terminalfenster. Entpacken Sie das Image, indem Sie den folgenden Befehl ausführen:

   ```
   unzip AWS-DataSync-Agent-VMWare.zip
   ```

1. Extrahieren Sie den Inhalt der `.ova` Agentendatei, `aws-datasync` indem Sie zunächst den folgenden Befehl ausführen:

   ```
   tar -xvf aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt.ova
   ```

1. Importieren Sie die `.vmdk` Agentendatei in Google Cloud, indem Sie den folgenden Google Cloud CLI-Befehl ausführen:

   ```
   gcloud compute images import aws-datasync-2-test \
      --source-file INCOMPLETE-aws-datasync-2.0.1655755445.1-x86_64.xfs.gpt-disk1.vmdk \
      --os centos-7
   ```
**Anmerkung**  
Das Importieren der `.vmdk` Datei kann bis zu zwei Stunden dauern.

1. Erstellen und starten Sie eine VM-Instanz für das Agenten-Image, das Sie gerade importiert haben. 

   Die Instanz benötigt die folgenden Konfigurationen für Ihren Agenten. (Detaillierte Anweisungen zum Erstellen einer Instanz finden Sie in der [Google Cloud Compute Engine-Dokumentation](https://cloud.google.com/compute/docs/instances).)
   + Wählen Sie für den Maschinentyp eine der folgenden Optionen aus:
     + **e2-standard-8** — Für DataSync Aufgabenausführungen, die mit bis zu 20 Millionen Objekten arbeiten.
     + **e2-standard-16** — Für DataSync Aufgabenausführungen, die mit mehr als 20 Millionen Objekten arbeiten.
   + Die Einstellungen für die Startdiskette finden Sie im Abschnitt Benutzerdefinierte Images. Wählen Sie dann das DataSync Agent-Image aus, das Sie gerade importiert haben.
   + Wählen Sie für die Einstellungen für das Dienstkonto Ihr Google-Dienstkonto aus (dasselbe Konto, das Sie in [Schritt 1](#transfer-google-cloud-storage-create-hmac-key) verwendet haben).
   + Wählen Sie für die Firewall-Einstellung die Option, HTTP-Verkehr (Port 80) zuzulassen.

     Um Ihren DataSync Agenten zu aktivieren, muss Port 80 auf dem Agenten geöffnet sein. Der Port muss nicht öffentlich zugänglich sein. Nach der Aktivierung wird der Port DataSync geschlossen.

1. Notieren Sie sich nach dem Ausführen der VM-Instanz ihre öffentliche IP-Adresse.

   Sie benötigen diese IP-Adresse, um den Agenten zu aktivieren.

1. Gehen Sie zurück zur DataSync Konsole. Gehen Sie auf dem Bildschirm **Create Agent (Agent erstellen**), in den Sie das Agenten-Image heruntergeladen haben, wie folgt vor, um Ihren Agenten zu aktivieren:
   + Wählen Sie als **Endpunkttyp** die Option Public Service Endpoints aus (z. B. **Public Service Endpoints in US East Ohio**).
   + Wählen Sie **unter Aktivierungsschlüssel** die Option **Automatisch den Aktivierungsschlüssel von Ihrem Agenten abrufen aus**.
   + Geben Sie als **Agentenadresse** die öffentliche IP-Adresse der Agent-VM-Instanz ein, die Sie gerade erstellt haben.
   + Wählen Sie **Schlüssel abrufen** aus.

1. Geben Sie Ihrem Agenten einen Namen und wählen Sie dann **Create Agent** aus.

Ihr Agent ist online und bereit, Daten zu übertragen.

### Für Ihre VPC
<a name="transfer-google-cloud-storage-deploy-agent"></a>

In diesem Szenario wird der Agent als Amazon EC2 EC2-Instance in einer VPC ausgeführt, die mit Ihrer verknüpft ist. AWS-Konto

**Bevor Sie beginnen**: [Richten Sie das AWS Command Line Interface ()AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) ein.

**Um den Agenten für Ihre VPC zu erstellen**

1. Öffnen Sie ein -Terminalfenster. Stellen Sie sicher, dass Sie Ihr AWS CLI Profil so konfigurieren, dass es das Konto verwendet, das Ihrem S3-Bucket zugeordnet ist.

1. Kopieren Sie den folgenden Befehl. `vpc-region`Ersetzen Sie durch den AWS-Region Ort, an dem sich Ihre VPC befindet (z. B.`us-east-1`).

   ```
   aws ssm get-parameter --name /aws/service/datasync/ami --region vpc-region
   ```

1. Führen Sie den Befehl aus. Notieren Sie sich in der Ausgabe die `"Value"` Eigenschaft.

   Dieser Wert ist die DataSync Amazon Machine Image (AMI) -ID der Region, die Sie angegeben haben. Eine AMI-ID könnte beispielsweise so aussehen`ami-1234567890abcdef0`.

1. Kopieren Sie die folgende URL. Ersetzen Sie erneut `vpc-region` durch den Ort, AWS-Region an dem sich Ihre VPC befindet. Ersetzen Sie es dann `ami-id` durch die AMI-ID, die Sie im vorherigen Schritt notiert haben.

   ```
   https://console.aws.amazon.com/ec2/v2/home?region=vpc-region#LaunchInstanceWizard:ami=ami-id
   ```

1. Fügen Sie die URL in einen Browser ein.

   Die Startseite der Amazon EC2 EC2-Instance AWS-Managementkonsole wird angezeigt.

1. Wählen Sie **unter Instance-Typ** eine der [empfohlenen Amazon EC2 EC2-Instances für DataSync Agenten](agent-requirements.md#ec2-instance-types) aus.

1. Wählen Sie für **key pair** ein vorhandenes Schlüsselpaar aus, oder erstellen Sie ein neues.

1. Wählen Sie **unter Netzwerkeinstellungen** die VPC und das Subnetz aus, in denen Sie den Agenten bereitstellen möchten.

1. Wählen Sie **Launch Instance (Instance starten)** aus.

1. Sobald die Amazon EC2 EC2-Instance läuft, [wählen Sie Ihren VPC-Endpunkt](choose-service-endpoint.md#datasync-in-vpc) aus.

1. [Aktivieren Sie Ihren Agenten](activate-agent.md).

## Schritt 4: Erstellen Sie einen DataSync Quellspeicherort für Ihren Google Cloud Storage-Bucket
<a name="transfer-google-cloud-storage-create-source"></a>

Um einen DataSync Speicherort für Ihren Google Cloud Storage-Bucket einzurichten, benötigen Sie die Zugriffs-ID und das Geheimnis für den HMAC-Schlüssel, den Sie in [Schritt 1](#transfer-google-cloud-storage-create-hmac-key) erstellt haben.

**Um den DataSync Quellspeicherort zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

1. Geben Sie für **Server** den Wert ein**storage.googleapis.com**.

1. Geben Sie als **Bucket-Namen** den Namen Ihres Google Cloud Storage-Buckets ein.

1. Geben Sie für **Ordner** ein Objektpräfix ein.

   DataSync kopiert nur Objekte mit diesem Präfix.

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den Agenten aus, den Sie in [Schritt 3](#transfer-google-cloud-storage-create-agent) erstellt haben.

1. Erweitern Sie **Additional settings** (Zusätzliche Einstellungen). Wählen Sie als **Serverprotokoll** **HTTPS** aus. Wählen Sie **443** für **Serverport** aus.

1. Scrollen Sie nach unten zum Abschnitt **Authentifizierung**. Vergewissern Sie sich, dass das Kontrollkästchen **Anmeldeinformationen erforderlich** aktiviert ist, und gehen Sie dann wie folgt vor:
   + Geben Sie unter **Zugriffsschlüssel** die Zugriffs-ID Ihres HMAC-Schlüssels ein.
   + Geben Sie unter **Geheimer Schlüssel entweder den geheimen** Schlüssel Ihres HMAC-Schlüssels direkt ein, oder geben Sie ein AWS Secrets Manager Geheimnis an, das den Schlüssel enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. Wählen Sie **Standort erstellen** aus.

## Schritt 5: Erstellen Sie einen DataSync Zielort für Ihren S3-Bucket
<a name="transfer-google-cloud-storage-create-destination"></a>

Sie benötigen einen DataSync Ort, an dem Ihre Daten landen sollen.

**Um den DataSync Zielort zu erstellen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. [Erstellen Sie einen DataSync Standort für den S3-Bucket](create-s3-location.md).

   Wenn Sie den DataSync Agenten in Ihrer VPC bereitgestellt haben, wird in diesem Tutorial davon ausgegangen, dass sich der S3-Bucket in derselben AWS-Region VPC und DataSync Ihrem Agenten befindet. 

## Schritt 6: Eine Aufgabe erstellen und starten DataSync
<a name="transfer-google-cloud-storage-start-task"></a>

Wenn Ihre Quell- und Zielorte konfiguriert sind, können Sie damit beginnen, Ihre Daten dorthin zu verschieben AWS.

**Um die DataSync Aufgabe zu erstellen und zu starten**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Gehen Sie auf der Seite **Quellspeicherort konfigurieren** wie folgt vor:

   1. **Wählen Sie „Bestehenden Standort** auswählen“.

   1. Wählen Sie den Quellspeicherort aus, den Sie in [Schritt 4](#transfer-google-cloud-storage-create-source) erstellt haben, und klicken Sie dann auf **Weiter**.

1. Gehen Sie auf der Seite **Zielort konfigurieren** wie folgt vor:

   1. **Wählen Sie „Bestehenden Standort** auswählen“.

   1. Wählen Sie den Zielort aus, den Sie in [Schritt 5](#transfer-google-cloud-storage-create-destination) erstellt haben, und klicken Sie dann auf **Weiter**.

1. Gehen Sie auf der Seite **„Einstellungen konfigurieren**“ wie folgt vor:

   1. Erweitern Sie unter **Konfiguration der Datenübertragung** den **Eintrag Zusätzliche Einstellungen** und deaktivieren **Sie das Kontrollkästchen Objekt-Tags kopieren**.
**Wichtig**  
Da die Google Cloud Storage XML API das Lesen oder Schreiben von Objekt-Tags nicht unterstützt, schlägt Ihre DataSync Aufgabe möglicherweise fehl, wenn Sie versuchen, Objekt-Tags zu kopieren.

   1. Konfigurieren Sie alle anderen gewünschten Aufgabeneinstellungen und wählen Sie dann **Weiter**.

1. **Überprüfen Sie** auf der Seite Überprüfen Ihre Einstellungen und wählen Sie dann **Aufgabe erstellen** aus.

1. Wählen Sie auf der Detailseite der Aufgabe die Option **Start** und dann eine der folgenden Optionen aus:
   + Um die Aufgabe ohne Änderungen auszuführen, wählen Sie **Mit Standardeinstellungen beginnen**.
   + Um die Aufgabe vor der Ausführung zu ändern, wählen Sie **Mit überschreibenden Optionen beginnen.**

Wenn Ihre Aufgabe abgeschlossen ist, sehen Sie die Objekte aus Ihrem Google Cloud Storage-Bucket in Ihrem S3-Bucket.

# Transfers konfigurieren mit Microsoft Azure Blob Storage
<a name="creating-azure-blob-location"></a>

Mit AWS DataSync können Sie Daten zwischen Microsoft Azure Blob Storage (einschließlich Azure Data Lake Storage Gen2 Blob-Speicher) und den folgenden AWS Speicherdiensten übertragen:
+ [Amazon S3](create-s3-location.md)
+ [Amazon EFS](create-efs-location.md)
+ [Amazon FSx für Windows-Dateiserver](create-fsx-location.md)
+ [Amazon FSx für Lustre](create-lustre-location.md)
+ [Amazon FSx für OpenZFS](create-openzfs-location.md)
+ [Amazon FSx für NetApp ONTAP](create-ontap-location.md)

Um diese Art der Übertragung einzurichten, erstellen Sie einen [Standort](how-datasync-transfer-works.md#sync-locations) für IhrenAzure Blob Storage. Sie können diesen Standort als Übertragungsquelle oder Ziel verwenden. Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Azure Blob und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Azure Blob und Amazon S3 im **erweiterten** Modus zu übertragen.

## Bereitstellung des DataSync Zugriffs auf Ihr Azure Blob Storage
<a name="azure-blob-access"></a>

Wie auf Sie DataSync zugegriffen wird, Azure Blob Storage hängt von mehreren Faktoren ab, z. B. davon, ob Sie Daten zu oder von einem Blob-Speicher übertragen und welche Art von [Shared Access Signature (SAS) -Token](#azure-blob-sas-tokens) Sie verwenden. Ihre Objekte müssen sich außerdem in einer [Zugriffsebene](#azure-blob-access-tiers) befinden, mit der gearbeitet werden DataSync kann.

**Topics**
+ [SAS-Token](#azure-blob-sas-tokens)
+ [Zugriffsebenen](#azure-blob-access-tiers)

### SAS-Token
<a name="azure-blob-sas-tokens"></a>

Ein SAS-Token gibt die Zugriffsberechtigungen für Ihren Blob-Speicher an. (Weitere Informationen zu SAS finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/azure/storage/common/storage-sas-overview).)

Sie können SAS-Token generieren, um verschiedene Zugriffsebenen bereitzustellen. DataSync unterstützt Token mit den folgenden Zugriffsebenen:
+ Account
+ Behälter

Die benötigten Zugriffsberechtigungen hängen vom Umfang Ihres Tokens ab. DataSync Wenn Sie nicht über die richtigen Berechtigungen verfügen, kann Ihre Übertragung fehlschlagen. Ihre Übertragung ist beispielsweise nicht erfolgreich, wenn Sie Objekte mit Tags verschieben, Ihr SAS-Token Azure Blob Storage jedoch nicht über Tag-Berechtigungen verfügt.

**Topics**
+ [SAS-Token-Berechtigungen für den Zugriff auf Kontoebene](#account-sas-tokens)
+ [SAS-Token-Berechtigungen für den Zugriff auf Containerebene](#container-sas-tokens)
+ [SAS-Ablaufrichtlinien](#azure-blob-sas-expiration-policies)

#### SAS-Token-Berechtigungen für den Zugriff auf Kontoebene
<a name="account-sas-tokens"></a>

DataSync benötigt ein Zugriffstoken auf Kontoebene mit den folgenden Berechtigungen (je nachdem, ob Sie zu oder von dort übertragen). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ **Zulässige Dienste** — Blob
+ **Zulässige Ressourcentypen** — Container, Objekt

  Wenn Sie diese Berechtigungen nicht angeben, DataSync können Sie Ihre Objektmetadaten, einschließlich [Objekt-Tags](#azure-blob-considerations-object-tags), nicht übertragen.
+ **Zulässige Berechtigungen** — Lesen, Auflisten
+ **Zulässige Blob-Index-Berechtigungen** — Read/Write (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)

------
#### [ Transfers to blob storage ]
+ **Zulässige Dienste** — Blob
+ **Zulässige Ressourcentypen** — Container, Objekt

  Wenn Sie diese Berechtigungen nicht angeben, DataSync können Sie Ihre Objektmetadaten, einschließlich [Objekt-Tags](#azure-blob-considerations-object-tags), nicht übertragen.
+ **Zulässige Berechtigungen** — Lesen, Schreiben, Auflisten, Löschen (wenn Sie Dateien entfernen DataSync möchten, die sich nicht in Ihrer Übertragungsquelle befinden)
+ **Zulässige Blob-Index-Berechtigungen** — Read/Write (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)

------

#### SAS-Token-Berechtigungen für den Zugriff auf Containerebene
<a name="container-sas-tokens"></a>

DataSync benötigt ein Zugriffstoken auf Containerebene mit den folgenden Berechtigungen (je nachdem, ob Sie zu oder von dort übertragen). Azure Blob Storage

------
#### [ Transfers from blob storage ]
+ Lesen
+ Auflisten
+ Tag (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)
**Anmerkung**  
Sie können die Tag-Berechtigung nicht hinzufügen, wenn Sie ein SAS-Token im Azure Portal generieren. Um die Tag-Berechtigung hinzuzufügen, generieren Sie stattdessen das Token mithilfe der [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)App oder generieren Sie ein [SAS-Token, das Zugriff auf Kontoebene ermöglicht](#account-sas-tokens).

------
#### [ Transfers to blob storage ]
+ Lesen
+ Write (Schreiben)
+ Auflisten
+ Löschen (wenn Sie Dateien entfernen DataSync möchten, die sich nicht in Ihrer Übertragungsquelle befinden)
+ Tag (wenn Sie [Objekt-Tags](#azure-blob-considerations-object-tags) kopieren DataSync möchten)
**Anmerkung**  
Sie können die Tag-Berechtigung nicht hinzufügen, wenn Sie ein SAS-Token im Azure Portal generieren. Um die Tag-Berechtigung hinzuzufügen, generieren Sie stattdessen das Token mithilfe der [https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer](https://learn.microsoft.com/en-us/azure/vs-azure-tools-storage-manage-with-storage-explorer)App oder generieren Sie ein [SAS-Token, das Zugriff auf Kontoebene ermöglicht](#account-sas-tokens).

------

#### SAS-Ablaufrichtlinien
<a name="azure-blob-sas-expiration-policies"></a>

Stellen Sie sicher, dass Ihr SAS nicht abläuft, bevor Sie damit rechnen, Ihre Übertragung abzuschließen. Informationen zur Konfiguration einer SAS-Ablaufrichtlinie finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/en-us/azure/storage/common/sas-expiration-policy).

Wenn das SAS während der Übertragung abläuft, DataSync kann nicht mehr auf Ihren Azure Blob Storage Standort zugegriffen werden. (Möglicherweise wird die Fehlermeldung „Verzeichnis konnte nicht geöffnet werden“ angezeigt.) In diesem Fall [aktualisieren Sie Ihren Standort](#azure-blob-update-location) mit einem neuen SAS-Token und starten Sie Ihre DataSync Aufgabe neu.

### Zugriffsebenen
<a name="azure-blob-access-tiers"></a>

Bei der Übertragung von Azure Blob Storage DataSync können Objekte der Stufen „Heiß“ und „Kalt“ kopiert werden. Bei Objekten in der Archivzugriffsebene müssen Sie diese Objekte in die Warm- oder Kaltstufe rehydrieren, bevor Sie sie kopieren können.

Bei der Übertragung auf Azure Blob Storage DataSync können Objekte in die Zugriffsebenen „Heiß“, „Kühl“ und „Archiv“ kopiert werden. Wenn Sie Objekte in die Archivzugriffsebene kopieren, DataSync kann die Übertragung nicht verifiziert werden, wenn Sie versuchen, [alle Daten im Ziel zu überprüfen](configure-data-verification-options.md).

DataSync unterstützt die Stufe für den kalten Zugriff nicht. Weitere Informationen zu den Zugriffsebenen finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/en-us/azure/storage/blobs/access-tiers-overview?tabs=azure-portal).

## Überlegungen zu Azure Blob Storage Übertragungen
<a name="azure-blob-considerations"></a>

Wenn Sie planen, Daten zu oder von Azure Blob Storage mit zu übertragen DataSync, sollten Sie einige Dinge beachten.

**Topics**
+ [Kosten](#azure-blob-considerations-costs)
+ [Blob-Typen](#blob-types)
+ [AWS-Region Verfügbarkeit](#azure-blob-considerations-regions)
+ [Objekt-Tags werden kopiert](#azure-blob-considerations-object-tags)
+ [Übertragung auf Amazon S3](#azure-blob-considerations-s3)
+ [Löschen von Verzeichnissen in einem Übertragungsziel](#azure-blob-considerations-deleted-files)
+ [Einschränkungen](#azure-blob-limitations)

### Kosten
<a name="azure-blob-considerations-costs"></a>

Die Gebühren, die mit der Übertragung von Daten in oder aus der Quelle verbunden sind, Azure Blob Storage können Folgendes beinhalten:
+ Ausführen einer [Azurevirtuellen Maschine (VM)](https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/) (wenn Sie einen DataSync Agenten einsetzenAzure)
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) (wenn Sie darin einen DataSync Agenten in einer VPC bereitstellen) AWS
+ Übertragung der Daten über Amazon S3 [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich der Anforderungsgebühren für [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (falls S3 einer Ihrer Übertragungsorte ist) [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Übertragung von Daten in oder aus [https://azure.microsoft.com/en-us/pricing/details/storage/blobs/](https://azure.microsoft.com/en-us/pricing/details/storage/blobs/)
+ Speichern von Daten in einem [AWS Speicherdienst](working-with-locations.md), der unterstützt wird von DataSync

### Blob-Typen
<a name="blob-types"></a>

Wie mit Blob-Typen DataSync funktioniert, hängt davon ab, ob Sie zu oder von dort übertragen. Azure Blob Storage Wenn Sie Daten in den Blob-Speicher verschieben, können die Objekte oder Dateien, die DataSync übertragen werden, nur Block-Blobs sein. Wenn Sie Daten aus dem Blob-Speicher verschieben, DataSync können Blobs übertragen, blockiert, verschoben und angehängt werden.

[Weitere Informationen zu Blob-Typen finden Sie in der Dokumentation. Azure Blob Storage](https://learn.microsoft.com/en-us/rest/api/storageservices/understanding-block-blobs--append-blobs--and-page-blobs)

### AWS-Region Verfügbarkeit
<a name="azure-blob-considerations-regions"></a>

Sie können einen Azure Blob Storage Übertragungsort an einem beliebigen Ort erstellen [AWS-Region , der von unterstützt wird DataSync](https://docs.aws.amazon.com/general/latest/gr/datasync.html#datasync-region).

### Objekt-Tags werden kopiert
<a name="azure-blob-considerations-object-tags"></a>

Die Fähigkeit DataSync , Objekt-Tags bei der Übertragung zu oder von dort beizubehalten, Azure Blob Storage hängt von den folgenden Faktoren ab:
+ **Die Größe der Tags eines Objekts — Objekte mit Tags**, die 2 KB überschreiten, DataSync können nicht übertragen werden.
+ **Ob für DataSync das Kopieren von Objekt-Tags konfiguriert ist** — DataSync [kopiert standardmäßig Objekt-Tags](configure-metadata.md).
+ **Der Namespace, den Ihr Azure Speicherkonto verwendet** — DataSync kann Objekttags kopieren, wenn Ihr Azure Speicherkonto einen flachen Namespace verwendet, aber nicht, wenn Ihr Konto einen hierarchischen Namespace verwendet (eine Funktion von). Azure Data Lake Storage Gen2 Ihre DataSync Aufgabe schlägt fehl, wenn Sie versuchen, Objekttags zu kopieren und Ihr Speicherkonto einen hierarchischen Namespace verwendet.
+ **Ob Ihr SAS-Token das Tagging autorisiert** — Die Berechtigungen, die Sie zum Kopieren von Objekt-Tags benötigen, hängen von der Zugriffsebene ab, die Ihr Token bietet. Ihre Aufgabe schlägt fehl, wenn Sie versuchen, Objekt-Tags zu kopieren, und Ihr Token nicht über die richtigen Berechtigungen zum Taggen verfügt. Weitere Informationen finden Sie in den Berechtigungsanforderungen für Zugriffstoken auf [Kontoebene oder Zugriffstoken auf](#account-sas-tokens) [Containerebene](#container-sas-tokens).

### Übertragung auf Amazon S3
<a name="azure-blob-considerations-s3"></a>

Bei der Übertragung zu Amazon S3 DataSync werden keine Azure Blob Storage Objekte übertragen, die größer als 5 TB sind, oder Objekte mit Metadaten, die größer als 2 KB sind.

### Löschen von Verzeichnissen in einem Übertragungsziel
<a name="azure-blob-considerations-deleted-files"></a>

Bei der Übertragung an Azure Blob Storage DataSync können [Objekte in Ihrem Blob-Speicher entfernt werden, die in Ihrer Übertragungsquelle nicht vorhanden](configure-metadata.md) sind. (Sie können diese Option konfigurieren, indem Sie die Einstellung **Gelöschte Dateien behalten** in der DataSync Konsole löschen. Ihr [SAS-Token](#azure-blob-sas-tokens) muss außerdem über Löschberechtigungen verfügen.)

Wenn Sie Ihre Übertragung auf diese Weise konfigurieren, DataSync werden keine Verzeichnisse in Ihrem Blob-Speicher gelöscht, wenn Ihr Azure Speicherkonto einen hierarchischen Namespace verwendet. In diesem Fall müssen Sie die Verzeichnisse manuell löschen (z. B. mithilfe von). [https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-explorer)

### Einschränkungen
<a name="azure-blob-limitations"></a>

Beachten Sie bei der Übertragung von oder nach Daten die folgenden EinschränkungenAzure Blob Storage:
+ DataSync [erstellt einige Verzeichnisse](filtering.md#directories-ignored-during-transfers) an einem Ort, um Ihnen die Übertragung zu erleichtern. Wenn Azure Blob Storage es sich um einen Zielort handelt und Ihr Speicherkonto einen hierarchischen Namespace verwendet, fallen Ihnen möglicherweise aufgabenspezifische Unterverzeichnisse (z. B.`task-000011112222abcde`) in dem Ordner auf. `/.aws-datasync` DataSync löscht diese Unterverzeichnisse in der Regel nach einer Übertragung. Geschieht das nicht, können Sie diese aufgabenspezifischen Verzeichnisse selbst löschen, solange eine Aufgabe nicht ausgeführt wird.
+ DataSync unterstützt nicht die Verwendung eines SAS-Tokens, um nur auf einen bestimmten Ordner in Ihrem Azure Blob Storage Container zuzugreifen.
+ Sie können kein SAS-Token für die Benutzerdelegierung für den Zugriff auf Ihren Blob-Speicher bereitstellen DataSync .

## Erstellen Sie Ihren DataSync Agenten (optional)
<a name="azure-blob-creating-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Azure Blob und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Azure Blob und Amazon S3 im **erweiterten** Modus zu übertragen. In diesem Abschnitt wird beschrieben, wie Sie einen Agenten bereitstellen und aktivieren.

**Tipp**  
Sie können Ihren Agenten zwar auf einer Amazon EC2 EC2-Instance bereitstellen, die Verwendung eines Microsoft Hyper-V Agenten kann jedoch zu einer geringeren Netzwerklatenz und mehr Datenkomprimierung führen. 

### Microsoft Hyper-V-Agenten
<a name="azure-blob-creating-agent-hyper-v"></a>

Sie können Ihren DataSync Agenten direkt Azure mit einem Microsoft Hyper-V Image bereitstellen.

**Tipp**  
Bevor Sie fortfahren, sollten Sie in Erwägung ziehen, ein Shell-Skript zu verwenden, mit dem Sie Ihren Hyper-V-Agenten möglicherweise schneller bereitstellen können. Azure Weitere Informationen und das Herunterladen des Codes finden Sie unter. [GitHub](https://github.com/aws-samples/aws-datasync-deploy-agent-azure)  
Wenn Sie das Skript verwenden, können Sie mit dem Abschnitt über fortfahren[Den Aktivierungsschlüssel Ihres Agenten abrufen](#azure-blob-creating-agent-hyper-v-3).

**Topics**
+ [Voraussetzungen](#azure-blob-creating-agent-hyper-v-0)
+ [Laden Sie Ihren Agenten herunter und bereiten Sie ihn vor](#azure-blob-creating-agent-hyper-v-1)
+ [Bereitstellen Ihres Agenten in Azure](#azure-blob-creating-agent-hyper-v-2)
+ [Den Aktivierungsschlüssel Ihres Agenten abrufen](#azure-blob-creating-agent-hyper-v-3)
+ [Ihren Agenten aktivieren](#azure-blob-creating-agent-hyper-v-4)

#### Voraussetzungen
<a name="azure-blob-creating-agent-hyper-v-0"></a>

Um Ihren DataSync Agenten vorzubereiten und zu implementierenAzure, müssen Sie wie folgt vorgehen:
+ Hyper-VAuf Ihrem lokalen Computer aktivieren.
+ Installieren Sie [https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1](https://learn.microsoft.com/en-us/powershell/scripting/install/installing-powershell?view=powershell-7.3&viewFallbackFrom=powershell-7.1)(einschließlich derHyper-V Module).
+ Installieren Sie die [AzureCLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli).
+ Installieren [https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json](https://learn.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-v10?toc=%2Fazure%2Fstorage%2Fblobs%2Ftoc.json&bc=%2Fazure%2Fstorage%2Fblobs%2Fbreadcrumb%2Ftoc.json).

#### Laden Sie Ihren Agenten herunter und bereiten Sie ihn vor
<a name="azure-blob-creating-agent-hyper-v-1"></a>

Laden Sie einen Agenten von der DataSync Konsole herunter. Bevor Sie den Agenten bereitstellen könnenAzure, müssen Sie ihn in eine virtuelle Festplatte (VHD) mit fester Größe konvertieren. Weitere Informationen finden Sie in der [Azure-Dokumentation](https://learn.microsoft.com/en-us/azure/virtual-machines/windows/prepare-for-upload-vhd-image).

**So laden Sie Ihren Agenten herunter und bereiten ihn vor**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie für **Hypervisor **Microsoft Hyper-V****die Option **Image herunterladen aus**.

   Der Agent lädt eine `.zip` Datei herunter, die eine `.vhdx` Datei enthält.

1. Extrahieren Sie die `.vhdx` Datei auf Ihrem lokalen Computer.

1. Öffnen Sie PowerShell und führen Sie die folgenden Schritte aus:

   1. Kopieren Sie das folgende `Convert-VHD` Cmdlet:

      ```
      Convert-VHD -Path .\local-path-to-vhdx-file\aws-datasync-2.0.1686143940.1-x86_64.xfs.gpt.vhdx `
      -DestinationPath .\local-path-to-vhdx-file\aws-datasync-2016861439401-x86_64.vhd -VHDType Fixed
      ```

   1. Ersetzen Sie jede Instanz von `local-path-to-vhdx-file` durch den Speicherort der `.vhdx` Datei auf Ihrem lokalen Computer.

   1. Führen Sie den Befehl aus.

   Ihr Agent ist jetzt eine virtuelle Festplatte mit fester Größe (mit einem `.vhd` Dateiformat) und kann dort bereitgestellt werden. Azure

#### Bereitstellen Ihres Agenten in Azure
<a name="azure-blob-creating-agent-hyper-v-2"></a>

Der Einsatz Ihres DataSync Agenten in Azure umfasst:
+ Erstellen einer verwalteten Festplatte in Azure
+ Laden Sie Ihren Agenten auf diese verwaltete Festplatte hoch
+ Die verwaltete Festplatte an eine Linux virtuelle Maschine anhängen

**Um Ihren Agenten bereitzustellen in Azure**

1. Gehen Sie in PowerShell das Verzeichnis, das die `.vhd` Datei Ihres Agenten enthält.

1. Führen Sie den `ls` Befehl aus und speichern Sie den `Length` Wert (z. B.`85899346432`).

   Dies ist die Größe Ihres Agenten-Images in Byte, die Sie benötigen, wenn Sie eine verwaltete Festplatte erstellen, auf der das Image gespeichert werden kann.

1. Gehen Sie wie folgt vor, um eine verwaltete Festplatte zu erstellen:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az disk create -n your-managed-disk `
      -g your-resource-group `
      -l your-azure-region `
      --upload-type Upload `
      --upload-size-bytes agent-size-bytes `
      --sku standard_lrs
      ```

   1. `your-managed-disk`Ersetzen Sie ihn durch einen Namen für Ihre verwaltete Festplatte.

   1. `your-resource-group`Ersetzen Sie ihn durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-azure-region`Ersetzen Sie es durch die Azure Region, in der sich Ihre Ressourcengruppe befindet.

   1. `agent-size-bytes`Ersetzen Sie es durch die Größe Ihres Agenten-Images.

   1. Führen Sie den Befehl aus.

   Dieser Befehl erstellt eine leere verwaltete Festplatte mit einer [Standard-SKU](https://learn.microsoft.com/en-us/rest/api/storagerp/srp_sku_types), auf die Sie Ihren DataSync Agenten hochladen können.

1. Gehen Sie wie folgt vor, um eine Shared Access Signature (SAS) zu generieren, die Schreibzugriff auf die verwaltete Festplatte ermöglicht:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az disk grant-access -n your-managed-disk `
      -g your-resource-group `
      --access-level Write `
      --duration-in-seconds 86400
      ```

   1. `your-managed-disk`Ersetzen Sie ihn durch den Namen der verwalteten Festplatte, die Sie erstellt haben.

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. Führen Sie den Befehl aus.

      Notieren Sie sich in der Ausgabe den SAS-URI. Sie benötigen diese URI, wenn Sie den Agenten auf Azure hochladen.

   Mit dem SAS können Sie bis zu einer Stunde auf die Festplatte schreiben. Das bedeutet, dass Sie eine Stunde Zeit haben, um Ihren Agenten auf die verwaltete Festplatte hochzuladen.

1. Gehen Sie wie folgt vor, um Ihren Agenten auf Azure Ihre verwaltete Festplatte hochzuladen:

   1. Kopieren Sie den folgenden `AzCopy` Befehl:

      ```
      .\azcopy copy local-path-to-vhd-file sas-uri --blob-type PageBlob
      ```

   1. `local-path-to-vhd-file`Ersetzen Sie ihn durch den Speicherort der `.vhd` Agentendatei auf Ihrem lokalen Computer.

   1. `sas-uri`Ersetzen Sie durch den SAS-URI, den Sie bei der Ausführung des `az disk grant-access` Befehls erhalten haben.

   1. Führen Sie den Befehl aus.

1. Wenn der Upload des Agenten abgeschlossen ist, widerrufen Sie den Zugriff auf Ihre verwaltete Festplatte. Kopieren Sie dazu den folgenden Azure CLI-Befehl:

   ```
   az disk revoke-access -n your-managed-disk -g your-resource-group
   ```

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-managed-disk`Ersetzen Sie durch den Namen der verwalteten Festplatte, die Sie erstellt haben.

   1. Führen Sie den Befehl aus.

1. Gehen Sie wie folgt vor, um Ihre verwaltete Festplatte an eine neue Linux VM anzuhängen:

   1. Kopieren Sie den folgenden Azure CLI-Befehl:

      ```
      az vm create --resource-group your-resource-group `
      --location eastus `
      --name your-agent-vm `
      --size Standard_E4as_v4 `
      --os-type linux `
      --attach-os-disk your-managed-disk
      ```

   1. `your-resource-group`Ersetzen Sie es durch den Namen der Azure Ressourcengruppe, zu der Ihr Speicherkonto gehört.

   1. `your-agent-vm`Ersetzen Sie es durch einen Namen für die VM, an den Sie sich erinnern können.

   1. `your-managed-disk`Ersetzen Sie ihn durch den Namen der verwalteten Festplatte, die Sie an die VM anhängen.

   1. Führen Sie den Befehl aus.

Sie haben Ihren Agenten bereitgestellt. Bevor Sie mit der Konfiguration Ihrer Datenübertragung beginnen können, müssen Sie den Agenten aktivieren.

#### Den Aktivierungsschlüssel Ihres Agenten abrufen
<a name="azure-blob-creating-agent-hyper-v-3"></a>

Gehen Sie wie folgt vor, um den Aktivierungsschlüssel Ihres DataSync Agenten manuell zu erhalten. 

Alternativ [DataSync kann der Aktivierungsschlüssel automatisch für Sie abgerufen](activate-agent.md) werden, aber für diesen Ansatz ist eine Netzwerkkonfiguration erforderlich.

**Um den Aktivierungsschlüssel Ihres Agenten zu erhalten**

1. [Aktivieren Sie im Azure Portal die Startdiagnose für die VM für Ihren Agenten](https://learn.microsoft.com/en-us/azure/virtual-machines/boot-diagnostics), indem Sie die Einstellung **Mit benutzerdefiniertem Speicherkonto aktivieren** wählen und Ihr Azure Speicherkonto angeben.

   Nachdem Sie die Startdiagnose für die VM Ihres Agenten aktiviert haben, können Sie auf die lokale Konsole Ihres Agenten zugreifen, um den Aktivierungsschlüssel abzurufen.

1. Gehen Sie, während Sie sich noch im Azure Portal befinden, zu Ihrer VM und wählen Sie **Serielle Konsole**.

1. Melden Sie sich in der lokalen Konsole des Agenten mit den folgenden Standardanmeldedaten an: 
   + **Benutzername** – **admin**
   + **Passwort** — **password**

   Wir empfehlen, irgendwann mindestens das Passwort des Agenten zu ändern. Geben Sie **5** in der lokalen Konsole des Agenten das Hauptmenü ein und ändern Sie dann mit dem `passwd` Befehl das Passwort.

1. Geben Sie ein**0**, um den Aktivierungsschlüssel des Agenten zu erhalten.

1. Geben Sie den AWS-Region Ort ein, den Sie verwenden DataSync (z. B.**us-east-1**).

1. Wählen Sie den [Dienstendpunkt](choose-service-endpoint.md) aus, mit dem der Agent eine Verbindung herstellen soll AWS. 

1. Speichern Sie den Wert der `Activation key` Ausgabe. 

#### Ihren Agenten aktivieren
<a name="azure-blob-creating-agent-hyper-v-4"></a>

Nachdem Sie den Aktivierungsschlüssel erhalten haben, können Sie die Erstellung Ihres DataSync Agenten abschließen.

**So aktivieren Sie Ihren Agenten**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Agents** und anschließend **Create Agent** aus.

1. Wählen Sie **Microsoft Hyper-V**für **Hypervisor**.

1. Wählen Sie als **Endpunkttyp** den gleichen Typ von Dienstendpunkt aus, den Sie angegeben haben, als Sie den Aktivierungsschlüssel Ihres Agenten erhalten haben (wählen Sie beispielsweise **Öffentliche Dienstendpunkte in *Region name***).

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit dem Service-Endpunkttyp funktioniert, den Ihr Agent verwendet. Informationen zu den Netzwerkanforderungen für Service-Endpunkte finden Sie in den folgenden Themen:
   + [VPC-Endpunkte](datasync-network.md#using-vpc-endpoint)
   + [Öffentliche Endpunkte](datasync-network.md#using-public-endpoints)
   + [Endpunkte für den Federal Information Processing Standard (FIPS).](datasync-network.md#using-public-endpoints)

1. Gehen Sie für **den Aktivierungsschlüssel** wie folgt vor:

   1. Wählen Sie **Manuell den Aktivierungsschlüssel Ihres Agenten eingeben**.

   1. Geben Sie den Aktivierungsschlüssel ein, den Sie von der lokalen Konsole des Agenten erhalten haben.

1. Wählen Sie **Create agent (Agent erstellen)** aus.

Ihr Agent ist bereit, eine Verbindung mit Ihrem herzustellenAzure Blob Storage. Weitere Informationen finden Sie unter [Erstellen Sie Ihren Azure Blob Storage Transferort](#creating-azure-blob-location-how-to).

### Amazon EC2 EC2-Agenten
<a name="azure-blob-creating-agent-ec2"></a>

Sie können Ihren DataSync Agenten auf einer Amazon EC2 EC2-Instance bereitstellen.

**So erstellen Sie einen Amazon EC2 EC2-Agenten**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent) bereit.

1. [Wählen Sie einen Service-Endpunkt](choose-service-endpoint.md), mit AWS dem der Agent kommuniziert.

   In diesem Fall empfehlen wir die Verwendung eines Virtual Private Cloud (VPC) -Dienstendpunkts.

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit [VPC-Dienstendpunkten](datasync-network.md#using-vpc-endpoint) funktioniert.

1. [Aktivieren Sie den Agenten](https://docs.aws.amazon.com/datasync/latest/userguide/activate-agent.html).

## Erstellen Sie Ihren Azure Blob Storage Transferort
<a name="creating-azure-blob-location-how-to"></a>

Sie können so konfigurieren DataSync , dass Sie Azure Blob Storage als Übertragungsquelle oder -ziel verwendet werden.

**Bevor Sie beginnen**  
Stellen Sie sicher, dass Sie wissen, [wie auf DataSync Zugriffsebenen Azure Blob Storage](#azure-blob-access) [und [Blob-Typen](#blob-types) zugegriffen](#azure-blob-access-tiers) wird und wie mit ihnen gearbeitet wird. Sie benötigen außerdem einen [DataSync Agenten](#azure-blob-creating-agent), der eine Verbindung zu Ihrem Azure Blob Storage Container herstellen kann.

### Verwenden der DataSync Konsole
<a name="creating-azure-blob-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie für **Speichertyp** die Option **Microsoft Azure Blob Storage** aus.

1. Geben Sie **unter Container-URL** die URL des Containers ein, der an Ihrer Übertragung beteiligt ist.

1. (Optional) Wählen Sie **unter Zugriffsebene bei Verwendung als Ziel** die [Zugriffsebene](#azure-blob-access-tiers) aus, in die Ihre Objekte oder Dateien übertragen werden sollen.

1. Geben Sie unter **Ordner** Pfadsegmente ein, wenn Sie die Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den DataSync Agenten aus, der eine Verbindung zu Ihrem Azure Blob Storage Container herstellen kann.

1. Geben Sie für das **SAS-Token** die Anmeldeinformationen ein, die für den DataSync Zugriff auf Ihren Blob-Speicher erforderlich sind. Für einige öffentliche Datensätze im Azure Blob Storage sind keine Anmeldeinformationen erforderlich. Sie können ein SAS-Token direkt eingeben oder ein AWS Secrets Manager Geheimnis angeben, das das Token enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Ihr SAS-Token ist Teil der SAS-URI-Zeichenfolge, die nach Ihrer Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um den Standort zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

### Verwenden Sie den AWS CLI
<a name="creating-azure-blob-location-cli"></a>

1. Kopieren Sie den folgenden `create-location-azure-blob` Befehl:

   ```
   aws datasync create-location-azure-blob \
     --container-url "https://path/to/container" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination" \
     --tags [{"Key": "key1","Value": "value1"}]
   ```

1. Geben Sie für den `--container-url` Parameter die URL des Azure Blob Storage Containers an, der an Ihrer Übertragung beteiligt ist.

1. Geben Sie für den Parameter `--authentication-type` `SAS` an: Wenn Sie auf einen öffentlichen Datensatz zugreifen, für den keine Authentifizierung erforderlich ist, geben Sie Folgendes an`NONE`.

1. Geben Sie für die `Token` Option des `--sas-configuration` Parameters das SAS-Token an, das den DataSync Zugriff auf Ihren Blob-Speicher ermöglicht. 

   Sie können auch zusätzliche Parameter für die Sicherung Ihrer Schlüssel angeben, indem AWS Secrets Manager Sie. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

   Ihr SAS-Token ist Teil der SAS-URI-Zeichenfolge, die nach Ihrer Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2023-12-20T14:54:52Z&se=2023-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=aBBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. (Optional) Geben Sie für den `--agent-arns` Parameter den Amazon-Ressourcennamen (ARN) des DataSync Agenten an, der eine Verbindung zu Ihrem Container herstellen kann.

   Hier ist ein Beispiel für einen Agenten-ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Sie können mehr als einen Agenten angeben. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für den `--subdirectory` Parameter Pfadsegmente an, wenn Sie Ihre Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. (Optional) Geben Sie für den `--access-tier` Parameter die [Zugriffsebene](#azure-blob-access-tiers) (`HOT``COOL`, oder`ARCHIVE`) an, in die Ihre Objekte oder Dateien übertragen werden sollen.

   Dieser Parameter gilt nur, wenn Sie diesen Speicherort als Übertragungsziel verwenden.

1. (Optional) Geben Sie für den `--tags` Parameter Schlüssel-Wert-Paare an, die Ihnen bei der Verwaltung, Filterung und Suche nach Ihrem Standort helfen können.

   Wir empfehlen, ein Namensschild für Ihren Standort zu erstellen.

1. Führen Sie den Befehl `create-location-azure-blob` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN des Speicherorts anzeigt, den Sie erstellt haben. Beispiel:

   ```
   { 
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh" 
   }
   ```

## Ihr Azure Blob Storage Übertragungsort wird angezeigt
<a name="azure-blob-view-location"></a>

Sie können Details zum bestehenden DataSync Transferort für Sie abrufenAzure Blob Storage.

### Verwenden der DataSync Konsole
<a name="azure-blob-view-location-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** aus.

1. Wählen Sie Ihren Azure Blob Storage Standort.

   Sie können Details zu Ihrem Standort einsehen, einschließlich aller DataSync Übertragungsaufgaben, die ihn verwenden.

### Mit dem AWS CLI
<a name="azure-blob-view-location-cli"></a>

1. Kopieren Sie den folgenden `describe-location-azure-blob` Befehl:

   ```
   aws datasync describe-location-azure-blob \
     --location-arn "your-azure-blob-location-arn"
   ```

1. Geben Sie für den `--location-arn` Parameter den ARN für den Azure Blob Storage Speicherort an, den Sie erstellt haben (z. B.`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Führen Sie den Befehl `describe-location-azure-blob` aus.

   Sie erhalten eine Antwort, die Ihnen Details zu Ihrem Standort zeigt. Beispiel:

   ```
   {
       "LocationArn": "arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh",
       "LocationUri": "azure-blob://my-user.blob.core.windows.net/container-1",
       "AuthenticationType": "SAS",
       "Subdirectory": "/my/images",
       "AgentArns": ["arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890deadfb"],
   }
   ```

## Aktualisierung Ihres Azure Blob Storage Übertragungsorts
<a name="azure-blob-update-location"></a>

Bei Bedarf können Sie die Konfiguration Ihres Standorts in der Konsole oder mithilfe der ändern AWS CLI.

### Mit dem AWS CLI
<a name="azure-blob-update-location-cli"></a>

1. Kopieren Sie den folgenden `update-location-azure-blob` Befehl:

   ```
   aws datasync update-location-azure-blob \
     --location-arn "your-azure-blob-location-arn" \
     --authentication-type "SAS" \
     --sas-configuration '{
         "Token": "your-sas-token"
       }' \
     --agent-arns my-datasync-agent-arn \
     --subdirectory "/path/to/my/data" \
     --access-tier "access-tier-for-destination"
   ```

1. Geben Sie für den `--location-arn` Parameter den ARN für den Azure Blob Storage Standort an, den Sie aktualisieren (z. B.`arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh`).

1. Geben Sie für den Parameter `--authentication-type` `SAS` an:

1. Geben Sie für die `Token` Option des `--sas-configuration` Parameters das SAS-Token an, das den DataSync Zugriff auf Ihren Blob-Speicher ermöglicht. 

   Das Token ist Teil der SAS-URI-Zeichenfolge, die nach dem Speicherressourcen-URI und einem Fragezeichen (`?`) steht. Ein Token sieht ungefähr so aus:

   ```
   sp=r&st=2022-12-20T14:54:52Z&se=2022-12-20T22:54:52Z&spr=https&sv=2021-06-08&sr=c&sig=qCBKDWQvyuVcTPH9EBp%2FXTI9E%2F%2Fmq171%2BZU178wcwqU%3D
   ```

1. Geben Sie für den `--agent-arns` Parameter den Amazon-Ressourcennamen (ARN) des DataSync Agenten an, den Sie mit Ihrem Container verbinden möchten.

   Hier ist ein Beispiel für einen Agenten-ARN: `arn:aws:datasync:us-east-1:123456789012:agent/agent-01234567890aaabfb`

   Sie können mehr als einen Agenten angeben. Weitere Informationen finden Sie unter [Verwendung mehrerer DataSync Agenten](do-i-need-datasync-agent.md#multiple-agents).

1. Geben Sie für den `--subdirectory` Parameter Pfadsegmente an, wenn Sie Ihre Übertragung auf ein virtuelles Verzeichnis in Ihrem Container beschränken möchten (z. B.`/my/images`).

1. (Optional) Geben Sie für den `--access-tier` Parameter die [Zugriffsebene](#azure-blob-access-tiers) (`HOT``COOL`, oder`ARCHIVE`) an, in die Ihre Objekte übertragen werden sollen.

   Dieser Parameter gilt nur, wenn Sie diesen Standort als Übertragungsziel verwenden.

## Nächste Schritte
<a name="create-azure-blob-location-next-steps"></a>

Nachdem Sie mit der Erstellung eines DataSync Standorts für Ihren fertig sindAzure Blob Storage, können Sie mit der Einrichtung Ihres Transfers fortfahren. Hier sind einige der nächsten Schritte, die Sie berücksichtigen sollten:

1. Falls Sie dies noch nicht getan haben, [erstellen Sie einen anderen Speicherort](working-with-locations.md), an den Sie Ihre Daten übertragen möchten oder von IhremAzure Blob Storage.

1. Erfahren Sie, DataSync [wie mit Metadaten und speziellen Dateien](metadata-copied.md) umgegangen wird, insbesondere wenn Ihre Übertragungsorte keine ähnliche Metadatenstruktur haben.

1. Konfigurieren Sie, wie Ihre Daten übertragen werden. Sie können beispielsweise [nur einen Teil Ihrer Daten übertragen oder Dateien in Ihrem](filtering.md) Blob-Speicher löschen, die sich nicht an Ihrem Quellspeicherort befinden (sofern Ihr [SAS-Token](#azure-blob-sas-tokens) über Löschberechtigungen verfügt).

1. [Starten Sie Ihre Übertragung](run-task.md). 

# Konfiguration von AWS DataSync Übertragungen mit Microsoft Azure Files SMB-Aktien
<a name="transferring-azure-files"></a>

Sie können so konfigurieren AWS DataSync , dass Daten zu oder von einer SMB-Freigabe (Microsoft Azure FilesServer Message Block) übertragen werden.

**Tipp**  
[Eine vollständige Anleitung zum Verschieben von Daten aus Azure Files SMB-Shares zu finden Sie im AWSAWS Storage-Blog.](https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/)

## Bereitstellung des DataSync Zugriffs auf SMB-Shares
<a name="configuring-smb-azure-files"></a>

DataSync stellt über das SMB-Protokoll eine Verbindung zu Ihrem SMB-Share her und authentifiziert sich mit den von Ihnen angegebenen Anmeldeinformationen.

**Topics**
+ [Unterstützte SMB-Protokollversionen](#configuring-smb-version-azure-files)
+ [Erforderliche Berechtigungen](#configuring-smb-permissions-azure-files)

### Unterstützte SMB-Protokollversionen
<a name="configuring-smb-version-azure-files"></a>

Wählt standardmäßig DataSync automatisch eine Version des SMB-Protokolls auf der Grundlage der Verhandlungen mit Ihrem SMB-Dateiserver aus.

Sie können auch die Verwendung einer bestimmten SMB-Version konfigurieren. Wir empfehlen jedoch, dies nur dann DataSync zu tun, wenn DataSync Probleme bei der automatischen Aushandlung mit dem SMB-Dateiserver auftreten. DataSync unterstützt SMB-Versionen 1.0 und höher. Aus Sicherheitsgründen empfehlen wir die Verwendung von SMB Version 3.0.2 oder höher. Frühere Versionen, wie SMB 1.0, enthalten bekannte Sicherheitslücken, die Angreifer ausnutzen können, um Ihre Daten zu gefährden.

In der folgenden Tabelle finden Sie eine Liste der Optionen in der DataSync Konsole und der API:


| Konsolenoption | API-Option | Description | 
| --- | --- | --- | 
| Automatisch |  `AUTOMATIC`  |  DataSync und der SMB-Dateiserver handeln zwischen 2.1 und 3.1.1 die höchste Version von SMB aus, die sie gegenseitig unterstützen. Dies ist die Standardoption und wird empfohlen. Wenn Sie stattdessen eine bestimmte Version auswählen, die Ihr Dateiserver nicht unterstützt, erhalten Sie möglicherweise eine `Operation Not Supported`-Fehlermeldung.  | 
|  SMB 3.0.2  |  `SMB3`  |  Beschränkt die Protokollaushandlung nur auf SMB-Version 3.0.2.  | 
| SMB 2.1 |  `SMB2`  | Beschränkt die Protokollaushandlung nur auf SMB-Version 2.1. | 
| SMB 2.0 | `SMB2_0` | Beschränkt die Protokollaushandlung nur auf SMB Version 2.0. | 
| SMB 1.0 | `SMB1` | Beschränkt die Protokollaushandlung nur auf SMB Version 1.0. | 

### Erforderliche Berechtigungen
<a name="configuring-smb-permissions-azure-files"></a>

DataSync benötigt einen Benutzer, der berechtigt ist, Ihren SMB-Standort bereitzustellen und darauf zuzugreifen. Dies kann ein lokaler Benutzer auf Ihrem Windows-Dateiserver oder ein Domänenbenutzer sein, der in Ihrem Microsoft Active Directory definiert ist.

Um den Objekteigentum festzulegen, ist die `SE_RESTORE_NAME` Berechtigung DataSync erforderlich, die normalerweise Mitgliedern der integrierten Active Directory-Gruppen **Backup-Operatoren** und **Domänenadministratoren** gewährt wird. Wenn Sie einem Benutzer dieses Recht gewähren, können Sie auch sicherstellen, dass ausreichende Berechtigungen für Dateien, Ordner und Dateimetadaten vorhanden sind, mit Ausnahme von NTFS-Systemzugriffskontrolllisten ()SACLs. DataSync 

Zum Kopieren SACLs sind zusätzliche Rechte erforderlich. Dazu ist insbesondere das `SE_SECURITY_NAME` Windows-Recht erforderlich, das Mitgliedern der Gruppe **Domänen-Admins** gewährt wird. Wenn Sie Ihre Aufgabe für das Kopieren konfigurieren SACLs, stellen Sie sicher, dass der Benutzer über die erforderlichen Rechte verfügt. Weitere Informationen zur Konfiguration einer Aufgabe zum Kopieren SACLs finden Sie unter[Konfiguration des Umgangs mit Dateien, Objekten und Metadaten](configure-metadata.md).

Wenn Sie Daten zwischen einem SMB-Dateiserver und dem Dateisystem Amazon FSx for Windows File Server kopieren, müssen Quell- und Zielspeicherorte derselben Microsoft Active Directory-Domäne angehören oder eine Active Directory-Vertrauensstellung zwischen ihren Domänen bestehen.

## Erstellen Sie Ihren Azure Files-Übertragungsort mithilfe der Konsole
<a name="create-azure-files-smb-location-how-to"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie für **Location type (Speicherorttyp)** **Server Message Block (SMB)**.

   Sie konfigurieren diesen Speicherort später als Quelle oder Ziel.

1. Wählen Sie unter **Agenten** einen oder mehrere DataSync Agenten aus, die Sie mit Ihrem SMB-Share verbinden möchten.

   Wenn Sie mehr als einen Agenten auswählen, stellen Sie sicher, dass Sie verstehen, [mehrere Agenten für einen Standort](do-i-need-datasync-agent.md#multiple-agents) zu verwenden.

1. Geben Sie für **SMB-Server** den DNS-Namen (Domain Name System) oder die IP-Adresse der SMB-Freigabe ein, die Ihr DataSync Agent bereitstellen wird.
**Anmerkung**  
Sie können keine IP-Adresse der Version 6 (IPv6) angeben.

1. Geben Sie unter **Freigabename** den Namen der Freigabe ein, die von Ihrer SMB-Freigabe exportiert wurde und in die Daten gelesen oder geschrieben DataSync werden sollen.

   Sie können ein Unterverzeichnis in den Freigabepfad aufnehmen (z. B.`/path/to/subdirectory`). Stellen Sie sicher, dass andere SMB-Clients in Ihrem Netzwerk diesen Pfad ebenfalls bereitstellen können. 

   Um alle Daten im Unterverzeichnis zu kopieren, DataSync müssen Sie in der Lage sein, die SMB-Freigabe zu mounten und auf alle zugehörigen Daten zuzugreifen. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](create-smb-location.md#configuring-smb-permissions).

1. (Optional) Erweitern Sie **Zusätzliche Einstellungen** und wählen Sie eine **SMB-Version** aus, die Sie beim Zugriff auf Ihre SMB-Freigabe verwenden möchten. DataSync 

   Wählt standardmäßig DataSync automatisch eine Version aus, die auf Verhandlungen mit der SMB-Aktie basiert. Weitere Informationen finden Sie unter [Unterstützte SMB-Versionen](create-smb-location.md#configuring-smb-version).

1. Geben Sie **unter Benutzer** einen Benutzernamen ein, der Ihre SMB-Freigabe bereitstellen kann und über Zugriffsrechte auf die Dateien und Ordner verfügt, die an Ihrer Übertragung beteiligt sind.

   Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](create-smb-location.md#configuring-smb-permissions).

1. Geben Sie **unter Passwort** das Passwort des Benutzers ein, der Ihre SMB-Freigabe bereitstellen kann und berechtigt ist, auf die Dateien und Ordner zuzugreifen, die an Ihrer Übertragung beteiligt sind.

1. (Optional) Geben Sie unter **Domain** den Windows-Domänennamen ein, zu dem Ihre SMB-Freigabe gehört.

   Wenn Sie mehrere Domänen in Ihrer Umgebung haben, wird durch die Konfiguration dieser Einstellung sichergestellt, dass DataSync eine Verbindung zur richtigen Freigabe hergestellt wird.

1. (Optional) Wählen Sie **Tag hinzufügen**, um Ihren Standort zu taggen.

   *Stichwörter* sind Schlüssel-Wert-Paare, die dir helfen, deine Standorte zu verwalten, zu filtern und nach ihnen zu suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie Standort **erstellen** aus.

# Konfiguration von Übertragungen mit anderem Cloud-Objektspeicher
<a name="creating-other-cloud-object-location"></a>

Mit AWS DataSync können Sie Daten zwischen [AWS Speicherdiensten](transferring-aws-storage.md) und den folgenden Cloud-Objektspeicheranbietern übertragen:
+ [https://docs.wasabi.com/](https://docs.wasabi.com/)
+ [https://docs.digitalocean.com/](https://docs.digitalocean.com/)
+ [https://docs.oracle.com/iaas/Content/home.htm](https://docs.oracle.com/iaas/Content/home.htm)
+ [https://developers.cloudflare.com/r2/](https://developers.cloudflare.com/r2/)
+ [https://www.backblaze.com/docs/cloud-storage](https://www.backblaze.com/docs/cloud-storage)
+ [https://guide.ncloud-docs.com/docs/](https://guide.ncloud-docs.com/docs/)
+ [https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss](https://www.alibabacloud.com/help/en/oss/product-overview/what-is-oss)
+ [https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage](https://cloud.ibm.com/docs/cloud-object-storage?topic=cloud-object-storage-getting-started-cloud-object-storage)
+ [https://help.lyvecloud.seagate.com/en/product-features.html](https://help.lyvecloud.seagate.com/en/product-features.html)

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Speichersystemen in anderen Clouds und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Speichersystemen in anderen Clouds und Amazon S3 im **erweiterten** Modus zu übertragen.

Unabhängig davon, ob Sie einen Agenten verwenden, müssen Sie auch einen [Übertragungsort](how-datasync-transfer-works.md#sync-locations) für Ihren Cloud-Objektspeicher (insbesondere einen **Objektspeicherort**) erstellen. DataSync kann diesen Speicherort als Quelle oder Ziel für Ihre Übertragung verwenden.

## Bereitstellung des DataSync Zugriffs auf Ihren anderen Cloud-Objektspeicher
<a name="other-cloud-access"></a>

Wie auf Ihren Cloud-Objektspeicher DataSync zugegriffen wird, hängt von mehreren Faktoren ab, unter anderem davon, ob Ihr Speicher mit der Amazon S3 S3-API kompatibel ist und von den Berechtigungen und Anmeldeinformationen, die DataSync für den Zugriff auf Ihren Speicher erforderlich sind.

**Topics**
+ [Amazon S3 S3-API-Kompatibilität](#other-cloud-s3-compatibility)
+ [Speicherberechtigungen und Endpunkte](#other-cloud-permissions)
+ [Anmeldeinformationen für den Speicher](#other-cloud-credentials)

### Amazon S3 S3-API-Kompatibilität
<a name="other-cloud-s3-compatibility"></a>

Ihr Cloud-Objektspeicher muss mit den folgenden [Amazon S3 S3-API-Vorgängen](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations.html) kompatibel sein DataSync , um eine Verbindung herzustellen:
+ `AbortMultipartUpload`
+ `CompleteMultipartUpload`
+ `CopyObject`
+ `CreateMultipartUpload`
+ `DeleteObject`
+ `DeleteObjects`
+ `DeleteObjectTagging`
+ `GetBucketLocation`
+ `GetObject`
+ `GetObjectTagging`
+ `HeadBucket`
+ `HeadObject`
+ `ListObjectsV2`
+ `PutObject`
+ `PutObjectTagging`
+ `UploadPart`

### Speicherberechtigungen und Endpunkte
<a name="other-cloud-permissions"></a>

Sie müssen die Berechtigungen konfigurieren, die den DataSync Zugriff auf Ihren Cloud-Objektspeicher ermöglichen. Wenn es sich bei Ihrem Objektspeicher um einen Quellspeicherort handelt, DataSync sind Lese- und Listenberechtigungen für den Bucket erforderlich, aus dem Sie Daten übertragen. Wenn es sich bei Ihrem Objektspeicher um einen Zielspeicherort handelt, DataSync benötigt er Lese-, Listen-, Schreib- und Löschberechtigungen für den Bucket.

DataSync benötigt außerdem einen Endpunkt (oder Server), um eine Verbindung zu Ihrem Speicher herzustellen. In der folgenden Tabelle werden die Endpunkte beschrieben, die für den Zugriff auf andere Cloud-Objektspeicher verwendet werden DataSync können:


| Anderer Cloud-Anbieter | Endpoint | 
| --- | --- | 
| Wasabi Cloud Storage |  `S3.region.wasabisys.com`  | 
| DigitalOcean Spaces |  `region.digitaloceanspaces.com`  | 
| Oracle Cloud Infrastructure Object Storage |  `namespace.compat.objectstorage.region.oraclecloud.com`  | 
|  Cloudflare R2 Storage  |  `account-id.r2.cloudflarestorage.com`  | 
|  Backblaze B2 Cloud Storage  |  `S3.region.backblazeb2.com`  | 
| NAVER Cloud Object Storage |  `region.object.ncloudstorage.com`(die meisten Regionen)  | 
| Alibaba Cloud Object Storage Service | `region.aliyuncs.com` | 
| IBM Cloud Object Storage | `s3.region.cloud-object-storage.appdomain.cloud` | 
| Seagate Lyve Cloud | `s3.region.lyvecloud.seagate.com` | 

**Wichtig**  
Einzelheiten zur Konfiguration von Bucket-Berechtigungen und aktualisierte Informationen zu Speicherendpunkten finden Sie in der Dokumentation Ihres Cloud-Anbieters.

### Anmeldeinformationen für den Speicher
<a name="other-cloud-credentials"></a>

DataSync benötigt außerdem die Anmeldeinformationen für den Zugriff auf den Objektspeicher-Bucket, der an Ihrer Übertragung beteiligt ist. Dies kann ein Zugriffsschlüssel und ein geheimer Schlüssel oder etwas Ähnliches sein, je nachdem, wie Ihr Cloud-Speicheranbieter auf diese Anmeldeinformationen verweist.

Weitere Informationen finden Sie in der Dokumentation Ihres Cloud-Anbieters.

## Überlegungen bei der Übertragung von einem anderen Cloud-Objektspeicher
<a name="other-cloud-considerations"></a>

Wenn Sie planen, Objekte mithilfe von Cloud Storage zu oder von einem anderen Cloud-Speicheranbieter zu übertragen DataSync, sollten Sie einige Dinge beachten.

**Topics**
+ [Kosten](#other-cloud-considerations-costs)
+ [Speicherklassen](#other-cloud-considerations-storage-classes)
+ [Objekt-Tags](#other-cloud-considerations-object-tags)
+ [Übertragung auf Amazon S3](#other-cloud-considerations-s3)

### Kosten
<a name="other-cloud-considerations-costs"></a>

Die Gebühren, die mit dem Verschieben von Daten zu und von einem anderen Cloud-Speicheranbieter verbunden sind, können Folgendes beinhalten:
+ Ausführen einer [Amazon EC2 EC2-Instance](https://aws.amazon.com/ec2/pricing/) für Ihren Agenten DataSync 
+ Übertragung der Daten mithilfe von Amazon S3 [DataSync](https://aws.amazon.com/datasync/pricing/), einschließlich Anforderungsgebühren für Ihren Cloud-Objektspeicher und [Amazon S3](create-s3-location.md#create-s3-location-s3-requests) (wenn S3 Ihr Übertragungsziel ist)
+ Übertragung von Daten in oder aus Ihrem Cloud-Speicher (überprüfen Sie die Preise Ihres Cloud-Anbieters)
+ Speichern von Daten in einem [AWS Speicherdienst](transferring-aws-storage.md), der unterstützt wird von DataSync
+ Speichern von Daten bei einem anderen Cloud-Anbieter (überprüfen Sie die Preise Ihres Cloud-Anbieters)

### Speicherklassen
<a name="other-cloud-considerations-storage-classes"></a>

Einige Cloud-Speicheranbieter haben Speicherklassen (ähnlich wie [Amazon S3](create-s3-location.md#using-storage-classes)), die nicht gelesen werden DataSync können, ohne zuvor wiederhergestellt zu werden. Oracle Cloud Infrastructure Object StorageHat beispielsweise eine Archivspeicherklasse. Sie müssen Objekte in dieser Speicherklasse wiederherstellen, bevor DataSync Sie sie übertragen können. Weitere Informationen finden Sie in der Dokumentation Ihres Cloud-Anbieters.

### Objekt-Tags
<a name="other-cloud-considerations-object-tags"></a>

Nicht alle Cloud-Anbieter unterstützen Objekt-Tags. Diejenigen, die dies tun, erlauben möglicherweise nicht, Tags über die Amazon S3 S3-API abzufragen. In beiden Situationen schlägt Ihre DataSync Übertragungsaufgabe möglicherweise fehl, wenn Sie versuchen, Objekt-Tags zu kopieren.

Sie können dies vermeiden, indem Sie das Kontrollkästchen **Objekt-Tags kopieren** in der DataSync Konsole deaktivieren, wenn Sie Ihre Aufgabe erstellen, starten oder aktualisieren.

### Übertragung auf Amazon S3
<a name="other-cloud-considerations-s3"></a>

Bei der Übertragung auf Amazon S3 DataSync können keine Objekte übertragen werden, die größer als 5 TB sind. DataSynckann auch nur Objektmetadaten bis zu 2 KB kopieren.

## Ihren DataSync Agenten erstellen
<a name="other-cloud-creating-agent"></a>

Ein DataSync Agent ist nur erforderlich, wenn Daten zwischen Speichersystemen in anderen Clouds und Amazon EFS oder Amazon FSx übertragen werden oder wenn Aufgaben im **Basismodus** verwendet werden. Sie benötigen keinen Agenten, um Daten zwischen Speichersystemen in anderen Clouds und Amazon S3 im **erweiterten** Modus zu übertragen. In diesem Abschnitt wird beschrieben, wie Sie einen Agenten auf einer Amazon EC2 EC2-Instance in Ihrer Virtual Private Cloud (VPC) bereitstellen und aktivieren. AWS

**So erstellen Sie einen Amazon EC2 EC2-Agenten**

1. [Stellen Sie einen Amazon EC2 EC2-Agenten](deploy-agents.md#ec2-deploy-agent) bereit.

1. [Wählen Sie einen Service-Endpunkt](choose-service-endpoint.md), mit AWS dem der Agent kommuniziert.

   In diesem Fall empfehlen wir die Verwendung eines VPC-Dienstendpunkts.

1. Konfigurieren Sie Ihr Netzwerk so, dass es mit [VPC-Dienstendpunkten](datasync-network.md#using-vpc-endpoint) funktioniert.

1. [Aktivieren Sie den Agenten](activate-agent.md).

## Erstellen Sie einen Übertragungsort für Ihren anderen Cloud-Objektspeicher
<a name="creating-other-cloud-location-how-to"></a>

Sie können so konfigurieren DataSync , dass Ihr Cloud-Objektspeicher als Quell- oder Zielort verwendet wird.

**Bevor Sie beginnen**  
Stellen Sie sicher, dass Sie wissen, [wie DataSync auf Ihren Cloud-Objektspeicher zugegriffen wird](#other-cloud-access). Sie benötigen außerdem einen [DataSync Agenten](#other-cloud-creating-agent), der eine Verbindung zu Ihrem Cloud-Objektspeicher herstellen kann.

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Standorte** und **Standort erstellen** aus.

1. Wählen Sie als **Standorttyp** die Option **Objektspeicher** aus.

1. Geben Sie für **Server** den [Endpunkt](#other-cloud-permissions) ein, über den Sie auf Ihren Cloud-Objektspeicher zugreifen DataSync können:
   + **Wasabi Cloud Storage** – `S3.region.wasabisys.com`
   + **DigitalOcean Spaces** – `region.digitaloceanspaces.com`
   + **Oracle Cloud Infrastructure Object Storage** – `namespace.compat.objectstorage.region.oraclecloud.com`
   + **Cloudflare R2 Storage** – `account-id.r2.cloudflarestorage.com`
   + **Backblaze B2 Cloud Storage** – `S3.region.backblazeb2.com`
   + **NAVER Cloud Object Storage**— `region.object.ncloudstorage.com` (die meisten Regionen)
   + **Alibaba Cloud Object Storage Service** – `region.aliyuncs.com`
   + **IBM Cloud Object Storage** – `s3.region.cloud-object-storage.appdomain.cloud`
   + **Seagate Lyve Cloud** – `s3.region.lyvecloud.seagate.com`

1. Geben Sie als **Bucket-Namen** den Namen des Object-Storage-Buckets ein, in den oder von dem Sie Daten übertragen.

1. Geben Sie für **Ordner** ein Objektpräfix ein. DataSync überträgt nur Objekte mit diesem Präfix.

1. Wenn für Ihre Übertragung ein Agent erforderlich ist, wählen Sie **Agenten verwenden** und dann den DataSync Agenten aus, der eine Verbindung zu Ihrem Cloud-Objektspeicher herstellen kann.

1. Erweitern Sie **Additional settings** (Zusätzliche Einstellungen). Wählen Sie als **Serverprotokoll** **HTTPS** aus. Wählen Sie **443** für **Serverport** aus.

1. Scrollen Sie nach unten zum Abschnitt **Authentifizierung**. Vergewissern Sie sich, dass das Kontrollkästchen **Anmeldeinformationen erforderlich** aktiviert ist, und geben Sie dann DataSync Ihre [Speicheranmeldedaten ein](#other-cloud-credentials).
   + Geben Sie **unter Zugriffsschlüssel** die ID für den Zugriff auf Ihren Cloud-Objektspeicher ein.
   + Geben Sie **unter Geheimer Schlüssel** den geheimen Schlüssel für den Zugriff auf Ihren Cloud-Objektspeicher ein. Sie können den Schlüssel entweder direkt eingeben oder ein AWS Secrets Manager Geheimnis angeben, das den Schlüssel enthält. Weitere Informationen finden Sie unter [Bereitstellen von Anmeldeinformationen für Speicherorte](https://docs.aws.amazon.com/datasync/latest/userguide/location-credentials.html).

1. (Optional) Geben Sie Werte für die Felder **Schlüssel** und **Wert** ein, um den Speicherort zu kennzeichnen.

   Mithilfe von Stichwörtern können Sie Ihre AWS Ressourcen verwalten, filtern und nach ihnen suchen. Wir empfehlen, zumindest ein Namensschild für Ihren Standort zu erstellen. 

1. Wählen Sie **Standort erstellen** aus.

## Nächste Schritte
<a name="other-cloud-location-next-steps"></a>

Nachdem Sie mit der Erstellung eines DataSync Speicherorts für Ihren Cloud-Objektspeicher fertig sind, können Sie mit der Einrichtung Ihrer Übertragung fortfahren. Hier sind einige der nächsten Schritte, die Sie berücksichtigen sollten:

1. Falls Sie dies noch nicht getan haben, [erstellen Sie einen anderen Speicherort](transferring-aws-storage.md), an den Sie Ihre Daten übertragen möchten oder von dort aus AWS.

1. Erfahren Sie, DataSync [wie mit Metadaten und speziellen Dateien](metadata-copied.md) für Objektspeicherorte umgegangen wird.

1. Konfigurieren Sie, wie Ihre Daten übertragen werden. Vielleicht möchten Sie beispielsweise nur [eine Teilmenge Ihrer Daten übertragen](filtering.md).
**Wichtig**  
Stellen Sie sicher, dass Sie konfigurieren, wie Objekt-Tags korrekt DataSync kopiert werden. Weitere Informationen finden Sie unter Überlegungen zu [Objekt-Tags](#other-cloud-considerations-object-tags).

1. [Starte deine Übertragung](run-task.md). 

 

# Eine Aufgabe für die Übertragung Ihrer Daten erstellen
<a name="create-task-how-to"></a>

Eine *Aufgabe* beschreibt, wo und wie Daten AWS DataSync übertragen werden. Eine Aufgabe besteht aus den folgenden Komponenten:
+ [**Quellstandort**](working-with-locations.md) — Das Speichersystem oder der Dienst, von dem Daten DataSync übertragen werden.
+ [**Zielort**](working-with-locations.md) — Das Speichersystem oder der Dienst, zu dem Daten DataSync übertragen werden.
+ [**Aufgabenoptionen**](task-options.md) — Einstellungen, z. B. welche Dateien übertragen werden sollen, wie Daten verifiziert werden, wann die Aufgabe ausgeführt wird und vieles mehr.
+ [**Aufgabenausführungen**](run-task.md) — Wenn Sie eine Aufgabe ausführen, wird dies als *Aufgabenausführung* bezeichnet.

## Ihre Aufgabe erstellen
<a name="create-task-steps"></a>

Wenn Sie eine DataSync Aufgabe erstellen, geben Sie Ihre Quell- und Zielorte an. Sie können Ihre Aufgabe auch anpassen, indem Sie auswählen, welche Dateien übertragen werden sollen, wie Metadaten behandelt werden, einen Zeitplan einrichten und vieles mehr.

Bevor Sie Ihre Aufgabe erstellen, sollten Sie sicherstellen, dass Sie wissen, [wie DataSync Übertragungen funktionieren](how-datasync-transfer-works.md#transferring-files), und überprüfen Sie die [Aufgabenkontingente](datasync-limits.md#task-hard-limits).

**Wichtig**  
Wenn Sie planen, Daten zu oder von einem Amazon S3 S3-Standort zu übertragen, lesen Sie zunächst, [wie sich dies auf Ihre S3-Anforderungsgebühren auswirken DataSync kann](create-s3-location.md#create-s3-location-s3-requests), sowie auf der [DataSync Preisseite](https://aws.amazon.com/datasync/pricing/).

### Verwenden der DataSync Konsole
<a name="create-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Stellen Sie sicher, dass Sie sich in einem der Länder AWS-Regionen befinden, in die Sie Daten übertragen möchten.

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und dann **Aufgabe erstellen** aus.

1. [Erstellen](transferring-data-datasync.md) oder wählen Sie auf der Seite **Quellspeicherort konfigurieren** einen Quellspeicherort aus und klicken Sie dann auf **Weiter**.

1. [Erstellen](transferring-data-datasync.md) oder wählen Sie auf der Seite **Zielspeicherort konfigurieren** einen Zielstandort aus und klicken Sie dann auf **Weiter**.

1. (Empfohlen) Geben Sie Ihrer Aufgabe auf der Seite **„Einstellungen konfigurieren**“ einen Namen, den Sie sich merken können.

1. Wählen Sie auf der Seite **„Einstellungen konfigurieren**“ Ihre Aufgabenoptionen aus oder verwenden Sie die Standardeinstellungen.

   Einige der folgenden Optionen könnten Sie interessieren:
   + Geben Sie den [Aufgabenmodus](choosing-task-mode.md) an, den Sie verwenden möchten.
   + Geben Sie mithilfe eines [Manifests](transferring-with-manifest.md) oder von [Filtern](filtering.md) an, welche Daten übertragen werden sollen.
   + Konfigurieren Sie, wie [Dateimetadaten behandelt](configure-metadata.md) werden sollen, und [überprüfen Sie die Datenintegrität](configure-data-verification-options.md).
   + Überwachen Sie Ihre Übertragung mit [Aufgabenberichten](task-reports.md) oder [Amazon CloudWatch](monitor-datasync.md). Wir empfehlen, eine Art Überwachung für Ihre Aufgabe einzurichten.

   Wählen Sie abschließend **Weiter**.

1. Überprüfen Sie Ihre Aufgabenkonfiguration und wählen Sie dann **Aufgabe erstellen**.

Sie sind bereit, [Ihre Aufgabe zu starten](run-task.md).

### Mit dem AWS CLI
<a name="create-task-cli"></a>

Sobald Sie [Ihre DataSync Quell- und Zielspeicherorte erstellt](transferring-data-datasync.md) haben, können Sie Ihre Aufgabe erstellen.

1. Stellen Sie in Ihren AWS CLI Einstellungen sicher, dass Sie einen der Orte verwenden AWS-Regionen , an die Sie Daten übertragen möchten.

1. Kopieren Sie den folgenden `create-task` Befehl:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name"
   ```

1. Geben Sie für `--source-location-arn` den Amazon-Ressourcennamen (ARN) Ihres Quellstandorts an.

1. Geben Sie für `--destination-location-arn` den ARN Ihres Zielstandorts an.

   Wenn du zwischen AWS-Regionen unseren Konten überweist, vergewissere dich, dass der ARN die andere Region oder Konto-ID enthält.

1. (Empfohlen) Geben Sie für `--name` einen Namen für Ihre Aufgabe an, an den Sie sich erinnern können.

1. Geben Sie nach Bedarf weitere Aufgabenoptionen an. Einige der folgenden Optionen könnten Sie interessieren:
   + Geben Sie mithilfe eines [Manifests](transferring-with-manifest.md) oder von [Filtern](filtering.md) an, welche Daten übertragen werden sollen.
   + Konfigurieren Sie, wie [Dateimetadaten behandelt](configure-metadata.md) werden sollen, und [überprüfen Sie die Datenintegrität](configure-data-verification-options.md).
   + Überwachen Sie Ihre Übertragung mit [Aufgabenberichten](task-reports.md) oder [Amazon CloudWatch](monitor-datasync.md). Wir empfehlen, eine Art Überwachung für Ihre Aufgabe einzurichten.

   Weitere Optionen finden Sie unter [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html). Hier ist ein `create-task` Beispielbefehl, der mehrere Optionen angibt:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --cloud-watch-log-group-arn "arn:aws:logs:region:account-id" \
     --name "task-name" \
     --options VerifyMode=NONE,OverwriteMode=NEVER,Atime=BEST_EFFORT,Mtime=PRESERVE,Uid=INT_VALUE,Gid=INT_VALUE,PreserveDevices=PRESERVE,PosixPermissions=PRESERVE,PreserveDeletedFiles=PRESERVE,TaskQueueing=ENABLED,LogLevel=TRANSFER
   ```

1. Führen Sie den Befehl `create-task` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN der Aufgabe anzeigt, die Sie erstellt haben. Beispiel:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

Sie sind bereit, [Ihre Aufgabe zu starten](run-task.md).

## Status der Aufgaben
<a name="understand-task-creation-statuses"></a>

Wenn Sie eine DataSync Aufgabe erstellen, können Sie ihren Status überprüfen, um festzustellen, ob sie zur Ausführung bereit ist.


| Status der Konsole | API-Status | Description | 
| --- | --- | --- | 
| Available (Verfügbar) |  `AVAILABLE`  |  Die Aufgabe ist bereit, mit der Übertragung von Daten zu beginnen.  | 
| In Ausführung |  `RUNNING`  | Eine Aufgabenausführung ist im Gange. Weitere Informationen finden Sie unter [Status der Aufgabenausführung](run-task.md#understand-task-execution-statuses). | 
|  Nicht verfügbar  |  `UNAVAILABLE`  |  Ein von der Aufgabe verwendeter DataSync Agent ist offline. Weitere Informationen finden Sie unter [Was mache ich, wenn mein Agent offline ist?](troubleshooting-datasync-agents.md#troubleshoot-agent-offline).  | 
|  In Warteschlange eingefügt  |  `QUEUED`  |  Eine weitere Aufgabenausführung, die denselben DataSync Agenten verwendet, ist im Gange. Weitere Informationen finden Sie unter [Wissen Sie, wann sich Ihre Aufgabe in der Warteschlange befindet](run-task.md#queue-task-execution).  | 

## Partitionierung großer Datensätze mit mehreren Aufgaben
<a name="multiple-tasks-large-dataset"></a>

Wenn Sie einen großen Datensatz übertragen, z. B. Millionen von Dateien oder Objekten [migrieren](datasync-large-migration.md), empfehlen wir, für Ihre Übertragung den DataSync erweiterten Modus zu verwenden, mit dem Datensätze mit praktisch unbegrenzter Anzahl von Dateien übertragen werden können. Bei sehr großen Datensätzen mit Milliarden von Dateien sollten Sie erwägen, Ihren Datensatz mit mehreren Aufgaben zu partitionieren. DataSync Die Partitionierung Ihrer Daten auf mehrere Aufgaben (und möglicherweise auf [Agenten](do-i-need-datasync-agent.md#multiple-agents), je nach Standort) trägt dazu bei, den Zeitaufwand für die Vorbereitung und Übertragung Ihrer Daten DataSync zu reduzieren.

Überlegen Sie sich einige Möglichkeiten, wie Sie einen großen Datensatz auf mehrere DataSync Aufgaben partitionieren können:
+ Erstellen Sie Aufgaben, die separate Ordner übertragen. Sie könnten beispielsweise zwei Aufgaben erstellen, die auf Ihren Quellspeicher abzielen `/FolderA` und `/FolderB` sich dort befinden.
+ Erstellen Sie Aufgaben, die mithilfe eines [Manifests](transferring-with-manifest.md) oder von [Filtern](filtering.md) Teilmengen von Dateien, Objekten und Ordnern übertragen.

Beachten Sie, dass dieser Ansatz die Auslastung Ihres Speichers I/O erhöhen und sich auf Ihre Netzwerkbandbreite auswirken kann. Weitere Informationen finden Sie im Blog [So beschleunigen Sie Ihre Datenübertragungen mit DataSync Scale-out-Architekturen](https://aws.amazon.com/blogs/storage/how-to-accelerate-your-data-transfers-with-aws-datasync-scale-out-architectures/).

## Segmentierung übertragener Daten mit mehreren Aufgaben
<a name="multiple-tasks-organize-transfer"></a>

Wenn Sie verschiedene Datensätze an dasselbe Ziel übertragen, können Sie mehrere Aufgaben erstellen, um die zu übertragenden Daten zu segmentieren.

Wenn Sie beispielsweise in denselben S3-Bucket mit dem Namen übertragen`MyBucket`, können Sie im Bucket unterschiedliche Präfixe erstellen, die jeder Aufgabe entsprechen. Dieser Ansatz verhindert Dateinamenkonflikte zwischen den Datensätzen und ermöglicht es Ihnen, für jedes Präfix unterschiedliche Berechtigungen festzulegen. So könnten Sie das einrichten:

1. Erstellen Sie drei Präfixe im Ziel `MyBucket` mit den Namen `task1``task2`, und`task3`:
   + `s3://MyBucket/task1`
   + `s3://MyBucket/task2`
   + `s3://MyBucket/task3`

1. Erstellen Sie drei DataSync Aufgaben mit dem Namen`task1`,`task2`, und `task3` die an das entsprechende Präfix in `MyBucket` übertragen werden.

# Wählen Sie einen Aufgabenmodus für Ihre Datenübertragung
<a name="choosing-task-mode"></a>

Ihre AWS DataSync Aufgabe kann in einem der folgenden Modi ausgeführt werden:
+ **Erweiterter Modus** — Überträgt eine praktisch unbegrenzte Anzahl von Dateien oder Objekten mit höherer Leistung als der Standardmodus. Aufgaben im erweiterten Modus optimieren den Datenübertragungsprozess, indem sie Daten parallel auflisten, vorbereiten, übertragen und verifizieren. Der erweiterte Modus ist derzeit für Übertragungen zwischen Amazon S3-Standorten, Übertragungen zwischen Amazon S3 Azure Blob und Amazon S3 ohne Agenten, Übertragungen zwischen anderen Clouds und Amazon S3 ohne Agenten sowie Übertragungen zwischen NFS- oder SMB-Dateiservern und Amazon S3 mit einem Agenten im erweiterten Modus verfügbar.
+ **Basismodus** — Übertragung von Dateien oder Objekten zwischen AWS Speicher und allen anderen unterstützten DataSync Speicherorten. Für Aufgaben im Basismodus gelten [Kontingente](datasync-limits.md) für die Anzahl der Dateien, Objekte und Verzeichnisse in einem Datensatz. Im Basismodus werden Daten sequenziell vorbereitet, übertragen und überprüft, sodass er für die meisten Workloads langsamer ist als der erweiterte Modus.

## Die Unterschiede im Aufgabenmodus verstehen
<a name="task-mode-differences"></a>

Die folgenden Informationen können Ihnen dabei helfen, den zu verwendenden Taskmodus zu bestimmen. 


| Funktion | Verbessertes Modusverhalten | Grundlegendes Verhalten im Modus | 
| --- | --- | --- | 
| [Leistung](how-datasync-transfer-works.md#transferring-files) | DataSync listet, bereitet, überträgt und verifiziert Ihre Daten parallel. Bietet für die meisten Workloads (z. B. die Übertragung großer Objekte) eine höhere Leistung als der Basismodus | DataSync bereitet Ihre Daten sequentiell vor, überträgt und verifiziert sie. Die Leistung ist bei den meisten Workloads langsamer als im erweiterten Modus | 
| Anzahl der Elemente in einem Datensatz, mit denen pro Aufgabenausführung gearbeitet werden DataSync kann |  Praktisch unbegrenzte Anzahl von Objekten  |  [Es gelten Kontingente](datasync-limits.md#task-hard-limits)  | 
|  [Zähler und Metriken für](transfer-performance-counters.md) [die Datenübertragung](monitor-datasync.md)  |  Mehr Zähler und Messwerte als im Basismodus, z. B. die Anzahl der Objekte, die an Ihrem Quellspeicherort DataSync gefunden werden, die Anzahl der Objekte, die bei jeder Aufgabenausführung vorbereitet wurden, und Ordnerzähler, die den Datei- und Objektzählern ähneln  |  Weniger Zähler und Metriken als im erweiterten Modus  | 
|  [Protokollierung](configure-logging.md)  | Strukturierte Protokolle (JSON-Format) | Unstrukturierte Protokolle | 
|  [Unterstützte Standorte](working-with-locations.md)  | Derzeit für Übertragungen zwischen Amazon S3-Standorten, Übertragungen zwischen Azure Blob und Amazon S3 ohne Agenten, Übertragungen zwischen anderen Clouds und Amazon S3 ohne Agenten und Übertragungen zwischen NFS- oder SMB-Dateiservern und Amazon S3 mit einem Agenten im erweiterten Modus. |  Für Übertragungen zwischen allen Standorten, die unterstützt werden DataSync   | 
|  [Optionen zur Datenüberprüfung](configure-data-verification-options.md)  | DataSync verifiziert nur übertragene Daten | DataSync verifiziert standardmäßig alle Daten | 
| Cost (Kosten) | Weitere Informationen finden Sie auf der Seite mit den [DataSync Preisen](https://aws.amazon.com/datasync/pricing) | Weitere Informationen finden Sie auf der Seite mit den [DataSync Preisen](https://aws.amazon.com/datasync/pricing) | 
| Fehlerbehandlung bei nicht unterstützten Objekt-Tags | Bei Cloud-Speicherübertragungen zu oder von Orten, die Objekt-Tagging nicht unterstützen, schlägt die Aufgabenausführung sofort fehl, wenn die ObjectTags Option nicht spezifiziert oder auf gesetzt ist. PRESERVE | Bei Cloud-Speicherübertragungen zu oder von Orten, die Objekt-Tagging nicht unterstützen, wird die Aufgabenausführung normal ausgeführt, aber es werden Fehler pro Objekt für markierte Objekte gemeldet, wenn die ObjectTags Option nicht spezifiziert oder auf gesetzt ist. PRESERVE | 

## Einen Aufgabenmodus wählen
<a name="choosing-task-mode-how-to"></a>

Sie können den erweiterten Modus nur für Übertragungen zwischen Amazon S3-Standorten, Übertragungen zwischen Azure Blob und Amazon S3 ohne Agenten, Übertragungen zwischen anderen Clouds und Amazon S3 ohne Agenten und Übertragungen zwischen NFS- oder SMB-Dateiservern und Amazon S3 mit einem Agenten im erweiterten Modus wählen. Andernfalls müssen Sie den Basismodus verwenden. Für eine Übertragung von einem lokalen [HDFS-Standort zu einem S3-Standort](create-hdfs-location.md) ist beispielsweise der Basismodus erforderlich.

Ihre Aufgabenoptionen und Leistung können je nach ausgewähltem Aufgabenmodus variieren. Sobald Sie Ihre Aufgabe erstellt haben, können Sie den Aufgabenmodus nicht mehr ändern.

**Erforderliche Berechtigungen**  
Um eine Aufgabe im erweiterten Modus zu erstellen, muss die IAM-Rolle, die Sie DataSync mit verwenden, über die `iam:CreateServiceLinkedRole` entsprechende Berechtigung verfügen.  
Für Ihre DataSync Benutzerberechtigungen sollten Sie die Verwendung von [AWSDataSyncFullAccess](security-iam-awsmanpol.md#security-iam-awsmanpol-awsdatasyncfullaccess). Dies ist eine AWS verwaltete Richtlinie, die einem Benutzer vollen DataSync und minimalen Zugriff auf seine Abhängigkeiten gewährt.

### Verwenden der DataSync Konsole
<a name="choosing-task-mode-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie für **den Aufgabenmodus** eine der folgenden Optionen:
   + **Verbessert**
   + **Basic**

   Weitere Informationen finden Sie unter [Die Unterschiede im Aufgabenmodus verstehen](#task-mode-differences).

1. Wählen Sie auf der Seite **„Einstellungen konfigurieren**“ andere Aufgabenoptionen aus oder verwenden Sie die Standardeinstellungen.

   Einige der folgenden Optionen könnten Sie interessieren:
   + Geben Sie mithilfe eines [Manifests](transferring-with-manifest.md) oder von [Filtern](filtering.md) an, welche Daten übertragen werden sollen.
   + Konfigurieren Sie, wie [Dateimetadaten behandelt](configure-metadata.md) werden sollen, und [überprüfen Sie die Datenintegrität](configure-data-verification-options.md).
   + Überwachen Sie Ihre Übertragung mit [Aufgabenberichten](task-reports.md) oder [Amazon CloudWatch Logs](monitor-datasync.md).

   Wählen Sie abschließend **Weiter**.

1. Überprüfen Sie Ihre Aufgabenkonfiguration und wählen Sie dann **Aufgabe erstellen**.

### Verwenden Sie den AWS CLI
<a name="choosing-task-mode-cli"></a>

1. Stellen Sie in Ihren AWS CLI Einstellungen sicher, dass Sie eines der Geräte verwenden, von AWS-Regionen denen Sie Daten übertragen möchten.

1. Kopieren Sie den folgenden `create-task` Befehl:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --task-mode "ENHANCED-or-BASIC"
   ```

1. Geben Sie für `--source-location-arn` den Amazon-Ressourcennamen (ARN) Ihres Quellstandorts an.

1. Geben Sie für `--destination-location-arn` den ARN Ihres Zielstandorts an.

   Wenn du zwischen AWS-Regionen unseren Konten überweist, vergewissere dich, dass der ARN die andere Region oder Konto-ID enthält.

1. Geben Sie für `--task-mode` `ENHANCED` oder an`BASIC`.

   Weitere Informationen finden Sie unter [Die Unterschiede im Aufgabenmodus verstehen](#task-mode-differences).

1. Geben Sie nach Bedarf weitere Aufgabenoptionen an. Einige der folgenden Optionen könnten Sie interessieren:
   + Geben Sie mithilfe eines [Manifests](transferring-with-manifest.md) oder von [Filtern](filtering.md) an, welche Daten übertragen werden sollen.
   + Konfigurieren Sie, wie [Dateimetadaten behandelt](configure-metadata.md) werden sollen, und [überprüfen Sie die Datenintegrität](configure-data-verification-options.md).
   + Überwachen Sie Ihre Übertragung mit [Aufgabenberichten](task-reports.md) oder [Amazon CloudWatch Logs](monitor-datasync.md).

   Weitere Optionen finden Sie unter Aufgabe [erstellen.](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html) Hier ist ein `create-task` Beispielbefehl, der den erweiterten Modus und mehrere andere Optionen angibt:

   ```
   aws datasync create-task \
     --source-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --destination-location-arn "arn:aws:datasync:us-east-1:account-id:location/location-id" \
     --name "task-name" \
     --task-mode "ENHANCED" \
     --options TransferMode=CHANGED,VerifyMode=ONLY_FILES_TRANSFERRED,ObjectTags=PRESERVE,LogLevel=TRANSFER
   ```

1. Führen Sie den Befehl `create-task` aus.

   Wenn der Befehl erfolgreich ist, erhalten Sie eine Antwort, die Ihnen den ARN der Aufgabe anzeigt, die Sie erstellt haben. Beispiel:

   ```
   { 
       "TaskArn": "arn:aws:datasync:us-east-1:111222333444:task/task-08de6e6697796f026" 
   }
   ```

### Verwenden der DataSync API
<a name="choosing-task-mode-api"></a>

Sie können den DataSync Aufgabenmodus angeben, indem Sie den `TaskMode` Parameter in der [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)Operation konfigurieren.

# Wählen Sie aus, welche AWS DataSync Übertragungen
<a name="task-options"></a>

AWS DataSync lässt Sie wählen, was übertragen werden soll und wie Ihre Daten behandelt werden sollen. Zu den Optionen gehören:
+ Übertragung einer genauen Liste von Dateien oder Objekten mithilfe eines Manifests.
+ Mithilfe eines Filters können Sie bestimmte Datentypen in Ihre Übertragung einbeziehen oder ausschließen.
+ Bei wiederkehrenden Übertragungen werden nur die Daten verschoben, die sich seit der letzten Übertragung geändert haben
+ Überschreiben von Daten am Zielspeicherort, sodass sie mit den Daten am Quellspeicherort übereinstimmen.
+ Wählen Sie aus, welche Datei- oder Objektmetadaten zwischen Ihren Speicherorten beibehalten werden sollen.

**Topics**
+ [Übertragung bestimmter Dateien oder Objekte mithilfe eines Manifests](transferring-with-manifest.md)
+ [Übertragung bestimmter Dateien, Objekte und Ordner mithilfe von Filtern](filtering.md)
+ [Verstehen, wie DataSync mit Datei- und Objektmetadaten umgegangen wird](metadata-copied.md)
+ [Links und Verzeichnisse, die kopiert wurden von AWS DataSync](special-files-copied.md)
+ [Konfiguration des Umgangs mit Dateien, Objekten und Metadaten](configure-metadata.md)

# Übertragung bestimmter Dateien oder Objekte mithilfe eines Manifests
<a name="transferring-with-manifest"></a>

Ein *Manifest* ist eine Liste von Dateien oder Objekten, die Sie übertragen AWS DataSync möchten. Anstatt beispielsweise alles in einem S3-Bucket mit potenziell Millionen von Objekten übertragen zu müssen, werden nur die Objekte DataSync übertragen, die Sie in Ihrem Manifest auflisten.

Manifeste ähneln [Filtern](filtering.md), ermöglichen es Ihnen aber, anstelle von Daten, die einem Filtermuster entsprechen, genau zu identifizieren, welche Dateien oder Objekte übertragen werden sollen.

**Anmerkung**  
Die maximal zulässige Größe für eine Manifestdatei mit Aufgaben im erweiterten Modus beträgt 20 GB.

## Erstellen Sie Ihr Manifest
<a name="transferring-with-manifest-create"></a>

Ein Manifest ist eine Datei im CSV-Format (Comma-Separated Values), in der die Dateien oder Objekte an Ihrem Quellspeicherort aufgeführt sind, die Sie übertragen möchten. DataSync Wenn es sich bei Ihrer Quelle um einen S3-Bucket handelt, können Sie auch angeben, welche Version eines Objekts übertragen werden soll.

**Topics**
+ [Richtlinien](#transferring-with-manifest-guidelines)
+ [Beispielmanifeste](#manifest-examples)

### Richtlinien
<a name="transferring-with-manifest-guidelines"></a>

Verwenden Sie diese Richtlinien, um ein Manifest zu erstellen, mit dem Sie arbeiten können DataSync.

------
#### [ Do ]
+ Geben Sie den vollständigen Pfad jeder Datei oder jedes Objekts an, das Sie übertragen möchten.

  Sie können nicht nur ein Verzeichnis oder einen Ordner angeben, um den gesamten Inhalt zu übertragen. In diesen Situationen sollten Sie einen [Include-Filter](filtering.md) anstelle eines Manifests verwenden.
+ Stellen Sie sicher, dass jeder Datei- oder Objektpfad relativ zu dem Bereitstellungspfad, Ordner, Verzeichnis oder Präfix ist, das Sie bei der Konfiguration Ihres DataSync Quellverzeichnisses angegeben haben.

  Nehmen wir zum Beispiel an, Sie [konfigurieren einen S3-Standort](create-s3-location.md#create-s3-location-how-to) mit einem Präfix namens`photos`. Dieses Präfix enthält ein Objekt`my-picture.png`, das Sie übertragen möchten. Im Manifest müssen Sie dann nur das Objekt (`my-picture.png`) anstelle des Präfixes und des Objekts (`photos/my-picture.png`) angeben.
+ Um die Amazon S3 S3-Objektversion anzugeben IDs, trennen Sie den Pfad und die Versions-ID des Objekts durch ein Komma.

  Das folgende Beispiel zeigt einen Manifesteintrag mit zwei Feldern. Das erste Feld enthält ein Objekt mit dem Namen`picture1.png`. Das zweite Feld ist durch ein Komma getrennt und enthält die Versions-ID: `111111`

  ```
  picture1.png,111111
  ```
+ Verwenden Sie Anführungszeichen in den folgenden Situationen:
  + Wenn ein Pfad Sonderzeichen (Kommas, Anführungszeichen und Zeilenenden) enthält:

    `"filename,with,commas.txt"`
  + Wenn sich ein Pfad über mehrere Zeilen erstreckt:

    ```
    "this
    is
    a
    filename.txt"
    ```
  + Wenn ein Pfad Anführungszeichen enthält:

    `filename""with""quotes.txt`

    Dies stellt einen Pfad mit dem Namen dar`filename"with"quotes.txt`.

  Diese Regeln für Anführungszeichen gelten auch für Versions-ID-Felder. Wenn ein Manifestfeld ein Anführungszeichen enthält, müssen Sie es im Allgemeinen mit einem anderen Anführungszeichen versehen.
+ Trennen Sie jeden Datei- oder Objekteintrag durch eine neue Zeile.

  Sie können Zeilen trennen, indem Sie Zeilenumbrüche im Linux-Stil (Zeilenvorschub oder Zeilenumbruch) oder Windows (Zeilenumbruch gefolgt von einem Zeilenvorschub) verwenden.
+ Speichern Sie Ihr Manifest (zum Beispiel `my-manifest.csv` oder`my-manifest.txt`).
+ Laden Sie das Manifest in einen S3-Bucket hoch, der [darauf zugreifen DataSync kann](#transferring-with-manifest-access).

  Dieser Bucket muss sich nicht in demselben AWS-Region PR-Konto befinden, das Sie verwenden DataSync.

------
#### [ Don't ]
+ Geben Sie nur ein Verzeichnis oder einen Ordner an, um den gesamten Inhalt zu übertragen.

  Ein Manifest kann nur vollständige Pfade zu den Dateien oder Objekten enthalten, die Sie übertragen möchten. Wenn Sie Ihren Quellpfad so konfigurieren, dass er einen bestimmten Bereitstellungspfad, Ordner, Verzeichnis oder Präfix verwendet, müssen Sie dies nicht in Ihr Manifest aufnehmen.
+ Geben Sie einen Datei- oder Objektpfad mit mehr als 4.096 Zeichen an.
+ Geben Sie einen Dateipfad, einen Objektpfad oder eine Amazon S3 S3-Objektversions-ID an, die 1.024 Byte überschreitet.
+ Geben Sie doppelte Datei- oder Objektpfade an.
+ Geben Sie eine Objekt-Versions-ID an, wenn es sich bei Ihrem Quellspeicherort nicht um einen S3-Bucket handelt.
+ Fügen Sie mehr als zwei Felder in einen Manifesteintrag ein.

  Ein Eintrag kann nur einen Datei- oder Objektpfad und (falls zutreffend) eine Amazon S3 S3-Objektversions-ID enthalten.
+ Schließt Zeichen ein, die nicht der UTF-8-Kodierung entsprechen.
+ Fügen Sie unbeabsichtigte Leerzeichen in Ihre Eingabefelder außerhalb von Anführungszeichen ein.

------

### Beispielmanifeste
<a name="manifest-examples"></a>

Verwenden Sie diese Beispiele, um ein Manifest zu erstellen, das mit funktioniert DataSync. 

**Manifest mit vollständigen Datei- oder Objektpfaden**  
Das folgende Beispiel zeigt ein Manifest mit vollständigen Datei- oder Objektpfaden für die Übertragung.  

```
photos/picture1.png
photos/picture2.png
photos/picture3.png
```

**Manifest nur mit Objektschlüsseln**  
Das folgende Beispiel zeigt ein Manifest mit Objekten, die von einem Amazon S3 S3-Quellspeicherort übertragen werden sollen. Da der [Standort mit dem Präfix konfiguriert ist](create-s3-location.md#create-s3-location-how-to)`photos`, werden nur die Objektschlüssel angegeben.  

```
picture1.png
picture2.png
picture3.png
```

**Manifest mit Objektpfaden und Version IDs**  
Die ersten beiden Einträge im folgenden Manifestbeispiel enthalten spezifische Amazon S3 S3-Objektversionen, die übertragen werden sollen.  

```
photos/picture1.png,111111
photos/picture2.png,121212
photos/picture3.png
```

**Manifest mit UTF-8-Zeichen**  
Das folgende Beispiel zeigt ein Manifest mit Dateien, die UTF-8-Zeichen enthalten.  

```
documents/résumé1.pdf
documents/résumé2.pdf
documents/résumé3.pdf
```

## Bereitstellung des DataSync Zugriffs auf Ihr Manifest
<a name="transferring-with-manifest-access"></a>

Sie benötigen eine AWS Identity and Access Management (IAM-) Rolle, die DataSync Zugriff auf Ihr Manifest in seinem S3-Bucket gewährt. Diese Rolle muss die folgenden Berechtigungen beinhalten:
+ `s3:GetObject`
+ `s3:GetObjectVersion`

Sie können diese Rolle automatisch in der DataSync Konsole generieren oder sie selbst erstellen.

**Anmerkung**  
Wenn sich Ihr Manifest in einem anderen befindet AWS-Konto, müssen Sie diese Rolle manuell erstellen.

### Automatisches Erstellen der IAM-Rolle
<a name="creating-manfiest-role-automatically"></a>

Wenn Sie eine Übertragungsaufgabe in der Konsole erstellen oder starten, DataSync kann für Sie eine IAM-Rolle mit den `s3:GetObjectVersion` Berechtigungen `s3:GetObject` und Berechtigungen erstellt werden, die Sie für den Zugriff auf Ihr Manifest benötigen.

**Erforderliche Berechtigungen, um die Rolle automatisch zu erstellen**  
Um die Rolle automatisch zu erstellen, stellen Sie sicher, dass die Rolle, die Sie für den Zugriff auf die DataSync Konsole verwenden, über die folgenden Berechtigungen verfügt:  
+ `iam:CreateRole`
+ `iam:CreatePolicy`
+ `iam:AttachRolePolicy`

### Die IAM-Rolle erstellen (gleiches Konto)
<a name="creating-manfiest-role-automatically-same-account"></a>

Sie können die IAM-Rolle, die auf Ihr Manifest zugreifen DataSync muss, manuell erstellen. In den folgenden Anweisungen wird davon ausgegangen, dass Sie sich dort befinden, AWS-Konto wo Sie es verwenden, DataSync und dass sich der S3-Bucket Ihres Manifests befindet. 

1. Öffnen Sie unter [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/) die IAM-Konsole.

1. Wählen Sie im linken Navigationsbereich unter **Zugriffsverwaltung** die Option **Rollen** und dann **Rolle erstellen** aus.

1. **Wählen Sie auf der Seite Vertrauenswürdige Entität** auswählen für **Vertrauenswürdigen Entitätstyp** die Option **AWS-Service**.

1. Wählen Sie **DataSync**in der Dropdownliste für **Anwendungsfall** die Option aus und wählen Sie aus **DataSync**. Wählen Sie **Weiter** aus.

1. Wählen Sie auf der Seite **Add permissions** (Berechtigungen hinzufügen) die Option **Next** (Weiter) aus. Geben Sie Ihrer Rolle einen Namen und wählen Sie **Rolle erstellen**.

1. Suchen Sie auf der Seite **Rollen** nach der Rolle, die Sie gerade erstellt haben, und wählen Sie ihren Namen aus.

1. Wählen Sie auf der Detailseite der Rolle den Tab **Berechtigungen** aus. Wählen Sie **Berechtigungen hinzufügen** und dann **Inline-Richtlinie erstellen** aus.

1. Wählen Sie die Registerkarte **JSON** und fügen Sie die folgende Beispielrichtlinie in den Richtlinieneditor ein:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Ersetzen Sie in der Beispielrichtlinie, die Sie gerade eingefügt haben, die folgenden Werte durch Ihre eigenen:

   1. `amzn-s3-demo-bucket`Ersetzen Sie es durch den Namen des S3-Buckets, der Ihr Manifest hostet.

   1. `my-manifest.csv`Ersetzen Sie es durch den Dateinamen Ihres Manifests.

1. Wählen Sie **Weiter** aus. Geben Sie Ihrer Richtlinie einen Namen und wählen Sie **Richtlinie erstellen**.

1. (Empfohlen) Gehen Sie wie folgt vor, um das [dienstübergreifende Problem mit verwirrten Stellvertretern](cross-service-confused-deputy-prevention.md) zu vermeiden:

   1. Wählen Sie auf der Detailseite der Rolle die Registerkarte **Vertrauensbeziehungen** aus. Wählen Sie **Vertrauensrichtlinie bearbeiten** aus.

   1. Aktualisieren Sie die Vertrauensrichtlinie anhand des folgenden Beispiels, das die Kontextschlüssel `aws:SourceArn` und die `aws:SourceAccount` globalen Bedingungsschlüssel enthält:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "555555555555"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:555555555555:*"
                  }
              }
            }
        ]
      }
      ```

------
      + Ersetzen Sie jede Instanz `account-id` durch die AWS-Konto ID, die Sie verwenden DataSync.
      + Ersetze es `region` durch das AWS-Region , wo du es verwendest DataSync.

   1. Wählen Sie **Richtlinie aktualisieren**.

Sie haben eine IAM-Rolle erstellt, die den Zugriff DataSync auf Ihr Manifest ermöglicht. Geben Sie diese Rolle an, wenn Sie Ihre Aufgabe [erstellen](#manifest-creating-task) oder [starten](#manifest-starting-task).

### Die IAM-Rolle erstellen (anderes Konto)
<a name="creating-manfiest-role-automatically-different-account"></a>

Wenn sich Ihr Manifest in einem S3-Bucket befindet, der zu einem anderen gehört AWS-Konto, müssen Sie die IAM-Rolle, die für den Zugriff auf das Manifest DataSync verwendet wird, manuell erstellen. Anschließend müssen Sie dort, AWS-Konto wo sich Ihr Manifest befindet, die Rolle in die S3-Bucket-Richtlinie aufnehmen.

#### Erstellen der -Rolle
<a name="creating-manfiest-role-automatically-different-account-1"></a>

1. Öffnen Sie unter [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/) die IAM-Konsole.

1. Wählen Sie im linken Navigationsbereich unter **Zugriffsverwaltung** die Option **Rollen** und dann **Rolle erstellen** aus.

1. **Wählen Sie auf der Seite Vertrauenswürdige Entität** auswählen für **Vertrauenswürdigen Entitätstyp** die Option **AWS-Service**.

1. Wählen Sie **DataSync**in der Dropdownliste für **Anwendungsfall** die Option aus und wählen Sie aus **DataSync**. Wählen Sie **Weiter** aus.

1. Wählen Sie auf der Seite **Add permissions** (Berechtigungen hinzufügen) die Option **Next** (Weiter) aus. Geben Sie Ihrer Rolle einen Namen und wählen Sie **Rolle erstellen**.

1. Suchen Sie auf der Seite **Rollen** nach der Rolle, die Sie gerade erstellt haben, und wählen Sie ihren Namen aus.

1. Wählen Sie auf der Detailseite der Rolle den Tab **Berechtigungen** aus. Wählen Sie **Berechtigungen hinzufügen** und dann **Inline-Richtlinie erstellen** aus.

1. Wählen Sie die Registerkarte **JSON** und fügen Sie die folgende Beispielrichtlinie in den Richtlinieneditor ein:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [{
           "Sid": "DataSyncAccessManifest",
           "Effect": "Allow",
           "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-bucket/my-manifest.csv"
       }]
   }
   ```

------

1. Ersetzen Sie in der Beispielrichtlinie, die Sie gerade eingefügt haben, die folgenden Werte durch Ihre eigenen:

   1. `amzn-s3-demo-bucket`Ersetzen Sie es durch den Namen des S3-Buckets, der Ihr Manifest hostet.

   1. `my-manifest.csv`Ersetzen Sie es durch den Dateinamen Ihres Manifests.

1. Wählen Sie **Weiter** aus. Geben Sie Ihrer Richtlinie einen Namen und wählen Sie **Richtlinie erstellen**.

1. (Empfohlen) Gehen Sie wie folgt vor, um das [dienstübergreifende Problem mit verwirrten Stellvertretern](cross-service-confused-deputy-prevention.md) zu vermeiden:

   1. Wählen Sie auf der Detailseite der Rolle die Registerkarte **Vertrauensbeziehungen** aus. Wählen Sie **Vertrauensrichtlinie bearbeiten** aus.

   1. Aktualisieren Sie die Vertrauensrichtlinie anhand des folgenden Beispiels, das die Kontextschlüssel `aws:SourceArn` und die `aws:SourceAccount` globalen Bedingungsschlüssel enthält:

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
            {
              "Effect": "Allow",
              "Principal": {
                  "Service": "datasync.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                  "aws:SourceAccount": "000000000000"
                  },
                  "ArnLike": {
                  "aws:SourceArn": "arn:aws:datasync:us-east-1:000000000000:*"
                  }
              }
           }
        ]
      }
      ```

------
      + Ersetzen Sie jede Instanz von `account-id` durch die AWS-Konto ID, die Sie verwenden DataSync.
      + Ersetze es `region` durch die AWS-Region Stelle, die du verwendest DataSync.

   1. Wählen Sie **Richtlinie aktualisieren**.

Sie haben die IAM-Rolle erstellt, die Sie in Ihre S3-Bucket-Richtlinie aufnehmen können.

#### Aktualisierung Ihrer S3-Bucket-Richtlinie mit der Rolle
<a name="creating-manfiest-role-automatically-different-account-2"></a>

Nachdem Sie die IAM-Rolle erstellt haben, müssen Sie sie der S3-Bucket-Richtlinie in der anderen Rolle hinzufügen, in der AWS-Konto sich Ihr Manifest befindet.

1. Wechseln Sie im AWS-Managementkonsole zu dem Konto mit dem S3-Bucket Ihres Manifests.

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie auf der Detailseite des Buckets den Tab **Permissions** aus.

1. Wählen Sie unter **Bucket-Richtlinie** die Option **Bearbeiten** aus und gehen Sie wie folgt vor, um Ihre S3-Bucket-Richtlinie zu ändern:

   1. Aktualisieren Sie den Inhalt des Editors, sodass er die folgenden Richtlinienerklärungen enthält:

------
#### [ JSON ]

****  

      ```
      {
        "Version":"2012-10-17",		 	 	 
        "Statement": [
          {
            "Sid": "DataSyncAccessManifestBucket",
            "Effect": "Allow",
            "Action": [
              "s3:GetObject",
              "s3:GetObjectVersion"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
        ]
      }
      ```

------

   1. `account-id`Ersetzen Sie es durch die AWS-Konto ID für das Konto, das Sie DataSync mit verwenden.

   1. `datasync-role`Ersetzen Sie es durch die IAM-Rolle, die Sie gerade erstellt haben und die DataSync den Zugriff auf Ihr Manifest ermöglicht.

   1. `amzn-s3-demo-bucket`Ersetzen Sie es im anderen AWS-Konto durch den Namen des S3-Buckets, der Ihr Manifest hostet.

1. Wählen Sie **Änderungen speichern ** aus.

Sie haben eine IAM-Rolle erstellt, die DataSync den Zugriff auf Ihr Manifest im anderen Konto ermöglicht. Geben Sie diese Rolle an, wenn Sie Ihre Aufgabe [erstellen](#manifest-creating-task) oder [starten](#manifest-starting-task).

## Geben Sie Ihr Manifest an, wenn Sie eine Aufgabe erstellen
<a name="manifest-creating-task"></a>

Sie können das Manifest angeben, das Sie beim Erstellen einer Aufgabe verwenden möchten DataSync .

### Verwenden der DataSync Konsole
<a name="manifest-creating-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Aufgaben** und dann **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie unter **Zu scannende Inhalte** die Option **Bestimmte Dateien, Objekte und Ordner und** anschließend **Manifest verwenden** aus.

1. Wählen Sie für **S3-URI** Ihr Manifest aus, das auf einem S3-Bucket gehostet wird.

   Alternativ können Sie den URI eingeben (z. B.`s3://bucket/prefix/my-manifest.csv`).

1. Wählen Sie **unter Objektversion** die Version des Manifests aus, die Sie verwenden DataSync möchten.

    DataSync Verwendet standardmäßig die neueste Version des Objekts.

1. Führen Sie für die **Zugriffsrolle Manifest** einen der folgenden Schritte aus:
   + Wählen Sie **Autogenerate** für DataSync , um automatisch eine IAM-Rolle mit den erforderlichen Berechtigungen für den Zugriff auf Ihr Manifest in ihrem S3-Bucket zu erstellen.
   + Wählen Sie eine bestehende IAM-Rolle aus, die auf Ihr Manifest zugreifen kann.

   Weitere Informationen finden Sie unter [Bereitstellung des DataSync Zugriffs auf Ihr Manifest](#transferring-with-manifest-access).

1. Konfigurieren Sie alle anderen Aufgabeneinstellungen, die Sie benötigen, und wählen Sie dann **Weiter**.

1. Wählen Sie **Create task** aus.

### Verwenden Sie den AWS CLI
<a name="manifest-creating-task-cli"></a>

1. Kopieren Sie den folgenden `create-task` Befehl:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Geben Sie für den `--source-location-arn` Parameter den Amazon-Ressourcennamen (ARN) des Standorts an, von dem Sie Daten übertragen.

1. Geben Sie für den `--destination-location-arn` Parameter den ARN des Standorts an, an den Sie Daten übertragen.

1. Gehen Sie für den `--manifest-config` Parameter wie folgt vor:
   + `ManifestObjectPath`— Geben Sie den S3-Objektschlüssel Ihres Manifests an.
   + `BucketAccessRoleArn`— Geben Sie die IAM-Rolle an, die den DataSync Zugriff auf Ihr Manifest in ihrem S3-Bucket ermöglicht.

     Weitere Informationen finden Sie unter [Bereitstellung des DataSync Zugriffs auf Ihr Manifest](#transferring-with-manifest-access).
   + `S3BucketArn`— Geben Sie den ARN des S3-Buckets an, der Ihr Manifest hostet.
   + `ManifestObjectVersionId`— Geben Sie die Version des Manifests an, die Sie verwenden DataSync möchten.

      DataSync Verwendet standardmäßig die neueste Version des Objekts.

1. Führen Sie den `create-task` Befehl aus, um Ihre Aufgabe zu erstellen.

Wenn Sie bereit sind, können Sie [Ihre Übertragungsaufgabe starten](run-task.md).

## Geben Sie Ihr Manifest an, wenn Sie eine Aufgabe starten
<a name="manifest-starting-task"></a>

Sie können das Manifest angeben, das Sie beim Ausführen einer Aufgabe verwenden möchten DataSync .

### Verwenden der DataSync Konsole
<a name="manifest-starting-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Aufgaben** und dann die Aufgabe aus, die Sie starten möchten.

1. Wählen Sie auf der Seite mit der Aufgabenübersicht die Option **Start** und dann **Mit überschreibenden Optionen beginnen** aus.

1. Wählen Sie unter **Zu scannende Inhalte** die Option **Bestimmte Dateien, Objekte und Ordner und** anschließend **Manifest verwenden** aus.

1. Wählen Sie für **S3-URI** Ihr Manifest aus, das auf einem S3-Bucket gehostet wird.

   Alternativ können Sie den URI eingeben (z. B.`s3://bucket/prefix/my-manifest.csv`).

1. Wählen Sie **unter Objektversion** die Version des Manifests aus, die Sie verwenden DataSync möchten.

    DataSync Verwendet standardmäßig die neueste Version des Objekts.

1. Führen Sie für die **Zugriffsrolle Manifest** einen der folgenden Schritte aus:
   + Wählen Sie **Autogenerate** für DataSync , um automatisch eine IAM-Rolle für den Zugriff auf Ihr Manifest in ihrem S3-Bucket zu erstellen.
   + Wählen Sie eine bestehende IAM-Rolle aus, die auf Ihr Manifest zugreifen kann.

   Weitere Informationen finden Sie unter [Bereitstellung des DataSync Zugriffs auf Ihr Manifest](#transferring-with-manifest-access).

1. Wählen Sie **Start**, um mit der Übertragung zu beginnen.

### Mit dem AWS CLI
<a name="manifest-starting-task-cli"></a>

1. Kopieren Sie den folgenden `start-task-execution` Befehl:

   ```
   aws datasync start-task-execution \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --manifest-config {
         "Source": {
           "S3": {
               "ManifestObjectPath": "s3-object-key-of-manifest",
               "BucketAccessRoleArn": "bucket-iam-role",
               "S3BucketArn": "amzn-s3-demo-bucket-arn",
               "ManifestObjectVersionId": "manifest-version-to-use" 
           }
         }
     }
   ```

1. Geben Sie für den `--task-arn` Parameter den Amazon-Ressourcennamen (ARN) der Aufgabe an, die Sie starten.

1. Gehen Sie für den `--manifest-config` Parameter wie folgt vor:
   + `ManifestObjectPath`— Geben Sie den S3-Objektschlüssel Ihres Manifests an.
   + `BucketAccessRoleArn`— Geben Sie die IAM-Rolle an, die den DataSync Zugriff auf Ihr Manifest in ihrem S3-Bucket ermöglicht.

     Weitere Informationen finden Sie unter [Bereitstellung des DataSync Zugriffs auf Ihr Manifest](#transferring-with-manifest-access).
   + `S3BucketArn`— Geben Sie den ARN des S3-Buckets an, der Ihr Manifest hostet.
   + `ManifestObjectVersionId`— Geben Sie die Version des Manifests an, die Sie verwenden DataSync möchten.

      DataSync Verwendet standardmäßig die neueste Version des Objekts.

1. Führen Sie den `start-task-execution` Befehl aus, um mit der Übertragung zu beginnen.

## Einschränkungen
<a name="transferring-with-manifest-limitations"></a>
+ Sie können ein Manifest nicht zusammen mit [Filtern](filtering.md) verwenden.
+ Sie können nicht nur ein Verzeichnis oder einen Ordner angeben, um dessen gesamten Inhalt zu übertragen. In diesen Situationen sollten Sie einen [Include-Filter](filtering.md) anstelle eines Manifests verwenden.
+ Sie können die Aufgabenoption **Gelöschte Dateien behalten** (`PreserveDeletedFiles`in der [API](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)) nicht verwenden, um [Dateien oder Objekte im Ziel zu verwalten, die sich nicht in der Quelle befinden](configure-metadata.md). DataSync überträgt nur das, was in Ihrem Manifest aufgeführt ist, und löscht nichts im Ziel.

## Fehlerbehebung
<a name="manifests-troubleshooting"></a>

**Fehler im Zusammenhang mit `HeadObject` oder `GetObjectTagging`**  
Wenn Sie Objekte mit einer bestimmten Version IDs aus einem S3-Bucket übertragen, wird möglicherweise ein Fehler im Zusammenhang mit `HeadObject` oder angezeigt`GetObjectTagging`. Hier ist zum Beispiel ein Fehler im Zusammenhang mit`GetObjectTagging`:

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Wenn Sie einen dieser Fehler sehen, überprüfen Sie, ob die IAM-Rolle, die für den Zugriff auf Ihren S3-Quellspeicherort DataSync verwendet wird, über die folgenden Berechtigungen verfügt:
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Wenn Sie Ihre Rolle mit diesen Berechtigungen aktualisieren müssen, finden Sie weitere Informationen unter[Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](create-s3-location.md#create-role-manually).

**Fehler: `ManifestFileDoesNotExist`**  
Dieser Fehler weist darauf hin, dass eine Datei im Manifest nicht an der Quelle gefunden wurde. Lesen Sie die [Richtlinien](#transferring-with-manifest-guidelines) für die Erstellung eines Manifests.

## Nächste Schritte
<a name="manifests-next-steps"></a>

Falls Sie es noch nicht getan haben, [beginnen Sie mit Ihrer Aufgabe](run-task.md). [Überwachen Sie andernfalls die Aktivität Ihrer Aufgabe](monitoring-overview.md).

# Übertragung bestimmter Dateien, Objekte und Ordner mithilfe von Filtern
<a name="filtering"></a>

AWS DataSync ermöglicht das Anwenden von Filtern, um Daten von Ihrem Quellspeicherort in eine Übertragung ein- oder auszuschließen. Wenn Sie beispielsweise keine temporären Dateien übertragen möchten, die mit enden`.tmp`, können Sie einen Ausschlussfilter erstellen, sodass diese Dateien nicht an Ihren Zielort gelangen.

Sie können in derselben Übertragungsaufgabe eine Kombination aus Ausschluss- und Einschließenfiltern verwenden. Wenn Sie die Filter einer Aufgabe ändern, werden diese Änderungen übernommen, wenn Sie die Aufgabe das nächste Mal ausführen.

## Begriffe, Definitionen und Syntax filtern
<a name="filter-overview"></a>

Machen Sie sich mit den Konzepten rund um das DataSync Filtern vertraut:

**Filter **  
Die gesamte Zeichenfolge, aus der ein bestimmter Filter besteht (z. B. `*.tmp` `|` `*.temp` oder`/folderA|/folderB`).  
Filter bestehen aus Mustern, die durch einen senkrechten Strich (\$1) voneinander getrennt werden. Sie benötigen kein Trennzeichen, wenn Sie Muster in der DataSync Konsole hinzufügen, da Sie jedes Muster separat hinzufügen.  
Bei Filtern wird zwischen Groß- und Kleinschreibung unterschieden. Beispielsweise stimmt der Filter `/folderA` nicht überein`/FolderA`.

**Muster**  
Ein Muster innerhalb eines Filters. `*.tmp`Ist beispielsweise ein Muster, das Teil des `*.tmp` `|` `*.temp` Filters ist. Wenn Ihr Filter mehrere Muster hat, grenzen Sie jedes Muster mit einem senkrechten Strich (\$1) ab.

**Ordner**  
+ Alle Filter beziehen sich auf den Quellverzeichnispfad. Nehmen wir beispielsweise an, dass Sie bei der Erstellung Ihres Quellspeicherorts und Ihrer Aufgabe den Quellpfad `/my_source/` als Quellpfad angeben und den Include-Filter `/transfer_this/` angeben. In diesem Fall werden nur das Verzeichnis `/my_source/transfer_this/` und sein Inhalt DataSync übertragen.
+ Um einen Ordner direkt unter dem Quellverzeichnis anzugeben, fügen Sie vor dem Ordnernamen einen Schrägstrich (/) ein. Im vorangehenden Beispiel wird für das Muster `/transfer_this` anstelle von `transfer_this` verwendet.
+ DataSync interpretiert die folgenden Muster auf dieselbe Weise und entspricht sowohl dem Ordner als auch seinem Inhalt.

  `/dir` 

  `/dir/`
+ Wenn Sie Daten von oder in einen Amazon S3 S3-Bucket übertragen, DataSync behandelt das `/` Zeichen im Objektschlüssel als das Äquivalent eines Ordners in einem Dateisystem.

**Sonderzeichen**  
Nachfolgend finden Sie Sonderzeichen für die Verwendung mit Filtern.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/filtering.html)

## Beispielfilter
<a name="sample-filters"></a>

Die folgenden Beispiele zeigen gängige Filter, die Sie zusammen verwenden können DataSync.

**Anmerkung**  
Die Anzahl der Zeichen, die Sie in einem Filter verwenden können, ist begrenzt. Weitere Informationen finden Sie unter [DataSync Kontingente](datasync-limits.md#task-hard-limits).

**Ausschließen bestimmter Ordner aus dem Quellverzeichnis**  
In einigen Fällen möchten Sie möglicherweise Ordner an Ihrem Quellspeicherort ausschließen, um sie nicht an Ihren Zielspeicherort zu kopieren. Wenn Sie beispielsweise über temporäre work-in-progress Ordner verfügen, können Sie etwa den folgenden Filter verwenden:

`*/.temp`

Um Ordner mit ähnlichem Inhalt (wie `/reports2021` und`/reports2022)`) auszuschließen, können Sie einen Ausschlussfilter wie den folgenden verwenden:

`/reports*`

Um Ordner auf einer beliebigen Ebene in der Dateihierarchie auszuschließen, können Sie einen Ausschlussfilter wie den folgenden verwenden. 

`*/folder-to-exclude-1`\$1`*/folder-to-exclude-2`

Um Ordner auf der obersten Ebene des Quellspeicherorts auszuschließen, können Sie einen Ausschlussfilter wie den folgenden verwenden. 

`/top-level-folder-to-exclude-1`\$1`/top-level-folder-to-exclude-2`

**Schließen Sie eine Teilmenge der Ordner an Ihrem Quellspeicherort ein**  
In einigen Fällen kann es sich bei Ihrem Quellspeicherort um einen großen Anteil handeln, und Sie müssen eine Teilmenge der Ordner unter das Stammverzeichnis übertragen. Um bestimmte Ordner einzuschließen, starten Sie eine Aufgabenausführung mit einem einschließenden Filter wie folgt.

`/folder-to-transfer/*`

**Ausschließen bestimmter Dateitypen**  
Um bestimmte Dateitypen während der Übertragung auszuschließen, können Sie eine Aufgabenausführung mit einem ausschließenden Filter wie `*.temp` erstellen.

**Übertragen Sie einzelne Dateien, die Sie angeben**  
Um eine Liste einzelner Dateien zu übertragen, starten Sie eine Aufgabenausführung mit einem Include-Filter wie dem folgenden: "`/folder/subfolder/file1.txt`\$1 `/folder/subfolder/file2.txt` \$1`/folder/subfolder/file2.txt`“

## Include-Filter erstellen
<a name="include-filters"></a>

Einschlussfilter definieren die Dateien, Objekte und Ordner, die Sie übertragen DataSync möchten. Sie können Einschlussfilter konfigurieren, wenn Sie eine Aufgabe erstellen, bearbeiten oder starten.

DataSync scannt und überträgt nur Dateien und Ordner, die den Einschlussfiltern entsprechen. Um beispielsweise eine Teilmenge Ihrer Quellordner einzubeziehen, können Sie `/important_folder_1` \$1 `/important_folder_2` angeben. 

**Anmerkung**  
Einschließende Filter unterstützen das Platzhalterzeichen (\$1) nur als Zeichen ganz rechts in einem Muster. Zum Beispiel `/code*` wird `/documents*` \$1 unterstützt, aber `*.txt` nicht.

### Verwenden der DataSync Konsole
<a name="include-filters-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Aufgaben** und dann **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie unter **Zu scannende Inhalte** die Option **Bestimmte Dateien, Objekte und Ordner und** anschließend **Filter verwenden** aus.

1. Geben Sie **unter** Eingeschlossen Ihren Filter ein (z. B. `/important_folders` um ein wichtiges Verzeichnis einzubeziehen) und wählen Sie dann **Muster hinzufügen** aus.

1. Fügen Sie nach Bedarf weitere Include-Filter hinzu. 

### Mit dem AWS CLI
<a name="include-filters-cli"></a>

Wenn Sie den Filter verwenden AWS CLI, müssen Sie einfache Anführungszeichen (`'`) und ein \$1 (senkrechter Strich) als Trennzeichen verwenden, wenn Sie mehr als einen Filter haben.

Im folgenden Beispiel werden zwei Include-Filter `/important_folder1` und `/important_folder2` bei der Ausführung des `create-task` Befehls angegeben.

```
aws datasync create-task
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --includes FilterType=SIMPLE_PATTERN,Value='/important_folder1|/important_folder2'
```

## Ausschlussfilter erstellen
<a name="exclude-filters"></a>

Ausschlussfilter definieren die Dateien, Objekte und Ordner an Ihrem Quellspeicherort, die Sie nicht übertragen DataSync möchten. Sie können diese Filter konfigurieren, wenn Sie eine Aufgabe erstellen, bearbeiten oder starten.

**Topics**
+ [Daten sind standardmäßig ausgeschlossen](#directories-ignored-during-transfers)

### Daten sind standardmäßig ausgeschlossen
<a name="directories-ignored-during-transfers"></a>

DataSync schließt einige Daten automatisch von der Übertragung aus:
+ `.snapshot`— DataSync ignoriert alle Pfade, die mit enden`.snapshot`, was normalerweise für point-in-time Schnappschüsse der Dateien oder Verzeichnisse eines Speichersystems verwendet wird.
+ `/.aws-datasync`und `/.awssync` — DataSync erstellt diese Ordner an Ihrem Standort, um Ihre Übertragung zu erleichtern.
+ `/.zfs`— Möglicherweise sehen Sie diesen Ordner bei Amazon FSx für OpenZFS-Speicherorte.

### Verwenden der Konsole DataSync
<a name="adding-exclude-filters"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Wählen Sie im linken Navigationsbereich **Aufgaben** und dann **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Geben Sie **unter Ausschlüsse** Ihren Filter ein (z. B. `*/temp` um temporäre Ordner auszuschließen) und wählen Sie dann **Muster hinzufügen** aus.

1. Fügen Sie nach Bedarf weitere Ausschlussfilter hinzu. 

1. [Fügen Sie bei Bedarf Einschlussfilter](#include-filters) hinzu.

### Mit dem AWS CLI
<a name="adding-exclude-filters-cli"></a>

Wenn Sie den Filter verwenden AWS CLI, müssen Sie einfache Anführungszeichen (`'`) und ein \$1 (senkrechter Strich) als Trennzeichen verwenden, wenn Sie mehr als einen Filter haben. 

Im folgenden Beispiel werden zwei Ausschlussfilter `*/temp` und `*/tmp` bei der Ausführung des `create-task` Befehls angegeben.

```
aws datasync create-task \
   --source-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --destination-location-arn 'arn:aws:datasync:region:account-id:location/location-id' \
   --excludes FilterType=SIMPLE_PATTERN,Value='*/temp|*/tmp'
```

# Verstehen, wie DataSync mit Datei- und Objektmetadaten umgegangen wird
<a name="metadata-copied"></a>

AWS DataSync kann Ihre Datei- oder Objektmetadaten während einer Datenübertragung beibehalten. Wie Ihre Metadaten kopiert werden, hängt von Ihren Übertragungsorten ab und davon, ob diese Speicherorte ähnliche Arten von Metadaten verwenden.

## Metadaten auf Systemebene
<a name="metadata-copied-system-level"></a>

Kopiert im Allgemeinen DataSync keine Metadaten auf Systemebene. Wenn Sie beispielsweise Daten von einem SMB-Dateiserver übertragen, werden die Berechtigungen, die Sie auf Dateisystemebene konfiguriert haben, nicht auf das Zielspeichersystem kopiert.

Es gibt Ausnahmen. DataSync Kopiert bei der Übertragung zwischen Amazon S3 und anderem Objektspeicher einige [systemdefinierte Objektmetadaten](#metadata-copied-between-object-s3).

## Metadaten, die bei Amazon S3 S3-Übertragungen kopiert wurden
<a name="metadata-copied-amazon-s3"></a>

In den folgenden Tabellen wird beschrieben, welche Metadaten kopiert DataSync werden können, wenn eine Übertragung einen Amazon S3 S3-Standort betrifft.

**Topics**
+ [Zu Amazon S3](#metadata-copied-to-s3)
+ [Zwischen Amazon S3 und anderem Objektspeicher](#metadata-copied-between-object-s3)
+ [Zwischen Amazon S3 und HDFS](#metadata-copied-between-hdfs-s3)

### Zu Amazon S3
<a name="metadata-copied-to-s3"></a>


| Beim Kopieren von einem dieser Standorte | Zu diesem Ort | DataSync kann kopieren | 
| --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  Folgendes als Amazon S3 S3-Benutzermetadaten: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html) Die in Amazon S3 S3-Benutzermetadaten gespeicherten Dateimetadaten sind mit NFS-Shares auf File-Gateways kompatibel und verwenden. AWS Storage Gateway Ein File-Gateway ermöglicht den Zugriff mit niedriger Latenz von lokalen Netzwerken auf Daten, die von nach Amazon S3 kopiert wurden. DataSync Diese Metadaten sind auch mit for Lustre kompatibel FSx . Wenn Objekte, die diese Metadaten enthalten, zurück auf einen NFS-Server DataSync kopiert werden, werden die Dateimetadaten wiederhergestellt. Für die Wiederherstellung von Metadaten müssen dem NFS-Server erhöhte Berechtigungen gewährt werden. Weitere Informationen finden Sie unter [Konfiguration von AWS DataSync Übertragungen mit einem NFS-Dateiserver](create-nfs-location.md).  | 

### Zwischen Amazon S3 und anderem Objektspeicher
<a name="metadata-copied-between-object-s3"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)

### Zwischen Amazon S3 und HDFS
<a name="metadata-copied-between-hdfs-s3"></a>


| Beim Kopieren zwischen diesen Speicherorten | DataSync kann kopieren | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  | Folgendes als Amazon S3 S3-Benutzermetadaten:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)HDFS verwendet Zeichenfolgen, um den Besitz von Benutzern und Gruppen für Dateien und Ordner zu speichern, und nicht numerische Kennungen wie und. UIDs GIDs | 

## Bei NFS-Übertragungen kopierte Metadaten
<a name="metadata-copied-nfs"></a>

In der folgenden Tabelle wird beschrieben, welche Metadaten zwischen Speicherorten kopiert werden DataSync können, die das Network File System (NFS) verwenden.


| Beim Kopieren zwischen diesen Speicherorten | DataSync kann kopieren | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  | 

## Metadaten, die bei SMB-Übertragungen kopiert wurden
<a name="metadata-copied-smb"></a>

In der folgenden Tabelle wird beschrieben, welche Metadaten zwischen Speicherorten kopiert werden DataSync können, die Server Message Block (SMB) verwenden.


| Beim Kopieren zwischen diesen Speicherorten | DataSync kann kopieren | 
| --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  | 

## Metadaten, die in anderen Übertragungsszenarien kopiert wurden
<a name="metadata-copied-different"></a>

DataSync verarbeitet Metadaten beim Kopieren zwischen diesen Speichersystemen (von denen die meisten unterschiedliche Metadatenstrukturen haben) auf folgende Weise.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)

## Verstehen, wann und wie DataSync POSIX-Standardmetadaten angewendet werden
<a name="POSIX-metadata"></a>

DataSync wendet POSIX-Standardmetadaten in den folgenden Situationen an:
+ Wenn die Quell- und Zielorte Ihrer Übertragung keine ähnlichen Metadatenstrukturen haben
+ Wenn Metadaten am Quellort fehlen

In der folgenden Tabelle wird beschrieben, wie POSIX-Standardmetadaten bei diesen Arten von Übertragungen DataSync angewendet werden:


| Quelle | Ziel | Dateiberechtigungen | Ordnerberechtigungen | Benutzerkennung (UID) | GID | 
| --- | --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  0755  | 0755 |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/metadata-copied.html)  |  0644  |  0755  |  65534  |  65534  | 

1 In Fällen, in denen die Objekte keine Metadaten haben, die zuvor von angewendet wurden. DataSync

# Links und Verzeichnisse, die kopiert wurden von AWS DataSync
<a name="special-files-copied"></a>

AWS DataSync behandelt Hardlinks, symbolische Links und Verzeichnisse je nach den Speicherorten, die an Ihrer Übertragung beteiligt sind, unterschiedlich.

## Hard-Links
<a name="special-files-copied-hard-links"></a>

So werden Hardlinks in einigen gängigen Übertragungsszenarien DataSync behandelt:
+ **Bei der Übertragung zwischen einem NFS-Dateiserver FSx für Lustre, FSx für OpenZFS, FSx für ONTAP (mit NFS) und Amazon EFS** werden Hardlinks beibehalten.
+ **Bei der Übertragung an Amazon S3** wird jede zugrunde liegende Datei, auf die ein Hardlink verweist, nur einmal übertragen. Bei inkrementellen Übertragungen werden separate Objekte in Ihrem S3-Bucket erstellt. Wenn ein Hardlink in Amazon S3 unverändert ist, wird er korrekt wiederhergestellt, wenn er auf einen NFS-Dateiserver, FSx für Lustre, für OpenZFS, FSx FSx für ONTAP (mit NFS) oder das Amazon EFS-Dateisystem übertragen wird.
+ **Bei der Übertragung an** wird jede zugrunde liegende DateiMicrosoft Azure Blob Storage, auf die ein Hardlink verweist, nur einmal übertragen. Bei inkrementellen Übertragungen werden separate Objekte in Ihrem Blob-Speicher erstellt, wenn die Quelle neue Verweise enthält. Bei der Übertragung von werden Hardlinks so DataSync übertragenAzure Blob Storage, als ob es sich um einzelne Dateien handeln würde.
+ **Bei der Übertragung zwischen einem SMB-Dateiserver, FSx für Windows File Server und FSx für ONTAP (mit SMB)** werden Hardlinks nicht unterstützt. Wenn Sie in diesen Situationen DataSync auf Hardlinks stoßen, wird die Übertragungsaufgabe mit einem Fehler abgeschlossen. Weitere Informationen finden Sie in Ihren CloudWatch Protokollen.
+ **Bei der Übertragung auf HDFS** werden Hardlinks nicht unterstützt. CloudWatch In den Protokollen werden diese Links als übersprungen angezeigt.

## Symbolische Verknüpfungen
<a name="special-files-copied-symbolic-links"></a>

So werden symbolische Links in einigen gängigen Übertragungsszenarien DataSync behandelt:
+ **Bei der Übertragung zwischen einem NFS-Dateiserver FSx für Lustre, für OpenZFS, FSx FSx für ONTAP (mit NFS) und Amazon EFS werden symbolische** Links beibehalten.
+ **Bei der Übertragung zu Amazon S3** wird der Linkzielpfad im Amazon S3 S3-Objekt gespeichert. Der Link wird korrekt wiederhergestellt, wenn er auf einen NFS-Dateiserver, FSx für Lustre, für OpenZFS, FSx FSx für ONTAP oder das Amazon EFS-Dateisystem übertragen wird.
+ **Bei der Übertragung an werden** symbolische Azure Blob Storage Links nicht unterstützt. CloudWatch In den Protokollen werden diese Links als übersprungen angezeigt.
+ **Bei der Übertragung zwischen einem SMB-Dateiserver, FSx für Windows File Server und FSx für ONTAP (mit SMB)** werden symbolische Links nicht unterstützt. DataSync überträgt keinen symbolischen Link selbst, sondern eine Datei, auf die durch den symbolischen Link verwiesen wird. Um doppelte Dateien zu erkennen und sie mit symbolischen Links zu deduplizieren, müssen Sie die Deduplizierung in Ihrem Zieldateisystem konfigurieren.
+ **Bei der Übertragung auf HDFS** werden symbolische Links nicht unterstützt. CloudWatch In den Protokollen werden diese Links als übersprungen angezeigt.

## Verzeichnisse
<a name="special-files-copied-directories"></a>

Im Allgemeinen werden Verzeichnisse bei der Übertragung zwischen Speichersystemen DataSync beibehalten. Dies ist in den folgenden Situationen nicht der Fall:
+ **Bei der Übertragung an Amazon S3** werden Verzeichnisse als leere Objekte dargestellt, die Präfixe haben und mit einem Schrägstrich () `/` enden.
+ **Bei der Übertragung in ein Verzeichnis Azure Blob Storage ohne hierarchischen Namespace existieren** keine Verzeichnisse. Was wie ein Verzeichnis aussieht, ist nur ein Teil eines Objektnamens.

# Konfiguration des Umgangs mit Dateien, Objekten und Metadaten
<a name="configure-metadata"></a>

Sie können konfigurieren, wie Ihre Dateien, Objekte und die zugehörigen Metadaten bei der Übertragung zwischen Speicherorten AWS DataSync behandelt werden.

Bei wiederkehrenden Übertragungen möchten Sie beispielsweise möglicherweise Dateien in Ihrem Ziel mit Änderungen in der Quelle überschreiben, um die Speicherorte synchron zu halten. Sie können Eigenschaften wie POSIX-Berechtigungen für Dateien und Ordner, mit Objekten verknüpfte Tags und Zugriffskontrolllisten () ACLs kopieren.

## Optionen für den Übertragungsmodus
<a name="task-option-transfer-mode"></a>

Sie können konfigurieren, ob nur die Daten (einschließlich Metadaten) DataSync übertragen werden, die nach einer ersten Kopie geändert wurden, oder alle Daten bei jeder Ausführung der Aufgabe. Wenn Sie wiederkehrende Übertragungen planen, möchten Sie möglicherweise nur die Änderungen übertragen, die sich seit der letzten Ausführung der Aufgabe geändert haben.


| Option in der Konsole | Option in der API | Description | 
| --- | --- | --- | 
|  **Übertrage nur Daten, die sich geändert haben**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)eingestellt auf `CHANGED`  | Nach der ersten vollständigen Übertragung werden nur die Daten und Metadaten DataSync kopiert, die sich zwischen dem Quell- und dem Zielort unterscheiden. | 
|  **Alle Daten übertragen**  |  [TransferMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-TransferMode)eingestellt auf `ALL`  |  DataSync kopiert alles in der Quelle in das Ziel, ohne die Unterschiede zwischen den Speicherorten zu vergleichen.   | 

## Optionen für die Datei- und Objektverwaltung
<a name="task-option-file-object-handling"></a>

Sie können einige Aspekte der DataSync Behandlung Ihrer Dateien oder Objekte am Zielort steuern. Sie DataSync können beispielsweise Dateien am Ziel löschen, die sich nicht in der Quelle befinden.


| Option in der Konsole | Option in der API | Description | 
| --- | --- | --- | 
|  **Behalte gelöschte Dateien**  |  [PreserveDeletedFiles](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PreserveDeletedFiles)  |  Gibt an, ob Dateien oder Objekte am Zielspeicherort DataSync verwaltet werden, die in der Quelle nicht vorhanden sind. Wenn Sie Ihre Aufgabe so konfigurieren, dass Objekte aus Ihrem Amazon S3 S3-Bucket gelöscht werden, fallen möglicherweise Gebühren für die Mindestspeicherdauer für bestimmte Speicherklassen an. Weitere Informationen hierzu finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).  Sie können Ihre Aufgabe nicht so konfigurieren, dass Daten im Ziel gelöscht und gleichzeitig [alle Daten übertragen](#task-option-transfer-mode) werden. Wenn Sie alle Daten übertragen, wird Ihr Zielort DataSync nicht gescannt und Sie wissen nicht, was gelöscht werden soll.   | 
|  **Dateien überschreiben**  |  [OverwriteMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-OverwriteMode)  |  Gibt an, ob DataSync Daten im Zielverzeichnis geändert werden, wenn sich die Quelldaten oder Metadaten geändert haben. Wenn Sie Ihre Aufgabe nicht so konfigurieren, dass Daten überschrieben werden, werden die Zieldaten auch dann nicht überschrieben, wenn sich die Quelldaten unterscheiden. Wenn Ihre Aufgabe Objekte überschreibt, fallen möglicherweise zusätzliche Gebühren für bestimmte Speicherklassen an (z. B. für das Abrufen oder vorzeitiges Löschen). Weitere Informationen hierzu finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).  | 

## Optionen für die Handhabung von Metadaten
<a name="task-option-metadata-handling"></a>

DataSync kann Datei- und Objektmetadaten während einer Übertragung beibehalten. Welche Metadaten beibehalten DataSync werden können, hängt von den beteiligten Speichersystemen ab und davon, ob diese Systeme eine ähnliche Metadatenstruktur verwenden.

Stellen Sie vor der Konfiguration Ihrer Aufgabe sicher, dass Sie wissen, wie [Metadaten](metadata-copied.md) und [spezielle Dateien](special-files-copied.md) bei der Übertragung zwischen Ihrem Quell- und Zielspeicherort DataSync behandelt werden.

**Wichtig**  
DataSync unterstützt Übertragungen zu und von bestimmten Cloud-Speichersystemen von Drittanbietern wie Google Cloud Storage und IBM Cloud Object Storage, die Systemmetadaten auf eine Weise verarbeiten, die nicht vollständig S3-kompatibel ist. Bei diesen Übertragungen wird DataSync versucht, Metadatenattribute wie`ContentType`, `ContentEncoding``ContentLanguage`, und nach bestem Wissen `CacheControl` zu kopieren. Wenn das Zielspeichersystem diese Attribute nicht anwendet, werden sie bei der Aufgabenüberprüfung ignoriert.


| Option in der Konsole | Option in der API | Description | 
| --- | --- | --- | 
|  **Besitz kopieren**  | [https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Gid) |  Gibt an, ob der Besitz von POSIX-Dateien und -Ordnern DataSync kopiert wird, z. B. die Gruppen-ID der Eigentümer der Datei und die Benutzer-ID des Besitzers der Datei.  | 
|  **Berechtigungen kopieren**  | [PosixPermissions](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-PosixPermissions) |  Gibt an, ob POSIX-Berechtigungen für Dateien und Ordner von der Quelle zum Ziel DataSync kopiert werden.  | 
| Zeitstempel kopieren | [https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-Atime) |  Gibt an, ob die Zeitstempel-Metadaten von der Quelle zum Ziel DataSync kopiert werden. Erforderlich, wenn Sie eine Aufgabe mehr als einmal ausführen müssen.  | 
| Objekt-Tags kopieren | [ObjectTags](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-ObjectTags) |  Gibt an, DataSync ob die mit Ihren Objekten verknüpften Tags bei der Übertragung zwischen Objektspeichersystemen beibehalten werden.  | 
| Besitz kopieren DACLs, und SACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)gesetzt auf OWNER\$1DACL\$1SACL |  DataSync kopiert Folgendes: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/configure-metadata.html)  | 
| Besitz kopieren und DACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)eingestellt auf OWNER\$1DACL |  DataSync kopiert Folgendes: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/datasync/latest/userguide/configure-metadata.html) DataSync wird nicht kopiert SACLs , wenn Sie diese Option wählen.  | 
| Kopieren Sie nicht das Eigentum oder ACLs | [SecurityDescriptorCopyFlags ](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-SecurityDescriptorCopyFlags)gesetzt auf NONE |  DataSync kopiert keine Eigentums- oder Berechtigungsdaten. Die Objekte, DataSync die an Ihren Zielort schreiben, gehören dem Benutzer, dessen Anmeldeinformationen für den DataSync Zugriff auf das Ziel bereitgestellt wurden. Die Berechtigungen für Zielobjekte werden auf der Grundlage der auf dem Zielserver konfigurierten Berechtigungen bestimmt.  | 

## Konfiguration der Optionen für die Handhabung von Dateien, Objekten und Metadaten
<a name="configure-file-metadata-options"></a>

Sie können konfigurieren, wie Dateien, Objekte und Metadaten DataSync behandelt werden, wenn Sie Ihre Übertragungsaufgabe erstellen, bearbeiten oder starten.

### Verwenden der DataSync Konsole
<a name="configure-metadata-console"></a>

In den folgenden Anweisungen wird beschrieben, wie Sie beim Erstellen einer Aufgabe Optionen für die Verarbeitung von Dateien, Objekten und Metadaten konfigurieren.

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie für **den Übertragungsmodus** eine der folgenden Optionen:
   + **Nur Daten übertragen, die sich geändert haben**
   + **Alle Daten übertragen**

   Weitere Informationen zu diesen Optionen finden Sie unter [Optionen für den Übertragungsmodus](#task-option-transfer-mode).

1. Wählen Sie **Gelöschte Dateien behalten** DataSync , wenn Sie Dateien oder Objekte am Zielort behalten möchten, die in der Quelle nicht vorhanden sind.

   Wenn Sie diese Option nicht wählen und Ihre Aufgabe Objekte aus Ihrem Amazon S3 S3-Bucket löscht, fallen möglicherweise Gebühren für die Mindestspeicherdauer für bestimmte Speicherklassen an. Weitere Informationen hierzu finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).
**Warnung**  
Sie können diese Option nicht abwählen und die Option Alle Daten **übertragen** aktivieren. Wenn Sie alle Daten übertragen, wird Ihr Zielort DataSync nicht gescannt und Sie wissen nicht, was gelöscht werden soll.

1. Wählen Sie **Dateien überschreiben**, wenn Sie Daten am Zielort ändern DataSync möchten, wenn sich die Quelldaten oder Metadaten geändert haben.

   Wenn Ihre Aufgabe Objekte überschreibt, fallen möglicherweise zusätzliche Gebühren für bestimmte Speicherklassen an (z. B. für das Abrufen oder vorzeitiges Löschen). Weitere Informationen hierzu finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).

   Wenn Sie diese Option nicht wählen, werden die Zieldaten auch dann nicht überschrieben, wenn sich die Quelldaten unterscheiden.

1. Wählen Sie unter **Übertragungsoptionen** aus, wie Sie mit Metadaten umgehen DataSync möchten. Weitere Informationen zu diesen Optionen finden Sie unter [Optionen für die Handhabung von Metadaten](#task-option-metadata-handling).
**Wichtig**  
Die Optionen, die Ihnen in der Konsole angezeigt werden, hängen von den Quell- und Zielorten Ihrer Aufgabe ab. Möglicherweise müssen Sie **Zusätzliche Einstellungen** erweitern, um einige dieser Optionen zu sehen.
   + **Besitz kopieren**
   + **Berechtigungen kopieren**
   + **Zeitstempel kopieren**
   + **Objekt-Tags kopieren**
   + **Besitz kopieren DACLs, und SACLs**
   + **Besitz kopieren und DACLs**
   + **Kopieren Sie nicht das Eigentum oder ACLs**

### Verwenden der DataSync API
<a name="configure-file-metadata-options-api"></a>

Sie können Optionen für die Verarbeitung von Dateien, Objekten und Metadaten konfigurieren, indem Sie den `Options` Parameter mit einer der folgenden Operationen verwenden:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)

# Konfiguration, wie AWS DataSync die Datenintegrität überprüft wird
<a name="configure-data-verification-options"></a>

 AWS DataSync Verwendet während einer Übertragung die Prüfsummenüberprüfung, um die Integrität der Daten zu überprüfen, die Sie zwischen Speicherorten kopieren. Sie können auch so konfigurieren DataSync , dass am Ende Ihrer Übertragung eine zusätzliche Überprüfung durchgeführt wird.

## Optionen zur Datenüberprüfung
<a name="data-verification-options"></a>

Verwenden Sie die folgenden Informationen, um zu entscheiden, ob und wie Sie diese zusätzlichen Prüfungen durchführen DataSync möchten.


| Konsolenoption | API-Option | Description | 
| --- | --- | --- | 
|  **Überprüfen Sie nur übertragene Daten** (empfohlen)  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)eingestellt auf `ONLY_FILES_TRANSFERRED`  |  DataSync berechnet die Prüfsumme der übertragenen Daten (einschließlich Metadaten) am Quellspeicherort. Vergleicht am Ende Ihrer Übertragung diese Prüfsumme mit der Prüfsumme, die DataSync anhand derselben Daten am Ziel berechnet wurde. Wir empfehlen diese Option bei der Übertragung in die Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive. Weitere Informationen finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).  | 
|  **Überprüfen Sie alle Daten**  |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)eingestellt auf `POINT_IN_TIME_CONSISTENT`  |   DataSync Überprüft am Ende Ihrer Übertragung die gesamte Quelle und das Ziel, um sicherzustellen, dass beide Standorte vollständig synchronisiert sind.  Wird nicht unterstützt, wenn Ihre Aufgabe den [erweiterten Modus](choosing-task-mode.md) verwendet.  Wenn Sie ein [Manifest](transferring-with-manifest.md) verwenden, wird DataSync nur gescannt und verifiziert, was im Manifest aufgeführt ist. Sie können diese Option nicht verwenden, wenn Sie zu den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive übertragen. Weitere Informationen finden Sie unter [Überlegungen zur Speicherklasse bei Amazon S3 S3-Übertragungen](create-s3-location.md#using-storage-classes).   | 
| Überprüfen Sie die Daten nach der Übertragung nicht |  [VerifyMode](https://docs.aws.amazon.com/datasync/latest/userguide/API_Options.html#DataSync-Type-Options-VerifyMode)eingestellt auf `NONE`  | DataSync führt Datenintegritätsprüfungen nur während der Übertragung durch. Im Gegensatz zu anderen Optionen erfolgt am Ende Ihrer Übertragung keine zusätzliche Überprüfung. | 

## Konfiguration der Datenüberprüfung
<a name="configure-data-verification"></a>

Sie können Optionen zur Datenüberprüfung konfigurieren, wenn Sie eine Aufgabe erstellen, eine Aufgabe aktualisieren oder eine Aufgabenausführung starten.

### Verwenden der DataSync Konsole
<a name="configure-data-verification-options-console"></a>

In den folgenden Anweisungen wird beschrieben, wie Sie die Datenüberprüfungsoptionen beim Erstellen einer Aufgabe konfigurieren.

**So konfigurieren Sie die Datenüberprüfung mithilfe der Konsole**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie für die **Überprüfung** eine der folgenden Optionen:
   + **Überprüfen Sie nur übertragene Daten** (empfohlen)
   + **Überprüfen Sie alle Daten**
   + **Überprüfen Sie die Daten nach der Übertragung nicht**

### Verwenden der DataSync API
<a name="configure-data-verification-options-api"></a>

Sie können konfigurieren, wie Daten DataSync überprüft werden, indem Sie den `VerifyMode` Parameter mit einer der folgenden Operationen verwenden:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

# Legen Sie Bandbreitenlimits für Ihre Aufgabe fest AWS DataSync
<a name="configure-bandwidth"></a>

Sie können Netzwerkbandbreitenbeschränkungen für Ihre AWS DataSync Aufgabe und jede ihrer Ausführungen konfigurieren.

## Beschränken der Bandbreite für eine Aufgabe
<a name="configure-bandwidth-create"></a>

Legen Sie ein Bandbreitenlimit fest, wenn Sie eine Aufgabe erstellen, bearbeiten oder starten.

### Verwenden der DataSync Konsole
<a name="configure-bandwidth-create-console"></a>

In den folgenden Anweisungen wird beschrieben, wie Sie ein Bandbreitenlimit für Ihre Aufgabe konfigurieren, wenn Sie sie erstellen.

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie **unter Bandbreitenlimit** eine der folgenden Optionen:
   + Wählen Sie **Verfügbare verwenden** aus, um die gesamte verfügbare Netzwerkbandbreite für jede Aufgabenausführung zu verwenden.
   + Wählen Sie **Bandbreitenlimit (MiB/s) festlegen** und geben Sie die maximale Bandbreite ein, die Sie für jede Aufgabenausführung verwenden DataSync möchten.

### Verwenden der API DataSync
<a name="configure-bandwidth-create-api"></a>

Sie können das Bandbreitenlimit einer Aufgabe konfigurieren, indem Sie den `BytesPerSecond` Parameter mit einer der folgenden Operationen verwenden:
+ [CreateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_CreateTask.html)
+ [UpdateTask](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTask.html)
+ [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)

## Drosselung der Bandbreite für die Ausführung einer Aufgabe
<a name="adjust-bandwidth-throttling"></a>

Sie können das Bandbreitenlimit für die Ausführung einer laufenden Aufgabe oder für die Ausführung in der Warteschlange ändern.

### Verwenden der Konsole DataSync
<a name="adjust-bandwidth-throttling-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im Navigationsbereich die Option **Datenübertragung**. Wählen Sie dann **Aufgaben** aus.

1. Wählen Sie die Aufgabe und dann **Verlauf** aus, um die Ausführungen der Aufgabe anzuzeigen.

1. Wählen Sie die Aufgabenausführung aus, die Sie ändern möchten, und klicken Sie dann auf **Bearbeiten**.

1. Wählen Sie im Dialogfeld eine der folgenden Optionen:
   + Wählen Sie **Verfügbare verwenden**, um die gesamte verfügbare Netzwerkbandbreite für die Ausführung der Aufgabe zu verwenden.
   + Wählen Sie **Bandbreitenlimit (MiB/s) festlegen** und geben Sie die maximale Bandbreite ein, die Sie für die Aufgabenausführung verwenden DataSync möchten.

1. Wählen Sie **Änderungen speichern ** aus.

   Das neue Bandbreitenlimit wird innerhalb von 60 Sekunden wirksam.

### Verwenden der DataSync API
<a name="adjust-bandwidth-throttling-api"></a>

Sie können das Bandbreitenlimit für die Ausführung einer laufenden oder in der Warteschlange befindlichen Aufgabe ändern, indem Sie den `BytesPerSecond` Parameter zusammen mit dem [UpdateTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_UpdateTaskExecution.html)Vorgang verwenden.

# Planen, wann Ihre AWS DataSync Aufgabe ausgeführt wird
<a name="task-scheduling"></a>

Sie können einen AWS DataSync Taskplan für die regelmäßige Übertragung von Daten zwischen Speicherorten einrichten.

## Wie funktioniert die DataSync Aufgabenplanung
<a name="how-task-scheduling-works"></a>

Eine geplante DataSync Aufgabe wird mit einer von Ihnen angegebenen Häufigkeit ausgeführt, wobei das Mindestintervall 1 Stunde beträgt. Sie können einen Task-Zeitplan erstellen, indem Sie einen Cron- oder Rate-Ausdruck verwenden.

**Wichtig**  
Sie können eine Aufgabe nicht so planen, dass sie in einem Intervall von weniger als einer Stunde ausgeführt wird.

**Verwenden von Cron-Ausdrücken**  
Verwenden Sie Cron-Ausdrücke für Aufgabenpläne, die zu einer bestimmten Uhrzeit und an einem bestimmten Tag ausgeführt werden. So können Sie beispielsweise einen Task-Zeitplan konfigurieren AWS CLI , der jeden Sonntag und Mittwoch um 12:00 Uhr UTC läuft.  

```
cron(0 12 ? * SUN,WED *)
```

**Verwenden von Preisausdrücken**  
Verwenden Sie Ratenausdrücke für Aufgabenpläne, die in regelmäßigen Abständen ausgeführt werden, z. B. alle 12 Stunden. So können Sie beispielsweise einen Task-Zeitplan konfigurieren AWS CLI , der alle 12 Stunden ausgeführt wird:  

```
rate(12 hours)
```

**Tipp**  
Weitere Informationen zur Syntax von Cron- und Rate-Ausdrücken finden Sie im [https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-cron-expressions.html).

## Einen DataSync Aufgabenplan erstellen
<a name="configure-task-schedule"></a>

Sie können mithilfe der DataSync Konsole oder der DataSync API planen AWS CLI, wie oft Ihre Aufgabe ausgeführt wird.

### Mithilfe der DataSync Konsole
<a name="configure-task-schedule-console"></a>

In den folgenden Anweisungen wird beschrieben, wie Sie beim Erstellen einer Aufgabe einen Zeitplan einrichten. Sie können den Zeitplan später ändern, wenn Sie die Aufgabe bearbeiten.

In der Konsole können Sie mit einigen Planungsoptionen die genaue Uhrzeit angeben, zu der Ihre Aufgabe ausgeführt wird (z. B. täglich um 22:30 Uhr). Wenn Sie für diese Optionen keine Uhrzeit angeben, wird Ihre Aufgabe zu dem Zeitpunkt ausgeführt, zu dem Sie die Aufgabe erstellen (oder aktualisieren).

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md)

1. Führen Sie für die **Zeitplanhäufigkeit** einen der folgenden Schritte aus:
   + Wählen Sie **Nicht geplant**, wenn Sie nicht möchten, dass Ihre Aufgabe nach einem Zeitplan ausgeführt wird.
   + Wählen Sie **Stündlich** und dann die Minute während der Stunde aus, in der Ihre Aufgabe ausgeführt werden soll. 
   + Wählen Sie **Täglich** und geben Sie die UTC-Zeit ein, zu der Ihre Aufgabe ausgeführt werden soll.
   + Wählen Sie **Wöchentlich** und den Wochentag und geben Sie die UTC-Zeit ein, zu der die Aufgabe ausgeführt werden soll.
   + Wählen Sie **Wochentage**, wählen Sie einen oder mehrere bestimmte Tage und geben Sie die UTC-Zeit, zu der die Aufgabe ausgeführt werden soll, im Format HH:MM ein.
   + **Wählen Sie **Benutzerdefiniert** und dann **Cron-Ausdruck oder Rate-Ausdruck** aus.** Geben Sie Ihren Aufgabenplan mit einem Mindestintervall von 1 Stunde ein. 

### Verwenden Sie den AWS CLI
<a name="configure-task-schedule-api"></a>

Sie können einen Zeitplan für Ihre DataSync Aufgabe erstellen, indem Sie den `--schedule` Parameter mit dem `start-task-execution` Befehl `create-task``update-task`, oder verwenden.

In den folgenden Anweisungen wird beschrieben, wie Sie dies mit dem `create-task` Befehl tun können.

1. Kopieren Sie den folgenden `create-task` Befehl:

   ```
   aws datasync create-task \
     --source-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-12345678abcdefgh \
     --destination-location-arn arn:aws:datasync:us-east-1:123456789012:location/loc-abcdefgh12345678 \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)"
     }'
   ```

1. Geben Sie für den `--source-location-arn` Parameter den Amazon-Ressourcennamen (ARN) des Standorts an, von dem Sie Daten übertragen.

1. Geben Sie für den `--destination-location-arn` Parameter den ARN des Standorts an, an den Sie Daten übertragen.

1. Geben Sie für den `--schedule` Parameter einen Cron- oder Rate-Ausdruck für Ihren Zeitplan an.

   In diesem Beispiel `cron(0 12 ? * SUN,WED *)` legt der Cron-Ausdruck einen Task-Zeitplan fest, der jeden Sonntag und Mittwoch um 12:00 Uhr UTC ausgeführt wird.

1. Führen Sie den `create-task` Befehl aus, um Ihre Aufgabe mit dem Zeitplan zu erstellen.

## Einen Task-Zeitplan pausieren DataSync
<a name="pause-task-schedule"></a>

Es kann Situationen geben, in denen Sie Ihren DataSync Taskplan pausieren müssen. Beispielsweise müssen Sie möglicherweise eine wiederkehrende Übertragung vorübergehend deaktivieren, um ein Problem mit Ihrer Aufgabe zu beheben oder Wartungsarbeiten an Ihrem Speichersystem durchzuführen.

DataSync könnte Ihren Taskplan aus den folgenden Gründen automatisch deaktivieren:
+ Ihre Aufgabe schlägt wiederholt mit demselben Fehler fehl.
+ Sie [deaktivieren einen AWS-Region](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html), den Ihre Aufgabe verwendet.

### Verwenden Sie die DataSync Konsole
<a name="pause-scheduled-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, und wählen Sie dann **Aufgaben** aus.

1. Wählen Sie die Aufgabe aus, für die Sie den Zeitplan unterbrechen möchten, und klicken Sie dann auf **Bearbeiten**.

1. Deaktivieren Sie für **Zeitplan** die Option **Zeitplan aktivieren**. Wählen Sie **Änderungen speichern**.

### Verwenden des AWS CLI
<a name="pause-scheduled-task-cli"></a>

1. Kopieren Sie den folgenden `update-task` Befehl:

   ```
   aws datasync update-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh \
     --schedule '{
       "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
       "Status": "DISABLED"
     }'
   ```

1. Geben Sie für den `--task-arn` Parameter den ARN der Aufgabe an, für die Sie den Zeitplan unterbrechen möchten.

1. Gehen Sie für den `--schedule` Parameter wie folgt vor:
   + Geben Sie für `ScheduleExpression` einen Cron- oder Rate-Ausdruck für Ihren Zeitplan an.

     Im Beispiel `cron(0 12 ? * SUN,WED *)` legt der Ausdruck einen Task-Zeitplan fest, der jeden Sonntag und Mittwoch um 12:00 Uhr UTC ausgeführt wird.
   + Geben Sie für `DISABLED` an`Status`, dass der Taskplan angehalten werden soll.

1. Führen Sie den Befehl `update-task` aus.

1. Um den Zeitplan wieder aufzunehmen, führen Sie denselben `update-task` Befehl mit der `Status` Einstellung auf aus`ENABLED`.

## Überprüfen Sie den Status eines DataSync Task-Zeitplans
<a name="check-scheduled-task"></a>

Sie können sehen, ob Ihr DataSync Taskplan aktiviert ist. 

### Verwenden der DataSync Konsole
<a name="check-scheduled-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, und wählen Sie dann **Aufgaben** aus.

1. Überprüfen Sie in der Spalte **Zeitplan**, ob der Zeitplan der Aufgabe aktiviert oder deaktiviert ist.

### Verwenden Sie den AWS CLI
<a name="check-scheduled-task-cli"></a>

1. Kopieren Sie den folgenden `describe-task` Befehl:

   ```
   aws datasync describe-task \
     --task-arn arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh
   ```

1. Geben Sie für den `--task-arn` Parameter den ARN der Aufgabe an, zu der Sie Informationen benötigen.

1. Führen Sie den Befehl `describe-task` aus.

Sie erhalten eine Antwort mit Details zu Ihrer Aufgabe, einschließlich ihres Zeitplans. (Das folgende Beispiel konzentriert sich hauptsächlich auf die Konfiguration des Taskplans und zeigt keine vollständige `describe-task` Antwort.)

Das Beispiel zeigt, dass der Zeitplan der Aufgabe manuell deaktiviert wurde. Wenn der Zeitplan von deaktiviert ist DataSync `SERVICE`, wird eine Fehlermeldung angezeigt, die Ihnen hilft `DisabledReason` zu verstehen, warum die Aufgabe immer wieder fehlschlägt. Weitere Informationen finden Sie unter [AWS DataSync Probleme beheben](troubleshooting-datasync.md).

```
{
    "TaskArn": "arn:aws:datasync:us-east-1:123456789012:task/task-12345678abcdefgh",
    "Status": "AVAILABLE",
    "Schedule": {
        "ScheduleExpression": "cron(0 12 ? * SUN,WED *)",
        "Status": "DISABLED",
        "StatusUpdateTime": 1697736000,
        "DisabledBy": "USER",
        "DisabledReason": "Manually disabled by user."
    },
    ...
}
```

# Ihre Aufgaben taggen AWS DataSync
<a name="tagging-tasks"></a>

*Stichwörter* sind Schlüssel-Wert-Paare, die Ihnen helfen, Ihre AWS DataSync Ressourcen zu verwalten, zu filtern und nach ihnen zu suchen. Sie können jeder DataSync Aufgabe und Aufgabenausführung bis zu 50 Tags hinzufügen.

Sie können beispielsweise eine Aufgabe für eine umfangreiche Datenmigration erstellen und die Aufgabe mit dem Schlüssel **Project** und dem Wert kennzeichnen**Large Migration**. Um die Migration weiter zu organisieren, könnten Sie eine Ausführung der Aufgabe mit dem Schlüssel **Transfer Date** und dem Wert kennzeichnen **May 2021** (nachfolgende Aufgabenausführungen könnten gekennzeichnet werden **June 2021****July 2021**, usw.).

## Ihre Aufgabe taggen DataSync
<a name="tagging-tasks-console"></a>

Sie können Ihre DataSync Aufgabe nur markieren, wenn Sie die Aufgabe erstellen.

### Verwenden der DataSync Konsole
<a name="tagging-tasks-console-steps"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung**, wählen Sie dann **Aufgaben** und anschließend **Aufgabe erstellen** aus.

1. Konfigurieren Sie die Quell- und Zielorte Ihrer Aufgabe.

   Weitere Informationen finden Sie unter [Mit wem kann ich meine Daten übertragen AWS DataSync?](working-with-locations.md).

1. Wählen Sie auf der Seite **Einstellungen konfigurieren** die Option **Neues Tag hinzufügen** aus, um Ihre Aufgabe zu taggen.

### Verwenden Sie den AWS CLI
<a name="tagging-tasks-cli-steps"></a>

1. Kopieren Sie den folgenden `create-task` Befehl:

   ```
   aws datasync create-task \
       --source-location-arn 'arn:aws:datasync:region:account-id:location/source-location-id' \
       --destination-location-arn 'arn:aws:datasync:region:account-id:location/destination-location-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Geben Sie im Befehl die folgenden Parameter an:
   + `--source-location-arn`— Geben Sie den Amazon-Ressourcennamen (ARN) des Quellstandorts in Ihrer Übertragung an.
   + `--destination-location-arn`— Geben Sie bei Ihrer Übertragung den ARN des Zielorts an.
   + `--tags`— Geben Sie die Tags an, die Sie auf die Aufgabe anwenden möchten.

     Bei mehr als einem Tag trennen Sie jedes Schlüssel-Wert-Paar durch ein Leerzeichen.

1. (Optional) Geben Sie weitere Parameter an, die für Ihr Übertragungsszenario sinnvoll sind.

   Eine Liste von `--options` finden Sie im Befehl [create-task](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/create-task.html).

1. Führen Sie den Befehl `create-task` aus.

   Sie erhalten eine Antwort, in der die Aufgabe angezeigt wird, die Sie gerade erstellt haben.

   ```
   {
       "TaskArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Um die Tags anzuzeigen, die Sie zu dieser Aufgabe hinzugefügt haben, können Sie den [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)Befehl verwenden.

## Markieren Sie Ihre DataSync Aufgabenausführung
<a name="tagging-task-executions-console"></a>

Sie können jeden Lauf Ihrer DataSync Aufgabe taggen.

Wenn Ihre Aufgabe bereits über Tags verfügt, sollten Sie Folgendes zur Verwendung von Tags bei Aufgabenausführungen beachten:
+ Wenn Sie Ihre Aufgabe mit der Konsole starten, werden die von Benutzern erstellten Tags automatisch auf die Aufgabenausführung angewendet. Vom System erstellte Tags, die mit beginnen, `aws:` werden jedoch nicht angewendet.
+ Wenn Sie Ihre Aufgabe mit der DataSync API oder starten AWS CLI, werden deren Tags nicht automatisch auf die Aufgabenausführung angewendet.

### Verwenden der DataSync Konsole
<a name="tagging-task-executions-console"></a>

Um einer Aufgabenausführung Tags hinzuzufügen, zu bearbeiten oder zu entfernen, müssen Sie die Aufgabe mit überschreibenden Optionen starten.

1. Öffnen Sie die AWS DataSync Konsole unter. [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/)

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Aufgaben** aus.

1. Wählen Sie die Aufgabe

1. Wählen Sie **Start** und anschließend eine der folgenden Optionen: 
   + **Mit Standardeinstellungen beginnen** — Wendet alle mit Ihrer Aufgabe verknüpften Tags an.
   + **Mit überschreibenden Optionen beginnen** — Ermöglicht es Ihnen, Tags für diese spezielle Aufgabenausführung hinzuzufügen, zu bearbeiten oder zu entfernen.

### Mit dem AWS CLI
<a name="tagging-task-executions-cli"></a>

1. Kopieren Sie den folgenden `start-task-execution` Befehl:

   ```
   aws datasync start-task-execution \
       --task-arn 'arn:aws:datasync:region:account-id:task/task-id' \
       --tags Key=tag-key,Value=tag-value
   ```

1. Geben Sie im Befehl die folgenden Parameter an:
   + `--task-arn`— Geben Sie den ARN der Aufgabe an, die Sie starten möchten.
   + `--tags`— Geben Sie die Tags an, die Sie auf diese spezielle Ausführung der Aufgabe anwenden möchten.

     Bei mehr als einem Tag trennen Sie jedes Schlüssel-Wert-Paar durch ein Leerzeichen.

1. (Optional) Geben Sie weitere Parameter an, die für Ihre Situation sinnvoll sind.

   Weitere Informationen finden Sie unter [start-task-execution](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/start-task-execution.html)-Befehl.

1. Führen Sie den Befehl `start-task-execution` aus.

   Sie erhalten eine Antwort, in der die Aufgabenausführung angezeigt wird, die Sie gerade gestartet haben.

   ```
   {
       "TaskExecutionArn": "arn:aws:datasync:us-east-2:123456789012:task/task-abcdef01234567890"
   }
   ```

Um die Tags anzuzeigen, die Sie zu dieser Aufgabe hinzugefügt haben, können Sie den [list-tags-for-resource](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/datasync/list-tags-for-resource.html)Befehl verwenden.

# Eine Aufgabe zur Übertragung Ihrer Daten starten
<a name="run-task"></a>

Sobald Sie Ihre AWS DataSync Übertragungsaufgabe erstellt haben, können Sie mit dem Verschieben von Daten beginnen. Jede Ausführung einer Aufgabe wird als *Aufgabenausführung* bezeichnet. Hinweise dazu, was bei der Ausführung einer Aufgabe passiert, finden Sie unter[Wie werden Dateien, Objekte und Verzeichnisse DataSync übertragen](how-datasync-transfer-works.md#transferring-files).

**Wichtig**  
Wenn Sie planen, Daten zu oder von einem Amazon S3 S3-Standort zu übertragen, lesen Sie zunächst, [wie sich dies auf Ihre S3-Anforderungsgebühren auswirken DataSync kann](create-s3-location.md#create-s3-location-s3-requests), sowie auf der [DataSync Preisseite](https://aws.amazon.com/datasync/pricing/).

## Starten Sie Ihre Aufgabe
<a name="starting-task"></a>

Sobald Sie Ihre Aufgabe erstellt haben, können Sie sofort mit dem Verschieben von Daten beginnen.

### Verwenden der DataSync Konsole
<a name="starting-task-console"></a>

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Aufgaben** aus.

1. Wählen Sie die Aufgabe aus, die Sie ausführen möchten.

   Stellen Sie sicher, dass die Aufgabe den Status **Verfügbar** hat. Sie können auch mehrere Aufgaben auswählen.

1. Wählen Sie **Aktionen** und dann eine der folgenden Optionen:
   + **Start** — Führt die Aufgabe aus (oder Aufgaben, falls Sie mehrere ausgewählt haben).
   + **Mit überschreibenden Optionen beginnen** — Ermöglicht es Ihnen, einige Ihrer Aufgabeneinstellungen zu ändern, bevor Sie mit dem Verschieben von Daten beginnen. Wenn Sie bereit sind, wählen Sie **Start**.

1. Wählen **Sie Ausführungsdetails** anzeigen, um Details zur Ausführung der laufenden Aufgabe anzuzeigen.

### Verwenden Sie den AWS CLI
<a name="start-task-execution"></a>

Um Ihre DataSync Aufgabe zu starten, müssen Sie nur den Amazon-Ressourcennamen (ARN) der Aufgabe angeben, die Sie ausführen möchten. Hier ist ein `start-task-execution` Beispielbefehl:

```
aws datasync start-task-execution \
    --task-arn 'arn:aws:datasync:region:account-id:task/task-id'
```

Im folgenden Beispiel wird eine Aufgabe mit einigen Einstellungen gestartet, die sich von den Standardeinstellungen der Aufgabe unterscheiden:

```
aws datasync start-task-execution \
    --override-options VerifyMode=NONE,OverwriteMode=NEVER,PosixPermissions=NONE
```

Der Befehl gibt einen ARN für Ihre Aufgabenausführung zurück, der dem folgenden Beispiel ähnelt:

```
{ 
    "TaskExecutionArn": "arn:aws:datasync:us-east-1:209870788375:task/task-08de6e6697796f026/execution/exec-04ce9d516d69bd52f"
}
```

**Anmerkung**  
Jeder Agent kann jeweils eine einzelne Aufgabe ausführen.

### Verwenden der DataSync API
<a name="starting-task-api"></a>

Sie können Ihre Aufgabe mithilfe der [StartTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_StartTaskExecution.html)Operation starten. Verwenden Sie den [DescribeTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeTaskExecution.html)Vorgang, um Details zur Ausführung der laufenden Aufgabe abzurufen.

Nach dem Start können Sie den [Status der Aufgabenausführung überprüfen](#understand-task-execution-statuses), während Ihre Daten DataSync kopiert werden. Sie können bei Bedarf auch [die Bandbreite der Aufgabenausführung drosseln](configure-bandwidth.md#adjust-bandwidth-throttling).

## Status der Aufgabenausführung
<a name="understand-task-execution-statuses"></a>

Wenn Sie eine DataSync Aufgabe starten, werden Ihnen möglicherweise diese Status angezeigt. (Der [Status von Aufgaben](create-task-how-to.md#understand-task-creation-statuses) unterscheidet sich vom Status der Aufgabenausführung.)


| Status der Konsole | API-Status | Beschreibung | 
| --- | --- | --- | 
|  In der Warteschlange  |  `QUEUED`  |  Eine weitere Aufgabenausführung läuft und verwendet denselben DataSync Agenten. Weitere Informationen finden Sie unter [Wissen Sie, wann sich Ihre Aufgabe in der Warteschlange befindet](#queue-task-execution).  | 
|  Wird gestartet  |  `LAUNCHING`  |  DataSync initialisiert die Ausführung der Aufgabe. Dieser Status vergeht normalerweise schnell, kann aber bis zu ein paar Minuten dauern.  | 
| Gestartet | `LAUNCHED` | DataSync hat die Ausführung der Aufgabe gestartet. | 
|  Schalten Sie die &Snowball;-Appliance ein, indem Sie auf den Ein-/Aus-Schalter über dem E-Ink-Display drücken.  |  `PREPARING`  |  DataSync bestimmt, welche Daten übertragen werden sollen. Die Vorbereitung kann nur wenige Minuten, einige Stunden oder sogar länger dauern, abhängig von der Anzahl der Dateien, Objekte oder Verzeichnisse an beiden Speicherorten und davon, wie Sie Ihre Aufgabe konfigurieren. Wie die Vorbereitung funktioniert, hängt auch von Ihrem Aufgabenmodus ab. Weitere Informationen finden Sie unter [Wie wird Ihre Datenübertragung DataSync vorbereitet](how-datasync-transfer-works.md#how-datasync-prepares).  | 
|  Übertragung  |  `TRANSFERRING`  |  DataSync führt die eigentliche Datenübertragung durch.  | 
|  Wird überprüft  |  `VERIFYING`  |  DataSync überprüft die Integrität Ihrer Daten am Ende der Übertragung.  | 
|  Herzlichen Glückwunsch  |  `SUCCESS`  |  Die Ausführung der Aufgabe war erfolgreich.  | 
|  Abbrechen  |  `CANCELLING`  | Die Ausführung der Aufgabe wird gerade abgebrochen. | 
|  Fehler  |  `ERROR`  |  Die Ausführung der Aufgabe ist fehlgeschlagen.  | 

## Wissen Sie, wann sich Ihre Aufgabe in der Warteschlange befindet
<a name="queue-task-execution"></a>

Wenn Sie mehrere Aufgaben ausführen (z. B. wenn Sie [einen großen Datensatz übertragen](create-task-how-to.md#multiple-tasks-large-dataset)), werden die Aufgaben DataSync möglicherweise in eine Warteschlange gestellt, sodass sie nacheinander ausgeführt werden (first in, first out). Einige Beispiele dafür, wann dies passiert, sind:
+ Sie führen verschiedene Aufgaben aus, die denselben DataSync Agenten verwenden. Sie können zwar denselben Agenten für mehrere Aufgaben verwenden, ein Agent kann jedoch jeweils nur eine Aufgabe ausführen.
+ Eine Aufgabenausführung ist im Gange und Sie starten weitere Ausführungen derselben Aufgabe mithilfe verschiedener [Filter](filtering.md) oder [Manifeste](transferring-with-manifest.md).

In jedem Beispiel beginnen die Aufgaben in der Warteschlange erst, wenn die Aufgabe, die vor ihnen liegt, beendet ist.

## Die Ausführung Ihrer Aufgabe wird abgebrochen
<a name="cancel-running-task"></a>

 Sie können jede Ausführung von laufenden Aufgaben oder DataSync Aufgaben in der Warteschlange beenden. 

**Um eine Aufgabenausführung mithilfe der Konsole abzubrechen**

1. Öffnen Sie die AWS DataSync Konsole unter [https://console.aws.amazon.com/datasync/](https://console.aws.amazon.com/datasync/).

1. Erweitern Sie im linken Navigationsbereich die Option **Datenübertragung** und wählen Sie dann **Aufgaben** aus.

1. Wählen Sie die **Task-ID** für die laufende Aufgabe aus, die Sie überwachen möchten.

   Der Aufgabenstatus sollte „Wird **ausgeführt“ lauten**.

1. Wählen Sie **Verlauf**, um die Ausführungen der Aufgabe anzuzeigen.

1. Wählen Sie die Aufgabenausführung aus, die Sie beenden möchten, und klicken Sie dann **auf Beenden**.

1. Wählen Sie im Dialogfeld die Option **Beenden** aus.

Informationen zum Abbrechen einer laufenden oder in der Warteschlange befindlichen Aufgabe mithilfe der DataSync API finden Sie unter [CancelTaskExecution](https://docs.aws.amazon.com/datasync/latest/userguide/API_CancelTaskExecution.html).

### Automatisches Abbrechen von hängengebliebenen Aufgaben
<a name="auto-cancel-stuck-tasks"></a>

Manchmal kann die Ausführung einer laufenden DataSync Aufgabe hängen bleiben. 