

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# AWS DataSync Probleme beheben
<a name="troubleshooting-datasync"></a>

Verwenden Sie die folgenden Informationen, um AWS DataSync Probleme und Fehler zu beheben.

**Topics**
+ [Behebung von Problemen mit DataSync Agenten](troubleshooting-datasync-agents.md)
+ [Behebung von Problemen mit DataSync Standorten](troubleshooting-storage-issues.md)
+ [Behebung von Problemen mit DataSync Aufgaben](troubleshooting-tasks.md)
+ [Behebung von Problemen mit der Datenüberprüfung](troubleshooting-task-verification.md)
+ [Fehlerbehebung bei höheren als erwarteten S3-Speicherkosten mit DataSync](multipart-upload-policy.md)

# Behebung von Problemen mit DataSync Agenten
<a name="troubleshooting-datasync-agents"></a>

Verwenden Sie die folgenden Informationen, um Probleme mit AWS DataSync Agenten zu beheben. Zu diesen Problemen können gehören:
+ Probleme beim Herstellen einer Verbindung mit der lokalen Konsole eines Amazon EC2 EC2-Agenten
+ Der Aktivierungsschlüssel eines Agenten konnte nicht abgerufen werden
+ Probleme bei der Aktivierung eines Agenten mit einem VPC-Serviceendpunkt
+ Es wird festgestellt, dass ein Agent offline ist

## Wie stelle ich eine Verbindung zur lokalen Konsole eines Amazon EC2 EC2-Agenten her?
<a name="local-console-ec2"></a>

Um eine Verbindung zur lokalen Konsole eines Amazon EC2 EC2-Agenten herzustellen, müssen Sie SSH verwenden. Stellen Sie sicher, dass die Sicherheitsgruppe Ihrer EC2-Instance den Zugriff mit SSH (TCP-Port 22) zulässt.

Führen Sie in einem Terminal den folgenden `ssh` Befehl aus, um eine Verbindung mit der Instance herzustellen:

```
ssh -i /path/key-pair-name.pem instance-user-name@instance-public-ip-address
```
+ Geben Sie für */path/key-pair-name* den Pfad und den Dateinamen (`.pem`) des privaten Schlüssels an, der für die Verbindung mit Ihrer Instance erforderlich ist.
+ Legen Sie für *instance-user-name* die Option `admin` fest.
+ Geben Sie für *instance-public-ip-address* die öffentliche IP-Adresse Ihrer Instance an.

## Was bedeutet der Fehler Fehler beim Abrufen des Agenten-Aktivierungsschlüssels?
<a name="vpc-activation-error"></a>

Bei der Aktivierung Ihres DataSync Agenten stellt der Agent eine Verbindung zu dem von Ihnen angegebenen Service-Endpunkt her, um einen Aktivierungsschlüssel anzufordern. Dieser Fehler bedeutet wahrscheinlich, dass Ihre Netzwerksicherheitseinstellungen die Verbindung blockieren.

**Maßnahme**  
Wenn Sie einen Virtual Private Cloud (VPC) -Dienstendpunkt verwenden, stellen Sie sicher, dass Ihre Sicherheitsgruppeneinstellungen es Ihrem Agenten ermöglichen, eine Verbindung zum VPC-Endpunkt herzustellen. Informationen zu den erforderlichen Ports finden Sie unter [Netzwerkanforderungen für VPC- oder FIPS-VPC-Dienstendpunkte](datasync-network.md#using-vpc-endpoint).

Wenn Sie einen öffentlichen Endpunkt oder einen FIPS-Endpunkt (Federal Information Processing Standard) verwenden, überprüfen Sie, ob Ihre Firewall- und Router-Einstellungen es Ihrem Agenten ermöglichen, eine Verbindung zum Endpunkt herzustellen. Weitere Informationen finden Sie unter [Netzwerkanforderungen für öffentliche Endpunkte oder FIPS-Dienstendpunkte](datasync-network.md#using-public-endpoints).

## Ich kann einen Agenten immer noch nicht mithilfe eines VPC-Dienstendpunkts aktivieren
<a name="vpc-activation-failed"></a>

Wenn Sie immer noch Probleme bei der Aktivierung eines DataSync Agenten mit einem VPC-Dienstendpunkt haben, finden Sie weitere Informationen unter [Ich weiß nicht, was mit meinem Agenten los ist. Kann mir jemand helfen?](#enable-support-access)

## Was mache ich, wenn mein Agent offline ist?
<a name="troubleshoot-agent-offline"></a>

Ihr DataSync Agent kann aus verschiedenen Gründen offline sein, aber Sie können ihn möglicherweise wieder online stellen. Bevor Sie den Agenten löschen und einen neuen erstellen, gehen Sie die folgende Checkliste durch, damit Sie verstehen, was möglicherweise passiert ist.
+ **Wenden Sie sich an Ihr Backup-Team** — Wenn Ihr Agent offline ist, weil seine virtuelle Maschine (VM) aus einem Snapshot oder Backup wiederhergestellt wurde, müssen Sie [den Agenten möglicherweise austauschen](replacing-agent.md).
+ **Prüfen Sie, ob die VM oder die Amazon EC2 EC2-Instance des Agenten ausgeschaltet ist** — Versuchen Sie je nach Agententyp, den Sie verwenden, die VM- oder EC2-Instance wieder einzuschalten, falls sie ausgeschaltet ist. Sobald es wieder eingeschaltet ist, [testen Sie die Netzwerkkonnektivität Ihres Agenten](test-agent-connections.md#test-network) mit. AWS
+ **Stellen Sie sicher, dass Ihr Agent die Mindestanforderungen an die Hardware erfüllt** — Ihr Agent ist möglicherweise offline, weil seine VM- oder EC2-Instanzkonfiguration seit der Aktivierung des Agenten versehentlich geändert wurde. Wenn Ihre VM beispielsweise nicht mehr über den mindestens erforderlichen Arbeitsspeicher oder Speicherplatz verfügt, wird der Agent möglicherweise als offline angezeigt. Weitere Informationen finden Sie unter [Anforderungen für Agenten AWS DataSync](agent-requirements.md).
+ **Warten Sie, bis die Agent-bezogenen Softwareupdates abgeschlossen** sind — Ihr Agent wird möglicherweise kurzzeitig offline geschaltet, nachdem die [Softwareupdates von bereitgestellt wurden AWS](managing-agent.md#managing-agent-updates). Wenn Sie glauben, dass der Agent aus diesem Grund offline ist, warten Sie einen kurzen Zeitraum und überprüfen Sie dann, ob der Agent wieder online ist.
+ **Überprüfen Sie Ihre VPC-Dienstendpunkteinstellungen** — Wenn Ihr Offline-Agent einen öffentlichen Dienstendpunkt verwendet und sich auch in derselben VPC befindet, für die Sie einen VPC-Dienstendpunkt erstellt haben DataSync, müssen Sie möglicherweise die [private DNS-Unterstützung](https://docs.aws.amazon.com/vpc/latest/privatelink/create-interface-endpoint.html) für diesen VPC-Endpunkt deaktivieren.

[Wenn keiner dieser Gründe der Grund dafür zu sein scheint, dass der Agent offline ist, müssen Sie den Agenten wahrscheinlich ersetzen.](replacing-agent.md)

## Ich weiß nicht, was mit meinem Agenten los ist. Kann mir jemand helfen?
<a name="enable-support-access"></a>

Sie können Ihrem DataSync Agenten AWS Support Zugriff gewähren und ihm bei der Behebung von Problemen mit dem Agenten helfen. Sie müssen diesen Zugriff über die lokale Konsole des Agenten aktivieren.

**Um Ihrem Agenten Support Zugriff zu gewähren**

1. [Melden Sie sich bei der lokalen Konsole Ihres Agenten](local-console-vm.md#local-console-login) an.

1. Geben Sie an der Eingabeaufforderung die Eingabetaste ein, **5** um die Befehlszeile zu öffnen (für VMware VMs, verwenden**6**).

1. Geben Sie **h** ein, um das Fenster **AVAILABLE COMMANDS (VERFÜGBARE BEFEHLE)** zu öffnen.

1. Geben Sie im Fenster **VERFÜGBARE BEFEHLE** Folgendes ein, um eine Verbindung herzustellen Support:

   `open-support-channel`

   Wenn Sie den Agenten mit VPC-Endpunkten verwenden, müssen Sie wie folgt eine VPC-Endpunkt-IP-Adresse für Ihren Support-Kanal angeben: 

   `open-support-channel vpc-ip-address`

   Ihre Firewall muss es dem eingehenden TCP-Port 22 ermöglichen, einen Support-Kanal zu initiieren. AWS Wenn Sie eine Verbindung zu herstellen Support, DataSync weist Ihnen eine Supportnummer zu. Notieren Sie sich Ihre Support-Nummer.
**Anmerkung**  
Die Kanalnummer ist keine TCP/UDP Portnummer. Stattdessen stellt es eine SSH-Verbindung (TCP 22) zu Servern her und stellt den Supportkanal für die Verbindung bereit.

1. Wenn der Support-Kanal eingerichtet ist, geben Sie Ihre Support-Servicenummer an, Support damit dieser Ihnen bei der Fehlerbehebung helfen kann.

1. Wenn die Support-Sitzung beendet ist, drücken Sie, **Enter** um sie zu beenden.

1. Geben Sie ein**exit**, um sich von der DataSync lokalen Konsole abzumelden.

1. Folgen Sie den Eingabeaufforderungen, um die lokale Konsole zu beenden.

# Behebung von Problemen mit DataSync Standorten
<a name="troubleshooting-storage-issues"></a>

Verwenden Sie die folgenden Informationen, um Probleme mit AWS DataSync Standorten zu beheben. Zu diesen Problemen können gehören:
+ Berechtigungen und Einhängefehler bei NFS-Speicherorten
+ Probleme mit dem Besitz von Dateien
+ Probleme beim Zugriff auf SMB-Standorte, die die Kerberos-Authentifizierung verwenden
+ Berechtigungs- und Zugriffsprobleme mit Objektspeichern, z. B. Amazon S3- und Microsoft Azure Blob-Speicherorten

## Meine Aufgabe ist mit der Fehlermeldung „NFS-Berechtigungen verweigert“ fehlgeschlagen
<a name="task-permission-denied"></a>

Sie können die Fehlermeldung „Berechtigungen verweigert“ erhalten, wenn Sie Ihren NFS-Dateiserver mit `root_squash` oder konfigurieren `all_squash` und Ihre Dateien nicht alle Lesezugriff haben.

**Maßnahme**  
Um dieses Problem zu beheben, konfigurieren Sie Ihren NFS-Export mit `no_root_squash` oder stellen Sie sicher, dass die Berechtigungen für alle Dateien, die Sie übertragen möchten, allen Benutzern Lesezugriff gewähren.

 DataSync Um auf Verzeichnisse zugreifen zu können, müssen Sie außerdem den All-Execute-Zugriff aktivieren. Um sicherzustellen, dass das Verzeichnis gemountet werden kann, verbinden Sie sich zunächst mit einem Computer, der die gleiche Netzwerkkonfiguration wie Ihr Agent hat. Führen Sie dann den folgenden CLI-Befehl aus:

`mount -t nfs -o nfsvers=<your-nfs-server-version> <your-nfs-server-name>:<nfs-export-path-you-specified> <new-test-folder-on-your-computer>`

Wenn das Problem immer noch nicht behoben ist, wenden Sie sich an [AWS Support das Center](https://console.aws.amazon.com/support/home#/).

## Meine Aufgabe ist mit einem NFS-Mount-Fehler fehlgeschlagen
<a name="onpremise-location-stuck-mounting"></a>

Möglicherweise wird der folgende Fehler angezeigt, wenn Sie eine DataSync Aufgabe ausführen, die einen NFS-Dateiserverstandort beinhaltet:

Die Aufgabe konnte nicht auf den Speicherort zugreifen loc-1111222233334444a: x40016: mount.nfs: Verbindungs-Timeout

**Zu ergreifende Maßnahmen**  
Gehen Sie wie folgt vor, bis der Fehler behoben ist.

1. Stellen Sie sicher, dass der NFS-Dateiserver und der Export, die Sie an Ihrem DataSync Standort angeben, gültig sind. Wenn dies nicht der Fall ist, löschen Sie Ihren Standort und Ihre Aufgabe und erstellen Sie dann einen neuen Speicherort und eine neue Aufgabe, die einen gültigen NFS-Dateiserver verwenden, und exportieren Sie sie. Weitere Informationen finden Sie unter [Verwenden der Konsole DataSync](create-nfs-location.md#create-nfs-location-console).

1. Überprüfen Sie Ihre Firewall-Konfiguration zwischen Ihrem Agenten und dem NFS-Dateiserver. Weitere Informationen finden Sie unter [Netzwerkanforderungen für lokalen, selbstverwalteten und anderen Cloud-Speicher](datasync-network.md#on-premises-network-requirements).

1. Stellen Sie sicher, dass Ihr Agent auf den NFS-Dateiserver zugreifen kann, und mounten Sie den Export. Weitere Informationen finden Sie unter [Bereitstellung des DataSync Zugriffs auf NFS-Dateiserver](create-nfs-location.md#accessing-nfs).

1. Wenn der Fehler weiterhin angezeigt wird, öffnen Sie einen Support-Kanal mit Support. Weitere Informationen finden Sie unter [Ich weiß nicht, was mit meinem Agenten los ist. Kann mir jemand helfen?](troubleshooting-datasync-agents.md#enable-support-access).

## Meine Aufgabe ist mit einem Amazon EFS-Mount-Fehler fehlgeschlagen
<a name="troubleshoot-efs-mount-target"></a>

Möglicherweise wird der folgende Fehler angezeigt, wenn Sie eine DataSync Aufgabe ausführen, die einen Amazon EFS-Standort betrifft:

Die Aufgabe konnte nicht auf den Standort zugreifen loc-1111222233334444a: x40016: Es konnte keine Verbindung zum EFS-Mount-Ziel mit IP hergestellt werden: 10.10.1.0.

Dies kann passieren, wenn der Bereitstellungspfad des Amazon EFS-Dateisystems, den Sie mit Ihrem Standort konfigurieren, aktualisiert oder gelöscht wird. DataSync ist sich dieser Änderungen im Dateisystem nicht bewusst. 

**Maßnahme**  
Löschen Sie Ihren Standort und Ihre Aufgabe und [erstellen Sie einen neuen Amazon EFS-Speicherort](create-efs-location.md#create-efs-location-how-to) mit dem neuen Bereitstellungspfad.

## Der Dateibesitz wird bei der NFS-Übertragung nicht beibehalten
<a name="nfs-id-mapping"></a>

Nach der Übertragung stellen Sie möglicherweise fest, dass die Dateien an Ihrem DataSync Zielspeicherort einen anderen Benutzer IDs (UIDs) oder eine andere Gruppe IDs (GIDs) haben als dieselben Dateien an Ihrem Quellspeicherort. Beispielsweise könnten die Dateien an Ihrem Zielort die UID `65534``99`, oder `nobody` haben.

Dies kann passieren, wenn ein Dateisystem, das an Ihrer Übertragung beteiligt ist, die ID-Zuordnung von NFS Version 4 verwendet, eine Funktion, die DataSync nicht unterstützt wird.

**Maßnahme**  
Sie haben mehrere Möglichkeiten, dieses Problem zu umgehen:
+ Erstellen Sie einen neuen Speicherort für das Dateisystem, das NFS Version 3 anstelle von Version 4 verwendet.
+ Deaktivieren Sie die NFS Version 4-ID-Zuordnung auf dem Dateisystem.

Versuchen Sie die Übertragung erneut. Beide Optionen sollten das Problem lösen.

## Meine Aufgabe kann nicht auf einen SMB-Standort zugreifen, der Kerberos verwendet
<a name="task-fails-smb-location-kerberos"></a>

DataSync Fehler bei SMB-Standorten, die die [Kerberos-Authentifizierung](create-smb-location.md#configuring-smb-kerberos-authentication) verwenden, hängen in der Regel mit Diskrepanzen zwischen Ihrem Standort und den Kerberos-Konfigurationen zusammen. Möglicherweise liegt auch ein Netzwerkproblem vor.

**Auf den Standort konnte nicht zugegriffen werden**  
Der folgende Fehler weist darauf hin, dass möglicherweise Konfigurationsprobleme mit Ihrem SMB-Standort oder dem Kerberos-Setup vorliegen:  

```
Task failed to access location
```
**Überprüfen Sie Folgendes**:  
+ Der SMB-Dateiserver, den Sie für Ihren Standort angeben, ist ein Domainname. Für Kerberos können Sie die IP-Adresse des Dateiservers nicht angeben.
+ Der Kerberos-Prinzipal, den Sie für Ihren Standort angeben, entspricht dem Prinzipal, den Sie zum Erstellen der Kerberos-Schlüsseltabellendatei (Keytab) verwenden. Bei Prinzipalnamen wird Groß- und Kleinschreibung beachtet.
+ Das zugeordnete Benutzerkennwort des Kerberos-Prinzipals hat sich seit der Erstellung der Keytab-Datei nicht geändert. Wenn sich das Passwort ändert (aufgrund einer Passwortrotation oder aus einem anderen Grund), schlägt die Ausführung der Aufgabe möglicherweise mit dem folgenden Fehler fehl:

  Die Aufgabe konnte nicht auf den Standort zugreifen loc-1111222233334444a: x40015: kinit: Beim Abrufen der ersten Anmeldeinformationen ist die Vorauthentifizierung fehlgeschlagen

**Der KDC-Bereich kann nicht kontaktiert werden**  
Der folgende Fehler weist auf ein Netzwerkproblem hin:  

```
kinit: Cannot contact any KDC for realm 'MYDOMAIN.ORG' while getting initial credentials"
```
**Überprüfen Sie Folgendes**:  
+ Die von Ihnen bereitgestellte Kerberos-Konfigurationsdatei (`krb5.conf`) DataSync enthält die richtigen Informationen zu Ihrem Kerberos-Bereich. [Eine `krb5.conf` Beispieldatei finden Sie unter Voraussetzungen für die Kerberos-Authentifizierung.](create-smb-location.md#configuring-smb-kerberos-prerequisites)
+ Der Kerberos Key Distribution Center (KDC) -Serverport ist geöffnet. Der KDC-Port ist normalerweise der TCP-Port 88.
+ Die DNS-Konfiguration in Ihrem Netzwerk.

## Meine Aufgabe ist mit einem input/output Fehler fehlgeschlagen
<a name="sync-io-error"></a>

Sie können eine input/output Fehlermeldung erhalten, wenn Ihr Speichersystem die I/O Anforderungen des DataSync Agenten nicht erfüllt. Zu den häufigsten Gründen hierfür gehören ein Serverfestplattenausfall, Änderungen an Ihrer Firewallkonfiguration oder ein Ausfall des Netzwerk-Routers.

Wenn der Fehler einen NFS-Dateiserver oder einen Hadoop Distributed File System (HDFS) -Cluster betrifft, gehen Sie wie folgt vor, um den Fehler zu beheben.

**Zu ergreifende Maßnahmen (NFS)**  
Überprüfen Sie zunächst die Protokolle und Messwerte Ihres NFS-Dateiservers, um festzustellen, ob das Problem auf dem NFS-Server aufgetreten ist. Falls ja, lösen Sie das Problem.

Als nächstes überprüfen Sie, ob Ihre Netzwerkkonfiguration unverändert ist. Gehen Sie wie folgt vor, um zu überprüfen, ob der NFS-Dateiserver korrekt konfiguriert ist und darauf zugreifen DataSync kann:

1. Richten Sie einen anderen NFS-Client im gleichen Netzwerk-Subnetz wie den -Agenten ein.

1. Mounten Sie Ihre Freigabe auf diesem Client.

1. Überprüfen Sie, ob der Client die Freigabe erfolgreich lesen und schreiben kann.

**Zu ergreifende Maßnahmen (HDFS)**  
Gehen Sie wie folgt vor, bis Sie den Fehler behoben haben:

1. Stellen Sie sicher, dass Ihr HDFS-Cluster Ihrem DataSync Agenten die Kommunikation mit den Clustern NameNode und DataNode Anschlüssen ermöglicht.

   In den meisten Clustern finden Sie die Portnummern, die der Cluster verwendet, in den folgenden Konfigurationsdateien:
   + Um den NameNode Port zu finden, suchen Sie in der `core-site.xml` Datei unter der `fs.default.name` Eigenschaft `fs.default` oder (abhängig von der Hadoop-Distribution).
   + Um den DataNode Port zu finden, suchen Sie in der `hdfs-site.xml` Datei unter der `dfs.datanode.address` Eigenschaft.

1. Vergewissern Sie sich in Ihrer `hdfs-site.xml` Datei, dass Ihre `dfs.data.transfer.protection` Eigenschaft nur einen Wert hat. Beispiel:

   ```
   <property>
      <name>dfs.data.transfer.protection</name>
      <value>privacy</value>
   </property>
   ```

## Fehler: `FsS3UnableToConnectToEndpoint`
<a name="troubleshoot-fss3unabletoconnecttoendpoint"></a>

DataSync kann keine Verbindung zu Ihrem [Amazon S3 S3-Standort](create-s3-location.md) herstellen. Dies kann bedeuten, dass der S3-Bucket des Standorts nicht erreichbar ist oder der Standort nicht richtig konfiguriert ist.

Gehen Sie wie folgt vor, bis Sie das Problem behoben haben:
+ Prüfen Sie, ob DataSync Sie [auf Ihren S3-Bucket zugreifen](create-s3-location.md#create-s3-location-access) können.
+ Stellen Sie mithilfe der DataSync Konsole oder des [DescribeLocationS3-Betriebs](https://docs.aws.amazon.com/datasync/latest/userguide/API_DescribeLocationS3.html) sicher, dass der Standort korrekt konfiguriert ist.

## Fehler: `FsS3HeadBucketFailed`
<a name="troubleshoot-fss3headbucketfailed"></a>

DataSync kann nicht auf den S3-Bucket zugreifen, zu dem oder von dem Sie übertragen. Prüfen Sie mithilfe des Amazon S3 [HeadBucket](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html)S3-Vorgangs, ob DataSync Sie berechtigt sind, auf den Bucket zuzugreifen. Wenn Sie Ihre Berechtigungen anpassen müssen, finden Sie weitere Informationen unter[Bereitstellung des DataSync Zugriffs auf S3-Buckets](create-s3-location.md#create-s3-location-access).

## Die Aufgabe schlägt mit einem `Unable to list Azure Blobs on the volume root` Fehler fehl
<a name="troubleshoot-azure-blob-storage-list-volume-root"></a>

Wenn Ihre DataSync Übertragungsaufgabe mit einem `Unable to list Azure Blobs on the volume root` Fehler fehlschlägt, liegt möglicherweise ein Problem mit Ihrem SAS-Token (Shared Access Signature) oder dem Netzwerk Ihres Azure Speicherkontos vor.

**Zu ergreifende Maßnahmen**  
Versuchen Sie Folgendes und führen Sie Ihre Aufgabe erneut aus, bis Sie das Problem behoben haben:
+ Stellen Sie sicher, dass Ihr [SAS-Token](creating-azure-blob-location.md#azure-blob-sas-tokens) über die richtigen Berechtigungen für den Zugriff auf Ihr verfügtMicrosoft Azure Blob Storage.
+ Wenn Sie Ihren DataSync Agenten in ausführenAzure, konfigurieren Sie Ihr Speicherkonto so, dass der Zugriff von dem virtuellen Netzwerk aus möglich ist, in dem sich Ihr Agent befindet.
+ Wenn Sie Ihren Agenten auf Amazon EC2 ausführen, konfigurieren Sie Ihre Azure Speicher-Firewall so, dass der Zugriff von der öffentlichen IP-Adresse des Agenten aus möglich ist.

Informationen zur Konfiguration des Netzwerks Ihres Azure Speicherkontos finden Sie in der [Azure Blob StorageDokumentation](https://learn.microsoft.com/en-us/azure/storage/common/storage-network-security).

## Fehler: `FsAzureBlobVolRootListBlobsFailed`
<a name="troubleshoot-fsazureblobvolrootlistblobsfailed"></a>

Das SAS-Token (Shared Access Signature), das für den Zugriff auf Ihr DataSync verwendet wird, Microsoft Azure Blob Storage verfügt nicht über die Listenberechtigung.

Um das Problem zu beheben, [aktualisieren Sie Ihren Standort](creating-azure-blob-location.md#azure-blob-update-location) mit einem Token, das über die Listenberechtigung verfügt, und versuchen Sie erneut, Ihre Aufgabe auszuführen.

## Fehler: `SrcLocHitAccess`
<a name="troubleshoot-srclochitaccess"></a>

DataSync kann nicht auf Ihren Quellstandort zugreifen. Vergewissern Sie DataSync sich, dass die Person berechtigt ist, auf den Speicherort zuzugreifen, und versuchen Sie erneut, Ihre Aufgabe auszuführen.

## Fehler: `SyncTaskErrorLocationNotAdded`
<a name="troubleshoot-synctaskerrorlocationnotadded"></a>

DataSync kann nicht auf Ihren Standort zugreifen. Vergewissern Sie DataSync sich, dass die Person berechtigt ist, auf den Standort zuzugreifen, und versuchen Sie erneut, Ihre Aufgabe auszuführen.

## Fehler: `S3 location creation failed with (InvalidRequestException) when calling the CreateLocationS3 operation`
<a name="troubleshoot-403-error"></a>

Dieser Fehler könnte mit IAM-Berechtigungen, Amazon S3 S3-Bucket-Richtlinien, AWS KMS Berechtigungen oder anderen Berechtigungsproblemen zusammenhängen. Wenn Sie diesen Fehler erhalten, verwenden Sie die folgenden Informationen zur Fehlerbehebung:
+ [Beheben Sie Fehler mit Zugriff verweigert (403 Forbidden) in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/troubleshoot-403-errors.html) im *Amazon Simple Storage Service-Benutzerhandbuch*
+ [Wie behebe ich 403 Access Denied-Fehler von Amazon S3?](https://repost.aws/knowledge-center/s3-troubleshoot-403) nein AWS re:Post

## Die Aufgabe mit dem S3-Quellspeicherort schlägt mit `HeadObject` oder mit einem `GetObjectTagging` Fehler fehl
<a name="troubleshoot-getobjecttagging"></a>

**Fehler im Zusammenhang mit `HeadObject` oder `GetObjectTagging`**  
Wenn Sie Objekte mit einer bestimmten Version IDs aus einem S3-Bucket übertragen, wird möglicherweise ein Fehler im Zusammenhang mit `HeadObject` oder angezeigt`GetObjectTagging`. Hier ist zum Beispiel ein Fehler im Zusammenhang mit`GetObjectTagging`:

```
[WARN] Failed to read metadata for file /picture1.png (versionId: 111111): S3 Get Object Tagging Failed
[ERROR] S3 Exception: op=GetObjectTagging photos/picture1.png, code=403, type=15, exception=AccessDenied, 
msg=Access Denied req-hdrs: content-type=application/xml, x-amz-api-version=2006-03-01 rsp-hdrs: content-type=application/xml, 
date=Wed, 07 Feb 2024 20:16:14 GMT, server=AmazonS3, transfer-encoding=chunked, 
x-amz-id-2=IOWQ4fDEXAMPLEQM+ey7N9WgVhSnQ6JEXAMPLEZb7hSQDASK+Jd1vEXAMPLEa3Km, x-amz-request-id=79104EXAMPLEB723
```

Wenn Sie einen dieser Fehler sehen, überprüfen Sie, ob die IAM-Rolle, die für den Zugriff auf Ihren S3-Quellspeicherort DataSync verwendet wird, über die folgenden Berechtigungen verfügt:
+ `s3:GetObjectVersion`
+ `s3:GetObjectVersionTagging`

Wenn Sie Ihre Rolle mit diesen Berechtigungen aktualisieren müssen, finden Sie weitere Informationen unter[Erstellen einer IAM-Rolle für den Zugriff DataSync auf Ihren Amazon S3 S3-Standort](create-s3-location.md#create-role-manually).

# Behebung von Problemen mit DataSync Aufgaben
<a name="troubleshooting-tasks"></a>

Verwenden Sie die folgenden Informationen, um Probleme mit AWS DataSync Aufgaben und Aufgabenausführungen zu beheben. Zu diesen Problemen können Probleme beim Einrichten von Aufgaben, hängengebliebene Aufgabenausführungen und nicht erwartungsgemäß übertragene Daten gehören.

## Fehler: Ungültiger SyncOption Wert. Option: TransferModePreserveDeletedFiles, Wert: ALL, REMOVE.
<a name="create-task-deleted-files-error"></a>

Dieser Fehler tritt auf, wenn Sie Ihre DataSync Aufgabe erstellen oder bearbeiten und die Option **Alle Daten übertragen** auswählen und die Option **Gelöschte Dateien behalten** deaktivieren.

Wenn Sie alle Daten übertragen, wird Ihr Zielort DataSync nicht gescannt und Sie wissen nicht, was Sie löschen sollen.

## Die Ausführung der Aufgabe schlägt mit einem EniNotFoundFehler fehl
<a name="network-interfaces-not-found"></a>

Dieser Fehler tritt auf, wenn Sie eine der Netzwerkschnittstellen Ihrer Aufgabe in Ihrer Virtual Private Cloud (VPC) löschen. Wenn Ihre Aufgabe geplant ist oder sich in der Warteschlange befindet, schlägt die Aufgabe fehl, wenn eine [Netzwerkschnittstelle fehlt, die für die Übertragung Ihrer Daten erforderlich](required-network-interfaces.md) ist.

**Zu ergreifende Maßnahmen**  
Sie haben die folgenden Optionen, um dieses Problem zu umgehen:
+ Starten Sie die Aufgabe manuell neu. Wenn Sie dies tun, DataSync werden alle fehlenden Netzwerkschnittstellen erstellt, die für die Ausführung der Aufgabe erforderlich sind.
+ Wenn Sie Ressourcen in Ihrer VPC bereinigen müssen, stellen Sie sicher, dass Sie keine Netzwerkschnittstellen löschen, die sich auf eine DataSync Aufgabe beziehen, die Sie noch verwenden.

  Gehen Sie wie folgt vor, um die Ihrer Aufgabe zugewiesenen Netzwerkschnittstellen zu sehen:
  + Verwenden Sie die [DescribeTask](https://docs.aws.amazon.com//datasync/latest/userguide/API_DescribeTask.html)Operation. Sie können die Netzwerkschnittstellen in den Elementen `SourceNetworkInterfaceArns` und `DestinationNetworkInterfaceArns` Antwort anzeigen.
  + Suchen Sie in der Amazon EC2 EC2-Konsole nach Ihrer Task-ID (z. B.`task-f012345678abcdef0`), um deren Netzwerkschnittstellen zu finden.
+ Erwägen Sie, Ihre Aufgaben nicht automatisch auszuführen. Dies könnte das Deaktivieren der Aufgabenwarteschlange oder der Zeitplanung (durch DataSync oder durch benutzerdefinierte Automatisierung) beinhalten.

## Die Ausführung der Aufgabe schlägt fehl und es wird der Fehler „Speicher kann nicht zugewiesen werden“ angezeigt
<a name="error-cannot-allocate-memory"></a>

Wenn Ihre DataSync Aufgabe mit dem Fehler „Speicher kann nicht zugewiesen werden“ fehlschlägt, kann das verschiedene Ursachen haben.

**Maßnahme**  
Versuchen Sie Folgendes, bis das Problem nicht mehr auftritt:
+ Wenn an Ihrer Übertragung ein Agent beteiligt ist, stellen Sie sicher, dass der Agent die Anforderungen an die [virtuelle Maschine (VM)](agent-requirements.md#hardware) oder [Amazon EC2 EC2-Instance](agent-requirements.md#ec2-instance-types) erfüllt.
+ Teilen Sie Ihre Übertragung mithilfe von [Filtern](filtering.md) in mehrere Aufgaben auf. Es ist möglich, dass Sie versuchen, mehr Dateien oder Objekte zu übertragen, als [eine DataSync Aufgabe bewältigen kann](datasync-limits.md#task-hard-limits).
+ Wenn das Problem weiterhin auftritt, [wenden Sie sich an Support](https://aws.amazon.com/contact-us/).

## Die Aufgabe schlägt mit oder `Input/Output error` FSx für das ONTAP-Dateisystem fehl
<a name="task-fails-input-output-fsxn"></a>

Wenn Ihre DataSync Aufgabe bei einem `Input/Output error` beim Übertragen von Daten mit einem FSx für ONTAP Dateisystem fehlschlägt, kann dies an einem oder mehreren der folgenden Probleme liegen.

**Das Volume FSx for ONTAP hat seine maximale Dateikapazität erreicht**  
Dieser Fehler tritt auf, wenn die Anzahl der verfügbaren Inodes oder Dateizeiger auf einem Volume erschöpft ist.

**Zu ergreifende Maßnahmen**

Sehen Sie sich zunächst die [maximale Dateikapazität](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/view-volume-file-capacity.html) des Volumes an. Erhöhen Sie anschließend die Dateikapazität des Volumes, indem Sie entweder die Anzahl der Inodes oder die Speicherkapazität erhöhen. Weitere Informationen finden Sie unter [Erhöhen der maximalen Dateikapazität eines Volumes](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/low-volume-capacity.html#max-file-capacity) im *FSx for ONTAP-Benutzerhandbuch*.

**Die verfügbare Speicherkapazität des Volumes FSx für ONTAP ist aufgebraucht**  
Dieser Fehler tritt auf, wenn für das Volume keine verfügbare Speicherkapazität verfügbar ist.

**Zu ergreifende Maßnahmen**

Ermitteln Sie zunächst die [verfügbare Speicherkapazität](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/monitor-volume-storage-console.html) des Volumes. Erhöhen Sie anschließend die Speicherkapazität des Volumes. Weitere Informationen finden Sie unter [Erhöhen der Speicherkapazität eines Volumes](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/low-volume-capacity.html#increase-volume-capacity) im *FSx for ONTAP-Benutzerhandbuch*.

**Anmerkung**  
Informationen zur automatischen Erhöhung der Speicherkapazität eines Volumes bei Bedarf finden Sie unter [Verwenden der automatischen Volumengrößenanpassung](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/low-volume-capacity.html#volume-autosizing) im *FSx for ONTAP-Benutzerhandbuch*.

**Das Verzeichnis FSx for ONTAP hat die maximale Anzahl von Dateien erreicht, die in jedem Verzeichnis gespeichert werden können**  
Dieser Fehler tritt auf, wenn Sie die maximale Anzahl von Dateien erreicht haben, die in jedem Verzeichnis gespeichert werden können.

**Maßnahme**

Erhöhen Sie die maximale Verzeichnisgröße, um größere Verzeichnisse zu unterstützen. Weitere Informationen finden Sie unter [Bewährte Methoden für die Verwendung der maximalen Verzeichnisgröße FSx für ONTAP](https://docs.aws.amazon.com/prescriptive-guidance/latest/fsx-ontap-enterprise-deployment/best-practices.html#bp-max-directory-size) in *AWS Prescriptive Guidance*.

**Bei der Ausführung der DataSync Aufgabe wurde zu viel Parallelität beim Lesen und Schreiben erzeugt, wodurch ein Großteil der Durchsatzkapazität des Dateisystems beansprucht wurde**  
Dieser Fehler tritt auf, wenn die Ausführung der DataSync Aufgabe zu viel von der verfügbaren Durchsatzkapazität Ihres Dateisystems beansprucht.

**Zu ergreifende Maßnahmen**

Stellen Sie zunächst mithilfe der folgenden Methoden fest, ob die Ausführung der Aufgabe zu viel von der Durchsatzkapazität des Dateisystems beansprucht hat:
+ Überwachen Sie die Leistung des Dateisystems anhand der verfügbaren CloudWatch Messwerte. Weitere Informationen finden Sie unter [Überwachung von Dateisystem-Metriken](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/monitor-throughput-cloudwatch.html#fsxn-howtomonitor-fs) im *FSx for ONTAP User Guide*.
+ Überwachen Sie das Dateisystem in der FSx Amazon-Konsole auf Leistungswarnungen des Dateiservers. Weitere Informationen finden Sie unter [Leistungswarnungen und Empfehlungen](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/performance-insights-FSxN.html#resolve-warnings) im *FSx ONTAP-Benutzerhandbuch*.

Stellen Sie anschließend sicher, dass die Aufgabe nicht die gesamte verfügbare Durchsatzkapazität des Dateisystems nutzt, indem Sie einen der folgenden Schritte ausführen:
+ Legen Sie das Bandbreitenlimit für die Ausführung der Aufgabe auf einen Wert fest, der unter der FSx für das ONTAP-Dateisystem bereitgestellten Durchsatzkapazität liegt. Weitere Informationen finden Sie unter [Legen Sie Bandbreitenlimits für Ihre Aufgabe fest AWS DataSync](configure-bandwidth.md).
+ Erhöhen Sie die bereitgestellte Durchsatzkapazität des Dateisystems. Weitere Informationen finden Sie unter [Aktualisierung der Durchsatzkapazität](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/increase-throughput-capacity.html) im *Benutzerhandbuch FSx für ONTAP*.

## Die Aufgabe schlägt fehl mit `Connection Reset by peer` oder `Host is down` Meldung FSx für das ONTAP-Dateisystem
<a name="task-fails-connect-reset-fsxn"></a>

Wenn Ihre DataSync Aufgabe bei der Übertragung von Daten mit einem Dateisystem FSx für ONTAP mit der `Host is down` Meldung `Connection Reset by peer` oder fehlschlägt, kann dies an einem oder mehreren der folgenden Probleme liegen:
+ Der SMB-Server des Dateisystems wurde während der Ausführung der Aufgabe neu gestartet oder auf andere Weise unterbrochen.
+ Das Dateisystem führte während der Ausführung der Aufgabe einen Failover vom primären zum sekundären Server (und zur IP-Adresse) durch. DataSync unterstützt kein Failover auf eine sekundäre IP-Adresse während der Ausführung der Aufgabe.

  FSx für ONTAP-Dateisysteme erfolgt bei folgenden Ereignissen ein Failover auf einen sekundären Server und eine sekundäre IP-Adresse:
  + Der Primärserver ist nicht mehr verfügbar.
  + Die Availability Zone des Primärservers ist nicht mehr verfügbar (für Multi-AZ-Dateisysteme).
  + Während einer vom Benutzer initiierten Änderung der Durchsatzkapazität.
  + Während des regelmäßig geplanten Wartungsfensters des Dateisystems.

  Weitere Informationen finden Sie unter [FSx ONTAP Failover Process](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/high-availability-AZ.html#Failover) im FSx for ONTAP User Guide.

**Maßnahme**  
Starten Sie die Aufgabe neu.

## Die Ausführung der Aufgabe hat einen Startstatus, aber es scheint nichts zu passieren
<a name="task-stuck-starting"></a>

Ihre DataSync Aufgabe kann in der Regel mit dem Status **Wird gestartet** hängen bleiben, weil der Agent ausgeschaltet ist oder die Netzwerkverbindung unterbrochen wurde.

**Zu ergreifende Maßnahmen**  
Vergewissern Sie sich, dass der Status Ihres Agenten **ONLINE** ist. Wenn der Agent **OFFLINE** ist, stellen Sie sicher, dass er eingeschaltet ist.

Wenn der Agent eingeschaltet ist und die Aufgabe immer noch **gestartet** wird, liegt wahrscheinlich ein Netzwerkverbindungsproblem zwischen Ihrem Agenten und vor AWS. Weitere Informationen zum Testen der Netzwerkverbindung finden Sie unter [Überprüfen Sie die Verbindung Ihres Agenten mit dem Dienst DataSync](test-agent-connections.md#test-network).

Falls dieses Problem weiterhin besteht, finden Sie weitere Informationen unter[Ich weiß nicht, was mit meinem Agenten los ist. Kann mir jemand helfen?](troubleshooting-datasync-agents.md#enable-support-access).

## Die Aufgabenausführung scheint im Vorbereitungsstatus stecken geblieben zu sein
<a name="Preparing-status-too-long"></a>

Wie lange Ihre DataSync Übertragungsaufgabe den Status In **Vorbereitung** hat, hängt von der Datenmenge in Ihrer Übertragungsquelle und Ihrem Übertragungsziel sowie von der Leistung dieser Speichersysteme ab.

Wenn eine Aufgabe gestartet wird, DataSync führt sie eine rekursive Verzeichnisliste durch, um alle Dateien, Objekte, Verzeichnisse und Metadaten in Ihrer Quelle und Ihrem Ziel zu ermitteln. DataSync verwendet diese Auflistungen, um Unterschiede zwischen Speichersystemen zu identifizieren und zu bestimmen, was kopiert werden soll. Dieser Vorgang kann einige Minuten oder sogar einige Stunden dauern.

**Maßnahme**  
Du solltest nichts tun müssen. Warten Sie weiter, bis sich der Aufgabenstatus auf Wird **übertragen** ändert. Wenn sich der Status immer noch nicht ändert, wenden Sie sich an [AWS Support das Center](https://console.aws.amazon.com/support/home#/).

## Die Ausführung der Aufgabe wird beendet, bevor die Übertragung abgeschlossen ist
<a name="troubleshoot-unfinished-task-execution"></a>

Wenn Ihre DataSync Aufgabenausführung vorzeitig beendet wird, enthält Ihre Aufgabenkonfiguration möglicherweise eine AWS-Region , die in Ihrem deaktiviert ist AWS-Konto.

**Zu ergreifende Maßnahmen**  
Gehen Sie wie folgt vor, um Ihre Aufgabe erneut auszuführen:

1. Prüfen Sie den [Opt-In-Status](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) der Regionen Ihrer Aufgabe und stellen Sie sicher, dass sie aktiviert sind.

1. [Starte die Aufgabe](run-task.md) erneut.

## Die Ausführung der Aufgabe schlägt fehl, wenn sie aus einem Google Cloud Storage-Bucket übertragen wird
<a name="troubleshoot-object-tags-google-cloud-storage"></a>

Da DataSync die Kommunikation mit Google Cloud Storage über die Amazon S3 S3-API erfolgt, gibt es eine Einschränkung, die dazu führen kann, dass Ihre DataSync Übertragung fehlschlägt, wenn Sie versuchen, Objekt-Tags zu kopieren. Die folgende Meldung zu dem Problem wird in Ihren CloudWatch Protokollen angezeigt:

[WARN] Fehler beim Lesen der Metadaten für die Datei/*your-bucket*/*your-object*: S3 Get Object Tagging Failed: Fortfahren ohne Tagging

Um dies zu verhindern, deaktivieren Sie bei der Konfiguration der Einstellungen für die **Übertragungsaufgabe die Option Objekt-Tags kopieren**.

## Es gibt Diskrepanzen zwischen den Zeitstempeln der Aufgabenausführung
<a name="troubleshoot-task-exec-times"></a>

Wenn Sie sich die DataSync Konsole oder die CloudWatch Amazon-Protokolle ansehen, stellen Sie möglicherweise fest, dass die Start- und Endzeiten für die Ausführung Ihrer DataSync Aufgabe nicht mit den Zeitstempeln übereinstimmen, die Sie in anderen Überwachungstools sehen. [Das liegt daran, dass die Konsole und die CloudWatch Protokolle die Zeit berücksichtigen, die eine Aufgabenausführung im Startmodus oder in der Warteschlange verbringt, während dies bei einigen anderen Tools nicht der Fall ist.](run-task.md#understand-task-execution-statuses)

Möglicherweise stellen Sie diese Diskrepanz fest, wenn Sie die Ausführungszeitstempel zwischen der DataSync Konsole oder den CloudWatch Protokollen und den folgenden Stellen vergleichen:
+ Protokolle für das Dateisystem, das an Ihrer Übertragung beteiligt ist
+ Das Datum der letzten Änderung an einem Amazon S3 S3-Objekt, in das DataSync geschrieben wurde
+ Netzwerkverkehr, der vom DataSync Agenten kommt
+  EventBridge Amazon-Veranstaltungen

## Die Ausführung der Aufgabe schlägt mit einem `NoMem` Fehler fehl
<a name="troubleshoot-nomem"></a>

Der Datensatz, für den Sie übertragen möchten, ist möglicherweise zu groß DataSync. Wenn Sie diesen Fehler sehen, wenden Sie sich an des [AWS Support -Center](https://console.aws.amazon.com/support/home#/).

## Die Ausführung der Aufgabe schlägt mit einem `FsNfsIdMappingEnabled` Fehler fehl
<a name="troubleshoot-nfsv4-idmapping"></a>

DataSync unterstützt keine NFSv4 ID-Zuordnung. Um dieses Problem zu umgehen, [konfigurieren Sie den zu NFSv3 verwendenden NFS-Standort](create-nfs-location.md#configure-network-nfs-location). 

## Das Objekt kann nicht übertragen werden (Fehler) Azure Blob Storage `user metadata key`
<a name="troubleshoot-azure-blob-user-metadata"></a>

Bei der Übertragung von einem S3-Bucket zu Azure Blob Storage wird möglicherweise der folgende Fehler angezeigt:

```
[ERROR] Failed to transfer file /user-metadata/file1: Azure Blob user metadata key must be a CSharp identifier
```

Dies bedeutet, dass Benutzermetadaten `/user-metadata/file1` enthalten sind, die keinen gültigen C\$1-Bezeichner verwenden. Weitere Informationen finden Sie in der [ Microsoft-Dokumentation](https://learn.microsoft.com/en-us/dotnet/csharp/fundamentals/coding-style/identifier-names).

## Am Zielort `/.aws-datasync` befindet sich ein Ordner
<a name="troubleshoot-leftover-folder"></a>

DataSync erstellt einen Ordner mit dem Namen `/.aws-datasync` an Ihrem Zielort, um Ihre Datenübertragung zu erleichtern.

Dieser Ordner wird DataSync normalerweise nach der Übertragung gelöscht, es kann jedoch Situationen geben, in denen dies nicht der Fall ist.

**Maßnahme**  
Löschen Sie diesen Ordner jederzeit, solange Sie nicht gerade eine Aufgabe ausführen, die an diesen Speicherort kopiert.

## Symbolische Links können mit SMB nicht zwischen Standorten übertragen werden
<a name="troubleshooting-smb-symbolic-links"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Selected files transferred except for files skipped due to errors. If no skipped files are listed in Cloud Watch Logs, please contact AWS Support for further assistance.
```

Bei der Übertragung zwischen SMB-Speichersystemen (z. B. einem SMB-Dateiserver und dem Dateisystem Amazon FSx for Windows File Server) werden möglicherweise die folgenden Warnungen und Fehler in Ihren CloudWatch Protokollen angezeigt:

```
[WARN] Failed to read metadata for file /appraiser/symlink: No data available
[ERROR] Failed to read metadata for directory /appraiser/symlink: No data available
```

**Maßnahme**  
DataSync unterstützt die Übertragung von symbolischen Links (oder Hardlinks) bei der Übertragung zwischen diesen Speicherorten nicht. Weitere Informationen finden Sie unter [Links und Verzeichnisse, die kopiert wurden von AWS DataSync](special-files-copied.md).

## Aufgabe: Fehler melden
<a name="troubleshoot-task-report"></a>

Beim Versuch, Ihre DataSync Übertragung mit einem Aufgabenbericht zu überwachen, kann einer der folgenden Fehler auftreten. 


| Fehlermeldung | Workaround | 
| --- | --- | 
|  Der Dateipfad überschreitet die maximale Länge von 4.096 Zeichen. In den Aufgabenbericht kann nicht geschrieben werden  |  Keiner. DataSync kann keine Datei mit einem Pfad übertragen, der 4.096 Byte überschreitet. Weitere Informationen finden Sie unter [Speichersystem-, Datei- und Objektbeschränkungen](datasync-limits.md#file-system-limits).  | 
|  Aufgabenbericht (e) konnten aufgrund eines ungültigen Buckets oder einer ungültigen IAM-Rolle nicht auf S3 hochgeladen werden  |  Vergewissern Sie sich, dass die [DataSync IAM-Rolle](creating-task-report.md#task-report-access) über die richtigen Berechtigungen verfügt, um einen Aufgabenbericht in Ihren S3-Bucket hochzuladen.  | 
|  Vor dem Generieren von Task-Berichten ist ein Ausführungsfehler aufgetreten  | Überprüfen Sie Ihre [CloudWatch Protokolle](monitor-datasync.md), um herauszufinden, warum die Ausführung Ihrer Aufgabe fehlgeschlagen ist. | 

# Behebung von Problemen mit der Datenüberprüfung
<a name="troubleshooting-task-verification"></a>

 AWS DataSync [Überprüft standardmäßig die Integrität](how-datasync-transfer-works.md#how-verifying-works) Ihrer Daten am Ende einer Übertragung. Verwenden Sie die folgenden Informationen, um häufig auftretende Fehler und Warnungen bei der Überprüfung zu diagnostizieren, z. B. wenn Dateien geändert oder gelöscht werden, bevor die Überprüfung Ihrer Daten DataSync abgeschlossen ist.

Bei Problemen mit der Überprüfung ist es oft hilfreich, zusätzlich zu dem angezeigten Fehler bei der [Aufgabenausführung auch Ihre [CloudWatch Protokolle](configure-logging.md) (oder Aufgabenberichte](task-reports.md)) zu überprüfen. DataSyncstellt JSON-strukturierte Protokolle für Aufgaben im erweiterten Modus bereit, während Aufgaben im Basismodus unstrukturierte Protokolle enthalten.

## Es gibt Diskrepanzen zwischen den Inhalten einer Datei
<a name="troubleshooting-mismatch-file-contents"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Verification detected mismatches. Files with mismatches are listed in Cloud Watch Logs
```

In Ihren CloudWatch Protokollen stellen Sie möglicherweise fest, dass bei der Überprüfung von Inhalten, die sich zwischen Quell- und Zielspeicherort unterscheiden, Fehler aufgetreten sind. Dies kann passieren, wenn Dateien während Ihrer Übertragung geändert werden.

Aus den folgenden Protokollen geht beispielsweise hervor, dass es unterschiedliche `dstHash` Werte für `mtime``srcHash`, und `file1.txt` hat:

**Beispiel für ein Protokoll im Basismodus**  

```
[NOTICE] Verification failed <> /directory1/directory2/file1.txt
[NOTICE] /directory1/directory2/file1.txt   srcMeta: type=R mode=0755 uid=65534 gid=65534 size=534528 atime=1633100003/684349800 mtime=1602647222/222919600 extAttrsHash=0
[NOTICE]   srcHash: 0c506c26bd1e43bd3ac346734f1a9c16c4ad100d1b43c2903772ca894fd24e44
[NOTICE] /directory1/directory2/file1.txt   dstMeta: type=R mode=0755 uid=65534 gid=65534 size=511001 atime=1633100003/684349800 mtime=1633106855/859227500 extAttrsHash=0
[NOTICE]   dstHash: dbd798929f11a7c0201e97f7a61191a83b4e010a449dfc79fbb8233801067c46
```

In `mtime` steht für den Zeitpunkt DataSync, an dem vor der [Vorbereitung](how-datasync-transfer-works.md#how-datasync-prepares) zum letzten Mal in eine Datei geschrieben wurde. DataSync Vergleicht bei der Überprüfung von Übertragungen `mtime` Werte zwischen Quell- und Zielspeicherorten. Ein solcher Überprüfungsfehler tritt auf, wenn der `mtime` Wert für eine Datei nicht für beide Speicherorte identisch ist. Die Unterschiede zwischen `srcHash` und `dstHash` deuten darauf hin, dass der Inhalt der Datei nicht an beiden Speicherorten übereinstimmt.

**Zu ergreifende Maßnahmen**  
Gehen Sie wie folgt vor:

1. Verwenden Sie einen Epochenzeitkonverter, um festzustellen, ob die Quell- oder Zieldatei oder das Objekt in jüngerer Zeit geändert wurde. Auf diese Weise können Sie ermitteln, welche Version aktuell ist.

1. Um diesen Fehler erneut zu vermeiden, sollten [Sie Ihre Aufgabe so planen](task-scheduling.md), dass sie während eines Wartungsfensters ausgeführt wird, wenn an Ihrer Quelle und Ihrem Ziel keine Aktivität stattfindet.

## Die SMB-Metadaten einer Datei stimmen nicht überein
<a name="troubleshooting-mismatch-smb-attributes"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Verification detected mismatches. Files with mismatches are listed in Cloud Watch Logs
```

Bei der Übertragung zwischen Speichersystemen, die das Server Message Block (SMB) -Protokoll unterstützen, wird dieser Fehler möglicherweise angezeigt, wenn die erweiterten SMB-Attribute einer Datei nicht zwischen Quelle und Ziel übereinstimmen.

Aus den folgenden Protokollen geht beispielsweise hervor, dass der `extAttrsHash` Wert zwischen den Speicherorten unterschiedlich `file1.txt` ist, was darauf hindeutet, dass der Dateiinhalt identisch ist, aber am Ziel keine erweiterten Attribute festgelegt wurden:

**Beispiel für ein Protokoll im Basismodus**  

```
[NOTICE] Verification failed <> /directory1/directory2/file1.txt
[NOTICE] /directory1/directory2/file1.txt   srcMeta: type=R mode=0755 uid=65534 gid=65534 size=1469752 atime=1631354985/174924200 mtime=1536995541/986211400 extAttrsHash=2272191894
[NOTICE]   srcHash: 38571d42b646ac8f4034b7518636b37dd0899c6fc03cdaa8369be6e81a1a2bb5
[NOTICE] /directory1/directory2/file1.txt   dstMeta: type=R mode=0755 uid=65534 gid=65534 size=1469752 atime=1631354985/174924200 mtime=1536995541/986211400 extAttrsHash=3051150340
[NOTICE]   dstHash: 38571d42b646ac8f4034b7518636b37dd0899c6fc03cdaa8369be6e81a1a2bb5
```

Möglicherweise wird Ihnen auch eine entsprechende Fehlermeldung zu erweiterten Attributen angezeigt:

```
[ERROR] Deferred error: WriteFileExtAttr2 failed to setextattrlist(filename="/directory1/directory2/file1.txt"): Input/output error
```

**Maßnahme**  
Dieser Fehler tritt normalerweise auf, wenn nicht genügend Berechtigungen zum Kopieren von Zugriffskontrolllisten (ACLs) an das Ziel vorhanden sind. Lesen Sie je nach Zieltyp die folgenden Konfigurationshandbücher, um dieses Problem zu beheben:
+ [Erforderliche Berechtigungen](create-fsx-location.md#create-fsx-windows-location-permissions) FSx für Windows File Server-Dateisysteme
+ [Erforderliche Berechtigungen](create-ontap-location.md#create-ontap-location-smb) FSx für ONTAP-Dateisysteme, die SMB verwenden

## Die zu übertragenden Dateien befinden sich nicht mehr am Quellspeicherort
<a name="source-files-deleted-preparation"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Selected files transferred except for files skipped due to errors. If no skipped files are listed in Cloud Watch Logs, please contact AWS Support for further assistance.
```

In Ihren Protokollen werden möglicherweise Fehler angezeigt, die darauf hinweisen, dass sich die Dateien nicht am Quellspeicherort befinden. Dies kann passieren, wenn Dateien (wie `file1.dll` und`file2.dll`) nach der [Vorbereitung](how-datasync-transfer-works.md#how-datasync-prepares), aber vor der DataSync Übertragung gelöscht werden:

**Beispiel für ein Protokoll im Basismodus**  

```
[ERROR] Failed to open source file /file1.dll: No such file or directory
[ERROR] Failed to open source file /file2.dll: No such file or directory
```

**Maßnahme**  
Um diese Situationen zu vermeiden, sollten [Sie Ihre Aufgabe so planen](task-scheduling.md), dass sie ausgeführt wird, wenn am Quellspeicherort keine Aktivität stattfindet.

Sie können Ihre Aufgabe beispielsweise während eines Wartungsfensters ausführen, wenn Benutzer und Anwendungen nicht aktiv an diesem Standort arbeiten.

In einigen Fällen werden Ihnen möglicherweise keine Protokolle angezeigt, die mit diesem Fehler verknüpft sind. Wenden Sie sich in diesem Fall an [AWS Support das Center](https://console.aws.amazon.com/support/home#/).

## DataSync kann die Zieldaten nicht verifizieren
<a name="troubleshooting-cant-verify-destination"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Verification detected mismatches. Files with mismatches are listed in Cloud Watch Logs
```

In Ihren Protokollen stellen Sie möglicherweise fest, dass bestimmte Ordner oder Dateien am Zielort nicht verifiziert werden DataSync können. Diese Fehler können wie folgt aussehen:

**Beispiel für ein Protokoll im Basismodus**  

```
[ERROR] Failed to read metadata for destination file /directory1/directory2/file1.txt: No such file or directory
```

Bei Dateien treten möglicherweise Bestätigungsfehler wie folgt auf:

**Beispiel für ein Protokoll im Basismodus**  

```
[NOTICE] Verification failed <> /directory1/directory2/file1.txt
[NOTICE] /directory1/directory2/file1.txt   srcMeta: type=R mode=0755 uid=65534 gid=65534 size=61533 atime=1633099987/747713800 mtime=1536995631/894267700 extAttrsHash=232104771
[NOTICE]   srcHash: 1426fe40f669a7d36cca1b5329983df31a9aeff8eb9fe3ac885f26de2f8fff6b
[NOTICE] /directory1/directory2/file1.txt   dstMeta: type=R mode=0755 uid=65534 gid=65534 size=0 atime=0/0 mtime=0/0 extAttrsHash=0
[NOTICE]   dstHash: 0000000000000000000000000000000000000000000000000000000000000000
```

**Maßnahme**  
Diese Protokolle weisen darauf hin, dass die Zieldaten nach der Übertragung, aber vor der Überprüfung gelöscht wurden. (Protokolle sehen ähnlich aus, wenn Daten im selben Zeitraum an einen Quellspeicherort hochgeladen werden.)

Um diese Situationen zu vermeiden, sollten [Sie Ihre Aufgabe so planen](task-scheduling.md), dass sie ausgeführt wird, wenn am Zielort keine Aktivität stattfindet.

Sie können Ihre Aufgabe beispielsweise während eines Wartungsfensters ausführen, wenn Benutzer und Anwendungen nicht aktiv an diesem Standort arbeiten.

## DataSync kann Objektmetadaten nicht lesen
<a name="troubleshooting-cant-read-object-metadata"></a>

Wenn Ihre Aufgabenausführung abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Transfer and verification completed. Selected files transferred except for files skipped due to errors. If no skipped files are listed in Cloud Watch Logs, please contact AWS Support for further assistance.
```

In Ihren Protokollen stellen Sie möglicherweise fest, dass `file1.png` aufgrund einer fehlgeschlagenen Amazon S3 `HeadObject` S3-Anfrage nicht gelesen werden DataSync kann. [DataSync stellt während der Vorbereitung und Überprüfung von Aufgaben `HeadObject` Anfragen](create-s3-location.md#create-s3-location-s3-requests-made) an S3-Standorte.

**Beispiel für ein Protokoll im Basismodus**  

```
[WARN] Failed to read metadata for file /file1.png: S3 Head Object Failed
```

**Zu ergreifende Maßnahmen**  
Um dieses Problem zu beheben, überprüfen Sie, ob Sie DataSync über die richtigen Berechtigungen verfügen, um mit Ihrem S3-Bucket zu arbeiten:
+ Stellen Sie sicher, dass die IAM-Rolle, die für den Zugriff auf Ihre Amazon S3 S3-Standorte DataSync verwendet wird, die `s3:GetObject` Genehmigung erteilt. Weitere Informationen finden Sie unter [Erforderliche Berechtigungen](create-s3-location.md#create-s3-location-required-permissions).
+ Wenn Ihr S3-Bucket serverseitige Verschlüsselung verwendet, stellen Sie sicher, DataSync dass er auf die Objekte in diesem Bucket zugreifen darf. Weitere Informationen finden Sie unter [Zugriff auf S3-Buckets mithilfe serverseitiger Verschlüsselung](create-s3-location.md#create-s3-location-encryption).

## Die systemdefinierten Metadaten eines Objekts stimmen nicht überein
<a name="troubleshooting-verification-object-system-metadata"></a>

Wenn Ihre Aufgabenausführung im erweiterten Modus zwischen S3-Buckets abgeschlossen ist, wird der folgende Fehler angezeigt:

```
Verification failed due to a difference in metadata
```

Möglicherweise stellen Sie in Ihren Protokollen fest, dass die [systemdefinierten Amazon S3 S3-Metadaten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingMetadata.html#SysMetadata) eines Objekts nicht übereinstimmen. In diesem speziellen Beispiel hat das Quellobjekt keine `Content-Type` Metadaten, das Zielobjekt jedoch. Dies geschah, weil der Ziel-S3-Bucket automatisch `"ContentType": "application/octet-stream"` Metadaten auf das Objekt angewendet hat, als es dorthin DataSync übertragen wurde.

**Beispiel für ein Protokoll im erweiterten Modus**  

```
{
    "Action": "VERIFY",
    "Source": {
        "LocationId": "loc-0b3017fc4ba4a2d8d",
        "RelativePath": "encoding/content-null",
        "Metadata": {
            "Type": "Object",
            "ContentSize": 24,
            "LastModified": "2024-12-23T15:48:15Z",
            "S3": {
                "SystemMetadata": {
                    "ETag": "\"68b9c323bb846841ee491481f576ed4a\""
                },
                "UserMetadata": {},
                "Tags": {}
            }
        }
    },
    "Destination": {
        "LocationId": "loc-abcdef01234567890",
        "RelativePath": "encoding/content-null",
        "Metadata": {
            "Type": "Object",
            "ContentSize": 24,
            "LastModified": "2024-12-23T16:00:03Z",
            "S3": {
                "SystemMetadata": {
                    "ContentType": "application/octet-stream",
                    "ETag": "\"68b9c323bb846841ee491481f576ed4a\""
                },
                "UserMetadata": {
                    "file-mtime": "1734968895000"
                },
                "Tags": {}
            }
        }
    },
    "TransferType": "CONTENT_AND_METADATA",
    "ErrorCode": "MetadataDiffers",
    "ErrorDetail": "Verification failed due to a difference in metadata"
}
```

**Maßnahme**  
Um diesen Fehler zu vermeiden, aktualisieren Sie Ihre Quellstandortobjekte so, dass sie die `Content-Type` Metadaten-Eigenschaft enthalten.

## Grundlegendes zur Dauer der Datenüberprüfung
<a name="verifying-status-too-long"></a>

DataSync Die Überprüfung umfasst eine SHA256 Prüfsumme für den Dateiinhalt und einen genauen Vergleich der Dateimetadaten zwischen Speicherorten. Wie lange die Überprüfung dauert, hängt von mehreren Faktoren ab, darunter der Anzahl der beteiligten Dateien oder Objekte, der Größe der Daten in den Speichersystemen und der Leistung dieser Systeme.

**Maßnahme**  
Angesichts der Faktoren, die sich auf die Dauer der Überprüfung auswirken können, sollten Sie nichts weiter tun müssen. Wenn bei der Ausführung Ihrer Aufgabe jedoch der Status „[Verifizierung](run-task.md#understand-task-execution-statuses)“ festgefahren zu sein scheint, wenden Sie sich an das [AWS Support Center](https://console.aws.amazon.com/support/home#/).

# Fehlerbehebung bei höheren als erwarteten S3-Speicherkosten mit DataSync
<a name="multipart-upload-policy"></a>

Wenn Ihre Amazon S3 S3-Speicherkosten nach einer AWS DataSync Übertragung höher sind, als Sie dachten, kann das an einem oder mehreren der folgenden Gründe liegen:
+ Bei der Übertragung zu oder aus S3-Buckets entstehen Ihnen Kosten im Zusammenhang mit S3-API-Anfragen von. DataSync
+ DataSync verwendet die mehrteilige Upload-Funktion von Amazon S3, um Objekte in S3-Buckets hochzuladen. Dieser Ansatz kann zu unerwarteten Speichergebühren für Uploads führen, die nicht erfolgreich abgeschlossen werden.
+ DataSync kopiert Objekt-Tags aus Quell- und Zielobjekten, wenn **Objekt-Tags kopieren** in der Konsole aktiviert oder auf `PRESERVE` eingestellt `ObjectTags` ist. Beim Kopieren dieser Objekt-Tags können Kosten für S3-API-Anfragen anfallen. 
+ Die Objektversionierung kann für Ihr S3-Bucket aktiviert sein. Die Objektversionierung führt dazu, dass Amazon S3 mehrere Kopien von Objekten speichert, die denselben Namen haben.

**Zu ergreifende Maßnahmen**  
In diesen Fällen können Sie die folgenden Schritte durchführen:
+ Vergewissern Sie sich, dass Sie verstehen, wie S3-Anfragen DataSync verwendet werden und wie sich diese auf Ihre Speicherkosten auswirken könnten. Weitere Informationen finden Sie unter [Bewertung der Kosten für S3-Anfragen bei der Verwendung DataSync](create-s3-location.md#create-s3-location-s3-requests).
+ Wenn das Problem mit mehrteiligen Uploads zusammenhängt, konfigurieren Sie eine Richtlinie für mehrteilige Uploads für Ihren S3-Bucket, um unvollständige mehrteilige Uploads zu bereinigen und so die Speicherkosten zu senken. Weitere Informationen finden Sie im AWS Blogbeitrag [S3 Lifecycle Management Update — Support for Multipart Uploads and Delete](https://aws.amazon.com/blogs/aws/s3-lifecycle-management-update-support-for-multipart-uploads-and-delete-markers/) Markers. 
+ Wenn das Problem mit dem Kopieren von Objekt-Tags zusammenhängt und Sie keine Objekt-Tags benötigen, deaktivieren Sie das Kontrollkästchen **Objekt-Tags kopieren** in der DataSync Konsole oder setzen Sie es `ObjectTags` auf, `None` wenn Sie eine Aufgabe erstellen, starten oder aktualisieren.
+ Wenn das Problem mit der Objektversionierung zusammenhängt, deaktivieren Sie die Objektversionierung in Ihrem S3-Bucket.

[Wenn Sie weitere Hilfe benötigen, wenden Sie sich an AWS Support das Center.](https://console.aws.amazon.com/support/home#/)