

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Datenschutz in Amazon S3
<a name="data-protection"></a>

Zusätzlich zu der Stabilität, die die AWS globale Infrastruktur bietet, bietet Amazon S3 eine Reihe von Funktionen, mit denen Sie Ihre Daten vor versehentlichem Löschen oder regionalen Ausfällen schützen können. 

**S3-Replikation**  
Sie können die Live-Replikation zum automatischen, asynchronen Kopieren von Objekten in Amazon-S3-Buckets nutzen. Buckets, die für die Objektreplikation konfiguriert sind, können demselben AWS-Konto oder unterschiedlichen Konten gehören. Sie können Objekte in einen einzelnen Ziel-Bucket oder in mehrere Ziel-Buckets replizieren. Die Ziel-Buckets können sich in einer anderen Region AWS-Regionen oder in derselben Region wie der Quell-Bucket befinden. Um Failover-Steuerungen zu aktivieren, können Sie die Replikation bidirektional konfigurieren, damit Ihre Quell- und Ziel-Buckets bei einem regionalen Ausfall synchron gehalten werden. Weitere Informationen finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md).

**Multi-Region-Zugangspunkte und Failover-Kontrollen**  
Amazon S3 Multi-Region Access Points stellen einen globalen Endpunkt bereit, mit dem Anwendungen Anforderungen von S3-Buckets ausführen können, die sich in mehreren AWS-Regionen befinden. Sie können Multi-Region Access Points verwenden, um Multi-Region-Anwendungen mit derselben Architektur zu erstellen, die in einer einzelnen Region verwendet wird, und diese Anwendungen dann überall auf der Welt ausführen. Anstatt Anforderungen über das überlastete öffentliche Internet zu senden, bieten Multi-Regions-Zugriffspunkte integrierte Netzwerkausfallsicherheit mit Beschleunigung internetbasierter Anforderungen an Amazon S3. Anwendungsanforderungen an einen globalen Endpunkt von Multi-Region Access Points verwenden [AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/) für die automatische Weiterleitung über das globale AWS -Netzwerk an den nächstgelegenen S3-Bucket mit einem aktiven Routing-Status. Weitere Informationen zu Multi-Region-Zugangspunkten finden Sie unter [Verwalten von Multi-Region-Traffic mit Multi-Region Access Points](MultiRegionAccessPoints.md).  
Mit den Failover-Kontrollen für Amazon S3 Multi-Region Access Points können Sie die Geschäftskontinuität bei regionalen Verkehrsunterbrechungen aufrechterhalten und Ihren Anwendungen gleichzeitig eine regionsübergreifende Architektur zur Erfüllung von Compliance- und Redundanzanforderungen bieten. Wenn Ihr regionaler Datenverkehr unterbrochen wird, können Sie mithilfe der Failover-Steuerelemente für mehrere Regionen auswählen, welcher AWS-Regionen hinter einem Amazon S3-Access Point mit mehreren Regionen Datenzugriffs- und Speicheranfragen verarbeitet werden soll.   
Zur Failover-Unterstützung können Sie Ihren Multi-Region Access Point in einer Aktiv-Passiv-Konfiguration einrichten, wobei der Datenverkehr unter normalen Bedingungen in die aktive Region fließt und sich eine passive Region für den Failover im Standby-Modus befindet. Wenn Sie die regionsübergreifende Replikation in S3 (CRR) mit bidirektionalen Replikationsregeln aktiviert haben, können Sie Ihre Buckets während eines Failovers synchronisieren. Weitere Informationen zu Failover-Kontrollen finden Sie unter [Failover-Kontrollen für Amazon S3 Multi-Region Access Points](MrapFailover.md).

**S3-Versioning**  
Das Versioning ermöglicht Ihnen, mehrere Versionen eines Objekts im selben Bucket aufzubewahren. Sie können Versioning verwenden, um sämtliche Versionen aller Objekte in Ihrem Amazon S3 Bucket zu speichern, abzurufen oder wiederherzustellen. Daten lassen sich dank Versioning nach unbeabsichtigten Benutzeraktionen und Anwendungsfehlern leicht wiederherstellen. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

**S3-Objektsperre**  
Mit der S3-Objektsperre können Sie Objekte anhand des Modells *Write Once Read Many* (WORM) speichern. Mit der S3-Objektsperre können Sie für einen festen Zeitraum oder auf unbegrenzte Zeit verhindern, dass ein Objekt gelöscht oder überschrieben wird. Sie können die S3-Objektsperre verwenden, um regulatorische Anforderungen einzuhalten, die die WORM-Speicherung verlangen, oder um eine zusätzliche Schutzebene gegen Objektänderungen und -löschungen einzurichten. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).

**AWS Backup**  
Amazon S3 ist nativ integriert AWS Backup, ein vollständig verwalteter, richtlinienbasierter Service, mit dem Sie Backup-Richtlinien zum Schutz Ihrer Daten in Amazon S3 zentral definieren können. Nachdem Sie Ihre Backup-Richtlinien definiert und Amazon S3 S3-Ressourcen den Richtlinien zugewiesen haben, AWS Backup automatisiert die Erstellung von Amazon S3 S3-Backups und speichert die Backups sicher in einem verschlüsselten Backup-Tresor, den Sie in Ihrem Backup-Plan angeben. Weitere Informationen finden Sie unter [Sichern von Amazon-S3-Daten](backup-for-s3.md).

Wie Sie einige dieser Features zusammen nutzen, um Ihre Daten zu schützen, erfahren Sie im [Tutorial: Schutz von Daten in Amazon S3 vor versehentlichem Löschen oder Anwendungsfehlern mithilfe von S3 Versionierung, S3 Object Lock und S3 Replication](https://aws.amazon.com/getting-started/hands-on/protect-data-on-amazon-s3/?ref=docs_gateway/amazons3/DataDurability.html).

**Wichtig**  
Lesen Sie zusätzlich zur Nutzung der oben genannten Features zum Schutz Ihrer Daten auch die Empfehlungen unter [Bewährte Methoden für die Sicherheit in Amazon S3](security-best-practices.md). 

**Topics**
+ [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md)
+ [Verwalten von Multi-Region-Traffic mit Multi-Region Access Points](MultiRegionAccessPoints.md)
+ [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md)
+ [Sperren von Objekten mit Object Lock](object-lock.md)
+ [Sichern von Amazon-S3-Daten](backup-for-s3.md)

# Replizieren von Objekten innerhalb und zwischen Regionen
<a name="replication"></a>

Sie können die Replikation zum automatischen, asynchronen Kopieren von Objekten in Amazon-S3-Buckets nutzen. Buckets, die für die Objektreplikation konfiguriert sind, können sich im Besitz desselben AWS-Konto oder unterschiedlicher Konten befinden. Sie können Objekte in einen einzelnen Ziel-Bucket oder in mehrere Ziel-Buckets replizieren. Die Ziel-Buckets können sich in einer anderen Region AWS-Regionen oder in derselben Region wie der Quell-Bucket befinden.

Es gibt zwei Arten der Replikation: die *Live-Replikation* und die *On-Demand-Replikation*.
+ **Live-Replikation** – Verwenden Sie die Live-Replikation, **um neue und aktualisierte Objekte automatisch zu replizieren**, während sie in den Quell-Bucket geschrieben werden. Die Live-Replikation repliziert keine Objekte, die bereits vor dem Einrichten der Replikation in dem Bucket vorhanden waren. Verwenden Sie die On-Demand-Replikation, um Objekte zu replizieren, die bereits vor dem Einrichten der Replikation vorhanden waren.
+ **On-Demand-Replikation** – Verwenden Sie S3-Batch-Replikation, **um bestehende Objekte** bei Bedarf aus dem Quell-Bucket in einen oder mehrere Ziel-Buckets zu replizieren. Weitere Informationen zum Replizieren vorhandener Objekte finden Sie unter [Wann die S3-Batch-Replikation verwendet wird](#batch-replication-scenario).

Es gibt zwei Arten von Live-Replikationen: die *Cross-Region Replication (CRR)* und die *Same-Region Replication (SRR)*.
+ **Regionsübergreifende Replikation (CRR)** — Sie können CRR verwenden, um Objekte in verschiedenen Amazon S3 S3-Buckets zu replizieren. AWS-Regionen Weitere Informationen zur CRR finden Sie unter [Verwenden der regionsübergreifenden Replikation](#crr-scenario).
+ **Same-Region Replication (SRR)** – Verwenden Sie die Replikation innerhalb derselben Region (SRR), um Objekte aus Amazon-S3-Buckets in derselben AWS-Region zu replizieren. Weitere Informationen zur SRR finden Sie unter [Verwenden von Replikation innerhalb derselben Region](#srr-scenario).

**Topics**
+ [Gründe zur Verwendung der Replikation](#replication-scenario)
+ [Verwenden der regionsübergreifenden Replikation](#crr-scenario)
+ [Verwenden von Replikation innerhalb derselben Region](#srr-scenario)
+ [Wann sollte die bidirektionale Replikation verwendet werden](#two-way-replication-scenario)
+ [Wann die S3-Batch-Replikation verwendet wird](#batch-replication-scenario)
+ [Workload-Anforderungen und Live-Replikationen](#replication-workload-requirements)
+ [Was repliziert Amazon S3?](replication-what-is-isnot-replicated.md)
+ [Anforderungen und Überlegungen zu Replikationen](replication-requirements.md)
+ [Einrichten einer Live-Replikation – Überblick](replication-how-setup.md)
+ [Verwalten oder Pausieren einer Live-Replikation](disable-replication.md)
+ [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md)
+ [Fehlerbehebung bei einer Replikation](replication-troubleshoot.md)
+ [Überwachen der Replikation mit Metriken, Ereignisbenachrichtigungen und Status](replication-metrics.md)

## Gründe zur Verwendung der Replikation
<a name="replication-scenario"></a>

Die Replikation unterstützt Sie bei Folgendem:
+ **Objekte replizieren und dabei Metadaten beibehalten** — Sie können die Replikation verwenden, um Kopien Ihrer Objekte zu erstellen, die alle Metadaten, wie z. B. die Erstellungszeit und Version des ursprünglichen Objekts, beibehalten. IDs Diese Funktion ist wichtig, wenn Sie sicherstellen müssen, dass Ihr Replikat mit dem Quellobjekt identisch ist.
+ **Replikation von Objekten in verschiedene Speicherklassen** – Sie können mit der Replikation Objekte direkt in S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive oder eine andere Speicherklasse in den Ziel-Buckets platzieren. Sie können Ihre Daten auch in dieselbe Speicherklasse replizieren und Lebenszyklus-Konfigurationen für die Ziel-Buckets verwenden, um Ihre Objekte bei zunehmendem Alter in eine Speicherklasse für seltener genutzte Objekte zu verschieben.
+ **Objektkopien unter unterschiedlichen Eigentümern verwalten** — Unabhängig davon, wem das Quellobjekt gehört, können Sie Amazon S3 anweisen, den Besitz des Replikats auf das Objekt zu ändern AWS-Konto , dem der Ziel-Bucket gehört. Diese Instance wird als *Eigentümer-Überschreibungs*-Option bezeichnet. Sie können diese Option nutzen, um den Zugriff auf Objektreplikate einzuschränken.
+ **Objekte über mehrere speichern lassen AWS-Regionen** — Um geografische Unterschiede in Bezug auf den Speicherort Ihrer Daten zu gewährleisten, können Sie mehrere Ziel-Buckets für verschiedene festlegen. AWS-Regionen Diese Funktion kann Ihnen helfen, bestimmte Compliance-Anforderungen zu erfüllen. 
+ **Objekte innerhalb von 15 Minuten replizieren** — Um Ihre Daten innerhalb eines vorhersehbaren Zeitraums in derselben AWS-Region oder in verschiedenen Regionen zu replizieren, können Sie S3 Replication Time Control (S3 RTC) verwenden. S3 RTC repliziert 99,99 Prozent der neuen in Amazon S3 gespeicherten Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement). Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).
**Anmerkung**  
S3 RTC gilt nicht für die Batch-Replikation. Die Batch-Replikation ist ein On-Demand-Replikationsauftrag und kann mit S3-Batchvorgängen verfolgt werden. Weitere Informationen finden Sie unter [Verfolgen von Auftragsstatus- und Abschluss](batch-ops-job-status.md).
+ **Synchronisieren Sie Buckets, replizieren Sie vorhandene Objekte und replizieren Sie zuvor fehlgeschlagene oder replizierte Objekte** – Verwenden Sie die Batch-Replikation als On-Demand-Replikationsaktion, um Buckets zu synchronisieren und vorhandene Objekte zu replizieren. Weitere Informationen dazu, wann Sie die Batch-Replikation verwenden sollten, finden Sie unter [Wann die S3-Batch-Replikation verwendet wird](#batch-replication-scenario).
+ **Objekte replizieren und zu einem Bucket in einer anderen AWS-Region wechseln** – Damit während der Datenreplikation alle Metadaten und Objekte zwischen Buckets synchron bleiben, verwenden Sie Regeln für die bidirektionale Replikation, bevor Sie die Failover-Kontrollen für Amazon S3 Multi-Region Access Points konfigurieren. Bidirektionale Replikationsregeln tragen dazu bei, sicherzustellen, dass wenn Daten in den S3-Bucket geschrieben werden, auf den der Datenverkehr bei einem Failover zurückgreift, diese Daten dann zurück in den Quell-Bucket repliziert werden.

## Verwenden der regionsübergreifenden Replikation
<a name="crr-scenario"></a>

Die regionsübergreifende Replikation (Cross-Region Replication, CRR) von S3 wird verwendet, um Objekte in Amazon-S3-Buckets in verschiedene zu kopieren AWS-Regionen. CRR kann Sie bei Folgendem unterstützen:
+ **Einhalten der Compliance-Anforderungen** – Auch wenn Amazon S3 Ihre Daten standardmäßig in mehreren geografisch entfernten Availability Zones speichert, machen es die Compliance-Anforderungen möglicherweise erforderlich, Daten in noch größeren Entfernungen zu speichern. Um diese Anforderungen zu erfüllen, verwenden Sie die Replikation in mehreren Regionen, um Daten zwischen entfernten AWS-Regionen zu replizieren.
+ **Latenz minimieren** — Wenn sich Ihre Kunden an zwei geografischen Standorten befinden, können Sie die Latenz beim Zugriff auf Objekte minimieren, indem Sie Objektkopien speichern AWS-Regionen , die sich geografisch näher an Ihren Benutzern befinden.
+ **Steigern Sie die betriebliche Effizienz** — Wenn Sie Rechencluster in zwei verschiedenen Bereichen haben AWS-Regionen , die dieselbe Gruppe von Objekten analysieren, können Sie sich dafür entscheiden, Objektkopien in diesen Regionen zu verwalten.

## Verwenden von Replikation innerhalb derselben Region
<a name="srr-scenario"></a>

Mit der Replikation innerhalb derselben Region (Same-Region Replication, SRR) können Objekte in Amazon-S3-Buckets in derselben kopiert werden AWS-Region. SRR kann Sie bei Folgendem unterstützen:
+ **Aggregieren von Protokollen in einen einzelnen Bucket** – Wenn Sie Protokolle in mehrere Buckets oder kontoübergreifend speichern, können Sie Protokolle ganz einfach in einen einzelnen Bucket innerhalb derselben Region replizieren. Dies ermöglicht eine einfachere Protokollverarbeitung an einem einzelnen Standort.
+ **Konfigurieren von Live-Replikation zwischen Produktions- und Testkonten** – Wenn Sie oder Ihre Kunden Produktions- und Testkonten haben, die dieselben Daten nutzen, können Sie Objekte kontoübergreifend replizieren und dabei die Objektmetadaten erhalten.
+ **Halten Sie sich an Gesetze zur Datenhoheit** — Möglicherweise müssen Sie mehrere Kopien Ihrer Daten AWS-Konten in einer bestimmten Region getrennt speichern. Mit der Replikation innerhalb derselben Region können Sie automatisch kritische Daten replizieren, wenn Ihre Daten aufgrund von Compliance-Regelungen im Land bleiben müssen.

## Wann sollte die bidirektionale Replikation verwendet werden
<a name="two-way-replication-scenario"></a>
+ **Erstellen Sie gemeinsam genutzte Datensätze für mehrere AWS-Regionen** — Mit der Replikatmodifikationssynchronisierung können Sie Metadatenänderungen wie Objektzugriffskontrolllisten (ACLs), Objekt-Tags oder Objektsperren auf einfache Weise auf Replikationsobjekte replizieren. Diese bidirektionale Replikation ist wichtig, wenn Sie alle Objekte und Objektmetadatenänderungen synchron halten möchten. Sie können [die Synchronisierung von Replikatänderungen für eine neue oder bestehende Replikationsregel aktivieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes), wenn Sie eine bidirektionale Replikation zwischen zwei oder mehr Buckets in derselben oder verschiedenen AWS-Regionen durchführen.
+ **Sorgen Sie dafür, dass Daten während eines Failovers regionsübergreifend synchronisiert werden — Sie können Daten in Buckets zwischen den einzelnen Regionen** synchronisieren, AWS-Regionen indem Sie Regeln für die bidirektionale Replikation mit S3 Cross-Region Replication (CRR) direkt von einem multiregionalen Access Point aus konfigurieren. Um eine fundierte Entscheidung darüber zu treffen, wann ein Failover eingeleitet werden soll, können Sie auch S3-Replikationsmetriken aktivieren, sodass Sie die Replikation in Amazon CloudWatch, in S3 Replication Time Control (S3 RTC) oder vom Multi-Region Access Point aus überwachen können.
+ **Sorgen Sie für hohe Verfügbarkeit Ihrer Anwendung** – Selbst im Fall einer regionalen Datenverkehrsunterbrechung können Sie bidirektionale Replikationsregeln verwenden, um alle Metadaten und Objekte während der Datenreplikation Bucket-übergreifend synchron zu halten.

## Wann die S3-Batch-Replikation verwendet wird
<a name="batch-replication-scenario"></a>

Die Batch-Replikation repliziert vorhandene Objekte als On-Demand-Option in verschiedene Buckets. Im Gegensatz zur Live-Replikation können diese Aufträge nach Bedarf ausgeführt werden. Die Batch-Replikation unterstützt Sie bei Folgendem:
+ **Replizieren vorhandener Objekte** – Sie können die Batch-Replikation verwenden, um Objekte zu replizieren, die dem Bucket hinzugefügt wurden, bevor die Replikation innerhalb derselben Region oder die Replikation in mehreren Regionen konfiguriert wurden.
+ **Replizieren Sie Objekte, bei denen die Replikation zuvor fehlgeschlagen hat** – Sie können einen Batch-Replikationsauftrag filtern, um Objekte mit dem Replikationsstatus **FEHLGESCHLAGEN** zu replizieren.
+ **Replizieren von Objekten, die bereits repliziert wurden** – Möglicherweise müssen Sie mehrere Kopien Ihrer Daten in separaten AWS-Konten oder AWS-Regionen speichern. Die Batch-Replikation kann vorhandene Objekte an neu hinzugefügte Ziele replizieren.
+ **Replizieren von Replikaten von Objekten, die aus einer Replikationsregel erstellt wurden** – Replikationskonfigurationen erstellen Replikate von Objekten in Ziel-Buckets. Replikate von Objekten können nur mit Batch-Replikation repliziert werden.

## Workload-Anforderungen und Live-Replikationen
<a name="replication-workload-requirements"></a>

Abhängig von Ihren Workload-Anforderungen eignen sich einige Arten der Live-Replikation besser für Ihren Anwendungsfall als andere. Verwenden Sie die folgende Tabelle, um zu ermitteln, welche Art von Replikation Sie für Ihre Situation verwenden sollten, und ob Sie die Begrenzung der S3-Replikationszeit (S3 RTC) für Ihren Workload nutzen sollten oder nicht. S3 RTC repliziert 99,99 Prozent der neuen in Amazon S3 gespeicherten Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement (SLA)). Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).


| Workload-Anforderung | S3 RTC (15 Minuten SLA) | Regionsübergreifende Replikation (CRR) | Same-Region Replication (SRR, Replikation in derselben Region) | 
| --- | --- | --- | --- | 
| Replizieren Sie Objekte zwischen verschiedenen AWS-Konten | Ja | Ja | Ja | 
| Replizieren Sie Objekte innerhalb derselben AWS-Region innerhalb von 24-48 Stunden (nicht SLA-gestützt) | Nein | Nein | Ja | 
| Objekte zwischen verschiedenen Objekten AWS-Regionen innerhalb von 24-48 Stunden replizieren (nicht SLA-gestützt) | Nein | Ja | Nein | 
|  Vorhersehbare Replikationszeit: Unterstützt durch SLA für eine Replizierung von 99,9 Prozent der Objekte innerhalb von 15 Minuten  | Ja | Nein | Nein | 

# Was repliziert Amazon S3?
<a name="replication-what-is-isnot-replicated"></a>

Amazon S3 repliziert nur bestimmte Elemente in Buckets, die für die Replikation konfiguriert sind. 

**Topics**
+ [Was wird mit Replikationskonfigurationen repliziert?](#replication-what-is-replicated)
+ [Was wird mit Replikationskonfigurationen nicht repliziert?](#replication-what-is-not-replicated)

## Was wird mit Replikationskonfigurationen repliziert?
<a name="replication-what-is-replicated"></a>

Standardmäßig repliziert Amazon S3 Folgendes:
+ Objekte, die nach dem Hinzufügen einer Replikations-Konfiguration erstellt wurden.
+ Unverschlüsselte Objekte. 
+ Objekte, die mit vom Kunden bereitgestellten Schlüsseln (SSE-C) verschlüsselt wurden, Objekte, die im Ruhezustand unter einem von Amazon S3 verwalteten Schlüssel (SSE-S3) oder einem in AWS Key Management Service (SSE-KMS) gespeicherten KMS-Schlüssel verschlüsselt wurden. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md). 
+ Objektmetadaten von den Quellobjekten zu den Replikaten Informationen zum Replizieren von Metadaten aus den Replikaten zu den Quellobjekten finden Sie unter [Replizieren von Metadatenänderungen mit der Synchronisierung von Replikatänderungen](replication-for-metadata-changes.md).
+ Nur Objekte im Quell-Bucket, für die der Bucket-Besitzer berechtigt ist, Objekte und Zugriffskontrolllisten () zu lesen. ACLs 

  Weitere Informationen zum Eigentum an Ressourcen finden Sie unter [Amazon-S3-Bucket- und Objekt-Eigentümerschaft](access-policy-language-overview.md#about-resource-owner).
+ Aktualisierungen der Objekt-ACL, es sei denn, Sie weisen Amazon S3 an, die Replikat-Eigentümerschaft zu ändern, wenn sich Quell- und Ziel-Buckets nicht im Besitz derselben Konten befinden 

  Weitere Informationen finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md). 

  Es kann eine Weile dauern, bis Amazon S3 die beiden ACLs synchronisieren kann. Diese Änderung der Eigentümerschaft gilt nur für Objekte, die erstellt wurden, nachdem Sie dem Bucket eine Replikationskonfiguration hinzugefügt haben.
+  Objekt-Markierungen, sofern vorhanden.
+ Informationen zur Beibehaltung der S3-Objektsperre, sofern vorhanden. 

  Wenn Amazon S3 Objekte mit angewandten Aufbewahrungsinformationen repliziert, wendet es dieselben Aufbewahrungssteuerungen auf Ihre Replikate an, wodurch der für Ihre Ziel-Buckets konfigurierte standardmäßige Aufbewahrungszeitraum überschrieben wird. Wenn auf die Objekte in Ihrem Quell-Bucket keine Aufbewahrungssteuerungen angewandt sind und Sie sie in Ziel-Buckets mit festgelegtem Standard-Aufbewahrungszeitraum replizieren, wird der Standard-Aufbewahrungszeitraum der Ziel-Buckets auf Ihre Objektreplikate angewandt. Weitere Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).

### Auswirkungen von Löschvorgängen auf die Replikation
<a name="replication-delete-op"></a>

Wenn Sie ein Objekt aus dem Quell-Bucket löschen, werden standardmäßig die folgenden Aktionen ausgeführt:
+ Wenn Sie eine DELETE-Anforderung ohne Angabe einer Objektversions-ID stellen, fügt Amazon S3 eine Löschmarkierung hinzu. Amazon S3 befasst sich wie folgt mit der Löschmarkierung:
  + Wenn Sie die aktuelle Version der Replikations-Konfiguration verwenden, d. h. das Element `Filter` in einer Replikations-Konfigurations-Regel angeben, repliziert Amazon S3 die Löschmarkierung nicht standardmäßig. Sie können den non-tag-based Regeln jedoch die *Replikation von Löschmarken* hinzufügen. Weitere Informationen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](delete-marker-replication.md).
  + Wenn Sie das Element `Filter` nicht angeben, geht Amazon S3 davon aus, dass die Replikations-Konfiguration Version V1 ist, und repliziert Löschmarkierungen, die aus Benutzeraktionen resultierten. Wenn Amazon S3 jedoch ein Objekt aufgrund einer Lebenszyklus-Aktion löscht, wird die Löschmarkierung nicht auf die Ziel-Buckets repliziert.
+ Wenn Sie angeben, dass eine Objektversions-ID in einer `DELETE`-Anforderung gelöscht werden soll, löscht Amazon S3 diese Objektversion im Quell-Bucket. Die Löschung wird jedoch nicht in den Ziel-Buckets repliziert. Anders ausgedrückt: Dieselbe Objektversion wird aus den Ziel-Buckets nicht gelöscht. Dies schützt Daten vor missbräuchlichen Löschungen. 

## Was wird mit Replikationskonfigurationen nicht repliziert?
<a name="replication-what-is-not-replicated"></a>

Standardmäßig repliziert Amazon S3 Folgendes nicht:
+ Objekte im Quell-Bucket, bei denen es sich um Replikate handelt, die von einer anderen Replikationsregel erstellt wurden. Zum Beispiel: Angenommen Sie konfigurieren eine Replikation, bei der Bucket A die Quelle und Bucket B das Ziel ist. Nehmen wir jetzt an, Sie fügen eine weitere Replikations-Konfiguration hinzu, bei der Bucket B die Quelle und Bucket C das Ziel ist. In diesem Fall werden Objekte in Bucket B, die Replikate von Objekten in Bucket A sind, nicht in Bucket C repliziert. 

  Verwenden Sie die Batch-Replikation, um Objekte zu replizieren, die Replikate sind. Weitere Informationen zum Konfigurieren der Batch-Replikation finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).
+ Objekte im Quell-Bucket, die bereits auf ein anderes Ziel repliziert wurden. Wenn Sie beispielsweise den Ziel-Bucket in einer vorhandenen Replikationskonfiguration ändern, repliziert Amazon S3 diese Objekte nicht erneut.

  Verwenden Sie die Batch-Replikation, um zuvor replizierte Objekte zu replizieren. Weitere Informationen zum Konfigurieren der Batch-Replikation finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).
+ Die Batch-Replikation unterstützt nicht das erneute Replizieren von Objekten, die mit der Versions-ID des Objekts aus dem Ziel-Bucket gelöscht wurden. Wenn Sie diese Objekte erneut replizieren möchten, können Sie die Quellobjekte mit einem Batch–Kopierauftrag kopieren. Beim Kopieren dieser Objekte werden neue Versionen des Objekts im Quell-Bucket erstellt und die Replikation zum Ziel wird automatisch initiiert. Weitere Informationen zur Verwendung von Batch Copy finden Sie unter [Beispiele, die Batch-Vorgänge zum Kopieren von Objekten verwenden](batch-ops-examples-copy.md).
+ Standardmäßig werden beim Replizieren aus einem anderen Bereich Löschmarken AWS-Konto, die dem Quell-Bucket hinzugefügt wurden, nicht repliziert.

  Informationen zum Replizieren von Löschmarkierungen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](delete-marker-replication.md).
+ Objekte, die in den Speicherklassen oder -ebenen S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive, S3 Intelligent-Tiering Archive Access oder S3 Intelligent-Tiering Deep Archive Access gespeichert sind. Sie können diese Objekte erst replizieren, wenn Sie sie wiederhergestellt und in eine andere Speicherklasse kopiert haben. 

  Weitere Informationen über S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive finden Sie unter [Speicherklassen für Objekte, auf die selten zugegriffen wird](storage-class-intro.md#sc-glacier).

  Weitere Informationen über S3 Intelligent-Tiering finden Sie unter [Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten](intelligent-tiering.md).
+ Objekte im Quell-Bucket, für die der Bucket-Eigentümer nicht über ausreichende Berechtigungen zur Replikation verfügt. 

  Weitere Informationen darüber, wie ein Objekt-Eigentümer einem Bucket-Eigentümer Berechtigungen erteilen kann, finden Sie unter [Erteilung von kontoübergreifenden Berechtigungen für das Hochladen von Objekten, wobei sichergestellt wird, dass der Bucket-Eigentümer volle Kontrolle besitzt](example-bucket-policies.md#example-bucket-policies-acl-2).
+ Aktualisierungen von Unterressourcen auf Bucket-Ebene. 

  Wenn Sie beispielsweise die Lebenszyklus-Konfiguration ändern oder eine Benachrichtigungskonfiguration zu Ihrem Quell-Bucket hinzufügen, werden diese Änderungen nicht auf den Ziel-Bucket angewendet. Durch diese Funktion ist es möglich, für den Quell- und den Ziel-Bucket verschiedene Konfigurationen zu nutzen. 
+ Aktionen, die von der Lebenszyklus-Konfiguration durchgeführt werden. 

  Wenn eine Lebenszyklus-Konfiguration beispielsweise nur auf Ihrem Quell-Bucket aktiviert ist, erstellt Amazon S3 Löschmarkierungen für abgelaufene Objekte, repliziert diese Markierungen jedoch nicht. Wenn Sie dieselbe Lebenszyklus-Konfiguration sowohl auf den Quell- als auch auf den Ziel-Bucket anwenden möchten, aktivieren Sie für beide Buckets dieselbe Lebenszyklus-Konfiguration. Weitere Informationen zur Lebenszyklus-Konfiguration finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).
+ Wenn Sie tagbasierte Replikationsregeln mit Live-Replikation verwenden, müssen neue Objekte bei der `PutObject`-Operation mit dem Tag für die entsprechende Replikationsregel markiert werden. Andernfalls werden die Objekte nicht repliziert. Wenn Objekte erst nach der `PutObject`-Operation markiert werden, werden diese Objekte ebenfalls nicht repliziert. 

  Um Objekte zu replizieren, die nach der `PutObject`-Operation markiert wurden, müssen Sie die S3-Batch-Replikation verwenden. Weitere Informationen zur Batch-Replikationen finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).

# Anforderungen und Überlegungen zu Replikationen
<a name="replication-requirements"></a>

Eine Amazon S3 Replication setzt Folgendes voraus:
+ Der Besitzer des Quell-Buckets muss die Quelle und das Ziel für AWS-Regionen sein Konto aktiviert haben. Für das Konto des Ziel-Bucket-Eigentümers muss die Zielregion aktiviert sein. 

  Weitere Informationen zur Aktivierung oder Deaktivierung von finden Sie im *AWS -Kontenverwaltung Referenzhandbuch* unter [Geben Sie an AWS-Region, welche AWS-Regionen Konten verwendet werden können](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html).
+ Für Quell- und Ziel-Buckets muss die Versioning aktiviert sein. Weitere Informationen über das Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).
+ Amazon S3 muss berechtigt sein, Objekte aus dem Quell-Bucket in Ihrem Namen in den Ziel-Bucket/die Ziel-Buckets zu replizieren. Weitere Informationen zu diesen Berechtigungen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).
+ Wenn der Eigentümer des Quell-Buckets das Objekt im Bucket nicht besitzt, muss der Objekteigentümer dem Bucket-Eigentümer in der Access Control List (ACL) des Objekts die Berechtigungen `READ` und `READ_ACP` gewähren. Weitere Informationen finden Sie unter [Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md). 
+ Wenn für den Quell-Bucket die S3-Objektsperre aktiviert ist, muss sie für die Ziel-Buckets ebenfalls aktiviert sein. 

  Um die Replikation für einen Bucket zu aktivieren, für den Object Lock aktiviert ist, müssen Sie die AWS Command Line Interface REST-API oder AWS SDKs verwenden. Weitere allgemeine Informationen finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).
**Anmerkung**  
Sie müssen zwei neue Berechtigungen für den S3-Quell-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen lauten `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigung verfügt, ist die Anforderung erfüllt. Weitere Informationen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).

Weitere Informationen finden Sie unter [Einrichten einer Live-Replikation – Überblick](replication-how-setup.md). 

Wenn Sie die Replikationskonfiguration in einem *kontoübergreifenden Szenario* festlegen, in dem sich die Quell- und Ziel-Buckets im Besitz von verschiedenen AWS-Konten befinden, gilt die folgenden zusätzliche Anforderung:
+ Der Eigentümer der Ziel-Buckets muss dem Eigentümer des Quell-Buckets mit einer Bucket-Richtlinie die Berechtigungen zum Replizieren von Objekten erteilen. Weitere Informationen finden Sie unter [(Optional) Schritt 3: Erteilen von Berechtigungen, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).
+ Die Ziel-Buckets dürfen nicht als Buckets des Typs "Zahlung durch den Anforderer" konfiguriert sein. Weitere Informationen finden Sie unter [Verwendung von Allzweck-Buckets mit „Zahlung durch den Anforderer“ für Speicherübertragungen und Nutzung](RequesterPaysBuckets.md).

## Überlegungen zur Replikation
<a name="replication-and-other-bucket-configs"></a>

Seien Sie sich der folgenden Überlegungen bewusst, bevor Sie eine Replikationskonfiguration erstellen. 

**Topics**
+ [Lebenszyklus-Konfiguration und Objektreplikate](#replica-and-lifecycle)
+ [Versioning-Konfiguration und Replikations-Konfiguration](#replication-and-versioning)
+ [Verwenden der S3-Replikation mit S3 Intelligent-Tiering](#replication-and-intelligent-tiering)
+ [Protokollierungskonfiguration und Replikations-Konfiguration](#replication-and-logging)
+ [CRR und die Zielregion](#replication-and-dest-region)
+ [S3-Batch-Replikation](#considerations-batch-replication)
+ [Begrenzung der S3-Replikationszeit](#considerations-RTC)

### Lebenszyklus-Konfiguration und Objektreplikate
<a name="replica-and-lifecycle"></a>

Die von Amazon S3 für die Replikation eines Objekts benötigte Zeit hängt von der Größe des Objekts ab. Bei großen Objekten kann dies mehrere Stunden dauern. Auch wenn es möglicherweise etwas dauert, bis ein Replikat im Ziel verfügbar ist, entspricht die Erstellungszeit des Replikats der Erstellungszeit des entsprechenden Objekts im Quell-Bucket. Wenn eine Lebenszyklus-Konfiguration für einen Ziel-Bucket aktiviert ist, berücksichtigen die Lebenszyklusregeln die ursprüngliche Erstellungszeit des Objekts, nicht den Zeitpunkt, zu dem das Replikat im Ziel-Bucket verfügbar wurde. 

Die Replikations-Konfiguration erfordert einen Bucket mit aktiviertem Versioning. Berücksichtigen Sie bei der Aktivierung des Versioning in einem Bucket Folgendes:
+ Wenn eine Lebenszyklus-Konfiguration für den Ablauf von Objekten vorhanden ist, nachdem Sie die Versionsverwaltung aktiviert haben, fügen Sie eine `NonCurrentVersionExpiration`-Richtlinie hinzu, damit dasselbe Verhalten hinsichtlich einer dauerhaften Löschung beibehalten wird wie vor der Aktivierung der Versionsverwaltung.
+ Wenn eine Übergangs-Lebenszyklus-Konfiguration vorhanden ist, nachdem Sie die Versionsverwaltung aktiviert haben, sollten Sie in Betracht ziehen, eine `NonCurrentVersionTransition`-Richtlinie hinzuzufügen.

### Versioning-Konfiguration und Replikations-Konfiguration
<a name="replication-and-versioning"></a>

Wenn Sie die Replikation auf einem Bucket konfigurieren, muss sowohl für den Quell- als auch für den Ziel-Bucket das Versioning aktiviert sein. Nachdem Sie sowohl im Quell- als auch im Ziel-Bucket das Versioning aktiviert und die Replikation im Quell-Bucket konfiguriert haben, werden Sie folgende Schwierigkeiten beobachten:
+ Wenn Sie versuchen, das Versioning auf dem Quell-Bucket zu deaktivieren, gibt Amazon S3 einen Fehler zurück. Sie müssen die Replikations-Konfiguration entfernen, damit Sie das Versioning auf dem Quell-Bucket deaktivieren können.
+ Wenn Sie das Versioning auf dem Ziel-Bucket deaktivieren, schlägt die Replikation fehl. Das Quellobjekt weist den Replikationsstatus `FAILED` auf.

### Verwenden der S3-Replikation mit S3 Intelligent-Tiering
<a name="replication-and-intelligent-tiering"></a>

S3 Intelligent-Tiering ist eine Speicherklasse, die entworfen wurde, um die Speicherkosten zu optimieren, indem sie Daten automatisch zur kostengünstigsten Zugriffsstufe verschiebt. Gegen eine geringe monatliche Gebühr für Objektüberwachung und Automatisierung überwacht S3 Intelligent-Tiering die Zugriffsmuster und verschiebt die Objekte, auf die nicht zugegriffen wurde, automatisch in kostengünstigere Zugriffsebenen.

Das Replizieren von in S3 Intelligent-Tiering gespeicherten Objekte durch eine S3-Batch-Replikation oder das Aufrufen von [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html) oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html) stellt Zugriff dar. In diesen Fällen werden die Quellobjekte der Kopier- oder Replikationsvorgänge hochgestuft.

Weitere Informationen zu S3 Intelligent-Tiering finden Sie unter [Mit Amazon S3 Intelligent-Tiering Speicherkosten verwalten](intelligent-tiering.md).

### Protokollierungskonfiguration und Replikations-Konfiguration
<a name="replication-and-logging"></a>

Wenn Amazon S3 Protokolle an einen Bucket übermittelt, für den die Replikation aktiviert ist, repliziert der Service die Protokollobjekte.

Wenn Sie in Ihrem Quell- oder Ziel-Bucket [Server-Zugriffsprotokolle](ServerLogs.md) oder [AWS CloudTrail -Protokolle](cloudtrail-logging.md) aktiviert haben, schließt Amazon S3 die replikationsbezogenen Anforderungen in die Protokolle mit ein. Beispiel: Amazon S3 protokolliert jedes Objekt, das es repliziert. 

### CRR und die Zielregion
<a name="replication-and-dest-region"></a>

Amazon S3 Cross-Region Replication (CRR) wird verwendet, um Objekte zwischen verschiedenen S3-Buckets zu kopieren. AWS-Regionen Sie können die Region für Ihren Ziel-Bucket entweder auf der Basis Ihrer geschäftlichen Anforderungen oder von Kostenaspekten auswählen. Beispielsweise variieren die Gebühren für eine regionsübergreifende Datenübertragung je nach gewählten Regionen. 

Angenommen, Sie wählen USA Ost (Nord-Virginia) (`us-east-1`) als Region für Ihren Quell-Bucket aus. Wenn Sie USA West (Oregon) (`us-west-2`) als Region für Ihre Ziel-Buckets auswählen, zahlen Sie mehr, als wenn Sie die Region USA Ost (Ohio) (`us-east-2`) auswählen. Weitere Informationen zu Preisen finden Sie im Abschnitt „Datenübertragungspreise“ unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

Für eine Replikation innerhalb derselben Region (SRR) fallen keine Datenübertragungskosten an.

### S3-Batch-Replikation
<a name="considerations-batch-replication"></a>

Weitere Informationen zu Überlegungen bezüglich Batch-Replikationen finden Sie unter [Überlegungen zur S3-Batch-Replikation](s3-batch-replication-batch.md#batch-replication-considerations).

### Begrenzung der S3-Replikationszeit
<a name="considerations-RTC"></a>

Weitere Informationen zu bewährten Methoden und Überlegungen bezüglich der Begrenzung der S3-Replikationszeit (S3 RTC) finden Sie unter [Bewährte Methoden und Richtlinien für S3 RTC](replication-time-control.md#rtc-best-practices).

# Einrichten einer Live-Replikation – Überblick
<a name="replication-how-setup"></a>

**Anmerkung**  
Objekte, die vor dem Einrichten der Replikation vorhanden waren, werden nicht automatisch repliziert. Anders ausgedrückt: Amazon S3 repliziert Objekte nicht rückwirkend. Verwenden Sie die S3-Batch-Replikation, um Objekte zu replizieren, die vor Ihrer Replikationskonfiguration erstellt wurden. Weitere Informationen zum Konfigurieren einer Batch-Replikation finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).

Um eine Live-Replikation – Replikation in derselben Region (SRR) oder regionsübergreifende Replikation (CRR) – zu aktivieren, fügen Sie Ihrem Quell-Bucket eine Replikationskonfiguration hinzu. Diese Konfiguration weist Amazon S3 an, Objekte wie angegeben zu replizieren. In der Replikations-Konfiguration müssen Sie Folgendes angeben:
+ **Die Ziel-Buckets** – Der Bucket oder die Buckets, in den/die Amazon S3 die Objekte replizieren soll.
+ **Die Objekte, die Sie replizieren möchten** – Sie können alle Objekte im Quell-Bucket replizieren oder nur eine Teilmenge davon. Teilmengen identifizieren Sie, indem Sie ein [Schlüsselnamenpräfix](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#keyprefix), mindestens ein Objekt-Tag oder beides in der Konfiguration angeben.

  Wenn Sie beispielsweise eine Replikationsregel konfigurieren, um nur Objekte mit dem Schlüsselnamenpräfix `Tax/` zu replizieren, repliziert Amazon S3 Objekte mit Schlüsseln wie `Tax/doc1` oder `Tax/doc2`. Es repliziert aber keine Objekte mit dem Schlüssel `Legal/doc3`. Wenn Sie sowohl ein Präfix als auch mindestens ein Tag angeben, repliziert Amazon S3 nur Objekte, die dieses Schlüsselpräfix und diese Tags aufweisen.
+ **Eine AWS Identity and Access Management (IAM-) Rolle** — Amazon S3 übernimmt diese IAM-Rolle, um Objekte in Ihrem Namen zu replizieren. Weitere Informationen zur Erstellung dieser IAM-Rolle und Verwaltung von Berechtigungen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).

Zusätzlich zu diesen Mindestanforderungen können Sie die folgenden Optionen auswählen: 
+ **Replikat-Speicherklasse** – Standardmäßig speichert Amazon S3 Objektreplikate in derselben Speicherklasse wie das Quellobjekt. Sie können eine andere Speicherklasse für die Replikate festlegen.
+ **Replikat-Eigentümerschaft** – Amazon S3 geht davon aus, dass ein Objektreplikat weiterhin das Eigentum des Eigentümers des Quellobjekts bleibt. Wenn es Objekte repliziert, wird auch die entsprechende Objekt-Zugriffssteuerungsliste (ACL) oder die S3-Object-Ownership-Einstellung repliziert. Wenn sich der Quell- und der Ziel-Bucket im Besitz verschiedener AWS-Konten befinden, können Sie die Replikation so konfigurieren, dass der Besitzer eines Replikats auf das AWS-Konto geändert wird, dem der Ziel-Bucket gehört. Weitere Informationen finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md).

Sie können die Replikation mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API konfigurieren. AWS SDKs Eine ausführliche Anleitung zum Einrichten einer Replikation finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

 Amazon S3 stellt REST-API-Vorgänge zur Unterstützung der Einrichtung von Replikationsregeln bereit. Weitere Informationen finden Sie in den folgenden Themen in der *Amazon Simple Storage Service – API-Referenz*.
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) 
+  [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteBucketReplication.html) 

**Topics**
+ [Elemente der Replikationskonfigurationsdatei](replication-add-config.md)
+ [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md)
+ [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md)

# Elemente der Replikationskonfigurationsdatei
<a name="replication-add-config"></a>

Amazon S3 speichert die Replikations-Konfiguration als XML. Wenn Sie die Replikation programmgesteuert über die REST-API von Amazon S3 konfigurieren, geben Sie die verschiedenen Elemente Ihrer Replikationskonfiguration in dieser XML-Datei an. Wenn Sie die Replikation über die AWS Command Line Interface (AWS CLI) konfigurieren, geben Sie Ihre Replikationskonfiguration im JSON-Format an. JSON-Beispiele finden Sie in den Anleitungen unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

**Anmerkung**  
Die aktuelle Formatversion der Replikationskonfigurations-XML ist V2. XML V2-Replikations-Konfigurationen sind solche, die das `<Filter>`-Element für Regeln und Regeln enthalten, die S3-Replikations-Zeitkontrolle (S3 RTC) angeben.  
Um die Version Ihrer Replikationskonfiguration anzuzeigen, können Sie den `GetBucketReplication`-API-Vorgang verwenden. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) in der *API-Referenz zu Amazon Simple Storage Service*.   
Aus Gründen der Abwärtskompatibilität unterstützt Amazon S3 für Replikationskonfigurationen weiterhin das Format XML V1. Wenn Sie bisher für Replikationskonfigurationen das Format XML V1 verwendet haben, lesen Sie die Überlegungen zur Abwärtskompatibilität unter [Überlegungen zur Rückwärtskompatibilität](#replication-backward-compat-considerations).

In der XML-Datei für die Replikationskonfiguration müssen Sie eine AWS Identity and Access Management (IAM-) Rolle und eine oder mehrere Regeln angeben, wie im folgenden Beispiel gezeigt:

```
<ReplicationConfiguration>
    <Role>IAM-role-ARN</Role>
    <Rule>
        ...
    </Rule>
    <Rule>
         ... 
    </Rule>
     ...
</ReplicationConfiguration>
```

Amazon S3 kann ohne Berechtigung durch Sie keine Objekte replizieren. Sie gewähren Amazon S3 Berechtigungen mit der IAM-Rolle, die Sie in der Replikations-Konfiguration angeben. Amazon S3 übernimmt diese IAM-Rolle, um Objekte in Ihrem Namen zu replizieren. Sie müssen der IAM-Rolle zunächst die erforderlichen Berechtigungen erteilen. Weitere Informationen zum Verwalten von Berechtigungen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).

In den folgenden Szenarien fügen Sie nur eine Regel zur Replikationskonfiguration hinzu:
+ Sie möchten alle Objekte replizieren.
+ Sie möchten nur eine Teilmenge der Objekte replizieren. Sie identifizieren die Teilmenge der Objekte, indem Sie einen Filter zur Regel hinzufügen. In dem Filter geben Sie ein Objektschlüsselpräfix, Markierungen oder eine Kombination aus beidem an, um die Objektteilmenge zu identifizieren, für die die Regel gilt. Die Filter zielen auf Objekte ab, die genau den von Ihnen angegebenen Werten entsprechen.

Wenn Sie unterschiedliche Teilmengen von Objekten replizieren möchten, fügen Sie mehrere Regeln zu einer Replikationskonfiguration hinzu. In jeder Regel geben Sie einen Filter an, der eine andere Teilmenge auswählt. Beispiel: Sie möchten Objekte mit dem Schlüsselpräfix `tax/` oder `document/` replizieren. Dazu fügen Sie zwei Regeln hinzu, eine, die den `tax/`-Schlüsselpräfix-Filter angibt und eine andere, die das `document/`-Schlüsselpräfix angibt. Weitere Informationen zu Präfixen für Objektschlüssel finden Sie unter [Organisieren von Objekten mit Präfixen](using-prefixes.md).

In den folgenden Abschnitten finden Sie zusätzliche Informationen.

**Topics**
+ [Basisregelkonfiguration](#replication-config-min-rule-config)
+ [Optional: Festlegen eines Filters](#replication-config-optional-filter)
+ [Zusätzliche Zielkonfigurationen](#replication-config-optional-dest-config)
+ [Beispiele für Replikations-Konfigurationen](#replication-config-example-configs)
+ [Überlegungen zur Rückwärtskompatibilität](#replication-backward-compat-considerations)

## Basisregelkonfiguration
<a name="replication-config-min-rule-config"></a>

Jede Regel muss den Status und die Priorität der Regel enthalten. Die Regel muss auch angeben, ob Löschmarkierungen repliziert werden sollen. 
+ Das Element `<Status>` gibt an, ob die Regel mithilfe der Werte `Enabled` oder `Disabled` aktiviert oder deaktiviert ist. Wenn eine Regel deaktiviert ist, führt Amazon S3 die in der Regel angegebenen Aktionen nicht durch. 
+ Das Element `<Priority>` gibt an, welche Regel Vorrang hat, wenn zwei oder mehr Replikationsregeln in Konflikt stehen. Amazon S3 versucht, Objekte gemäß allen Replikationsregeln zu replizieren. Wenn es jedoch zwei oder mehr Regeln mit demselben Ziel-Bucket gibt, werden Objekte gemäß der Regel mit der höchsten Priorität repliziert. Je höher die Zahl, desto höher die Priorität.
+ Das Element `<DeleteMarkerReplication>` gibt an, ob Löschmarkierungen unter Verwendung der Werte `Enabled` oder `Disabled` repliziert werden sollen.

In der Konfiguration von Element `<Destination>` müssen Sie den Namen des Ziel-Buckets oder der Buckets angeben, in den/die Amazon S3 Objekte replizieren soll. 

Das folgende Beispiel zeigt die Mindestanforderungen für eine V2-Regel. Aus Gründen der Abwärtskompatibilität unterstützt Amazon S3 weiterhin das Format XML V1. Weitere Informationen finden Sie unter [Überlegungen zur Rückwärtskompatibilität](#replication-backward-compat-considerations).

```
...
    <Rule>
        <ID>Rule-1</ID>
        <Status>Enabled-or-Disabled</Status>
        <Filter>
            <Prefix></Prefix>   
        </Filter>
        <Priority>integer</Priority>
        <DeleteMarkerReplication>
           <Status>Enabled-or-Disabled</Status>
        </DeleteMarkerReplication>
        <Destination>        
           <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket> 
        </Destination>    
    </Rule>
    <Rule>
         ...
    </Rule>
     ...
...
```

Sie können auch andere Konfigurationsoptionen festlegen. Beispiel: Sie möchten für Objektreplikate eine andere Speicherklasse verwenden als für das Quellobjekt. 

## Optional: Festlegen eines Filters
<a name="replication-config-optional-filter"></a>

Um eine Teilmenge von Objekten auszuwählen, für die die Regel gilt, fügen Sie einen optionalen Filter hinzu. Sie können nach Objekt-Schlüsselpräfix, Objekt-Tags oder einer Kombination aus beidem filtern. Wenn Sie sowohl nach Schlüsselpräfix als auch nach Objekt-Tags filtern, kombiniert Amazon S3 die Filter mit einem logischen `AND`-Operator. Anders ausgedrückt: Die Regel wird auf eine Teilmenge von Objekten sowohl mit einem bestimmten Schlüsselpräfix als auch mit bestimmten Tags angewendet. 

**Filter basierend auf Objektschlüsselpräfix**  
Um eine Regel mit einem Filter nach Objektschlüsselpräfix festzulegen, verwenden Sie folgende XML-Datei. Sie können nur ein Präfix pro Regel angeben.

```
<Rule>
    ...
    <Filter>
        <Prefix>key-prefix</Prefix>   
    </Filter>
    ...
</Rule>
...
```

**Filter basierend auf Objekt-Markierungen**  
Um eine Regel mit einem Filter nach Objekt-Markierungen festzulegen, verwenden Sie folgende XML-Datei. Sie können einen oder mehrere Objekt-Markierungen festlegen.

```
<Rule>
    ...
    <Filter>
        <And>
            <Tag>
                <Key>key1</Key>
                <Value>value1</Value>
            </Tag>
            <Tag>
                <Key>key2</Key>
                <Value>value2</Value>
            </Tag>
             ...
        </And>
    </Filter>
    ...
</Rule>
...
```

**Filtern mit einem Schlüsselpräfix und Objekt-Markierungen**  
Um eine Regel mit einem Filter nach einer Kombination aus Schlüsselpräfix und Objekt-Markierungen festzulegen, verwenden Sie folgende XML-Datei. Sie wickeln diese Filter in ein übergeordnetes `<And>`-Element ein. Amazon S3 führt eine logische `AND`-Operation aus, um diese Filter zu kombinieren. Anders ausgedrückt: Die Regel wird auf eine Teilmenge von Objekten sowohl mit einem bestimmten Schlüsselpräfix als auch mit bestimmten Tags angewendet. 

```
<Rule>
    ...
    <Filter>
        <And>
            <Prefix>key-prefix</Prefix>
            <Tag>
                <Key>key1</Key>
                <Value>value1</Value>
            </Tag>
            <Tag>
                <Key>key2</Key>
                <Value>value2</Value>
            </Tag>
             ...
    </Filter>
    ...
</Rule>
...
```

**Anmerkung**  
Wenn Sie eine Regel mit einem leeren `<Filter>`-Element angeben, gilt Ihre Regel für alle Objekte in Ihrem Bucket.
Wenn Sie tagbasierte Replikationsregeln mit Live-Replikation verwenden, müssen neue Objekte bei der `PutObject`-Operation mit dem Tag für die entsprechende Replikationsregel markiert werden. Andernfalls werden die Objekte nicht repliziert. Wenn Objekte erst nach der `PutObject`-Operation markiert werden, werden diese Objekte ebenfalls nicht repliziert.   
Um Objekte zu replizieren, die nach der `PutObject`-Operation markiert wurden, müssen Sie die S3-Batch-Replikation verwenden. Weitere Informationen zur Batch-Replikationen finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).

## Zusätzliche Zielkonfigurationen
<a name="replication-config-optional-dest-config"></a>

In der Zielkonfiguration geben Sie den/die Bucket(s) an, in den/die Amazon S3 Objekte replizieren soll. Sie können Konfigurationen einrichten, um Objekte aus einem Quell-Bucket in einen oder mehrere Ziel-Buckets zu replizieren. 

```
...
<Destination>        
    <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
</Destination>
...
```

Sie können die folgenden Optionen im Element `<Destination>` hinzufügen.

**Topics**
+ [Festlegen der Speicherklasse](#storage-class-configuration)
+ [Hinzufügen mehrerer Ziel-Buckets](#multiple-destination-buckets-configuration)
+ [Angeben verschiedener Parameter für jede Replikationsregel mit mehreren Ziel-Buckets](#replication-rule-configuration)
+ [Ändern der Replikat-Eigentümerschaft](#replica-ownership-configuration)
+ [Aktivieren der S3 Replication Time Control](#rtc-configuration)
+ [Replizieren Sie Objekte, die mit serverseitiger Verschlüsselung erstellt wurden, mithilfe von AWS KMS](#sse-kms-configuration)

### Festlegen der Speicherklasse
<a name="storage-class-configuration"></a>

Sie können die Speicherklasse für die Objektreplikate festlegen. Standardmäßig verwendet Amazon S3 wie im folgenden Beispiel die Speicherklasse des Quellobjekts zum Erstellen von Objektreplikaten.

```
...
<Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
       <StorageClass>storage-class</StorageClass>
</Destination>
...
```

### Hinzufügen mehrerer Ziel-Buckets
<a name="multiple-destination-buckets-configuration"></a>

Sie können wie folgt mehrere Ziel-Buckets in einer einzigen Replikations-Konfiguration hinzufügen.

```
...
<Rule>
    <ID>Rule-1</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled-or-Disabled</Status>
    </DeleteMarkerReplication>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket1</Bucket> 
    </Destination>    
</Rule>
<Rule>
    <ID>Rule-2</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled-or-Disabled</Status>
    </DeleteMarkerReplication>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket2</Bucket> 
    </Destination>    
</Rule>
...
```

### Angeben verschiedener Parameter für jede Replikationsregel mit mehreren Ziel-Buckets
<a name="replication-rule-configuration"></a>

Wenn Sie mehrere Ziel-Buckets in einer einzigen Replikations-Konfiguration hinzufügen, können Sie wie folgt verschiedene Parameter für jede Replizierungsregel angeben.

```
...
<Rule>
    <ID>Rule-1</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Disabled</Status>
    </DeleteMarkerReplication>
      <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket1</Bucket> 
    </Destination>    
</Rule>
<Rule>
    <ID>Rule-2</ID>
    <Status>Enabled-or-Disabled</Status>
    <Priority>integer</Priority>
    <DeleteMarkerReplication>
       <Status>Enabled</Status>
    </DeleteMarkerReplication>
      <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
  <ReplicationTime>
    <Status>Enabled</Status>
    <Time>
      <Minutes>15</Minutes>
    </Time>
  </ReplicationTime>
    <Destination>        
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket2</Bucket> 
    </Destination>    
</Rule>
...
```

### Ändern der Replikat-Eigentümerschaft
<a name="replica-ownership-configuration"></a>

Wenn der Quell- und der Ziel-Bucket nicht denselben Konten gehören, können Sie den Besitz des Replikats auf das Konto ändern, dem der AWS-Konto Ziel-Bucket gehört. Fügen Sie dazu das `<AccessControlTranslation>`-Element hinzu. Dieses Element übernimmt den Wert `Destination`.

```
...
<Destination>
   <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
   <Account>destination-bucket-owner-account-id</Account>
   <AccessControlTranslation>
       <Owner>Destination</Owner>
   </AccessControlTranslation>
</Destination>
...
```

Wenn Sie das `<AccessControlTranslation>` Element nicht zur Replikationskonfiguration hinzufügen, gehören die Replikate demjenigen, der das AWS-Konto Quellobjekt besitzt. Weitere Informationen finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md).

### Aktivieren der S3 Replication Time Control
<a name="rtc-configuration"></a>

Sie können die S3-Replikationszeitkontrolle (S3 RTC) in Ihrer Replikations-Konfiguration aktivieren. S3 RTC repliziert die meisten Objekte in Sekunden und 99,99 Prozent der Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement). 

**Anmerkung**  
Für die Elemente `<EventThreshold>` und `<Time>` wird nur der Wert `<Minutes>15</Minutes>` akzeptiert.

```
...
<Destination>
  <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
  <Metrics>
    <Status>Enabled</Status>
    <EventThreshold>
      <Minutes>15</Minutes> 
    </EventThreshold>
  </Metrics>
  <ReplicationTime>
    <Status>Enabled</Status>
    <Time>
      <Minutes>15</Minutes>
    </Time>
  </ReplicationTime>
</Destination>
...
```

Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md). API-Beispiele finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketReplication.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Replizieren Sie Objekte, die mit serverseitiger Verschlüsselung erstellt wurden, mithilfe von AWS KMS
<a name="sse-kms-configuration"></a>

Ihr Quell-Bucket enthält möglicherweise Objekte, die mit serverseitiger Verschlüsselung mithilfe von () -Schlüsseln AWS Key Management Service (AWS KMS SSE-KMS) erstellt wurden. Standardmäßig repliziert Amazon S3 diese Objekte nicht. Optional können Sie Amazon S3 zum Replizieren dieser Objekte anweisen. Um dies zu tun, entscheiden Sie sich zunächst explizit für diese Funktion, indem Sie das `<SourceSelectionCriteria>`-Element hinzufügen. Geben Sie dann den AWS KMS key (für den Ziel-Bucket) an, AWS-Region der zum Verschlüsseln von Objektreplikaten verwendet werden soll. Das folgende Beispiel zeigt, wie diese Elemente angegeben werden.

```
...
<SourceSelectionCriteria>
  <SseKmsEncryptedObjects>
    <Status>Enabled</Status>
  </SseKmsEncryptedObjects>
</SourceSelectionCriteria>
<Destination>
  <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
  <EncryptionConfiguration>
    <ReplicaKmsKeyID>AWS KMS key ID to use for encrypting object replicas</ReplicaKmsKeyID>
  </EncryptionConfiguration>
</Destination>
...
```

Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).

## Beispiele für Replikations-Konfigurationen
<a name="replication-config-example-configs"></a>

Fügen Sie zunächst die folgenden Beispiel-Replikations-Konfigurationen zu Ihrem Bucket hinzu.

**Wichtig**  
Um eine Replikationskonfiguration zu einem Bucket hinzuzufügen, benötigen Sie die `iam:PassRole`-Berechtigung. Diese Berechtigung erlaubt es Ihnen, die IAM-Rolle weiterzugeben, die Amazon S3 die Replikationsberechtigungen erteilt. Sie legen die IAM-Rolle fest, indem Sie den Amazon-Ressourcennamen (ARN) angeben, der im `<Role>`-Element in der XML-Datei der Replikationskonfiguration verwendet wird. Weitere Informationen finden Sie unter [Erteilen von Berechtigungen, mit denen ein Benutzer eine Rolle an einen AWS-Serviceübergeben kann](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) im *IAM-Benutzerhandbuch*.

**Example 1: Replikations-Konfiguration mit einer Regel**  
Die folgende grundlegende Replikations-Konfiguration legt eine Regel fest. Die Regel legt eine IAM-Rolle, die Amazon S3 annehmen kann, sowie einen einzigen Ziel-Bucket für Objektreplikate fest. Wenn der Wert des `<Status>`-Elements `Enabled` lautet, bedeutet das, dass die Regel aktiviert ist.  

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>

    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```
Um eine Teilmenge von Objekten für die Replikation auszuwählen, können Sie einen Filter hinzufügen. In der folgenden Konfiguration gibt der Filter ein Objektschlüsselpräfix an. Diese Regel gilt für Objekte mit dem Schlüsselnamenpräfix `Tax/`.   

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>

    <Filter>
       <Prefix>Tax/</Prefix>
    </Filter>

    <Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>

  </Rule>
</ReplicationConfiguration>
```
Wenn Sie das `<Filter>`-Element angeben, müssen Sie auch die Elemente `<Priority>` und `<DeleteMarkerReplication>` einschließen. In diesem Beispiel ist der Wert, den Sie für das Element `<Priority>` festlegen, nicht relevant, da nur eine Regel vorhanden ist.  
In der folgenden Konfiguration gibt der Filter ein Präfix und zwei Markierungen an. Die Regel gilt für eine Untermenge der Objekte, die das angegebene Schlüsselpräfix und die angegebenen Markierungen aufweisen. Insbesondere gilt die Regel für Objekte, die das Präfix `Tax/` im Schlüsselnamen und die zwei festgelegten Objekt-Markierungen aufweisen. In diesem Beispiel ist der Wert, den Sie für das Element `<Priority>` festlegen, nicht relevant, da nur eine Regel vorhanden ist.  

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>

    <Filter>
        <And>
          <Prefix>Tax/</Prefix>
          <Tag>
             <Tag>
                <Key>tagA</Key>
                <Value>valueA</Value>
             </Tag>
          </Tag>
          <Tag>
             <Tag>
                <Key>tagB</Key>
                <Value>valueB</Value>
             </Tag>
          </Tag>
       </And>

    </Filter>

    <Destination>
        <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>

  </Rule>
</ReplicationConfiguration>
```
Sie können eine Speicherklasse für die Objektreplikate wie folgt festlegen:  

```
<?xml version="1.0" encoding="UTF-8"?>

<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Destination>
       <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
       <StorageClass>storage-class</StorageClass>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```
Sie können jede Speicherklasse festlegen, die Amazon S3 unterstützt.

**Example 2: Replikations-Konfiguration mit zwei Regeln**  

**Example**  
In der folgenden Replikationskonfiguration legen die Regeln Folgendes fest:  
+ Jede Regel filtert nach einem anderen Schlüsselpräfix, sodass jede Regel auf eine bestimmte Teilmenge von Objekten angewendet wird. In diesem Beispiel repliziert Amazon S3 Objekte mit den Schlüsselnamen *`Tax/doc1.pdf`* und *`Project/project1.txt`*, repliziert jedoch keine Objekte mit dem Schlüsselnamen *`PersonalDoc/documentA`*. 
+ Obwohl beide Regeln einen Wert für das Element `<Priority>` festlegen, ist die Regelpriorität nicht relevant, da die Regeln für zwei unterschiedliche Objektgruppen gelten. Das nächste Beispiel zeigt, was geschieht, wenn die Regelpriorität angewendet wird. 
+ Die zweite Regel gibt eine Speicherklasse S3 Standard-IA für Objektreplikate an. Amazon S3 verwendet die angegebene Speicherklasse für diese Objektreplikate.
   

```
<?xml version="1.0" encoding="UTF-8"?>

<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
  <Role>arn:aws:iam::account-id:role/role-name</Role>
  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>Tax</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
     ...
  </Rule>
 <Rule>
    <Status>Enabled</Status>
    <Priority>2</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>Project</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
     <StorageClass>STANDARD_IA</StorageClass>
    </Destination>
     ...
  </Rule>


</ReplicationConfiguration>
```

**Example 3: Replikations-Konfiguration mit zwei Regeln mit einander überlappenden Präfixen**  <a name="overlap-rule-example"></a>
In dieser Konfiguration geben die zwei Regeln Filter mit einander überlappenden Schlüsselpräfixen an – *`star`* und *`starship`*. Beide Regeln gelten für Objekte mit dem Schlüsselnamen *`starship-x`*. In diesem Fall nutzt Amazon S3 die Regelpriorität, um zu bestimmen, welche Regel angewendet werden soll. Je höher die Zahl, desto höher die Priorität.  

```
<ReplicationConfiguration>

  <Role>arn:aws:iam::account-id:role/role-name</Role>

  <Rule>
    <Status>Enabled</Status>
    <Priority>1</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>star</Prefix>
    </Filter>
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
  <Rule>
    <Status>Enabled</Status>
    <Priority>2</Priority>
    <DeleteMarkerReplication>
       <Status>string</Status>
    </DeleteMarkerReplication>
    <Filter>
        <Prefix>starship</Prefix>
    </Filter>    
    <Destination>
      <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```

**Example 4. Beispielhafte Walkthroughs**  
Beispielanleitungen finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

Weitere Informationen zur XML-Struktur der Replikationskonfiguration finden Sie [PutBucketReplication](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTreplication.html)in der *Amazon Simple Storage Service API-Referenz*. 

## Überlegungen zur Rückwärtskompatibilität
<a name="replication-backward-compat-considerations"></a>

Die aktuelle Formatversion der Replikationskonfigurations-XML ist V2. XML V2-Replikations-Konfigurationen sind solche, die das `<Filter>`-Element für Regeln und Regeln enthalten, die S3-Replikations-Zeitkontrolle (S3 RTC) angeben.

Um die Version Ihrer Replikationskonfiguration anzuzeigen, können Sie den `GetBucketReplication`-API-Vorgang verwenden. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketReplication.html) in der *API-Referenz zu Amazon Simple Storage Service*. 

Aus Gründen der Abwärtskompatibilität unterstützt Amazon S3 für Replikationskonfigurationen weiterhin das Format XML V1. Wenn Sie für die Replikationskonfiguration das Format XML V1 verwendet haben, berücksichtigen Sie bitte die folgenden Probleme, die die Abwärtskompatibilität beeinträchtigen:
+ Das Format XML V2 für die Replikationskonfiguration enthält das `<Filter>`-Element für Regeln. Mit dem `<Filter>`-Element können Sie Objektfilter basierend auf dem Objektschlüsselpräfix, Tags oder einer Kombination aus beidem angeben, um die Objekte festzulegen, für die die Regel gilt. Das Format XML V1 für die Replikationskonfiguration unterstützt eine Filterung, die ausschließlich auf dem Schlüsselpräfix basiert. In diesem Fall fügen Sie das Element `<Prefix>` wie im folgenden Beispiel direkt als untergeordnetes Element des Elements `<Rule>` hinzu:

  ```
  <?xml version="1.0" encoding="UTF-8"?>
  <ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
    <Role>arn:aws:iam::account-id:role/role-name</Role>
    <Rule>
      <Status>Enabled</Status>
      <Prefix>key-prefix</Prefix>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
      </Destination>
  
    </Rule>
  </ReplicationConfiguration>
  ```
+ Wenn Sie ein Objekt aus Ihrem Quell-Bucket löschen, ohne eine Objektversions-ID anzugeben, fügt Amazon S3 eine Löschmarkierung hinzu. Wenn Sie für die Replikationskonfiguration das Format XML V1 verwenden, repliziert Amazon S3 nur Löschmarkierungen, die von Benutzeraktionen stammen. Anders ausgedrückt: Amazon S3 repliziert die Löschmarkierung nur, wenn ein Benutzer ein Objekt löscht. Wenn ein abgelaufenes Objekt von Amazon S3 (im Rahmen einer Lebenszyklusaktion) entfernt wird, repliziert Amazon S3 die Löschmarkierung nicht. 

  Im XML V2-Format für die Replikationskonfiguration können Sie die Replikation von Löschmarken für non-tag-based Regeln aktivieren. Weitere Informationen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](delete-marker-replication.md). 

 

# Einrichten von Berechtigungen für die Live-Replikation
<a name="setting-repl-config-perm-overview"></a>

Wenn Sie eine Live-Replikation in Amazon S3 einrichten, müssen Sie die erforderlichen Berechtigungen wie folgt einholen:
+ Sie müssen dem AWS Identity and Access Management (IAM-) Prinzipal (Benutzer oder Rolle), der die Replikationsregeln erstellt, bestimmte Berechtigungen gewähren.
+ Amazon S3 benötigt Berechtigungen, um Objekte in Ihrem Namen zu replizieren. Sie erteilen diese Berechtigungen, indem Sie eine IAM-Rolle erstellen und die Rolle in der Replikationskonfiguration festlegen.
+ Wenn sich der Quell- und der Ziel-Bucket im Besitz verschiedener Konten befinden, muss der Eigentümer des Ziel-Buckets dem Quell-Bucket-Eigentümer auch die Berechtigungen zum Speichern der Replikate erteilen.

**Anmerkung**  
Wenn Sie S3 Batch Operations verwenden, um Objekte bei Bedarf zu replizieren, anstatt die Live-Replikation einzurichten, sind für die S3-Batch-Replikation eine andere IAM-Rolle und andere Richtlinien erforderlich. Beispiele für eine Batch-Replikations-IAM-Rolle und entsprechende Richtlinien finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).

**Topics**
+ [Schritt 1: Erteilen von Berechtigungen für den IAM-Prinzipal, der die Replikationsregeln erstellt](#setting-repl-config-role)
+ [Schritt 2: Erstellen einer IAM-Rolle, die Amazon S3 übernehmen soll](#setting-repl-config-same-acctowner)
+ [(Optional) Schritt 3: Erteilen von Berechtigungen, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten](#setting-repl-config-crossacct)
+ [(Optional) Schritt 4: Erteilen der Berechtigungen zum Ändern der Replikateigentümerschaft für](#change-replica-ownership)

## Schritt 1: Erteilen von Berechtigungen für den IAM-Prinzipal, der die Replikationsregeln erstellt
<a name="setting-repl-config-role"></a>

Der IAM-Benutzer oder die IAM-Rolle, die Sie zum Erstellen von Replikationsregeln verwenden, benötigt Berechtigungen zum Erstellen von Replikationsregeln für unidirektionale oder bidirektionale Replikationen. Wenn der Benutzer oder die Rolle diese Berechtigungen nicht hat, können Sie keine Replikationsregeln erstellen. Weitere Informationen finden Sie unter [IAM-Identitäten](https://docs.aws.amazon.com/IAM/latest/UserGuide/id.html) im *IAM-Benutzerhandbuch*.

Der Benutzer oder die Rolle benötigt die folgenden Aktionen:
+ `iam:AttachRolePolicy`
+ `iam:CreatePolicy`
+ `iam:CreateServiceLinkedRole`
+ `iam:PassRole`
+ `iam:PutRolePolicy`
+ `s3:GetBucketVersioning`
+ `s3:GetObjectVersionAcl`
+ `s3:GetObjectVersionForReplication`
+ `s3:GetReplicationConfiguration`
+ `s3:PutReplicationConfiguration`

Im Folgenden finden Sie ein Beispiel für eine IAM-Richtlinie, die diese Aktionen umfasst.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetAccessPoint",
                "s3:GetAccountPublicAccessBlock",
                "s3:GetBucketAcl",
                "s3:GetBucketLocation",
                "s3:GetBucketPolicyStatus",
                "s3:GetBucketPublicAccessBlock",
                "s3:ListAccessPoints",
                "s3:ListAllMyBuckets",
                "s3:PutReplicationConfiguration",
                "s3:GetReplicationConfiguration",
                "s3:GetBucketVersioning",
                "s3:GetObjectVersionForReplication",
                "s3:GetObjectVersionAcl",
                "s3:GetObject",
                "s3:ListBucket",
                "s3:GetObjectVersion",
                "s3:GetBucketOwnershipControls",
                "s3:PutBucketOwnershipControls",
                "s3:GetObjectLegalHold",
                "s3:GetObjectRetention",
                "s3:GetBucketObjectLockConfiguration"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket1-*",
                "arn:aws:s3:::amzn-s3-demo-bucket2-*/*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "s3:List*AccessPoint*",
                "s3:GetMultiRegion*"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:Get*",
                "iam:CreateServiceLinkedRole",
                "iam:CreateRole",
                "iam:PassRole"
            ],
            "Resource": "arn:aws:iam::*:role/service-role/s3*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:List*"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "iam:AttachRolePolicy",
                "iam:PutRolePolicy",
                "iam:CreatePolicy"
              ],
            "Resource": [
                "arn:aws:iam::*:policy/service-role/s3*",
                "arn:aws:iam::*:role/service-role/s3*"
            ]
        }
    ]
}
```

------

## Schritt 2: Erstellen einer IAM-Rolle, die Amazon S3 übernehmen soll
<a name="setting-repl-config-same-acctowner"></a>



Standardmäßig sind alle Amazon-S3-Ressourcen – Buckets, Objekte und zugehörige Unterressourcen – privat, sodass nur der Ressourcenbesitzer auf die Ressource zugreifen kann. Amazon S3 benötigt Berechtigungen zum Lesen und Replizieren von Objekten aus dem Quell-Bucket. Sie erteilen diese Berechtigungen, indem Sie eine IAM-Rolle erstellen und die Rolle in Ihrer Replikationskonfiguration festlegen. 

In diesem Abschnitt werden die Vertrauensrichtlinie und die mindestens erforderliche Berechtigungsrichtlinie erläutert, die dieser IAM-Rolle hinzugefügt werden. Die exemplarischen Vorgehensweisen enthalten step-by-step Anweisungen zum Erstellen einer IAM-Rolle. Weitere Informationen finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

**Anmerkung**  
Wenn Sie die Konsole verwenden, um Ihre Replikationskonfiguration zu erstellen, empfehlen wir Ihnen, diesen Abschnitt zu überspringen und stattdessen die Konsole diese IAM-Rolle und die erforderlichen Vertrauens- und Berechtigungsrichtlinien für Sie erstellen zu lassen.

Die *Vertrauensrichtlinie* legt fest, welche Prinzipalidentitäten die IAM-Rolle übernehmen können. Die *Berechtigungsrichtlinie* legt fest, welche Aktionen die IAM-Rolle für welche Ressourcen und unter welchen Bedingungen ausführen kann. 
+ Das folgende Beispiel zeigt eine *Vertrauensrichtlinie*, bei der Sie Amazon S3 als AWS-Service Principal identifizieren, der die Rolle übernehmen kann:

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement":[
        {
           "Effect":"Allow",
           "Principal":{
              "Service":"s3.amazonaws.com"
           },
           "Action":"sts:AssumeRole"
        }
     ]
  }
  ```

------
+ Das folgende Beispiel zeigt eine *Vertrauensrichtlinie*, bei der Sie Amazon S3 und S3-Batch-Vorgänge als Service-Prinzipale identifizieren, die die Rolle übernehmen können. Wenden Sie diesen Ansatz an, wenn Sie einen Batch-Replikationsauftrag erstellen. Weitere Informationen finden Sie unter [Einen Batch-Replikationsauftrag für neue Replikationsregeln oder Ziele erstellen](s3-batch-replication-new-config.md).

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement":[ 
        {
           "Effect":"Allow",
           "Principal":{
              "Service": [
                "s3.amazonaws.com",
                "batchoperations.s3.amazonaws.com"
             ]
           },
           "Action":"sts:AssumeRole"
        }
     ]
  }
  ```

------

  Weitere Informationen zu IAM-Rollen finden Sie unter [IAM-Rollen](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles.html) im *IAM-Benutzerhandbuch*.
+ Das folgende Beispiel zeigt eine *Zugriffsrichtlinie*, bei der Sie der IAM-Rolle die Berechtigungen erteilen, Replikationsaufgaben in Ihrem Namen durchzuführen. Wenn Amazon S3 die Rolle annimmt, verfügt es über die Berechtigungen, die Sie in dieser Richtlinie angeben. In dieser Richtlinie ist `amzn-s3-demo-source-bucket` der Quell-Bucket und `amzn-s3-demo-destination-bucket` der Ziel-Bucket.

------
#### [ JSON ]

****  

  ```
  {
     "Version":"2012-10-17",		 	 	 
     "Statement": [
        {
           "Effect": "Allow",
           "Action": [
              "s3:GetReplicationConfiguration",
              "s3:ListBucket"
           ],
           "Resource": [
              "arn:aws:s3:::amzn-s3-demo-source-bucket"
           ]
        },
        {
           "Effect": "Allow",
           "Action": [
              "s3:GetObjectVersionForReplication",
              "s3:GetObjectVersionAcl",
              "s3:GetObjectVersionTagging"
           ],
           "Resource": [
              "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
           ]
        },
        {
           "Effect": "Allow",
           "Action": [
              "s3:ReplicateObject",
              "s3:ReplicateDelete",
              "s3:ReplicateTags"
           ],
           "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        }
     ]
  }
  ```

------

  Die Berechtigungsrichtlinie erteilt Berechtigungen für die folgenden Aktionen:
  +  `s3:GetReplicationConfiguration` und `s3:ListBucket` – Berechtigungen für diese Aktionen im Bucket `amzn-s3-demo-source-bucket` erlauben es Amazon S3, die Replikationskonfiguration abzurufen und den Bucket-Inhalt aufzulisten. (Das aktuelle Berechtigungsmodell erfordert die `s3:ListBucket`-Berechtigung für den Zugriff auf Löschmarkierungen.)
  + `s3:GetObjectVersionForReplication` und `s3:GetObjectVersionAcl` – Berechtigungen für diese Aktionen, die für alle Objekte erteilt wurden, erlauben es Amazon S3, eine bestimmte Objektversion und eine mit Objekten verknüpfte Zugriffssteuerungsliste (ACL) abzurufen. 

    
  + `s3:ReplicateObject` und `s3:ReplicateDelete` – Berechtigungen für diese Aktionen für alle Objekte im `amzn-s3-demo-destination-bucket`-Bucket erlauben es Amazon S3, Objekte oder Löschmarkierungen in den Ziel-Bucket zu replizieren. Informationen zu Löschmarkierungen finden Sie unter [Auswirkungen von Löschvorgängen auf die Replikation](replication-what-is-isnot-replicated.md#replication-delete-op). 
**Anmerkung**  
Die Berechtigungen für die `s3:ReplicateObject` Aktion im `amzn-s3-demo-destination-bucket` Bucket ermöglichen auch die Replikation von Metadaten wie Objekt-Tags und ACLs. Daher müssen Sie für die `s3:ReplicateTags`-Aktion keine explizite Berechtigung erteilen.
  + `s3:GetObjectVersionTagging` – Berechtigungen für diese Aktion für Objekte im Bucket `amzn-s3-demo-source-bucket` erlauben es Amazon S3, Objektmarkierungen für die Replikation zu lesen. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md). Wenn Amazon S3 nicht über die Berechtigung `s3:GetObjectVersionTagging` verfügt, repliziert es die Objekte, aber nicht die Objektmarkierungen.

  Eine Liste von Amazon-S3-Aktionen finden Sie unter [Aktionen, Ressourcen und Bedingungsschlüssel für Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html#list_amazons3-actions-as-permissions) in der *Service-Autorisierungs-Referenz*.

  Weitere Informationen zu den Berechtigungen für S3-API-Operationen nach S3-Ressourcentypen finden Sie unter [Erforderliche Berechtigungen für Amazon-S3-API-Operationen](using-with-s3-policy-actions.md).
**Wichtig**  
 AWS-Konto Derjenige, der die IAM-Rolle besitzt, muss über Berechtigungen für die Aktionen verfügen, die er der IAM-Rolle gewährt.   
Angenommen, der Quell-Bucket enthält beispielsweise Objekte, die im Besitz eines anderen AWS-Konto sind. Der Besitzer der Objekte muss demjenigen AWS-Konto , dem die IAM-Rolle gehört, die erforderlichen Berechtigungen über die Zugriffskontrolllisten der Objekte () ausdrücklich gewähren. ACLs Andernfalls kann Amazon S3 nicht auf die Objekte zugreifen, und die Replikation dieser Objekte schlägt fehl. Weitere Informationen zu ACL-Berechtigungen finden Sie unter [Zugriffskontrolllisten (ACL) – Übersicht](acl-overview.md).  
  
Die hier beschriebenen Berechtigungen gehören zur Mindest-Replikationskonfiguration. Wenn Sie optionale Replikations-Konfigurationen hinzufügen möchten, müssen Sie Amazon S3 zusätzliche Berechtigungen erteilen:   
Um verschlüsselte Objekte zu replizieren, müssen Sie auch die erforderlichen Berechtigungen für den AWS KMS-Schlüssel ( AWS Key Management Service ) erteilen. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den Quell-S3-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication).

## (Optional) Schritt 3: Erteilen von Berechtigungen, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten
<a name="setting-repl-config-crossacct"></a>

Wenn sich der Quell- und der Ziel-Bucket im Besitz von unterschiedlichen Konten befinden, muss der Eigentümer des Ziel-Buckets auch eine Bucket-Richtlinie hinzufügen, um dem Eigentümer des Quell-Buckets die Berechtigung zum Ausführen von Replikationsaktionen zu erteilen, wie im folgenden Beispiel gezeigt. In dieser Beispielrichtlinie ist `amzn-s3-demo-destination-bucket` der Ziel-Bucket.

Sie können diese Bucket-Richtlinie auch automatisch über die Amazon-S3-Konsole für Sie generieren lassen. Weitere Informationen finden Sie unter [Den Empfang replizierter Objekte aus einem Quell-Bucket aktivieren](#receiving-replicated-objects).

**Anmerkung**  
Das ARN-Format der Rolle könnte anders aussehen. Wenn die Rolle mit der Konsole erstellt wurde, lautet das ARN-Format `arn:aws:iam::account-ID:role/service-role/role-name`. Wenn die Rolle mit dem erstellt wurde AWS CLI, lautet das ARN-Format`arn:aws:iam::account-ID:role/role-name`. Weitere Informationen finden Sie unter [IAM-Rollen](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html) im *IAM-Benutzerhandbuch*. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "PolicyForDestinationBucket",
    "Statement": [
        {
            "Sid": "Permissions on objects",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
            },
            "Action": [
                "s3:ReplicateDelete",
                "s3:ReplicateObject"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        },
        {
            "Sid": "Permissions on bucket",
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
            },
            "Action": [
                "s3:List*",
                "s3:GetBucketVersioning",
                "s3:PutBucketVersioning"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
        }
    ]
}
```

------

Ein Beispiel finden Sie unter [Konfigurieren einer Replikation bei Buckets in verschiedenen Konten](replication-walkthrough-2.md).

Wenn Objekte im Quell-Bucket mit einem Tag versehen sind, beachten Sie Folgendes:
+ Wenn der Eigentümer des Quell-Buckets Amazon S3 die Berechtigung für die Aktionen `s3:GetObjectVersionTagging` und `s3:ReplicateTags` zum Replizieren von Objekt-Tags (über die IAM-Rolle) erteilt, repliziert Amazon S3 die Tags zusammen mit den Objekten. Weitere Information zur IAM-Rolle finden Sie unter [Schritt 2: Erstellen einer IAM-Rolle, die Amazon S3 übernehmen soll](#setting-repl-config-same-acctowner).
+ Wenn der Eigentümer des Ziel-Buckets die Tags nicht replizieren will, kann er die folgende Anweisung zur Richtlinie für den Ziel-Bucket hinzufügen, um die Berechtigung für die Aktion `s3:ReplicateTags` explizit zu verweigern. In dieser Richtlinie ist `amzn-s3-demo-destination-bucket` der Ziel-Bucket.

  ```
  ...
     "Statement":[
        {
           "Effect":"Deny",
           "Principal":{
              "AWS":"arn:aws:iam::source-bucket-account-id:role/service-role/source-account-IAM-role"
           },
           "Action":"s3:ReplicateTags",
           "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
        }
     ]
  ...
  ```

**Anmerkung**  
Wenn Sie verschlüsselte Objekte replizieren möchten, müssen Sie auch die erforderlichen Berechtigungen für den AWS KMS-Schlüssel ( AWS Key Management Service ) erteilen. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den S3-Quell-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication). 

**Den Empfang replizierter Objekte aus einem Quell-Bucket aktivieren**  
Anstatt die vorherige Richtlinie manuell zu Ihrem Ziel-Bucket hinzuzufügen, können Sie schnell die Richtlinien generieren, die erforderlich sind, um den Empfang replizierter Objekte aus einem Quell-Bucket über die Amazon-S3-Konsole zu aktivieren. 

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Bucket aus, den Sie als Ziel-Bucket verwenden möchten.

1. Wählen Sie die Registerkarte **Management** (Verwaltung) aus und scrollen Sie nach unten zu **Replication rules** (Replikationsregeln).

1. Wählen Sie für **Actions** (Aktionen) die Option **Receive replicated objects** (Replizierte Objekte empfangen) aus. 

   Folgen Sie den Anweisungen, geben Sie die AWS-Konto ID des Quell-Bucket-Kontos ein und wählen Sie dann **Richtlinien generieren** aus. Die Konsole generiert daraufhin eine Amazon-S3-Bucket-Richtlinie und eine KMS-Schlüsselrichtlinie.

1. Wenn Sie diese Richtlinie Ihrer bestehenden Bucket-Richtlinie hinzufügen möchten, wählen Sie entweder **Apply settings** (Einstellungen anwenden) oder **Copy** (Kopieren) aus, um die Änderungen manuell zu kopieren. 

1. (Optional) Kopieren Sie die AWS KMS Richtlinie in die gewünschte KMS-Schlüsselrichtlinie in der AWS Key Management Service Konsole. 

## (Optional) Schritt 4: Erteilen der Berechtigungen zum Ändern der Replikateigentümerschaft für
<a name="change-replica-ownership"></a>

Wenn unterschiedliche AWS-Konten Eigentümer des Quell- und des Ziel-Buckets sind, können Sie Amazon S3 anweisen, den Eigentümer des Replikats auf den Eigentümer des Ziel-Buckets zu ändern. AWS-Konto Um den Besitz von Replikaten außer Kraft zu setzen, müssen Sie entweder zusätzliche Berechtigungen gewähren oder die Einstellungen für den Besitz von Objekten in S3 für den Ziel-Bucket anpassen. Weitere Informationen zum Außerkraftsetzen des Besitzers finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md).

# Beispiele für die Konfiguration einer Live-Replikation
<a name="replication-example-walkthroughs"></a>

Die folgenden Beispiele bieten step-by-step exemplarische Vorgehensweisen, die zeigen, wie die Live-Replikation für allgemeine Anwendungsfälle konfiguriert wird. 

**Anmerkung**  
Die Live-Replikation bezieht sich auf Replikation innerhalb derselben Region (SRR) und die Replikation in mehreren Regionen (CRR). Die Live-Replikation repliziert keine Objekte, die bereits vor dem Einrichten der Replikation in dem Bucket vorhanden waren. Verwenden Sie die On-Demand-Replikation, um Objekte zu replizieren, die bereits vor dem Einrichten der Replikation vorhanden waren. Informationen zum Synchronisieren von Buckets und zum bedarfsbasierten Replizieren vorhandener Objekte finden Sie unter [Replizieren vorhandener Objekte](s3-batch-replication-batch.md).

Diese Beispiele zeigen, wie eine Replikationskonfiguration mithilfe der Amazon S3 S3-Konsole, AWS Command Line Interface (AWS CLI) und AWS SDKs (AWS SDK für Java und es werden AWS SDK für .NET Beispiele gezeigt) erstellt. 

Informationen zur Installation und Konfiguration von finden Sie in den folgenden Themen im *AWS Command Line Interface Benutzerhandbuch*: AWS CLI
+  [Beginnen Sie mit dem AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) 
+  [Konfigurieren Sie das AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html) — Sie müssen mindestens ein Profil einrichten. Richten Sie bei kontoübergreifenden Szenarien zwei Profile ein.

Informationen über das AWS SDKs finden Sie unter [AWS SDK für Java](https://aws.amazon.com/sdk-for-java/)und [AWS SDK für .NET](https://aws.amazon.com/sdk-for-net/).

**Tipp**  
Ein step-by-step Tutorial, das zeigt, wie Sie Daten mithilfe der Live-Replikation replizieren können, finden Sie unter Praktische [Einführung: Replizieren von Daten innerhalb und zwischen Daten AWS-Regionen mithilfe der S3-Replikation](https://aws.amazon.com/getting-started/hands-on/replicate-data-using-amazon-s3-replication/?ref=docs_gateway/amazons3/replication-example-walkthroughs.html).

**Topics**
+ [Konfigurieren für Buckets im selben Konto](replication-walkthrough1.md)
+ [Konfigurieren bei Buckets in verschiedenen Konten](replication-walkthrough-2.md)
+ [Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md)
+ [Replizieren verschlüsselter Objekte](replication-config-for-kms-objects.md)
+ [Replizieren von Metadatenänderungen](replication-for-metadata-changes.md)
+ [Replizieren von Löschmarkierungen](delete-marker-replication.md)

# Konfigurieren einer Replikation für Buckets im selben Konto
<a name="replication-walkthrough1"></a>

Bei der Live-Replikation handelt es sich um das automatische, asynchrone Kopieren von Objekten zwischen Allzweck-Buckets in denselben oder unterschiedlichen Buckets. AWS-Regionen Eine Live-Replikation kopiert neu erstellte Objekte und Objektaktualisierungen aus einem Quell-Bucket in einen Ziel-Bucket oder mehrere Buckets. Weitere Informationen finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md).

Wenn Sie die Replikation konfigurieren, fügen Sie dem Quell-Bucket Replikationsregeln hinzu. Replikationsregeln definieren, welche Quell-Bucket-Objekte repliziert werden sollen, und den Ziel-Bucket/die Ziel-Buckets, in dem/denen die replizierten Objekte gespeichert werden sollen. Sie können eine Regel erstellen, um alle Objekte in einem Bucket oder eine Untermenge von Objekten mit einem spezifischen Schlüsselnamenpräfixen, einem oder mehreren Objekt-Markierungen oder beidem zu replizieren. Ein Ziel-Bucket kann sich im selben AWS-Konto wie der Quell-Bucket oder in einem anderen Konto befinden.

Wenn Sie angeben, dass eine Objektversions-ID gelöscht werden soll, löscht Amazon S3 diese Objektversion im Quell-Bucket. Es repliziert die Löschung aber nicht im Ziel-Bucket. Anders ausgedrückt: Dieselbe Objektversion wird im Ziel-Bucket nicht gelöscht. Dies schützt Daten vor missbräuchlichen Löschungen.

Wenn Sie einem Bucket eine Replikationsregel hinzufügen, ist diese standardmäßig aktiviert, sodass sie ausgeführt wird, sobald Sie sie speichern. 

In diesem Beispiel richten Sie eine Live-Replikation für Quell- und Ziel-Buckets ein, die demselben AWS-Konto gehören. Es werden Beispiele für die Verwendung der Amazon S3 S3-Konsole, der AWS Command Line Interface (AWS CLI) und der AWS SDK für Java und bereitgestellt AWS SDK für .NET.

## Voraussetzungen
<a name="replication-prerequisites"></a>

Bevor Sie die folgenden Verfahren verwenden, stellen Sie sicher, dass Sie die erforderlichen Berechtigungen für die Replikation eingerichtet haben, je nachdem, ob sich Quell- und Ziel-Buckets im Eigentum desselben oder unterschiedlicher befinden. Weitere Informationen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).

**Anmerkung**  
Wenn Sie verschlüsselte Objekte replizieren möchten, müssen Sie auch die erforderlichen Berechtigungen für den AWS KMS-Schlüssel ( AWS Key Management Service ) erteilen. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den Quell-S3-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication). 

## Verwenden der S3-Konsole
<a name="enable-replication"></a>

Gehen Sie wie folgt vor, um eine Replikationsregel zu konfigurieren, wenn sich der Ziel-Bucket im selben AWS-Konto wie der Quell-Bucket befindet.

Wenn sich der Ziel-Bucket in einem anderen Konto als der Quell-Bucket befindet, müssen Sie eine Bucket-Richtlinie für den Ziel-Bucket hinzufügen, um dem Eigentümer des Quell-Bucket-Kontos die Berechtigung zum Replizieren von Objekten in der Ziel-Bucket zu erteilen. Weitere Informationen finden Sie unter [(Optional) Schritt 3: Erteilen von Berechtigungen, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des von Ihnen erstellten Buckets aus.

1. Wählen Sie die Registerkarte **Verwaltung** aus, scrollen Sie nach unten zu **Replikationsregeln** und wählen Sie dann **Replikationsregel erstellen** aus.

    

1. Geben Sie im Abschnitt **Replikationsregelkonfiguration** unter **Name der Replikationsregel** einen Namen für Ihre Regel ein, um die Regel später leichter identifizieren zu können. Der Name ist erforderlich und muss innerhalb des Buckets eindeutig sein.

1. In **Status (Status)**ist **Enabled (Aktiviert)** standardmäßig ausgewählt. Eine aktivierte Regel wird ausgeführt, sobald Sie speichern. Wenn Sie die Regel später aktivieren möchten, wählen Sie **Deaktiviert** aus.

1. Wenn es bereits Replikationsregeln für den Bucket gibt, werden Sie angewiesen, eine Priorität für die Regel festzulegen. Sie müssen eine Priorität für die Regel festlegen, um Konflikte zu vermeiden, die durch Objekte verursacht werden, die mehreren Regeln unterliegen. Wenn sich Regeln überschneiden, verwendet Amazon S3 die Regelpriorität, um die Regel zu ermitteln, die angewendet werden muss. Je höher die Zahl, desto höher die Priorität. Weitere Informationen zur Priorität von Regeln finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md).

1. Unter **Quell-Bucket** stehen Ihnen folgende Optionen zum Festlegen der Replikationsquelle zur Verfügung:
   + Um den gesamten Bucket zu replizieren, wählen Sie **Apply to all objects in the bucket** (Auf alle Objekte im Bucket anwenden). 
   + Um alle Objekte zu replizieren, die dasselbe Präfix haben, wählen Sie **Limit the scope of this rule using one or more filters (Geltungsbereich dieser Regel mit einem oder mehreren Filtern einschränken)**. Dies beschränkt die Replikation auf alle Objekte, deren Namen mit dem von Ihnen angegebenen Präfix beginnen (z. B. `pictures`). Geben Sie ein Präfix in das Feld **Präfix** ein. 
**Anmerkung**  
Wenn Sie ein Präfix eingeben, das den Namen eines Ordners darstellt, müssen Sie **/** (Schrägstrich) als letztes Zeichen eingeben (z. B. `pictures/`).
   + Um alle Objekte mit einem oder mehreren Objekt-Tags zu replizieren, wählen Sie **Tag hinzufügen** aus und geben Sie das Schlüssel-Wert-Paar in die Felder ein. Wiederholen Sie den Vorgang, um ein weiteres Tag hinzuzufügen. Sie können ein Präfix und Markierungen kombinieren. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md).

   Das neue XML-Schema für die Replikationskonfiguration unterstützt das Filtern nach Präfix und Tag und die Priorisierung von Regeln. Weitere Informationen über das neue Schema finden Sie unter [Überlegungen zur Rückwärtskompatibilität](replication-add-config.md#replication-backward-compat-considerations). Weitere Informationen über das mit der Amazon-S3-API verwendete XML, das hinter der Benutzeroberfläche funktioniert, finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md). Das neue Schema wird als *XML V2 für die Replikationskonfiguration* beschrieben.

1. Wählen Sie unter **Ziel** den Bucket aus, in den Amazon S3 Objekte replizieren soll.
**Anmerkung**  
Die Anzahl der Ziel-Buckets ist auf die Anzahl der AWS-Regionen in einer bestimmten Partition beschränkt. Eine Partition ist eine Gruppierung von Regionen. AWS hat derzeit drei Partitionen: `aws` (Standardregionen), `aws-cn` (China-Regionen) und `aws-us-gov` (AWS GovCloud (US) Regionen). Sie können [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) verwenden, um eine Erhöhung Ihres Ziel-Bucket-Kontingents anzufordern.
   + Um in einen Bucket oder mehrere Buckets in Ihrem Konto zu replizieren, wählen Sie **Bucket in diesem Konto wählen** aus und geben Sie die Ziel-Bucket-Namen ein oder suchen Sie danach. 
   + Um in einen oder mehrere Buckets in einem anderen Bucket zu replizieren AWS-Konto, wählen Sie **Spezify a bucket in another account** aus und geben Sie die Konto-ID und den Bucket-Namen des Ziel-Buckets ein. 

     Wenn sich das Ziel in einem anderen Konto als der Quell-Bucket befindet, müssen Sie eine Bucket-Richtlinie für die Ziel-Buckets hinzufügen, um dem Eigentümer des Quell-Bucket-Kontos die Berechtigung zum Replizieren von Objekten zu erteilen. Weitere Informationen finden Sie unter [(Optional) Schritt 3: Erteilen von Berechtigungen, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten](setting-repl-config-perm-overview.md#setting-repl-config-crossacct).

     Wenn Sie eine leichtere Standardisierung der Eigentümerschaft für neue Objekte im Ziel-Bucket ermöglichen möchten, wählen Sie **Objekteigentümerschaft in Eigentümer des Ziel-Buckets ändern** aus. Weitere Informationen zu dieser Option finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).
**Anmerkung**  
Wenn die Versionssteuerung für den Ziel-Bucket nicht aktiviert ist, erhalten Sie eine Warnmeldung, die die Schaltfläche **Versionierung aktivieren** enthält. Wählen Sie diese Schaltfläche, um das Versioning für den Bucket zu aktivieren.

1. Richten Sie eine AWS Identity and Access Management (IAM-) Rolle ein, die Amazon S3 übernehmen kann, um Objekte in Ihrem Namen zu replizieren.

   Um eine IAM-Rolle einzurichten, wählen Sie im Abschnitt **IAM-Rolle** eine der folgenden Optionen aus der Dropdown-Liste **IAM-Rolle** aus:
   + Wir empfehlen Ihnen, **Create new role (Neue Rolle erstellen)** auszuwählen, um Amazon S3 anzuweisen, eine neue IAM-Rolle für Sie zu erstellen. Wenn Sie die Regel speichern, wird eine neue Richtlinie für die IAM-Rolle erstellt, die mit den von Ihnen ausgewählten Quell- und Ziel-Buckets übereinstimmt.
   + Sie haben auch die Möglichkeit eine vorhandene IAM-Rolle zu verwenden. In diesem Fall müssen Sie eine Rolle auswählen, die Amazon S3 die erforderlichen Berechtigungen für die Replikation gewährt. Die Replikation schlägt fehl, wenn diese Rolle Amazon S3 keine ausreichenden Berechtigungen gewährt, um Ihre Replikationsregel zu befolgen.
**Wichtig**  
Wenn Sie eine Replikationsregel zu einem Bucket hinzufügen, benötigen Sie die Berechtigung `iam:PassRole` zum Übergeben der IAM-Rolle, die Amazon S3 Replikationsberechtigungen erteilt. Weitere Informationen finden Sie unter [Erteilen von Berechtigungen, mit denen ein Benutzer eine Rolle an einen AWS-Serviceübergeben kann](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) im *IAM-Benutzerhandbuch*.

1. **Um Objekte im Quell-Bucket zu replizieren, die mit serverseitiger Verschlüsselung mit AWS Key Management Service (AWS KMS) -Schlüsseln (SSE-KMS) verschlüsselt sind, wählen Sie unter **Verschlüsselung** die Option Objekte replizieren mit. AWS KMS** Unter **AWS KMS -Schlüssel für die Verschlüsselung von Zielobjekten** befinden sich die Quellschlüssel, deren Verwendung Sie der Replikation erlauben. Alle Quell-KMS-Schlüssel sind standardmäßig enthalten. Um die KMS-Schlüsselauswahl einzuschränken, können Sie einen Alias oder eine Schlüssel-ID auswählen. 

   Objekte, die nicht von Ihnen ausgewählt wurden AWS KMS keys , verschlüsselt wurden, werden nicht repliziert. Ein KMS-Schlüssel oder eine Gruppe von KMS-Schlüsseln wird für Sie ausgewählt, aber Sie können die KMS-Schlüssel auch selbst auswählen. Hinweise zur Verwendung AWS KMS mit Replikation finden Sie unter[Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
**Wichtig**  
Wenn Sie Objekte replizieren, die mit verschlüsselt sind AWS KMS, verdoppelt sich die AWS KMS Anforderungsrate in der Quellregion und steigt in der Zielregion um den gleichen Betrag. Diese erhöhten Anrufraten AWS KMS sind auf die Art und Weise zurückzuführen, wie Daten mithilfe des KMS-Schlüssels, den Sie für die Zielregion der Replikation definieren, erneut verschlüsselt werden. AWS KMS hat ein Kontingent für die Anforderungsrate, das pro Anrufkonto und Region gilt. Informationen zu den standardmäßigen Kontingenten finden Sie unter [AWS KMS -Kontingente – Anforderungen pro Sekunde: variabel](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html#requests-per-second) im *AWS Key Management Service Entwicklerhandbuch*.   
Wenn Ihre aktuelle Amazon S3 `PUT` S3-Objektanforderungsrate während der Replikation mehr als die Hälfte der AWS KMS Standardratenbegrenzung für Ihr Konto beträgt, empfehlen wir Ihnen, eine Erhöhung Ihres Anforderungsratenkontingents zu AWS KMS beantragen. Wenn Sie eine Erhöhung anfordern möchten, erstellen Sie einen Fall im Support -Center unter [Contact Us](https://aws.amazon.com/contact-us/) (Kontakt). Nehmen wir zum Beispiel an, dass Ihre aktuelle `PUT` Objektanforderungsrate 1.000 Anfragen pro Sekunde beträgt und AWS KMS Sie Ihre Objekte verschlüsseln. In diesem Fall empfehlen wir Ihnen, eine Erhöhung Ihres AWS KMS Ratenlimits auf 2.500 Anfragen pro Sekunde Support zu beantragen, und zwar sowohl in Ihrer Quell- als auch in Ihrer Zielregion (falls unterschiedlich), um sicherzustellen, dass es nicht zu einer Drosselung durch kommt. AWS KMS  
Ihre `PUT` Objektanforderungsrate im Quell-Bucket finden Sie `PutRequests` in den CloudWatch Amazon-Anforderungsmetriken für Amazon S3. Informationen zum Anzeigen von CloudWatch Metriken finden Sie unter[Verwenden der S3-Konsole](configure-request-metrics-bucket.md#configure-metrics).

   Wenn Sie Objekte replizieren möchten, die mit verschlüsselt sind AWS KMS, gehen Sie wie folgt vor: 

   1. Geben Sie unter **AWS KMS key für die Verschlüsselung von Zielobjekten** Ihren KMS-Schlüssel auf eine der folgenden Arten an:
     + Wenn Sie aus einer Liste verfügbarer KMS-Schlüssel auswählen möchten, wählen Sie **Aus Ihren AWS KMS keys wählen** und anschließend den **KMS-Schlüssel** in der Liste der verfügbaren Schlüssel aus.

       Sowohl der Von AWS verwalteter Schlüssel (`aws/s3`) als auch Ihr vom Kunden verwalteter Schlüssel werden in dieser Liste angezeigt. Weitere Informationen über vom Kunden verwaltete Schlüssel finden Sie unter [Kundenschlüssel und AWS -Schlüssel](https://docs.aws.amazon.com//kms/latest/developerguide/concepts.html#key-mgmt) im *Entwicklerhandbuch zu AWS Key Management Service *.
     + Wählen Sie zum Eingeben des Amazon-Ressourcennamens (ARN) des KMS-Schlüssels ** AWS KMS key -ARN eingeben** aus und geben Sie Ihren KMS-Schlüssel-ARN in das angezeigte Feld ein. Dadurch werden die Replikate im Ziel-Bucket verschlüsselt. Sie finden den ARN für Ihren KMS-Schlüssel in der [IAM-Konsole](https://console.aws.amazon.com/iam/) unter **Verschlüsselungsschlüssel**. 
     + Um einen neuen vom Kunden verwalteten Schlüssel in der AWS KMS Konsole zu **erstellen, wählen Sie Create a KMS Key** aus.

       Weitere Informationen zum Erstellen eines finden Sie AWS KMS key unter [Creating Keys](https://docs.aws.amazon.com//kms/latest/developerguide/create-keys.html) im *AWS Key Management Service Developer Guide*.
**Wichtig**  
Sie können nur KMS-Schlüssel verwenden, die im selben AWS-Region Bucket aktiviert sind. Wenn Sie **Aus Ihren KMS-Schlüsseln wählen** auswählen, werden in der S3-Konsole nur 100 KMS-Schlüssel pro Region aufgeführt. Wenn Sie über mehr als 100 KMS-Schlüssel in derselben Region verfügen, können Sie nur die ersten 100 KMS-Schlüssel in der S3-Konsole sehen. Um einen nicht in der Konsole aufgeführten KMS-Schlüssel zu verwenden, wählen Sie ** AWS KMS key -ARN eingeben** aus und geben Sie Ihren KMS-Schlüssel-ARN ein.  
Wenn Sie einen AWS KMS key für die serverseitige Verschlüsselung in Amazon S3 verwenden, müssen Sie einen KMS-Schlüssel für die symmetrische Verschlüsselung wählen. Amazon S3 unterstützt nur KMS-Schlüssel mit symmetrischer Verschlüsselung und keine asymmetrischen KMS-Schlüssel. Weitere Informationen finden Sie unter [Erkennen von symmetrischen und asymmetrischen KMS-Schlüsseln](https://docs.aws.amazon.com//kms/latest/developerguide/find-symm-asymm.html) im *Entwicklerhandbuch zu AWS Key Management Service *.

     Weitere Informationen zum Erstellen eines AWS KMS key finden Sie unter [Creating Keys](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) im *AWS Key Management Service Developer* Guide. Weitere Informationen zur Verwendung AWS KMS mit Amazon S3 finden Sie unter[Verwenden der serverseitigen Verschlüsselung mit AWS KMS Schlüsseln (SSE-KMS)](UsingKMSEncryption.md).

1. Wenn Sie Ihre Daten in eine bestimmte Speicherklasse im Ziel replizieren wollen, wählen Sie unter **Zielspeicherklasse** die Option **Speicherklasse für die replizierten Objekte ändern** aus. Anschließend wählen Sie die Speicherklasse, die Sie für die replizierten Objekte im Ziel verwenden wollen. Wenn Sie diese Option nicht auswählen, ist die Speicherklasse für replizierte Objekte dieselbe Klasse wie für die ursprünglichen Objekte.

1. Beim Festlegen der **zusätzlichen Replikationsoptionen** haben Sie folgende zusätzliche Optionen:
   + Wenn Sie die Begrenzung der S3-Replikationszeit (S3 RTC) in Ihrer Replikationskonfiguration aktivieren möchten, wählen Sie **Replikationszeitkontrolle (Replication Time Control, RTC)** aus. Weitere Informationen zu dieser Option finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).
   + Wenn Sie S3-Replikationsmetriken in Ihrer Replikationskonfiguration aktivieren möchten, wählen Sie **Replication metrics and events** (Replikationsmetriken und -ereignisse) aus. Weitere Informationen finden Sie unter [Überwachen der Replikation mit Metriken, Ereignisbenachrichtigungen und Status](replication-metrics.md).
   + Wenn Sie die Replikation von Löschmarkierungen in Ihrer Replikations-Konfiguration aktivieren möchten, wählen Sie **Markierungsreplikation löschen** aus. Weitere Informationen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](delete-marker-replication.md).
   + Wenn Sie die Synchronisierung der Amazon-S3-Replikatänderung in Ihrer Replikations-Konfiguration aktivieren möchten, wählen Sie **Synchronisierung der Replikatänderung** aus. Weitere Informationen finden Sie unter [Replizieren von Metadatenänderungen mit der Synchronisierung von Replikatänderungen](replication-for-metadata-changes.md).
**Anmerkung**  
Wenn Sie S3-RTC- oder S3-Replikationsmetriken verwenden, fallen zusätzliche Gebühren an.

1. Zum Abschluss wählen Sie **Save (Speichern)**.

1. Nachdem Sie Ihre Regel gespeichert haben, können Sie Ihre Regel bearbeiten, aktivieren, deaktivieren oder löschen, indem Sie Ihre Regel auswählen und **Edit rule (Regel bearbeiten)** wählen. 

## Verwenden des AWS CLI
<a name="replication-ex1-cli"></a>

Gehen Sie wie folgt vor AWS CLI , um die Replikation einzurichten, wenn Quell- und Ziel-Buckets demselben AWS-Konto gehören:
+ Erstellen Sie Quell- und Ziel-Buckets.
+ Aktivieren Sie die Versionsverwaltung für die Buckets.
+ Erstellen Sie eine AWS Identity and Access Management (IAM-) Rolle, die Amazon S3 die Berechtigung erteilt, Objekte zu replizieren.
+ Fügen Sie die Replikationskonfiguration zum Quell-Bucket hinzu.

Um die Einrichtung zu prüfen, testen Sie sie.

**Um die Replikation einzurichten, wenn die Quell- und Ziel-Buckets demselben gehören AWS-Konto**

1. Richten Sie das Anmeldeinformationsprofil für die AWS CLI ein. Dieses Beispiel verwendet den Profilnamen `acctA`. Informationen zum Einrichten der Anmeldeinformations-Profile und der Verwendung benannter Profile finden Sie unter [Einstellungen der Konfigurations- und Anmeldeinformationsdatei](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) im *Benutzerhandbuch zur AWS Command Line Interface *. 
**Wichtig**  
Das Profil, das Sie für dieses Beispiel verwenden, muss über die nötigen Berechtigungen verfügen. Beispielsweise legen Sie in der Replikations-Konfiguration die IAM-Rolle fest, die Amazon S3 annehmen kann. Dies gelingt Ihnen nur, wenn das verwendete Profil über die `iam:PassRole`-Berechtigung verfügt. Weitere Informationen finden Sie unter [Einem Benutzer Berechtigungen zum Übergeben einer Rolle an einen AWS-Service erteilen](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) im *Benutzerhandbuch zu IAM*. Wenn Sie zur Erstellung eines benannten Profils die Anmeldeinformationen eines Administrators verwenden, können Sie alle Aufgaben durchführen. 

1. Verwenden Sie die folgenden AWS CLI -Befehle, um einen Quell-Bucket zu erstellen und die Versionsverwaltung für ihn zu aktivieren. Wenn Sie diese Befehle verwenden wollen, ersetzen Sie *`user input placeholders`* durch Ihre eigenen Informationen. 

   Mit dem folgenden `create-bucket`-Befehl wird ein Quell-Bucket mit dem Namen `amzn-s3-demo-source-bucket` in der Region USA Ost (Nord-Virginia) (`us-east-1`) erstellt:

   

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   Mit dem folgenden `put-bucket-versioning`-Befehl wird die S3-Versionsverwaltung auf dem Bucket `amzn-s3-demo-source-bucket` aktiviert: 

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Erstellen Sie einen Ziel-Bucket und aktivieren Sie die Versionsverwaltung für ihn, indem Sie die folgenden AWS CLI Befehle verwenden. Wenn Sie diese Befehle verwenden wollen, ersetzen Sie *`user input placeholders`* durch Ihre eigenen Informationen. 
**Anmerkung**  
Um eine Replikationskonfiguration einzurichten, wenn sich Quell- und Ziel-Bucket im selben befinden AWS-Konto, verwenden Sie dasselbe Profil für Quell- und Ziel-Bucket. Dieses Beispiel verwendet `acctA`.   
Um eine Replikationskonfiguration zu testen, wenn die Buckets unterschiedlichen Besitzern gehören AWS-Konten, geben Sie für jedes Konto unterschiedliche Profile an. Verwenden Sie beispielsweise ein `acctB`-Profil für den Ziel-Bucket.

   

   Mit dem folgenden `create-bucket`-Befehl wird ein Ziel-Bucket mit dem Namen `amzn-s3-demo-destination-bucket` in der Region USA West (Oregon) (`us-west-2`) erstellt:

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctA
   ```

   Mit dem folgenden `put-bucket-versioning`-Befehl wird die S3-Versionsverwaltung auf dem Bucket `amzn-s3-demo-destination-bucket` aktiviert: 

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Erstellen Sie eine IAM-Rolle. Sie geben diese Rolle in der Replizierungskonfiguration an, die Sie später zum *Quell-Bucket* hinzufügen. Amazon S3 übernimmt diese Rolle, um Objekte in Ihrem Namen zu replizieren. Sie erstellen eine IAM-Rolle in zwei Schritten:
   + Erstellen Sie eine Rolle.
   + Fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu.

   1. Erstellen Sie die IAM-Rolle.

      1. Kopieren Sie die folgende Vertrauensrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-trust-policy.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Diese Richtlinie erteilt dem Amazon-S3-Service Prinzipalberechtigungen, um die Rolle zu übernehmen.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Führen Sie den folgenden Befehl aus, um eine Rolle zu erstellen.

         ```
         $ aws iam create-role \
         --role-name replicationRole \
         --assume-role-policy-document file://s3-role-trust-policy.json  \
         --profile acctA
         ```

   1. Fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu.

      1. Kopieren Sie die folgende Berechtigungsrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-permissions-policy.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Diese Zugriffsrichtlinie erteilt Berechtigungen für verschiedene Amazon-S3-Bucket- und -Objektaktionen. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ReplicateTags"
                  ],
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               }
            ]
         }
         ```

------
**Anmerkung**  
Wenn Sie verschlüsselte Objekte replizieren möchten, müssen Sie auch die erforderlichen Berechtigungen für den AWS KMS-Schlüssel ( AWS Key Management Service ) erteilen. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den S3-Quell-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication). 

      1. Führen Sie den folgenden Befehl aus, um eine Richtlinie zu erstellen und sie der Rolle anzufügen. Ersetzen Sie *`user input placeholders`* durch Ihre Informationen.

         ```
         $ aws iam put-role-policy \
         --role-name replicationRole \
         --policy-document file://s3-role-permissions-policy.json \
         --policy-name replicationRolePolicy \
         --profile acctA
         ```

1. Fügen Sie eine Replikationskonfiguration zum Quell-Bucket hinzu. 

   1. Die Amazon S3 S3-API erfordert zwar, dass Sie die Replikationskonfiguration als XML angeben, AWS CLI erfordert jedoch, dass Sie die Replikationskonfiguration als JSON angeben. Speichern Sie den folgenden JSON-Code in einer Datei mit dem Namen `replication.json` im lokalen Verzeichnis auf Ihrem Computer.

      ```
      {
        "Role": "IAM-role-ARN",
        "Rules": [
          {
            "Status": "Enabled",
            "Priority": 1,
            "DeleteMarkerReplication": { "Status": "Disabled" },
            "Filter" : { "Prefix": "Tax"},
            "Destination": {
              "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
            }
          }
        ]
      }
      ```

   1. Aktualisieren Sie die JSON-Datei, indem Sie die Werte für den `amzn-s3-demo-destination-bucket` und den `IAM-role-ARN` durch Ihre eigenen Informationen ersetzen. Speichern Sie die Änderungen.

   1. Führen Sie den folgenden `put-bucket-replication`-Befehl aus, um die Replikationskonfiguration zu Ihrem Quell-Bucket hinzuzufügen. Stellen Sie sicher, dass Sie den Namen für den Quell-Bucket angeben:

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

   Um die Replikationskonfiguration abzurufen, verwenden Sie den Befehl `get-bucket-replication`:

   ```
   $ aws s3api get-bucket-replication \
   --bucket amzn-s3-demo-source-bucket \
   --profile acctA
   ```

1. Testen Sie die Einrichtung in der Amazon-S3-Konsole, indem Sie die folgenden Schritte durchführen:

   1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

   1. Wählen Sie im linken Navigationsbereich **Buckets** aus. Wählen Sie in der Liste der **Allzweck-Buckets** den Quell-Bucket aus.

   1. Erstellen Sie im Quell-Bucket einen Ordner mit dem Namen `Tax`. 

   1. Fügen Sie Beispielobjekte zum `Tax`-Ordner im Quell-Bucket hinzu. 
**Anmerkung**  
Die von Amazon S3 für die Replikation eines Objekts benötigte Zeit hängt von der Größe des Objekts ab. Weitere Informationen zum Anzeigen des Replikationsstatus finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md).

      Überprüfen Sie im *Ziel*-Bucket Folgendes:
      + Dass Amazon S3 die Objekte repliziert hat.
      + Dass es sich bei den Objekten um Replikate handelt. Scrollen Sie auf der Registerkarte **Properties (Eigenschaften)** für Ihre Objekte nach unten zum Abschnitt **Object management overview (Objektverwaltung – Übersicht)**. Beachten Sie unter **Management configurations (Verwaltungskonfigurationen)** den Wert unter **Replication status (Replikationsstatus)**. Stellen Sie sicher, dass dieser Wert auf `REPLICA` festgelegt ist.
      + Und dass sich die Replikate im Besitz des Quell-Bucket-Kontos befinden. Sie können die Eigentümerschaft Ihrer Objekte auf der Registerkarte **Permissions (Berechtigungen)** überprüfen. 

        Wenn sich der Quell- und der Ziel-Bucket im Besitz verschiedener Konten befinden, können Sie eine optionale Konfiguration hinzufügen, um Amazon S3 anzuweisen, die Replikateigentümerschaft zu dem Zielkonto zu ändern. Ein Beispiel finden Sie unter [So ändern Sie den Replikateigentümer](replication-change-owner.md#replication-walkthrough-3). 

## Verwenden Sie den AWS SDKs
<a name="replication-ex1-sdk"></a>

Verwenden Sie die folgenden Codebeispiele, um einem Bucket eine Replikationskonfiguration mit dem AWS SDK für Java bzw. AWS SDK für .NET hinzuzufügen.

**Anmerkung**  
Wenn Sie verschlüsselte Objekte replizieren möchten, müssen Sie auch die erforderlichen Berechtigungen für den AWS KMS-Schlüssel ( AWS Key Management Service ) erteilen. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)](replication-config-for-kms-objects.md).
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den S3-Quell-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication). 

------
#### [ Java ]

Um einem Bucket eine Replikationskonfiguration hinzuzufügen und dann die Konfiguration mithilfe des AWS SDK for Java abzurufen und zu überprüfen, können Sie den S3Client verwenden, um die Replikationseinstellungen programmgesteuert zu verwalten.

Beispiele für die Konfiguration der Replikation mit dem AWS SDK for Java finden Sie unter Die [Replikationskonfiguration für einen Bucket festlegen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutBucketReplication_section.html) in der *Amazon S3 S3-API-Referenz*.

------
#### [ C\$1 ]

Das folgende AWS SDK für .NET Codebeispiel fügt einem Bucket eine Replikationskonfiguration hinzu und ruft sie dann ab. Um diesen Code zu verwenden, geben Sie die Namen für die Buckets und den Amazon-Ressourcennamen (ARN) für die IAM-Rolle an. Informationen zum Einrichten und Ausführen der Codebeispiele finden Sie unter [Getting Started with the AWS SDK für .NET](https://docs.aws.amazon.com/sdk-for-net/v3/developer-guide/net-dg-config.html) (Erste Schritte mit dem NET) im *AWS SDK für .NET -Entwicklerhandbuch*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class CrossRegionReplicationTest
    {
        private const string sourceBucket = "*** source bucket ***";
        // Bucket ARN example - arn:aws:s3:::destinationbucket
        private const string destinationBucketArn = "*** destination bucket ARN ***";
        private const string roleArn = "*** IAM Role ARN ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint sourceBucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 s3Client;
        public static void Main()
        {
            s3Client = new AmazonS3Client(sourceBucketRegion);
            EnableReplicationAsync().Wait();
        }
        static async Task EnableReplicationAsync()
        {
            try
            {
                ReplicationConfiguration replConfig = new ReplicationConfiguration
                {
                    Role = roleArn,
                    Rules =
                        {
                            new ReplicationRule
                            {
                                Prefix = "Tax",
                                Status = ReplicationRuleStatus.Enabled,
                                Destination = new ReplicationDestination
                                {
                                    BucketArn = destinationBucketArn
                                }
                            }
                        }
                };

                PutBucketReplicationRequest putRequest = new PutBucketReplicationRequest
                {
                    BucketName = sourceBucket,
                    Configuration = replConfig
                };

                PutBucketReplicationResponse putResponse = await s3Client.PutBucketReplicationAsync(putRequest);

                // Verify configuration by retrieving it.
                await RetrieveReplicationConfigurationAsync(s3Client);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' when writing an object", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown encountered on server. Message:'{0}' when writing an object", e.Message);
            }
        }
        private static async Task RetrieveReplicationConfigurationAsync(IAmazonS3 client)
        {
            // Retrieve the configuration.
            GetBucketReplicationRequest getRequest = new GetBucketReplicationRequest
            {
                BucketName = sourceBucket
            };
            GetBucketReplicationResponse getResponse = await client.GetBucketReplicationAsync(getRequest);
            // Print.
            Console.WriteLine("Printing replication configuration information...");
            Console.WriteLine("Role ARN: {0}", getResponse.Configuration.Role);
            foreach (var rule in getResponse.Configuration.Rules)
            {
                Console.WriteLine("ID: {0}", rule.Id);
                Console.WriteLine("Prefix: {0}", rule.Prefix);
                Console.WriteLine("Status: {0}", rule.Status);
            }
        }
    }
}
```

------

# Konfigurieren einer Replikation bei Buckets in verschiedenen Konten
<a name="replication-walkthrough-2"></a>

Live-Replikation ist das automatische, asynchrone Kopieren von Objekten zwischen Buckets, die sich in denselben oder unterschiedlichen Buckets befinden. AWS-Regionen Eine Live-Replikation kopiert neu erstellte Objekte und Objektaktualisierungen aus einem Quell-Bucket in einen Ziel-Bucket oder mehrere Buckets. Weitere Informationen finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md).

Wenn Sie die Replikation konfigurieren, fügen Sie dem Quell-Bucket Replikationsregeln hinzu. Replikationsregeln definieren, welche Quell-Bucket-Objekte repliziert werden sollen, und den Ziel-Bucket/die Ziel-Buckets, in dem/denen die replizierten Objekte gespeichert werden sollen. Sie können eine Regel erstellen, um alle Objekte in einem Bucket oder eine Untermenge von Objekten mit einem spezifischen Schlüsselnamenpräfixen, einem oder mehreren Objekt-Markierungen oder beidem zu replizieren. Ein Ziel-Bucket kann sich im selben AWS-Konto wie der Quell-Bucket oder in einem anderen Konto befinden.

Wenn Sie angeben, dass eine Objektversions-ID gelöscht werden soll, löscht Amazon S3 diese Objektversion im Quell-Bucket. Es repliziert die Löschung aber nicht im Ziel-Bucket. Anders ausgedrückt: Dieselbe Objektversion wird im Ziel-Bucket nicht gelöscht. Dies schützt Daten vor missbräuchlichen Löschungen.

Wenn Sie einem Bucket eine Replikationsregel hinzufügen, ist diese standardmäßig aktiviert, sodass sie ausgeführt wird, sobald Sie sie speichern. 

Die Einrichtung einer Live-Replikation, wenn sich Quell- und Ziel-Bucket im Besitz verschiedener AWS-Konten befinden, ähnelt der Einrichtung der Replikation, wenn sich beide Buckets im Besitz des gleichen Kontos befinden. Es gibt jedoch mehrere Unterschiede, wenn Sie die Replikation in einem kontoübergreifenden Szenario konfigurieren: 
+ Der Eigentümer des Ziel-Buckets muss dem Eigentümer des Quell-Buckets in der Ziel-Bucket-Richtlinie die Berechtigungen zum Replizieren von Objekten erteilen. 
+ Wenn Sie in einem kontoübergreifenden Szenario Objekte replizieren, die serverseitig mit AWS Key Management Service (AWS KMS)-Schlüsseln (SSE-KMS) verschlüsselt sind, muss der Eigentümer des KMS-Schlüssels dem Eigentümer des Quell-Buckets die Berechtigung erteilen, den KMS-Schlüssel zu verwenden. Weitere Informationen finden Sie unter [Erteilen von zusätzlichen Berechtigungen für kontenübergreifende Szenarien](replication-config-for-kms-objects.md#replication-kms-cross-acct-scenario). 
+ Standardmäßig befinden sich replizierte Objekte im Besitz des Eigentümers des Quell-Buckets. In einem kontoübergreifenden Szenario möchten Sie die Replikation vielleicht so konfigurieren, dass die Eigentümerschaft der replizierten Objekte auf den Eigentümer des Ziel-Buckets übergeht. Weitere Informationen finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md).

**Um die Replikation zu konfigurieren, wenn Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten**

1. In diesem Beispiel erstellen Sie Quell- und Ziel-Buckets in zwei unterschiedlichen AWS-Konten. Sie müssen zwei Anmeldeinformationsprofile für die AWS CLI eingerichtet haben. In diesem Beispiel werden für diese Profilnamen die Werte `acctA` und `acctB` verwendet. Informationen zum Einrichten der Anmeldeinformations-Profile und der Verwendung benannter Profile finden Sie unter [Einstellungen der Konfigurations- und Anmeldeinformationsdatei](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) im *Benutzerhandbuch zur AWS Command Line Interface *. 

1. Folgen Sie den step-by-step Anweisungen unter [Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md) mit den folgenden Änderungen:
   + Verwenden Sie für alle AWS CLI Befehle, die sich auf Quell-Bucket-Aktivitäten beziehen (z. B. das Erstellen des Quell-Buckets, das Aktivieren der Versionierung und das Erstellen der IAM-Rolle), das `acctA` Profil. Verwenden Sie das Profil `acctB`, um den Ziel-Bucket zu erstellen. 
   + Stellen Sie sicher, dass die Berechtigungsrichtlinie für die IAM-Rolle den Quell- und den Ziel-Bucket angibt, die Sie für dieses Beispiel erstellt haben.

1. Fügen Sie in der Konsole die folgende Bucket-Richtlinie für den *Ziel*-Bucket hinzu, um dem Eigentümer des *Quell*-Buckets die Berechtigung zum Replizieren von Objekten zu erteilen. Detaillierte Anweisungen finden Sie unter [Hinzufügen einer Bucket-Richtlinie mit der Amazon-S3-Konsole](add-bucket-policy.md). Achten Sie darauf, die Richtlinie zu bearbeiten, indem Sie die AWS-Konto ID des Quell-Bucket-Besitzers, den IAM-Rollennamen und den Ziel-Bucket-Namen angeben. 
**Anmerkung**  
Wenn Sie das folgende Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre eigenen Informationen. Ersetzen Sie `amzn-s3-demo-destination-bucket` durch den Namen Ihres Ziel-Buckets. Ersetzen Sie `source-bucket-account-ID:role/service-role/source-account-IAM-role` im Amazon-Ressourcennamen (ARN) von IAM durch die IAM-Rolle, die Sie für diese Replikationskonfiguration verwenden.  
Wenn Sie die IAM-Servicerolle manuell erstellt haben, legen Sie den Rollenpfad im IAM-ARN als `role/service-role/` fest, wie im folgenden Richtlinienbeispiel dargestellt. Weitere Informationen finden Sie unter [IAM ARNs](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html#identifiers-arns) im *IAM-Benutzerhandbuch*. 

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Id": "",
       "Statement": [
           {
               "Sid": "Set-permissions-for-objects",
               "Effect": "Allow",
               "Principal": {
                   "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
               },
               "Action": [
                   "s3:ReplicateObject",
                   "s3:ReplicateDelete"
               ],
               "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
           },
           {
               "Sid": "Set-permissions-on-bucket",
               "Effect": "Allow",
               "Principal": {
                   "AWS": "arn:aws:iam::111122223333:role/service-role/source-account-IAM-role"
               },
               "Action": [
                   "s3:GetBucketVersioning",
                   "s3:PutBucketVersioning"
               ],
               "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
           }
       ]
   }
   ```

------

1. (Optional) Wenn Sie Objekte replizieren, die mit SSE-KMS verschlüsselt sind, muss der Eigentümer des KMS-Schlüssels dem Eigentümer des Quell-Buckets die Berechtigung erteilen, den KMS-Schlüssel zu verwenden. Weitere Informationen finden Sie unter [Erteilen von zusätzlichen Berechtigungen für kontenübergreifende Szenarien](replication-config-for-kms-objects.md#replication-kms-cross-acct-scenario).

1. (Optional) Bei der Replikation besitzt der Eigentümer des Quellobjekts standardmäßig das Replikat. Wenn Quell- und Ziel-Bucket unterschiedlichen Besitzern gehören AWS-Konten, können Sie optionale Konfigurationseinstellungen hinzufügen, um den Besitz des Replikats auf den Eigentümer der AWS-Konto Ziel-Buckets zu übertragen. Dazu gehört auch die Gewährung der `ObjectOwnerOverrideToBucketOwner`-Berechtigung. Weitere Informationen finden Sie unter [Ändern des Replikat-Eigentümers](replication-change-owner.md).

# Ändern des Replikat-Eigentümers
<a name="replication-change-owner"></a>

Bei der Replikation besitzt der Eigentümer des Quellobjekts standardmäßig auch das Replikat. Wenn die Quell- und Ziel-Buckets jedoch unterschiedlichen Eigentümern gehören AWS-Konten, möchten Sie möglicherweise den Besitz des Replikats ändern. Vielleicht möchten Sie beispielsweise die Eigentümerschaft ändern, um den Zugriff auf Objektreplikate einzuschränken. In Ihrer Replikationskonfiguration können Sie optionale Konfigurationseinstellungen hinzufügen, um den Besitz des Replikats auf das Replikat zu ändern AWS-Konto , dem die Ziel-Buckets gehören. 

Gehen Sie wie folgt vor, um den Replikateigentümer zu ändern:
+ Fügen Sie die Option zum *Überschreiben des Eigentümers* zur Replikationskonfiguration hinzu, um Amazon S3 anzuweisen, die Replikat-Eigentümerschaft zu ändern. 
+ Erteilen Sie Amazon S3 die Berechtigung `s3:ObjectOwnerOverrideToBucketOwner` zum Ändern der Replikat-Eigentümerschaft. 
+ Fügen Sie die Berechtigung `s3:ObjectOwnerOverrideToBucketOwner` zur Richtlinie für den Ziel-Bucket hinzu, um das Ändern der Replikateigentümerschaft zuzulassen. Die Berechtigung `s3:ObjectOwnerOverrideToBucketOwner` ermöglicht es dem Eigentümer der Ziel-Buckets, die Eigentümerschaft von Objektreplikaten anzunehmen.

Weitere Informationen erhalten Sie unter [Überlegungen zur Option zum Überschreiben der Eigentümerschaft](#repl-ownership-considerations) und [Hinzufügen der Eigentümer-Überschreibungs-Option zur Replikations-Konfiguration](#repl-ownership-owneroverride-option). Ein funktionierendes Beispiel mit step-by-step Anweisungen finden Sie unter. [So ändern Sie den Replikateigentümer](#replication-walkthrough-3)

**Wichtig**  
Anstatt die Option zum Überschreiben des Eigentümers zu verwenden, können Sie die Einstellung zum Erzwingen des Bucket-Eigentümers für die Objekteigentümerschaft verwenden. Wenn Sie die Replikation verwenden und Quell- und Ziel-Bucket unterschiedlichen Besitzern gehören AWS-Konten, kann der Bucket-Besitzer des Ziel-Buckets die vom Bucket-Besitzer erzwungene Einstellung für Objekteigentümer verwenden, um den Besitz des Replikats auf den AWS-Konto Besitzer des Ziel-Buckets zu ändern. Diese Einstellung deaktiviert Objektzugriffskontrolllisten (). ACLs   
Die Einstellung zum Erzwingen des Bucket-Eigentümers ahmt das Verhalten der Überschreibung des bestehenden Eigentümers nach, ohne dass eine `s3:ObjectOwnerOverrideToBucketOwner`-Berechtigung erforderlich ist. Alle Objekte, die mit der Einstellung „Bucket-Eigentümer erzwungen“ in den Ziel-Bucket repliziert werden, gehören dem Eigentümer des Ziel-Buckets. Informationen zu Object Ownership finden Sie unter [Kontrolle des Besitzes von Objekten und Deaktivierung ACLs für Ihren Bucket](about-object-ownership.md).

## Überlegungen zur Option zum Überschreiben der Eigentümerschaft
<a name="repl-ownership-considerations"></a>

Wenn Sie die Option zum Überschreiben der Eigentümerschaft konfigurieren, berücksichtigen Sie die folgenden Überlegungen:
+ Standardmäßig besitzt der Eigentümer des Quellobjekts auch das Replikat. Amazon S3 repliziert die Objektversion und die damit verbundene ACL.

  Wenn Sie die Option zum Überschreiben der Eigentümerschaft zu Ihrer Replikationskonfiguration hinzufügen, repliziert Amazon S3 nur die Objektversion, nicht die ACL. Darüber hinaus repliziert Amazon S3 keine nachfolgenden Änderungen an der ACL des Quellobjekts. Amazon S3 legt die ACL für das Replikat fest, das dem Ziel-Bucket-Eigentümer Vollzugriff erteilt. 
+  Wenn Sie eine Replikationskonfiguration ändern, um die Option zum Überschreiben der Eigentümerschaft zu aktivieren oder zu deaktivieren, tritt folgendes Verhalten ein:
  + Wenn Sie die Option zur Überschreibung des Eigentümers zur Replikationskonfiguration hinzufügen

    Wenn Amazon S3 eine Objektversion repliziert, verwirft es die ACL, die mit dem Quellobjekt verknüpft ist. Amazon S3 legt stattdessen die ACL für das Replikat fest, sodass der Ziel-Bucket-Eigentümer vollständige Kontrolle erhält. Amazon S3 repliziert keine nachfolgenden Änderungen an der ACL des Quellobjekts. Diese Änderung der ACL gilt nicht für Objektversionen, die repliziert wurden, bevor Sie die Eigentümer-Überschreibungs-Option festgelegt haben. ACL-Aktualisierungen an den Quellobjekten, die repliziert wurden, bevor die Eigentümer-Überschreibungs-Option festgelegt wurde, werden weiterhin repliziert (da das Objekt und seine Replikate weiterhin denselben Eigentümer haben).
  + Wenn Sie die Eigentümer-Überschreibungs-Option aus der Replikations-Konfiguration entfernen

    Amazon S3 repliziert neue Objekte, die im Quell-Bucket und den mit den Ziel-Buckets verknüpften ACLs Buckets erscheinen. Für Objekte, die repliziert wurden, bevor Sie die Eigentümerüberschreibung entfernt haben, repliziert Amazon S3 das nicht, ACLs da die von Amazon S3 vorgenommene Änderung des Objekteigentums weiterhin in Kraft ist. Das heißt, ACLs die Objektversion, die repliziert wurde, als die Eigentümerüberschreibung festgelegt wurde, wird weiterhin nicht repliziert.

## Hinzufügen der Eigentümer-Überschreibungs-Option zur Replikations-Konfiguration
<a name="repl-ownership-owneroverride-option"></a>

**Warnung**  
Fügen Sie die Option zum Überschreiben des Besitzers nur hinzu, wenn die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören. AWS-Konten Amazon S3 überprüft nicht, ob die Buckets im Besitz von gleichen oder unterschiedlichen Konten sind. Wenn Sie die Besitzer-Override hinzufügen, obwohl beide Buckets demselben gehören AWS-Konto, wendet Amazon S3 die Besitzer-Override an. Diese Option gewährt dem Besitzer des Ziel-Buckets volle Rechte und repliziert keine nachfolgenden Aktualisierungen der Zugriffskontrolllisten der Quellobjekte (). ACLs Der Replikateigentümer kann die ACL, die mit einem Replikat mit einer `PutObjectAcl`-Anforderung verknüpft ist, direkt ändern, aber nicht über eine Replikation.

Um die Option zur Eigentümer-Überschreibung festzulegen, fügen Sie Folgendes zu jedem `Destination`-Element hinzu: 
+ Das Element `AccessControlTranslation`, das Amazon S3 anweist, die Replikateigentümerschaft zu ändern
+ Das `Account` Element, das den Besitzer AWS-Konto des Ziel-Buckets angibt 

```
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
    ...
    <Destination>
      ...
      <AccessControlTranslation>
           <Owner>Destination</Owner>
       </AccessControlTranslation>
      <Account>destination-bucket-owner-account-id</Account>
    </Destination>
  </Rule>
</ReplicationConfiguration>
```

Die folgende Beispiel-Replikations-Konfiguration weist Amazon S3 an, Objekte mit dem Schlüsselpräfix *`Tax`* in den Ziel-Bucket `amzn-s3-demo-destination-bucket` zu replizieren und die Replikat-Eigentümerschaft zu ändern. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
   <Role>arn:aws:iam::account-id:role/role-name</Role>
   <Rule>
      <ID>Rule-1</ID>
      <Priority>1</Priority>
      <Status>Enabled</Status>
      <DeleteMarkerReplication>
         <Status>Disabled</Status>
      </DeleteMarkerReplication>
      <Filter>
         <Prefix>Tax</Prefix>
      </Filter>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <Account>destination-bucket-owner-account-id</Account>
         <AccessControlTranslation>
            <Owner>Destination</Owner>
         </AccessControlTranslation>
      </Destination>
   </Rule>
</ReplicationConfiguration>
```

## Erteilen der Berechtigung zur Änderung der Replikat-Eigentümerschaft an Amazon S3
<a name="repl-ownership-add-role-permission"></a>

Gewähren Sie Amazon S3 S3-Berechtigungen zum Ändern des Replikatbesitzes, indem Sie in der Berechtigungsrichtlinie, die mit der AWS Identity and Access Management (IAM-) Rolle verknüpft ist, die Berechtigung für die `s3:ObjectOwnerOverrideToBucketOwner` Aktion hinzufügen. Diese Rolle ist die IAM-Rolle, die Sie in der Replikations-Konfiguration festgelegt haben und die es Amazon S3 gestattet, Objekte in Ihrem Namen anzunehmen und zu replizieren. Um das folgende Beispiel zu verwenden, ersetzen Sie `amzn-s3-demo-destination-bucket` durch den Namen des Ziel-Buckets.

```
...
{
    "Effect":"Allow",
         "Action":[
       "s3:ObjectOwnerOverrideToBucketOwner"
    ],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
}
...
```

## Hinzufügen der Berechtigung zur Ziel-Bucket-Richtlinie, um das Ändern der Replikat-Eigentümerschaft zuzulassen
<a name="repl-ownership-accept-ownership-b-policy"></a>

Der Eigentümer des Ziel-Buckets muss dem Eigentümer des Quell-Buckets die Berechtigung zum Ändern der Replikat-Eigentümerschaft erteilen. Der Eigentümer des Ziel-Buckets erteilt dem Eigentümer des Quell-Buckets die Berechtigung für die Aktion `s3:ObjectOwnerOverrideToBucketOwner`. Diese Berechtigung ermöglicht dem Eigentümer des Ziel-Buckets, die Eigentümerschaft von Objektreplikaten anzunehmen. Die folgende Beispielanweisung einer Bucket-Richtlinie zeigt, wie dies funktioniert: Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die `user input placeholders` (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
...
{
    "Sid":"1",
    "Effect":"Allow",
    "Principal":{"AWS":"source-bucket-account-id"},
    "Action":["s3:ObjectOwnerOverrideToBucketOwner"],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
}
...
```

## So ändern Sie den Replikateigentümer
<a name="replication-walkthrough-3"></a>

Wenn die Quell- und Ziel-Buckets in einer Replikationskonfiguration unterschiedlichen Besitzern gehören AWS-Konten, können Sie Amazon S3 anweisen, den Besitz des Replikats in den Besitz des AWS-Konto Ziel-Buckets zu ändern. Die folgenden Beispiele zeigen, wie Sie die Amazon S3 S3-Konsole, die AWS Command Line Interface (AWS CLI) und die verwenden, AWS SDKs um den Besitz eines Replikats zu ändern. 

### Verwenden der S3-Konsole
<a name="replication-ex3-console"></a>

 step-by-stepEine Anleitung finden Sie unter[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md). Dieses Thema enthält Anweisungen zum Einrichten einer Replikationskonfiguration, wenn Quell- und Ziel-Buckets denselben und unterschiedlichen AWS-Konten Besitzern gehören.

### Verwenden von AWS CLI
<a name="replication-ex3-cli"></a>

Das folgenden Verfahren zeigt, wie Sie die Replikat-Eigentümerschaft mithilfe der AWS CLIändern können. In diesem Verfahren gehen Sie wie folgt vor: 
+ Erstellen Sie die Quell- und Ziel-Buckets.
+ Aktivieren Sie die Versionsverwaltung für die Buckets.
+ Erstellen Sie eine AWS Identity and Access Management (IAM-) Rolle, die Amazon S3 die Berechtigung erteilt, Objekte zu replizieren.
+ Fügen Sie die Replikationskonfiguration zum Quell-Bucket hinzu.
+ In der Replikationskonfiguration weisen Sie Amazon S3 an, die Eigentümerschaft für das Replikat zu ändern.
+ Testen Sie Ihre Replikationskonfiguration.

**Um den Besitz des Replikats zu ändern, wenn der Quell- und der Ziel-Bucket different () gehören AWS-Konten AWS CLI**

Um die AWS CLI Beispielbefehle in diesem Verfahren zu verwenden, ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen. 

1. In diesem Beispiel erstellen Sie die Quell- und Ziel-Buckets in zwei verschiedenen AWS-Konten Buckets. Um mit diesen beiden Konten zu arbeiten, konfigurieren Sie die AWS CLI mit zwei benannten Profilen. Bei diesem Beispiel werden die Profile *`acctA`* bzw. *`acctB`* verwendet. Informationen zum Einrichten der Anmeldeinformations-Profile und der Verwendung benannter Profile finden Sie unter [Einstellungen der Konfigurations- und Anmeldeinformationsdatei](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) im *Benutzerhandbuch zur AWS Command Line Interface *. 
**Wichtig**  
Die Profile, die Sie für dieses Verfahren verwenden, müssen über die nötigen Berechtigungen verfügen. Beispielsweise legen Sie in der Replikations-Konfiguration die IAM-Rolle fest, die Amazon S3 annehmen kann. Dies gelingt Ihnen nur, wenn das verwendete Profil über die `iam:PassRole`-Berechtigung verfügt. Wenn Sie zur Erstellung eines benannten Profils die Benutzer-Anmeldeinformationen eines Administrators verwenden, können Sie alle Aufgaben in diesem Verfahren durchführen. Weitere Informationen finden Sie unter [Erteilen von Berechtigungen, mit denen ein Benutzer eine Rolle an einen AWS-Serviceübergeben kann](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) im *IAM-Benutzerhandbuch*. 

1. Erstellen Sie den *Quell*-Bucket und aktivieren Sie das Versioning für ihn. In diesem Beispiel erstellen wir einen Quell-Bucket mit dem Namen `amzn-s3-demo-source-bucket` in der Region USA Ost (Nord-Virginia) (`us-east-1`). 

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Erstellen Sie einen *Ziel*-Bucket und aktivieren Sie das Versioning für ihn. In diesem Beispiel erstellen wir einen Ziel-Bucket mit dem Namen `amzn-s3-demo-destination-bucket` in der Region USA West (Oregon) (`us-west-2`). Verwenden Sie ein anderes AWS-Konto -Profil als das, das Sie für den Quell-Bucket verwendet haben.

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctB
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctB
   ```

1. Sie müssen Ihrer *Ziel*-Bucket-Richtlinie Berechtigungen hinzufügen, um eine Änderung der Replikat-Eigentümerschaft zuzulassen.

   1.  Speichern Sie die folgende Richtlinie in eine Datei mit dem Namen `destination-bucket-policy.json`. Ersetzen Sie *`user input placeholders`* durch Ihre eigenen Informationen.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Sid": "destination_bucket_policy_sid",
                  "Principal": {
                      "AWS": "source-bucket-owner-123456789012"
                  },
                  "Action": [
                      "s3:ReplicateObject",
                      "s3:ReplicateDelete",
                      "s3:ObjectOwnerOverrideToBucketOwner",
                      "s3:ReplicateTags",
                      "s3:GetObjectVersionTagging"
                  ],
                  "Effect": "Allow",
                  "Resource": [
                      "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
                  ]
              }
          ]
      }
      ```

------

   1. Fügen Sie die vorherige Richtlinie mithilfe des folgenden `put-bucket-policy`-Befehls zum Ziel-Bucket hinzu:

      ```
      aws s3api put-bucket-policy --region $ {destination-region} --bucket $ {amzn-s3-demo-destination-bucket} --policy file://destination_bucket_policy.json
      ```

1. Erstellen Sie eine IAM-Rolle. Sie geben diese Rolle in der Replizierungskonfiguration an, die Sie später zum *Quell-Bucket* hinzufügen. Amazon S3 übernimmt diese Rolle, um Objekte in Ihrem Namen zu replizieren. Sie erstellen eine IAM-Rolle in zwei Schritten:
   + Erstellen Sie die Rolle.
   + Fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu.

   1. Erstellen Sie die IAM-Rolle.

      1. Kopieren Sie die folgende Vertrauensrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-trust-policy.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Diese Richtlinie erteilt Amazon S3 Berechtigungen für die Übernahme der Rolle.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Führen Sie den folgenden AWS CLI `create-role` Befehl aus, um die IAM-Rolle zu erstellen:

         ```
         $ aws iam create-role \
         --role-name replicationRole \
         --assume-role-policy-document file://s3-role-trust-policy.json  \
         --profile acctA
         ```

         Notieren Sie sich den Amazon-Ressourcennamen (ARN) der von Ihnen erstellten IAM-Rolle. Sie werden diesen ARN in einem späteren Schritt benötigen.

   1. Fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu.

      1. Kopieren Sie die folgende Berechtigungsrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-perm-pol-changeowner.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Diese Zugriffsrichtlinie erteilt Berechtigungen für verschiedene Amazon-S3-Bucket- und -Objektaktionen. In den folgenden Schritten fügen Sie diese Richtlinie der IAM-Rolle hinzu, die Sie zuvor erstellt haben. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration"
                  ],
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket"
                  ]
               },
               {
                  "Effect":"Allow",
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ObjectOwnerOverrideToBucketOwner",
                     "s3:ReplicateTags",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               }
            ]
         }
         ```

------

      1. Verwenden Sie den folgenden `put-role-policy`-Befehl, um die vorherige Berechtigungsrichtlinie der Rolle hinzuzufügen.

         ```
         $ aws iam put-role-policy \
         --role-name replicationRole \
         --policy-document file://s3-role-perm-pol-changeowner.json \
         --policy-name replicationRolechangeownerPolicy \
         --profile acctA
         ```

1. Fügen Sie Ihrem Quell-Bucket eine Replikations-Konfiguration hinzu.

   1. Das AWS CLI erfordert die Angabe der Replikationskonfiguration als JSON. Speichern Sie den folgenden JSON-Code in einer Datei mit dem Namen `replication.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. In der Konfiguration legt `AccessControlTranslation` die Änderung der Eigentümerschaft des Replikats vom Eigentümer des Quell-Buckets zum Eigentümer des Ziel-Buckets fest. 

      ```
      {
         "Role":"IAM-role-ARN",
         "Rules":[
            {
               "Status":"Enabled",
               "Priority":1,
               "DeleteMarkerReplication":{
                  "Status":"Disabled"
               },
               "Filter":{
               },
               "Status":"Enabled",
               "Destination":{
                  "Bucket":"arn:aws:s3:::amzn-s3-demo-destination-bucket",
                  "Account":"destination-bucket-owner-account-id",
                  "AccessControlTranslation":{
                     "Owner":"Destination"
                  }
               }
            }
         ]
      }
      ```

   1. Bearbeiten Sie die JSON-Datei, indem Sie Werte für den Namen des Ziel-Buckets, die Konto-ID des Eigentümers des Ziel-Buckets und den `IAM-role-ARN` angeben. Ersetzen Sie *`IAM-role-ARN`* durch den ARN des Buckets, den Sie zuvor erstellt haben. Speichern Sie die Änderungen.

   1. Um die Replikationskonfiguration zum Quell-Bucket hinzuzufügen, führen Sie den folgenden Befehl aus:

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

1. Testen Sie Ihre Replikationskonfiguration, indem Sie die Replikateigentümerschaft in der Amazon-S3-Konsole überprüfen.

   1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

   1. Fügen Sie Objekte zum *Quell*-Bucket hinzu. Stellen Sie sicher, dass der Ziel-Bucket die Objektreplikate enthält und dass der Eigentümer der Replikate auf den Eigentümer des Ziel-Buckets übergegangen ist. AWS-Konto 

### Verwenden von AWS SDKs
<a name="replication-ex3-sdk"></a>

 Ein Code-Beispiel zum Hinzufügen einer Replikationskonfiguration finden Sie unter [Verwenden Sie den AWS SDKs](replication-walkthrough1.md#replication-ex1-sdk). Sie müssen die Replikationskonfiguration entsprechend ändern. Weitere konzeptuelle Informationen finden Sie unter [Ändern des Replikat-Eigentümers](#replication-change-owner). 

# Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)
<a name="replication-time-control"></a>

Die Begrenzung der S3-Replikationszeit (S3 RTC) hilft Ihnen bei der Einhaltung von Compliance- oder Geschäftsanforderungen für die Datenreplikation und bietet Einblick in die Amazon-S3-Replikationsaktivitäten. S3 RTC repliziert die meisten Objekte, die Sie zu Amazon S3 hochladen, in Sekunden und 99,9 Prozent dieser Objekte innerhalb von 15 Minuten. 

Standardmäßig bietet S3 RTC Ihnen zwei Möglichkeiten, den Fortschritt der Replikation zu verfolgen: 
+ **S3-Replikationsmetriken** – Sie können S3-Replikationsmetriken verwenden, um die Gesamtzahl der S3-API-Operationen mit ausstehender Replikation, die Gesamtgröße der Objekte mit ausstehender Replikation, die maximale Replikationszeit in der Zielregion und der Gesamtzahl der Operationen zu überwachen, deren Replikation fehlgeschlagen ist. Anschließend können Sie jedes Dataset, das Sie separat replizieren, überwachen. Sie können S3-Replikationsmetriken auch unabhängig von S3 RTC aktivieren. Weitere Informationen finden Sie unter [Verwenden von S3-Replikationsmetriken](repl-metrics.md).

  Replikationsregeln mit aktivierter Begrenzung der S3-Replikationszeit (S3 RTC) veröffentlichen S3-Replikationsmetriken. Replikationsmetriken sind innerhalb von 15 Minuten nach der Aktivierung von S3 RTC verfügbar. Replikationsmetriken sind über die Amazon S3 S3-Konsole, die Amazon S3 S3-API AWS SDKs, the, AWS Command Line Interface the (AWS CLI) und Amazon verfügbar CloudWatch. Weitere Informationen zu CloudWatch Metriken finden Sie unter[Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md). Weitere Informationen zum Anzeigen von Replikationsmetriken über die Amazon-S3-Konsole finden Sie unter [Anzeigen von Replikationsmetriken](repl-metrics.md#viewing-replication-metrics).

  S3-Replikationsmetriken werden zum gleichen Tarif wie CloudWatch benutzerdefinierte Amazon-Metriken abgerechnet. Weitere Informationen finden Sie unter [ CloudWatchAmazon-Preise](https://aws.amazon.com/cloudwatch/pricing/). 
+ **Amazon-S3-Ereignisbenachrichtigungen** – S3 RTC bietet `OperationMissedThreshold`- und `OperationReplicatedAfterThreshold`-Ereignisse, die den Bucket-Eigentümer benachrichtigen, wenn die Objektreplikation den 15-Minuten-Grenzwert überschreitet oder danach erfolgt. Mit S3 RTC können Sie in den seltenen Fällen, in denen Objekte nicht innerhalb von 15 Minuten oder erst nach dem Grenzwert von 15 Minuten repliziert werden, Amazon-S3-Ereignisbenachrichtigungen erhalten. 

  Replikationsmetriken sind innerhalb von 15 Minuten nach der Aktivierung von S3 RTC verfügbar. Amazon S3 S3-Ereignisbenachrichtigungen sind über Amazon SQS, Amazon SNS oder verfügbar. AWS Lambda Weitere Informationen finden Sie unter [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](replication-metrics-events.md).

 

## Bewährte Methoden und Richtlinien für S3 RTC
<a name="rtc-best-practices"></a>

Befolgen Sie beim Replizieren von Daten in Amazon S3 mit aktivierter Begrenzung der S3-Replikationszeit (S3 RTC) diese bewährten Methoden, um die Replikationsleistung für Ihre Workloads zu optimieren. 

**Topics**
+ [Leistungsrichtlinien für Amazon-S3-Replikation and -Anforderungsraten](#rtc-request-rate-performance)
+ [Schätzen der Replikationsanforderungsraten](#estimating-replication-request-rates)
+ [Überschreiten der Kontingente für die S3-RTC-Datenübertragungsrate](#exceed-rtc-data-transfer-limits)
+ [AWS KMS Anforderungsraten für die Replikation verschlüsselter Objekte](#kms-object-replication-request-rates)

### Leistungsrichtlinien für Amazon-S3-Replikation and -Anforderungsraten
<a name="rtc-request-rate-performance"></a>

Wenn Speicherinhalte zu Amazon S3 hochgeladen oder von dort abgerufen werden, können Ihre Anwendungen Tausende von Transaktionen pro Sekunde bei der Anforderungsleistung erhalten. Beispielsweise kann eine Anwendung mindestens 3.500 `PUT`/`COPY`/`POST`/`DELETE`- oder 5.500 `GET`/`HEAD`-Anforderungen pro Sekunde pro Präfix in einem S3-Bucket erreichen, einschließlich der Anforderungen, die die S3-Replikation in Ihrem Namen vornimmt. Es gibt keine Einschränkungen für die Anzahl der Präfixe in einem Bucket. Sie können Ihre Lese- und Schreibleistung steigern, indem Sie Lesevorgänge parallelisieren. Wenn Sie beispielsweise 10 Präfixe in einem S3-Bucket für parallele Lesevorgänge einrichten, können Sie damit die Leseleistung auf 55 000 Leseanfragen pro Sekunde skalieren. 

Amazon S3 skaliert automatisch als Reaktion auf anhaltende Anforderungsraten oberhalb dieser Richtlinien oder anhaltender Anforderungsraten übereinstimmend mit `LIST`-Anforderungen. Während Amazon S3 intern für die neue Anforderungsrate optimiert wird, erhalten Sie möglicherweise temporär HTTP 503-Anforderungsantworten, bis die Optimierung abgeschlossen ist. Dieses Verhalten kann mit steigenden Anforderungsraten pro Sekunde oder beim ersten Aktivieren von S3 RTC auftreten. Während dieser Zeiträume kann sich die Replikationslatenz erhöhen. Das S3 RTC Service Level Agreement (SLA) gilt nicht für Zeiträume, in denen Amazon-S3-Leistungsrichtlinien für Anforderungen pro Sekunde überschritten werden. 

Das S3 RTC SLA gilt auch nicht für Zeiträume, in denen Ihre Replikationsdatenübertragungsrate das Standardlimit von 1 Gbit/s überschreitet. Wenn Sie erwarten, dass Ihre Replikations-Übertragungsrate 1 Gbit/s überschreitet, können Sie Ihr [AWS Support -Center](https://console.aws.amazon.com/support/home#/) kontaktieren oder über [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) eine Erhöhung Ihres Kontingents für die Replikationsübertragungsrate anfordern. 

### Schätzen der Replikationsanforderungsraten
<a name="estimating-replication-request-rates"></a>

Ihre Gesamtanforderungsrate einschließlich der Anforderungen, die die Amazon-S3-Replikation in Ihrem Namen vornimmt, muss den Richtlinien für die Amazon-S3-Anforderungsrate sowohl für die Quell- als auch für die Ziel-Buckets der Replikation entsprechen. Für jedes replizierte Objekt führt die Amazon-S3-Replikation bis zu fünf `GET`/`HEAD`-Anforderungen und eine `PUT`-Anforderung an den Quell-Bucket sowie eine `PUT`-Anforderung an jeden Ziel-Bucket aus.

Wenn Sie beispielsweise davon ausgehen, dass 100 Objekte pro Sekunde repliziert werden, kann die Amazon-S3-Replikation für Sie zusätzliche 100 `PUT`-Anforderungen für insgesamt 200 `PUT`-Anforderungen pro Sekunde an den Quell-S3-Bucket ausführen. Die Amazon-S3-Replikation kann außerdem bis zu 500 `GET`/`HEAD`-Anforderungen ausführen (5 `GET`/`HEAD`-Anforderungen für jedes replizierte Objekt). 

**Anmerkung**  
Es entstehen Kosten für nur eine `PUT`-Anforderung pro repliziertem Objekt. Weitere Informationen finden Sie in den Preisinformationen zur [Replikation in Amazon S3 FAQs ](https://aws.amazon.com/s3/faqs/#Replication). 

### Überschreiten der Kontingente für die S3-RTC-Datenübertragungsrate
<a name="exceed-rtc-data-transfer-limits"></a>

Wenn Sie erwarten, dass die Datenübertragungsrate von S3 RTC das Standardkontingent von 1 Gbit/s überschreitet, wenden Sie sich an Ihr [AWS Support -Center](https://console.aws.amazon.com/support/home#/) oder verwenden Sie [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html), um eine Erhöhung Ihres Kontingents für die Datenübertragungsrate anzufordern. 

### AWS KMS Anforderungsraten für die Replikation verschlüsselter Objekte
<a name="kms-object-replication-request-rates"></a>

Wenn Sie Objekte replizieren, die mit serverseitiger Verschlüsselung mit AWS Key Management Service (AWS KMS) -Schlüsseln (SSE-KMS) verschlüsselt sind, gelten Kontingente für AWS KMS Anfragen pro Sekunde. AWS KMS lehnt möglicherweise eine ansonsten gültige Anfrage ab, weil Ihre Anforderungsrate das Kontingent für die Anzahl der Anfragen pro Sekunde überschreitet. Wenn eine Anfrage gedrosselt wird, wird ein AWS KMS `ThrottlingException` Fehler zurückgegeben. Das AWS KMS Anforderungsratenkontingent gilt für Anfragen, die Sie direkt stellen, und für Anfragen, die von der Amazon S3 S3-Replikation in Ihrem Namen gestellt werden. 

Wenn Sie beispielsweise damit rechnen, 1.000 Objekte pro Sekunde zu replizieren, können Sie 2.000 Anfragen von Ihrer AWS KMS Quote für Anfragen abziehen. Die daraus resultierende Anforderungsrate pro Sekunde ist für Ihre AWS KMS Workloads ohne Replikation verfügbar. Sie können die [AWS KMS Anforderungsmetriken in Amazon](https://docs.aws.amazon.com/kms/latest/developerguide/monitoring-cloudwatch.html) verwenden CloudWatch, um die gesamte AWS KMS Anforderungsrate auf Ihrem zu überwachen AWS-Konto.

Um eine Erhöhung Ihres Kontingents für AWS KMS Anfragen pro Sekunde zu beantragen, wenden Sie sich an das [AWS Support Center](https://console.aws.amazon.com/support/home#/) oder nutzen Sie [Service Quotas](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html). 

## Aktivieren der Begrenzung der S3-Replikationszeit (S3 RTC)
<a name="replication-walkthrough-5"></a>

Sie können die Begrenzung der S3-Replikationszeit (S3 RTC) mit einer neuen oder einer vorhandenen Replikationsregel verwenden. Sie können die Replikationsregel auf einen gesamten S3-Bucket oder auf Objekte mit einem bestimmten Präfix oder Tag anwenden. Wenn Sie S3 RTC aktivieren, werden S3-Replikationsmetriken auch für Ihre Replikationsregel aktiviert. 

Sie können S3 RTC mithilfe der Amazon S3 S3-Konsole, der Amazon S3 S3-API AWS SDKs, der und der AWS Command Line Interface (AWS CLI) konfigurieren.

**Topics**

### Verwenden der S3-Konsole
<a name="replication-ex5-console"></a>

 step-by-stepAnweisungen finden Sie unter[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md). Dieses Thema enthält Anweisungen zur Aktivierung von S3 RTC in Ihrer Replikationskonfiguration, wenn Quell- und Ziel-Buckets denselben und unterschiedlichen Besitzern gehören. AWS-Konten

### Verwenden von AWS CLI
<a name="replication-ex5-cli"></a>

Um Objekte mit aktiviertem S3 RTC AWS CLI zu replizieren, erstellen Sie Buckets, aktivieren die Versionierung für die Buckets, erstellen eine IAM-Rolle, die Amazon S3 die Berechtigung erteilt, Objekte zu replizieren, und fügen die Replikationskonfiguration zum Quell-Bucket hinzu. Für die Replikationskonfiguration muss S3 RTC aktiviert sein, wie im folgenden Beispiel gezeigt. 

 step-by-stepAnweisungen zum Einrichten Ihrer Replikationskonfiguration mithilfe von finden Sie unter. AWS CLI[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md)

Das folgende Beispiel für eine Replikationskonfiguration aktiviert die Werte `ReplicationTime` und `EventThreshold` und legt sie für eine Replikationsregel fest. Wenn Sie diese Werte aktivieren und festlegen, wird S3 RTC für die Regel aktiviert.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "DeleteMarkerReplication": {
                "Status": "Disabled"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket",
                "Metrics": {
                    "Status": "Enabled",
                    "EventThreshold": {
                        "Minutes": 15
                    }
                },
                "ReplicationTime": {
                    "Status": "Enabled",
                    "Time": {
                        "Minutes": 15
                    }
                }
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

**Wichtig**  
 Für `Metrics:EventThreshold:Minutes` und `ReplicationTime:Time:Minutes` ist als gültiger Wert nur `15` zulässig. 

### Verwenden des AWS SDK for Java
<a name="replication-ex5-sdk"></a>

 Im folgenden Java-Beispiel wird eine Replikationskonfiguration mit aktivierter Begrenzung der S3-Replikationszeit (S3 RTC) hinzugefügt.

```
import software.amazon.awssdk.auth.credentials.AwsBasicCredentials;
import software.amazon.awssdk.regions.Region;
import software.amazon.awssdk.services.s3.model.DeleteMarkerReplication;
import software.amazon.awssdk.services.s3.model.Destination;
import software.amazon.awssdk.services.s3.model.Metrics;
import software.amazon.awssdk.services.s3.model.MetricsStatus;
import software.amazon.awssdk.services.s3.model.PutBucketReplicationRequest;
import software.amazon.awssdk.services.s3.model.ReplicationConfiguration;
import software.amazon.awssdk.services.s3.model.ReplicationRule;
import software.amazon.awssdk.services.s3.model.ReplicationRuleFilter;
import software.amazon.awssdk.services.s3.model.ReplicationTime;
import software.amazon.awssdk.services.s3.model.ReplicationTimeStatus;
import software.amazon.awssdk.services.s3.model.ReplicationTimeValue;

public class Main {

  public static void main(String[] args) {
    S3Client s3 = S3Client.builder()
      .region(Region.US_EAST_1)
      .credentialsProvider(() -> AwsBasicCredentials.create(
          "AWS_ACCESS_KEY_ID",
          "AWS_SECRET_ACCESS_KEY")
      )
      .build();

    ReplicationConfiguration replicationConfig = ReplicationConfiguration
      .builder()
      .rules(
          ReplicationRule
            .builder()
            .status("Enabled")
            .priority(1)
            .deleteMarkerReplication(
                DeleteMarkerReplication
                    .builder()
                    .status("Disabled")
                    .build()
            )
            .destination(
                Destination
                    .builder()
                    .bucket("destination_bucket_arn")
                    .replicationTime(
                        ReplicationTime.builder().time(
                            ReplicationTimeValue.builder().minutes(15).build()
                        ).status(
                            ReplicationTimeStatus.ENABLED
                        ).build()
                    )
                    .metrics(
                        Metrics.builder().eventThreshold(
                            ReplicationTimeValue.builder().minutes(15).build()
                        ).status(
                            MetricsStatus.ENABLED
                        ).build()
                    )
                    .build()
            )
            .filter(
                ReplicationRuleFilter
                    .builder()
                    .prefix("testtest")
                    .build()
            )
        .build())
        .role("role_arn")
        .build();

    // Put replication configuration
    PutBucketReplicationRequest putBucketReplicationRequest = PutBucketReplicationRequest
      .builder()
      .bucket("source_bucket")
      .replicationConfiguration(replicationConfig)
      .build();

    s3.putBucketReplication(putBucketReplicationRequest);
  }
}
```

# Replizieren verschlüsselter Objekte (SSE-S3, SSE-KMS, DSSE-KMS, SSE-C)
<a name="replication-config-for-kms-objects"></a>

**Wichtig**  
Amazon S3 wendet jetzt serverseitige Verschlüsselung mit von Amazon S3 verwalteten Verschlüsselungsschlüssel (SSE-S3) als Basisverschlüsselung für jeden Bucket in Amazon S3 an. Ab dem 5. Januar 2023 werden alle neuen Objekt-Uploads auf Amazon S3 ohne zusätzliche Kosten und ohne Auswirkungen auf die Leistung automatisch verschlüsselt. Der automatische Verschlüsselungsstatus für die Standardverschlüsselungskonfiguration des S3-Buckets und für das Hochladen neuer Objekte ist in den CloudTrail Protokollen, im S3-Inventar, in der S3-Speicherlinse, in der Amazon S3-Konsole und als zusätzlicher Amazon S3 S3-API-Antwortheader im AWS CLI und AWS SDKs verfügbar. Weitere Informationen finden Sie unter [Häufig gestellte Fragen zur Standardverschlüsselung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-encryption-faq.html).

Bei der Replikation von Objekten, die mit der serverseitigen Verschlüsselung verschlüsselt wurden, sind einige besondere Punkte zu beachten. Amazon S3 unterstützt die folgenden Arten von serverseitiger Verschlüsselung:
+ Serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3)
+ Serverseitige Verschlüsselung mit AWS Key Management Service (AWS KMS) Schlüsseln (SSE-KMS)
+ Zweischichtige serverseitige Verschlüsselung mit Schlüsseln (DSSE-KMS) AWS KMS 
+ Serverseitige Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C)

Weitere Informationen zur serverseitigen Verschlüsselung finden Sie unter [Schützen von Daten mit serverseitiger Verschlüsselung](serv-side-encryption.md).

In diesem Thema werden die Berechtigungen erläutert, die Sie benötigen, um Amazon S3 anzuweisen, Objekte zu replizieren, die mithilfe serverseitiger Verschlüsselung verschlüsselt wurden. Dieses Thema enthält auch zusätzliche Konfigurationselemente, die Sie hinzufügen können, sowie Beispielrichtlinien AWS Identity and Access Management (IAM), die die erforderlichen Berechtigungen für die Replikation verschlüsselter Objekte gewähren. 

Ein Beispiel mit step-by-step Anweisungen finden Sie unter. [Aktivieren der Replikation für verschlüsselte Objekte](#replication-walkthrough-4) Weitere Informationen zum Erstellen einer Replikationskonfiguration finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md). 

**Anmerkung**  
Sie können Multiregion AWS KMS keys in Amazon S3 verwenden. Amazon S3 behandelt jedoch derzeit Multi-Regions-Schlüssel wie Einzel-Regions-Schlüssel und verwendet nicht die Multi-Regions-Funktionen des Schlüssels. Weitere Informationen finden Sie unter [Verwenden von multiregionalen Schlüsseln)](https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html) im *AWS Key Management Service -Entwicklerhandbuch*.

**Topics**
+ [So wirkt sich die Standard-Bucket-Verschlüsselung auf die Replikation aus](#replication-default-encryption)
+ [Mit SSE-C verschlüsselte Objekte replizieren](#replicationSSEC)
+ [Replizieren von mit SSE-S3, SSE-KMS oder DSSE-KMS verschlüsselten Objekten](#replications)
+ [Aktivieren der Replikation für verschlüsselte Objekte](#replication-walkthrough-4)

## So wirkt sich die Standard-Bucket-Verschlüsselung auf die Replikation aus
<a name="replication-default-encryption"></a>

Wenn Sie die Standard-Verschlüsselung für einen Replikations-Ziel-Bucket aktivieren, gilt das folgende Verschlüsselungsverhalten:
+ Wenn Objekte im Quell-Bucket nicht verschlüsselt sind, werden die Replikatobjekte im Ziel-Bucket mithilfe der Einstellungen der Standard-Verschlüsselung des Ziel-Buckets verschlüsselt. Infolgedessen unterscheiden sich die Entity-Tags (ETags) der Quellobjekte von denen ETags der Replikatobjekte. Wenn Sie Anwendungen haben, die dies verwenden ETags, müssen Sie diese Anwendungen aktualisieren, um diesen Unterschied zu berücksichtigen.
+ Wenn Objekte im Quell-Bucket mit serverseitiger Verschlüsselung mit verwalteten Amazon S3 S3-Schlüsseln (SSE-S3), serverseitiger Verschlüsselung mit () -Schlüsseln AWS Key Management Service (SSE-KMS AWS KMS) oder zweischichtiger serverseitiger Verschlüsselung mit AWS KMS Schlüsseln (DSSE-KMS) verschlüsselt werden, verwenden die Replikatobjekte im Ziel-Bucket denselben Verschlüsselungstyp wie die Quellobjekte. Die Einstellungen der Standard-Verschlüsselung des Ziel-Buckets werden nicht verwendet.

## Mit SSE-C verschlüsselte Objekte replizieren
<a name="replicationSSEC"></a>

Die serverseitige Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C) gestattet Ihnen, Ihre eigenen Verschlüsselungsschlüssel zu verwalten. Mit SSE-C verwalten Sie die Schlüssel, während Amazon S3 den Verschlüsselungs- und Entschlüsselungsprozess verwaltet. Sie müssen einen Verschlüsselungsschlüssel als Teil Ihrer Anfrage angeben, brauchen aber keinen Code zu schreiben, um die Objektverschlüsselung oder -entschlüsselung durchzuführen. Wenn Sie ein Objekt hochladen, verschlüsselt Amazon S3 das Objekt mithilfe des von Ihnen angegebenen Schlüssels. Amazon S3 löscht diesen Schlüssel dann aus dem Speicher. Wenn Sie ein Objekt abrufen, müssen Sie denselben Verschlüsselungsschlüssel als Teil Ihrer Anfrage angeben. Weitere Informationen finden Sie unter [Verwenden von serverseitiger Verschlüsselung mit vom Kunden bereitgestellten Schlüsseln (SSE-C)](ServerSideEncryptionCustomerKeys.md).

Die S3-Replikation unterstützt Objekte, die mit SSE-C verschlüsselt sind. Sie können die SSE-C-Objektreplikation in der Amazon S3 S3-Konsole oder mit der AWS SDKs auf dieselbe Weise konfigurieren, wie Sie die Replikation für unverschlüsselte Objekte konfigurieren. Es gibt keine zusätzlichen SSE-C-Berechtigungen, die über das hinausgehen, was derzeit für die Replikation erforderlich ist. 

Die S3-Replikation repliziert automatisch neu hochgeladene mit SSE-C verschlüsselte Objekte, sofern sie wie in Ihrer S3-Replikationskonfiguration angegeben infrage kommen. Verwenden Sie die S3-Batchreplikation, um vorhandene Objekte in Ihren Buckets zu replizieren. Weitere Informationen zum Replizieren von Objekten finden Sie unter [Einrichten einer Live-Replikation – Überblick](replication-how-setup.md) und [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md).

Für die Replikation von SSE-C-Objekten fallen keine zusätzlichen Gebühren an. Einzelheiten zu den Replikationspreisen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

## Replizieren von mit SSE-S3, SSE-KMS oder DSSE-KMS verschlüsselten Objekten
<a name="replications"></a>

Standardmäßig repliziert Amazon S3 keine Objekte, die mit SSE-KMS oder DSSE-KMS verschlüsselt sind. In diesem Abschnitt werden die zusätzlichen Konfigurationselemente erörtert, die Sie hinzufügen können, um Amazon S3 anzuweisen, diese Objekte zu replizieren. 

Ein Beispiel mit step-by-step Anweisungen finden Sie unter. [Aktivieren der Replikation für verschlüsselte Objekte](#replication-walkthrough-4) Weitere Informationen zum Erstellen einer Replikationskonfiguration finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md). 

### Angeben zusätzlicher Informationen in der Replikations-Konfiguration
<a name="replication-kms-extra-config"></a>

In der Replikations-Konfiguration machen Sie Folgendes:
+ Fügen Sie in dem `Destination` Element in Ihrer Replikationskonfiguration die ID des symmetrischen, vom AWS KMS Kunden verwalteten Schlüssels hinzu, den Amazon S3 zur Verschlüsselung von Objektreplikaten verwenden soll, wie in der folgenden Beispiel-Replikationskonfiguration gezeigt. 
+ Melden Sie sich ausdrücklich an, indem Sie die Replikation von Objekten aktivieren, die mit KMS-Schlüsseln (SSE-KMS oder DSSE-KMS) verschlüsselt wurden. Fügen Sie dazu das `SourceSelectionCriteria`-Element hinzu, wie im folgenden Beispiel einer Replikationskonfiguration dargestellt.

 

```
<ReplicationConfiguration>
   <Rule>
      ...
      <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
           <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
      </SourceSelectionCriteria>

      <Destination>
          ...
          <EncryptionConfiguration>
             <ReplicaKmsKeyID>AWS KMS key ARN or Key Alias ARN that's in the same AWS-Region as the destination bucket.</ReplicaKmsKeyID>
          </EncryptionConfiguration>
       </Destination>
      ...
   </Rule>
</ReplicationConfiguration>
```

**Wichtig**  
Der KMS-Schlüssel muss im selben Ordner AWS-Region wie der Ziel-Bucket erstellt worden sein. 
Der KMS-Schlüssel *muss* gültig sein. Die `PutBucketReplication`-API-Operation überprüft nicht die Gültigkeit von KMS-Schlüsseln. Wenn Sie einen ungültigen KMS-Schlüssel verwenden, erhalten Sie als Antwort den HTTP-`200 OK`-Statuscode, aber die Replikation schlägt fehl.

Das folgende Beispiel zeigt eine Replikationskonfiguration, die optionale Konfigurationselemente enthält. Diese Replikations-Konfiguration weist eine Regel auf. Die Regel wird auf alle Objekte mit dem Schlüsselpräfix `Tax` angewendet. Amazon S3 verwendet die angegebene AWS KMS key ID, um diese Objektreplikate zu verschlüsseln.

```
<?xml version="1.0" encoding="UTF-8"?>
<ReplicationConfiguration>
   <Role>arn:aws:iam::account-id:role/role-name</Role>
   <Rule>
      <ID>Rule-1</ID>
      <Priority>1</Priority>
      <Status>Enabled</Status>
      <DeleteMarkerReplication>
         <Status>Disabled</Status>
      </DeleteMarkerReplication>
      <Filter>
         <Prefix>Tax</Prefix>
      </Filter>
      <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <EncryptionConfiguration>
            <ReplicaKmsKeyID>AWS KMS key ARN or Key Alias ARN that's in the same AWS-Region as the destination bucket.</ReplicaKmsKeyID>
         </EncryptionConfiguration>
      </Destination>
      <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
            <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
      </SourceSelectionCriteria>
   </Rule>
</ReplicationConfiguration>
```

### Erteilen zusätzlicher Berechtigungen für die IAM-Rolle
<a name="replication-kms-permissions"></a>

Um Objekte zu replizieren, die im Ruhezustand mithilfe von SSE-S3, SSE-KMS oder DSSE-KMS verschlüsselt wurden, gewähren Sie der AWS Identity and Access Management (IAM-) Rolle, die Sie in der Replikationskonfiguration angeben, die folgenden zusätzlichen Berechtigungen. Sie erteilen diese Berechtigungen, indem Sie die mit der IAM-Rolle verknüpfte Berechtigungsrichtlinie aktualisieren. 
+ **`s3:GetObjectVersionForReplication`-Aktion für Quellobjekte** – Diese Aktion ermöglicht Amazon S3, sowohl unverschlüsselte Objekte als auch Objekte, die mit serverseitiger Verschlüsselung mit SSE-S3, SSE-KMS oder DSSE-KMS erstellt wurden, zu replizieren.
**Anmerkung**  
Wir empfehlen, dass Sie die Aktion `s3:GetObjectVersionForReplication` statt der Aktion `s3:GetObjectVersion` verwenden, da `s3:GetObjectVersionForReplication` Amazon S3 nur die minimalen Berechtigungen bereitstellt, die für eine Replikation nötig sind. Darüber hinaus ermöglicht die Aktion `s3:GetObjectVersion` die Replikation von unverschlüsselten und über SSE-S3 verschlüsselten Objekten, nicht aber von Objekten, die mit KMS-Schlüsseln (SSE-KMS oder DSSE-KMS) verschlüsselt wurden. 
+ **`kms:Decrypt``kms:Encrypt` AWS KMS und Aktionen für die KMS-Schlüssel**
  + Sie müssen `kms:Decrypt`-Berechtigungen für den AWS KMS key gewähren, der zum Entschlüsseln des Quellobjekts verwendet wird.
  + Sie müssen `kms:Encrypt`-Berechtigungen für den AWS KMS key gewähren, der zum Verschlüsseln des Objektreplikats verwendet wird.
+ **`kms:GenerateDataKey`-Aktion zur Replikation von Klartextobjekten** – Wenn Sie Klartextobjekte in einen Bucket replizieren, für den die SSE-KMS- oder DSSE-KMS-Verschlüsselung standardmäßig aktiviert ist, müssen Sie die `kms:GenerateDataKey`-Berechtigung für den Zielverschlüsselungskontext und den KMS-Schlüssel zur IAM-Richtlinie hinzufügen.

**Wichtig**  
Wenn Sie S3 Batch Replication verwenden, um Datensätze regionsübergreifend zu replizieren und der serverseitige Verschlüsselungstyp Ihrer Objekte zuvor von SSE-S3 auf SSE-KMS aktualisiert wurde, benötigen Sie möglicherweise zusätzliche Berechtigungen. Für den Bucket der Quellregion benötigen Sie Berechtigungen. `kms:decrypt` Anschließend benötigen Sie die `kms:encrypt` Berechtigungen `kms:decrypt` und für den Bucket in der Zielregion. 

Wir empfehlen, diese Berechtigungen mithilfe von AWS KMS Bedingungsschlüsseln nur auf die Ziel-Buckets und -Objekte zu beschränken. Derjenige AWS-Konto , dem die IAM-Rolle gehört, muss über Berechtigungen für die `kms:Encrypt` und `kms:Decrypt` Aktionen für die KMS-Schlüssel verfügen, die in der Richtlinie aufgeführt sind. Wenn die KMS-Schlüssel einer anderen Person gehören AWS-Konto, muss der Besitzer der KMS-Schlüssel diese Berechtigungen demjenigen gewähren AWS-Konto , dem die IAM-Rolle gehört. Weitere Informationen zur Verwaltung des Zugriffs auf diese KMS-Schlüssel finden Sie unter [Verwenden von IAM-Richtlinien mit AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/iam-policies.html) im * AWS Key Management Service Entwicklerhandbuch*.

### S3 Bucket-Schlüssel und Replikation
<a name="bk-replication"></a>

Um die Replikation mit einem S3-Bucket-Schlüssel zu verwenden, muss die AWS KMS key Richtlinie für den KMS-Schlüssel, der zum Verschlüsseln des Objektreplikats verwendet wird, die `kms:Decrypt` Berechtigung für den aufrufenden Prinzipal enthalten. Der Aufruf zur `kms:Decrypt` Überprüfung der Integrität des S3-Bucket-Schlüssels, bevor er verwendet wird. Weitere Informationen finden Sie unter [Verwenden eines S3-Bucket-Schlüssels mit Replikation](bucket-key.md#bucket-key-replication).

Wenn ein S3-Bucket-Schlüssel für den Quell- oder Ziel-Bucket aktiviert ist, ist der Verschlüsselungskontext der Amazon-Ressourcenname (ARN) des Buckets, nicht der Objekt-ARN (z. B. `arn:aws:s3:::bucket_ARN`). Sie müssen Ihre IAM-Richtlinien aktualisieren, um den Bucket-ARN für den Verschlüsselungskontext verwenden zu können:

```
"kms:EncryptionContext:aws:s3:arn": [
"arn:aws:s3:::bucket_ARN"
]
```

Weitere Informationen finden Sie unter [Verschlüsselungskontext (`x-amz-server-side-encryption-context`)](specifying-kms-encryption.md#s3-kms-encryption-context) (im Abschnitt „Verwenden der REST-API“ und unter [Änderungen, die Sie vor dem Aktivieren eines S3-Bucket-Schlüssels beachten sollten](bucket-key.md#bucket-key-changes).

### Beispielrichtlinien: Verwenden von SSE-S3 und SSE-KMS bei der Replikation
<a name="kms-replication-examples"></a>

Die folgenden IAM-Beispielrichtlinien zeigen Anweisungen für die Verwendung von SSE-S3 und SSE-KMS bei der Replikation.

**Example – Verwenden von SSE-KMS mit separaten Ziel-Buckets**  
Die folgende Beispielrichtlinie zeigt Anweisungen zur Verwendung von SSE-KMS mit separaten Ziel-Buckets. 

**Example – Replizieren von mit SSE-S3 und SSE-KMS erstellten Objekten**  
Im Folgenden sehen Sie eine vollständige IAM-Richtlinie, die die erforderlichen Berechtigungen zum Replizieren von unverschlüsselten Objekten, Objekten, die mit SSE-S3 erstellt wurden, und Objekten, die mit SSE-KMS erstellt wurden, gewährt.    
****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetReplicationConfiguration",
            "s3:ListBucket"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObjectVersionForReplication",
            "s3:GetObjectVersionAcl"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:ReplicateObject",
            "s3:ReplicateDelete"
         ],
         "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/key-prefix1*"
      },
      {
         "Action":[
            "kms:Decrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
               ]
            }
         },
         "Resource":[
           "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      },
      {
         "Action":[
            "kms:Encrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket/prefix1*"
               ]
            }
         },
         "Resource":[
            "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      }
   ]
}
```

**Example – Replizieren von Objekten mit S3-Bucket-Schlüsseln**  
Im Folgenden sehen Sie eine vollständige IAM-Richtlinie, die die erforderlichen Berechtigungen zum Replizieren von Objekten mit S3-Bucket-Schlüsseln gewährt.    
****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetReplicationConfiguration",
            "s3:ListBucket"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObjectVersionForReplication",
            "s3:GetObjectVersionAcl"
         ],
         "Resource":[
            "arn:aws:s3:::amzn-s3-demo-source-bucket/key-prefix1*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "s3:ReplicateObject",
            "s3:ReplicateDelete"
         ],
         "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/key-prefix1*"
      },
      {
         "Action":[
            "kms:Decrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-source-bucket"
               ]
            }
         },
         "Resource":[
           "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      },
      {
         "Action":[
            "kms:Encrypt"
         ],
         "Effect":"Allow",
         "Condition":{
            "StringLike":{
               "kms:ViaService":"s3.us-east-1.amazonaws.com",
               "kms:EncryptionContext:aws:s3:arn":[
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket"
               ]
            }
         },
         "Resource":[
            "arn:aws:kms:us-east-1:111122223333:key/key-id"
         ]
      }
   ]
}
```

### Erteilen von zusätzlichen Berechtigungen für kontenübergreifende Szenarien
<a name="replication-kms-cross-acct-scenario"></a>

In einem kontoübergreifenden Szenario, in dem die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören, können Sie einen KMS-Schlüssel verwenden AWS-Konten, um Objektreplikate zu verschlüsseln. Der KMS-Schlüssel-Besitzer muss dem Besitzer des Quell-Buckets jedoch die Berechtigung erteilen, den KMS-Schlüssel zu verwenden. 

**Anmerkung**  
Wenn Sie SSE-KMS-Daten kontenübergreifend replizieren müssen, muss Ihre Replikationsregel einen vom [Kunden](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#customer-cmk) verwalteten Schlüssel für das Zielkonto angeben. AWS KMS [Von AWS verwaltete Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#aws-managed-cmk)erlauben keine kontoübergreifende Verwendung und können daher nicht für die kontenübergreifende Replikation verwendet werden.<a name="cross-acct-kms-key-permission"></a>

**So erteilen Sie dem Quell-Bucket-Eigentümer die Berechtigung zur Verwendung des KMS-Schlüssels (AWS KMS -Konsole)**

1. [Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die AWS KMS Konsole unter https://console.aws.amazon.com /kms.](https://console.aws.amazon.com/kms)

1. Um das zu ändern AWS-Region, verwenden Sie die Regionsauswahl in der oberen rechten Ecke der Seite.

1. Zum Anzeigen der Schlüssel in Ihrem Konto, die Sie erstellen und verwalten, wählen Sie im Navigationsbereich **Customer managed keys (Vom Kunden verwaltete Schlüssel)** aus.

1. Wählen Sie den KMS-Schlüssel aus.

1. Wählen Sie unter **Allgemeine Konfiguration** den Tab **Schlüsselrichtlinie** aus.

1. **Scrollen Sie nach unten zu Andere. AWS-Konten**

1. Wählen **Sie Andere hinzufügen AWS-Konten**. 

   Daraufhin wird das Dialogfeld **Other AWS-Konten** (Andere AWS-Konten) angezeigt. 

1. Wählen Sie im Dialogfeld **Weitere hinzufügen** aus AWS-Konto. Geben Sie für **arn:aws:iam::** die Konto-ID des Quell-Buckets ein.

1. Wählen Sie **Änderungen speichern** aus.

**So erteilen Sie dem Quell-Bucket-Eigentümer die Berechtigung zur Verwendung des KMS-Schlüssels (AWS CLI)**
+ Informationen zum Befehl `put-key-policy` AWS Command Line Interface (AWS CLI) finden Sie [https://docs.aws.amazon.com/cli/latest/reference/kms/put-key-policy.html](https://docs.aws.amazon.com/cli/latest/reference/kms/put-key-policy.html)in der * AWS CLI Befehlsreferenz*. Weitere Informationen über die zugrundeliegende `PutKeyPolicy`-API-Operation finden Sie unter [https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) in der [AWS Key Management Service -API-Referenz](https://docs.aws.amazon.com/kms/latest/APIReference/).

### AWS KMS Überlegungen zu Transaktionsquoten
<a name="crr-kms-considerations"></a>

Wenn Sie nach der Aktivierung der regionsübergreifenden Replikation (CRR) viele neue Objekte mit AWS KMS Verschlüsselung hinzufügen, kann es zu Drosselungen (HTTP-Fehler) kommen. `503 Service Unavailable` Die Drosselung erfolgt, wenn die Anzahl an AWS KMS -Transaktionen pro Sekunde das aktuelle Kontingent überschreitet. Weitere Informationen finden Sie unter [Kontingente](https://docs.aws.amazon.com/kms/latest/developerguide/limits.html) im *AWS Key Management Service -Entwicklerhandbuch*.

Zum Anfordern einer Erhöhung für ein Kontingent verwenden Sie Service-Quotas verwenden. Weitere Informationen finden Sie unter [Anfordern einer Kontingenterhöhung](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html). Wenn Service Quotas in Ihrer Region nicht unterstützt werden, [öffnen Sie einen AWS Support Fall](https://console.aws.amazon.com/support/home#/). 

## Aktivieren der Replikation für verschlüsselte Objekte
<a name="replication-walkthrough-4"></a>

Standardmäßig repliziert Amazon S3 keine Objekte, die mit serverseitiger Verschlüsselung mit () -Schlüsseln AWS Key Management Service (SSE-KMS AWS KMS) oder zweischichtiger serverseitiger Verschlüsselung mit Schlüsseln (DSSE-KMS) verschlüsselt wurden. AWS KMS Um mit SSE-KMS oder DSSE-KMS verschlüsselte Objekte zu replizieren, müssen Sie die Bucket-Replikationskonfiguration ändern und weisen damit Amazon S3 an, diese Objekte zu replizieren. In diesem Beispiel wird erklärt, wie Sie die Amazon S3 S3-Konsole und die AWS Command Line Interface (AWS CLI) verwenden, um die Bucket-Replikationskonfiguration zu ändern, um die Replikation verschlüsselter Objekte zu ermöglichen.

**Anmerkung**  
Wenn ein S3-Bucket-Schlüssel für den Quell- oder Ziel-Bucket aktiviert ist, ist der Verschlüsselungskontext der Amazon-Ressourcenname (ARN) des Buckets, nicht der Objekt-ARN. Sie müssen Ihre IAM-Richtlinien aktualisieren, um den Bucket-ARN für den Verschlüsselungskontext verwenden zu können. Weitere Informationen finden Sie unter [S3 Bucket-Schlüssel und Replikation](#bk-replication).

**Anmerkung**  
Sie können Multiregion AWS KMS keys in Amazon S3 verwenden. Amazon S3 behandelt jedoch derzeit Multi-Regions-Schlüssel wie Einzel-Regions-Schlüssel und verwendet nicht die Multi-Regions-Funktionen des Schlüssels. Weitere Informationen finden Sie unter [Verwenden von multiregionalen Schlüsseln)](https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html) im *AWS Key Management Service -Entwicklerhandbuch*.

### Verwenden der S3-Konsole
<a name="replication-ex4-console"></a>

 step-by-stepAnweisungen finden Sie unter[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md). Dieses Thema enthält Anweisungen zum Einrichten einer Replikationskonfiguration, wenn Quell- und Ziel-Buckets denselben und unterschiedlichen AWS-Konten Besitzern gehören.

### Verwenden von AWS CLI
<a name="replication-ex4-cli"></a>

Um verschlüsselte Objekte mit dem zu replizieren AWS CLI, gehen Sie wie folgt vor: 
+ Erstellen Sie Quell- und Ziel-Buckets und aktivieren Sie die Versionsverwaltung für diese Buckets. 
+ Erstellen Sie eine AWS Identity and Access Management (IAM) -Servicerolle, die Amazon S3 die Berechtigung erteilt, Objekte zu replizieren. Zu den Berechtigungen für die IAM-Rolle gehören die, die zum Replizieren der verschlüsselten Objekte notwendig sind.
+ Fügen Sie eine Replikationskonfiguration zum Quell-Bucket hinzu. Die Replikationskonfiguration stellt Informationen zur Replizierung von Objekten bereit, die mit KMS-Schlüsseln verschlüsselt wurden.
+ Fügen Sie verschlüsselte Objekte zum Quell-Bucket hinzu. 
+ Testen Sie die Einrichtung, um sicherzustellen, dass Ihre verschlüsselten Objekte in den Ziel-Bucket repliziert werden.

Die folgenden Verfahren führen Sie durch diesen Prozess. 

**Replizieren Sie serverseitig verschlüsselte Objekte (AWS CLI) wie folgt:**

Die Beispiele in diesem Verfahren können Sie verwenden, indem Sie die `user input placeholders` durch Ihre eigenen Informationen ersetzen.

1. In diesem Beispiel erstellen Sie den Quell-Bucket (*`amzn-s3-demo-source-bucket`*) und den Ziel-Bucket (*`amzn-s3-demo-destination-bucket`*) im selben AWS-Konto. Sie richten auch das Anmeldeinformationsprofil für die AWS CLI ein. Dieses Beispiel verwendet den Profilnamen `acctA`. 

   Informationen zum Einrichten der Anmeldeinformations-Profile und der Verwendung benannter Profile finden Sie unter [Einstellungen der Konfigurations- und Anmeldeinformationsdatei](https://docs.aws.amazon.com/cli/latest/userguide/cli-configure-files.html) im *Benutzerhandbuch zur AWS Command Line Interface *. 

1. Verwenden Sie die folgenden Befehle, um den `amzn-s3-demo-source-bucket`-Bucket zu erstellen und die Versionsverwaltung für diesen zu aktivieren. Mit den folgenden Beispielbefehlen wird der `amzn-s3-demo-source-bucket`-Bucket in der Region USA Ost (Nord-Virginia) (`us-east-1`) erstellt.

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-source-bucket \
   --region us-east-1 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-source-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Verwenden Sie die folgenden Befehle, um den `amzn-s3-demo-destination-bucket`-Bucket zu erstellen und die Versionsverwaltung für diesen zu aktivieren. Mit den folgenden Beispielbefehlen wird der `amzn-s3-demo-destination-bucket`-Bucket in der Region USA West (Oregon) (`us-west-2`) erstellt. 
**Anmerkung**  
Um eine Replikationskonfiguration einzurichten, wenn sich `amzn-s3-demo-source-bucket`- und `amzn-s3-demo-destination-bucket`-Bucket im selben AWS-Konto befinden, verwenden Sie dasselbe Profil. Dieses Beispiel verwendet `acctA`. Um die Replikation zu konfigurieren, wenn die Buckets unterschiedlichen Besitzern gehören AWS-Konten, geben Sie für jeden Bucket unterschiedliche Profile an. 

   

   ```
   aws s3api create-bucket \
   --bucket amzn-s3-demo-destination-bucket \
   --region us-west-2 \
   --create-bucket-configuration LocationConstraint=us-west-2 \
   --profile acctA
   ```

   ```
   aws s3api put-bucket-versioning \
   --bucket amzn-s3-demo-destination-bucket \
   --versioning-configuration Status=Enabled \
   --profile acctA
   ```

1. Als Nächstes erstellen Sie eine IAM-Servicerolle. Sie geben diese Rolle in der Replizierungskonfiguration an, die Sie später zum `amzn-s3-demo-source-bucket`-Bucket hinzufügen. Amazon S3 übernimmt diese Rolle, um Objekte in Ihrem Namen zu replizieren. Sie erstellen eine IAM-Rolle in zwei Schritten:
   + Erstellen Sie eine Servicerolle.
   + Fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu.

   1. Um eine IAM-Servicerolle zu erstellen, gehen Sie wie folgt vor:

      1. Kopieren Sie die folgende Vertrauensrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-trust-policy-kmsobj.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Diese Richtlinie erteilt dem Amazon-S3-Service Prinzipal-Berechtigungen zum Übernehmen der Rolle, damit Amazon S3 Aufgaben in Ihrem Namen durchführen kann.

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Effect":"Allow",
                  "Principal":{
                     "Service":"s3.amazonaws.com"
                  },
                  "Action":"sts:AssumeRole"
               }
            ]
         }
         ```

------

      1. Verwenden Sie den folgenden Befehl, um die Rolle zu erstellen:

         ```
         $ aws iam create-role \
         --role-name replicationRolekmsobj \
         --assume-role-policy-document file://s3-role-trust-policy-kmsobj.json  \
         --profile acctA
         ```

   1. Als Nächstes fügen Sie eine Berechtigungsrichtlinie zur Rolle hinzu. Diese Zugriffsrichtlinie erteilt Berechtigungen für verschiedene Amazon-S3-Bucket- und -Objektaktionen. 

      1. Kopieren Sie die folgende Berechtigungsrichtlinie und speichern Sie sie in einer Datei mit dem Namen `s3-role-permissions-policykmsobj.json` im aktuellen Verzeichnis auf Ihrem lokalen Computer. Sie werden eine IAM-Rolle erstellen und fügen ihr später die Richtlinie an. 
**Wichtig**  
In der Berechtigungsrichtlinie geben Sie den AWS KMS Schlüssel an IDs , der für die Verschlüsselung der `amzn-s3-demo-destination-bucket` Buckets `amzn-s3-demo-source-bucket` und verwendet wird. Sie müssen zwei separate KMS-Schlüssel für die `amzn-s3-demo-destination-bucket` Buckets `amzn-s3-demo-source-bucket` und erstellen. AWS KMS keys werden nicht außerhalb des Bereichs geteilt, AWS-Region in dem sie erstellt wurden. 

------
#### [ JSON ]

****  

         ```
         {
            "Version":"2012-10-17",		 	 	 
            "Statement":[
               {
                  "Action":[
                     "s3:ListBucket",
                     "s3:GetReplicationConfiguration",
                     "s3:GetObjectVersionForReplication",
                     "s3:GetObjectVersionAcl",
                     "s3:GetObjectVersionTagging"
                  ],
                  "Effect":"Allow",
                  "Resource":[
                     "arn:aws:s3:::amzn-s3-demo-source-bucket",
                     "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                  ]
               },
               {
                  "Action":[
                     "s3:ReplicateObject",
                     "s3:ReplicateDelete",
                     "s3:ReplicateTags"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLikeIfExists":{
                        "s3:x-amz-server-side-encryption":[
                           "aws:kms",
                           "AES256",
                           "aws:kms:dsse"
                        ],
                        "s3:x-amz-server-side-encryption-aws-kms-key-id":[
                           "AWS KMS key IDs(in ARN format) to use for encrypting object replicas"  
                        ]
                     }
                  },
                  "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
               },
               {
                  "Action":[
                     "kms:Decrypt"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLike":{
                        "kms:ViaService":"s3.us-east-1.amazonaws.com",
                        "kms:EncryptionContext:aws:s3:arn":[
                           "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
                        ]
                     }
                  },
                  "Resource":[
                     "arn:aws:kms:us-east-1:111122223333:key/key-id" 
                  ]
               },
               {
                  "Action":[
                     "kms:Encrypt"
                  ],
                  "Effect":"Allow",
                  "Condition":{
                     "StringLike":{
                        "kms:ViaService":"s3.us-west-2.amazonaws.com",
                        "kms:EncryptionContext:aws:s3:arn":[
                           "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
                        ]
                     }
                  },
                  "Resource":[
                     "arn:aws:kms:us-west-2:111122223333:key/key-id" 
                  ]
               }
            ]
         }
         ```

------

      1. Erstellen Sie eine Richtlinie und hängen Sie sie an die Rolle an.

         ```
         $ aws iam put-role-policy \
         --role-name replicationRolekmsobj \
         --policy-document file://s3-role-permissions-policykmsobj.json \
         --policy-name replicationRolechangeownerPolicy \
         --profile acctA
         ```

1. Als Nächstes fügen Sie die folgende Replikationskonfiguration zum `amzn-s3-demo-source-bucket`-Bucket hinzu. Sie weist Amazon S3 an, Objekte mit dem Präfix `Tax/` in den `amzn-s3-demo-destination-bucket`-Bucket zu replizieren. 
**Wichtig**  
In der Replikationskonfiguration legen Sie die IAM-Rolle fest, die Amazon S3 annehmen kann. Dies können Sie nur tun, wenn Sie über die `iam:PassRole`-Berechtigung verfügen. Das Profil, das Sie im CLI-Befehl angeben, muss über diese Berechtigung verfügen. Weitere Informationen finden Sie unter [Erteilen von Berechtigungen, mit denen ein Benutzer eine Rolle an einen AWS-Serviceübergeben kann](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_passrole.html) im *IAM-Benutzerhandbuch*.

   ```
    <ReplicationConfiguration>
     <Role>IAM-Role-ARN</Role>
     <Rule>
       <Priority>1</Priority>
       <DeleteMarkerReplication>
          <Status>Disabled</Status>
       </DeleteMarkerReplication>
       <Filter>
          <Prefix>Tax</Prefix>
       </Filter>
       <Status>Enabled</Status>
       <SourceSelectionCriteria>
         <SseKmsEncryptedObjects>
           <Status>Enabled</Status>
         </SseKmsEncryptedObjects>
       </SourceSelectionCriteria>
       <Destination>
         <Bucket>arn:aws:s3:::amzn-s3-demo-destination-bucket</Bucket>
         <EncryptionConfiguration>
           <ReplicaKmsKeyID>AWS KMS key IDs to use for encrypting object replicas</ReplicaKmsKeyID>
         </EncryptionConfiguration>
       </Destination>
     </Rule>
   </ReplicationConfiguration>
   ```

   Um eine Replikationskonfiguration zum `amzn-s3-demo-source-bucket`-Bucket hinzuzufügen, gehen Sie wie folgt vor:

   1.  AWS CLI Dazu müssen Sie die Replikationskonfiguration als JSON angeben. Speichern Sie den folgenden JSON-Code in einer Datei (`replication.json`) im aktuellen Verzeichnis auf Ihrem lokalen Computer. 

      ```
      {
         "Role":"IAM-Role-ARN",
         "Rules":[
            {
               "Status":"Enabled",
               "Priority":1,
               "DeleteMarkerReplication":{
                  "Status":"Disabled"
               },
               "Filter":{
                  "Prefix":"Tax"
               },
               "Destination":{
                  "Bucket":"arn:aws:s3:::amzn-s3-demo-destination-bucket",
                  "EncryptionConfiguration":{
                     "ReplicaKmsKeyID":"AWS KMS key IDs (in ARN format) to use for encrypting object replicas"
                  }
               },
               "SourceSelectionCriteria":{
                  "SseKmsEncryptedObjects":{
                     "Status":"Enabled"
                  }
               }
            }
         ]
      }
      ```

   1. Bearbeiten Sie den JSON-Code, um Werte für den `amzn-s3-demo-destination-bucket`-Bucket, die `AWS KMS key IDs (in ARN format)` und den `IAM-role-ARN` anzugeben. Speichern Sie die Änderungen.

   1. Verwenden Sie den folgenden Befehl, um die Replikationskonfiguration zu Ihrem `amzn-s3-demo-source-bucket`-Bucket hinzuzufügen. Stellen Sie sicher, dass Sie den Namen für den `amzn-s3-demo-source-bucket`-Bucket angeben.

      ```
      $ aws s3api put-bucket-replication \
      --replication-configuration file://replication.json \
      --bucket amzn-s3-demo-source-bucket \
      --profile acctA
      ```

1. Testen Sie die Konfiguration, um zu überprüfen, ob die verschlüsselten Objekte repliziert werden. Führen Sie in der Amazon-S3-Konsole die folgenden Schritte aus:

   1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

   1. Erstellen Sie im `amzn-s3-demo-source-bucket`-Bucket einen Ordner mit dem Namen `Tax`. 

   1. Fügen Sie Beispielobjekte zum Ordner hinzu. Stellen Sie sicher, dass Sie die Verschlüsselungsoption wählen und Ihren KMS-Schlüssel angeben, um die Objekte zu verschlüsseln. 

   1. Vergewissern Sie sich, dass der `amzn-s3-demo-destination-bucket`-Bucket die Objektreplikate enthält und dass sie mithilfe des KMS-Schlüssels verschlüsselt sind, den Sie in der Konfiguration angegeben haben. Weitere Informationen finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md).

### Verwenden Sie den AWS SDKs
<a name="replication-ex4-sdk"></a>

Ein Code-Beispiel, das zeigt, wie eine Replikationskonfiguration hinzugefügt wird, finden Sie unter [Verwenden Sie den AWS SDKs](replication-walkthrough1.md#replication-ex1-sdk). Sie müssen die Replikationskonfiguration entsprechend ändern. 

 

# Replizieren von Metadatenänderungen mit der Synchronisierung von Replikatänderungen
<a name="replication-for-metadata-changes"></a>

Amazon S3 Replica Modification Sync kann Ihnen dabei helfen, Objektmetadaten wie Tags, Zugriffskontrolllisten (ACLs) und Object Lock-Einstellungen zwischen Replikaten und Quellobjekten replizieren zu lassen. Standardmäßig repliziert Amazon S3 Metadaten aus den Quellobjekten nur auf die Replikate. Wenn die Synchronisierung von Replikatänderungen aktiviert ist, repliziert Amazon S3 Metadatenänderungen an den Replikatkopien zurück auf das Quellobjekt, sodass die Replikation bidirektional erfolgt.

## Aktivieren der Synchronisierung von Replikatänderungen
<a name="enabling-replication-for-metadata-changes"></a>

Sie können die Synchronisierung von Amazon-S3-Replikatänderungen mit neuen oder vorhandenen Replikationsregeln verwenden. Sie können sie auf einen gesamten Bucket oder auf Objekte anwenden, die ein bestimmtes Präfix haben.

Informationen zum Aktivieren der Synchronisierung von Replikatänderungen über die Amazon-S3-Konsole finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md). Dieses Thema enthält Anweisungen zur Aktivierung der Synchronisierung von Replikatänderungen in Ihrer Replikationskonfiguration, wenn die Quell- und Ziel-Buckets demselben oder verschiedenen gehören. AWS-Konten

Um die Synchronisierung von Replikatänderungen mithilfe von AWS Command Line Interface (AWS CLI) zu aktivieren, müssen Sie dem Bucket, der die Replikate enthält, eine Replikationskonfiguration hinzufügen, wenn diese Option aktiviert ist. `ReplicaModifications` Um eine bidirektionale Replikation einzurichten, erstellen Sie eine Replikationsregel vom Quell-Bucket (`amzn-s3-demo-source-bucket`) zu dem Bucket, der die Replikate enthält (`amzn-s3-demo-destination-bucket`). Erstellen Sie dann eine zweite Replikationsregel von dem Bucket, der die Replikate enthält (`amzn-s3-demo-destination-bucket`), zum Quell-Bucket (`amzn-s3-demo-source-bucket`). Die Quell- und Ziel-Buckets können sich im selben oder in unterschiedlichen Buckets befinden. AWS-Regionen

**Anmerkung**  
Sie müssen die Replikatänderungssynchronisierung sowohl für den Quell- als auch für den Ziel-Bucket aktivieren, um Änderungen an den Replikatmetadaten wie Objektzugriffskontrolllisten (ACLs), Objekttags oder Objektsperreinstellungen für die replizierten Objekte zu replizieren. Wie alle Replikationsregeln können Sie diese Regeln entweder auf den gesamten Bucket oder auf eine nach Präfix oder Objektmarkierung gefilterte Teilmenge von Objekten anwenden.

In der folgenden Beispielkonfiguration repliziert Amazon S3 Metadatenänderungen unter dem Präfix `Tax` auf den Bucket `amzn-s3-demo-source-bucket`, der die Quellobjekte enthält.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "SourceSelectionCriteria": {
                "ReplicaModifications":{
                    "Status": "Enabled"
                }
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-source-bucket"
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

Vollständige Anweisungen zum Erstellen von Replikationsregeln mithilfe von finden Sie unter. AWS CLI[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md)

# Replizieren von Löschmarkierungen auf Buckets
<a name="delete-marker-replication"></a>

Wenn S3-Replikation aktiviert ist und ein Objekt im Quell-Bucket gelöscht wird, fügt Amazon S3 standardmäßig nur im Quell-Bucket eine Löschmarkierung hinzu. Diese Aktion trägt dazu bei, Daten in den Ziel-Buckets vor versehentlichem oder böswilligem Löschen zu schützen. Wenn Sie die *Replikation von Löschmarkierungen* aktiviert haben, werden diese Markierungen in die Ziel-Buckets kopiert und Amazon S3 verhält sich so, als sei das Objekt sowohl in den Quell- als auch in den Ziel-Buckets gelöscht worden. Weitere Informationen zur Funktionsweise von Löschmarkierungen finden Sie unter [Arbeiten mit Löschmarkierungen](DeleteMarker.md).

**Anmerkung**  
Die Replikation von Löschmarkierungen wird für markierungsbasierte Replikationsregeln nicht unterstützt. Die Replikation von Löschmarkierungen erfüllt auch nicht das SLA (Service Level Agreement) von 15 Minuten, das gewährt wird, wenn Sie die Begrenzung der S3-Replikationszeit (S3 RTC) verwenden.
Wenn Sie nicht die neueste Version der Replikationskonfiguration-XML verwenden, wirken sich Löschvorgänge unterschiedlich auf die Replikation aus. Weitere Informationen finden Sie unter [Auswirkungen von Löschvorgängen auf die Replikation](replication-what-is-isnot-replicated.md#replication-delete-op).
Wenn Sie die Replikation von Löschmarkierungen aktivieren und Ihr Quell-Bucket über eine S3-Lebenszyklusablaufregel verfügt, werden die durch die S3-Lebenszyklusablaufregel hinzugefügten Löschmarkierungen nicht auf den Ziel-Bucket repliziert.

## Aktivieren der Replikation von Löschmarkierungen
<a name="enabling-delete-marker-replication"></a>

Sie können die Replikation von Löschmarkierungen mit einer neuen oder einer vorhandenen Replikationsregel verwenden. Sie können die Replikation von Löschmarkierungen auf einen gesamten Bucket oder auf Objekte anwenden, die ein bestimmtes Präfix haben.

Informationen zum Aktivieren der Replikation von Löschmarkierungen mit der Amazon-S3-Konsole finden Sie unter [Verwenden der S3-Konsole](replication-walkthrough1.md#enable-replication). Dieses Thema enthält Anweisungen zur Aktivierung der Replikation mit Löschmarkern in Ihrer Replikationskonfiguration, wenn Quell- und Ziel-Buckets demselben oder unterschiedlichen AWS-Konten Eigentümer sind.

Um die Replikation mit Löschmarkern mithilfe von AWS Command Line Interface (AWS CLI) zu aktivieren, müssen Sie dem Quell-Bucket eine Replikationskonfiguration mit `DeleteMarkerReplication` aktivierter Option hinzufügen, wie in der folgenden Beispielkonfiguration gezeigt. 

In der folgenden Beispielkonfiguration werden Löschmarkierungen für Objekte unter dem Präfix `Tax` auf den Ziel-Bucket `amzn-s3-demo-destination-bucket` repliziert.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "DeleteMarkerReplication": {
                "Status": "Enabled"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-destination-bucket"
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

Vollständige Anweisungen zum Erstellen von Replikationsregeln mit dem AWS CLI finden Sie unter[Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md).

# Verwalten oder Pausieren einer Live-Replikation
<a name="disable-replication"></a>

Bei der Live-Replikation handelt es sich um das automatische, asynchrone Kopieren von Objekten über Buckets hinweg, die sich im selben oder in unterschiedlichen Buckets befinden. AWS-Regionen Nachdem Sie Ihre Replikationskonfiguration eingerichtet haben, repliziert Amazon S3 neu erstellte Objekte und Objektaktualisierungen aus einem Quell-Bucket auf einen oder mehrere angegebene Ziel-Buckets. 

Sie verwenden die Amazon-S3-Konsole, um dem Quell-Bucket Replikationsregeln hinzuzufügen. Replikationsregeln definieren, welche Quell-Bucket-Objekte repliziert werden sollen, und den Ziel-Bucket/die Ziel-Buckets, in dem/denen die replizierten Objekte gespeichert werden sollen. Weitere Informationen zur Replikation finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md).

Sie können Replikationsregeln auf der Seite **Replication (Replikation)** in der Amazon-S3-Konsole verwalten. Sie können Replikationsregeln hinzufügen, anzeigen, bearbeiten, aktivieren, deaktivieren oder löschen. Sie können auch die Priorität Ihrer Replikationsregeln ändern. Weitere Informationen zum Hinzufügen von Replikationsregeln zu einem Bucket finden Sie unter [Verwenden der S3-Konsole](replication-walkthrough1.md#enable-replication).

**So verwalten Sie Replikationsregeln für einen Bucket mit der Amazon-S3-Konsole**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus. 

1. Wählen Sie auf der Registerkarte **General purpose buckets** (Allzweck-Buckets) den Namen des gewünschten Buckets aus.

1. Wählen Sie die Registerkarte **Management** (Verwaltung) aus und scrollen Sie dann nach unten zu **Replication rules** (Replikationsregeln).

1. Sie können Ihre Replikationsregeln auf folgende Weisen ändern:
   + Wählen Sie zum Aktivieren oder Deaktivieren einer Replikationsregel das Optionsfeld links neben der Regel aus. Wählen Sie im Menü **Actions** (Aktionen) die Option **Enable rule** (Regel aktivieren) oder **Disable rule** (Regel deaktivieren) aus. Sie können im Menü **Actions** (Aktionen) auch alle Regeln in dem Bucket deaktivieren, aktivieren oder löschen.
**Anmerkung**  
Wenn Sie eine Replizierungsregel deaktivieren und die Regel später wieder aktivieren, werden alle neuen oder geänderten Objekte, die während der Deaktivierung der Regel nicht repliziert wurden, *nicht* automatisch repliziert, wenn die Regel erneut aktiviert wird. Um diese Objekte zu replizieren, müssen Sie die S3-Batch-Replikation verwenden. Weitere Informationen finden Sie unter [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md).
   + Um die Priorität einer Regel zu ändern, wählen Sie das Optionsfeld links neben der Regel und dann **Edit rule** (Regel bearbeiten) aus.

     Regelprioritäten werden festgelegt, um Konflikte zu vermeiden, die durch Objekte verursacht werden, die mehreren Regeln unterliegen. Wenn sich Regeln überschneiden, verwendet Amazon S3 die Regelpriorität, um die Regel zu ermitteln, die angewendet werden muss. Je höher die Zahl, desto höher die Priorität. Weitere Informationen zur Priorität von Regeln finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md).

## Pausieren oder Anhalten einer Replikation
<a name="replication-pause"></a>

Um eine Replikation vorübergehend anzuhalten und sie später automatisch fortzusetzen, können Sie die Aktion `aws:s3:bucket-pause-replication` in AWS Fault Injection Service verwenden. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/fis/latest/userguide/fis-actions-reference.html#bucket-pause-replication](https://docs.aws.amazon.com/fis/latest/userguide/fis-actions-reference.html#bucket-pause-replication) und [S3 Replication pausieren](https://docs.aws.amazon.com/fis/latest/userguide/cross-region-scenario.html#cross-region-scenario-actions-pause-s3-replication) im *Benutzerhandbuch zu AWS Fault Injection Service *.

Um die Replikation in Amazon S3 zu beenden, empfehlen wir, Ihre Replikationsregeln zu deaktivieren. Wenn Sie eine Replizierungsregel deaktivieren und die Regel später wieder aktivieren, werden alle neuen oder geänderten Objekte, die während der Deaktivierung der Regel nicht repliziert wurden, *nicht* automatisch repliziert, wenn die Regel erneut aktiviert wird. Um diese Objekte zu replizieren, müssen Sie die S3-Batch-Replikation verwenden. Weitere Informationen finden Sie unter [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md).

Die Replikation wird auch beendet, wenn Sie die AWS Identity and Access Management (IAM) -Rolle, die AWS Key Management Service (AWS KMS) -Berechtigungen oder die Bucket-Richtlinienberechtigungen entfernen, die Amazon S3 die erforderlichen Berechtigungen gewähren. Wir empfehlen diese Methoden jedoch nicht, da sie dazu führen, dass die Replikation fehlschlägt. Amazon S3 meldet den Replikationsstatus für betroffene Objekte als `FAILED`. Wenn Berechtigungen später wiederhergestellt werden, werden Objekte, die als `FAILED` markiert sind, *nicht* automatisch repliziert. Um diese Objekte zu replizieren, müssen Sie die S3-Batch-Replikation verwenden.

# Replizieren vorhandener Objekte mit der Batch-Replikation
<a name="s3-batch-replication-batch"></a>

Die S3-Batchreplikation unterscheidet sich von der Live-Replikation, die kontinuierlich und automatisch neue Objekte über Amazon-S3-Buckets hinweg repliziert. Stattdessen erfolgt die S3-Batch-Replikation für bestehende Objekte nur bei Bedarf. Sie können die S3-Batch-Replikation verwenden, um die folgenden Objekttypen zu replizieren: 
+ Objekte, die vor dem Einrichten einer Replikationskonfiguration existierten
+ Objekte, die bereits repliziert wurden
+ Objekte, deren Replikation fehlgeschlagen ist

Sie können diese Objekte bei Bedarf mithilfe eines Batch-Vorgangsauftrags replizieren.

Um mit der Batch-Replikation zu beginnen, können Sie wie folgt vorgehen:
+ **Eine Batch-Replikation für eine neue Replikationsregel oder ein neues Ziel initiieren** – Sie können einen einmaligen Batch-Replikationsauftrag erstellen, wenn Sie die erste Regel in einer neuen Replikationskonfiguration erstellen oder wenn Sie über die Amazon-S3-Konsole einen neuen Ziel-Bucket zu einer vorhandenen Konfiguration hinzufügen. 
+ **Batch-Replikation für eine bestehende Replikationskonfiguration initiieren** — Sie können einen neuen Batch-Replikationsauftrag erstellen, indem Sie S3 Batch Operations über die Amazon S3 S3-Konsole, die AWS Command Line Interface (AWS CLI) AWS SDKs, die oder die Amazon S3 S3-REST-API verwenden.

Wenn der Batch-Replikationsauftrag abgeschlossen ist, erhalten Sie einen Abschlussbericht. Weitere Informationen dazu, wie Sie diesen Bericht verwenden, um den Auftrag zu untersuchen, finden Sie unter [Verfolgen von Auftragsstatus- und Abschluss](batch-ops-job-status.md).

## Überlegungen zur S3-Batch-Replikation
<a name="batch-replication-considerations"></a>

Bevor Sie die S3-Batch-Replikation verwenden, sollten Sie sich die folgende Liste von Überlegungen ansehen: 
+ Ihr Quell-Bucket muss über eine vorhandene Replikationskonfiguration verfügen. Informationen zum Aktivieren der Replikation finden Sie unter [Einrichten einer Live-Replikation – Überblick](replication-how-setup.md) und [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).
+ Wenn Sie S3 Lifecycle für Ihren Bucket konfiguriert haben, empfehlen wir, Ihre Lebenszyklusregeln zu deaktivieren, während der Batch-Replikationsauftrag aktiv ist. Dadurch wird die Parität zwischen Quell- und Ziel-Bucket sichergestellt. Andernfalls könnten diese Buckets voneinander abweichen und der Ziel-Bucket wäre kein exaktes Replikat des Quell-Buckets. Betrachten wir folgendes Beispielszenario:
  + Ihr Quell-Bucket hat mehrere Versionen eines Objekts und eine Löschmarkierung auf diesem Objekt.
  + Ihre Quell- und Ziel-Buckets verfügen über eine Lebenszyklus-Konfiguration zum Entfernen abgelaufener Löschmarkierungen.

  In diesem Szenario repliziert die Batch-Replikation möglicherweise die Löschmarkierung auf den Ziel-Bucket, bevor die Objektversionen repliziert werden. Dieses Verhalten kann dazu führen, dass Ihre Lebenszykluskonfiguration die Löschmarkierung als abgelaufen markiert und die Löschmarkierung aus dem Ziel-Bucket entfernt wird, bevor die Objektversionen repliziert werden.
+ Die AWS Identity and Access Management (IAM-) Rolle, die Sie für die Ausführung des Batch Operations-Jobs angeben, muss über die erforderlichen Berechtigungen verfügen, um den zugrunde liegenden Batch-Replikationsvorgang auszuführen. Weitere Informationen zum Erstellen einer IAM-Rolle finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).
+ Die Batch-Replikation erfordert ein Manifest, das von Amazon S3 generiert werden kann. Das generierte Manifest muss im selben Ordner AWS-Region wie der Quell-Bucket gespeichert werden. Wenn Sie das Manifest nicht generieren möchten, können Sie einen Bericht von Amazon S3 Inventory oder eine CSV-Datei bereitstellen, die die Objekte enthält, die Sie replizieren möchten. Weitere Informationen finden Sie unter [Angeben eines Manifests für einen Batch-Replikationsauftrag](#batch-replication-manifest). 
+ Die Batch-Replikation unterstützt nicht das erneute Replizieren von Objekten, die durch Festlegen der Versions-ID des Objekts aus dem Ziel-Bucket gelöscht wurden. Wenn Sie diese Objekte erneut replizieren möchten, können Sie die Quellobjekte mit einem Batch–Kopierauftrag kopieren. Beim Kopieren dieser Objekte werden neue Versionen der Objekte im Quell-Bucket erstellt und die Replikation zum Ziel-Bucket wird automatisch initiiert. Durch das Löschen und Neuerstellen des Ziel-Buckets wird keine Replikation initiiert.

  Weitere Informationen zur Batch-Kopie finden Sie unter [Beispiele, die Batch-Vorgänge zum Kopieren von Objekten verwenden](batch-ops-examples-copy.md).
+ Wenn Sie eine Replikationsregel für den Quell-Bucket verwenden, stellen Sie sicher, dass Sie [Ihre Replikationskonfiguration aktualisieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-walkthrough-2.html), indem Sie der IAM-Rolle, die der Replikationsregel zugeordnet ist, die entsprechenden Berechtigungen zum Replizieren von Objekten erteilen. Diese IAM-Rolle muss über die notwendigen Berechtigungen zum Ausführen der Replikation sowohl für den Quell- als auch für den Ziel-Bucket verfügen.
+ Wenn Sie innerhalb eines kurzen Zeitraums mehrere Batch-Replikationsaufträge für denselben Bucket einreichen, führt Amazon S3 diese Aufträge gleichzeitig aus.
+ Wenn Sie mehrere Batch-Replikationsaufträge für zwei verschiedene Buckets einreichen, kann es sein, dass Amazon S3 nicht alle Aufträge gleichzeitig ausführt. Wenn Sie die Anzahl der Batch-Replikationsaufträge, die in Ihrem Konto gleichzeitig ausgeführt werden können, überschreiten, unterbricht Amazon S3 die Aufträge mit niedrigerer Priorität, um die Aufträge mit höherer Priorität zu bearbeiten. Nach Abschluss der Aufträge mit höherer Priorität werden alle angehaltenen Aufträge wieder aktiv.
+ Die Batch-Replikation wird nicht für Objekte unterstützt, die in den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive gespeichert wurden.
+ Zur Massenreplizierung von S3 Intelligent-Tiering-Objekten, die in der Speicherebene „Archive Access“ oder „Deep Archive Access“ gespeichert sind, müssen Sie eine Anforderung zur [Wiederherstellung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/intelligent-tiering-managing.html#restore-data-from-int-tier-archive) initiieren und warten, bis die Objekte in die Ebene „Frequent Access“ verschoben wurden. 
+ Ein einziger Batch-Replikationsauftrag kann ein Manifest mit bis zu 20 Milliarden Objekten unterstützen.
+ Wenn Sie S3 Batch Replication verwenden, um Datensätze regionsübergreifend zu replizieren und der serverseitige Verschlüsselungstyp Ihrer Objekte zuvor von SSE-S3 auf SSE-KMS aktualisiert wurde, benötigen Sie möglicherweise zusätzliche Berechtigungen. Für den Bucket der Quellregion benötigen Sie Berechtigungen. `kms:decrypt` Anschließend benötigen Sie die `kms:encrypt` Berechtigungen `kms:decrypt` und für den Bucket in der Zielregion. Weitere Informationen finden Sie unter [Replizieren verschlüsselter Objekte](replication-config-for-kms-objects.md).

## Angeben eines Manifests für einen Batch-Replikationsauftrag
<a name="batch-replication-manifest"></a>

Ein Manifest ist ein Amazon-S3-Objekt, das Objektschlüssel enthält, die Amazon S3 bearbeiten soll. Wenn Sie einen Batch-Replikationsauftrag erstellen möchten, müssen Sie entweder ein benutzergeneriertes Manifest angeben oder Amazon S3 ein Manifest basierend auf Ihrer Replikationskonfiguration generieren lassen.

Wenn Sie ein benutzergeneriertes Manifest angeben, muss es in Form eines Amazon-S3-Bestandsberichts oder einer CSV-Datei vorliegen. Wenn sich die Objekte in Ihrem Manifest in einem versionierten Bucket befinden, müssen Sie die Version IDs für die Objekte angeben. Es wird nur das Objekt mit der im Manifest angegebenen Versions-ID repliziert. Weitere Informationen zum Angeben eines Manifests finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).

Wenn Amazon S3 eine Manifestdatei in Ihrem Namen generieren soll, verwenden die aufgeführten Objekte denselben Quell-Bucket, das gleiche Präfix und die gleichen Markierungen wie Ihre Replikationskonfigurationen des Quell-Buckets. Mit einem generierten Manifest repliziert Amazon S3 alle berechtigten Versionen Ihrer Objekte.

**Anmerkung**  
Wenn Sie Amazon S3 das Manifest generieren lassen möchten, muss das Manifest im selben Bucket gespeichert werden AWS-Region wie der Quell-Bucket.

## Filter für einen Batch-Replikationsauftrag
<a name="batch-replication-filters"></a>

Wenn Sie Ihren Batch-Replikationsauftrag erstellen, können Sie optional zusätzliche Filter angeben, z. B. das Erstellungsdatum des Objekts und den Replikationsstatus, um den Umfang des Auftrags zu reduzieren.

Sie können Objekte filtern, die repliziert werden sollen, basierend auf dem `ObjectReplicationStatuses`-Wert, indem Sie einen oder mehrere der folgenden Werte angeben:
+ `"NONE"` – Zeigt an, dass Amazon S3 noch nie versucht hat, das Objekt zu replizieren.
+ `"FAILED"` – Zeigt an, dass Amazon S3 versucht hat, das Objekt zu replizieren, es jedoch zuvor nicht replizieren konnte.
+ `"COMPLETED"` – Zeigt an, dass Amazon S3 das Objekt zuvor erfolgreich repliziert hat.
+ `"REPLICA"` – Zeigt an, dass dieses Objekt ein Replikat ist, das Amazon S3 aus einem anderen Quell-Bucket repliziert hat.

Weitere Informationen zum Replikationsstatus finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md).

Wenn Sie Ihren Batch-Replikationsauftrag nicht filtern, versuchen Batch-Vorgänge, alle Objekte (unabhängig von ihrem `ObjectReplicationStatus`) in Ihrem Manifest zu replizieren, die den Regeln in Ihrer Replikationskonfiguration entsprechen, mit Ausnahme bestimmter Objekte, die standardmäßig nicht repliziert werden. Weitere Informationen finden Sie unter [Was wird mit Replikationskonfigurationen nicht repliziert?](replication-what-is-isnot-replicated.md#replication-what-is-not-replicated).

Abhängig von Ihrem Ziel können Sie `ObjectReplicationStatuses` auf einen oder mehrere der folgenden Werte setzen:
+ Wenn Sie nur vorhandene Objekte replizieren möchten, die nie repliziert wurden, behalten Sie nur `"NONE"` bei.
+ Wenn Sie versuchen möchten, nur Objekte zu replizieren, die zuvor nicht repliziert werden konnten, behalten Sie nur `"FAILED"` bei.
+ Wenn Sie sowohl vorhandene Objekte replizieren als auch versuchen möchten, Objekte zu replizieren, die zuvor nicht repliziert werden konnten, behalten Sie `"NONE"` und `"FAILED"` bei.
+ Wenn Sie einen Ziel-Bucket mit Objekten füllen möchten, die an ein anderes Ziel repliziert wurden, behalten Sie `"COMPLETED"` bei.
+ Wenn Sie zuvor replizierte Objekte replizieren möchten, behalten Sie `"REPLICA"` bei.

## Abschlussbericht zur Batchreplikation
<a name="batch-replication-completion-report"></a>

Wenn Sie einen Batchreplikationsauftrag erstellen, können Sie einen CSV-Abschlussbericht anfordern. In diesem Bericht werden die Objekte, Erfolgs- oder Fehlercodes, Ausgaben und Beschreibungen der Replikation angezeigt. Weitere Informationen zum Nachverfolgen von Aufträgen und zu Abschlussberichten finden Sie unter [Abschlussberichte](batch-ops-job-status.md#batch-ops-completion-report). 

Eine Liste der Fehlercodes und Beschreibungen der Replikation finden Sie unter [Gründe für das Fehlschlagen der Replikation in Amazon S3](replication-metrics-events.md#replication-failure-codes).

Informationen über die Fehlerbehebung bei Batch-Replikationen finden Sie unter [Fehler bei der Batchreplikation](replication-troubleshoot.md#troubleshoot-batch-replication-errors).

## Erste Schritte mit der Batch-Replikation
<a name="batch-replication-tutorial"></a>

Weitere Informationen zur Verwendung der Batch-Replikation finden Sie unter [Tutorial: Replizieren vorhandener Objekte in Ihren-Amazon S3-Buckets mit S3 Batch Replication](https://aws.amazon.com/getting-started/hands-on/replicate-existing-objects-with-amazon-s3-batch-replication/).

# Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation
<a name="s3-batch-replication-policies"></a>

Da die Batch-Replikation von Amazon S3 eine Art Batchvorgangs-Auftrag ist, müssen Sie eine AWS Identity and Access Management (IAM)-Rolle erstellen, um Batchvorgängen Berechtigungen zum Ausführen von Aktionen in Ihrem Namen zu erteilen. Sie müssen auch eine IAM-Richtlinie für die Batch-Replikation an die IAM-Rolle von Batchvorgängen anhängen. 

Verwenden Sie die folgenden Verfahren, um eine Richtlinie und eine IAM-Rolle zu erstellen, die Batchvorgängen die Berechtigung zum Initiieren eines Batch-Replikationsauftrags erteilt.

**So erstellen Sie eine Richtlinie für die Batch-Replikation**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die IAM-Konsole unter. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)

1. Wählen Sie unter **Access management** (Zugriffsverwaltung) **Policies** (Richtlinien) aus.

1. Wählen Sie **Richtlinie erstellen** aus.

1. Wählen Sie auf der Seite **Berechtigungen angeben** die Option **JSON** aus.

1. Fügen Sie eine der folgenden Richtlinien ein, je nachdem, ob Ihr Manifest von Amazon S3 generiert wurde oder ob Sie Ihr eigenes Manifest angeben. Weitere Informationen zu Manifesten finden Sie unter [Angeben eines Manifests für einen Batch-Replikationsauftrag](s3-batch-replication-batch.md#batch-replication-manifest). 

   Bevor Sie diese Richtlinien verwenden, ersetzen Sie die `user input placeholders` in den folgenden Richtlinien durch die Namen des Quell-Buckets, des Manifest-Buckets und des Abschlussbericht-Buckets Ihrer Replikation. 
**Anmerkung**  
Ihre IAM-Rolle für die Batch-Replikation benötigt unterschiedliche Berechtigungen, je nachdem, ob Sie ein Manifest generieren oder eines bereitstellen. Stellen Sie daher sicher, dass Sie die entsprechende Richtlinie aus den folgenden Beispielen auswählen.

**Richtlinie bei Verwendung und Speicherung eines von Amazon S3 generierten Manifests**

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
         {
            "Action": [
               "s3:InitiateReplication"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
            ]
         },
         {
            "Action": [
               "s3:GetReplicationConfiguration",
               "s3:PutInventoryConfiguration"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket"
            ]
         },
         {
            "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
            ]
         },
         {
            "Effect": "Allow",
            "Action": [
               "s3:PutObject"
            ],
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-completion-report-bucket/*",
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"    
            ]
         }
      ]
   }
   ```

------

**Richtlinie bei Verwendung eines vom Benutzer bereitgestellten Manifests**

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
         {
            "Action": [
               "s3:InitiateReplication"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-source-bucket/*"
            ]
         },
         {
            "Action": [
               "s3:GetObject",
               "s3:GetObjectVersion"
            ],
            "Effect": "Allow",
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-manifest-bucket/*"
            ]
         },
         {
            "Effect": "Allow",
            "Action": [
               "s3:PutObject"
            ],
            "Resource": [
               "arn:aws:s3:::amzn-s3-demo-completion-report-bucket/*"    
            ]
         }
      ]
   }
   ```

------

1. Wählen Sie **Weiter** aus.

1. Legen Sie einen Namen für die Richtlinie fest und wählen Sie dann **Create policy (Richtlinie erstellen)** aus.

**So erstellen Sie eine IAM-Rolle für die Batch-Replikation**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die IAM-Konsole unter. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)

1. Wählen Sie unter **Access management** (Zugriffsverwaltung) **Roles** (Rollen) aus.

1. Wählen Sie **Rolle erstellen** aus.

1. Wählen Sie als Typ der vertrauenswürdigen Entität **AWS-Service** aus. Wählen Sie im Abschnitt **Anwendungsfall** **S3** als Service und **S3 Batch Operations** als Anwendungsfall aus.

1. Wählen Sie **Weiter** aus. Die Seite **Add permissions** (Berechtigung hinzufügen) wird angezeigt. Suchen Sie im Suchfeld nach der Richtlinie, die Sie im vorherigen Verfahren erstellt haben. Aktivieren Sie das Kontrollkästchen neben dem Richtliniennamen und wählen Sie anschließend **Weiter** aus. 

1. Geben Sie auf der Seite zum **Benennen, Überprüfen und Erstellen** einen Namen für Ihre IAM-Rolle an.

1. Stellen Sie im Abschnitt **Schritt 1: Identitäten vertrauen** sicher, dass Ihre IAM-Rolle die folgende Vertrauensrichtlinie verwendet:

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement":[
         {
            "Effect":"Allow",
            "Principal":{
               "Service":"batchoperations.s3.amazonaws.com"
            },
            "Action":"sts:AssumeRole"
         }
      ]
   }
   ```

------

1. Stellen Sie im Abschnitt **Schritt 2: Berechtigungen hinzufügen** sicher, dass Ihre IAM-Rolle die Richtlinie verwendet, die Sie zuvor erstellt haben. 

1. Wählen Sie **Rolle erstellen** aus. 

# Einen Batch-Replikationsauftrag für neue Replikationsregeln oder Ziele erstellen
<a name="s3-batch-replication-new-config"></a>

In Amazon S3 repliziert die Live-Replikation keine Objekte, die bereits in Ihrem Quell-Bucket vorhanden waren, bevor Sie eine Replikationskonfiguration erstellt haben. Die Live-Replikation repliziert automatisch nur neue und aktualisierte Objekte, die nach der Erstellung der Replikationskonfiguration in den Bucket geschrieben wurden. Wenn Sie bereits vorhandene Objekte replizieren möchten, können Sie die S3-Batch-Replikation verwenden, um diese Objekte bei Bedarf zu replizieren. 

Wenn Sie in einer neuen Live-Replikationskonfiguration die erste Regel erstellen oder einer vorhandenen Replikationskonfiguration über die Amazon-S3-Konsole einen neuen Ziel-Bucket hinzufügen, können Sie optional einen Batch-Replikationsauftrag erstellen. Sie können diesen Batch-Replikationsauftrag verwenden, um vorhandene Objekte im Quell-Bucket auf den Ziel-Bucket zu replizieren. 

Informationen zum Verwenden der Batch-Replikation für eine vorhandene Konfiguration ohne Hinzufügen eines neuen Ziel-Buckets finden Sie unter [Erstellen eines Batch-Replikationsauftrags für vorhandene Replikationsregeln](s3-batch-replication-existing-config.md).

**Voraussetzungen**  
Bevor Sie Ihren Batchvorgangs-Auftrag erstellen, müssen Sie eine AWS Identity and Access Management (IAM)-Rolle für Batchvorgänge erstellen, um Amazon S3 Berechtigungen zum Ausführen von Aktionen in Ihrem Namen zu erteilen. Weitere Informationen finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).

## Verwenden der Batch-Replikation für eine neue Replikationsregel oder ein neues Ziel über die Amazon-S3-Konsole
<a name="batch-replication-new-config-console"></a>

Wenn Sie in einer neuen Replikationskonfiguration die erste Regel erstellen oder einer vorhandenen Konfiguration über die Amazon-S3-Konsole einen neuen Ziel-Bucket hinzufügen, können Sie einen Batch-Replikationsauftrag erstellen, um vorhandene Objekte auf den Quell-Bucket zu replizieren.

**So erstellen Sie einen Batch-Replikationsauftrag, wenn Sie eine Replikationskonfiguration erstellen oder aktualisieren**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus. 

1. Wählen Sie in der Liste von **Allzweck-Buckets** den Namen des Buckets aus, der die Objekte enthält, die Sie replizieren möchten.

1. Wählen Sie zum Erstellen einer neuen Replikationsregel oder zum Bearbeiten einer vorhandenen Regel die Registerkarte **Management** (Verwaltung) und scrollen Sie nach unten zu **Replication rules** (Replikationsregeln):
   + Wählen Sie zum Erstellen einer neuen Replikationsregel **Create replication rule** (Erstellen einer Replikationsregel). Beispiele zum Einrichten einer grundlegenden Replikationsregel finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).
   + Wählen Sie zum Bearbeiten einer vorhandenen Replikationsregel das Optionsfeld neben der Regel und dann **Edit rule** (Regel bearbeiten) aus.

1. Erstellen Sie Ihre neue Replikationsregel oder bearbeiten Sie das Ziel für Ihre vorhandene Replikationsregel und wählen Sie **Save** (Speichern).

   Nachdem Sie die erste Regel in einer neuen Replikationskonfiguration erstellt oder eine vorhandene Konfiguration bearbeitet haben, um ein neues Ziel hinzuzufügen, wird der Dialog **Replicate existing objects?** (Vorhandene Objekte replizieren?) angezeigt, über den Sie einen Batch-Replikationsauftrag erstellen können.

1. Wenn Sie diesen Auftrag jetzt erstellen und ausführen möchten, wählen Sie **Yes, replicate existing objects** (Ja, vorhandene Objekte replizieren) aus.

   Wählen Sie **No, do not replicate existing objects** (Nein, vorhandene Objekte nicht replizieren), wenn Sie den Batch-Replikationsauftrag zu einem späteren Zeitpunkt ausführen möchten.

1. Wenn Sie **Ja, vorhandene Objekte replizieren** wählen, wird die Seite **Create Batch Operations Job** (Batchvorgangs-Auftrag erstellen) angezeigt. Der S3-Batch-Replikationsauftrag hat die folgenden Einstellungen:   
**Optionen zur Auftragsausführung**  
Wenn der S3-Batch-Replikationsauftrag sofort ausgeführt werden soll, können Sie **Automatically run the job when it's ready** (Auftrag automatisch ausführen, wenn er bereit ist) wählen. Wenn Sie den Auftrag zu einem späteren Zeitpunkt ausführen möchten, wählen Sie **Wait to run the job when it's ready** (Mit der Ausführung des Auftrags warten, bis er bereit ist).  
Wenn Sie **Automatically run the job when it's ready** (Auftrag automatisch ausführen, wenn er bereit ist) wählen, können Sie kein Batchvorgangs-Manifest erstellen und speichern. Um das Batchvorgangs-Manifest zu speichern, wählen Sie **Wait to run the job when it's ready** (Mit der Ausführung des Auftrags warten, bis er bereit ist) aus.  
**Batchvorgangs-Manifest**  
Wenn Sie **Wait to run the job when it's ready** (Mit der Ausführung des Auftrags warten, bis er bereit ist) ausgewählt haben, wird der Abschnitt **Batch Operations manifest** angezeigt. Das Manifest ist eine Liste aller Objekte, für die die festgelegte Aktion ausgeführt werden soll. Sie können das Manifest speichern. Ähnlich wie bei S3-Inventory-Dateien wird das Manifest als CSV-Datei in einem Bucket gespeichert. Weitere Informationen über die Batchvorgangs-Manifeste finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).  
**Abschlussbericht**  
S3-Batchvorgänge führen eine Aufgabe für jedes Objekt aus, das im Manifest angegeben ist. Abschlussberichte bieten eine einfache Möglichkeit, die Ergebnisse von Aufgaben in einem konsolidierten Format ohne zusätzliche Einrichtung anzuzeigen. Sie können einen Abschlussbericht für alle oder nur für die fehlgeschlagenen Aufgaben anfordern. Weitere Informationen zu Abschlussberichten finden Sie unter [Abschlussberichte](batch-ops-job-status.md#batch-ops-completion-report).  
**Berechtigungen**  
Eine der häufigsten Ursachen für Replikationsfehler sind unzureichende Berechtigungen in der bereitgestellten Rolle AWS Identity and Access Management (IAM). Weitere Informationen zum Erstellen dieser Rolle finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md). Stellen Sie sicher, dass Sie eine IAM-Rolle erstellen oder auswählen, die über die erforderlichen Berechtigungen für die Batch-Replikation verfügt. 

1. Wählen Sie **Speichern** aus.

# Erstellen eines Batch-Replikationsauftrags für vorhandene Replikationsregeln
<a name="s3-batch-replication-existing-config"></a>

In Amazon S3 repliziert die Live-Replikation keine Objekte, die bereits in Ihrem Quell-Bucket vorhanden waren, bevor Sie eine Replikationskonfiguration erstellt haben. Die Live-Replikation repliziert automatisch nur neue und aktualisierte Objekte, die nach der Erstellung der Replikationskonfiguration in den Bucket geschrieben wurden. Wenn Sie bereits vorhandene Objekte replizieren möchten, können Sie die S3-Batch-Replikation verwenden, um diese Objekte bei Bedarf zu replizieren. 

Sie können S3 Batch Replication für eine bestehende Replikationskonfiguration konfigurieren, indem Sie die AWS SDKs, AWS Command Line Interface (AWS CLI) oder die Amazon S3 S3-Konsole verwenden. Eine Übersicht über die Batch-Replikation finden Sie unter [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md).

Wenn der Batch-Replikationsauftrag abgeschlossen ist, erhalten Sie einen Abschlussbericht. Weitere Informationen dazu, wie Sie den Bericht verwenden können, um den Auftrag zu untersuchen, finden Sie unter [Verfolgen von Auftragsstatus- und Abschluss](batch-ops-job-status.md).

**Voraussetzungen**  
Bevor Sie Ihren Batchvorgangs-Auftrag erstellen, müssen Sie eine AWS Identity and Access Management (IAM)-Rolle für Batchvorgänge erstellen, um Amazon S3 Berechtigungen zum Ausführen von Aktionen in Ihrem Namen zu erteilen. Weitere Informationen finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).

## Verwenden der S3-Konsole
<a name="batch-replication-existing-config-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie im linken Navigationsbereich auf **Batchvorgänge**.

1. Wählen Sie **Job erstellen** aus.

1. Stellen Sie sicher, dass im Abschnitt **AWS-Region** die Region angezeigt wird, in der Sie Ihren Auftrag erstellen möchten. 

1. Geben Sie im Abschnitt **Manifest** das Manifestformat an, das Sie verwenden möchten. Das Manifest ist eine Liste aller Objekte, für die die festgelegte Aktion ausgeführt werden soll. Weitere Informationen über die Batchvorgangs-Manifeste finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).
   + Wenn Sie ein Manifest vorbereitet haben, wählen Sie **S3 inventory report (manifest.json)** (S3 Bestandsbericht) oder **CSV** aus. Wenn sich Ihr Manifest in einem versionierten Bucket befindet, können Sie die Versions-ID für das Manifest angeben. Wenn Sie keine Versions-ID angeben, verwenden Batch-Operationen die aktuelle Version Ihres Manifests. Weitere Informationen zum Erstellen eines Manifests finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).
**Anmerkung**  
Wenn sich die Objekte in Ihrem Manifest in einem versionierten Bucket befinden, müssen Sie die Version IDs für die Objekte angeben. Weitere Informationen finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest).
   + Um ein Manifest basierend auf Ihrer Replikationskonfiguration zu erstellen, wählen Sie **Create manifest using S3 Replication configuration** (Manifest mit der S3-Replikationskonfiguration erstellen). Wählen Sie dann den Quell-Bucket Ihrer Replikationskonfiguration aus.

1. (Optional) Wenn Sie **Create manifest using S3 Replication configuration** (Manifest mit der S3-Replikationskonfiguration erstellen) ausgewählt haben, können Sie zusätzliche Filter hinzufügen, z. B. das Erstellungsdatum des Objekts und den Replikationsstatus. Beispiele zum Filtern nach Replikationsstatus finden Sie unter [Angeben eines Manifests für einen Batch-Replikationsauftrag](s3-batch-replication-batch.md#batch-replication-manifest). 

1. (Optional) Wenn Sie **Create manifest using S3 Replication configuration** (Manifest mit der S3-Replikationskonfiguration erstellen) ausgewählt haben, können Sie das generierte Manifest speichern. Um dieses Manifest zu speichern, wählen Sie **Save Batch Operations manifest** (Manifest für Batchvorgänge speichern). Geben Sie dann den Ziel-Bucket für das Manifest an und wählen Sie aus, ob das Manifest verschlüsselt werden soll. 
**Anmerkung**  
Das generierte Manifest muss im selben Verzeichnis AWS-Region wie der Quell-Bucket gespeichert werden.

1. Wählen Sie **Weiter** aus.

1. Wählen Sie auf der Seite **Operations** (Vorgänge) die Option **Replicate** (Replizieren) und anschließend **Next** (Weiter). 

1. (Optional) Geben Sie eine **Beschreibung** ein. 

1. Passen Sie die **Priority** (Priorität) des Auftrags bei Bedarf an. Höhere Nummern bedeuten eine höhere Priorität. Amazon S3 versucht, Aufträge mit höherer Priorität vor Aufträgen mit niedrigerer Priorität auszuführen. Weitere Informationen zur Auftragspriorität finden Sie unter [Zuweisen der Auftragspriorität](batch-ops-job-priority.md).

1. (Optional) Generieren Sie einen Abschlussbericht. Wählen Sie zum Generieren dieses Berichts **Generate completion report** (Abschlussbericht generieren).

   Wenn Sie einen Abschlussbericht erstellen möchten, müssen Sie entweder die Meldung von **Failed tasks only** (Nur fehlgeschlagenen Aufgaben) oder **All tasks** (Allen Aufgaben) auswählen und einen Ziel-Bucket für den Bericht angeben.

1. Stellen Sie sicher, dass Sie im Abschnitt **Permissions** (Berechtigungen) eine IAM-Rolle auswählen, die über die erforderlichen Berechtigungen für die Batch-Replikation verfügt. Eine der häufigsten Ursachen für Replikationsfehler sind unzureichende Berechtigungen in der bereitgestellten IAM-Rolle. Weitere Informationen zum Erstellen dieser Rolle finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md). 

1. (Optional) Fügen Sie Auftrags-Tags zum Batch-Replikationsauftrag hinzu.

1. Wählen Sie **Weiter** aus.

1. Überprüfen Sie Ihre Auftrags-Konfiguration und wählen Sie dann **Create job** (Auftrag erstellen).

## Verwenden von AWS CLI mit einem S3-Manifest
<a name="batch-replication-existing-config-cli"></a>

Im folgenden Beispiel erstellt der Befehl `create-job` einen S3-Batch-Replikationsauftrag unter Verwendung eines S3-generierten Manifests für das AWS-Konto `111122223333`. In diesem Beispiel werden vorhandene Objekte repliziert sowie Objekte, die zuvor nicht repliziert werden konnten. Informationen zum Filtern nach Replikationsstatus finden Sie unter [Angeben eines Manifests für einen Batch-Replikationsauftrag](s3-batch-replication-batch.md#batch-replication-manifest). 

Zur Verwendung dieses Befehls ersetzen Sie *`user input placeholders`* durch eigene Informationen. Ersetzen Sie die IAM-Rolle `role/batch-Replication-IAM-policy` durch die IAM-Rolle, die Sie zuvor erstellt haben. Weitere Informationen finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).

```
aws s3control create-job --account-id 111122223333 \ 
--operation '{"S3ReplicateObject":{}}' \ 
--report '{"Bucket":"arn:aws:s3:::amzn-s3-demo-completion-report-bucket",\ 
"Prefix":"batch-replication-report", \ 
"Format":"Report_CSV_20180820","Enabled":true,"ReportScope":"AllTasks"}' \ 
--manifest-generator '{"S3JobManifestGenerator": {"ExpectedBucketOwner": "111122223333", \ 
"SourceBucket": "arn:aws:s3:::amzn-s3-demo-source-bucket", \ 
"EnableManifestOutput": false, "Filter": {"EligibleForReplication": true, \ 
"ObjectReplicationStatuses": ["NONE","FAILED"]}}}' \ 
--priority 1 \ 
--role-arn arn:aws:iam::111122223333:role/batch-Replication-IAM-policy \ 
--no-confirmation-required \ 
--region source-bucket-region
```

**Anmerkung**  
Sie müssen den Job aus demselben Bucket initiieren AWS-Region wie der Replizierungsquellen-Bucket. 

Nachdem Sie einen Batch-Replikationsauftrag erfolgreich initiiert haben, erhalten Sie die Auftrags-ID als Antwort. Sie können diesen Auftrag mit dem folgenden `describe-job`-Befehl überwachen. Zur Verwendung dieses Befehls ersetzen Sie *`user input placeholders`* durch eigene Informationen. 

```
aws s3control describe-job --account-id 111122223333 --job-id job-id --region source-bucket-region
```

## Verwenden Sie das AWS CLI mit einem vom Benutzer bereitgestellten Manifest
<a name="batch-replication-existing-config-cli-customer-manifest"></a>

Im folgenden Beispiel wird ein S3-Batch-Replikationsauftrag unter Verwendung eines benutzerdefinierten Manifest für das AWS-Konto `111122223333` erstellt. Wenn sich die Objekte in Ihrem Manifest in einem versionierten Bucket befinden, müssen Sie die Version IDs für die Objekte angeben. Es wird nur das Objekt mit der im Manifest angegebenen Versions-ID repliziert. Weitere Informationen zum Erstellen eines Manifests finden Sie unter [Angeben eines Manifests](batch-ops-create-job.md#specify-batchjob-manifest). 

Zur Verwendung dieses Befehls ersetzen Sie *`user input placeholders`* durch eigene Informationen. Ersetzen Sie die IAM-Rolle `role/batch-Replication-IAM-policy` durch die IAM-Rolle, die Sie zuvor erstellt haben. Weitere Informationen finden Sie unter [Konfigurieren einer IAM-Rolle für die S3-Batch-Replikation](s3-batch-replication-policies.md).

```
aws s3control create-job --account-id 111122223333 \ 
--operation '{"S3ReplicateObject":{}}' \
--report '{"Bucket":"arn:aws:s3:::amzn-s3-demo-completion-report-bucket",\
"Prefix":"batch-replication-report", \
"Format":"Report_CSV_20180820","Enabled":true,"ReportScope":"AllTasks"}' \
--manifest '{"Spec":{"Format":"S3BatchOperations_CSV_20180820",\
"Fields":["Bucket","Key","VersionId"]},\
"Location":{"ObjectArn":"arn:aws:s3:::amzn-s3-demo-manifest-bucket/manifest.csv",\
"ETag":"Manifest Etag"}}' \
--priority 1 \
--role-arn arn:aws:iam::111122223333:role/batch-Replication-IAM-policy \
--no-confirmation-required \
--region source-bucket-region
```

**Anmerkung**  
Sie müssen den Job aus demselben Bucket initiieren AWS-Region wie der Replizierungsquellen-Bucket. 

Nachdem Sie einen Batch-Replikationsauftrag erfolgreich initiiert haben, erhalten Sie die Auftrags-ID als Antwort. Sie können diesen Auftrag mit dem folgenden `describe-job`-Befehl überwachen.

```
aws s3control describe-job --account-id 111122223333 --job-id job-id --region source-bucket-region
```

# Fehlerbehebung bei einer Replikation
<a name="replication-troubleshoot"></a>

In diesem Abschnitt finden Sie Tipps zur Problembehandlung in Amazon S3 Replication und Informationen zu Fehlern in S3 Batch Replication.

**Topics**
+ [Tipps zur Fehlerbehebung in S3 Replication](#troubleshoot-replication-tips)
+ [Fehler bei der Batchreplikation](#troubleshoot-batch-replication-errors)

## Tipps zur Fehlerbehebung in S3 Replication
<a name="troubleshoot-replication-tips"></a>

Wenn Objektreplikate nicht im Ziel-Bucket erscheinen, nachdem Sie die Replikation konfiguriert haben, können Sie mit diesen Tipps zur Fehlerbehebung Probleme identifizieren und beheben.
+ Die meisten Objekte werden innerhalb von 15 Minuten repliziert. Die von Amazon S3 für die Replikation eines Objekts benötigte Zeit hängt von verschiedenen Faktoren ab, einschließlich des Quell- und Ziel-Regionspaars sowie der Größe des Objekts. Bei großen Objekten kann die Replikation mehrere Stunden dauern. Sie können [Begrenzung der S3-Replikationszeit (S3 RTC)](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-time-control.html#enabling-replication-time-control) verwenden, um einen Überblick über die Replikationszeiten zu erhalten.

  Wenn das replizierte Objekt groß ist, warten Sie eine Weile, bevor Sie überprüfen, ob es im Ziel erscheint. Sie können auch den Replikationsstatus des Quellobjekts überprüfen. Wenn der Replikationsstatus des Objekts `PENDING` lautet, hat Amazon S3 die Replikation noch nicht abgeschlossen. Wenn der Replikationsstatus des Objekts `FAILED` lautet, überprüfen Sie die Replikationskonfiguration des Quell-Buckets. 

  Wenn Sie Informationen zu Fehlern während der Replikation erhalten möchten, können Sie einrichten, dass Sie über Fehlerereignisse bei der Replikation mit Amazon-S3-Ereignisbenachrichtigungen benachrichtigt werden. Weitere Informationen finden Sie unter [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).
+ Sie können die API-Operation `HeadObject` aufrufen, um den Replikationsstatus eines Objekts zu überprüfen. Die API-Operation `HeadObject` gibt den Replikationsstatus `PENDING`, `COMPLETED` oder `FAILED` eines Objekts zurück. Als Antwort auf den API-Aufruf `HeadObject` wird der Replikationsstatus im Header `x-amz-replication-status` zurückgegeben.
**Anmerkung**  
Zum Ausführen von `HeadObject` müssen Sie über Lesezugriff auf das angeforderte Objekt verfügen. Eine `HEAD`-Anforderung bietet die gleichen Optionen wie eine `GET`-Anforderung, ohne eine `GET`-Operation auszuführen. Um beispielsweise eine `HeadObject` Anfrage mithilfe von AWS Command Line Interface (AWS CLI) auszuführen, können Sie den folgenden Befehl ausführen. Ersetzen Sie `user input placeholders` durch Ihre Informationen.   

  ```
  aws s3api head-object --bucket amzn-s3-demo-source-bucket --key index.html
  ```
+ Wenn `HeadObject` die Objekte mit dem Replikationsstatus `FAILED` zurückgegeben hat, können Sie S3 Batch Replication verwenden, um diese fehlgeschlagenen Objekte zu replizieren. Weitere Informationen finden Sie unter [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md). Alternativ können Sie die fehlgeschlagenen Objekte erneut in den Quell-Bucket hochladen, wodurch die Replikation für die neuen Objekte initiiert wird. 
+ Überprüfen Sie in der Replikations-Konfiguration des Quell-Buckets Folgendes:
  + ob der Amazon-Ressourcennamen (ARN) des Ziel-Buckets korrekt ist.
  + ob das Schlüsselnamenpräfix korrekt ist. Wenn Sie beispielsweise die Konfiguration so einrichten, dass nur Objekte mit dem Präfix `Tax` repliziert werden, werden nur Objekte mit Schlüsselnamen wie beispielsweise `Tax/document1` oder `Tax/document2` repliziert. Ein Objekt mit dem Schlüsselnamen `document3` wird nicht repliziert.
  + Der Status der Replikationsregel lautet `Enabled`.
+ Stellen Sie sicher, dass die Versionsverwaltung in der Replikationskonfiguration der Buckets nicht ausgesetzt wurde. Sowohl für die Quell- als auch für die Ziel-Buckets muss die Versionsverwaltung aktiviert sein.
+ Wenn für eine Replikationsregel die Option **Objekteigentümer zum Besitzer des Ziel-Buckets ändern** festgelegt ist, muss die AWS Identity and Access Management (IAM-) Rolle, die für die Replikation verwendet wird, über die `s3:ObjectOwnerOverrideToBucketOwner` entsprechende Berechtigung verfügen. Diese Berechtigung wird für die Ressource (in diesem Fall den Ziel-Bucket) erteilt. Die folgende `Resource`-Anweisung zeigt beispielsweise, wie diese Berechtigung für den Ziel-Bucket erteilt wird:

  ```
  {
    "Effect":"Allow",
    "Action":[
      "s3:ObjectOwnerOverrideToBucketOwner"
    ],
    "Resource":"arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
  }
  ```
+ Wenn sich der Ziel-Bucket im Besitz eines anderen Kontos befindet, muss der Eigentümer des Ziel-Buckets die Berechtigung `s3:ObjectOwnerOverrideToBucketOwner` über die Ziel-Bucket-Richtlinie auch dem Eigentümer des Quell-Buckets erteilen. Wenn Sie die folgende Bucket-Beispielrichtlinie verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen: 

------
#### [ JSON ]

****  

  ```
  {
    "Version":"2012-10-17",		 	 	 
    "Id": "Policy1644945280205",
    "Statement": [
      {
        "Sid": "Stmt1644945277847",
        "Effect": "Allow",
        "Principal": {
          "AWS": "arn:aws:iam::123456789101:role/s3-replication-role"
        },
        "Action": [
          "s3:ReplicateObject",
          "s3:ReplicateTags",
          "s3:ObjectOwnerOverrideToBucketOwner"
        ],
        "Resource": "arn:aws:s3:::amzn-s3-demo-destination-bucket/*"
      }
    ]
  }
  ```

------
**Anmerkung**  
Wenn die Einstellungen des Ziel-Buckets zur Objekteigentümerschaft **Bucket-Eigentümer erzwungen** beinhalten, müssen Sie die Einstellung in der Replikationsregel nicht in **Objekteigentümerschaft in Eigentümer des Ziel-Buckets ändern** ändern. Die Änderung der Objekteigentümerschaft erfolgt standardmäßig. Weitere Informationen zum Ändern der Replikateigentümerschaft finden Sie unter [Ändern des Replikat-Eigentümers](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-change-owner.html).
+ Wenn Sie die Replikationskonfiguration in einem kontoübergreifenden Szenario festlegen, in dem die Quell- und Ziel-Buckets unterschiedlichen Besitzern gehören AWS-Konten, können die Ziel-Buckets nicht als Bucket konfiguriert werden, der vom Antragsteller bezahlt wird. Weitere Informationen finden Sie unter [Verwendung von Allzweck-Buckets mit „Zahlung durch den Anforderer“ für Speicherübertragungen und Nutzung](RequesterPaysBuckets.md).
+ Wenn die Quellobjekte eines Buckets serverseitig mit AWS Key Management Service (AWS KMS)-Schlüsseln (SSE-KMS) verschlüsselt sind, muss die Replikationsregel so konfiguriert werden, dass sie mit AWS KMS verschlüsselte Objekte umfasst. Wählen Sie **Mit AWS KMS verschlüsselte Objekte replizieren** unter den Einstellungen zu **Verschlüsselung** in der Amazon-S3-Konsole aus. Wählen Sie dann einen AWS KMS Schlüssel für die Verschlüsselung der Zielobjekte aus.
**Anmerkung**  
Wenn sich der Ziel-Bucket in einem anderen Konto befindet, geben Sie einen vom AWS KMS Kunden verwalteten Schlüssel an, der dem Zielkonto gehört. Verwenden Sie nicht den von Amazon S3 verwalteten Standardschlüssel (`aws/s3`). Bei Verwendung des Standardschlüssels werden die Objekte mit dem von Amazon S3 verwalteten Schlüssel verschlüsselt, der dem Quellkonto gehört. Dadurch wird verhindert, dass das Objekt für ein anderes Konto freigegeben wird. Infolgedessen kann das Zielkonto nicht auf die Objekte im Ziel-Bucket zugreifen.

  Um einen AWS KMS Schlüssel, der zum Zielkonto gehört, zum Verschlüsseln der Zielobjekte zu verwenden, muss das Zielkonto der Replikationsrolle in der KMS-Schlüsselrichtlinie die `kms:Encrypt` Berechtigungen `kms:GenerateDataKey` und gewähren. Wenn Sie die folgende Beispielanweisung in Ihrer KMS-Schlüsselrichtlinie verwenden möchten, ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen:

  ```
  {    
      "Sid": "AllowS3ReplicationSourceRoleToUseTheKey",
      "Effect": "Allow",
      "Principal": {
          "AWS": "arn:aws:iam::123456789101:role/s3-replication-role"
      },
      "Action": ["kms:GenerateDataKey", "kms:Encrypt"],
      "Resource": "*"
  }
  ```

  Wenn Sie ein Sternchen (`*`) für die `Resource`-Anweisung in der AWS KMS -Schlüsselrichtlinie verwenden, erteilt die Richtlinie nur der Replikationsrolle die Berechtigung, den KMS-Schlüssel zu verwenden. Die Richtlinie erlaubt der Replikationsrolle nicht, ihre Berechtigungen zu erweitern. 

  Standardmäßig gewährt die KMS-Schlüsselrichtlinie dem Root-Benutzer volle Berechtigungen für den Schlüssel. Diese Berechtigungen können an andere Benutzer in demselben Konto delegiert werden. Sofern die Quell-KMS-Schlüsselrichtlinie keine `Deny`-Anweisungen enthält, reicht es aus, eine IAM-Richtlinie zu verwenden, um der Replikationsrolle Berechtigungen für den Quell-KMS-Schlüssel zu erteilen.
**Anmerkung**  
KMS-Schlüsselrichtlinien, die den Zugriff auf bestimmte CIDR-Bereiche, VPC-Endpunkte (Virtual Private Cloud) oder S3-Zugriffspunkte einschränken, können dazu führen, dass die Replikation fehlschlägt.

  Wenn je nach Verschlüsselungskontext entweder der Quell- oder der Ziel-KMS-Schlüssel Berechtigungen erteilt, vergewissern Sie sich, dass Amazon-S3-Bucket-Schlüssel für die Buckets aktiviert sind. Wenn die S3-Bucket-Schlüssel für die Buckets aktiviert sind, muss der Verschlüsselungskontext die Ressource auf Bucket-Ebene sein, wie im Folgenden veranschaulicht:

  ```
  "kms:EncryptionContext:arn:aws:arn": [
       "arn:aws:s3:::amzn-s3-demo-source-bucket"
       ]
  "kms:EncryptionContext:arn:aws:arn": [
       "arn:aws:s3:::amzn-s3-demo-destination-bucket"
       ]
  ```

  Zusätzlich zu den durch die KMS-Schlüsselrichtlinie gewährten Berechtigungen muss das Quellkonto der IAM-Richtlinie der Replikationsrolle die folgenden Mindestberechtigungen hinzufügen:

  ```
  {
      "Effect": "Allow",
      "Action": [
          "kms:Decrypt",
          "kms:GenerateDataKey"
      ],
      "Resource": [
          "Source-KMS-Key-ARN"
      ]
  },
  {
      "Effect": "Allow",
      "Action": [
          "kms:GenerateDataKey",
          "kms:Encrypt"
      ],
      "Resource": [
          "Destination-KMS-Key-ARN"
      ]
  }
  ```
**Wichtig**  
Wenn Sie S3 Batch Replication verwenden, um Datensätze regionsübergreifend zu replizieren und der serverseitige Verschlüsselungstyp Ihrer Objekte zuvor von SSE-S3 auf SSE-KMS aktualisiert wurde, benötigen Sie möglicherweise zusätzliche Berechtigungen. Für den Bucket der Quellregion benötigen Sie Berechtigungen. `kms:decrypt` Anschließend benötigen Sie die `kms:encrypt` Berechtigungen `kms:decrypt` und für den Bucket in der Zielregion.

  Weitere Informationen zum Replizieren von Objekten, die mit verschlüsselt sind AWS KMS, finden Sie unter Verschlüsselte Objekte [replizieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-walkthrough-4.html).
+ Wenn der Ziel-Bucket einem anderen gehört AWS-Konto, stellen Sie sicher, dass der Bucket-Besitzer eine Bucket-Richtlinie für den Ziel-Bucket hat, die es dem Besitzer des Quell-Buckets ermöglicht, Objekte zu replizieren. Ein Beispiel finden Sie unter [Konfigurieren einer Replikation bei Buckets in verschiedenen Konten](replication-walkthrough-2.md).
+ Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den Quell-S3-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Verwenden von Object Lock mit der S3-Replikation](object-lock-managing.md#object-lock-managing-replication).
+ Wenn Ihre Objekte auch nach der Bestätigung der Berechtigungen nicht repliziert werden, suchen Sie an den folgenden Stellen nach expliziten `Deny`-Anweisungen:
  + `Deny`-Anweisungen in den Richtlinien des Quell- oder Ziel-Buckets. Die Replikation schlägt fehl, wenn die Bucket-Richtlinie den Zugriff auf die Replikationsrolle für eine der folgenden Aktionen verweigert:

    Quell-Bucket

    ```
    1.            "s3:GetReplicationConfiguration",
    2.            "s3:ListBucket",
    3.            "s3:GetObjectVersionForReplication",
    4.            "s3:GetObjectVersionAcl",
    5.            "s3:GetObjectVersionTagging"
    ```

    Ziel-Buckets:

    ```
    1.            "s3:ReplicateObject",
    2.            "s3:ReplicateDelete",
    3.            "s3:ReplicateTags"
    ```
  + `Deny`-Anweisungen oder Berechtigungsgrenzen, die der IAM-Rolle zugeordnet sind, können dazu führen, dass die Replikation fehlschlägt.
  + `Deny`Anweisungen in AWS Organizations Dienststeuerungsrichtlinien (SCPs), die entweder an das Quell- oder das Zielkonto angehängt sind, können dazu führen, dass die Replikation fehlschlägt.
  + `Deny`Anweisungen in AWS Organizations Ressourcensteuerungsrichtlinien (RCPs), die entweder dem Quell- oder dem Ziel-Bucket zugeordnet sind, können dazu führen, dass die Replikation fehlschlägt.
+ Wenn ein Objektreplikat nicht im Ziel-Bucket angezeigt wird, könnten folgende Probleme die Replikation verhindert haben:
  + Amazon S3 repliziert keine Objekte in einem Quell-Bucket, der ein Replikat ist, das mit einer anderen Replikations-Konfiguration erstellt wurde. Wenn Sie beispielsweise die Replikationskonfiguration von Bucket A zu Bucket B zu Bucket C festlegen, repliziert Amazon S3 keine Objektreplikate von Bucket B zu Bucket C.
  + Ein Besitzer des Quell-Buckets kann anderen AWS-Konten Berechtigungen zum Hochladen von Objekten gewähren. Standardmäßig besitzt der Quell-Bucket-Eigentümer keine Berechtigungen für die Objekte, die von anderen Konten erstellt wurden. Die Replikations-Konfiguration repliziert nur die Objekte, für die der Quell-Bucket-Eigentümer über Zugriffsberechtigungen verfügt. Um dieses Problem zu vermeiden, kann der Besitzer des Quell-Buckets andere AWS-Konten Berechtigungen zum Erstellen von Objekten unter bestimmten Bedingungen gewähren, wobei explizite Zugriffsberechtigungen für diese Objekte erforderlich sind. Eine Beispielrichtlinie finden Sie unter [Erteilung von kontoübergreifenden Berechtigungen für das Hochladen von Objekten, wobei sichergestellt wird, dass der Bucket-Eigentümer volle Kontrolle besitzt](example-bucket-policies.md#example-bucket-policies-acl-2).
+ Angenommen, Sie fügen einer Replikationskonfiguration eine Regel hinzu, um eine Teilmenge von Objekten mit einem spezifischen Tag zu replizieren. In diesem Fall müssen Sie den spezifischen Tag-Schlüssel und -Wert zum Zeitpunkt der Objekterstellung zuweisen, damit Amazon S3 das Objekt replizieren kann. Wenn Sie zuerst ein Objekt erstellen und dann dem vorhandenen Objekt das Tag hinzufügen, repliziert Amazon S3 das Objekt nicht. 
+ Verwenden Sie Amazon-S3-Ereignisbenachrichtigungen, um sich informieren zu lassen, wenn Objekte nicht in ihre Ziel- AWS-Region repliziert wurden. Amazon S3 S3-Ereignisbenachrichtigungen sind über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder verfügbar. AWS Lambda Weitere Informationen finden Sie unter [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](replication-metrics-events.md).

  Sie können Amazon-S3-Ereignisbenachrichtigungen auch verwenden, um die Ursachen für fehlgeschlagene Replikationen anzuzeigen. Eine Liste der Ursachen für fehlgeschlagene Replikationen finden Sie unter [Gründe für das Fehlschlagen der Replikation in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-failure-codes.html).

## Fehler bei der Batchreplikation
<a name="troubleshoot-batch-replication-errors"></a>

Um Fehler bei Objekten zu beheben, die nicht in den Ziel-Bucket repliziert werden, überprüfen Sie die verschiedenen Arten von Berechtigungen für Ihre Buckets, die Replikationsrolle und die IAM-Rolle, die zum Erstellen des Batchreplikationsauftrags verwendet werden. Überprüfen Sie außerdem die Einstellungen für das Blockieren des öffentlichen Zugriffs (Block Public Access) und die Einstellungen für die S3-Objekt-Eigentümerschaft für Ihre Buckets.

Weitere Tipps zur Problembehandlung bei der Arbeit mit Batch-Operationen finden Sie unter [Fehlerbehebung bei S3-Batch-Operationen](troubleshooting-batch-operations.md). 

Wenn Sie die Replikation eingerichtet haben und Objekte nicht repliziert werden, finden Sie weitere Informationen unter [Warum replizieren sich meine Amazon S3 S3-Objekte nicht, wenn ich die Replikation zwischen meinen Buckets einrichte](https://repost.aws/knowledge-center/s3-troubleshoot-replication)? im Knowledge Center AWS re:Post .

Während der Batchreplikation können die folgenden Fehler auftreten:
+ Manifest generation found no keys matching the filter criteria. (Bei der Manifestgenerierung wurden keine Schlüssel gefunden, die den Filterkriterien entsprechen.)

  Dieser Fehler tritt aus einem der folgenden Gründen auf:
  + Wenn Objekte im Quell-Bucket in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive gespeichert sind.

    Um die Batchreplikation für diese Objekte zu verwenden, stellen Sie sie zunächst in der Speicherklasse S3 Standard wieder her, indem Sie die Operation **Restore** (`S3InitiateRestoreObjectOperation`) in einem Batch-Operations-Auftrag verwenden. Weitere Informationen finden Sie unter [Wiederherstellen eines archivierten Objekts](restoring-objects.md) und [Wiederherstellen von Objekten (Batch Operations)](batch-ops-initiate-restore-object.md). Nachdem Sie die Objekte wiederhergestellt haben, können Sie sie mithilfe eines Batchreplikationsauftrags replizieren.
  + Wenn die angegebenen Filterkriterien mit keinen gültigen Objekten im Quell-Bucket übereinstimmen.

    Überprüfen und korrigieren Sie die Filterkriterien. In der Regel für die Batch-Replikation suchen die Filterkriterien beispielsweise nach allen Objekten im Quell-Bucket mit dem Präfix `Tax/`. Wenn der Präfixname falsch eingegeben wurde, also mit einem Schrägstrich am Anfang und am Ende (`/Tax/`) statt nur am Ende, wurden keine S3-Objekte gefunden. Um den Fehler zu beheben, korrigieren Sie das Präfix in der Replikationsregel in diesem Fall von `/Tax/` in `Tax/`.
+ Die Batchoperation ist aus folgendem Grund fehlgeschlagen: Der Auftragsbericht konnte nicht in Ihren Berichts-Bucket geschrieben werden.

  Dieser Fehler tritt auf, wenn die für den Batch-Operations-Auftrag verwendete IAM-Rolle den Abschlussbericht nicht an dem Speicherort speichern kann, der während der Auftragserstellung angegeben wurde. Überprüfen Sie zum Beheben dieses Fehlers, ob die IAM-Rolle über `s3:PutObject`-Berechtigung für den Bucket verfügt, in dem der Batch-Operations-Abschlussbericht gespeichert werden soll. Wir empfehlen, den Bericht in einem anderen Bucket als dem Quell-Bucket bereitzustellen.
+ Die Batchoperation wurde mit Fehlern abgeschlossen und die Gesamtzahl der Fehlschläge ist nicht 0.

  Dieser Fehler tritt auf, wenn bei dem ausgeführten Batchreplikationsauftrag unzureichende Objektberechtigungen vorhanden sind. Wenn Sie eine Replikationsregel für Ihren Batchreplikationsauftrag verwenden, stellen Sie sicher, dass die für die Replikation verwendete IAM-Rolle über die richtigen Berechtigungen für den Zugriff auf Objekte aus dem Quell- oder Ziel-Bucket verfügt. Sie können auch den [Abschlussbericht zur Batchreplikation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-batch-replication-batch.html#batch-replication-completion-report) anzeigen, um den spezifischen [Grund für das Fehlschlagen der Replikation in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-failure-codes.html) zu überprüfen.
+ Der Batchauftrag wurde erfolgreich ausgeführt, die Anzahl der im Ziel-Bucket erwarteten Objekte stimmt nicht überein.

  Dieser Fehler tritt auf, wenn die im Manifest des Batchreplikationsauftrags aufgeführten Objekte nicht mit den Filtern übereinstimmen, die Sie während der Auftragserstellung ausgewählt haben. Möglicherweise erhalten Sie diese Meldung auch, wenn die Objekte in Ihrem Quell-Bucket keinen Replikationsregeln entsprechen und nicht im generierten Manifest enthalten sind.

### Fehler bei Batch Operations nach dem Hinzufügen einer neuen Replikationsregel zu einer vorhandenen Replikationskonfiguration
<a name="new-replication-rule"></a>

Batch Operations versucht, eine vorhandene Objektreplikation für jede Regel in der Replikationskonfiguration des Quell-Buckets auszuführen. Wenn es Probleme mit einer der vorhandenen Replikationsregeln gibt, können Fehler auftreten. 

Im Abschlussbericht des Batch-Operations-Auftrags werden die Ursachen für das Fehlschlagen des Auftrags erläutert. Eine Liste mit häufig auftretenden Fehlern finden Sie unter [Gründe für das Fehlschlagen der Replikation in Amazon S3](replication-metrics-events.md#replication-failure-codes).

# Überwachen der Replikation mit Metriken, Ereignisbenachrichtigungen und Status
<a name="replication-metrics"></a>

Sie können Ihre Live-Replikationskonfigurationen und Ihre S3-Batch-Replikationsaufträge mithilfe der folgenden Mechanismen überwachen: 
+ **S3-Replikationsmetriken** — Wenn Sie S3-Replikationsmetriken aktivieren, CloudWatch gibt Amazon Metriken aus, mit denen Sie ausstehende Bytes, ausstehende Operationen und Replikationslatenz auf der Ebene der Replikationsregeln verfolgen können. Sie können S3-Replikationsmetriken über die Amazon S3 S3-Konsole und die CloudWatch Amazon-Konsole anzeigen. In der Amazon-S3-Konsole können Sie diese Metriken in der Registerkarte **Metrics** (Metriken) des Quell-Buckets anzeigen. Weitere Informationen zu S3-Replikationsmetriken finden Sie unter [Verwenden von S3-Replikationsmetriken](repl-metrics.md). 
+ **S3-Storage-Lens-Metriken** – Zusätzlich zu den S3-Replikationsmetriken können Sie die replikationsbezogenen Datenschutzmetriken verwenden, die in den S3-Storage-Lens-Dashboards bereitgestellt werden. Wenn Sie beispielsweise die kostenlosen Metriken in S3 Storage Lens verwenden, können Sie sich Metriken wie die Gesamtzahl der Byte, die aus dem Quell-Bucket repliziert wurden, oder die Anzahl der replizierten Objekte aus dem Quell-Bucket anzeigen lassen. 

  Um Ihre allgemeine Position hinsichtlich der Replikation zu überprüfen, können Sie in S3 Storage Lens erweiterte Metriken aktivieren. Mit den erweiterten Metriken in S3 Storage Lens können Sie sehen, über wie viele Replikationsregeln verschiedener Typen Sie verfügen, einschließlich der Anzahl der Replikationsregeln mit einem ungültigen Replikationsziel. 

  Weitere Informationen zum Arbeiten mit Replikationsmetriken in S3 Storage Lens finden Sie unter [Anzeigen von Replikationsmetriken in den Dashboards in S3 Storage Lens](viewing-replication-metrics-storage-lens.md).
+ **S3-Ereignisbenachrichtigungen** — S3-Ereignisbenachrichtigungen können Sie auf Objektebene benachrichtigen, wenn Objekte nicht an ihr Ziel repliziert werden AWS-Region oder wenn Objekte nicht innerhalb bestimmter Schwellenwerte repliziert werden. S3-Ereignisbenachrichtigungen bieten die folgenden Replikationsereignistypen: `s3:Replication:OperationFailedReplication`, `s3:Replication:OperationMissedThreshold`, `s3:Replication:OperationReplicatedAfterThreshold` und `s3:Replication:OperationNotTracked`. 

  Amazon S3 S3-Ereignisse sind über Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) oder verfügbar. AWS Lambda Weitere Informationen finden Sie unter [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](replication-metrics-events.md).
+ **Replikationsstatus-Werte** – Sie können auch den Replikationsstatus Ihrer Objekte abrufen. Der Replikationsstatus hilft Ihnen, den aktuellen Status eines Objekts zu bestimmen, das gerade repliziert wird. Der Replikationsstatus eines Quellobjekts gibt entweder `PENDING`, `COMPLETED` oder `FAILED` zurück. Der Replikationsstatus eines Replikats gibt `REPLICA` zurück. 

  Sie können Replikationsstatus-Werte auch verwenden, wenn Sie S3-Batch-Replikationsaufträge erstellen. Sie können diese Statuswerte beispielsweise verwenden, um Objekte zu replizieren, die entweder nie repliziert wurden oder bei denen die Replikation fehlgeschlagen ist. 

  Weitere Informationen zum Abrufen des Replikationsstatus Ihrer Objekte finden Sie unter [Abrufen von Replikationsstatusinformationen](replication-status.md). Weitere Informationen zur Verwendung dieser Werte mit der Batch-Replikation finden Sie unter [Filter für einen Batch-Replikationsauftrag](s3-batch-replication-batch.md#batch-replication-filters).

**Topics**
+ [Verwenden von S3-Replikationsmetriken](repl-metrics.md)
+ [Anzeigen von Replikationsmetriken in den Dashboards in S3 Storage Lens](viewing-replication-metrics-storage-lens.md)
+ [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](replication-metrics-events.md)
+ [Abrufen von Replikationsstatusinformationen](replication-status.md)

# Verwenden von S3-Replikationsmetriken
<a name="repl-metrics"></a>

S3-Replikationsmetriken enthalten detaillierte Metriken für die Replikationsregeln in Ihrer Replikationskonfiguration. Mit Replikationsmetriken können Sie den minute-by-minute Fortschritt überwachen, indem Sie ausstehende Bytes, ausstehende Operationen, Operationen, bei denen die Replikation fehlgeschlagen ist, und die Replikationslatenz verfolgen.

**Anmerkung**  
S3-Replikationsmetriken werden zum gleichen Tarif wie CloudWatch benutzerdefinierte Amazon-Metriken abgerechnet. Weitere Informationen finden Sie unter [ CloudWatchAmazon-Preise](https://aws.amazon.com/cloudwatch/pricing/).
Wenn Sie S3 Replication Time Control verwenden, CloudWatch beginnt Amazon 15 Minuten, nachdem Sie S3 RTC für die jeweilige Replikationsregel aktiviert haben, mit der Meldung von Replikationsmetriken. 

S3-Replikationsmetriken werden automatisch aktiviert, wenn Sie die Funktion für die Begrenzung der S3-Replikationszeit (S3 RTC) aktivieren. Sie können S3-Replikationsmetriken auch unabhängig von S3 RTC aktivieren, während Sie eine [Regel erstellen oder bearbeiten](replication-walkthrough1.md). S3 RTC umfasst weitere Merkmale wie ein Service Level Agreement (SLA) und Benachrichtigungen für nicht eingehaltene Schwellenwerte. Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).

Wenn S3-Replikationsmetriken aktiviert sind, veröffentlicht Amazon S3 die folgenden Metriken auf Amazon CloudWatch. CloudWatchDie Metriken werden nach bestem Wissen und Gewissen bereitgestellt.


| Metrikname | Metrikbeschreibung | Für welche Objekte gilt diese Metrik? | In welcher Region wird diese Metrik veröffentlicht? | Wird diese Metrik weiterhin veröffentlicht, wenn der Ziel-Bucket gelöscht wird? | Wird diese Metrik weiterhin veröffentlicht, wenn keine Replikation stattfindet? | 
| --- | --- | --- | --- | --- | --- | 
| **Byte, die noch nicht repliziert wurden** |  Die Gesamtanzahl der Bytes von Objekten, deren Replikation für eine bestimmte Replikationsregel aussteht.  | Diese Metrik gilt nur für neue Objekte, die mit der regionsübergreifenden S3-Replikation (S3 CRR) oder der regionsinternen S3-Replikation (S3 SRR) repliziert werden. | Diese Metrik wird in der Region des Ziel-Buckets veröffentlicht. | Nein | Ja | 
| **Latenz der Replikation** |  Die maximale Verzögerung in Sekunden, um die der Replikationsziel-Bucket für eine bestimmte Replikationsregel hinter dem Quell-Bucket zurückliegt.  | Diese Metrik gilt nur für neue Objekte, die mit S3 CRR oder S3 SRR repliziert werden. | Diese Metrik wird in der Region des Ziel-Buckets veröffentlicht. | Nein | Ja | 
| **Operationen, die noch nicht repliziert wurden** |  Die Anzahl an Operationen, deren Replikation für eine bestimmte Replikationsregel aussteht. Diese Metrik verfolgt Vorgänge im Zusammenhang mit Objekten, Löschmarkierungen, Tags, Zugriffskontrolllisten (ACLs) und S3 Object Lock.  | Diese Metrik gilt nur für neue Objekte, die mit S3 CRR oder S3 SRR repliziert werden. | Diese Metrik wird in der Region des Ziel-Buckets veröffentlicht. | Nein | Ja | 
| **Operationen, die nicht repliziert werden konnten** |  Die Anzahl der Operationen, deren Replikation für eine bestimmte Replikationsregel fehlgeschlagen ist. Diese Metrik verfolgt Operationen im Zusammenhang mit Objekten, Löschmarkierungen, Tags, Zugriffskontrolllisten (ACLs) und Object Lock. **Operationen fehlgeschlagen Replikation** verfolgt S3-Replikationsfehler zusammengefasst in einem minütlichen Intervall. Um die spezifischen Objekte zu ermitteln, bei denen die Replikation fehlgeschlagen ist, und die Fehlerursachen herauszufinden, abonnieren Sie das `OperationFailedReplication`-Ereignis in den Amazon-S3-Ereignisbenachrichtigungen. Weitere Informationen finden Sie unter [Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse](replication-metrics-events.md).  |  Diese Metrik gilt sowohl für neue Objekte, die mit S3 CRR oder S3 SRR repliziert werden, als auch für vorhandene Objekte, die mit S3-Batch-Replikation repliziert werden.  Wenn ein S3-Batch-Replikationsauftrag überhaupt nicht ausgeführt werden kann, werden keine Metriken an Amazon gesendet CloudWatch. Ihr Auftrag wird beispielsweise nicht ausgeführt, wenn Sie nicht über die erforderlichen Berechtigungen verfügen, um einen S3-Batch-Replikationsauftrag auszuführen, oder wenn die Tags oder das Präfix in Ihrer Replikationskonfiguration nicht übereinstimmen.   | Diese Metrik wird in der Region des Quell-Buckets veröffentlicht. | Ja | Nein | 

Informationen zur Arbeit mit diesen Metriken CloudWatch finden Sie unter[S3-Replikationsmetriken in CloudWatch](metrics-dimensions.md#s3-cloudwatch-replication-metrics).

## Aktivieren von S3-Replikationsmetriken
<a name="enabling-replication-metrics"></a>

Sie können S3-Replikationsmetriken mit einer neuen oder einer vorhandenen Replikationsregel verwenden. Alle Informationen zum Erstellen von Replikationsregeln finden Sie unter [Konfigurieren einer Replikation für Buckets im selben Konto](replication-walkthrough1.md). Sie können die Replikationsregel auf einen gesamten S3-Bucket oder auf Amazon-S3-Objekte mit einem bestimmten Präfix oder Tag anwenden.

Dieses Thema enthält Anleitungen zum Aktivieren von S3-Replikationsmetriken in Ihrer Replikationskonfiguration, wenn sich die Quell- und Ziel-Buckets im Eigentum desselben Kontos oder unterschiedlicher AWS-Konten befinden.

Um Replikationsmetriken mithilfe von AWS Command Line Interface (AWS CLI) zu aktivieren, müssen Sie dem Quell-Bucket eine Replikationskonfiguration mit `Metrics` enabled hinzufügen. In dieser Beispielkonfiguration werden Objekte unter dem Präfix `Tax` auf den Ziel-Bucket `amzn-s3-demo-bucket` repliziert und es werden Metriken für diese Objekte generiert.

```
{
    "Rules": [
        {
            "Status": "Enabled",
            "Filter": {
                "Prefix": "Tax"
            },
            "Destination": {
                "Bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
                "Metrics": {
                    "Status": "Enabled"
                }
            },
            "Priority": 1
        }
    ],
    "Role": "IAM-Role-ARN"
}
```

## Anzeigen von Replikationsmetriken
<a name="viewing-replication-metrics"></a>

Sie können die S3-Replikationsmetriken in der Registerkarte **Metriken** des Allzweck-Buckets in der Amazon-S3-Konsole anzeigen. Diese CloudWatch Amazon-Metriken sind auch in der CloudWatch Amazon-Konsole verfügbar. Wenn Sie S3-Replikationsmetriken aktivieren, CloudWatch gibt Amazon Metriken aus, mit denen Sie ausstehende Bytes, ausstehende Operationen und Replikationslatenz auf der Ebene der Replikationsregeln verfolgen können. 

S3-Replikationsmetriken werden automatisch aktiviert, wenn Sie die Replikation mit Begrenzung der S3-Replikationszeit (S3 RTC) über die Amazon-S3-Konsole oder die REST-API von Amazon S3 aktivieren. Sie können S3-Replikationsmetriken auch unabhängig von S3 RTC aktivieren, während Sie eine [Regel erstellen oder bearbeiten](replication-walkthrough1.md).

Wenn Sie S3 Replication Time Control verwenden, CloudWatch beginnt Amazon 15 Minuten, nachdem Sie S3 RTC für die jeweilige Replikationsregel aktiviert haben, mit der Meldung von Replikationsmetriken. Weitere Informationen finden Sie unter [Verwenden von S3-Replikationsmetriken](#repl-metrics).

Replikationsmetriken verfolgen die Regel IDs der Replikationskonfiguration. Eine Replikationsregel-ID kann spezifisch für ein Präfix, ein Tag oder eine Kombination aus beiden sein.

 Weitere Informationen zu CloudWatch Metriken für Amazon S3 finden Sie unter[Metriken mit Amazon überwachen CloudWatch](cloudwatch-monitoring.md).

**Voraussetzungen**  
Erstellen Sie eine Replikationsregel, für die S3-Replikationsmetriken aktiviert sind. Weitere Informationen finden Sie unter [Aktivieren von S3-Replikationsmetriken](#enabling-replication-metrics).

**So zeigen Sie S3-Replikationsmetriken über die Registerkarte **Metrics** (Metriken) des Quell-Buckets an**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus. 

1. Wählen Sie in der Liste Buckets den Namen des Quell-Buckets mit den Objekten aus, für die Sie Replikationsmetriken abrufen möchten.

1. Wählen Sie die Registerkarte **Metriken** aus.

1. Wählen Sie unter **Replication metrics** (Replikationsmetriken) die Replikationsregeln aus, für die Sie Metriken anzeigen möchten.

1. Wählen Sie **Display charts (Diagramme anzeigen)**.

   Amazon S3 zeigt die Diagramme **Replikationslatenz**, **Byte, die noch nicht repliziert wurden** **Operationen, die noch nicht repliziert wurden** und **Operationen, die nicht repliziert werden konnten** an.

# Anzeigen von Replikationsmetriken in den Dashboards in S3 Storage Lens
<a name="viewing-replication-metrics-storage-lens"></a>

Zusätzlich zu den [S3-Replikationsmetriken](repl-metrics.md) können Sie die replikationsbezogenen Datenschutzmetriken verwenden, die von S3-Storage Lens bereitgestellt werden. S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Weitere Informationen finden Sie unter [Verwenden von S3 Storage Lens zum Schutz Ihrer Daten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-data-protection.html#storage-lens-data-protection-replication-rule). 

S3 Storage Lens bietet zwei Metrikebenen: kostenlose Metriken sowie erweiterte Metriken und Empfehlungen, auf die Sie gegen eine zusätzliche Gebühr upgraden können. Mit erweiterten Metriken und Empfehlungen können Sie auf zusätzliche Metriken und Funktionen zugreifen, um Erkenntnisse über Ihren Speicher zu erhalten. Weitere Informationen zu den Preisen für S3 Storage Lens finden Sie unter [Amazon S3-Preise](https://aws.amazon.com/s3/pricing). 

Wenn Sie die kostenlosen Metriken in S3 Storage Lens verwenden, können Sie sich Metriken wie die Gesamtzahl der Byte, die aus dem Quell-Bucket repliziert wurden, oder die Anzahl der replizierten Objekte aus dem Quell-Bucket anzeigen lassen. 

Um Ihre allgemeine Position hinsichtlich der Replikation zu überprüfen, können Sie in S3 Storage Lens erweiterte Metriken aktivieren. Mit den erweiterten Metriken in S3 Storage Lens können Sie sehen, über wie viele Replikationsregeln verschiedener Typen Sie verfügen, einschließlich der Anzahl der Replikationsregeln mit einem ungültigen Replikationsziel. 

Eine vollständige Liste der Metriken in S3 Storage Lens, einschließlich der Replikationsmetriken der einzelnen Ebenen, finden Sie im [Metrikglossar von S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html). 

**Voraussetzungen**  
Erstellen Sie eine [Live-Replikationskonfiguration](replication-how-setup.md) oder einen [S3-Batch-Replikationsauftrag](s3-batch-replication-batch.md). 

**So zeigen Sie Replikationsmetriken in Amazon S3 Storage Lens an**

1. Erstellen Sie ein S3-Storage-Lens-Dashboard. step-by-stepAnweisungen finden Sie unter[Verwenden der S3-Konsole](storage_lens_creating_dashboard.md#storage_lens_console_creating).

1. (Optional) Wenn Sie bei der Einrichtung Ihres Dashboards alle Replikationsmetriken von S3 Storage Lens sehen möchten, wählen Sie **Advanced metrics and recommendations** (Erweiterte Metriken und Empfehlungen) und dann **Advanced data protection metrics** (Erweiterte Datenschutzmetriken) aus. Eine vollständige Liste der Metriken finden Sie im [Metrikglossar von S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html).

   Aktivieren Sie erweiterte Metriken und Empfehlungen, um weitere Einblicke in Ihre Replikationskonfigurationen zu erhalten. Sie können beispielsweise die Metriken zur Anzahl der Replikationsregeln von S3 Storage Lens verwenden, um detaillierte Informationen zu Ihren Buckets zu erhalten, die für die Replikation konfiguriert sind. Zu diesen Informationen gehören Replikationsregeln innerhalb von Buckets und Regionen sowie Bucket- und regionsübergreifende Replikationsregeln. Weitere Informationen finden Sie unter [Zählen der Gesamtzahl der Replikationsregeln für jeden Bucket](storage-lens-data-protection.md#storage-lens-data-protection-replication-rule).

1. Nachdem Sie Ihr Dashboard erstellt haben, öffnen Sie das Dashboard und wählen Sie die Registerkarte **Buckets**.

1. Scrollen Sie nach unten zum Abschnitt **Buckets**. Wählen Sie unter **Metrics categories** (Metrikkategorien) die Option **Data protection** (Datenschutz) aus. Löschen Sie dann **Summary** (Zusammenfassung).

1. Wenn Sie die Liste **Buckets** so filtern möchten, dass nur Replikationsmetriken angezeigt werden, wählen Sie das Präferenzsymbol (![\[The preferences icon in the S3 Storage Lens dashboard.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/preferences.png)) aus.

1. Deaktivieren Sie die Schalter für alle Datenschutzmetriken, bis nur noch die Replikationsmetriken ausgewählt sind.

1. (Optional) Wählen Sie unter **Page size** (Seitengröße) die Anzahl der Buckets aus, die in der Liste angezeigt werden sollen.

1. Klicken Sie auf **Weiter**.

# Erhalten von Amazon-S3-Ereignisbenachrichtigungen über Replikations-Fehlerereignisse
<a name="replication-metrics-events"></a>

Wenn Sie S3-Replikationsmetriken in Ihrer Replikationskonfiguration aktiviert haben, können Sie Amazon-S3-Ereignisbenachrichtigungen einrichten, damit Sie benachrichtigt werden, wenn Objekte nicht in ihre Ziel- AWS-Region repliziert werden. Wenn Sie die Begrenzung der S3-Replikationszeit (S3 RTC) in Ihrer Replikationskonfiguration aktiviert haben, können Sie auch benachrichtigt werden, wenn Objekte nicht innerhalb des S3-RTC-Grenzwerts von 15 Minuten repliziert werden. 

Mithilfe der folgenden `Replication` Ereignistypen können Sie den minute-by-minute Fortschritt von Replikationsereignissen überwachen, indem Sie ausstehende Byte, ausstehende Vorgänge und die Replikationslatenz verfolgen. Weitere Informationen zu S3-Replikationsmetriken finden Sie unter [Verwenden von S3-Replikationsmetriken](repl-metrics.md).
+ Der `s3:Replication:OperationFailedReplication`-Ereignistyp benachrichtigt Sie, wenn ein Objekt, das für die Replikation berechtigt war, nicht repliziert werden konnte. 
+ Der `s3:Replication:OperationMissedThreshold`-Ereignistyp benachrichtigt Sie, wenn ein Objekt, das für die Replikation mit S3 RTC berechtigt war, den 15-minütigen Schwellenwert für die Replikation überschreitet.
+ Der `s3:Replication:OperationReplicatedAfterThreshold`-Ereignistyp benachrichtigt Sie, wenn ein Objekt, das für die Replikation mit S3 RTC in Frage kommt, nach dem 15-Minuten-Schwellenwert repliziert wird.
+ Der `s3:Replication:OperationNotTracked`-Ereignistyp benachrichtigt Sie, wenn ein Objekt, das für die Live-Replikation geeignet war (entweder Same-Region Replication [SRR] oder Cross-Region Replication [CRR]), nicht mehr von Replikationsmetriken verfolgt wird.

Eine vollständige Beschreibung aller unterstützten Replikationsereignistypen finden Sie unter [Unterstützte Ereignistypen für SQS, SNS und Lambda](notification-how-to-event-types-and-destinations.md#supported-notification-event-types).

Eine Liste der Fehlercodes, die von S3-Ereignisbenachrichtigungen erfasst werden, finden Sie unter [Gründe für das Fehlschlagen der Replikation in Amazon S3](#replication-failure-codes).

Sie können S3-Ereignisbenachrichtigungen über den Amazon Simple Queue Service (Amazon SQS), den Amazon Simple Notification Service (Amazon SNS) oder AWS Lambda erhalten. Weitere Informationen finden Sie unter [Amazon-S3-Ereignisbenachrichtigungen](EventNotifications.md).

Anweisungen zum Konfigurieren von Amazon-S3-Ereignisbenachrichtigungen finden Sie unter [Aktivieren von Ereignisbenachrichtigungen](how-to-enable-disable-notification-intro.md).

**Anmerkung**  
Es empfiehlt sich, nicht nur Ereignisbenachrichtigungen, sondern auch S3-Replikationsmetriken zu aktivieren. Weitere Informationen finden Sie unter [Aktivieren von S3-Replikationsmetriken](repl-metrics.md#enabling-replication-metrics).

Das Folgende ist ein Beispiel für eine Nachricht, die Amazon S3 sendet, um ein `s3:Replication:OperationFailedReplication`-Ereignis zu veröffentlichen. Weitere Informationen finden Sie unter [Struktur von Ereignismeldungen](notification-content-structure.md).

```
{
  "Records": [
    {
      "eventVersion": "2.2",
      "eventSource": "aws:s3",
      "awsRegion": "us-east-1",
      "eventTime": "2024-09-05T21:04:32.527Z",
      "eventName": "Replication:OperationFailedReplication",
      "userIdentity": {
        "principalId": "s3.amazonaws.com"
      },
      "requestParameters": {
        "sourceIPAddress": "s3.amazonaws.com"
      },
      "responseElements": {
        "x-amz-request-id": "123bf045-2b4b-4ca8-a211-c34a63c59426",
        "x-amz-id-2": "12VAWNDIHnwJsRhTccqQTeAPoXQmRt22KkewMV8G3XZihAuf9CLDdmkApgZzudaIe2KlLfDqGS0="
      },
      "s3": {
        "s3SchemaVersion": "1.0",
        "configurationId": "ReplicationEventName",
        "bucket": {
          "name": "amzn-s3-demo-bucket1",
          "ownerIdentity": {
            "principalId": "111122223333"
          },
          "arn": "arn:aws:s3:::amzn-s3-demo-bucket1"
        },
        "object": {
          "key": "replication-object-put-test.png",
          "size": 520080,
          "eTag": "e12345ca7e88a38428305d3ff7fcb99f",
          "versionId": "abcdeH0Xp66ep__QDjR76LK7Gc9X4wKO",
          "sequencer": "0066DA1CBF104C0D51"
        }
      },
      "replicationEventData": {
        "replicationRuleId": "notification-test-replication-rule",
        "destinationBucket": "arn:aws:s3:::amzn-s3-demo-bucket2",
        "s3Operation": "OBJECT_PUT",
        "requestTime": "2024-09-05T21:03:59.168Z",
        "failureReason": "AssumeRoleNotPermitted"
      }
    }
  ]
}
```

## Gründe für das Fehlschlagen der Replikation in Amazon S3
<a name="replication-failure-codes"></a>

Die folgende Tabelle enthält Gründe für das Fehlschlagen der Replikation in Amazon S3. Sie können diese Gründe anzeigen, indem Sie das Ereignis `s3:Replication:OperationFailedReplication` mit den Amazon-S3-Ereignisbenachrichtigungen erhalten und sich den Wert `failureReason` ansehen. 

Sie können diese Fehlergründe auch in einem Abschlussbericht der S3-Batch-Replikation anzeigen. Weitere Informationen finden Sie unter [Abschlussbericht zur Batchreplikation](s3-batch-replication-batch.md#batch-replication-completion-report).


| Gründe für das Fehlschlagen der Replikation | Description | 
| --- | --- | 
| `AssumeRoleNotPermitted` | Amazon S3 kann die AWS Identity and Access Management (IAM-) Rolle nicht übernehmen, die in der Replikationskonfiguration oder im Batch Operations-Job angegeben ist. | 
| `DstBucketInvalidRegion` | Der Ziel-Bucket befindet sich nicht in demselben AWS-Region Bucket, der im Batch Operations-Job angegeben wurde. Dieser Fehler ist spezifisch für die Batchreplikation. | 
| `DstBucketNotFound` | Amazon S3 kann den in der Replikationskonfiguration angegebenen Ziel-Bucket nicht finden. | 
| `DstBucketObjectLockConfigMissing` | Um Objekte aus einem Quell-Bucket mit aktivierter Objektsperre zu replizieren, muss für den Ziel-Bucket ebenfalls die Objektsperre aktiviert sein. Dieser Fehler zeigt an, dass die Objektsperre im Ziel-Bucket möglicherweise nicht aktiviert ist. Weitere Informationen finden Sie unter [Überlegungen zu Object Lock](object-lock-managing.md). | 
| `DstBucketUnversioned` | Die Versionsverwaltung ist für den S3-Ziel-Bucket nicht aktiviert. Aktivieren Sie die Versionsverwaltung für den Ziel-Bucket, um Objekte mit S3-Replikation zu replizieren. | 
| `DstDelObjNotPermitted` | Amazon S3 kann Löschmarkierungen nicht in den angegebenen Ziel-Bucket replizieren. Möglicherweise fehlt die `s3:ReplicateDelete`-Berechtigung für den Ziel-Bucket. | 
| `DstKmsKeyInvalidState` | Der Schlüssel AWS Key Management Service (AWS KMS) für den Ziel-Bucket ist nicht gültig. Überprüfen und aktivieren Sie den erforderlichen AWS KMS Schlüssel. Weitere Informationen zur Verwaltung von AWS KMS Schlüsseln finden Sie unter [Schlüsselstatus von AWS KMS Schlüsseln](https://docs.aws.amazon.com/kms/latest/developerguide/key-state.html) im *AWS Key Management Service Entwicklerhandbuch*. | 
| `DstKmsKeyNotFound` | Der AWS KMS Schlüssel, der in der Replikationskonfiguration für den Ziel-Bucket konfiguriert ist, ist nicht vorhanden. | 
| `DstMultipartCompleteNotPermitted` | Amazon S3 kann mehrteilige Uploads von Objekten im Ziel-Bucket nicht abschließen. Möglicherweise fehlt die `s3:ReplicateObject`-Berechtigung für den Ziel-Bucket. | 
| `DstMultipartInitNotPermitted` | Amazon S3 kann mehrteilige Uploads von Objekten in den Ziel-Bucket nicht initiieren. Möglicherweise fehlt die `s3:ReplicateObject`-Berechtigung für den Ziel-Bucket.  | 
| `DstMultipartUploadNotPermitted` | Amazon S3 kann keine mehrteiligen Upload-Objekte in den Ziel-Bucket hochladen. Möglicherweise fehlt die `s3:ReplicateObject`-Berechtigung für den Ziel-Bucket.  | 
| `DstObjectHardDeleted` | Die S3-Batchreplikation unterstützt nicht das erneute Replizieren von Objekten, die mit der Versions-ID des Objekts aus dem Ziel-Bucket gelöscht wurden. Dieser Fehler ist spezifisch für die Batchreplikation. | 
| `DstPutAclNotPermitted` | Amazon S3 ist nicht in der Lage, Objektzugriffskontrolllisten (ACLs) in den Ziel-Bucket zu replizieren. Möglicherweise fehlt die `s3:ReplicateObject`-Berechtigung für den Ziel-Bucket. | 
| `DstPutLegalHoldNotPermitted` | Amazon S3 kann keine Object Lock aufgrund gesetzlicher Aufbewahrungsfristen für die Zielobjekte festlegen, während unveränderliche Objekte repliziert werden. Möglicherweise fehlt die `s3:PutObjectLegalHold`-Berechtigung für den Ziel-Bucket. Weitere Informationen finden Sie unter [Rechtliche Aufbewahrungsfristen](object-lock.md#object-lock-legal-holds). | 
|  `DstPutObjectNotPermitted` | Amazon S3 kann Objekte nicht in den angegebenen Ziel-Bucket replizieren. Dies kann der Fall sein, wenn die erforderlichen Berechtigungen (`s3:ReplicateObject`oder `s3:ObjectOwnerOverrideToBucketOwner` Berechtigungen) für den Ziel-Bucket fehlen oder wenn die AWS KMS Schlüsselrichtlinie es der Replikationsrolle des Quell-Buckets nicht erlaubt, den AWS KMS Schlüssel (`kms:Decrypt`und die `kms:GenerateDataKey*` Aktionen) im Ziel-Bucket zu verwenden.  | 
|  `DstPutRetentionNotPermitted` | Amazon S3 kann bei der Replikation unveränderlicher Objekte keine Aufbewahrungsfrist für die Zielobjekte festlegen. Möglicherweise fehlt die `s3:PutObjectRetention`-Berechtigung für den Ziel-Bucket. | 
| `DstPutTaggingNotPermitted` | Amazon S3 kann Objekt-Tags nicht in den angegebenen Ziel-Bucket replizieren. Möglicherweise fehlt die `s3:ReplicateObject`-Berechtigung für den Ziel-Bucket. | 
| `DstVersionNotFound ` | Amazon S3 kann die erforderliche Objektversion im Ziel-Bucket nicht finden, für den Metadaten repliziert werden müssen.  | 
| `InitiateReplicationNotPermitted` | Amazon S3 kann keine Replikation für Objekte initiieren. Möglicherweise fehlt die `s3:InitiateReplication`-Berechtigung für den Batch-Operationsauftrag. Dieser Fehler ist spezifisch für die Batchreplikation. | 
| `SrcBucketInvalidRegion` | Der Quell-Bucket befindet sich nicht in demselben AWS-Region Bucket, der im Batch Operations-Job angegeben wurde. Dieser Fehler ist spezifisch für die Batchreplikation. | 
| `SrcBucketNotFound` | Amazon S3 kann den Quell-Bucket nicht finden. | 
| `SrcBucketReplicationConfigMissing` | Amazon S3 konnte keine Replikationskonfiguration für den Quell-Bucket finden. | 
| `SrcGetAclNotPermitted` |  Amazon S3 kann nicht auf das Objekt im Quell-Bucket für die Replikation zugreifen. Möglicherweise fehlt die `s3:GetObjectVersionAcl`-Berechtigung für das Quell-Bucket-Objekt. Die Objekte im Quell-Bucket müssen sich im Besitz des Bucket-Eigentümers befinden. Wenn aktiviert ACLs sind, überprüfen Sie, ob „Objekteigentum“ auf „Bucket-Besitzer bevorzugt“ oder „Objekt-Writer“ gesetzt ist. Wenn die Objekteigentümerschaft auf Bucket-Eigentümer bevorzugt festgelegt ist, müssen die Quell-Bucket-Objekte über die ACL `bucket-owner-full-control` verfügen, damit der Bucket-Eigentümer zum Objekteigentümer wird. Das Quellkonto kann das Eigentum an allen Objekten in seinem Bucket übernehmen, indem die Option Objekteigentum auf Bucket owner erforced gesetzt und deaktiviert wird ACLs.  | 
| `SrcGetLegalHoldNotPermitted` | Amazon S3 kann nicht auf die Informationen zur gesetzlichen Aufbewahrung von S3 Object Lock zugreifen. | 
| `SrcGetObjectNotPermitted` | Amazon S3 kann nicht auf das Objekt im Quell-Bucket für die Replikation zugreifen. Möglicherweise fehlt die `s3:GetObjectVersionForReplication`-Berechtigung für den Quell-Bucket.  | 
| `SrcGetRetentionNotPermitted` | Amazon S3 kann nicht auf die Informationen zum Aufbewahrungszeitraum von S3 Object Lock zugreifen. | 
| `SrcGetTaggingNotPermitted` | Amazon S3 kann nicht auf Objekt-Tag-Informationen aus dem Quell-Bucket zugreifen. Möglicherweise fehlt die `s3:GetObjectVersionTagging`-Berechtigung für den Quell-Bucket. | 
| `SrcHeadObjectNotPermitted` | Amazon S3 kann keine Objektmetadaten aus dem Quell-Bucket abrufen. Möglicherweise fehlt die `s3:GetObjectVersionForReplication`-Berechtigung für den Quell-Bucket.  | 
| `SrcKeyNotFound` | Amazon S3 kann den Quellobjektschlüssel für die Replikation nicht finden. Das Quellobjekt wurde möglicherweise gelöscht, bevor die Replikation abgeschlossen war. | 
| `SrcKmsKeyInvalidState` | Der AWS KMS Schlüssel für den Quell-Bucket hat keinen gültigen Status. Überprüfen und aktivieren Sie den erforderlichen AWS KMS Schlüssel. Weitere Informationen zur Verwaltung von AWS KMS Schlüsseln finden Sie unter [Schlüsselstatus von AWS KMS Schlüsseln](https://docs.aws.amazon.com/kms/latest/developerguide/key-state.html) im *AWS Key Management Service Entwicklerhandbuch*. | 
| `SrcObjectNotEligible` | Einige Objekte kommen nicht für die Replikation infrage. Dies kann an der Speicherklasse des Objekts liegen oder daran, dass die Objekt-Tags nicht mit der Replikationskonfiguration übereinstimmen. | 
| `SrcObjectNotFound` | Das Quellobjekt ist nicht vorhanden. | 
| `SrcReplicationNotPending` | Amazon S3 hat dieses Objekt bereits repliziert. Für dieses Objekt steht keine Replikation mehr aus. | 
| `SrcVersionNotFound` | Amazon S3 kann den Quellobjektversion für die Replikation nicht finden. Die Quellobjektversion wurde möglicherweise gelöscht, bevor die Replikation abgeschlossen war. | 

### Verwandte Themen
<a name="replication-metrics-related-topics"></a>

[Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md)

[Fehlerbehebung bei einer Replikation](replication-troubleshoot.md)

# Abrufen von Replikationsstatusinformationen
<a name="replication-status"></a>

Der Replikationsstatus hilft Ihnen, den aktuellen Status eines derzeit replizierten Objekts zu bestimmen. Der Replikationsstatus eines Quellobjekts gibt entweder `PENDING`, `COMPLETED` oder `FAILED` zurück. Der Replikationsstatus eines Replikats gibt `REPLICA` zurück.

Sie können Replikationsstatus-Werte auch verwenden, wenn Sie S3-Batch-Replikationsaufträge erstellen. Sie können diese Statuswerte beispielsweise verwenden, um Objekte zu replizieren, die entweder nie repliziert wurden oder bei denen die Replikation fehlgeschlagen ist. Weitere Informationen zur Verwendung dieser Werte mit der Batch-Replikation finden Sie unter [Verwenden von Replikationsstatusinformationen mit Batch-Replikationsaufträgen](#replication-status-batch-replication).

**Topics**
+ [Übersicht über den Replikationsstatus](#replication-status-overview)
+ [Replikationsstatus bei einer Replikation auf mehrere Ziel-Buckets](#replication-status-multiple-destinations)
+ [Replikationsstatus, wenn die Synchronisierung von Amazon-S3-Replikatänderungen aktiviert ist](#replication-status-replica-mod-syn)
+ [Verwenden von Replikationsstatusinformationen mit Batch-Replikationsaufträgen](#replication-status-batch-replication)
+ [Finden des Replikationsstatus](#replication-status-usage)

## Übersicht über den Replikationsstatus
<a name="replication-status-overview"></a>

Bei der Replikation haben Sie einen Quell-Bucket, auf dem die Replikation konfiguriert wird, und einen oder mehrere Ziel-Buckets, in die Amazon S3 Objekte repliziert. Wenn Sie ein Objekt (mit `GetObject`) oder Objektmetadaten (mit `HeadObject`) von diesen Buckets anfordern, gibt Amazon S3 den Header `x-amz-replication-status` wie folgt in der Antwort zurück: 
+ Wenn Sie ein Objekt aus dem Quell-Bucket anfordern, gibt Amazon S3 den Header `x-amz-replication-status` zurück, wenn das Objekt in der Anforderung für die Replikation geeignet ist. 

  Nehmen wir beispielsweise an, dass Sie in Ihrer Replikationskonfiguration das Objektpräfix `TaxDocs` angeben, um Amazon S3 anzuweisen, nur Objekte mit dem Schlüsselnamenpräfix `TaxDocs` zu replizieren. Alle Objekte mit diesem Schlüsselnamenpräfix, die Sie hochladen, z. B. `TaxDocs/document1.pdf`, werden repliziert. Für Objektanforderungen mit diesem Schlüsselnamenpräfix gibt Amazon S3 den Header `x-amz-replication-status` mit einem der folgenden Werte für den Replikationsstatus des Objekts zurück: `PENDING`, `COMPLETED` oder `FAILED`.
**Anmerkung**  
Wenn nach dem Hochladen eines Objekts die Objektreplikation fehlschlägt, können Sie die fehlgeschlagene Replikation nicht erneut durchzuführen versuchen. Sie müssen das Objekt erneut hochladen, oder Sie müssen die S3-Batch-Replikation verwenden, um alle fehlgeschlagenen Objekte zu replizieren. S3 Lifecycle blockiert Ablauf- und Übergangsaktionen für Objekte mit `PENDING` oder ohne `FAILED` Replikationsstatus. Weitere Informationen zur Verwendung der Batch-Replikation finden Sie unter [Replizieren vorhandener Objekte mit der Batch-Replikation](s3-batch-replication-batch.md).   
Objekte werden aufgrund von Problemen wie fehlenden Berechtigungen für Replikationsrollen, AWS Key Management Service (AWS KMS) -Berechtigungen oder Bucket-Berechtigungen in einen bestimmten `FAILED` Status versetzt. Bei temporären Fehlern, z. B. wenn ein Bucket oder eine Region nicht verfügbar ist, geht der Replikationsstatus nicht in `FAILED` über, sondern verbleibt bei `PENDING`. Wenn die Ressource wieder online ist, setzt Amazon S3 die Replikation dieser Objekte fort.
+ Wenn Sie ein Objekt aus einem Ziel-Bucket anfordern und es sich bei dem Objekt Ihrer Anforderung um ein Replikat handelt, das Amazon S3 erstellt hat, gibt Amazon S3 den Header `x-amz-replication-status` mit dem Wert `REPLICA` zurück.

**Anmerkung**  
Bevor Sie ein Objekt aus einem Quell-Bucket löschen, bei dem die Replikation aktiviert ist, sollten Sie den Replikationsstatus des Objekts überprüfen, um sicherzustellen, dass das Objekt repliziert wurde.   
Wenn eine S3-Lifecycle-Konfiguration im Quell-Bucket aktiviert ist, setzt Amazon S3 Lebenszyklusaktionen aus, bis der Replikationsstatus des Objekts als `COMPLETED` markiert wird. Wenn der Replikationsstatus lautet`FAILED`, blockiert S3 Lifecycle weiterhin Ablauf- und Übergangsaktionen für das Objekt, bis Sie das zugrunde liegende Replikationsproblem behoben haben. Weitere Informationen finden Sie unter [S3-Lebenszyklus und](lifecycle-and-other-bucket-config.md#lifecycle-and-replication).

## Replikationsstatus bei einer Replikation auf mehrere Ziel-Buckets
<a name="replication-status-multiple-destinations"></a>

Wenn Sie Objekte in mehrere Ziel-Buckets replizieren, verhält sich der Header `x-amz-replication-status` anders. Der Header des Quellobjekts gibt den Wert `COMPLETED` nur zurück, wenn die Replikation in alle Ziele erfolgreich ist. Der Header bleibt auf dem Wert `PENDING`, bis die Replikation für alle Ziele abgeschlossen ist. Wenn die Replikation bei einem oder mehreren Zielen fehlschlägt, liefert der Header `FAILED`.

## Replikationsstatus, wenn die Synchronisierung von Amazon-S3-Replikatänderungen aktiviert ist
<a name="replication-status-replica-mod-syn"></a>

Wenn in Ihren Replikationsregeln die Synchronisierung von Amazon-S3-Replikatänderungen aktiviert ist, können Replikate einen anderen Status als `REPLICA` melden. Wenn Änderungen an Metadaten gerade repliziert werden, gibt der `x-amz-replication-status`-Header den Wert `PENDING` zurück. Wenn die Synchronisierung der Replikatänderung Metadaten nicht repliziert, gibt der Header `FAILED` zurück. Wenn Metadaten korrekt repliziert werden, geben die Replikate den Header `REPLICA` zurück.

## Verwenden von Replikationsstatusinformationen mit Batch-Replikationsaufträgen
<a name="replication-status-batch-replication"></a>

Wenn Sie einen Batch-Replikationsauftrag erstellen, können Sie optional zusätzliche Filter angeben, z. B. das Erstellungsdatum des Objekts und den Replikationsstatus, um den Umfang des Auftrags zu reduzieren.

Sie können Objekte filtern, die repliziert werden sollen, basierend auf dem `ObjectReplicationStatuses`-Wert, indem Sie einen oder mehrere der folgenden Werte angeben:
+ `"NONE"` – Zeigt an, dass Amazon S3 noch nie versucht hat, das Objekt zu replizieren.
+ `"FAILED"` – Zeigt an, dass Amazon S3 versucht hat, das Objekt zu replizieren, es jedoch zuvor nicht replizieren konnte.
+ `"COMPLETED"` – Zeigt an, dass Amazon S3 das Objekt zuvor erfolgreich repliziert hat.
+ `"REPLICA"` – Zeigt an, dass dies ein Replikatobjekt ist, das Amazon S3 von einer anderen Quelle repliziert hat.

Weitere Informationen zur Verwendung dieser Replikationsstatus-Werte mit der Batch-Replikation finden Sie unter [Filter für einen Batch-Replikationsauftrag](s3-batch-replication-batch.md#batch-replication-filters).

## Finden des Replikationsstatus
<a name="replication-status-usage"></a>

Verwenden Sie das Amazon-S3-Inventory-Tool, um den Replikationsstatus der Objekte in einem Bucket abzurufen. Amazon S3 sendet eine CSV-Datei an den Ziel-Bucket, den Sie in der Bestands-Konfiguration angeben. Sie können auch Amazon Athena verwenden, um den Replikationsstatus im Bestandsbericht abzufragen. Weitere Informationen zu Amazon S3 Inventory finden Sie unter [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md).

Sie können den Status der Objektreplikation auch mithilfe der Amazon S3 S3-Konsole, des AWS Command Line Interface (AWS CLI) oder des AWS SDK ermitteln. 

### Verwenden der S3-Konsole
<a name="replication-status-console"></a>

In der Amazon-S3-Konsole können Sie den Replikationsstatus für ein Objekt auf seiner Detailseite anzeigen.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste der **Allzweck-Buckets** den Namen des Quell-Buckets der Replikation aus.

1. Wählen Sie in der Liste **Objekte** den Objektnamen aus. Die Seite mit den Objektdetails wird angezeigt. 

1. Scrollen Sie auf der Registerkarte **Properties (Eigenschaften)** nach unten zum Abschnitt **Object management overview (Objektverwaltung – Übersicht)**. Beachten Sie unter **Management configurations (Verwaltungskonfigurationen)** den Wert unter **Replication status (Replikationsstatus)**.

### Verwenden Sie den AWS CLI
<a name="replication-status-cli"></a>

Verwenden Sie den `head-object` Befehl AWS Command Line Interface (AWS CLI), um Objektmetadaten abzurufen, wie im folgenden Beispiel gezeigt. Ersetzen Sie den `amzn-s3-demo-source-bucket1` durch den Namen Ihres Quell-Buckets der Replikation und die anderen `user input placeholders` durch Ihre eigenen Informationen.

```
aws s3api head-object --bucket amzn-s3-demo-source-bucket1 --key object-key --version-id object-version-id           
```

Der Befehl gibt Informationen zu Objektmetadaten, einschließlich des `ReplicationStatus`, zurück, wie in der folgenden Beispielantwort dargestellt:

```
{
   "AcceptRanges":"bytes",
   "ContentType":"image/jpeg",
   "LastModified":"Mon, 23 Mar 2015 21:02:29 GMT",
   "ContentLength":3191,
   "ReplicationStatus":"COMPLETED",
   "VersionId":"jfnW.HIMOfYiD_9rGbSkmroXsFj3fqZ.",
   "ETag":"\"6805f2cfc46c0f04559748bb039d69ae\"",
   "Metadata":{

   }
}
```

### Verwenden Sie den AWS SDKs
<a name="replication-status-sdk"></a>

Die folgenden Codefragmente ermitteln Ihren Replikationsstatus mithilfe von AWS SDK für Java und AWS SDK für .NET. 

------
#### [ Java ]

```
GetObjectMetadataRequest metadataRequest = new GetObjectMetadataRequest(bucketName, key);
ObjectMetadata metadata = s3Client.getObjectMetadata(metadataRequest);

System.out.println("Replication Status : " + metadata.getRawMetadataValue(Headers.OBJECT_REPLICATION_STATUS));
```

------
#### [ .NET ]

```
GetObjectMetadataRequest getmetadataRequest = new GetObjectMetadataRequest
    {
         BucketName = sourceBucket,
         Key        = objectKey
    };

GetObjectMetadataResponse getmetadataResponse = client.GetObjectMetadata(getmetadataRequest);
Console.WriteLine("Object replication status: {0}", getmetadataResponse.ReplicationStatus);
```

------

# Verwalten von Multi-Region-Traffic mit Multi-Region Access Points
<a name="MultiRegionAccessPoints"></a>

Multi-Region Access Points von Amazon S3 stellen einen globalen Endpunkt bereit, über den Anwendungen Anforderungen von S3-Buckets erfüllen können, die sich in mehreren AWS-Regionen befinden. Sie können Multi-Region Access Points verwenden, um Multi-Region-Anwendungen mit derselben Architektur zu erstellen, die in einer einzelnen Region verwendet wird, und diese Anwendungen dann überall auf der Welt ausführen. Anstatt Anforderungen über das überlastete öffentliche Internet zu senden, bieten Multi-Region Access Points integrierte Netzwerkausfallsicherheit mit Beschleunigung internetbasierter Anforderungen an Amazon S3. Anwendungsanforderungen an einen globalen Endpunkt eines Multi-Regions-Zugangspunkts verwenden [AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/), um Traffic automatisch über das globale AWS-Netzwerk an den nächstgelegenen S3-Bucket mit einem aktiven Routing-Status weiterzuleiten.

Wenn der Traffic zwischen den Regionen unterbrochen wird, können Sie die Failover-Kontrollen für Multi-Region Access Points verwenden, um den S3-Datenanforderungs-Traffic zwischen den einzelnen AWS-Regionen zu verlagern und den S3-Traffic innerhalb von Minuten von den Unterbrechungen wegzuleiten. Sie können auch die Widerstandsfähigkeit der Anwendung gegen eine Unterbrechung testen, um einen Anwendungs-Failover durchzuführen und Simulationen für die Notfallwiederherstellung durchzuführen. Wenn Sie Anforderungen an S3 von außerhalb einer VPC verbinden und beschleunigen müssen, können Sie Anwendungen und die Netzwerkarchitektur mit Multi-Region Access Points von Amazon S3 vereinfachen. Ihre Anforderungen von Multi-Region Access Points werden über das globale AWS-Netzwerk weiter- und dann innerhalb der AWS-Region zurück an S3 geleitet, ohne das öffentliche Internet durchqueren zu müssen. Dadurch können Sie Anwendungen mit höherer Verfügbarkeit erstellen.

Beim Erstellen eines Multi-Region Access Point legen Sie eine Gruppe von AWS-Regionen fest, in denen Daten gespeichert werden sollen, die über diesen Multi-Region Access Point bereitgestellt werden sollen. Sie können den Namen des Endpunkts der festgelegten Multi-Region Access Points verwenden, um Ihre Clients zu verbinden. Nachdem Sie Ihre Client-Verbindungen eingerichtet haben, können Sie die vorhandenen oder neuen Buckets auswählen, zwischen denen Sie die Anforderungen der Multi-Region Access Points weiterleiten möchten. Verwenden Sie dann Regeln für die [S3-regionsübergreifende Replikation (CRR)](https://aws.amazon.com/s3/features/replication/), um Daten zwischen Buckets in diesen Regionen zu synchronisieren.

Nachdem Sie Ihren Multi-Region Access Point eingerichtet haben, können Sie Daten über den globalen Endpunkt des Multi-Region Access Point anfordern oder schreiben. Amazon S3 übermittelt Anforderungen automatisch an den replizierten Datensatz aus der nächstgelegenen verfügbaren Region. In der AWS-Managementkonsole haben Sie die Möglichkeit, auch die zugrundeliegende Replikationstopologie und die Replikationsmetriken im Zusammenhang mit Ihren Anforderungen rund um Multi-Region Access Points einzusehen. Auf diese Weise können Sie Speicher für Multi-Regions-Anwendungen noch einfacher erstellen, verwalten und überwachen. Alternativ können Sie Amazon CloudFront verwenden, um die Erstellung und Konfiguration von S3 Multi-Region Access Points zu automatisieren.

Die folgende Abbildung ist eine grafische Darstellung eines Amazon S3 Multi-Region Access Points in einer Aktiv-Aktiv-Konfiguration. Die Grafik zeigt, wie Amazon-S3-Anforderungen automatisch an Buckets in der nächstgelegenen aktiven AWS-Region weitergeleitet werden.

![\[Diagramm, das zeigt, wie Anforderungen über einen Multi-Regions-Zugangspunkt in Amazon S3 weitergeleitet werden.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/MultiRegionAccessPoints.png)


 Die folgende Abbildung ist eine grafische Darstellung eines Amazon S3 Multi-Region Access Points in einer Aktiv-Passiv-Konfiguration. Die Grafik zeigt, wie Sie den Amazon-S3-Datenzugriffsverkehr so steuern können, dass ein Failover zwischen aktiven und passiven AWS-Regionen erfolgt.

![\[Diagramm, das einen Multi-Regions-Zugangspunkt von Amazon S3 in einer Aktiv-Passiv-Konfiguration zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/MultiRegionAccessPointsFailover.png)




**Topics**
+ [Erstellen Multi-Regions-Zugriffspunkten](CreatingMultiRegionAccessPoints.md)
+ [Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink](MultiRegionAccessConfiguration.md)
+ [Stellen von Anforderungen über einen Multi-Region Access Point](MultiRegionAccessPointRequests.md)

# Erstellen Multi-Regions-Zugriffspunkten
<a name="CreatingMultiRegionAccessPoints"></a>

Gehen Sie wie folgt vor, um einen Multi-Region Access Point in Amazon S3 zu erstellen: 
+ Geben Sie den Namen für den Multi-Region Access Point an.
+ Wählen Sie in jedem Bucket AWS-Region , in dem Sie Anfragen für den Multi-Region Access Point bearbeiten möchten, aus.
+ Konfigurieren Sie die Einstellungen für Amazon S3 Block Public Access für den Multi-Region Access Point.

Sie geben alle diese Informationen in einer Erstellungsanforderung an, die Amazon S3 asynchron verarbeitet. Amazon S3 bietet ein Token, mit dem Sie den Status der asynchronen Erstellungsanforderung überwachen können. 

Beheben Sie Sicherheitswarnungen, Fehler, allgemeine Warnungen und Vorschläge von AWS Identity and Access Management Access Analyzer bevor Sie Ihre Richtlinie speichern. IAM Access Analyzer führt Richtlinienprüfungen durch, um Ihre Richtlinie anhand der [IAM-Richtliniengrammatik](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_grammar.html) und der [bewährten Methoden](https://docs.aws.amazon.com/IAM/latest/UserGuide/best-practices.html) zu validieren. Diese Prüfungen generieren Ergebnisse und bieten umsetzbare Empfehlungen, die Sie beim Erstellen von Richtlinien unterstützen, die funktionsfähig sind und den bewährten Methoden für Sicherheit entsprechen. Weitere Informationen zum Validieren von Richtlinien mit IAM Access Analyzer finden Sie unter [Validierung der IAM-Access-Analyzer-Richtlinien](https://docs.aws.amazon.com/IAM/latest/UserGuide/access-analyzer-policy-validation.html) im *IAM-Benutzerhandbuch*. Eine Liste der Warnungen, Fehler und Vorschläge, die von IAM Access Analyzer zurückgegeben werden, finden Sie unter [IAM-Access-Analyzer-Richtlinienprüfungsreferenz](https://docs.aws.amazon.com/IAM/latest/UserGuide/access-analyzer-reference-policy-checks.html).

Wenn Sie die API verwenden, ist die Anforderung zum Erstellen eines Multi-Regions-Zugriffpunkts asynchron. Wenn Sie eine Anforderung zum Erstellen eines Multi-Regions-Zugriffpunkts übermitteln, autorisiert Amazon S3 die Anforderung synchron. Es gibt dann sofort ein Token zurück, mit dem Sie den Fortschritt der Erstellungsanforderung verfolgen können. Weitere Informationen zum Nachverfolgen asynchroner Anforderungen zum Erstellen und Verwalten von Multi-Regions-Zugriffpunkten finden Sie unter [Verwenden von Multi-Region Access Points mit unterstützten API-Operationen](MrapOperations.md). 

Nachdem Sie den Multi-Regions-Zugriffpunkt erstellt haben, können Sie eine Zugriffssteuerungsrichtlinie für diesen erstellen. Jedem Multi-Regions-Zugriffpunkt kann eine Richtlinie zugeordnet sein. Eine Richtlinie für Multi-Region Access Points ist eine ressourcenbasierte Richtlinie, mit der Sie die Verwendung des Multi-Region Access Point nach Ressource, Benutzer oder anderen Bedingungen einschränken können.

**Anmerkung**  
Damit eine Anwendung oder ein Benutzer über einen Multi-Regions Access Point auf ein Objekt zugreifen kann, müssen die folgenden Richtlinien beide die Anforderung zulassen:   
Die Zugriffsrichtlinie für den Multi-Region Access Point
Die Zugriffsrichtlinie für den zugrunde liegenden Bucket, der das Objekt enthält
Wenn die beiden Richtlinien unterschiedlich sind, hat die restriktivere Richtlinie Vorrang.   
Um die Verwaltung von Berechtigungen für Multi-Region Access Points zu vereinfachen, können Sie die Zugriffssteuerung vom Bucket an den Multi-Region Access Point delegieren. Weitere Informationen finden Sie unter [Beispielrichtlinien für Multi-Region Access Points](MultiRegionAccessPointPermissions.md#MultiRegionAccessPointPolicyExamples).

Durch die Verwendung eines Buckets mit einem Multi-Region Access Point ändert sich das Verhalten des Buckets bei Zugriff auf den Bucket über den vorhandenen Bucket-Namen oder einen Amazon-Ressourcennamen (ARN) nicht. Alle vorhandenen Vorgänge für den Bucket funktionieren weiterhin wie zuvor. Einschränkungen, die Sie in eine Multi-Regions-Zugriffspunktrichtlinie einschließen, gelten nur für Anforderungen, die über den Multi-Regions-Zugriffspunkt eingehen. 

Sie können die Richtlinie für einen Multi-Regions-Zugriffpunkt nach dem Erstellen aktualisieren, die Richtlinie jedoch nicht löschen. Sie können jedoch die Richtlinie für Multi-Region Access Points aktualisieren, um alle Berechtigungen zu verweigern. 

**Topics**
+ [Regeln zur Benennung von Amazon S3-Multi-Regions-Zugriffspunkten](multi-region-access-point-naming.md)
+ [Regeln für die Auswahl von Buckets für Amazon S3-Multi-Regions-Zugriffspunkte](multi-region-access-point-buckets.md)
+ [Erstellen eines Amazon S3-Multi-Region Access Point](multi-region-access-point-create-examples.md)
+ [Blockieren des öffentlichen Zugriffs mit Amazon S3-Multi-Regions-Zugriffspunkten](multi-region-access-point-block-public-access.md)
+ [Anzeigen der Konfigurationsdetails für Amazon S3 Multi-Region Access Points](multi-region-access-point-view-examples.md)
+ [Löschen eines Multi-Region Access Point](multi-region-access-point-delete-examples.md)

# Regeln zur Benennung von Amazon S3-Multi-Regions-Zugriffspunkten
<a name="multi-region-access-point-naming"></a>

Wenn Sie einen Multi-Regions-Zugriffpunkt erstellen, geben Sie ihm einen Namen, bei dem es sich um eine von Ihnen ausgewählte Zeichenfolge handelt. Sie können den Namen des Multi-Regions-Zugriffspunkts nach der Erstellung nicht mehr ändern. Der Name muss in Ihrem AWS-Konto einzigartig sein, und es muss den Namensanforderungen entsprechen, die in [Einschränkungen und Beschränkungen des Multi-Regions-Zugriffspunkts](MultiRegionAccessPointRestrictions.md) aufgelistet sind. Wenn Sie den Multi-Regions-Zugriffpunkt identifizieren möchten, verwenden Sie einen Namen, der für Sie oder Ihre Organisation aussagekräftig ist oder der das Szenario widerspiegelt. 

Sie verwenden diesen Namen beim Aufrufen von Sie verwenden diesen Namen, wenn Sie Verwaltungsvorgänge für Multi-Regions-Zugriffpunkten, z. B. `GetMultiRegionAccessPoint` und `PutMultiRegionAccessPointPolicy`. Der Name wird nicht verwendet, um Anforderungen an den Multi-Region Access Point zu senden, und er muss Clients, die Anforderungen unter Verwendung des Multi-Region Access Point stellen, nicht offengelegt werden. 

Wenn Amazon S3 einen Multi-Regions-Zugriffpunkt erstellt, weist er ihm automatisch einen Alias zu. Dieser Alias ist eine eindeutige alphanumerische Zeichenfolge, die mit `.mrap` endet. Der Alias wird verwendet, um den Hostnamen und den Amazon-Ressourcennamen (ARN) für einen Multi-Regions-Zugriffspunkt zu erstellen. Der vollqualifizierte Name basiert auch auf dem Alias für den Multi-Regions-Zugriffpunkt.

Sie können den Namen eines Multi-Regions-Zugriffspunkts nicht anhand seines Alias ermitteln, sodass Sie einen Alias offenlegen können, ohne den Namen, den Zweck oder den Besitzer des Multi-Regions-Zugriffspunkts zu enthüllen. Amazon S3 wählt den Alias für jeden neuen Multi-Regions-Zugriffspunkt aus, und der Alias kann nicht geändert werden. Weitere Informationen zur Adressierung eines Multi-Regions-Zugriffspunkts finden Sie unter [Stellen von Anforderungen über einen Multi-Region Access Point](MultiRegionAccessPointRequests.md). 

Multi-Regions-Zugriffspunkt-Aliase sind im Laufe der Zeit eindeutig und basieren nicht auf dem Namen oder der Konfiguration eines Multi-Regions-Zugriffspunkts. Wenn Sie einen Multi-Regions-Zugriffspunkt erstellen, ihn dann löschen und einen anderen mit demselben Namen und derselben Konfiguration erstellen, hat der zweite Multi-Regions-Zugriffspunkt einen anderen Alias als der erste. Neue Multi-Regions-Zugriffspunkte können nie denselben Alias wie ein vorheriger Multi-Regions-Zugriffspunkt haben.

# Regeln für die Auswahl von Buckets für Amazon S3-Multi-Regions-Zugriffspunkte
<a name="multi-region-access-point-buckets"></a>

Jeder Multi-Regions-Zugriffspunkt ist den Regionen zugeordnet, in denen Sie Anforderungen erfüllen möchten. Der Multi-Regions-Zugriffspunkt muss genau einem Bucket in jeder dieser Regionen zugeordnet sein. Sie geben den Namen jedes Buckets in der Anforderung an, um den Multi-Regions-Zugriffspunkts zu erstellen. Buckets, die den Multi-Region-Access Point unterstützen, können sich entweder in demselben Bereich befinden AWS-Konto , dem auch der Multi-Region-Access Point gehört, oder sie können sich in einem anderen befinden. AWS-Konten

 Ein einzelner Bucket kann von mehreren Multi-Regions-Zugriffspunkten verwendet werden. 

**Wichtig**  
Sie können die Buckets, die einem Multi-Regions-Zugriffspunkt zugeordnet sind, nur zum Zeitpunkt seiner Erstellung angeben. Nach der Erstellung können Sie keine Buckets hinzufügen, ändern oder aus der Konfiguration des Multi-Regions-Zugriffspunkts entfernen. Um die Buckets zu ändern, müssen Sie den gesamten Multi-Regions-Zugriffspunkt löschen und einen neuen erstellen. 
Sie können einen Bucket, der Teil eines Multi-Regions-Zugriffspunkts ist, nicht löschen. Wenn Sie einen Bucket löschen möchten, der einem Multi-Region Access Point zugeordnet ist, löschen Sie zuerst den Multi-Region Access Point. 
Wenn Sie Ihrem Multi-Region Access Point einen Bucket hinzufügen, dessen Eigentümer ein anderes Konto ist, muss der Bucket-Eigentümer ebenfalls seine Bucket-Richtlinie aktualisieren, um Zugriffsberechtigungen für den Multi-Region Access Point zu gewähren. Andernfalls kann der Multi-Region Access Point keine Daten aus diesem Bucket abrufen. Beispielrichtlinien, die zeigen, wie ein solcher Zugriff gewährt wird, finden Sie unter [Beispielrichtlinien für Multi-Region Access Points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointPermissions.html#MultiRegionAccessPointPolicyExamples). 
 Nicht alle Regionen unterstützen Multi-Regions-Zugriffspunkte. Eine Liste der unterstützten Regionen finden Sie unter [Einschränkungen und Beschränkungen des Multi-Regions-Zugriffspunkts](MultiRegionAccessPointRestrictions.md). 

Sie können Replikationsregeln erstellen, um Daten zwischen Buckets zu synchronisieren. Mit diesen Regeln können Sie Daten automatisch aus Quell-Buckets in Ziel-Buckets kopieren. Die Verbindung von Buckets mit einem Multi-Regions-Zugriffspunkt hat keinen Einfluss auf die Funktionsweise der Replikation. Das Konfigurieren der Replikation mit Multi-Regions-Zugriffspunkten wird in einem späteren Abschnitt beschrieben.

**Wichtig**  
Wenn Sie eine Anforderung an einen Multi-Region Access Point stellen, kennt der Multi-Region Access Point die Dateninhalte der Buckets in dem Multi-Region Access Point nicht. Daher kann es sein, dass der Bucket, der die Anforderung erhält, die angeforderten Daten nicht enthält. Um konsistente Datensätze in den Amazon-S3-Buckets zu schaffen, die einem Multi-Region Access Point zugeordnet sind, empfehlen wir Ihnen, S3 Cross-Region Replication (CRR, regionsübergreifende Replikation) zu konfigurieren. Weitere Informationen finden Sie unter [Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points](MultiRegionAccessPointBucketReplication.md).

# Erstellen eines Amazon S3-Multi-Region Access Point
<a name="multi-region-access-point-create-examples"></a>

Das folgende Beispiel zeigt, wie ein Multi-Region Access Point über die Amazon-S3-Konsole erstellt werden kann.

## Verwenden der S3-Konsole
<a name="multi-region-access-point-create-console"></a>

**So erstellen Sie einen Multi-Regions-Zugriffspunkt**
**Anmerkung**  
Opt-in-Regionen für Zugangspunkt mit mehreren Regionen werden derzeit in der Amazon-S3-Konsole nicht unterstützt.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie **Multi-Region Access Points erstellen** aus, um mit der Erstellung Ihres Multi-Region Access Point zu beginnen.

1. Geben Sie auf der Seite **Multi-Region Access Point** einen Namen für den Multi-Region Access Point in das Feld **Name des Multi-Region Access Point** ein.

1. Wählen Sie die Buckets aus, die diesem Multi-Region Access Point zugeordnet werden sollen. Sie können Buckets auswählen, die sich in Ihrem Konto befinden, oder Sie können Buckets aus anderen Konten auswählen.
**Anmerkung**  
Sie müssen mindestens einen Bucket aus Ihrem Konto oder anderen Konten hinzufügen. Beachten Sie außerdem, dass Multi-Region-Access Points nur einen Bucket pro AWS-Region unterstützen. Daher können Sie nicht zwei Buckets aus derselben Region hinzufügen. [AWS-Regionen , die standardmäßig deaktiviert sind](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html), werden nicht unterstützt.
   + Um einen Bucket hinzuzufügen, der sich in Ihrem Konto befindet, wählen Sie **Hinzufügen von Buckets** aus. Es wird eine Liste aller Buckets in Ihrem Konto angezeigt. Sie können nach Ihrem Bucket anhand des Namens suchen oder die Bucket-Namen in alphabetischer Reihenfolge sortieren.
   + Um einen Bucket aus einem anderen Konto hinzuzufügen, wählen Sie **Bucket aus einem anderen Konto hinzufügen** aus. Stellen Sie sicher, dass Sie den genauen Namen und die AWS-Konto ID des Buckets kennen, da Sie in anderen Konten nicht nach Buckets suchen oder danach suchen können.
**Anmerkung**  
Sie müssen eine gültige AWS-Konto ID und einen gültigen Bucket-Namen eingeben. Der Bucket muss sich auch in einer unterstützten Region befinden, andernfalls tritt ein Fehler auf, wenn Sie versuchen, Ihren Multi-Region Access Point zu erstellen. Eine Liste der Regionen, die Multi-Region Access Points unterstützen, finden Sie unter [Einschränkungen und Beschränkungen von Multi-Region Access Points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html).

1. (Optional) Wenn Sie einen hinzugefügten Bucket entfernen müssen, wählen Sie **Entfernen** aus.
**Anmerkung**  
Nach dem Erstellen des Multi-Region Access Point können Sie diesem keine Buckets hinzufügen und keine Buckets daraus entfernen.

1. Wählen Sie unter **Block Public Access settings for this Multi-Region Access Point (Einstellungen für die Sperrung des öffentlichen Zugriffs für diesen Multi-Regions-Zugriffspunkt)** die Einstellungen für die Sperrung des öffentlichen Zugriffs, die Sie für den Multi-Regions-Zugriffspunkt anwenden möchten. Alle Block-Einstellungen des öffentlichen Zugriffs sind standardmäßig für neue Multi-Regions-Zugriffspunkte aktiviert. Es wird empfohlen, alle Einstellungen aktiviert zu lassen, es sei denn, Sie wissen, dass Sie eine bestimmte Notwendigkeit haben, eine von ihnen zu deaktivieren.
**Anmerkung**  
Nach dem Erstellen eines Multi-Region Access Point können Sie die Block-Public-Access-Einstellungen für den Multi-Region Access Point nicht mehr ändern. Wenn Sie den öffentlichen Zugriff blockieren möchten, stellen Sie daher sicher, dass Ihre Anwendungen ohne öffentlichen Zugriff ordnungsgemäß funktionieren, bevor Sie einen Multi-Region Access Point erstellen.

1. Wählen Sie **Multi-Regions-Zugriffspunkt erstellen**.

**Wichtig**  
Wenn Sie Ihrem Multi-Region Access Point einen Bucket hinzufügen, dessen Eigentümer ein anderes Konto ist, muss der Bucket-Eigentümer auch seine Bucket-Richtlinie aktualisieren, um Zugriffsberechtigungen für den Multi-Region Access Point zu gewähren. Andernfalls kann der Multi-Region Access Point keine Daten aus diesem Bucket abrufen. Beispielrichtlinien, die zeigen, wie ein solcher Zugriff gewährt wird, finden Sie unter [Beispielrichtlinien für Multi-Region Access Points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointPermissions.html#MultiRegionAccessPointPolicyExamples).

## Mit dem AWS CLI
<a name="multi-region-access-point-create-cli"></a>

Sie können den verwenden AWS CLI , um einen Access Point für mehrere Regionen zu erstellen. Beim Erstellen des Multi-Region Access Point müssen Sie alle Buckets bereitstellen, die dieser unterstützen soll. Sie können dem Multi-Region Access Point nach der Erstellung keine Buckets hinzuzufügen. 

 Im folgenden Beispiel wird ein Multi-Region Access Point mit zwei Buckets über die AWS CLI erstellt. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

**Anmerkung**  
Um einen Zugangspunkt mit mehreren Regionen mithilfe von Buckets in einer Opt-in-Region zu erstellen, stellen Sie sicher, dass Sie zuerst alle Opt-in-Regionen [aktivieren](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html). Andernfalls erhalten Sie eine `403 InvalidRegion`-Fehlermeldung, wenn Sie versuchen, einen Zugangspunkt mit mehreren Regionen mithilfe von Buckets für eine Opt-in-Region zu erstellen, für die Sie sich nicht angemeldet haben.

```
aws s3control create-multi-region-access-point --account-id 111122223333 --details '{
        "Name": "simple-multiregionaccesspoint-with-two-regions",
        "PublicAccessBlock": {
            "BlockPublicAcls": true,
            "IgnorePublicAcls": true,
            "BlockPublicPolicy": true,
            "RestrictPublicBuckets": true
        },
        "Regions": [
            { "Bucket": "amzn-s3-demo-bucket1" }, 
            { "Bucket": "amzn-s3-demo-bucket2" } 
        ]
    }' --region us-west-2
```

# Blockieren des öffentlichen Zugriffs mit Amazon S3-Multi-Regions-Zugriffspunkten
<a name="multi-region-access-point-block-public-access"></a>

Jeder Multi-Regions-Zugriffspunkt hat verschiedene Block-Einstellungen des öffentlichen Zugriffs in Amazon S3. Diese Einstellungen funktionieren zusammen mit den Einstellungen für den Block Public Access für denjenigen AWS-Konto , der den Multi-Region Access Point und die zugrunde liegenden Buckets besitzt. 

Wenn Amazon S3 eine Anforderung autorisiert, wird die restriktivste Kombination dieser Einstellungen angewendet. Wenn die Block-Public-Access-Einstellungen für eine dieser Ressourcen (das Konto, das Eigentümer des Multi-Region Access Point ist, der zugrunde liegende Bucket oder das Bucket-Eigentümerkonto) den Zugriff für die angeforderte Aktion oder Ressource blockieren, lehnt Amazon S3 die Anforderung ab.

Alle Block-Einstellungen des öffentlichen Zugriffs sind standardmäßig für neue Zugriffspunkte aktiviert, und wir empfehlen Ihnen, alle Einstellungen aktiviert zu lassen, es sei denn, Sie wissen, dass Sie einen bestimmten Wert deaktivieren müssen. Alle Block-Einstellungen des öffentlichen Zugriffs sind standardmäßig für Multi-Regions-Zugriffspunkte aktiviert. Wenn Block Public Access aktiviert ist, kann der Multi-Region Access Point keine internetbasierten Anforderungen annehmen.

**Wichtig**  
Nach dem Erstellen eines Multi-Region Access Point können Sie die Block-Public-Access-Einstellungen für den Access Point nicht mehr ändern. 

 Weitere Informationen über Block Public Access in Amazon S3 finden Sie unter [Blockieren des öffentlichen Zugriffs auf Ihren Amazon-S3-Speicher](access-control-block-public-access.md). 

# Anzeigen der Konfigurationsdetails für Amazon S3 Multi-Region Access Points
<a name="multi-region-access-point-view-examples"></a>

Das folgende Beispiel zeigt, wie Konfigurationsdetails für einen Multi-Region Access Point über die Amazon-S3-Konsole angezeigt werden können. 

## Verwenden der S3-Konsole
<a name="multi-region-access-point-view-console"></a>

**So erstellen Sie einen Multi-Regions-Zugriffspunkt**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen des Multi-Region Access Point aus, dessen Konfigurationsdetails Sie anzeigen möchten.
   + Auf der Registerkarte **Eigenschaften** sind alle Ihrem Multi-Region-Access Point zugeordneten Buckets, das Erstellungsdatum, der Amazon-Ressourcenname (ARN) und der Alias aufgeführt. In der Spalte für die AWS-Konto -ID sind auch alle Buckets aufgeführt, deren Eigentümer externe Konten sind und die Ihrem Multi-Region-Access Point zugeordnet sind.
   + Auf der Registerkarte **Berechtigungen** sind die Block-Public-Access-Einstellungen aufgeführt, die für die diesem Multi-Regions-Zugriffspunkt zugeordneten Buckets gelten. Sie können sich die Richtlinie für Multi-Region Access Points für Ihren Multi-Region Access Point auch ansehen, falls Sie eine erstellt haben. In der **Info**-Warnung auf der Seite **Berechtigungen** sind außerdem alle Buckets (in Ihrem Konto und anderen Konten) für diesen Multi-Region Access Point aufgeführt, für die die Einstellung **Öffentlicher Zugriff ist blockiert** aktiviert ist.
   + Die Registerkarte **Replikation und Failover** bietet eine Kartenansicht der Buckets, die Ihrem Multi-Region Access Point zugeordnet sind, sowie der Regionen, in denen sich die Buckets befinden. Wenn es Buckets von einem anderen Konto gibt, für das Sie keine Berechtigung zum Abrufen von Daten haben, ist die Region in der **Replikationsübersicht** rot markiert, um darauf hinzuweisen, dass es sich um eine **AWS-Region handelt, bei der Fehler beim Abrufen des Replikationsstatus aufgetreten sind**.
**Anmerkung**  
Um Informationen zum Replikationsstatus aus einem Bucket in einem externen Konto abzurufen, muss Ihnen der Bucket-Eigentümer in seiner Bucket-Richtlinie die Berechtigung `s3:GetBucketReplication` erteilen.

     Auf dieser Registerkarte sind auch die Replikationsmetriken, Replikationsregeln und Failover-Status für die Regionen aufgeführt, die mit Ihrem Multi-Region Access Point verwendet werden.

## Verwenden Sie den AWS CLI
<a name="multi-region-access-point-view-cli"></a>

 Sie können den verwenden AWS CLI , um die Konfigurationsdetails für einen Access Point mit mehreren Regionen anzuzeigen.

Im folgenden AWS CLI Beispiel wird Ihre aktuelle Multi-Region-Access Point-Konfiguration abgerufen. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control get-multi-region-access-point --account-id 111122223333 --name amzn-s3-demo-bucket
```

# Löschen eines Multi-Region Access Point
<a name="multi-region-access-point-delete-examples"></a>

Das folgende Verfahren zeigt, wie ein Multi-Region Access Point über die Amazon-S3-Konsole gelöscht werden kann. Beachten Sie, dass beim Löschen eines Zugangspunkt mit mehreren Regionen die dem Zugangspunkt mit mehreren Regionen zugeordneten Buckets nicht gelöscht werden. Stattdessen wird nur der Zugangspunkt mit mehreren Regionen selbst gelöscht.

**Anmerkung**  
S3 Multiregion Access Points, die Buckets in AWS Opt-in-Regionen verwenden, werden derzeit nur über AWS SDKs und die CLI unterstützt. AWS Um einen Access Point mit mehreren Regionen zu löschen, der Buckets in einer Opt-in-Region verwendet, stellen Sie sicher, dass Sie zuerst angeben, welche AWS Opt-in-Regionen Ihr Konto verwenden kann. Andernfalls erhalten Sie eine Fehlermeldung, wenn Sie versuchen, einen multiregionalen Access Point zu löschen, der Buckets in deaktivierten AWS Opt-in-Regionen verwendet.

## Verwenden der S3-Konsole
<a name="multi-region-access-point-delete-console"></a>

**So löschen Sie einen Multi-Region Access Point**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie das Optionsfeld neben dem Namen Ihres Multi-Region Access Point aus.

1. Wählen Sie **Löschen** aus.

1. Geben **Sie im Dialogfeld „Multi-Region Access Point löschen**“ den Namen des AWS Buckets ein, den Sie löschen möchten.
**Anmerkung**  
Stellen Sie sicher, dass Sie einen gültigen Bucket-Namen eingeben. Andernfalls wird die Schaltfläche **Löschen** deaktiviert.

1. Wählen Sie **Löschen** aus, um zu bestätigen, dass Sie Ihren Multi-Region Access Point tatsächlich löschen möchten.

## Verwenden Sie den AWS CLI
<a name="multi-region-access-point-delete-cli"></a>

Sie können den verwenden AWS CLI , um einen Access Point mit mehreren Regionen zu löschen. Durch diese Aktion werden die dem Multi-Region Access Point zugeordneten Buckets nicht gelöscht, nur der Multi-Region Access Point selbst. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control delete-multi-region-access-point --account-id 123456789012 --details Name=example-multi-region-access-point-name
```

# Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink
<a name="MultiRegionAccessConfiguration"></a>

Sie können Multi-Region Access Points verwenden, um Amazon-S3-Anforderungsdatenverkehr zwischen AWS-Regionen weiterzuleiten. Jeder globale Endpunkt von Multi-Region Access Points leitet den Amazon-S3-Datenanforderungsverkehr aus mehreren Quellen weiter, ohne dass Sie komplexe Netzwerkkonfigurationen mit separaten Endpunkten erstellen müssen. Zu diesen Quellen des Datenanforderungsverkehrs gehören:
+ Datenverkehr aus einer Virtual Private Cloud (VPC)
+ Datenverkehr von lokalen Rechenzentren wird über AWS PrivateLink 
+ Datenverkehr aus dem öffentlichen Internet

Wenn Sie eine AWS PrivateLink Verbindung zu einem S3-Zugriffspunkt mit mehreren Regionen herstellen, können Sie mithilfe einer einfachen Netzwerkarchitektur und -konfiguration S3-Anfragen über eine private Verbindung an oder über mehrere AWS-Regionen Verbindungen weiterleiten. AWS Wenn Sie verwenden AWS PrivateLink, müssen Sie keine VPC-Peering-Verbindung konfigurieren.

**Topics**
+ [Konfigurieren der Opt-in-Regionen für multiregionale Zugangspunkte](ConfiguringMrapOptInRegions.md)
+ [Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md)
+ [Entfernen des Zugriffs auf einen Multi-Region Access Point von einem VPC-Endpunkt](RemovingMultiRegionAccessPointAccess.md)

# Konfigurieren der Opt-in-Regionen für multiregionale Zugangspunkte
<a name="ConfiguringMrapOptInRegions"></a>

Eine AWS Opt-in-Region ist eine Region, die in Ihrem AWS Konto standardmäßig nicht aktiviert ist. Im Gegensatz dazu werden Regionen, die standardmäßig aktiviert sind, als AWS-Regionen kommerzielle Regionen bezeichnet.

Um mit der Nutzung von Multi-Region-Access Points in AWS Opt-in-Regionen zu beginnen, müssen Sie die Opt-in-Region für Ihr AWS Konto manuell aktivieren, bevor Sie Ihren Multi-Region-Access Point erstellen. Nachdem Sie die Opt-in-Region aktiviert haben, können Sie multiregionale Zugangspunkte mit Buckets in der ausgewählten Opt-in-Region erstellen. Anweisungen zum Aktivieren oder Deaktivieren einer Opt-in-Region für Ihr AWS Konto oder Ihre AWS Organisation finden Sie unter [Aktivieren oder Deaktivieren einer Region für eigenständige Konten](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone) oder [Aktivieren oder Deaktivieren einer](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-organization) Region in Ihrer Organisation.

**Anmerkung**  
Opt-in-Regionen für Access Points mit mehreren Regionen werden derzeit nur über und unterstützt. AWS SDKs AWS CLI

 S3-Access Points mit mehreren Regionen unterstützen die folgenden AWS Opt-in-Regionen:
+ `Africa (Cape Town)`
+ `Asia Pacific (Hong Kong)`
+ `Asia Pacific (Jakarta)`
+ `Asia Pacific (Melbourne)`
+ `Asia Pacific (Hyderabad)`
+ `Canada West (Calgary)`
+ `Europe (Zurich)`
+ `Europe (Milan)`
+ `Europe (Spain)`
+ `Israel (Tel Aviv)`
+ `Middle East (Bahrain)`
+ `Middle East (UAE)`

**Anmerkung**  
Für die Aktivierung einer Opt-In-Region fallen keine zusätzlichen Kosten an. Bei der Erstellung oder Nutzung einer Ressource in einem multiregionalen Zugangspunkt fallen jedoch Abrechnungsgebühren an.

## Verwendung eines Access Points mit mehreren Regionen in einer Opt-in-Region AWS
<a name="UsingMrapOptInRegions"></a>

Um einen [Datenebenenvorgang](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MrapOperations.html) auf Ihrem Multi-Region-Access Point durchzuführen, müssen alle zugehörigen AWS Konten die Opt-in-Regionen aktivieren, die Teil des Multi-Region-Access Points sind. Diese Anforderung gilt für das Konto des Anforderers, den Besitzer des multiregionale Zugangspunkts, Besitzer von S3-Buckets und den Besitzer des VPC-Endpunkts. Wenn eines dieser Konten keine Opt-in-Regionen für AWS aktiviert, schlagen die Anfragen für multiregionale Zugangspunkte fehl. Weitere Informationen zu den `InvalidToken`- oder `AllAccessDisabled`-Fehlern finden Sie unter [Liste der Fehlercodes](https://docs.aws.amazon.com/AmazonS3/latest/API/ErrorResponses.html#ErrorCodeList).

**Anmerkung**  
[Vorgänge auf Steuerebene](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MrapOperations.html), wie z. B. die Aktualisierung Ihrer Richtlinie für multiregionale Zugangspunkte oder die Aktualisierung Ihrer Failover-Konfiguration, werden nicht durch den Status einer Region beeinflusst, die Teil Ihres multiregionalen Zugangspunkts ist. Sie müssen auch keine aktiven Opt-in-Regionen deaktivieren, bevor Sie einen multiregionalen Zugangspunkt löschen.

## Deaktivierung einer aktiven Opt-In-Region AWS
<a name="DisablingMrapOptInRegions"></a>

Wenn Sie die Opt-in-Region deaktivieren, die Teil Ihres multiregionalen Zugangspunkts ist, führen Anfragen, die an diese Region weitergeleitet werden, zu einem `403 AllAccessDisabled`-Fehler. Um eine Opt-in-Region sicher zu deaktivieren, empfehlen wir Ihnen, zunächst eine alternative Region in Ihrer Konfiguration für multiregionale Zugangspunkte zu identifizieren, in die der Datenverkehr weitergeleitet werden soll. Anschließend können Sie die Failover-Steuerung für mehrere Regionen verwenden, um die alternative Region als aktiv und die Region, die deaktiviert werden soll, als passiv zu markieren. Nachdem Sie die Failover-Steuerelemente geändert haben, können Sie die Region deaktivieren, für die Sie sich abmelden möchten.

## Aktivierung einer zuvor deaktivierten AWS Opt-In-Region
<a name="EnablingDisabledMrapOptInRegions"></a>

Um eine AWS Opt-in-Region zu aktivieren, die zuvor für Ihren Multi-Region-Access Point deaktiviert war, müssen Sie Ihre AWS Kontoeinstellungen aktualisieren. Nachdem Sie die Opt-in-Region wieder aktiviert haben, führen Sie den [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html)-API-Vorgang aus, um die Richtlinie für multiregionale Zugangspunkte auf die Opt-in-Region anzuwenden.

Wenn auf Ihren Multiregion Access Point über einen VPC-Endpunkt zugegriffen wird, empfehlen wir Ihnen, Ihre VPCE-Richtlinie zu aktualisieren und den [ModifyVpcEndpoint](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_ModifyVpcEndpoint.html)API-Vorgang zu verwenden, um die aktualisierte VPC-Endpunktrichtlinie auf die erneut aktivierte Opt-in-Region anzuwenden.

## Richtlinie für Access Points für mehrere Regionen und mehrere Konten AWS
<a name="UsingMrapPolicyOptInRegions"></a>

Wenn Ihre Richtlinie für multiregionale Access Points den Zugriff auf mehrere AWS Konten gewährt, müssen alle Konten von Anfragenden in ihren Kontoeinstellungen dieselben Opt-in-Regionen aktivieren. Wenn das Konto des Anforderers eine Anforderung für multiregionale Zugangspunkte stellt, ohne die Opt-In-Regionen zu aktivieren, die Teil des multiregionalen Zugangspunkts sind, führt dies zu einem `400 InvalidToken`-Fehler.

## AWS Überlegungen zur Opt-in-Region
<a name="MrapOptInRegionsConsiderations"></a>

Wenn Sie von einer Opt-in-Region aus auf einen multiregionalen Zugangspunkt zugreifen, sollten Sie Folgendes beachten:
+ Wenn Sie eine Opt-in-Region aktivieren, können Sie mithilfe der Buckets aus der Opt-in-Region einen multiregionalen Zugangspunkt erstellen. Wenn Sie eine Opt-in-Region deaktivieren, wird der multiregionale Zugangspunkt in der Opt-in-Region nicht mehr unterstützt. Wenn Sie nicht mehr möchten, dass eine Opt-in-Region für Ihren multiregionalen Zugangspunkt aktiviert ist, stellen Sie sicher, dass Sie zuerst [die Region für Ihr Konto deaktivieren](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone). Erstellen Sie anschließend einen neuen multiregionale Zugangspunkt mit Ihrer bevorzugten Liste von Opt-In-Regionen.
+ Wenn Sie versuchen, Ihren multiregionalen Zugangspunkt mit einer deaktivierten Opt-in-Region zu erstellen, erhalten Sie eine `403 InvalidRegion`-Fehlermeldung. Nachdem Sie die Opt-in-Region aktiviert haben, versuchen Sie erneut, den multiregionalen Zugangspunkt zu erstellen.
+ Die maximale Anzahl unterstützter Regionen für einen multiregionalen Zugangspunkt beträgt 17 Regionen. Dies umfasst sowohl Opt-in-Regionen als auch kommerzielle Regionen. Weitere Informationen finden Sie unter [Einschränkungen und Einschränkungen für multiregionale Zugangspunkte](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html).
+ Anfragen auf Steuerebene für multiregionale Zugangspunkte funktionieren auch dann, wenn Sie sich für keine Region angemeldet haben.
+ Wenn Sie zum ersten Mal versuchen, einen multiregionalen Zugangspunkt zu erstellen, müssen Sie sich für alle Regionen entscheiden, die Teil des multiregionalen Zugangspunkts sind.
+ Alle AWS Konten, denen im Rahmen der Richtlinie für multiregionale Access Points Zugriff auf einen S3-Zugriffspunkt mit mehreren Regionen gewährt wird, müssen auch dieselben Opt-in-Regionen aktivieren, die Teil des Multi-Region-Access Points sind.

# Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink
<a name="MultiRegionAccessPointsPrivateLink"></a>

 AWS PrivateLink bietet Ihnen private Konnektivität zu Amazon S3 mithilfe von privaten IP-Adressen in Ihrer Virtual Private Cloud (VPC). Sie können einen oder mehrere Schnittstellenendpunkte in Ihrer VPC bereitstellen, um eine Verbindung zu Amazon S3-Multi-Regions-Zugriffspunkten herzustellen.

 Sie können **com.amazonaws.s3-global.accesspoint-Endpunkte für Access Points** mit mehreren Regionen über, oder erstellen. AWS-Managementkonsole AWS CLI AWS SDKs Weitere Informationen zum Konfigurieren eines Schnittstellenendpunkts für Multi-Regions-Zugriffspunkte finden Sie unter [Schnittstellen-VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/privatelink/vpce-interface.html) im *VPC-Benutzerhandbuch*. 

 Gehen Sie folgendermaßen vor, um Anforderungen an einen Multi-Regions-Zugriffspunkt über Schnittstellenendpunkte zu senden, um die VPC und den Multi-Regions-Zugriffspunkt zu konfigurieren. 

**So konfigurieren Sie einen Access Point mit mehreren Regionen zur Verwendung mit AWS PrivateLink**

1. Erstellen oder verfügen Sie über einen geeigneten VPC-Endpunkt, der eine Verbindung zu Multi-Regions-Zugriffspunkten herstellen kann. Weitere Informationen zum Erstellen von VPC-Endpunkten finden Sie unter [Schnittstelle-VPC-Endpunkte](https://docs.aws.amazon.com/vpc/latest/privatelink/vpce-interface.html) im *VPC-Benutzerhandbuch*.
**Wichtig**  
 Stellen Sie sicher, dass Sie einen **com.amazonaws.s3-global.accesspoint**-Endpunkt erstellen. Andere Endpunkttypen können nicht auf Multi-RegionsZugriffspunkte zugreifen. 

   Nachdem dieser VPC-Endpunkt erstellt wurde, leiten alle Multi-Regions-Zugriffspunkt-Anforderungen in der VPC durch diesen Endpunkt, wenn Sie private DNS für den Endpunkt aktiviert haben. Dies ist standardmäßig aktiviert. 

1. Wenn die Multi-Regions-Zugriffspunkt-Richtlinie keine Verbindungen von VPC-Endpunkten unterstützt, müssen Sie sie aktualisieren.

1. Stellen Sie sicher, dass die einzelnen Bucket-Richtlinien den Zugriff auf die Benutzer des Multi-Regions-Zugriffspunkts ermöglichen.

Denken Sie daran, dass Multi-Regions-Zugriffspunkte funktionieren, indem sie Anforderungen an Buckets weiterleiten, nicht indem sie selbst Anforderungen erfüllen. Dies ist wichtig, da der Absender der Anforderung über Berechtigungen für den Multi-Regions-Zugriffspunkt verfügen muss und auf die einzelnen Buckets im Multi-Regions-Zugriffspunkt zugreifen kann. Andernfalls wird die Anforderung möglicherweise an einen Bucket weitergeleitet, in dem der Originator keine Berechtigungen hat, um die Anforderung zu erfüllen. Ein Access Point mit mehreren Regionen und die zugehörigen Buckets können demselben oder einem anderen Konto gehören. AWS Ein Multi-Region-Access Point kann jedoch VPCs von unterschiedlichen Konten aus verwendet werden, sofern die Berechtigungen korrekt konfiguriert sind. 

Aus diesem Grund muss die VPC-Endpunktrichtlinie sowohl Zugriff auf den Multi-Regions-Zugriffspunkt als auch auf jeden zugrunde liegenden Bucket gewähren, der Anforderungen erfüllen soll. Angenommen, Sie haben einen Multi-Region Access Point mit dem Alias `mfzwi23gnjvgw.mrap`. Es wird von Buckets `amzn-s3-demo-bucket1` und `amzn-s3-demo-bucket2` gesichert, die alle im Besitz von AWS-Konto `123456789012` sind. In diesem Fall würde die folgende VPCE-Endpunktrichtlinie zulassen, dass `GetObject`-Anforderungen von der VPC an `mfzwi23gnjvgw.mrap` von einem der beiden Backing-Buckets erfüllt werden. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
    {
        "Sid": "Read-buckets-and-MRAP-VPCE-policy",
        "Principal": "*",
        "Action": [
            "s3:GetObject"
        ],
        "Effect": "Allow",
        "Resource": [
            "arn:aws:s3:::amzn-s3-demo-bucket1/*",
            "arn:aws:s3:::amzn-s3-demo-bucket2/*",
            "arn:aws:s3::111122223333:accesspoint/mfzwi23gnjvgw.mrap/object/*"
        ]
    }]
}
```

------

Wie bereits erwähnt, müssen Sie auch sicherstellen, dass die Multi-Regions-Zugriffspunkt-Richtlinie so konfiguriert ist, dass der Zugriff über einen VPC-Endpunkt unterstützt wird. Sie müssen den VPC-Endpunkt, der den Zugriff anfordert, nicht angeben. Die folgende Beispielrichtlinie würde jedem Anforderer Zugriff gewähren, der versucht, den Multi-Region Access Point für die `GetObject`-Anforderungen zu nutzen. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
    {
        "Sid": "Open-read-MRAP-policy",
        "Effect": "Allow",
        "Principal": "*",
        "Action": [
            "s3:GetObject"
          ],
        "Resource": "arn:aws:s3::111122223333:accesspoint/mfzwi23gnjvgw.mrap/object/*"
    }]
}
```

------

Und natürlich würden die einzelnen Buckets jeweils eine Richtlinie benötigen, um den Zugriff von Anforderungen zu unterstützen, die über den VPC-Endpunkt gesendet werden. Die folgende Beispielrichtlinie gewährt Lesezugriff auf alle anonymen Benutzer, einschließlich Anforderungen, die über den VPC-Endpunkt gestellt werden. 

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
   "Statement": [
   {
       "Sid": "Public-read",
       "Effect": "Allow",
       "Principal": "*",
       "Action": "s3:GetObject",
       "Resource": [
           "arn:aws:s3:::amzn-s3-demo-bucket1",
           "arn:aws:s3:::amzn-s3-demo-bucket2/*"]
    }]
}
```

------

 Weitere Informationen zur Bearbeitung einer VPC-Endpunktrichtlinie finden Sie unter [Steuerung des Zugriffs auf Services mit VPC-Endpunkten](https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints-access.html) im *VPC-Benutzerhandbuch*. 

# Entfernen des Zugriffs auf einen Multi-Region Access Point von einem VPC-Endpunkt
<a name="RemovingMultiRegionAccessPointAccess"></a>

Wenn Sie einen Multi-Region Access Point besitzen und den Zugriff darauf von einem Schnittstellenendpunkt entfernen möchten, müssen Sie eine neue Zugriffsrichtlinie für den Multi-Region Access Point bereitstellen, die den Zugriff für Anforderungen über VPC-Endpunkte verhindert. Wenn die Buckets in Ihrem Multi-Region Access Point Anforderungen über VPC-Endpunkte unterstützen, werden sie diese Anforderungen allerdings weiterhin unterstützen. Wenn Sie diesen Support verhindern möchten, müssen Sie auch die Richtlinien für die Buckets aktualisieren. Durch die Bereitstellung einer neuen Zugriffsrichtlinie für den Multi-Region Access Point wird nur der Zugriff auf den Multi-Region Access Point verhindert, nicht auf die zugrunde liegenden Buckets. 

**Anmerkung**  
Sie können eine Zugriffsrichtlinie für einen Multi-Regions-Zugriffspunkt nicht löschen. Um den Zugriff auf einen Multi-Regions-Zugriffspunkt zu entfernen, müssen Sie eine neue Zugriffsrichtlinie mit dem gewünschten geänderten Zugriff bereitstellen. 

Anstatt die Zugriffsrichtlinie für den Multi-Region Access Point zu aktualisieren, können Sie die Bucket-Richtlinien aktualisieren, um Anforderungen über VPC-Endpunkte zu verhindern. In diesem Fall können Benutzer weiterhin über den VPC-Endpunkt auf den Multi-Region Access Point zugreifen. Wenn der Multi-Region Access Point jedoch an einen Bucket weitergeleitet wird, in dem die Bucket-Richtlinie den Zugriff verhindert, wird eine Fehlermeldung generiert. 

# Stellen von Anforderungen über einen Multi-Region Access Point
<a name="MultiRegionAccessPointRequests"></a>

Wie andere Ressourcen haben Amazon S3 Multiregion Access Points Amazon-Ressourcennamen (ARNs). Sie können diese verwenden ARNs , um Anfragen an Access Points mit mehreren Regionen weiterzuleiten, indem Sie die AWS Command Line Interface (AWS CLI) AWS SDKs, oder die Amazon S3 S3-API verwenden. Sie können diese auch verwenden ARNs , um Access Points mit mehreren Regionen in Zugriffskontrollrichtlinien zu identifizieren. Der ARN eines Multi-Region Access Point beinhaltet den Namen des Multi-Region Access Points nicht und gibt diesen nicht an. Weitere Informationen zu finden Sie ARNs unter [Amazon Resource Names (ARNs)](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html) in der *Allgemeine AWS-Referenz*.

**Anmerkung**  
Der Alias des Multi-Region Access Point und der ARN können nicht gegeneinander ausgetauscht werden.

Access Point für mehrere Regionen ARNs verwenden das folgende Format:

 `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias`

Im Folgenden finden Sie einige Beispiele für Multi-Region-Access Points: ARNs 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap`steht für den Multi-Region Access Point mit dem Alias`mfzwi23gnjvgw.mrap`, der gehört. AWS-Konto `123456789012` 
+ `arn:aws:s3::123456789012:accesspoint/*` repräsentiert alle Multi-Region Access Points im Konto `123456789012`. Dieser ARN stimmt mit allen Multi-Region Access Points für das Konto `123456789012` überein, entspricht aber keinen regionalen Amazon S3 Access Points, da der ARN keine AWS-Region enthält. Im Gegensatz dazu stimmt der ARN `arn:aws:s3:us-west-2:123456789012:accesspoint/*` mit allen regionalen Amazon S3 Access Points in der Region `us-west-2` für das Konto `123456789012` überein, entspricht aber keinem Multi-Region Access Point. 

ARNs Verwenden Sie für Objekte, auf die über einen Multi-Region-Access Point zugegriffen wird, das folgende Format:

 `arn:aws:s3::account_id:accesspoint/MultiRegionAccessPoint_alias//key`

Wie beim Access Point mit mehreren Regionen enthalten die ARNs für Objekte ARNs, auf die über Access Points mit mehreren Regionen zugegriffen wird, kein. AWS-Region Hier sind einige Beispiele. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//-01` repräsentiert `-01`, auf das über den Multi-Region Access Point mit dem Alias `mfzwi23gnjvgw.mrap`, im Besitz von Konto `123456789012`, zugegriffen wird. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//*` repräsentiert alle Objekte, auf die über den Multi-Region Access Point mit dem Alias `mfzwi23gnjvgw.mrap`, in Konto `123456789012`, zugegriffen werden kann. 
+ `arn:aws:s3::123456789012:accesspoint/mfzwi23gnjvgw.mrap//-01/finance/*` repräsentiert alle Objekte, auf die unter `-01/finance/` für den Multi-Region Access Point mit dem Alias `mfzwi23gnjvgw.mrap`, in Konto `123456789012`, zugegriffen werden kann. 

## Hostnamen für Multi-Regions-Zugriffspunkte
<a name="MultiRegionAccessPointHostnames"></a>

Sie können über einen Multi-Region Access Point auf Daten in Amazon S3 zugreifen, indem Sie den Hostnamen des Multi-Region Access Points verwenden. Anforderungen können aus dem öffentlichen Internet an diesen Hostnamen gerichtet werden. Wenn Sie ein oder mehrere Internet-Gateways für den Multi-Region Access Point konfiguriert haben, können Anforderungen auch aus einer Virtual Private Cloud (VPC) an diesen Hostnamen weitergeleitet werden. Weitere Informationen zum Erstellen von VPC-Schnittstellenendpunkten zur Verwendung mit mehreren Multi-Regions-Zugriffspunkten finden Sie unter [Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md). 

Wenn Sie Anforderungen über einen Multi-Region Access Point von einer VPC unter Verwendung eines VPC-Endpunkts stellen möchten, können Sie AWS PrivateLink verwenden. Wenn Sie Anfragen an einen Access Point mit mehreren Regionen richten AWS PrivateLink, können Sie nicht direkt einen endpunktspezifischen DNS-Namen (Regional DOMAIN NAME SYSTEM) verwenden, der auf endet. `region.vpce.amazonaws.com` Diesem Hostnamen wird kein Zertifikat zugeordnet, so dass er nicht direkt verwendet werden kann. Sie können den DOMAIN NAME SYSTEM (DNS)-Namen des VPC-Endpunkts weiterhin als `CNAME`- oder `ALIAS`-Ziel verwenden. Alternativ können Sie privates DOMAIN NAME SYSTEM (DNS) auf dem Endpunkt aktivieren und den standardmäßigen DNS-Namen `MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com` des Multi-Region Access Point wie in diesem Abschnitt beschrieben verwenden. 

Wenn Sie Anforderungen an die API für Amazon-S3-Datenoperationen (z. B. `GetObject`) über einen Multi-Region Access Point stellen, lautet der Hostname für die Anforderung wie folgt: 

`MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com` 

Wenn Sie zum Beispiel eine `GetObject`-Anforderung über den Multi-Region Access Point mit dem Alias `mfzwi23gnjvgw.mrap` stellen möchten, stellen Sie eine Anforderung an den Hostnamen `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com`. Der `s3-global`-Teil des Hostnamens gibt an, dass dieser Hostname nicht für eine bestimmte Region bestimmt ist.

Das Senden von Anforderungen über einen Multi-Regions-Zugriffspunkt ähnelt der Ausführung von Anforderungen über einen Zugriffspunkt für einzelne Regionen. Es ist jedoch wichtig, folgende Unterschiede zu beachten: 
+  Access Points mit mehreren Regionen enthalten ARNs keinen. AWS-Region Sie folgen dem Format `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias`. 
+  Für Anforderungen, die über API-Operationen gestellt werden (diese Anforderungen erfordern keinen ARN), verwenden Multi-Region Access Points ein anderes Endpunktschema. Das Schema ist `MultiRegionAccessPoint_alias.accesspoint.s3-global.amazonaws.com` – z. B. `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com`. Beachten Sie die Unterschiede im Vergleich zu einem Zugriffspunkt für einzelne Regionen: 
  + Hostnamen des Multi-Regions-Zugriffspunkts verwenden ihren Alias, nicht den Namen des Multi-Regions-Zugriffspunkts. 
  + Hostnamen für Access Points mit mehreren Regionen enthalten nicht die ID des Besitzers. AWS-Konto 
  + Hostnamen von Multi-Region Access Points enthalten keine AWS-Region. 
  + Zu den Multi-Regions-Hostnamen gehören `s3-global.amazonaws.com` anstelle von `s3.amazonaws.com`. 
+ Anforderungen für Multi-Region Access Points müssen mit Signature Version 4A (SigV4A) signiert werden. Wenn Sie das verwenden AWS SDKs, konvertiert das SDK automatisch ein SigV4 in ein SigV4a. Stellen Sie daher sicher, dass Ihr [AWS -SDK](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html) SigV4A als Signaturimplementierung unterstützt, die zum Signieren der globalen Anforderungen der AWS-Region verwendet wird. Weitere Informationen zu SigV4a finden Sie unter [Signieren AWS](https://docs.aws.amazon.com/general/latest/gr/signing_aws_api_requests.html) von API-Anfragen im. *Allgemeine AWS-Referenz* 

## Multi-Regions-Zugriffspunkte und Amazon S3 Transfer Acceleration
<a name="MultiRegionAccessPointsAndTransferAcceleration"></a>

Amazon S3 Transfer Acceleration ist eine Funktion, die schnelle Datenübertragungen zu Buckets ermöglicht. Transfer Acceleration wird auf der Ebene des einzelnen Buckets konfiguriert. Weitere Informationen zu Transfer Acceleration finden Sie unter [Konfigurieren schneller, sicherer Dateiübertragungen mit Amazon S3 Transfer Acceleration](transfer-acceleration.md). 

Access Points mit mehreren Regionen verwenden einen ähnlichen beschleunigten Übertragungsmechanismus wie Transfer Acceleration, um große Objekte über das Netzwerk zu senden. AWS Aus diesem Grund müssen Sie Transfer Acceleration nicht verwenden, wenn Sie Anforderungen über einen Multi-Region Access Point senden. Diese erhöhte Übertragungsleistung wird automatisch in den Multi-Region Access Point integriert. 

**Topics**
+ [Hostnamen für Multi-Regions-Zugriffspunkte](#MultiRegionAccessPointHostnames)
+ [Multi-Regions-Zugriffspunkte und Amazon S3 Transfer Acceleration](#MultiRegionAccessPointsAndTransferAcceleration)
+ [Berechtigungen](MultiRegionAccessPointPermissions.md)
+ [Einschränkungen und Beschränkungen des Multi-Regions-Zugriffspunkts](MultiRegionAccessPointRestrictions.md)
+ [Weiterleitung der Multi-Regions-Zugriffspunktanforderung](MultiRegionAccessPointRequestRouting.md)
+ [Failover-Kontrollen für Amazon S3 Multi-Region Access Points](MrapFailover.md)
+ [Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points](MultiRegionAccessPointBucketReplication.md)
+ [Verwenden von Multi-Region Access Points mit unterstützten API-Operationen](MrapOperations.md)
+ [Überwachung und Protokollierung von Anforderungen, die über einen Multi-Regions-Zugriffspunkt an zugrunde liegende Ressourcen erfolgen](MultiRegionAccessPointMonitoring.md)

# Berechtigungen
<a name="MultiRegionAccessPointPermissions"></a>

Amazon S3 Multiregion Access Points können den Datenzugriff für Amazon S3 S3-Buckets in mehreren Bereichen vereinfachen. AWS-Regionen Multi-Region Access Points sind benannte globale Endpunkte, mit denen Sie Datenzugriffsoperationen für Objekte in Amazon S3 ausführen können, z. B. `GetObject` und `PutObject`. Jeder Multi-Region Access Point kann für jede Anforderung, die über den globalen Endpunkt eingehen, über unterschiedliche Berechtigungen und Netzwerkkontrollen verfügen.

Jeder Multi-Region Access Point kann außerdem eine benutzerdefinierte Zugriffsrichtlinie erzwingen, die in Verbindung mit der Bucket-Richtlinie funktioniert, welche dem zugrunde liegenden Bucket angefügt ist. Damit eine kontoübergreifende Anforderung erfolgreich ist, müssen die folgenden Richtlinien die Operation zulassen:
+ Die Richtlinie der Multi-Region Access Points
+ Die zugrunde liegende AWS Identity and Access Management (IAM-) Richtlinie
+ Die zugrunde liegende Bucket-Richtlinie (an die die Anforderung weitergeleitet wird)

**Anmerkung**  
Für dieselben Kontoanfragen ist nur die zugrunde liegende IAM-Richtlinie erforderlich, die den entsprechenden Zugriff gewährt.

Sie können jede Richtlinie für Multi-Region Access Points so konfigurieren, dass nur Anforderungen von bestimmten IAM-Benutzern oder -Gruppen akzeptiert werden. Ein Beispiel für diese Vorgehensweise finden Sie in Beispiel 2 unter [Beispielrichtlinien für Multi-Region Access Points](#MultiRegionAccessPointPolicyExamples). Um den Amazon-S3-Datenzugriff auf ein privates Netzwerk zu beschränken, können Sie die Richtlinie für Multi-Region Access Points auch so konfigurieren, dass Anforderungen nur von einer Virtual Private Cloud (VPC) akzeptiert werden.

Nehmen wir zum Beispiel an, Sie stellen eine `GetObject` Anfrage über einen Access Point mit mehreren Regionen, indem Sie einen Benutzer verwenden, der `AppDataReader` in Ihrem AWS Konto angerufen wird. Um sicherzustellen, dass die Anforderung nicht abgelehnt wird, muss der Benutzer `AppDataReader` die `s3:GetObject`-Berechtigung vom Multi-Region Access Point und von jedem Bucket, der dem Multi-Region Access Point zugrunde liegt, erhalten. `AppDataReader` kann keine Daten aus einem Bucket abrufen, der diese Berechtigung nicht erteilt.

**Wichtig**  
Das Delegieren der Zugriffskontrolle für einen Bucket an eine Richtlinie eines Multi-Region Access Points ändert nicht das Verhalten des Buckets, wenn auf den Bucket über den Bucket-Namen oder den Amazon-Ressourcennamen (ARN) zugegriffen wird. Alle Operationen, die direkt für den Bucket ausgeführt werden, funktionieren weiterhin wie zuvor. Einschränkungen, die Sie in eine Richtlinie für Multi-Region Access Points einschließen, gelten nur für Anforderungen, die über diesen Multi-Region Access Point eingehen.

## Verwalten des öffentlichen Zugriffs auf einen Multi-Regions-Zugriffspunkt
<a name="MultiRegionAccessPointPublicAccess"></a>

Multi-Regions-Zugriffspunkte unterstützen unabhängige Block-Einstellungen des öffentlichen Zugriffs für jeden Multi-Regions-Zugriffspunkt. Wenn Sie einen Multi-Regions-Zugriffspunkt erstellen, können Sie die Block-Einstellungen des öffentlichen Zugriffs für diesen Multi-Regions–Zugriffspunkt festlegen. 

**Anmerkung**  
Alle Einstellungen für „Öffentlichen Zugriff blockieren“, die unter „**Einstellungen „Öffentlichen Zugriff beschränken“ für dieses Konto** (in Ihrem eigenen Konto) oder **Einstellungen „Öffentlichen Zugriff beschränken“ für externe Buckets** aktiviert sind, gelten auch dann, wenn die unabhängigen Einstellungen für „Öffentlichen Zugriff blockieren“ für Ihren Multi-Region Access Point deaktiviert sind.

Für jede Anforderung, die über einen Multi-Region Access Point erfolgt, wertet Amazon S3 die Einstellungen zum Blockieren des öffentlichen Zugriffs für Folgendes aus:
+ Den Multi-Region Access Point
+ Die zugrunde liegenden Buckets (einschließlich externer Buckets)
+ Das Konto, das den Multi-Region Access Point besitzt
+ Das Konto, das die zugrunde liegenden Buckets besitzt (einschließlich externer Konten)

Wenn eine dieser Einstellungen darauf hinweist, dass die Anforderung gesperrt werden soll, lehnt Amazon S3 die Anforderung ab. Weitere Hinweise zur Funktion Amazon S3 Block Public Access finden Sie unter [Blockieren des öffentlichen Zugriffs auf Ihren Amazon-S3-Speicher](access-control-block-public-access.md). 

**Wichtig**  
Alle Einstellungen für die Blockierung des öffentlichen Zugriffs sind für neue Multi-Region Access Points standardmäßig aktiviert. Sie müssen alle Einstellungen, die Sie nicht auf einen Multi-Regions-Zugriffspunkt anwenden möchten, explizit deaktivieren.   
Nach dem Erstellen eines Multi-Region Access Point können Sie die Block-Public-Access-Einstellungen für den Access Point nicht mehr ändern. 

## Anzeigen der Einstellungen für die Blockierung des öffentlichen Zugriffs für einen Multi-Region Access Point
<a name="viewing-bpa-mrap-settings"></a>

**So zeigen Sie die Einstellungen für die Blockierung des öffentlichen Zugriffs für einen Multi-Region Access Point an**

1. 

   Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen des Multi-Region Access Points aus, den Sie überprüfen möchten.

1. Wählen Sie die Registerkarte **Berechtigungen**.

1. Überprüfen Sie unter **Block Public Access settings for this Multi-Region Access Point** (Einstellungen für die Blockierung des öffentlichen Zugriffs für diesen Multi-Region Access Point) die Einstellungen für die Blockierung des öffentlichen Zugriffs für Ihren Multi-Region Access Point.
**Anmerkung**  
Nachdem der Multi-Region Access Point erstellt wurde, können Sie die Einstellungen für die Blockierung des öffentlichen Zugriffs nicht mehr bearbeiten. Wenn Sie den öffentlichen Zugriff blockieren möchten, stellen Sie daher sicher, dass Ihre Anwendungen ohne öffentlichen Zugriff ordnungsgemäß funktionieren, bevor Sie einen Multi-Region Access Point erstellen. 

## Verwenden einer Richtlinie für Multi-Region Access Points
<a name="use-mrap-policy"></a>

Das folgende Beispiel einer Richtlinie für Multi-Region Access Points gewährt einem IAM-Benutzer Zugriff zum Auflisten und Herunterladen von Dateien aus Ihrem Multi-Region Access Point. Wenn Sie diese Beispielrichtlinie verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen.

------
#### [ JSON ]

****  

```
 {
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Principal":{
            "AWS":"arn:aws:iam::123456789012:user/JohnDoe" 
         },
         "Action":[
            "s3:ListBucket",
            "s3:GetObject"
         ],
         "Resource":[
            "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias",
            "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*"
         ]
      }
   ]
}
```

------

Verwenden Sie den folgenden Befehl `put-multi-region-access-point-policy`, um die Richtlinie für Multi-Region Access Points über die AWS Command Line Interface (AWS CLI) mit dem angegebenen Multi-Region Access Point zu verknüpfen. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen. Jeder Multi-Region Access Point kann nur über eine Richtlinie verfügen. Daher ersetzt eine an Aktion `put-multi-region-access-point-policy` gerichtete Anforderung jede vorhandene Richtlinie, die dem angegebenen Multi-Region Access Point zugeordnet ist.

------
#### [ AWS CLI ]

```
aws s3control put-multi-region-access-point-policy
--account-id 111122223333
--details { "Name": "amzn-s3-demo-bucket-MultiRegionAccessPoint", "Policy": "{ \"Version\": \"2012-10-17\", \"Statement\": { \"Effect\": \"Allow\", \"Principal\": { \"AWS\": \"arn:aws:iam::111122223333:root\" }, \"Action\": [\"s3:ListBucket\", \"s3:GetObject\"], \"Resource\": [ \"arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias", \"arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*\" ] } }" }
```

------

Verwenden Sie den folgenden Befehl, um die Ergebnisse der vorherigen Operation abzufragen:

------
#### [ AWS CLI ]

```
aws s3control describe-multi-region-access-point-operation
--account-id 111122223333
--request-token-arn requestArn
```

------

Verwenden Sie den folgenden Befehl, um Ihre Richtlinie für Multi-Region Access Points abzurufen:

------
#### [ AWS CLI ]

```
aws s3control get-multi-region-access-point-policy
--account-id 111122223333
--name=amzn-s3-demo-bucket-MultiRegionAccessPoint
```

------

## Bearbeiten der Richtlinie für Multi-Region Access Points
<a name="editing-mrap-policy"></a>

Die Richtlinie für Multi-Region Access Points (in JSON geschrieben) bietet Speicherzugriff auf die Amazon-S3-Buckets, die mit diesem Multi-Region Access Point verwendet werden. Sie können bestimmten Prinzipalen die Ausführung verschiedener Aktionen auf Ihrem Multi-Region Access Point erlauben oder verweigern. Wenn eine Anforderung über den Multi-Region Access Point an einen Bucket weitergeleitet wird, gelten sowohl die Zugriffsrichtlinien für den Multi-Region Access Point als auch den Bucket. Die restriktivere Zugriffsrichtlinie hat immer Vorrang. 

**Anmerkung**  
Wenn ein Bucket Objekte enthält, die anderen Konten gehören, gilt die Richtlinie für Multi-Region Access Points nicht für Objekte, die anderen AWS-Konten gehören.

Nachdem Sie eine Richtlinie für Multi-Region Access Points angewendet haben, kann die Richtlinie nicht mehr gelöscht werden. Sie können entweder die Richtlinie bearbeiten oder eine neue Richtlinie erstellen, die die bestehende überschreibt.

**So bearbeiten Sie die Richtlinie für Multi-Region Access Points**



1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen des Multi-Region Access Point aus, für den Sie die Richtlinie bearbeiten möchten.

1. Wählen Sie die Registerkarte **Berechtigungen**.

1. Scrollen Sie nach unten zum Abschnitt **Richtlinie für Multi-Region Access Points**. Wählen Sie **Edit** (Bearbeiten) aus, um die Richtlinie (in JSON) zu bearbeiten.

1. Die Seite **Edit Multi-Region Access Point policy** (Richtlinie für Multi-Region Access Points bearbeiten) wird angezeigt. Sie können die Richtlinie entweder direkt in das Textfeld eingeben oder **Add statement** (Anweisung hinzufügen) auswählen, um Richtlinienelemente aus einer Dropdownliste auszuwählen.
**Anmerkung**  
Die Konsole zeigt automatisch den Amazon-Ressourcennamen (ARN) für den Multi-Region Access Point an, den Sie in der Richtlinie verwenden können. Für Beispielrichtlinien für Multi-Region Access Points vgl. [Beispielrichtlinien für Multi-Region Access Points](#MultiRegionAccessPointPolicyExamples).

## Beispielrichtlinien für Multi-Region Access Points
<a name="MultiRegionAccessPointPolicyExamples"></a>

Ressourcenrichtlinien zur Unterstützung von Amazon S3 Multi-Region Access Points AWS Identity and Access Management (IAM). Mithilfe dieser Richtlinien können Sie die Verwendung des Multi-Region Access Point nach Ressource, Benutzer oder anderen Bedingungen steuern. Damit eine Anwendung oder ein Benutzer über einen Multi-Region Access Point auf Objekte zugreifen kann, müssen sowohl der Multi-Region Access Point Zugriffspunkt als auch der zugrunde liegende Bucket den gleichen Zugriff erlauben.

Gehen Sie folgendermaßen vor, um den gleichen Zugriff sowohl auf den Multi-Region Access Point als auch auf den zugrunde liegenden Bucket zu erlauben:
+ **(Empfohlen)** Wenn Sie die Zugriffskontrollen bei der Verwendung eines Amazon S3 Multi-Region Access Points vereinfachen möchten, delegieren Sie die Zugriffskontrolle für den Amazon-S3-Bucket an den Multi-Region Access Point. Ein Beispiel für diese Vorgehensweise finden Sie in Beispiel 1 in diesem Abschnitt. 
+ Fügen Sie der Richtlinie des zugrunde liegenden Buckets dieselben Berechtigungen hinzu, die in der Richtlinie des Multi Region Access Points enthalten sind.

**Wichtig**  
Das Delegieren der Zugriffskontrolle für einen Bucket an eine Richtlinie eines Multi-Region Access Points ändert nicht das Verhalten des Buckets, wenn auf den Bucket über den Bucket-Namen oder den Amazon-Ressourcennamen (ARN) zugegriffen wird. Alle Operationen, die direkt für den Bucket ausgeführt werden, funktionieren weiterhin wie zuvor. Einschränkungen, die Sie in eine Richtlinie für Multi-Region Access Points einschließen, gelten nur für Anforderungen, die über diesen Multi-Region Access Point eingehen.

**Example 1 – Delegieren des Zugriffs auf bestimmte Multi-Region Access Points in Ihrer Bucket-Richtlinie (für dasselbe Konto oder kontoübergreifend)**  
Das folgende Beispiel für eine Bucket-Richtlinie gewährt vollständigen Bucket-Zugriff auf einen bestimmten Multi-Region Access Point. Dies bedeutet, dass der gesamte Zugriff auf diesen Bucket durch die Richtlinien gesteuert wird, die dem Multi-Region Access Point angefügt sind. Wir empfehlen, Ihre Buckets auf diese Weise für alle Anwendungsfälle zu konfigurieren, die keinen direkten Zugriff auf den Bucket erfordern. Sie können diese Bucket-Richtlinienstruktur für Multi-Region Access Points in demselben Konto oder einem anderen Konto verwenden.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement" : [
    {
        "Effect": "Allow",
        "Principal" : { "AWS": "*" },
        "Action" : "*",
        "Resource" : [ "arn:aws:s3:::amzn-s3-demo-bucket", "arn:aws:s3:::amzn-s3-demo-bucket/*"],
        "Condition": {
            "StringEquals" : { "s3:DataAccessPointArn" : "arn:aws:s3::111122223333:accesspoint/example-multi-region-access-point" }
        }
    }]
}
```
Wenn Sie für mehrere Multi-Region Access Points Zugriff erteilen, stellen Sie sicher, dass Sie jeden einzelnen Multi-Region Access Point auflisten.

**Example 2 – Gewähren des Zugriffs auf einen Multi-Region Access Point für ein Konto in Ihrer Richtlinie für Multi-Region Access Points**  
Die folgende Richtlinie für Multi-Region Access Points gewährt dem Konto `123456789012` die Berechtigung zum Auflisten und Lesen der Objekte, die in dem Multi-Region Access Point enthalten sind, der durch den *`MultiRegionAccessPoint_ARN`* definiert wird.    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
       "Effect": "Allow",
       "Principal": {
          "AWS": "arn:aws:iam::111122223333:user/JohnDoe"
       },
       "Action": [
          "s3:ListBucket",
          "s3:GetObject"
       ],
       "Resource": [ 
          "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias",
          "arn:aws:s3::111122223333:accesspoint/MultiRegionAccessPoint_alias/object/*"
       ]
     }
  ]
}
```

**Example 3 – Richtlinie für Multi-Region Access Points, die eine Bucket-Auflistung ermöglicht**  
Die folgende Richtlinie für Multi-Region Access Points gewährt dem Konto `123456789012` die Berechtigung zum Auflisten der Objekte, die in dem Multi-Region Access Point enthalten sind, der durch den *`MultiRegionAccessPoint_ARN`* definiert wird.

# Einschränkungen und Beschränkungen des Multi-Regions-Zugriffspunkts
<a name="MultiRegionAccessPointRestrictions"></a>

Multi-Regions-Zugriffspunkte in Amazon S3 haben die folgenden Einschränkungen und Beschränkungen. 

## Namen und -Aliasnamen
<a name="MultiRegionAccessPointRestrictions-Names"></a>

Namen von Zugangspunkten mit mehreren Regionen müssen die folgenden Anforderungen erfüllen:
+  Muss innerhalb eines einzelnen AWS Kontos eindeutig sein.
+  Muss mit einer Zahl oder einem Kleinbuchstaben beginnen.
+  Muss zwischen 3 und 50 Zeichen lang sein.
+ Dürfen nicht mit einem Bindestrich (`-`) beginnen oder enden.
+ Dürfen keine Unterstriche (`_`), Großbuchstaben oder Punkte (`.`) enthalten.
+  Sie können nicht mehr bearbeitet werden, nachdem sie erstellt wurden.

Aliasse für Zugangspunkte mit mehreren Regionen (die sich von Zugangspunkten mit mehreren Regionen unterscheiden) werden von Amazon S3 automatisch generiert und können nicht bearbeitet oder wiederverwendet werden. Weitere Informationen zum Unterschied zwischen Aliasse für Zugangspunkte mit mehreren Regionen und Zugangspunkte mit mehreren Regionen sowie deren jeweiligen Benennungsregeln finden Sie unter [Regeln zur Benennung von Amazon S3-Multi-Regions-Zugriffspunkten](multi-region-access-point-naming.md).

## Verwenden eines Zugangspunkts mit mehreren Regionen
<a name="MultiRegionAccessPointRestrictions-Access"></a>

Sie können über einen Zugangspunkt mit mehreren Regionen nicht mit Gateway-Endpunkten auf Daten zugreifen. Sie können jedoch über einen Multi-Region Access Point mit Schnittstellenendpunkten auf Daten zugreifen. Zur Verwendung AWS PrivateLink müssen Sie VPC-Endpoints erstellen. Weitere Informationen finden Sie unter [Konfiguration eines Access Points mit mehreren Regionen für die Verwendung mit AWS PrivateLink](MultiRegionAccessPointsPrivateLink.md). Beachten Sie jedoch, dass dies IPv6 nicht unterstützt wird.

Um Multi-Region Access Points mit Amazon zu verwenden CloudFront, müssen Sie den Multi-Region Access Point als `Custom Origin` Vertriebstyp konfigurieren. Weitere Informationen zu verschiedenen Herkunftstypen finden Sie unter [Verwenden verschiedener Herkunft bei CloudFront ](https://docs.aws.amazon.com//AmazonCloudFront/latest/DeveloperGuide/DownloadDistS3AndCustomOrigins.html) Verteilungen. *Weitere Informationen zur Verwendung von Multi-Region-Access Points mit Amazon CloudFront finden Sie im Storage-Blog unter [Aufbau einer Active-Active-Proximity-basierten Anwendung in mehreren Regionen](https://aws.amazon.com/blogs/storage/building-an-active-active-latency-based-application-across-multiple-regions/).AWS *

**Anmerkung**  
Buckets von Amazon S3 on Outposts werden nicht unterstützt.

## AWS API-Anfragen signieren
<a name="MultiRegionAccessPointRestrictions-Signing"></a>

Um eine AWS API-Anfrage zu signieren, muss Ihr Access Point für mehrere Regionen die folgenden Mindestanforderungen erfüllen:

**Anmerkung**  
Multi-Region Access Points unterstützen keine anonymen Anforderungen.
+ unterstützt Transport Layer Security (TLS) Version 1.2.
+ unterstützt Signature Version 4 (SigV4A) – Diese Version von SigV4 ermöglicht das Signieren von Anforderungen für mehrere AWS-Regionen. Dies ist nützlich bei API-Operationen, die zu Datenzugriff von einer oder mehreren Regionen führen können. Wenn Sie ein AWS SDK verwenden, geben Sie Ihre Anmeldeinformationen an, und für Anfragen an Access Points mit mehreren Regionen wird Signature Version 4A ohne zusätzliche Konfiguration verwendet. Stellen Sie sicher, dass Sie die [Kompatibilität Ihres AWS SDK](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html) mit dem SigV4A-Algorithmus überprüfen. Weitere Informationen zu SigV4a finden Sie unter [Signieren von AWS API-Anfragen](https://docs.aws.amazon.com/general/latest/gr/signing_aws_api_requests.html) im. *Allgemeine AWS-Referenz*
**Anmerkung**  
Um SigV4a mit temporären Sicherheitsanmeldedaten zu verwenden — beispielsweise bei der Verwendung von AWS Identity and Access Management (IAM-) Rollen — können Sie die temporären Anmeldeinformationen von einem regionalen () Endpunkt anfordern. AWS -Security-Token-Service AWS STS Wenn Sie temporäre Anmeldeinformationen vom globalen AWS STS -Endpunkt (`sts.amazonaws.com`) anfordern, müssen Sie zunächst die Regionskompatibilität der Sitzungstoken für den globalen Endpunkt so einstellen, dass sie in allen AWS-Regionen gültig ist. [https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html)

## Amazon S3-API-Operationen
<a name="MultiRegionAccessPointRestrictions-API"></a>
+ `CopyObject` wird nur als Ziel unterstützt, wenn der ARN des Zugangspunkt mit mehreren Regionen verwendet wird.
+ Die Funktion S3 Batch Operations wird nicht unterstützt.

## AWS SDKs
<a name="MultiRegionAccessPointRestrictions-SDKs"></a>

Bestimmte AWS SDKs werden nicht unterstützt. Informationen darüber, AWS SDKs welche für Access Points mit mehreren Regionen unterstützt werden, finden Sie unter [Kompatibilität mit AWS SDKs](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat).

## Servicekontingente
<a name="MultiRegionAccessPointRestrictions-Quotas"></a>

Beachten Sie die folgenden Einschränkungen für Service Quotas:
+ Pro Konto gibt es maximal 100 Multi-Region Access Points.
+ Es gibt ein Limit von 17 Regionen für einen einzelnen Multi-Region Access Point.

## Einen Zugangspunkt mit mehreren Regionen erstellen, löschen oder ändern
<a name="MultiRegionAccessPointRestrictions-Modifying"></a>

Beachten Sie beim Erstellen, Löschen oder Ändern eines Zugangspunkts mit mehreren Regionen die folgenden Regeln und Einschränkungen:
+ Nach der Erstellung eines Multi-Region Access Point können Sie keine Buckets hinzufügen, ändern oder aus der Konfiguration des Multi-Region Access Point entfernen. Um die Buckets zu ändern, müssen Sie den gesamten Multi-Regions-Zugriffspunkt löschen und einen neuen erstellen. Wenn ein kontoübergreifender Bucket in Ihrem Multi-Region Access Point gelöscht wird, besteht die einzige Möglichkeit, diesen Bucket erneut zu verbinden, darin, den Bucket neu zu erstellen und dabei denselben Namen und dieselbe Region in diesem Konto zu verwenden.
+ Zugrunde liegende Buckets (in demselben Konto), die in einem Multi-Region Access Point verwendet werden, können erst nach dem Löschen eines Multi-Region Access Point gelöscht werden.

## Regionsunterstützung
<a name="MultiRegionAccessPointRestrictions-RegionSupport"></a>

**Anfragen auf Steuerebene**

Alle Anforderungen auf Steuerebene zum Erstellen oder Verwalten von Multi-Region Access Points müssen an die Region `US West (Oregon)` weitergeleitet werden. Für Anforderungen von Multi-Region Access Point auf Steuerebene müssen keine Regionen angegeben werden. 

Für die Failover-Steuerebene von Multi-Region Access Points muss die Anforderung an eine dieser fünf unterstützten Regionen weitergeleitet werden:
+ `US East (N. Virginia)`
+ `US West (Oregon)`
+ `Asia Pacific (Sydney)`
+ `Asia Pacific (Tokyo)`
+ `Europe (Ireland)`

**Regionen sind standardmäßig aktiviert**

Ihr Access Point für mehrere Regionen unterstützt standardmäßig Buckets AWS-Regionen (die in Ihrem [AWS-Konto standardmäßig aktiviert](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) sind):
+ `US East (N. Virginia)`
+ `US East (Ohio)`
+ `US West (N. California)`
+ `US West (Oregon)`
+ `Asia Pacific (Mumbai)`
+ `Asia Pacific (Osaka)`
+ `Asia Pacific (Seoul)`
+ `Asia Pacific (Singapore)`
+ `Asia Pacific (Sydney)`
+ `Asia Pacific (Tokyo)`
+ `Canada (Central)`
+ `Europe (Frankfurt)`
+ `Europe (Ireland)`
+ `Europe (London)`
+ `Europe (Paris)`
+ `Europe (Stockholm)`
+ `South America (São Paulo)`

**AWS Opt-in-Regionen**

Ihr Access Point für mehrere Regionen unterstützt auch Buckets in den folgenden Opt-In-Optionen AWS-Regionen (die in Ihrem [standardmäßig deaktiviert](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html) sind): AWS-Konto
+ `Africa (Cape Town)`
+ `Asia Pacific (Hong Kong)`
+ `Asia Pacific (Jakarta)`
+ `Asia Pacific (Melbourne)`
+ `Asia Pacific (Hyderabad)`
+ `Canada West (Calgary)`
+ `Europe (Zurich)`
+ `Europe (Milan)`
+ `Europe (Spain)`
+ `Israel (Tel Aviv)`
+ `Middle East (Bahrain)`
+ `Middle East (UAE)`

**Anmerkung**  
Für die Aktivierung einer Opt-In-Region fallen keine zusätzlichen Kosten an. Bei der Erstellung oder Nutzung einer Ressource in einem multiregionalen Zugangspunkt fallen jedoch Abrechnungsgebühren an.

Eine Opt-in-Region muss bei der Konfiguration oder Erstellung Ihres Zugangspunkt mit mehreren Regionen manuell aktiviert werden. Weitere Informationen zum Verhalten von Opt-in-Regionen für Zugangspunkte mit mehreren Regionen finden Sie unter [Konfigurieren der Opt-in-Regionen für multiregionale Zugangspunkte](ConfiguringMrapOptInRegions.md). Informationen zur Aktivierung einer Opt-in-Region in Ihrer AWS-Konto finden Sie unter [Aktivieren oder Deaktivieren einer Region für eigenständige Konten](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html#manage-acct-regions-enable-standalone) im Referenzhandbuch zur *AWS Kontoverwaltung*.

# Weiterleitung der Multi-Regions-Zugriffspunktanforderung
<a name="MultiRegionAccessPointRequestRouting"></a>

 Wenn Sie eine Anforderung über einen Multi-Region Access Point stellen, bestimmt Amazon S3, welche der Buckets, die dem Multi-Region Access Point zugeordnet sind, sich in Ihrer nächster Nähe befinden. Amazon S3 leitet die Anforderung dann an diesen Bucket weiter, unabhängig von der AWS-Region, in der sie sich befindet. 

Nachdem der Multi-Region Access Point die Anforderung an den nächstgelegenen Bucket weitergeleitet hat, verarbeitet Amazon S3 die Anforderung so, als ob Sie sie direkt an diesen Bucket gestellt hätten. Multi-Region Access Points kennen den Dateninhalt eines Amazon-S3-Buckets nicht. Daher kann es sein, dass der Bucket, der die Anforderung erhält, die angeforderten Daten nicht enthält. Um konsistente Datensätze in den Amazon-S3-Buckets zu schaffen, die einem Multi-Region Access Point zugeordnet sind, können Sie S3 Cross-Region Replication (CRR, regionsübergreifende Replikation) konfigurieren. Dann kann jeder Bucket die -Anforderung erfolgreich erfüllen. 

 Amazon S3 leitet Multi-Regions-Zugriffspunktanforderungen gemäß den folgenden Regeln weiter: 
+ Amazon S3 optimiert Anforderungen, um der Nähe entsprechend erfüllt zu werden. Es untersucht die Buckets, die vom Multi-Region Access Point unterstützt werden, und leitet die Anforderung an den Bucket weiter, der sich in nächster Nähe befindet. 
+ Wenn die Anforderung eine vorhandene Ressource angibt (z. B. `GetObject`), berücksichtigt Amazon S3 *nicht* den Namen des Objekts bei der Erfüllung der Anforderung. Selbst wenn ein Objekt in einem Bucket in dem Multi-Region Access Point vorhanden ist, kann Ihre Anforderung somit an einen Bucket weitergeleitet werden, der das Objekt nicht enthält. Dies führt dazu, dass dem Kunden eine 404-Fehlermeldung zurückgegeben wird. 

  Um 404-Fehler zu vermeiden, empfehlen wir Ihnen, S3 Cross-Region Replication (CRR) für Ihre Buckets zu konfigurieren. Die Replikation hilft bei der Lösung des potenziellen Problems, das entsteht, wenn sich das gewünschte Objekt in einem Bucket in dem Multi-Region Access Point befindet, nicht jedoch in dem bestimmten Bucket, an den Ihre Anforderung weitergeleitet wurde. Weitere Informationen zum Erstellen einer grundlegenden Replikationskonfiguration finden Sie unter [Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points](MultiRegionAccessPointBucketReplication.md). 

  Um sicherzustellen, dass Ihre Anforderungen mithilfe der gewünschten Objekte erfüllt werden, wird außerdem empfohlen, die Bucket-Versionsverwaltung zu aktivieren und Versions-IDs in Ihre Anforderungen aufzunehmen. Auf diese Weise stellen Sie sicher, dass Sie über die richtige Version des gesuchten Objekts verfügen. Buckets mit aktivierter Versionsverwaltung können auch bei der Wiederherstellung von Objekten nach einem versehentlichen Überschreiben hilfreich sein. Weitere Informationen finden Sie unter [Verwenden des S3-Versioning in S3-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).
+ Wenn sich die Anforderung auf das Erstellen einer Ressource bezieht (z. B. `PutObject` oder `CreateMultipartUpload`), erfüllt Amazon S3 die Anforderung unter Verwendung des nächstgelegenen Buckets. Betrachten wir beispielsweise ein Videounternehmen, das Video-Uploads von überall auf der Welt unterstützen möchte. Wenn ein Benutzer eine `PUT`-Anforderung an den Multi-Region Access Point stellt, wird das Objekt in den nächstgelegenen Bucket gestellt. Um das hochgeladene Video dann anderen auf der ganzen Welt mit der geringsten Latenz zum Download zur Verfügung zu stellen, können Sie CRR mit bidirektionaler Replikation verwenden. Wenn Sie CRR mit bidirektionaler Replikation verwenden, bleiben die Inhalte aller Buckets, die dem Multi-Region Access Point zugeordnet sind, synchronisiert. Weitere Informationen zur Verwendung der Replikation mit Multi-Region Access Points finden Sie unter [Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points](MultiRegionAccessPointBucketReplication.md).

# Failover-Kontrollen für Amazon S3 Multi-Region Access Points
<a name="MrapFailover"></a>

Mit den Failover-Kontrollen für Amazon S3 Multi-Region Access Points können Sie die Geschäftskontinuität bei regionalen Verkehrsunterbrechungen aufrechterhalten und Ihren Anwendungen gleichzeitig eine regionsübergreifende Architektur zur Erfüllung von Compliance- und Redundanzanforderungen bieten. Wenn Ihr regionaler Datenverkehr unterbrochen wird, können Sie mithilfe der Failover-Steuerelemente für mehrere Regionen auswählen, welcher AWS-Regionen hinter einem Amazon S3-Access Point mit mehreren Regionen Datenzugriffs- und Speicheranfragen verarbeitet werden soll. 

Zur Failover-Unterstützung können Sie Ihren Multi-Region Access Point in einer Aktiv-Passiv-Konfiguration einrichten, wobei der Datenverkehr unter normalen Bedingungen in die aktive Region fließt und sich eine passive Region für den Failover im Standby-Modus befindet. 

Um beispielsweise ein Failover auf eine AWS-Region Region Ihrer Wahl durchzuführen, verlagern Sie den Verkehr von Ihrer primären (aktiven) Region in Ihre sekundäre (passive) Region. In einer solchen Aktiv-Passiv-Konfiguration ist ein Bucket aktiv und akzeptiert Datenverkehr, während der andere Bucket passiv ist und keinen Traffic akzeptiert. Der passive Bucket wird für die Notfallwiederherstellung verwendet. Wenn Sie den Failover einleiten, wird der gesamte Datenverkehr (wie `GET`- und `PUT`-Anforderungen) an den Bucket im aktiven Zustand (in einer Region) und weg vom Bucket im passiven Zustand (in einer anderen Region) geleitet.

Wenn Sie die regionsübergreifende Replikation in S3 (CRR) mit bidirektionalen Replikationsregeln aktiviert haben, können Sie Ihre Buckets während eines Failovers synchronisieren. Wenn Sie CRR in einer Aktiv-Aktiv-Konfiguration aktiviert haben, können Amazon S3 Multi-Region Access Points außerdem Daten von dem Bucket-Standort in nächster Nähe abrufen, was die Anwendungsleistung verbessert. 

## AWS-Region Unterstützung
<a name="RegionSupport"></a>

Mit den Failover-Kontrollen für Amazon S3 Multi-Region Access Points können sich Ihre S3-Buckets in jeder der [17 Regionen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html) befinden, in denen Multi-Region Access Points unterstützt werden. Sie können ein Failover für zwei beliebige Regionen gleichzeitig initiieren.

**Anmerkung**  
Obwohl ein Failover nur zwischen zwei Regionen gleichzeitig initiiert wird, können Sie den Routing-Status für mehrere Regionen gleichzeitig in Ihrem Multi-Region Access Point separat aktualisieren.

In den folgenden Themen wird die Verwendung und Verwaltung von Failover-Kontrollen für Amazon S3 Multi-Region Access Points veranschaulicht.

**Topics**
+ [AWS-Region Unterstützung](#RegionSupport)
+ [Weiterleitungsstatus von Amazon S3 Multi-Region Access Points](FailoverConfiguration.md)
+ [Verwenden von Failover-Kontrollen für Amazon S3 Multi-Region Access Points](UsingFailover.md)
+ [Failover-Kontrollfehler für Amazon S3 Multi-Region Access Points](mrap-failover-errors.md)

# Weiterleitungsstatus von Amazon S3 Multi-Region Access Points
<a name="FailoverConfiguration"></a>

Ihre Failover-Konfiguration für Amazon S3 Multi-Region Access Points bestimmt den Weiterleitungsstatus der AWS-Regionen , die mit dem Multi-Region Access Point verwendet werden. Sie können Ihren Amazon S3 Multi-Region Access Point so konfigurieren, dass er sich in einem Aktiv-Aktiv- oder Aktiv-Passiv-Zustand befindet.
+ **Aktiv-Aktiv** – In einer Aktiv-Aktiv-Konfiguration werden alle Anfragen automatisch an die nächstgelegenen AWS-Region in Ihrem Multi-Region Access Point gesendet. Nachdem der Multi-Region Access Point so konfiguriert wurde, dass er sich in einem Aktiv-Aktiv-Zustand befindet, können alle Regionen Datenverkehr empfangen. Wenn in einer Aktiv-Aktiv-Konfiguration eine Verkehrsunterbrechung auftritt, wird der Netzwerkverkehr automatisch in eine der aktiven Regionen umgeleitet.
+ **Aktiv-Passiv** – In einer Aktiv-Passiv-Konfiguration empfangen die aktiven Regionen in Ihrem Multi-Region Access Point Traffic und die passiven Regionen nicht. Wenn Sie beabsichtigen, S3-Failover-Kontrollen zu verwenden, um in einer Notfallsituation ein Failover einzuleiten, richten Sie Ihre Multi-Region Access Points in einer Aktiv-Passiv-Konfiguration ein, während Sie die Notfallwiederherstellungsplanung testen und durchführen.

# Verwenden von Failover-Kontrollen für Amazon S3 Multi-Region Access Points
<a name="UsingFailover"></a>

In diesem Abschnitt wird erläutert, wie Sie Ihre Amazon S3 Multi-Region Access Points mithilfe der AWS-Managementkonsole verwalten und verwenden. 

**Es gibt zwei Failover-Steuerelemente im Abschnitt **Failover-Konfiguration** auf der Detailseite Ihres Access Points für mehrere Regionen unter AWS-Managementkonsole: **Routing-Status bearbeiten** und Failover.** Verwenden Sie diese Steuerelemente wie folgt: 
+ **Routing-Status bearbeiten** **— Sie können den Routing-Status von bis zu 17 AWS-Regionen in einer einzigen Anfrage für Ihren Multi-Region Access Point manuell bearbeiten, indem Sie Routing-Status bearbeiten wählen.** Sie können die Option **Edit routing status** (Weiterleitungsstatus bearbeiten) für folgende Zwecke verwenden: 
  + Zum Festlegen oder Bearbeiten der Weiterleitungsstatus einer oder mehrerer Regionen in Ihrem Multi-Region Access Point
  + Zum Erstellen einer Failover-Konfiguration für Ihren Multi-Region Access Point, indem Sie zwei Regionen so konfigurieren, dass sie sich in einem Aktiv-Passiv-Zustand befinden
  + So führen Sie ein manuelles Failover für Ihre Regionen durch
  + So leiten Sie Traffic manuell zwischen Regionen um
+ **Failover** – Wenn Sie ein Failover initiieren, indem Sie **Failover** auswählen, aktualisieren Sie nur den Weiterleitungsstatus von zwei Regionen, die bereits so konfiguriert sind, dass sie sich in einem Aktiv-Passiv-Zustand befinden. Während eines Failovers, das Sie initiiert haben, indem Sie **Failover** auswählen, wird der Weiterleitungsstatus zwischen den beiden Regionen automatisch gewechselt.

## Bearbeiten des Weiterleitungsstatus der Regionen in Ihrem Multi-Region Access Point
<a name="editing-mrap-routing-status"></a>

Sie können den Routing-Status von bis zu 17 AWS-Regionen in einer einzigen Anfrage für Ihren Multi-Region Access Point manuell aktualisieren, indem Sie auf Ihrer Detailseite für Multi-Region Access Point im Abschnitt **Failover-Konfiguration** die Option **Routing-Status bearbeiten** auswählen. Wenn Sie jedoch ein Failover initiieren, indem Sie **Failover** auswählen, aktualisieren Sie nur den Weiterleitungsstatus von zwei Regionen, die bereits so konfiguriert sind, dass sie sich in einem Aktiv-Passiv-Zustand befinden. Während eines Failovers, das Sie initiiert haben, indem Sie **Failover** auswählen, wird der Weiterleitungsstatus zwischen den beiden Regionen automatisch gewechselt.

Sie können die Option **Edit routing status** (Weiterleitungsstatus bearbeiten) (wie im folgenden Verfahren beschrieben) für die folgenden Zwecke verwenden:
+ Zum Festlegen oder Bearbeiten der Weiterleitungsstatus einer oder mehrerer Regionen in Ihrem Multi-Region Access Point
+ Zum Erstellen einer Failover-Konfiguration für Ihren Multi-Region Access Point, indem Sie zwei Regionen so konfigurieren, dass sie sich in einem Aktiv-Passiv-Zustand befinden
+ So führen Sie ein manuelles Failover für Ihre Regionen durch
+ So leiten Sie Traffic manuell zwischen Regionen um

### Verwenden der S3-Konsole
<a name="update-mrap-routing-console"></a>

**So aktualisieren Sie den Weiterleitungsstatus der Regionen in Ihrem Multi-Region Access Point**



1. Melden Sie sich bei der Management Console an. AWS 

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Multi-Region Access Point aus, den Sie aktualisieren möchten.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus.

1. Wählen Sie eine oder mehrere Regionen aus, deren Weiterleitungsstatus Sie bearbeiten möchten.
**Anmerkung**  
Um ein Failover einzuleiten, AWS-Region muss mindestens eine Region als **aktiv** und eine Region in Ihrem multiregionalen Access **Point als passiv** gekennzeichnet sein.

1. Wählen Sie **Edit routing status** (Weiterleitungsstatus bearbeiten) aus.

1. Wählen Sie in dem daraufhin angezeigten Dialogfeld **Active** (Aktiv) oder **Passive** (Passiv) als **Routing status** (Weiterleitungsstatus) für jede Region aus.

   Ein aktiver Status ermöglicht die Weiterleitung von Verkehr an die Region. Ein passiver Status verhindert, dass jeglicher Verkehr an die Region weitergeleitet wird.

   Wenn Sie eine Failover-Konfiguration für Ihren Multi-Region-Access Point erstellen oder einen Failover einleiten, AWS-Region muss mindestens eine Region in Ihrem Multi-Region-Access Point als **Aktiv** und eine Region als **Passiv** gekennzeichnet sein.

1. Wählen Sie **Save routing status** (Weiterleitungsstatus speichern) aus. Es dauert etwa 2 Minuten, bis der Verkehr umgeleitet wird.

Nachdem Sie den Routing-Status AWS-Regionen für Ihren Multi-Region Access Point übermittelt haben, können Sie Ihre Änderungen am Routing-Status überprüfen. Um diese Änderungen zu überprüfen, gehen Sie zu Amazon CloudWatch unter, [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/)um die Verschiebung Ihres Amazon S3 S3-Datenanforderungsverkehrs (z. B. `GET` und `PUT` Anfragen) zwischen aktiven und passiven Regionen zu überwachen. Bestehende Verbindungen werden während des Failovers nicht beendet. Bestehende Verbindungen werden fortgesetzt, bis der Erfolgs- bzw. Misserfolgsstatus angezeigt wird.

### Verwenden Sie den AWS CLI
<a name="update-mrap-routing-cli"></a>

**Anmerkung**  
Sie können AWS CLI Routing-Befehle für Access Points mit mehreren Regionen für jede dieser fünf Regionen ausführen:  
`ap-southeast-2`
`ap-northeast-1`
`us-east-1`
`us-west-2`
`eu-west-1`

Mit dem folgenden Beispielbefehl wird die aktuelle Weiterleitungskonfiguration Ihres Multi-Region Access Points aktualisiert. Wenn Sie den aktiven oder passiven Status eines Buckets aktualisieren möchten, legen Sie den Wert `TrafficDialPercentage` auf `100` für aktiv und auf `0` für passiv fest. In diesem Beispiel ist `amzn-s3-demo-bucket1` auf aktiv und *amzn-s3-demo-bucket2* auf passiv eingestellt. Wenn Sie dieses Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen. 

```
aws s3control submit-multi-region-access-point-routes
--region ap-southeast-2 
--account-id 123456789012 
--mrap MultiRegionAccessPoint_ARN
--route-updates Bucket=amzn-s3-demo-bucket1,TrafficDialPercentage=100
                Bucket=amzn-s3-demo-bucket2
,TrafficDialPercentage=0
```

Mit dem folgenden Beispielbefehl wird die aktualisierte Weiterleitungskonfiguration Ihres Multi-Region Access Points abgerufen. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 123456789012
--mrap MultiRegionAccessPoint_ARN
```

## Initiieren eines Failovers
<a name="InitiatingFailover"></a>

Wenn Sie einen Failover einleiten, indem Sie auf der Detailseite Ihres Multi-Region Access Points im Abschnitt **Failover configuration** (Failover-Konfiguration) die Option **Failover** auswählen, wird der Amazon-S3-Anforderungsverkehr automatisch auf eine alternative AWS-Region umgeleitet. Der Failover-Prozess ist innerhalb von 2 Minuten abgeschlossen. 

Sie können ein Failover in zwei beliebigen Regionen AWS-Regionen gleichzeitig einleiten (von den [17 Regionen, in denen Access Points mit mehreren Regionen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPointRestrictions.html) unterstützt werden). Failover-Ereignisse werden dann in AWS CloudTrail protokolliert. Nach Abschluss des Failovers können Sie den Amazon S3 S3-Verkehr und alle Aktualisierungen der Datenverkehrsweiterleitung für die neue aktive Region in Amazon CloudWatch überwachen.

**Wichtig**  
Damit alle Metadaten und Objekte während der Datenreplikation bucketübergreifend synchronisiert werden, empfehlen wir, bidirektionale Replikationsregeln zu erstellen und die Synchronisierung von Replikatänderungen zu aktivieren, bevor Sie Ihre Failover-Kontrollen konfigurieren.   
Bidirektionale Replikationsregeln tragen dazu bei, sicherzustellen, dass wenn Daten in den Amazon-S3-Bucket geschrieben werden, auf den der Datenverkehr bei einem Failover zurückgreift, diese Daten dann zurück in den Quell-Bucket repliziert werden. Durch die Synchronisierung von Replikatänderungen wird sichergestellt, dass die Objektmetadaten während der bidirektionalen Replikation auch zwischen Buckets synchronisiert werden.   
Weitere Informationen zum Konfigurieren der Replikation zur Unterstützung von Failover finden Sie unter [Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points](MultiRegionAccessPointBucketReplication.md).

**So leiten Sie ein Failover zwischen replizierten Buckets ein**

1. Melden Sie sich bei der AWS Management Console an.

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Multi-Region Access Point aus, den Sie zum Initiieren des Failovers verwenden möchten.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus.

1. Scrollen Sie nach unten zum Abschnitt **Failover configuration** (Failover-Konfiguration) und wählen Sie zwei AWS-Regionen aus.
**Anmerkung**  
Um ein Failover einzuleiten, AWS-Region muss mindestens eine Region als **aktiv** und eine Region in Ihrem multiregionalen Access **Point als passiv** gekennzeichnet sein. Ein aktiver Status ermöglicht die Weiterleitung von Verkehr an eine Region. Ein passiver Status verhindert, dass jeglicher Verkehr an die Region weitergeleitet wird.

1. Klicken Sie auf **Failover**.

1. Wählen Sie im Dialogfeld erneut **Failover** aus, um den Failover-Vorgang einzuleiten. Während dieses Vorgangs werden die Weiterleitungsstatus der beiden Regionen automatisch gewechselt. Der gesamte neue Traffic wird an die Region geleitet, die aktiv wird, und der Verkehr wird nicht mehr an die Region weitergeleitet, die passiv wird. Es dauert etwa 2 Minuten, bis der Verkehr umgeleitet wird.

   Nachdem Sie den Failover-Prozess eingeleitet haben, können Sie Ihre Verkehrsänderungen überprüfen. Um diese Änderungen zu überprüfen, gehen Sie zu Amazon CloudWatch unter, [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/)um die Verschiebung Ihres Amazon S3 S3-Datenanforderungsverkehrs (z. B. `GET` und `PUT` Anfragen) zwischen aktiven und passiven Regionen zu überwachen. Bestehende Verbindungen werden während des Failovers nicht beendet. Bestehende Verbindungen werden fortgesetzt, bis der Erfolgs- bzw. Misserfolgsstatus angezeigt wird. 

## Anzeigen Ihrer Weiterleitungskontrollen für Amazon S3 Multi-Region Access Points
<a name="viewing-mrap-routing-controls"></a>

### Verwenden der S3-Konsole
<a name="viewing-mrap-routing-console"></a>

**So zeigen Sie Ihre Weiterleitungskontrollen für Ihren Amazon S3 Multi-Region Access Point an**



1. Melden Sie sich bei der AWS Management Console an.

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Multi-Region Access Point aus, den Sie überprüfen möchten.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus. Auf dieser Seite werden die Konfigurationsdetails für die Weiterleitung und eine Zusammenfassung für Ihren Multi-Region Access Point, die zugehörigen Replikationsregeln und Replikationsmetriken angezeigt. Sie können den Weiterleitungsstatus Ihrer Regionen im Abschnitt **Failover configuration** (Failover-Konfiguration) sehen.

### Mit dem AWS CLI
<a name="viewing-mrap-routing-cli"></a>

Mit dem folgenden AWS CLI Beispielbefehl wird Ihre aktuelle Routenkonfiguration  für Multiregion Access Point für die angegebene Region abgerufen. Wenn Sie dieses Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 123456789012 
--mrap MultiRegionAccessPoint_ARN
```

**Anmerkung**  
Dieser Befehl kann nur für diese fünf Regionen ausgeführt werden:  
`ap-southeast-2`
`ap-northeast-1`
`us-east-1`
`us-west-2`
`eu-west-1`

# Failover-Kontrollfehler für Amazon S3 Multi-Region Access Points
<a name="mrap-failover-errors"></a>

Wenn Sie die Failover-Konfiguration für Ihren Multiregion Access Point aktualisieren, tritt möglicherweise einer der folgenden Fehler auf:
+ HTTP 400 Ungültige Anforderung: Dieser Fehler kann auftreten, wenn Sie bei der Aktualisierung Ihrer Failover-Konfiguration einen ungültigen ARN für den Multi-Region Access Point eingeben. Sie können den ARN Ihres Multi-Region Access Points anhand der Richtlinie des Multi-Region Access Points überprüfen. Informationen zur Überprüfung oder Aktualisierung Ihrer der Richtlinie Ihres Multi-Region Access Points finden Sie unter [Bearbeiten der Richtlinie für den Multi-Region Access Point](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingFailover.html#editing-mrap-policy). Dieser Fehler kann auch auftreten, wenn Sie beim Aktualisieren der Failover-Kontrollen für Ihren Amazon S3 Multi-Region Access Point eine leere oder zufällige Zeichenfolge verwenden. Für ARNs von Multi-Region Access Points muss folgendes Format verwendet werden: 

  `arn:aws:s3::account-id:accesspoint/MultiRegionAccessPoint_alias` 
+ HTTP 503 Slow Down: Dieser Fehler tritt auf, wenn Sie innerhalb kurzer Zeit zu viele Anforderungen senden. Abgelehnte Anforderungen führen zu einem Fehler.
+ HTTP 409 Conflict: Dieser Fehler tritt auf, wenn zwei oder mehr gleichzeitige Aktualisierungsanforderungen für die Weiterleitungskonfiguration an einen einzelnen Multi-Region Access Point gerichtet sind. Die erste Anforderung ist erfolgreich, aber alle anderen Anforderungen schlagen mit einem Fehler fehl.
+ HTTP 405-Methode nicht zulässig: Dieser Fehler tritt auf, wenn Sie bei der Initiierung des Failovers einen Access Point mit mehreren Regionen mit nur einem AWS-Region ausgewählt haben. Sie müssen zwei Regionen auswählen, bevor Sie den Failover einleiten können. Andernfalls wird ein Fehler zurückgegeben.

# Konfigurieren einer Replikation zur Verwendung mit Multi-Region Access Points
<a name="MultiRegionAccessPointBucketReplication"></a>

Wenn Sie eine Anforderung an einen Endpunkt eines Multi-Region Access Point stellen, leitet Amazon S3 die Anforderung automatisch an den Ihnen nächstgelegenen Bucket weiter. Amazon S3 berücksichtigt die Inhalte der Anforderung bei dieser Entscheidung nicht. Wenn Sie eine Anforderung stellen, um ein Objekt mit `GET` abzurufen, wird Ihre Anforderung möglicherweise an einen Bucket weitergeleitet, der keine Kopie dieses Objekts besitzt. In diesem Fall erhalten Sie den HTTP-Statuscode 404 (Nicht gefunden). Weitere Informationen zur Weiterleitung von Multi-Region-Access-Point-Anforderungen finden Sie unter [Weiterleitung der Multi-Regions-Zugriffspunktanforderung](MultiRegionAccessPointRequestRouting.md).

Wenn Sie möchten, dass der Multi-Region Access Point das Objekt unabhängig davon wiederherstellen kann, welcher Bucket die Anforderung empfängt, müssen Sie die regionsübergreifende Replikation von Amazon S3 (CRR) konfigurieren. 

 Betrachten Sie einen Multi-Region Access Point mit drei Buckets: 
+ Ein Bucket mit dem Namen `amzn-s3-demo-bucket1` in der Region `US West (Oregon)`, der das Objekt `my-image.jpg` enthält 
+ Ein Bucket mit dem Namen `amzn-s3-demo-bucket2` in der Region `Asia Pacific (Mumbai)`, der das Objekt `my-image.jpg` enthält 
+ Ein Bucket mit dem Namen `amzn-s3-demo-bucket` in der Region `Europe (Frankfurt)`, der das Objekt `my-image.jpg` nicht enthält 

Wenn Sie in dieser Situation eine `GetObject`-Anforderung für das Objekt `my-image.jpg` stellen, hängt der Erfolg dieser Anforderung davon ab, welcher Bucket Ihre Anforderung empfängt. Da Amazon S3 den Inhalt der Anforderung nicht berücksichtigt, kann es Ihre `GetObject`-Anforderung an den `amzn-s3-demo-bucket`-Bucket weiterleiten, wenn dieser Bucket aus nächster Nähe antwortet. Obwohl sich Ihr Objekt in einem Bucket im Multi-Region Access Point befindet, erhalten Sie einen HTTP-Fehler 404 Not Found, da der einzelne Bucket, der Ihre Anforderung empfangen hat, das Objekt nicht enthielt. 

Durch das Aktivieren der regionsübergreifenden Replikationsfunktion (CRR) kann dieses Ergebnis vermieden werden. Mit den entsprechenden Replikationsregeln wird das `my-image.jpg`-Objekt in den `amzn-s3-demo-bucket`-Bucket kopiert. Wenn Amazon S3 Ihre Anforderung an diesen Bucket weiterleitet, können Sie das Objekt daher jetzt abrufen. 

Die Replikation funktioniert normal mit Buckets, die einem Multi-Regions-Zugriffspunkt zugewiesen sind. Amazon S3 führt keine spezielle Replikationsbehandlung mit Buckets aus, die sich in Multi-Region Access Points befinden. Weitere Informationen zum Konfigurieren einer Replikation in Ihren Buckets finden Sie unter [Einrichten einer Live-Replikation – Überblick](replication-how-setup.md).

**Empfehlungen zur Verwendung der Replikationsfunktion mit Multi-Region Access Points**  
Für beste Replikationsleistung bei der Arbeit mit Multi-Region Access Points empfehlen wir Folgendes: 
+ Konfigurieren Sie die Begrenzung der S3-Replikationszeit (S3 RTC). Um Ihre Daten innerhalb eines vorhersehbaren Zeitraums über verschiedene Regionen hinweg zu replizieren, können Sie S3 RTC verwenden. S3 RTC repliziert 99,99 Prozent der neuen in Amazon S3 gespeicherten Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement). Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md). Für S3 RTC fallen zusätzliche Gebühren an. Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).
+ Verwenden Sie die bidirektionale Replikation, um die Synchronisierung von Buckets zu unterstützen, wenn Buckets über den Multi-Region Access Point aktualisiert werden. Weitere Informationen finden Sie unter [Erstellen von bidirektionalen Replikationsregeln für Ihren Multi-Region Access Point](mrap-create-two-way-replication-rules.md).
+ Erstellen Sie kontoübergreifende Multi-Region Access Points für die Replikation von Daten in Buckets in separaten AWS-Konten. Dieses Vorgehen ermöglicht eine Trennung auf Kontoebene, sodass auf Daten von verschiedenen Konten in anderen Regionen als dem Quell-Bucket zugegriffen werden kann und diese repliziert werden können. Die Einrichtung von kontoübergreifenden Multi-Region Access Points ist ohne zusätzliche Kosten möglich. Wenn Sie Bucket-Eigentümer, jedoch nicht Eigentümer des Multi-Region Access Point sind, zahlen Sie nur für die Datenübertragung und die Anforderungskosten. Eigentümer von Multi-Region Access Points tragen die Kosten für die Datenweiterleitung und die Internetbeschleunigung. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).
+ Aktivieren Sie die Synchronisierung von Replikatänderungen für jede Replikationsregel, um auch Metadatenänderungen an Ihren Objekten zu synchronisieren. Weitere Informationen finden Sie unter [Aktivieren der Synchronisierung von Replikatänderungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes).
+ Aktivieren Sie CloudWatch Amazon-Metriken zur [Überwachung von Replikationsereignissen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html). CloudWatch Es fallen Gebühren für Metriken an. Weitere Informationen finden Sie unter [ CloudWatchAmazon-Preise](https://aws.amazon.com/cloudwatch/pricing/).

**Topics**
+ [Erstellen von unidirektionalen Replikationsregeln für Ihren Multi-Region Access Point](mrap-create-one-way-replication-rules.md)
+ [Erstellen von bidirektionalen Replikationsregeln für Ihren Multi-Region Access Point](mrap-create-two-way-replication-rules.md)
+ [Anzeigen der Replikationsregeln für Ihren Multi-Region Access Point](mrap-view-replication-rules.md)

# Erstellen von unidirektionalen Replikationsregeln für Ihren Multi-Region Access Point
<a name="mrap-create-one-way-replication-rules"></a>

Replikationsregeln ermöglichen ein automatisches und asynchrones Kopieren von Objekten über Buckets hinweg. Eine Regel für die unidirektionale Replikation trägt dazu bei, dass Daten vollständig von einem Quell-Bucket in einer Region in einen Ziel-Bucket in einer AWS-Region anderen Region repliziert werden. Wenn unidirektionale Replikation eingerichtet ist, wird eine Replikationsregel vom Quell-Bucket (*amzn-s3-demo-bucket*) zum Ziel-Bucket (*amzn-s3-demo-bucket*) erstellt. Wie alle Replikationsregeln können Sie die unidirektionale Replikationsregel entweder auf den gesamten Amazon-S3-Bucket oder auf eine anhand eines Präfixes oder von Objekt-Tags gefilterte Teilmenge von Objekten anwenden.

**Wichtig**  
Wir empfehlen eine unidirektionale Replikation, wenn Ihre Benutzer die Objekte in Ihren Ziel-Buckets nur verwenden werden. Wenn Ihre Benutzer die Objekte in Ihren Ziel-Buckets hochladen oder ändern, verwenden Sie die bidirektionale Replikation, damit alle Ihre Buckets synchronisiert bleiben. Wir empfehlen eine bidirektionale Replikation auch, wenn Sie Ihren Multi-Region Access Point für Failover verwenden möchten. Informationen zum Einrichten der bidirektionalen Replikation finden Sie unter [Erstellen von bidirektionalen Replikationsregeln für Ihren Multi-Region Access Point](mrap-create-two-way-replication-rules.md).

**So erstellen Sie eine unidirektionale Replikationsregel für Ihren Multi-Region Access Point**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen Ihres Multi-Region Access Point aus.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus.

1. Scrollen Sie nach unten zum Abschnitt **Replication rules** (Replikationsregeln) und wählen Sie dann **Create replication rules** (Replikationsregeln erstellen) aus. Vergewissern Sie sich, dass Sie über ausreichende Berechtigungen verfügen, um die Replikationsregel zu erstellen. Andernfalls wird die Versionsverwaltung deaktiviert.
**Anmerkung**  
Sie können nur für Buckets in Ihrem eigenen Konto Replikationsregeln erstellen. Replikationsregeln für externe Buckets müssen die Bucket-Eigentümer selbst erstellen.

1. Wählen Sie auf der Seite **Replikationsregeln erstellen** die Vorlage zum **Replizieren von Objekten aus einem oder mehreren Quell-Buckets in einen oder mehrere Ziel-Buckets** aus.
**Wichtig**  
Wenn Sie Replikationsregeln mithilfe dieser Vorlage erstellen, ersetzen diese alle vorhandenen Replikationsregeln, die dem Bucket bereits zugewiesen sind.   
Wenn Sie Replikationsregeln hinzufügen oder bestehende Regeln ändern möchten, anstatt sie zu ersetzen, wechseln Sie in der Konsole zur Registerkarte **Management** (Verwaltung) der einzelnen Buckets und bearbeiten Sie dann die Regeln im Abschnitt **Replication rules** (Replikationsregeln). Mithilfe der REST-API, oder können Sie auch bestehende Replikationsregeln hinzufügen oder ändern. AWS CLI SDKs Weitere Informationen finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md).

1. Wählen Sie im Abschnitt **Quelle und Ziel** unter **Quell-Buckets** einen oder mehrere Buckets aus, aus dem/denen Sie Objekte replizieren möchten. Für alle für die Replikation ausgewählten Buckets (Quell- und Ziel-Buckets) muss die S3-Versionsverwaltung aktiviert sein und jeder Bucket muss sich in einer anderen AWS-Region befinden. Weitere Informationen zu S3 Versioning finden Sie unter [Verwenden der Versionsverwaltung in Amazon-S3-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).

   Wählen Sie unter **Ziel-Buckets** einen oder mehrere Buckets aus, in die Sie Objekte replizieren möchten.

1. Wählen Sie im Abschnitt **Replication rule configuration** (Konfiguration der Replikationsregel) aus, ob die Replikationsregel bei ihrer Erstellung **Enabled** (Aktiviert) oder **Disabled** (Deaktiviert) sein soll.
**Anmerkung**  
Sie können keinen Namen in das Feld **Replication rule name** (Name der Replikationsregel) eingeben. Die Namen der Replikationsregeln werden basierend auf Ihrer Konfiguration generiert, wenn Sie die Replikationsregel erstellen.

1. Wählen Sie im Abschnitt **Scope** (Bereich) den entsprechenden Bereich für Ihre Replikation aus.
   + Um den gesamten Bucket zu replizieren, wählen Sie **Apply to all objects in the bucket** (Auf alle Objekte im Bucket anwenden). 
   + Um eine Teilmenge der Objekte im Bucket zu replizieren, wählen Sie **Limit the scope of this rule using one or more filters** (Geltungsbereich dieser Regel mit einem oder mehreren Filtern einschränken) aus. 

     Sie können Ihre Objekte nach Präfix, Objekt-Tags oder einer Kombination aus beiden filtern. 
     + Wenn Sie die Replikation auf alle Objekte beschränken möchten, die mit derselben Zeichenfolge beginnen (z. B. `pictures`), geben Sie ein Präfix in das Feld **Prefix** (Präfix) ein. 

       Wenn Sie ein Präfix eingeben, bei dem es sich um den Namen eines Ordners handelt, müssen Sie ein Trennzeichen wie z. B. `/` (Schrägstrich) verwenden, um die Hierarchieebene des Ordners anzugeben (z. B. `pictures/`). Weitere Informationen zu Präfixen finden Sie unter [Organisieren von Objekten mit Präfixen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html).
     + Um alle Objekte mit einem oder mehreren Objekt-Tags zu replizieren, wählen Sie **Add tag** (Tag hinzufügen) aus und geben Sie das Schlüssel-Wert-Paar in die Felder ein. Wiederholen Sie den Vorgang, um ein weiteres Tag hinzuzufügen. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md).

1. Scrollen Sie nach unten zum Abschnitt **Additional replication options** (Zusätzliche Replikationsoptionen) und wählen Sie die Replikationsoptionen aus, die Sie anwenden möchten.
**Anmerkung**  
Wir empfehlen Ihnen, folgende Optionen anzuwenden:  
**Replication time control (RTC)** Begrenzung der Replikationszeit (RTC) – Um Ihre Daten innerhalb eines vorhersehbaren Zeitraums über verschiedene Regionen hinweg zu replizieren, können Sie die Begrenzung der S3-Replikationszeit (S3 RTC) verwenden. S3 RTC repliziert 99,99 Prozent der neuen in Amazon S3 gespeicherten Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement). Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).
**Replikationsmetriken und Benachrichtigungen** — Aktivieren Sie CloudWatch Amazon-Metriken zur Überwachung von Replikationsereignissen.
**Replikation der Löschmarkierung** – Durch S3-Löschvorgänge erstellte Löschmarkierungen werden repliziert. Durch Lebenszyklusregeln erstellte Löschmarkierungen werden nicht repliziert. Weitere Informationen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-marker-replication.html).
Für S3 RTC- und CloudWatch Replikationsmetriken und Benachrichtigungen fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing/) und [ CloudWatch Amazon-Preise](https://aws.amazon.com/cloudwatch/pricing/).

1. Wenn Sie eine neue Replikationsregel schreiben, die eine bestehende ersetzt, wählen Sie **I acknowledge that by choosing Create replication rules, these existing replication rules will be overwritten** (Ich bestätige, dass diese vorhandenen Replikationsregeln durch Auswählen von „Replikationsregeln erstellen“ überschrieben werden).

1. Wählen Sie **Replikationsregeln erstellen** aus, um Ihre neue unidirektionale Replikationsregel zu erstellen und zu speichern.

# Erstellen von bidirektionalen Replikationsregeln für Ihren Multi-Region Access Point
<a name="mrap-create-two-way-replication-rules"></a>

Replikationsregeln ermöglichen ein automatisches und asynchrones Kopieren von Objekten über Buckets hinweg. Eine bidirektionale Replikationsregel stellt sicher, dass Daten zwischen zwei oder mehr Buckets in verschiedenen AWS-Regionen vollständig synchronisiert werden. Wenn die bidirektionale Replikation eingerichtet ist, wird eine Replikationsregel vom Quell-Bucket (DOC-EXAMPLE-BUCKET-1) zu dem Bucket, der die Replikate enthält (DOC-EXAMPLE-BUCKET-2) erstellt. Anschließend wird eine zweite Replikationsregel von dem Bucket, der die Replikate enthält (DOC-EXAMPLE-BUCKET-2), zum Quell-Bucket (DOC-EXAMPLE-BUCKET-1) erstellt.

Wie alle Replikationsregeln können Sie die bidirektionale Replikationsregel entweder auf den gesamten Amazon-S3-Bucket oder auf eine anhand eines Präfixes oder von Objekt-Tags gefilterte Teilmenge von Objekten anwenden. Sie können auch Metadatenänderungen an Ihren Objekten u synchronisieren, indem Sie [die Synchronisierung von Replikatänderungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes) für jede Replikationsregel aktivieren. Sie können die Synchronisierung von Replikatänderungen über die Amazon S3 S3-Konsole, die AWS CLI AWS SDKs, die Amazon S3 S3-REST-API oder AWS CloudFormation aktivieren.

Um den Replikationsfortschritt von Objekten und Objektmetadaten in Amazon zu überwachen CloudWatch, aktivieren Sie S3-Replikationsmetriken und Benachrichtigungen. Weitere Informationen finden Sie unter [Überwachen des Fortschritts mit Replikationsmetriken und Amazon-S3-Ereignisbenachrichtigungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-metrics.html).

**So erstellen Sie eine bidirektionale Replikationsregel für Ihren Multi-Region Access Point**



1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen des Multi-Region Access Point aus, den Sie aktualisieren möchten.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus.

1. Scrollen Sie nach unten zum Abschnitt **Replication rules** (Replikationsregeln) und wählen Sie dann **Create replication rules** (Replikationsregeln erstellen) aus.

1. Wählen Sie auf der Seite **Create replication rules** (Replikationsregeln erstellen) die Vorlage **Replicate objects among all specified buckets** (Replizieren von Objekten zwischen allen angegebenen Buckets) aus. Die Vorlage **Replicate objects among all specified buckets** (Replizieren von Objekten zwischen allen angegebenen Buckets) richtet die bidirektionale Replikation (mit Failover-Funktionen) für Ihre Buckets ein.
**Wichtig**  
Wenn Sie Replikationsregeln mithilfe dieser Vorlage erstellen, ersetzen diese alle vorhandenen Replikationsregeln, die dem Bucket bereits zugewiesen sind.   
Wenn Sie Replikationsregeln hinzufügen oder bestehende Regeln ändern möchten, anstatt sie zu ersetzen, wechseln Sie in der Konsole zur Registerkarte **Management** (Verwaltung) der einzelnen Buckets und bearbeiten Sie dann die Regeln im Abschnitt **Replication rules** (Replikationsregeln). Mithilfe der Amazon S3 S3-REST-API können Sie auch bestehende Replikationsregeln hinzufügen oder ändern. AWS CLI AWS SDKs Weitere Informationen finden Sie unter [Elemente der Replikationskonfigurationsdatei](replication-add-config.md).

1. Wählen Sie im Abschnitt **Buckets** mindestens zwei Buckets aus, aus denen Sie Objekte replizieren möchten. Für alle für die Replikation ausgewählten Buckets muss S3 Versioning aktiviert sein und jeder Bucket muss sich in einer anderen AWS-Region befinden. Weitere Informationen zu S3 Versioning finden Sie unter [Verwenden der Versionsverwaltung in Amazon-S3-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html).
**Anmerkung**  
Stellen Sie sicher, dass Sie über die erforderlichen Lese- und Replikationsberechtigungen verfügen, um die Replikation einzurichten. Andernfalls treten Fehler auf. Weitere Informationen finden Sie unter [Erstellen einer IAM-Rolle](https://docs.aws.amazon.com/AmazonS3/latest/userguide/setting-repl-config-perm-overview.html).

1. Wählen Sie im Abschnitt **Replication rule configuration** (Konfiguration der Replikationsregel) aus, ob die Replikationsregel bei ihrer Erstellung **Enabled** (Aktiviert) oder **Disabled** (Deaktiviert) sein soll.
**Anmerkung**  
Sie können keinen Namen in das Feld **Replication rule name** (Name der Replikationsregel) eingeben. Die Namen der Replikationsregeln werden basierend auf Ihrer Konfiguration generiert, wenn Sie die Replikationsregel erstellen.

1. Wählen Sie im Abschnitt **Scope** (Bereich) den entsprechenden Bereich für Ihre Replikation aus.
   + Um den gesamten Bucket zu replizieren, wählen Sie **Apply to all objects in the bucket** (Auf alle Objekte im Bucket anwenden). 
   + Um eine Teilmenge der Objekte im Bucket zu replizieren, wählen Sie **Limit the scope of this rule using one or more filters** (Geltungsbereich dieser Regel mit einem oder mehreren Filtern einschränken) aus. 

     Sie können Ihre Objekte nach Präfix, Objekt-Tags oder einer Kombination aus beiden filtern. 
     + Wenn Sie die Replikation auf alle Objekte beschränken möchten, die mit derselben Zeichenfolge beginnen (z. B. `pictures`), geben Sie ein Präfix in das Feld **Prefix** (Präfix) ein. 

       Wenn Sie ein Präfix eingeben, das den Namen eines Ordners darstellt, müssen Sie `/` (Schrägstrich) als letztes Zeichen eingeben (z. B. `pictures/`).
     + Um alle Objekte mit einem oder mehreren Objekt-Tags zu replizieren, wählen Sie **Add tag** (Tag hinzufügen) aus und geben Sie das Schlüssel-Wert-Paar in die Felder ein. Wiederholen Sie den Vorgang, um ein weiteres Tag hinzuzufügen. Weitere Informationen über Objekt-Markierungen finden Sie unter [Kategorisierung Ihrer Objekte mit Hilfe von Tags](object-tagging.md).

1. Scrollen Sie nach unten zum Abschnitt **Additional replication options** (Zusätzliche Replikationsoptionen) und wählen Sie die Replikationsoptionen aus, die Sie anwenden möchten.
**Anmerkung**  
Wir empfehlen Ihnen, die folgenden Optionen anzuwenden, insbesondere wenn Sie Ihren Multi-Region Access Point so konfigurieren möchten, dass er Failover unterstützt:  
**Replication time control (RTC)** Begrenzung der Replikationszeit (RTC) – Um Ihre Daten innerhalb eines vorhersehbaren Zeitraums über verschiedene Regionen hinweg zu replizieren, können Sie die Begrenzung der S3-Replikationszeit (S3 RTC) verwenden. S3 RTC repliziert 99,99 Prozent der neuen in Amazon S3 gespeicherten Objekte innerhalb von 15 Minuten (gestützt auf ein Service Level Agreement). Weitere Informationen finden Sie unter [Erfüllen der Compliance-Anforderungen durch eine Begrenzung der S3-Replikationszeit (S3 RTC)](replication-time-control.md).
**Replikationsmetriken und Benachrichtigungen** — Aktivieren Sie CloudWatch Amazon-Metriken zur Überwachung von Replikationsereignissen.
**Replikation der Löschmarkierung** – Durch S3-Löschvorgänge erstellte Löschmarkierungen werden repliziert. Durch Lebenszyklusregeln erstellte Löschmarkierungen werden nicht repliziert. Weitere Informationen finden Sie unter [Replizieren von Löschmarkierungen auf Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-marker-replication.html).
**Replica modification sync** (Synchronisierung von Replikatänderungen) – Aktivieren Sie die Synchronisierung von Replikatänderungen für jede Replikationsregel, um auch Metadatenänderungen an Ihren Objekten zu synchronisieren. Weitere Informationen finden Sie unter [Aktivieren der Synchronisierung von Replikatänderungen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/replication-for-metadata-changes.html#enabling-replication-for-metadata-changes).
Für S3 RTC- und CloudWatch Replikationsmetriken und Benachrichtigungen fallen zusätzliche Gebühren an. Weitere Informationen finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing/) und [ CloudWatchAmazon-Preise](https://aws.amazon.com/cloudwatch/pricing/).

1. Wenn Sie eine neue Replikationsregel schreiben, die eine bestehende ersetzt, wählen Sie **I acknowledge that by choosing Create replication rules, these existing replication rules will be overwritten** (Ich bestätige, dass diese vorhandenen Replikationsregeln durch Auswählen von „Replikationsregeln erstellen“ überschrieben werden).

1. Wählen Sie **Create replication rules** (Replikationsregeln erstellen), um Ihre neuen bidirektionalen Replikationsregeln zu erstellen und zu speichern. 

# Anzeigen der Replikationsregeln für Ihren Multi-Region Access Point
<a name="mrap-view-replication-rules"></a>

Mit Multi-Region Access Points können Sie entweder unidirektionale oder bidirektionale Replikationsregeln einrichten. Informationen zur Verwaltung Ihrer Replikationsregeln finden Sie unter [Verwalten von Replikationsregeln mit der Amazon-S3-Konsole](https://docs.aws.amazon.com/AmazonS3/latest/userguide/disable-replication.html).

**So zeigen Sie die Replikationsregeln für Ihren Multi-Region Access Point an**



1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Multi-Region Access Points** aus.

1. Wählen Sie den Namen Ihres Multi-Region Access Point aus.

1. Wählen Sie die Registerkarte **Replication and failover** (Replikation und Failover) aus.

1. Scrollen Sie nach unten bis zum Abschnitt **Replikationsregeln**. In diesem Abschnitt sind alle Replikationsregeln aufgeführt, die für Ihren Multi-Region Access Point erstellt wurden.
**Anmerkung**  
Wenn Sie diesem Multi-Region Access Point einen Bucket von einem anderen Konto hinzugefügt haben, benötigen Sie die Berechtigung `s3:GetBucketReplication` vom Bucket-Eigentümer, um die Replikationsregeln für diesen Bucket anzeigen zu können.

# Verwenden von Multi-Region Access Points mit unterstützten API-Operationen
<a name="MrapOperations"></a>

 Amazon S3 unterstützt verschiedene Vorgänge, mit denen Sie Multi-Region Access Points verwalten können. Amazon S3 verarbeitet einige dieser Vorgänge synchron und einige asynchron. Wenn Sie einen asynchronen Vorgang aufrufen, autorisiert Amazon S3 den angeforderten Vorgang zunächst synchron. Wenn die Autorisierung erfolgreich ist, gibt Amazon S3 ein Token zurück, mit dem Sie den Fortschritt und die Ergebnisse des angeforderten Vorgangs verfolgen können. 

**Anmerkung**  
Anforderungen, die über die Amazon-S3-Konsole erfolgen, sind immer synchron. Die Konsole wartet, bis die Anforderung abgeschlossen ist, bevor Sie eine weitere Anforderung senden können. 

Sie können den aktuellen Status und die Ergebnisse asynchroner Operationen mithilfe der Konsole oder `DescribeMultiRegionAccessPointOperation` in der AWS CLI AWS SDKs, oder REST-API anzeigen. Amazon S3 stellt ein Tracking-Token in der Antwort auf einen asynchronen Vorgang bereit. Sie schließen dieses Tracking-Token als Argument für `DescribeMultiRegionAccessPointOperation` ein. Wenn Sie das Tracking-Token einschließen, gibt Amazon S3 den aktuellen Status und die Ergebnisse des angegebenen Vorgangs zurück, einschließlich etwaiger Fehler oder relevanter Ressourceninformationen. Amazon S3 führt `DescribeMultiRegionAccessPointOperation`-Vorgänge synchron durch. 

Alle Anforderungen auf Steuerebene zum Erstellen oder Verwalten von Multi-Region Access Points müssen an die Region `US West (Oregon)` weitergeleitet werden. Für Anforderungen von Multi-Region Access Point auf Steuerebene müssen keine Regionen angegeben werden. Für die Failover-Steuerebene von Multi-Region Access Points muss die Anforderung an eine der fünf unterstützten Regionen weitergeleitet werden. Weitere Informationen zu unterstützten Regionen von Multi-Regions-Zugangspunkten finden Sie unter [Einschränkungen und Beschränkungen des Multi-Regions-Zugriffspunkts](MultiRegionAccessPointRestrictions.md).

Darüber hinaus müssen Sie dem Benutzer, der Rolle oder einer anderen Entität AWS Identity and Access Management (IAM), die eine Anfrage zur Verwaltung eines Access Points mit mehreren Regionen stellt, die `s3:ListAllMyBuckets` Erlaubnis erteilen. 

Die folgenden Beispiele veranschaulichen, wie Multi-Region Access Points mit kompatiblen Operationen in Amazon S3 verwendet werden.

**Topics**
+ [Kompatibilität von Access Points in mehreren Regionen mit und AWS-Services AWS SDKs](#mrap-api-support)
+ [Kompatibilität von Multi-Region Access Points mit S3-Operationen](#mrap-operations-support)
+ [Anzeigen Ihrer Weiterleitungskonfiguration für Multi-Region Access Points](#query-mrap-routing-configuration)
+ [Aktualisieren der zugrunde liegende Bucket-Richtlinie von Amazon S3](#update-underlying-bucket-policy)
+ [Aktualisieren einer Weiterleitungskonfiguration von Multi-Region Access Points](#update-mrap-route-configuration)
+ [Hinzufügen eines Objekts zu einem Bucket in Ihrem Multi-Region Access Point](#add-bucket-mrap)
+ [Abrufen von Objekten von Ihrem Multi-Region Access Point](#get-object-mrap)
+ [Auflisten von Objekten, die in einem Bucket gespeichert sind, der Ihrem Multi-Region Access Point zugrunde liegt](#list-objects-mrap)
+ [Verwenden einer vorsignierte URL mit Multi-Region Access Points](#use-presigned-url-mrap)
+ [Verwenden eines Buckets, der mit „Zahlung durch den Anforderer“ konfiguriert ist, mit Multi-Region Access Points](#use-requester-pays-mrap)

## Kompatibilität von Access Points in mehreren Regionen mit und AWS-Services AWS SDKs
<a name="mrap-api-support"></a>

Um einen Multi-Region-Access Point mit Anwendungen zu verwenden, die einen Amazon S3 S3-Bucket-Namen benötigen, verwenden Sie den Amazon-Ressourcennamen (ARN) des Multi-Region Access Points, wenn Sie Anfragen mithilfe eines AWS SDK stellen. [Informationen darüber, welche mit Multi-Region-Access Points kompatibel AWS SDKs sind, finden Sie unter Kompatibilität mit. AWS SDKs](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat)

## Kompatibilität von Multi-Region Access Points mit S3-Operationen
<a name="mrap-operations-support"></a>

Sie können die folgenden API-Operationen von Amazon S3 auf Datenebene verwenden, um Aktionen für Objekte in Buckets auszuführen, die Ihrem Multi-Region Access Point zugeordnet sind. Die folgenden S3-Operationen können Access Points mit mehreren Regionen akzeptieren: ARNs
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_AbortMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_AbortMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateMultipartUpload.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateMultipartUpload.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLegalHold.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectRetention.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListParts.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListParts.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPart.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPart.html)

**Anmerkung**  
Multi-Region Access Points unterstützen Kopiervorgänge unter Verwendung von Multi-Region Access Points nur als Ziel, wenn der ARN des Multi-Region Access Point verwendet wird.

Sie können die folgenden Amazon-S3-Operationen auf Steuerebene verwenden, um Ihre Multi-Region Access Points zu erstellen und zu verwalten:
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_CreateMultiRegionAccessPoint.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_CreateMultiRegionAccessPoint.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DescribeMultiRegionAccessPointOperation.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_DescribeMultiRegionAccessPointOperation.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPoint.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPoint.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicyStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointPolicyStatus.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointRoutes.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_GetMultiRegionAccessPointRoutes.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_ListMultiRegionAccessPoints.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_ListMultiRegionAccessPoints.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_PutMultiRegionAccessPointPolicy.html)
+ [https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_SubmitMultiRegionAccessPointRoutes.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_control_SubmitMultiRegionAccessPointRoutes.html)

## Anzeigen Ihrer Weiterleitungskonfiguration für Multi-Region Access Points
<a name="query-mrap-routing-configuration"></a>

------
#### [ AWS CLI ]

Mit dem folgenden Beispielbefehl wird Ihre Routenkonfiguration für Multi-Region Access Points abgerufen, sodass Sie die aktuellen Weiterleitungstatus für Ihre Buckets sehen können. Wenn Sie diesen Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control get-multi-region-access-point-routes
--region eu-west-1
--account-id 111122223333
--mrap arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap
```

------
#### [ SDK for Java ]

Mit dem folgenden Code von SDK für Java wird Ihre Routenkonfiguration für Multi-Region Access Points abgerufen, sodass Sie die aktuellen Weiterleitungstatus für Ihre Buckets sehen können. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
S3ControlClient s3ControlClient = S3ControlClient.builder()
    .region(Region.US_EAST_1)
    .credentialsProvider(credentialsProvider)
    .build();
 
GetMultiRegionAccessPointRoutesRequest request = GetMultiRegionAccessPointRoutesRequest.builder()
    .accountId("111122223333")
    .mrap("arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap")
    .build();
 
GetMultiRegionAccessPointRoutesResponse response = s3ControlClient.getMultiRegionAccessPointRoutes(request);
```

------
#### [ SDK for JavaScript ]

Das folgende SDK für JavaScript Code ruft die Routenkonfiguration Ihres Access Points für mehrere Regionen ab, sodass Sie den aktuellen Routing-Status für Ihre Buckets einsehen können. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
const REGION = 'us-east-1'
 
const s3ControlClient = new S3ControlClient({
  region: REGION
})
 
export const run = async () => {
  try {
    const data = await s3ControlClient.send(
      new GetMultiRegionAccessPointRoutesCommand({
        AccountId: '111122223333',
        Mrap: 'arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap',
      })
    )
    console.log('Success', data)
    return data
  } catch (err) {
    console.log('Error', err)
  }
}
 
run()
```

------
#### [ SDK for Python ]

Mit dem folgenden Code von SDK für Python wird Ihre Routenkonfiguration für Multi-Region Access Points abgerufen, sodass Sie die aktuellen Weiterleitungstatus für Ihre Buckets sehen können. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
s3.get_multi_region_access_point_routes(
        AccountId=111122223333,
        Mrap=arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap)['Routes']
```

------

## Aktualisieren der zugrunde liegende Bucket-Richtlinie von Amazon S3
<a name="update-underlying-bucket-policy"></a>

Damit ein ordnungsgemäßer Zugriff gewährt wird, müssen Sie auch die zugrunde liegende Bucket-Richtlinie von Amazon S3 aktualisieren. In den folgenden Beispielen wird die Zugriffskontrolle an die Richtlinie für Multi-Region Access Points delegiert. Nachdem Sie die Zugriffskontrolle an die Richtlinie für Multi-Region Access Points delegiert haben, wird die Bucket-Richtlinie nicht mehr für die Zugriffskontrolle verwendet, wenn Anforderungen über den Multi-Region Access Point gestellt werden.

Hier ist ein Beispiel für eine Bucket-Richtlinie, die die Zugriffskontrolle an die Richtlinie der Multi-Region Access Points delegiert. Wenn Sie diese Bucket-Beispielrichtlinie verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen. Um diese Richtlinie mithilfe des AWS CLI `put-bucket-policy` Befehls anzuwenden, wie im nächsten Beispiel gezeigt, speichern Sie die Richtlinie beispielsweise in einer Datei. `policy.json`

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": { 
        "AWS": "arn:aws:iam::444455556666:root" 
      },
      "Action": [
        "s3:GetObject",
        "s3:PutObject",
        "s3:DeleteObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::amzn-s3-demo-bucket",
        "arn:aws:s3:::amzn-s3-demo-bucket/*"
      ],
      "Condition": {
        "StringEquals": {
          "s3:DataAccessPointAccount": "444455556666"
        }
      }
    }
  ]
}
```

------

Der folgende Beispielbefehl `put-bucket-policy` verknüpft die aktualisierte S3-Bucket-Richtlinie mit Ihrem S3-Bucket:

```
aws s3api put-bucket-policy
  --bucket amzn-s3-demo-bucket
  --policy file:///tmp/policy.json
```

## Aktualisieren einer Weiterleitungskonfiguration von Multi-Region Access Points
<a name="update-mrap-route-configuration"></a>

Mit dem folgenden Beispielbefehl wird die Weiterleitungskonfiguration des Multi-Region Access Points aktualisiert. Weiterleitungsbefehle für den Multi-Region Access Point können in einer dieser fünf Regionen ausgeführt werden:
+ `ap-southeast-2`
+ `ap-northeast-1`
+ `us-east-1`
+ `us-west-2`
+ `eu-west-1`

In einer Weiterleitungskonfiguration für den Multi-Region Access Point können Sie Buckets auf einen aktiven oder passiven Weiterleitungsstatus festlegen. Aktive Buckets empfangen Traffic, passive Buckets nicht. Sie können den Weiterleitungsstatus eines Buckets festlegen, indem Sie den Wert `TrafficDialPercentage` für den Bucket auf `100` für aktiv oder `0` für passiv einstellen. 

------
#### [ AWS CLI ]

Mit dem folgenden Beispielbefehl wird die Weiterleitungskonfiguration Ihres Multi-Region Access Points aktualisiert. In diesem Beispiel ist `amzn-s3-demo-bucket1` auf den aktiven Status und `amzn-s3-demo-bucket2` auf den passiven Status eingestellt. Wenn Sie diese Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
aws s3control submit-multi-region-access-point-routes
--region ap-southeast-2 
--account-id 111122223333
--mrap arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap
--route-updates Bucket=amzn-s3-demo-bucket1,TrafficDialPercentage=100
                Bucket=amzn-s3-demo-bucket2,TrafficDialPercentage=0
```

------
#### [ SDK for Java ]

Mit dem folgenden Code von SDK für Java wird die Weiterleitungskonfiguration Ihres Multi-Region Access Points aktualisiert. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
S3ControlClient s3ControlClient = S3ControlClient.builder()
    .region(Region.ap-southeast-2)
    .credentialsProvider(credentialsProvider)
    .build();
 
SubmitMultiRegionAccessPointRoutesRequest request = SubmitMultiRegionAccessPointRoutesRequest.builder()
    .accountId("111122223333")
    .mrap("arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap")
    .routeUpdates(
        MultiRegionAccessPointRoute.builder()
            .region("eu-west-1")
            .trafficDialPercentage(100)
            .build(),
        MultiRegionAccessPointRoute.builder()
            .region("ca-central-1")
            .bucket("111122223333")
            .trafficDialPercentage(0)
            .build()
    )
    .build();
 
SubmitMultiRegionAccessPointRoutesResponse response = s3ControlClient.submitMultiRegionAccessPointRoutes(request);
```

------
#### [ SDK for JavaScript ]

Das folgende SDK für JavaScript Code aktualisiert Ihre Routenkonfiguration für Access Points in mehreren Regionen. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
const REGION = 'ap-southeast-2'
 
const s3ControlClient = new S3ControlClient({
  region: REGION
})
 
export const run = async () => {
  try {
    const data = await s3ControlClient.send(
      new SubmitMultiRegionAccessPointRoutesCommand({
        AccountId: '111122223333',
        Mrap: 'arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap',
        RouteUpdates: [
          {
            Region: 'eu-west-1',
            TrafficDialPercentage: 100,
          },
          {
            Region: 'ca-central-1',
            Bucket: 'amzn-s3-demo-bucket1',
            TrafficDialPercentage: 0,
          },
        ],
      })
    )
    console.log('Success', data)
    return data
  } catch (err) {
    console.log('Error', err)
  }
}
 
run()
```

------
#### [ SDK for Python ]

Mit dem folgenden Code von SDK für Python wird die Weiterleitungskonfiguration Ihres Multi-Region Access Points aktualisiert. Wenn Sie diese Beispielsyntax verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre Informationen.

```
s3.submit_multi_region_access_point_routes(
        AccountId=111122223333,
        Mrap=arn:aws:s3::111122223333:accesspoint/abcdef0123456.mrap, 
        RouteUpdates= [{
            'Bucket': amzn-s3-demo-bucket,
            'Region': ap-southeast-2, 
            'TrafficDialPercentage': 10
        }])
```

------

## Hinzufügen eines Objekts zu einem Bucket in Ihrem Multi-Region Access Point
<a name="add-bucket-mrap"></a>

Verwenden Sie die Operation [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html), um ein Objekt zu dem Bucket hinzuzufügen, der dem Multi-Region Access Point zugeordnet ist. Aktivieren Sie die [regionsübergreifende Replikation](MultiRegionAccessPointBucketReplication.md), um alle Buckets im Multi-Region Access Point synchron zu halten.

**Anmerkung**  
Für diese Operation müssen Sie über die `s3:PutObject`-Berechtigung für den Multi-Region Access Point verfügen. Weitere Informationen zu den Berechtigungsanforderungen für Multi-Region Access Points finden Sie unter [Berechtigungen](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

Das folgende Beispiel für eine Anforderung auf Datenebene lädt *`example.txt`* auf den angegebenen Multi-Region Access Point hoch. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *`user input placeholders`* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3api put-object --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap --key example.txt --body example.txt
```

------
#### [ SDK for Java ]

```
S3Client s3Client = S3Client.builder()
        .build();
        
PutObjectRequest objectRequest = PutObjectRequest.builder()
        .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
        .key("example.txt")
        .build();

s3Client.putObject(objectRequest, RequestBody.fromString("Hello S3!"));
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({});

async function putObjectExample() {
    const command = new PutObjectCommand({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
        Key: "example.txt",
        Body: "Hello S3!",
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.put_object(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap',
    Key='example.txt',
    Body='Hello S3!'
)
```

------

## Abrufen von Objekten von Ihrem Multi-Region Access Point
<a name="get-object-mrap"></a>

Verwenden Sie die Operation [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html), um Objekte aus dem Multi-Region Access Point abzurufen.

**Anmerkung**  
Für diese API-Operation müssen Sie über die `s3:GetObject`-Berechtigung für den Multi-Region Access Point verfügen. Weitere Informationen zu den Berechtigungsanforderungen für Multi-Region Access Points finden Sie unter [Berechtigungen](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

Das folgende Beispiel für eine Anforderung auf Datenebene ruft die Datei *`example.txt`* vom angegebenen Multi-Region Access Point ab und lädt sie mit dem Namen *`downloaded_example.txt`* herunter. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *`user input placeholders`* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3api get-object --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap --key example.txt downloaded_example.txt
```

------
#### [ SDK for Java ]

```
S3Client s3 = S3Client
   .builder()
   .build();

GetObjectRequest getObjectRequest = GetObjectRequest.builder()
    .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
    .key("example.txt")
    .build();

s3Client.getObject(getObjectRequest);
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({})

async function getObjectExample() {
    const command = new GetObjectCommand({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
        Key: "example.txt"
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.get_object(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap',
    Key='example.txt'
)
```

------

## Auflisten von Objekten, die in einem Bucket gespeichert sind, der Ihrem Multi-Region Access Point zugrunde liegt
<a name="list-objects-mrap"></a>

Verwenden Sie die Operation [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html), um eine Liste von Objekten zurückzugeben, die in einem Bucket gespeichert sind, der Ihrem Multi-Region Access Point zugrunde liegt. Mit dem folgenden Beispielbefehl werden alle Objekte für den angegebenen Multi-Region Access Point aufgeführt, indem der ARN für den Multi-Region Access Point verwendet wird. In diesem Fall lautet der ARN für den Multi-Region Access Point:

`arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap`

**Anmerkung**  
Für diese API-Operation müssen Sie über die `s3:ListBucket`-Berechtigung für den Multi-Region Access Point und den zugrunde liegenden Bucket verfügen. Weitere Informationen zu den Berechtigungsanforderungen für Multi-Region Access Points finden Sie unter [Berechtigungen](MultiRegionAccessPointPermissions.md).

------
#### [ AWS CLI ]

In der folgenden Beispielanforderung auf Datenebene werden die Objekte in dem Bucket aufgeführt, der dem vom ARN angegebenen Multi-Region Access Point zugrunde liegt. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *`user input placeholders`* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3api list-objects-v2 --bucket arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap
```

------
#### [ SDK for Java ]

```
S3Client s3Client = S3Client.builder()
        .build();
        
String bucketName = "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap";

ListObjectsV2Request listObjectsRequest = ListObjectsV2Request
    .builder()
    .bucket(bucketName)
    .build();

 s3Client.listObjectsV2(listObjectsRequest);
```

------
#### [ SDK for JavaScript ]

```
const client = new S3Client({});

async function listObjectsExample() {
    const command = new ListObjectsV2Command({
        Bucket: "arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap",
    });
    
    try {
        const response = await client.send(command);
        console.log(response);
    } catch (err) {
        console.error(err);
    }
}
```

------
#### [ SDK for Python ]

```
import boto3

client = boto3.client('s3')
client.list_objects_v2(
    Bucket='arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap'
)
```

------

## Verwenden einer vorsignierte URL mit Multi-Region Access Points
<a name="use-presigned-url-mrap"></a>

Sie können eine vorsignierte URL verwenden, um eine URL zu generieren, die es anderen ermöglicht, über einen Amazon S3 Multi-Region Access Point auf Ihre Amazon-S3-Buckets zuzugreifen. Wenn Sie eine vorsignierte URL erstellen, verknüpfen Sie diese mit einer bestimmten Objektaktion, z. B. einem S3-Upload (`PutObject`) oder einem S3-Download (`GetObject`). Sie können die vorsignierte URL freigeben und jeder, der Zugriff darauf hat, kann die in die URL eingebettete Aktion so ausführen, als wäre er der ursprüngliche signierende Benutzer.

Vorsignierte URLs haben ein Ablaufdatum. Wenn das Ablaufdatum erreicht ist, funktioniert die URL nicht mehr. 

Bevor Sie S3 Multiregion Access Points mit vorsignierter Version verwenden URLs, überprüfen Sie die [AWS SDK-Kompatibilität mit dem SigV4A-Algorithmus](https://docs.aws.amazon.com/sdkref/latest/guide/feature-s3-mrap.html#s3-mrap-sdk-compat). Stellen Sie sicher, dass Ihre SDK-Version SigV4A als Signaturimplementierung unterstützt, die zum Signieren der globalen Anforderungen von AWS-Region verwendet wird. Weitere Informationen zur Verwendung von presigned URLs with Amazon S3 finden Sie unter [Sharing objects by using URLs presigned](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ShareObjectPreSignedURL.html).

Die folgenden Beispiele zeigen, wie Sie multiregionale Access Points mit vorsignierten Geräten verwenden können. URLs Wenn Sie diese Beispiele verwenden möchten, ersetzen Sie die *`user input placeholders`* durch Ihre Informationen.

------
#### [ AWS CLI ]

```
aws s3 presign arn:aws:s3::123456789012:accesspoint/MultiRegionAccessPoint_alias/example-file.txt
```

------
#### [ SDK for Python ]

```
import logging
import boto3
from botocore.exceptions import ClientError

s3_client = boto3.client('s3',aws_access_key_id='xxx',aws_secret_access_key='xxx')
s3_client.generate_presigned_url(HttpMethod='PUT',ClientMethod="put_object", Params={'Bucket':'arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap','Key':'example-file'})
```

------
#### [ SDK for Java ]

```
S3Presigner s3Presigner = S3Presigner.builder()
    .credentialsProvider(StsAssumeRoleCredentialsProvider.builder()
        .refreshRequest(assumeRole)
        .stsClient(stsClient)
        .build())
    .build();

GetObjectRequest getObjectRequest = GetObjectRequest.builder()
    .bucket("arn:aws:s3::123456789012:accesspoint/abcdef0123456.mrap")
    .key("example-file")
    .build();

GetObjectPresignRequest preSignedReq = GetObjectPresignRequest.builder()
    .getObjectRequest(getObjectRequest)
    .signatureDuration(Duration.ofMinutes(10))
    .build();

PresignedGetObjectRequest presignedGetObjectRequest = s3Presigner.presignGetObject(preSignedReq);
```

------

**Anmerkung**  
Um SigV4a mit temporären Sicherheitsanmeldeinformationen zu verwenden, z. B. bei der Verwendung von IAM-Rollen, stellen Sie sicher, dass Sie die temporären Anmeldeinformationen von einem regionalen Endpunkt in () und nicht von einem globalen Endpunkt anfordern. AWS -Security-Token-Service AWS STS Wenn Sie den globalen Endpunkt für AWS STS (`sts.amazonaws.com`) verwenden, AWS STS werden temporäre Anmeldeinformationen von einem globalen Endpunkt generiert, was von Sig4A nicht unterstützt wird. Aus diesem Grund erhalten Sie eine Fehlermeldung. Um dieses Problem zu beheben, verwenden Sie einen der aufgelisteten [regionalen Endpunkte](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_temp_enable-regions.html#id_credentials_region-endpoints) für. AWS STS

## Verwenden eines Buckets, der mit „Zahlung durch den Anforderer“ konfiguriert ist, mit Multi-Region Access Points
<a name="use-requester-pays-mrap"></a>

Wenn ein S3-Bucket, der Ihren Multi-Region Access Points zugeordnet ist, [für die Verwendung von „Zahlung durch den Anforderer“ konfiguriert](https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysExamples.html) ist, trägt der Anforderer die Kosten für die Bucket-Anforderung, den Download und alle mit Multi-Region Access Points verbundenen Kosten. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/).

Hier sehen Sie ein Beispiel für eine Anforderung auf Datenebene an einen Multi-Region Access Point, der mit einem Bucket mit Zahlung durch den Anforderer verbunden ist.

------
#### [ AWS CLI ]

Wenn Sie Objekte von einem Multi-Region Access Point herunterladen möchten, der mit einem Bucket mit Zahlung durch den Anforderer verbunden ist, müssen Sie `--request-payer requester` als Teil Ihrer Anforderung [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/get-object.html) angeben. Sie müssen auch den Namen der Datei im Bucket sowie den Ort angeben, an dem sie gespeichert werden soll.

```
aws s3api get-object --bucket MultiRegionAccessPoint_ARN --request-payer requester --key example-file-in-bucket.txt example-location-of-downloaded-file.txt 
```

------
#### [ SDK for Java ]

Wenn Sie Objekte von einem Multi-Region Access Point herunterladen möchten, der mit einem Bucket mit Zahlung durch den Anforderer verbunden ist, müssen Sie `RequestPayer.REQUESTER` als Teil Ihrer Anforderung `GetObject` angeben. Sie müssen auch den Namen der Datei in dem Bucket sowie den Ort angeben, an dem sie gespeichert werden soll.

```
GetObjectResponse getObjectResponse = s3Client.getObject(GetObjectRequest.builder()
    .key("example-file.txt")
    .bucket("arn:aws:s3::
123456789012:accesspoint/abcdef0123456.mrap")
    .requestPayer(RequestPayer.REQUESTER)
    .build()
).response();
```

------

# Überwachung und Protokollierung von Anforderungen, die über einen Multi-Regions-Zugriffspunkt an zugrunde liegende Ressourcen erfolgen
<a name="MultiRegionAccessPointMonitoring"></a>

Amazon S3 protokolliert Anforderungen, die über Multi-Region Access Points gestellt werden, und Anforderungen an die API-Operationen, die sie verwalten, wie z. B. `CreateMultiRegionAccessPoint` und `GetMultiRegionAccessPointPolicy`. Anfragen, die über einen Multiregion Access Point an Amazon S3 gestellt werden, erscheinen in Ihren Amazon S3 S3-Serverzugriffsprotokollen und AWS CloudTrail Protokollen mit dem Hostnamen des Multi-Region Access Points. Der Hostname eines Zugriffspunkts hat das Format `MRAP_alias.accesspoint.s3-global.amazonaws.com`. Angenommen, Sie haben die folgende Bucket- und Multi-Regions-Zugriffspunktkonfiguration: 
+ Ein Bucket mit dem Namen `my-bucket-usw2` in der Region `us-west-2`, der das Objekt `my-image.jpg` enthält. 
+ Ein Bucket mit dem Namen `my-bucket-aps1` in der Region `ap-south-1`, der das Objekt `my-image.jpg` enthält. 
+  Ein Bucket mit dem Namen `my-bucket-euc1` in der Region `eu-central-1`, der kein Objekt namens `my-image.jpg` enthält. 
+  Ein Multi-Regions-Zugriffspunkt namens `my-mrap` mit dem Alias `mfzwi23gnjvgw.mrap`, der so konfiguriert ist, dass Anforderungen aus allen drei Buckets erfüllt werden. 
+  Ihre AWS Konto-ID lautet. `123456789012` 

Eine Anforderung, die gesendet wird, um `my-image.jpg` direkt über einen der Buckets anzurufen, wird in Ihren Protokollen mit dem Hostnamen `bucket_name.s3.Region.amazonaws.com` angezeigt. 

Wenn Sie die Anforderung stattdessen über den Multi-Region Access Point stellen, bestimmt Amazon S3 zunächst, welcher der Buckets in den verschiedenen Regionen am nächsten gelegen ist. Nach der Ermittlung, welcher Bucket zur Erfüllung der Anforderung verwendet werden soll, sendet Amazon S3 die Anforderung an diesen Bucket und protokolliert den Vorgang unter Verwendung des Hostnamens des Multi-Region Access Point. Wenn Amazon S3 in diesem Beispiel die Anforderung an `my-bucket-aps1` weiterleitet, spiegeln Ihre Protokolle eine erfolgreiche `GET`-Anforderung für `my-image.jpg` von `my-bucket-aps1` unter Verwendung des Hostnamens `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` wider. 

**Wichtig**  
Multi-Region Access Points kennen den Dateninhalt der zugrunde liegenden Buckets nicht. Daher kann es sein, dass der Bucket, der die Anforderung erhält, die angeforderten Daten nicht enthält. Wenn Amazon S3 beispielsweise feststellt, dass der Bucket `my-bucket-euc1` am nächsten gelegen ist, spiegeln Ihre Protokolle eine fehlgeschlagene `GET`-Anforderung für `my-image.jpg` von `my-bucket-euc1` unter Verwendung des Hostnamens `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` wider. Wenn die Anforderung stattdessen an `my-bucket-usw2` weitergeleitet worden wäre, würden Ihre Protokolle eine erfolgreiche `GET`-Anforderung anzeigen.

 Weitere Informationen zu Amazon S3-Server-Zugriffsprotokollen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md). Weitere Informationen zu AWS CloudTrail finden Sie unter [Was ist AWS CloudTrail?](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) im *AWS CloudTrail Benutzerhandbuch*. 

## Überwachen und Protokollieren von Anforderungen an Verwaltungs-API-Operationen von Multi-Region Access Points
<a name="MonitoringMultiRegionAccessPointAPIs"></a>

Amazon S3 bietet verschiedene API-Operationen für die Verwaltung von Multi-Region Access Points, wie z. B. `CreateMultiRegionAccessPoint` und `GetMultiRegionAccessPointPolicy`. Wenn Sie Anfragen an diese API-Operationen mithilfe der AWS Command Line Interface (AWS CLI) AWS SDKs, oder Amazon S3-REST-API stellen, verarbeitet Amazon S3 diese Anfragen asynchron. Vorausgesetzt, Sie verfügen über die entsprechenden Berechtigungen für die Anforderung, gibt Amazon S3 ein Token für diese Anforderungen zurück. Sie können dieses Token mit `DescribeAsyncOperation` verwenden, um Ihnen zu helfen, den Status von laufenden asynchronen Vorgängen anzuzeigen. Amazon S3 verarbeitet `DescribeAsyncOperation`-Anforderungen synchron. Um den Status asynchroner Anfragen anzuzeigen, können Sie die Amazon S3 S3-Konsole, AWS CLI SDKs, oder die REST-API verwenden. 

**Anmerkung**  
Die Konsole zeigt nur den Status asynchroner Anforderungen an, die innerhalb der letzten 14 Tage gestellt wurden. Um den Status älterer Anfragen einzusehen, verwenden Sie die REST-API AWS CLI SDKs, oder. 

 Asynchrone Verwaltungsvorgänge können einen von mehreren Zuständen aufweisen: 

NEW  
 Amazon S3 hat die Anforderung erhalten und bereitet die Ausführung des Vorgangs vor. 

IN\$1PROGRESS  
 Amazon S3 führt derzeit den Vorgang aus. 

SUCCESS  
 Der Vorgang war erfolgreich. Die Antwort enthält relevante Informationen, z. B. den Multi-Regions-Zugriffspunkt-Alias für eine `CreateMultiRegionAccessPoint`-Anforderung. 

FAILED  
 Der Vorgang schlägt fehl. Die Antwort enthält eine Fehlermeldung, die den Grund für den Anforderungsfehler angibt. 

## Verwendung AWS CloudTrail mit Access Points für mehrere Regionen
<a name="MultiRegionAccessPointCloudTrail"></a>

Sie können AWS CloudTrail damit Kontoaktivitäten in Ihrer gesamten AWS Infrastruktur anzeigen, suchen, herunterladen, archivieren, analysieren und darauf reagieren. Mithilfe von Access Points und CloudTrail Protokollierung für mehrere Regionen können Sie Folgendes identifizieren: 
+ Wer oder was welche Maßnahme ergriffen hat
+ Welche Ressourcen in Anspruch genommen wurden
+ Wann das Ereignis aufgetreten ist
+ Weitere Details zu dem Ereignis

Sie können diese Protokollinformationen für die Analyse und Reaktion auf Aktivitäten verwenden, die über Ihre Multi-Region Access Points erfolgt sind. 

### Wie richtet man Access Points AWS CloudTrail für mehrere Regionen ein
<a name="MultiRegionAccessPointCTSetup"></a>

Um die CloudTrail Protokollierung für alle Vorgänge im Zusammenhang mit der Erstellung oder Verwaltung von Access Points mit mehreren Regionen zu aktivieren, müssen Sie die CloudTrail Protokollierung so konfigurieren, dass die Ereignisse in der Region USA West (Oregon) aufgezeichnet werden. Sie müssen Ihre Protokollierungskonfiguration auf diese Weise einrichten, unabhängig davon, in welcher Region Sie sich befinden, wenn Sie die Anforderung stellen, oder welche Regionen der Multi-Region Access Point unterstützt. Alle Anforderungen, einen Multi-Region Access Point zu erstellen oder zu verwalten, werden über die Region USA West (Oregon) geleitet. Wir empfehlen Ihnen, diese Region entweder einem vorhandenen Trail hinzuzufügen oder einen neuen Trail zu erstellen, der diese Region und alle Regionen enthält, die mit dem Multi-Region Access Point verknüpft sind.

Amazon S3 protokolliert alle Anforderungen, die über einen Multi-Region Access Point erfolgen, und Anforderungen an die API-Operationen, die Zugriffspunkte verwalten, z. B. `CreateMultiRegionAccessPoint` und `GetMultiRegionAccessPointPolicy`. Wenn Sie diese Anfragen über einen Multi-Region-Access Point protokollieren, erscheinen sie in Ihren AWS CloudTrail Protokollen mit dem Hostnamen des Multi-Region-Access Points. Wenn Sie beispielsweise über einen Multi-Region-Access Point mit dem Alias Anfragen an einen Bucket stellen`mfzwi23gnjvgw.mrap`, haben die Einträge im CloudTrail Protokoll den Hostnamen. `mfzwi23gnjvgw.mrap.accesspoint.s3-global.amazonaws.com` 

Access Points mit mehreren Regionen leiten Anfragen an den nächstgelegenen Bucket weiter. Wenn Sie sich die CloudTrail Protokolle für einen Access Point mit mehreren Regionen ansehen, werden Sie aufgrund dieses Verhaltens feststellen, dass Anfragen an die zugrunde liegenden Buckets gestellt werden. Einige dieser Anforderungen sind möglicherweise direkte Anforderungen an den Bucket, die nicht über den Multi-Region Access Point geleitet werden. Beachten Sie dies bei der Überprüfung des Datenverkehrs. Wenn sich ein Bucket in einem Multi-Regions-Zugriffspunkt befindet, können Anforderungen direkt an diesen Bucket gestellt werden, ohne den Multi-Regions-Zugriffspunkt zu durchlaufen. 

Beim Erstellen und Verwalten von Multi-Regions-Zugriffspunkten sind asynchrone Ereignisse erforderlich. Asynchrone Anfragen enthalten keine Abschlussereignisse im Protokoll. CloudTrail Weitere Informationen zu asynchronen Anforderungen finden Sie unter [Überwachen und Protokollieren von Anforderungen an Verwaltungs-API-Operationen von Multi-Region Access Points](#MonitoringMultiRegionAccessPointAPIs). 

 Weitere Informationen zu finden Sie AWS CloudTrail unter [Was ist AWS CloudTrail?](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) im *AWS CloudTrail Benutzerhandbuch*. 

# Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung
<a name="Versioning"></a>

Das Versioning in Amazon S3 ermöglicht Ihnen, mehrere Versionen eines Objekts im selben Bucket aufzubewahren. Sie können die S3-Versioning-Funktion verwenden, um sämtliche Versionen aller Objekte in Ihren Buckets zu speichern, abzurufen oder wiederherzustellen. Daten lassen sich dank Versioning nach unbeabsichtigten Benutzeraktionen und Anwendungsfehlern leichter wiederherstellen. Wenn Sie das Versioning für einen Bucket aktivieren und Amazon S3 mehrere Schreibanforderungen für dasselbe Objekt gleichzeitig empfängt, werden alle Objekte gespeichert.

Versioning-fähige Buckets erlauben Ihnen, Objekte nach einem versehentlichen Löschen oder Überschreiben wiederherzustellen. Wenn Sie beispielsweise ein Objekt löschen, fügt Amazon S3 eine Löschmarkierung ein, anstatt das Objekt dauerhaft zu entfernen. Die Löschmarkierung wird zur aktuellen Objektversion. Wenn Sie ein Objekt überschreiben, entsteht eine neue Objektversion im Bucket. Sie können die vorherige Version immer wieder herstellen. Weitere Informationen finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md). 

Standardmäßig ist das S3-Versioning in Buckets deaktiviert und Sie müssen es explizit aktivieren. Weitere Informationen finden Sie unter [Aktivieren des Versioning für Buckets](manage-versioning-examples.md).

**Anmerkung**  
Die SOAP API unterstützt kein S3-Versioning. Die SOAP-Unterstützung über HTTP ist veraltet, steht über HTTPS aber noch zur Verfügung. Neue Amazon-S3-Funktionen werden unter SOAP nicht unterstützt.
Für jede Version eines gespeicherten und übertragenen Objekts gelten die Standardpreise von Amazon S3. Jede Version eines Objekts besteht aus dem vollständigen Objekt, nicht nur aus einem Delta gegenüber der vorherigen Version. Wenn Sie also drei Versionen eines Objekts gespeichert haben, fallen Gebühren für die drei Objekte an. 

## Nicht versionierte, versionings-fähige und Buckets mit ausgesetztem Versioning
<a name="versioning-states"></a>

Buckets können einen von drei Zuständen aufweisen: 
+ Nicht versioniert (Standard)
+ Versionsfähig
+ Ausgesetztes Versioning

Sie aktivieren und unterbrechen das Versioning auf Bucket-Ebene. Nachdem Sie einen Bucket versionsfähig gemacht haben, kann er nicht in einen nicht versionsfähigen Status zurückgesetzt werden. Sie können das Versioning für diesen Bucket jedoch *aussetzen*.

Der Versioning-Status gilt für alle (niemals für eine Untermenge) der Objekte in diesem Bucket. Wenn Sie die Versioning in einem Bucket aktivieren, werden alle neuen Objekte versioniert und mit einer eindeutigen Versions-ID versehen. Objekte, die zum Zeitpunkt der Aktivierung der Versioning im Bucket bereits im Bucket vorhanden waren, werden *immer* versioniert und erhalten eine eindeutige Versions-ID, wenn sie durch zukünftige Anforderungen geändert werden. Beachten Sie Folgendes: 
+ Objekte, die in Ihrem Bucket gespeichert sind, bevor Sie den Status für die Versionsverwaltung einrichten, haben die Versions-ID `null`. Wenn Sie das Versioning aktivieren, ändern sich die in Ihrem Bucket vorhandenen Objekte nicht mehr. Was sich ändert, ist, wie Amazon S3 die Objekte in zukünftigen Anfragen verarbeitet. Weitere Informationen finden Sie unter [Arbeiten mit Objekten in einem versioning-fähigen Bucket](manage-objects-versioned-bucket.md).
+ Der Bucket-Eigentümer (oder ein anderer Benutzer mit geeigneten Berechtigungen) kann das Versioning aussetzen, um zu verhindern, dass sich weitere Objektversionen ansammeln. Wenn Sie das Versioning aussetzen, ändern sich die in Ihrem Bucket vorhandenen Objekte nicht. Was sich ändert, ist, wie Amazon S3 die Objekte in zukünftigen Anfragen verarbeitet. Weitere Informationen finden Sie unter [Arbeiten mit Objekten in einem Bucket mit ausgesetztem Versioning](VersionSuspendedBehavior.md).

## Verwenden des S3-Versioning mit dem S3-Lebenszyklus
<a name="versioning-lifecycle"></a>

Zum Anpassen Ihrer Datenaufbewahrungsmethode und zur Speicherkostenkontrolle verwenden Sie das Objekt-Versioning mit dem S3-Lebenszyklus. Weitere Informationen finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md). Informationen zum Erstellen von S3-Lifecycle-Konfigurationen mithilfe der AWS-Managementkonsole AWS CLI, AWS SDKs, oder der REST-API finden Sie unter[Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md).

**Wichtig**  
Wenn in dem nicht-versionierten Bucket eine Lebenszyklus-Konfiguration für den Ablauf von Objekten vorhanden ist und Sie dasselbe Verhalten hinsichtlich einer dauerhaften Löschung beim Aktivieren der Versionsverwaltung beibehalten möchten, müssen Sie eine Konfiguration für den Ablauf von nicht aktuellen Objekten hinzufügen. Die Lebenszykluskonfiguration für den Ablauf von nicht aktuellen Objekten verwaltet das Löschen der nicht aktuellen Objektversionen in dem Bucket mit aktivierter Versionsverwaltung. (Ein versionsfähiges Bucket behält eine kurzfristige und null oder mehr langfristige Objektversionen.) Weitere Informationen finden Sie unter [Einrichten einer S3-Lebenszykluskonfiguration für einen Bucket](how-to-set-lifecycle-configuration-intro.md).

Informationen zum Arbeiten mit S3-Versioning finden Sie in den folgenden Themen.

**Topics**
+ [Nicht versionierte, versionings-fähige und Buckets mit ausgesetztem Versioning](#versioning-states)
+ [Verwenden des S3-Versioning mit dem S3-Lebenszyklus](#versioning-lifecycle)
+ [Wie funktioniert S3-Versioning](versioning-workflows.md)
+ [Aktivieren des Versioning für Buckets](manage-versioning-examples.md)
+ [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md)
+ [Arbeiten mit Objekten in einem versioning-fähigen Bucket](manage-objects-versioned-bucket.md)
+ [Arbeiten mit Objekten in einem Bucket mit ausgesetztem Versioning](VersionSuspendedBehavior.md)
+ [Fehlerbehebung für die Versionsverwaltung](troubleshooting-versioning.md)

# Wie funktioniert S3-Versioning
<a name="versioning-workflows"></a>

Sie können die S3-Versionsverwaltung verwenden, um mehrere Versionen eines Objekts in einem Bucket zu behalten und so Objekte wiederherzustellen, die versehentlich gelöscht oder überschrieben wurden. Wenn Sie beispielsweise die S3-Versionsverwaltung auf einen Bucket anwenden, werden die folgenden Änderungen vorgenommen: 
+ Wenn Sie ein Objekt löschen, fügt Amazon S3 eine Löschmarkierung hinzu, statt das Objekt dauerhaft zu entfernen. Die Löschmarkierung wird zur aktuellen Objektversion. Sie können dann die vorherige Version wiederherstellen. Weitere Informationen finden Sie unter [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md).
+ Wenn Sie ein Objekt überschreiben, fügt Amazon S3 eine neue Objektversion im Bucket hinzu. Die vorherige Version verbleibt im Bucket und wird zu einer nicht aktuellen Version. Sie können die vorherige Version wiederherstellen.

**Anmerkung**  
Für jede Version eines gespeicherten und übertragenen Objekts gelten die Standardpreise von Amazon S3. Jede Version eines Objekts besteht aus dem vollständigen Objekt, nicht aus einem Delta gegenüber der vorherigen Version. Wenn Sie also drei Versionen eines Objekts gespeichert haben, fallen Gebühren für die drei Objekte an.

Jedem von Ihnen erstellten S3-Bucket ist eine *Versioning*-Subressource zugeordnet. (Weitere Informationen finden Sie unter [Konfigurationsoptionen für Allzweck-Buckets](UsingBucket.md#bucket-config-options-intro).) Standardmäßig ist Ihr Bucket *nicht versioning-fähig*, und dementsprechend speichert die Versioning-Subressource eine leere Versioning-Konfiguration wie folgt.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</VersioningConfiguration>
```

Um die Versionsverwaltung zu aktivieren, können Sie eine Anfrage an Amazon S3 mit einer Versionskonfiguration senden, die einen `Enabled`-Status enthält. 

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>Enabled</Status> 
</VersioningConfiguration>
```

Um das Versioning auszusetzen, setzen Sie den Statuswert auf `Suspended`.

**Anmerkung**  
Wenn Sie die Versionsverwaltung für einen Bucket zum ersten Mal aktivieren, kann es einen Moment dauern, bis die Änderung vollständig verbreitet ist. Während der Änderung können bei Anforderungen an Objekte gelegentlich Fehler des Typs `HTTP 404 NoSuchKey` auftreten, die erst nach Aktivierung der Versionsverwaltung erstellt oder aktualisiert wurden. Wir empfehlen, dass Sie nach dem Aktivieren der Versionsverwaltung 15 Minuten warten, bevor Sie Schreibvorgänge (`PUT` oder `DELETE`) für Objekte im Bucket ausführen. 

Der Bucket-Besitzer und alle autorisierten AWS Identity and Access Management (IAM-) Benutzer können die Versionierung aktivieren. Der Bucket-Besitzer ist derjenige AWS-Konto , der den Bucket erstellt hat. Weitere Informationen zu Berechtigungen finden Sie unter [Identitäts- und Zugriffsverwaltung für Amazon S3](security-iam.md).

Weitere Informationen zum Aktivieren und Deaktivieren der S3-Versionierung mithilfe der AWS-Managementkonsole, AWS Command Line Interface (AWS CLI) oder der REST-API finden Sie unter. [Aktivieren des Versioning für Buckets](manage-versioning-examples.md)

**Topics**
+ [Version IDs](#version-ids)
+ [Versioning-Workflows](#versioning-workflows-examples)

## Version IDs
<a name="version-ids"></a>

Wenn Sie das Versioning für einen Bucket aktivieren, generiert Amazon S3 automatisch eine eindeutige Versions-ID für das Objekt, das gespeichert wird. In einem Bucket können Sie beispielsweise zwei Objekte mit demselben Schlüssel (Objektname), aber unterschiedlicher Version haben IDs, z. B. `photo.gif` (Version 111111) und `photo.gif` (Version 121212).

![\[Diagramm, das einen Bucket mit aktivierter Versionierung darstellt, der zwei Objekte mit demselben Schlüssel, aber unterschiedlicher Version enthält. IDs\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_Enabled.png)


Jedes Objekt hat eine Versions-ID, unabhängig davon, ob die S3-Versionierung aktiviert ist oder nicht. Wenn die S3-Versionsverwaltung nicht aktiviert ist, legt Amazon S3 den Wert der Versions-ID auf `null` fest. Wenn das S3-Versioning aktiviert ist, weist Amazon S3 dem Objekt einen Versions-ID-Wert zu. Dieser Wert unterscheidet dieses Objekt von anderen Versionen desselben Schlüssels.

Wenn Sie das S3-Versioning für einen vorhandenen Bucket aktivieren, bleiben Objekte, die bereits im Bucket gespeichert sind, unverändert. Ihre Version IDs (`null`), ihr Inhalt und ihre Berechtigungen bleiben unverändert. Nachdem Sie die S3-Versionsverwaltung aktiviert haben, erhält jedes Objekt, das dem Bucket hinzugefügt wird, eine Versions-ID, die sie von anderen Versionen desselben Schlüssels unterscheidet. 

Nur Amazon S3 generiert Versionen IDs, und sie können nicht bearbeitet werden. Bei der Version IDs handelt es sich um Unicode-kodierte, UTF-8-kodierte, URL-fähige, undurchsichtige Zeichenketten, die nicht länger als 1.024 Byte sind. Im Folgenden wird ein Beispiel gezeigt:

`3sL4kqtJlcpXroDTDmJ+rmSpXd3dIbrHY+MTRCxf3vjVBH40Nr8X8gdRQBpUMLUo`

**Anmerkung**  
Der Einfachheit halber verwenden die anderen Beispiele in diesem Thema viel kürzer. IDs



## Versioning-Workflows
<a name="versioning-workflows-examples"></a>

Wenn Sie mit `PUT` ein Objekt in einen Bucket mit aktiviertem Versioning schreiben, wird die nicht aktuelle Version nicht überschrieben. Wie in der folgenden Abbildung dargestellt, tritt das folgende Verhalten auf, wenn eine neue Version von `photo.gif` mit `PUT` in einen Bucket geschrieben wird, der bereits ein Objekt desselben Namens enthält:
+ Das ursprüngliche Objekt (ID = 111111) verbleibt im Bucket.
+ Amazon S3 generiert eine neue Versions-ID (121212) und fügt diese neuere Version des Objekts dem Bucket hinzu.

![\[Diagramm, das zeigt, wie die S3-Versionsverwaltung funktioniert, wenn Sie ein Objekt mit PUT in einen Bucket mit aktivierter Versionsverwaltung schreiben.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_PUT_versionEnabled3.png)


Mit dieser Funktion können Sie eine vorherige Version eines Objekts abrufen, wenn ein Objekt versehentlich überschrieben oder gelöscht wurde.

Wenn Sie `DELETE` für ein Objekt ausführen, bleiben alle Versionen in dem Bucket, und Amazon S3 fügt eine Löschmarkierung ein, wie in der folgenden Abbildung gezeigt.

![\[Abbildung, die das Einfügen einer Löschmarkierung zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled.png)


Die Löschmarkierung wird zur aktuellen Version des Objekts. Standardmäßig wird durch `GET`-Anforderungen die zuletzt gespeicherte Version abgerufen. Eine `GET Object`-Anforderung gibt einen `404 Not Found`-Fehler zurück, wenn die aktuelle Version eine Löschmarkierung ist, wie in der folgenden Abbildung gezeigt.

![\[Abbildung, die zeigt, dass ein GetObject Aufruf einer Löschmarkierung einen 404-Fehler (Not Found) zurückgibt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound.png)


Sie können jedoch mit `GET` eine nicht aktuelle Version eines Objekts abrufen, indem Sie ihre Versions-ID angeben. In der folgenden Abbildung wird mit `GET` eine spezifische Objektversion abgerufen, 111111. Amazon S3 gibt diese Objektversion zurück, auch wenn es nicht die aktuelle Version ist.

Weitere Informationen finden Sie unter [Abrufen von Objektversionen aus einem versioning-fähigen Bucket](RetrievingObjectVersions.md).

![\[Diagramm, das zeigt, wie die S3-Versionsverwaltung funktioniert, wenn Sie eine nicht aktuelle Version mit GET in einem Bucket mit aktivierter Versionsverwaltung speichern.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_GET_Versioned3.png)


Sie können ein Objekt permanent löschen, indem Sie die Version angeben, die Sie löschen wollen. Nur der Eigentümer eines Amazon-S3-Buckets oder ein autorisierter IAM-Benutzer kann eine Version permanent löschen. Wenn Ihre `DELETE`-Operation die `versionId` angibt, wird diese Objektversion dauerhaft gelöscht, und Amazon S3 fügt keine Löschmarkierung ein.

![\[Diagramm, das zeigt, wie DELETE versionId eine bestimmte Objektversion dauerhaft löscht.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)


Sie können die Sicherheit erhöhen, indem Sie einen Bucket mit aktivierter Multi-Faktor-Authentifizierung (MFA) Delete konfigurieren. In diesem Fall muss der Bucket-Eigentümer zwei Authentifizierungsformen in jede Anforderung aufnehmen, um eine Version zu löschen oder den Versionsverwaltungsstatus des Buckets zu ändern. Weitere Informationen finden Sie unter [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md).

### Wann werden neue Versionen für ein Objekt erstellt?
<a name="versioning-workflows-new-versions"></a>

Neue Versionen werden nur erstellt, wenn Sie für ein neues Objekt `PUT` ausführen. Beachten Sie, dass bestimmte Aktionen wie `CopyObject` durch die Implementierung einer `PUT`-Operation funktionieren.

Einige Aktionen, die das aktuelle Objekt ändern, erstellen keine neue Version, da sie kein neues Objekt mit `PUT` bearbeiten. Dies umfasst Aktionen wie das Ändern der Markierungen für ein Objekt. 

**Wichtig**  
Wenn Sie eine deutliche Zunahme von HTTP 503-Antworten (Service nicht verfügbar) feststellen, die für Amazon-S3-`PUT`- oder `DELETE`-Objektanfragen an einen Bucket mit aktivierter S3-Versionsverwaltung eingehen, befinden sich möglicherweise ein oder mehrere Objekte im Bucket, für die Millionen von Versionen vorhanden sind. Weitere Informationen finden Sie im Abschnitt zur S3-Versionsverwaltung unter [Fehlerbehebung für die Versionsverwaltung](troubleshooting-versioning.md).

# Aktivieren des Versioning für Buckets
<a name="manage-versioning-examples"></a>

Sie können Amazon-S3-Versioning nutzen, um mehrere Versionen eines Objekts in einem Bucket aufzubewahren. Dieser Abschnitt enthält Beispiele dafür, wie die Versionierung in einem Bucket mithilfe der Konsole, der REST-API und AWS Command Line Interface ()AWS CLI aktiviert wird. AWS SDKs 

**Anmerkung**  
Nach der erstmaligen Aktivierung der Versionsverwaltung für einen Bucket kann es bis zu 15 Minuten dauern, bis sich die Änderung vollständig im S3-System verbreitet. Während dieser Zeit können `GET`-Anfragen nach Objekten, die nach der Aktivierung der Versionsverwaltung erstellt oder aktualisiert wurden, zu Fehlern `HTTP 404 NoSuchKey` führen. Wir empfehlen, dass Sie nach dem Aktivieren der Versionsverwaltung 15 Minuten warten, bevor Sie Schreibvorgänge (`PUT` oder `DELETE`) für Objekte im Bucket ausführen. Diese Wartezeit trägt dazu bei, potenzielle Probleme mit der Sichtbarkeit von Objekten und der Versionsverfolgung zu vermeiden.

Weitere Informationen über das S3-Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). Informationen zum Arbeiten mit Objekten, die sich in einem versioning-fähigen Bucket befinden, finden Sie unter [Arbeiten mit Objekten in einem versioning-fähigen Bucket](manage-objects-versioned-bucket.md).

Weitere Informationen zur Verwendung von S3 Versioning zum Schutz von Daten finden Sie im [Tutorial: Schutz von Daten in Amazon S3 vor versehentlichem Löschen oder Anwendungsfehlern mithilfe von S3 Versioning, S3 Object Lock und S3 Replication](https://aws.amazon.com/getting-started/hands-on/protect-data-on-amazon-s3/?ref=docs_gateway/amazons3/manage-versioning-examples.html).

Jedem von Ihnen erstellten S3-Bucket ist eine *Versioning*-Subressource zugeordnet. (Weitere Informationen finden Sie unter [Konfigurationsoptionen für Allzweck-Buckets](UsingBucket.md#bucket-config-options-intro).) Standardmäßig ist Ihr Bucket *nicht versioning-fähig*, und dementsprechend speichert die Versioning-Subressource eine leere Versioning-Konfiguration wie folgt.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
</VersioningConfiguration>
```

Um das Versioning zu aktivieren, können Sie eine Anfrage an Amazon S3 mit einer Versionskonfiguration senden, die einen Status enthält. 

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>Enabled</Status> 
</VersioningConfiguration>
```

Um das Versioning auszusetzen, setzen Sie den Statuswert auf `Suspended`.

Der Bucket-Eigentümer und alle autorisierten Benutzer können das Versioning aktivieren. Der Bucket-Besitzer ist derjenige AWS-Konto , der den Bucket erstellt hat (das Root-Konto). Weitere Informationen zu Berechtigungen finden Sie unter [Identitäts- und Zugriffsverwaltung für Amazon S3](security-iam.md).

In den folgenden Abschnitten finden Sie weitere Informationen zur Aktivierung der S3-Versionierung mithilfe der Konsole AWS CLI, und der AWS SDKs.

## Verwenden der S3-Konsole
<a name="enable-versioning"></a>

Gehen Sie wie folgt vor, AWS-Managementkonsole um die Versionierung in einem S3-Bucket zu aktivieren.

**Aktivieren und Deaktivieren der Versionsverwaltung für einen S3-Allzweck-Buckets**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie in der Liste Buckets den Namen des Buckets aus, für den Sie die Versionsverwaltung aktivieren möchten.

1. Wählen Sie **Properties (Eigenschaften)**.

1. Wählen Sie unter **Bucket Versioning (Bucket-Versioning)** die Option **Edit (Bearbeiten)**.

1. Wählen Sie **Suspend (Anhalten)** oder **Enable (Aktivieren)** und dann **Save changes (Änderungen speichern)**.

**Anmerkung**  
Sie können die AWS Multi-Faktor-Authentifizierung (MFA) mit Versionierung verwenden. Wenn Sie MFA mit Versionierung verwenden, müssen Sie Ihre Zugangsschlüssel und einen gültigen Code vom MFA-Gerät AWS-Konto des Kontos angeben, um eine Objektversion dauerhaft zu löschen oder die Versionierung auszusetzen oder zu reaktivieren.   
Um MFA mit Versioning zu verwenden, aktivieren Sie `MFA Delete`. Sie können jedoch `MFA Delete` nicht mit der AWS-Managementkonsole aktivieren. Sie müssen die AWS Command Line Interface ()AWS CLI oder die API verwenden. Weitere Informationen finden Sie unter [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md).

## Mit dem AWS CLI
<a name="manage-versioning-examples-cli"></a>

Im folgenden Beispiel wird die Versionsverwaltung auf einem allgemeinen S3-Allzweck-Buckets aktiviert. 

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled
```

Das folgende Beispiel ermöglicht das Löschen der S3-Versionsverwaltung und Multi-Faktor-Authentifizierung (MFA) für einen Bucket. Für physische MFA-Geräte übergeben Sie im `--mfa` Parameter eine Verkettung der Seriennummer des MFA-Geräts, ein Leerzeichen und den Wert, der auf Ihrem Authentifizierungsgerät angezeigt wird.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "SerialNumber 123456"
```

Das folgende Beispiel ermöglicht das Löschen der S3-Versionsverwaltung und Multi-Faktor-Authentifizierung (MFA) für einen Bucket. Für virtuelle MFA-Geräte übergeben Sie im `--mfa` Parameter eine Verkettung des MFA-Geräte-ARN, ein Leerzeichen und den Wert, der auf Ihrem Authentifizierungsgerät angezeigt wird.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "arn:aws:iam::account-id:mfa/root-account-mfa-device 123789"
```

**Anmerkung**  
Die Verwendung von MFA Delete erfordert ein genehmigtes physisches oder virtuelles Authentifizierungsgerät. Weitere Informationen zur Verwendung von MFA Delete in Amazon S3 finden Sie unter [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md).

Weitere Informationen zum Aktivieren der Versionsverwaltung mit dem AWS CLI finden Sie [put-bucket-versioning](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-bucket-versioning.html)in der *AWS CLI Befehlsreferenz.*

## Verwenden von AWS SDKs
<a name="manage-versioning-examples-sdk"></a>

In den folgenden Beispielen wird die Versionsverwaltung für einen Bucket aktiviert und anschließend der Versionsstatus mithilfe von AWS SDK für Java und abgerufen. AWS SDK für .NET Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer](https://aws.amazon.com/code/) Center.

------
#### [ .NET ]

Informationen zum Einrichten und Ausführen der Codebeispiele finden Sie unter [Getting Started with the AWS SDK for .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) im *AWS SDK for .NET Developer Guide*. 

```
using System;
using Amazon.S3;
using Amazon.S3.Model;

namespace s3.amazon.com.rproxy.goskope.com.docsamples
{
    class BucketVersioningConfiguration
    {
        static string bucketName = "*** bucket name ***";

        public static void Main(string[] args)
        {
            using (var client = new AmazonS3Client(Amazon.RegionEndpoint.USEast1))
            {
                try
                {
                    EnableVersioningOnBucket(client);
                    string bucketVersioningStatus = RetrieveBucketVersioningConfiguration(client);
                }
                catch (AmazonS3Exception amazonS3Exception)
                {
                    if (amazonS3Exception.ErrorCode != null &&
                        (amazonS3Exception.ErrorCode.Equals("InvalidAccessKeyId")
                        ||
                        amazonS3Exception.ErrorCode.Equals("InvalidSecurity")))
                    {
                        Console.WriteLine("Check the provided AWS Credentials.");
                        Console.WriteLine(
                        "To sign up for service, go to http://aws.amazon.com/s3");
                    }
                    else
                    {
                        Console.WriteLine(
                         "Error occurred. Message:'{0}' when listing objects",
                         amazonS3Exception.Message);
                    }
                }
            }

            Console.WriteLine("Press any key to continue...");
            Console.ReadKey();
        }

        static void EnableVersioningOnBucket(IAmazonS3 client)
        {

                PutBucketVersioningRequest request = new PutBucketVersioningRequest
                {
                    BucketName = bucketName,
                    VersioningConfig = new S3BucketVersioningConfig 
                    {
                        Status = VersionStatus.Enabled
                    }
                };

                PutBucketVersioningResponse response = client.PutBucketVersioning(request);
        }


        static string RetrieveBucketVersioningConfiguration(IAmazonS3 client)
        {
                GetBucketVersioningRequest request = new GetBucketVersioningRequest
                {
                    BucketName = bucketName
                };
 
                GetBucketVersioningResponse response = client.GetBucketVersioning(request);
                return response.VersioningConfig.Status;
            }
    }
}
```

------
#### [ Java ]

Anweisungen zum Erstellen und Testen eines funktionierenden Beispiels finden Sie unter [Erste Schritte](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/getting-started.html) im AWS SDK für Java Entwicklerhandbuch.

```
import java.io.IOException;

import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Region;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.s3.AmazonS3Client;
import com.amazonaws.services.s3.model.AmazonS3Exception;
import com.amazonaws.services.s3.model.BucketVersioningConfiguration;
import com.amazonaws.services.s3.model.SetBucketVersioningConfigurationRequest;

public class BucketVersioningConfigurationExample {
    public static String bucketName = "*** bucket name ***"; 
    public static AmazonS3Client s3Client;

    public static void main(String[] args) throws IOException {
        s3Client = new AmazonS3Client(new ProfileCredentialsProvider());
        s3Client.setRegion(Region.getRegion(Regions.US_EAST_1));
        try {

            // 1. Enable versioning on the bucket.
        	BucketVersioningConfiguration configuration = 
        			new BucketVersioningConfiguration().withStatus("Enabled");
            
			SetBucketVersioningConfigurationRequest setBucketVersioningConfigurationRequest = 
					new SetBucketVersioningConfigurationRequest(bucketName,configuration);
			
			s3Client.setBucketVersioningConfiguration(setBucketVersioningConfigurationRequest);
			
			// 2. Get bucket versioning configuration information.
			BucketVersioningConfiguration conf = s3Client.getBucketVersioningConfiguration(bucketName);
			 System.out.println("bucket versioning configuration status:    " + conf.getStatus());

        } catch (AmazonS3Exception amazonS3Exception) {
            System.out.format("An Amazon S3 error occurred. Exception: %s", amazonS3Exception.toString());
        } catch (Exception ex) {
            System.out.format("Exception: %s", ex.toString());
        }        
    }
}
```

------
#### [ Python ]

Das folgende Python-Beispiel erstellt einen Amazon-S3-Bucket, aktiviert ihn für das Versioning und konfiguriert einen Lebenszyklus, der nicht-aktuelle Objektversionen nach 7 Tagen ablaufen lässt.

```
def create_versioned_bucket(bucket_name, prefix):
    """
    Creates an Amazon S3 bucket, enables it for versioning, and configures a lifecycle
    that expires noncurrent object versions after 7 days.

    Adding a lifecycle configuration to a versioned bucket is a best practice.
    It helps prevent objects in the bucket from accumulating a large number of
    noncurrent versions, which can slow down request performance.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket_name: The name of the bucket to create.
    :param prefix: Identifies which objects are automatically expired under the
                   configured lifecycle rules.
    :return: The newly created bucket.
    """
    try:
        bucket = s3.create_bucket(
            Bucket=bucket_name,
            CreateBucketConfiguration={
                "LocationConstraint": s3.meta.client.meta.region_name
            },
        )
        logger.info("Created bucket %s.", bucket.name)
    except ClientError as error:
        if error.response["Error"]["Code"] == "BucketAlreadyOwnedByYou":
            logger.warning("Bucket %s already exists! Using it.", bucket_name)
            bucket = s3.Bucket(bucket_name)
        else:
            logger.exception("Couldn't create bucket %s.", bucket_name)
            raise

    try:
        bucket.Versioning().enable()
        logger.info("Enabled versioning on bucket %s.", bucket.name)
    except ClientError:
        logger.exception("Couldn't enable versioning on bucket %s.", bucket.name)
        raise

    try:
        expiration = 7
        bucket.LifecycleConfiguration().put(
            LifecycleConfiguration={
                "Rules": [
                    {
                        "Status": "Enabled",
                        "Prefix": prefix,
                        "NoncurrentVersionExpiration": {"NoncurrentDays": expiration},
                    }
                ]
            }
        )
        logger.info(
            "Configured lifecycle to expire noncurrent versions after %s days "
            "on bucket %s.",
            expiration,
            bucket.name,
        )
    except ClientError as error:
        logger.warning(
            "Couldn't configure lifecycle on bucket %s because %s. "
            "Continuing anyway.",
            bucket.name,
            error,
        )

    return bucket
```

------

# Konfigurieren von MFA Delete
<a name="MultiFactorAuthenticationDelete"></a>

Wenn Sie in Amazon-S3-Buckets mit S3-Versioning arbeiten, können Sie optional eine weitere Sicherheitsebene hinzufügen, indem Sie einen Bucket konfigurieren, um *MFA (multi-factor authentication) delete* zu aktivieren. In diesem Fall muss der Bucket-Eigentümer zwei Authentifizierungsformen in jede Anforderung aufnehmen, um eine Version zu löschen oder den Versioning-Status des Buckets zu ändern.

Die MFA-Löschfunktion erfordert eine zusätzliche Authentifizierung für die folgenden Vorgänge:
+ Ändern des Versioning-Status Ihres Buckets
+ Dauerhaftes Löschen einer Objektversion

MFA Delete fordert zwei Authentifizierungsformen in Kombination:
+ Ihre Sicherheitsanmeldeinformationen
+ Die Verkettung einer gültigen Seriennummer, eines Leerzeichens und des sechsstelligen Codes, der auf einem zugelassenen Authentifizierungsgerät angezeigt wird

MFA Delete bietet damit zusätzliche Sicherheit, wenn beispielsweise Ihre Sicherheitsanmeldeinformationen nicht mehr vertrauenswürdig sind. MFA Delete kann dazu beitragen, versehentliche Bucket-Löschungen zu verhindern, indem der Benutzer, der die Löschaktion einleitet, verpflichtet wird, den physischen Besitz eines MFA-Geräts mit einem MFA-Code nachzuweisen und der Löschaktion eine zusätzliche Sicherheitsschicht hinzuzufügen.

Um Buckets zu identifizieren, für die MFA Delete aktiviert ist, können Sie Metriken von Amazon S3 Storage Lens verwenden. S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Weitere Informationen finden Sie unter [ Bewertung Ihrer Speicheraktivität und -nutzung mit S3 Storage Lens](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens?icmpid=docs_s3_user_guide_MultiFactorAuthenticationDelete.html). Eine vollständige Liste der Metriken finden Sie im [Glossar der S3-Storage-Lens-Metriken](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_MultiFactorAuthenticationDelete.html).

Der Bucket-Besitzer, derjenige AWS-Konto , der den Bucket erstellt hat (Root-Konto), und alle autorisierten Benutzer können die Versionierung aktivieren. Allerdings kann nur der Bucket-Eigentümer (Root-Konto) MFA Delete aktivieren. Weitere Informationen finden Sie unter [Securing Access to AWS Using MFA](https://aws.amazon.com/blogs/security/securing-access-to-aws-using-mfa-part-3/) im AWS Security Blog.

**Anmerkung**  
Um MFA Delete mit Versioning zu verwenden, aktivieren Sie `MFA Delete`. Sie können jedoch nicht `MFA Delete` mit der AWS-Managementkonsole aktivieren. Sie müssen die AWS Command Line Interface (AWS CLI) oder die API verwenden.   
Beispiele für die Verwendung von MFA Delete mit Versioning finden Sie im Abschnitt "Beispiele" im Thema [Aktivieren des Versioning für Buckets](manage-versioning-examples.md).  
Sie können MFA Löschen nicht mit Lebenszykluskonfigurationen verwenden. Weitere Informationen zu Lebenszykluskonfigurationen und deren Interaktion mit anderen Konfigurationen finden Sie unter [Wie S3-Lebenszyklus mit anderen Bucket-Konfigurationen interagiert.](lifecycle-and-other-bucket-config.md).

Für das Aktivieren oder Deaktivieren von MFA Delete verwenden Sie dieselbe API, die Sie für die Konfiguration des Versionings für einen Bucket verwenden. Amazon S3 speichert die MFA-Delete-Konfiguration in derselben *Versioning*-Subressource, in der auch der Versioning-Status des Buckets gespeichert ist.

```
<VersioningConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> 
  <Status>VersioningState</Status>
  <MfaDelete>MfaDeleteState</MfaDelete>  
</VersioningConfiguration>
```

Um MFA Delete zu nutzen, verwenden Sie ein Hardwaregerät oder ein virtuelles MFA-Gerät, um einen Authentifizierungscode zu generieren. Das folgende Beispiel zeigt einen generierten Authentifizierungscode, angezeigt auf einem Hardwaregerät.

![\[Ein Beispiel eines generierten Authentifizierungscodes, der auf einem Hardwaregerät angezeigt wird.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/MFADevice.png)


MFA Delete und ein durch MFA geschützter API-Zugriff sind Funktionen, die Schutz in bestimmten Situationen bieten sollen. Sie konfigurieren MFA Delete für einen Bucket, um sicherzustellen, dass die Daten in Ihrem Bucket nicht versehentlich gelöscht werden können. Der durch MFA geschützte API-Zugriff wird verwendet, um einen zusätzlichen Authentifizierungsfaktor (MFA-Code) einzuführen, wenn Sie auf sensible Amazon-S3-Ressourcen zugreifen. Sie können für alle Vorgänge für Amazon-S3-Ressourcen fordern, dass sie mit temporären Anmeldeinformationen ausgeführt werden, die mit MFA erstellt wurden. Ein Beispiel finden Sie unter [Verlangen von MFA](example-bucket-policies.md#example-bucket-policies-MFA). 

Weitere Informationen zum Kauf und zur Aktivierung eines Authentifizierungsgeräts finden Sie unter [Multi-Faktor-Authentifizierung](https://aws.amazon.com/iam/details/mfa/).

## So aktivieren Sie das Löschen der S3-Versionsverwaltung und von MFA
<a name="enable-versioning-mfa-delete"></a>

### Mit dem AWS CLI
<a name="enable-versioning-mfa-delete-cli"></a>

Die Seriennummer ist die Nummer, die das MFA-Gerät eindeutig identifiziert. Bei physischen MFA-Geräten ist dies die eindeutige Seriennummer, die im Lieferumfang des Geräts enthalten ist. Bei virtuellen MFA-Geräten ist die Seriennummer der Geräte-ARN. Wenn Sie die folgenden Befehle verwenden, ersetzen Sie *user input placeholders* durch eigene Informationen.

Das folgende Beispiel ermöglicht das Löschen der S3-Versionsverwaltung und Multi-Faktor-Authentifizierung (MFA) für einen Bucket. Für physische MFA-Geräte übergeben Sie im `--mfa` Parameter eine Verkettung der Seriennummer des MFA-Geräts, ein Leerzeichen und den Wert, der auf Ihrem Authentifizierungsgerät angezeigt wird.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "SerialNumber 123456"
```

Das folgende Beispiel ermöglicht das Löschen der S3-Versionsverwaltung und Multi-Faktor-Authentifizierung (MFA) für einen Bucket. Für virtuelle MFA-Geräte übergeben Sie im `--mfa` Parameter eine Verkettung des MFA-Geräte-ARN, ein Leerzeichen und den Wert, der auf Ihrem Authentifizierungsgerät angezeigt wird.

```
aws s3api put-bucket-versioning --bucket amzn-s3-demo-bucket1 --versioning-configuration Status=Enabled,MFADelete=Enabled --mfa "arn:aws:iam::account-id:mfa/root-account-mfa-device 123789"
```

Weitere Informationen finden Sie im AWS RePost-Artikel [Wie aktiviere ich MFA Delete für meinen Amazon S3 S3-Bucket?](https://repost.aws/knowledge-center/s3-bucket-mfa-delete) .

### Verwenden der REST-API
<a name="enable-versioning-mfa-delete-rest-api"></a>

Weitere Informationen zur Angabe von MFA Delete mithilfe der Amazon S3 S3-REST-API finden Sie unter [PutBucketVersioning](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutBucketVersioning.html)*Amazon Simple Storage Service API-Referenz.*

# Arbeiten mit Objekten in einem versioning-fähigen Bucket
<a name="manage-objects-versioned-bucket"></a>

Objekte, die in einem Amazon-S3-Bucket gespeichert waren, bevor Sie den Versioning-Status einrichten, haben die Versions-ID `null`. Wenn Sie das Versioning aktivieren, ändern sich die in Ihrem Bucket vorhandenen Objekte nicht mehr. Was sich ändert, ist, wie Amazon S3 die Objekte in zukünftigen Anfragen verarbeitet.

**Übergang von Objektversionen**  
Sie können Lebenszyklus-Konfigurationsregeln für Objekte definieren, die einen definierten Lebenszyklus haben, um Objektversionen zu einem bestimmten Zeitpunkt in der Lebensdauer des Objekts in die Speicherklasse S3 Glacier Flexible Retrieval zu überführen. Weitere Informationen finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

Die Themen in diesem Abschnitt erklären verschiedene Objekt-Vorgänge in einem Bucket mit aktiviertem Versioning. Weitere Informationen über das Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

**Topics**
+ [Hinzufügen von Objekten zu versioning-fähigen Buckets](AddingObjectstoVersioningEnabledBuckets.md)
+ [Auflisten von Objekten in einem versioning-fähigen Bucket](list-obj-version-enabled-bucket.md)
+ [Abrufen von Objektversionen aus einem versioning-fähigen Bucket](RetrievingObjectVersions.md)
+ [Löschen von Objekten aus einem versioning-fähigen Bucket](DeletingObjectVersions.md)
+ [Konfigurieren von versionierten Objektberechtigungen](VersionedObjectPermissionsandACLs.md)

# Hinzufügen von Objekten zu versioning-fähigen Buckets
<a name="AddingObjectstoVersioningEnabledBuckets"></a>

Nachdem Sie das Versioning für einen Bucket aktiviert haben, fügt Amazon S3 jedem im Bucket gespeicherten Objekt automatisch eine eindeutige Versions-ID hinzu (mit `PUT`, `POST` oder `CopyObject`). 

Die folgende Abbildung zeigt, dass Amazon S3 jedem Objekt automatisch eine eindeutige Versions-ID hinzufügt, wenn es einem versioningfähigen Bucket hinzugefügt wird. 

![\[Abbildung, die eine eindeutige Versions-ID zeigt, die einem Objekt automatisch hinzugefügt wird, wenn es in einen versionsfähigen Bucket platziert wird.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_PUT_versionEnabled.png)


**Anmerkung**  
Die von Amazon S3 zugewiesenen Versions-ID-Werte sind URL-sicher (können als Teil einer URI angegeben werden).

Weitere Informationen über das Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). Mithilfe der Konsole und der REST-API können Sie Objektversionen zu einem Bucket mit aktivierter Versionierung hinzufügen. AWS SDKs

## Verwenden der Konsole
<a name="add-obj-versioning-enabled-bucket-console"></a>

Detaillierte Anweisungen finden Sie unter [Objekte hochladen](upload-objects.md). 

## Mit dem AWS SDKs
<a name="add-obj-versioning-enabled-bucket-sdk"></a>

Beispiele für das Hochladen von Objekten mithilfe von AWS SDKs für Java, .NET und PHP finden Sie unter[Objekte hochladen](upload-objects.md). Die Beispiele für das Hochladen von Objekten in versioning-fähige und nicht versioning-fähige Buckets sind gleich, aber bei versioning-fähigen Buckets weist Amazon S3 eine Versionsnummer zu. Andernfalls ist die Versionsnummer null. 

Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer Center](https://aws.amazon.com/code/). 

## Verwenden der REST-API
<a name="add-obj-versioning-enabled-bucket-rest"></a>

**Hinzufügen von Objekten zu versioning-fähigen Buckets**

1. Aktivieren des Versionings für einen Bucket mit einer `PutBucketVersioning`-Anforderung.

   Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTVersioningStatus.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketPUTVersioningStatus.html) in der *API-Referenz zu Amazon Simple Storage Service*.

1. Senden Sie eine `PUT`-, `POST`- oder `CopyObject`-Anforderung, um ein Objekt im Bucket zu speichern.

Wenn Sie einem versioning-fähigen Bucket ein Objekt hinzufügen, gibt Amazon S3 die Versions-ID des Objekts im Antwort-Header `x-amz-version-id` zurück, wie im folgenden Beispiel gezeigt.

```
1. x-amz-version-id: 3/L4kqtJlcpXroDTDmJ+rmSpXd3dIbrHY
```

# Auflisten von Objekten in einem versioning-fähigen Bucket
<a name="list-obj-version-enabled-bucket"></a>

Dieser Abschnitt zeigt Beispiele, wie Objektversionen aus einem versioning-fähigen Bucket aufgelistet werden. Amazon S3 speichert Versionsinformationen zu Objekten in der *versions*-Subressource, die dem Bucket zugeordnet ist. Weitere Informationen finden Sie unter [Konfigurationsoptionen für Allzweck-Buckets](UsingBucket.md#bucket-config-options-intro). Um die Objekte in einem versionsfähigen Bucket aufzulisten, benötigen Sie die `ListBucketVersions`-Berechtigung.

## Verwenden der S3-Konsole
<a name="view-object-versions"></a>

Befolgen Sie diese Schritte, um die Amazon-S3-Konsole zu verwenden, um die verschiedenen Versionen eines Objekts anzuzeigen.

**Mehrere Versionen eines Objekts anzeigen**

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält.

1. Um eine Liste der Versionen der Objekte in dem Bucket anzuzeigen, wählen Sie den Schalter **Show versions** (Versionen anzeigen). 

   Die Konsole zeigt für jede Objektversion eine eindeutige Versions-ID, das Datum und die Uhrzeit, wann das Objekt erstellt wurde, sowie weitere Eigenschaften an. (Objekte, die in Ihrem Bucket gespeichert waren, bevor Sie den Versioning-Status einrichten, haben die Versions-ID **null**.)

   Um die Objekte ohne die Versionen aufzulisten, wählen Sie den Schalter **List versions (Versionen auflisten)** .

Objektversionen können auch in der Objektübersicht auf der Konsole angezeigt, heruntergeladen und gelöscht werden. Weitere Informationen finden Sie unter [Anzeigen von Objekteigenschaften in der Amazon-S3-Konsole](view-object-properties.md).

**Anmerkung**  
 Um auf Objektversionen zuzugreifen, die älter als 300 Versionen sind, müssen Sie die AWS CLI oder die URL des Objekts verwenden.

**Wichtig**  
Sie können den Löschvorgang für ein Objekt nur rückgängig machen, wenn seine aktuelle Version gelöscht wurde. Es ist nicht möglich, das Löschen einer vorherigen Version eines Objekts rückgängig zu machen, das gelöscht wurde. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

## Verwenden Sie den AWS SDKs
<a name="list-obj-version-enabled-bucket-sdk-examples"></a>

Die Beispiele in diesem Abschnitt veranschaulichen, wie Sie eine Objektliste aus einem versioning-fähigen Bucket abrufen. Jede Anforderung gibt bis zu 1000 Versionen zurück, sofern Sie keine kleinere Anzahl festlegen. Wenn die Versionen im Bucket dieses Limit überschreiten, senden Sie eine Reihe von Anforderungen, um die Liste aller Versionen abzurufen. Dieser Vorgang zur „seitenweisen“ Rückgabe von Ergebnissen wird als *Paginierung* bezeichnet.

Um zu veranschaulichen, wie Paginierung funktioniert, limitieren die Beispiele jede Antwort auf zwei Objektversionen. Nachdem die erste Seite mit Ergebnissen abgerufen wurde, wird in jedem Beispiel überprüft, ob die Versionsliste abgeschnitten wurde. Wurde sie abgeschnitten, dann wird im Beispiel mit dem seitenweisen Abruf fortgefahren, bis alle Versionen abgerufen wurden. 

**Anmerkung**  
Die folgenden Beispiele funktionieren auch bei einem Bucket, der versioning-fähig ist, oder bei Objekten ohne individuelle Versionen. In solchen Fällen gibt Amazon S3 die Objektliste mit der Versions-ID von `null` zurück.

 Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer](https://aws.amazon.com/code/) Center. 

------
#### [ Java ]

Anweisungen zum Erstellen und Testen eines Arbeitsbeispiels finden Sie unter [Erste Schritte](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/getting-started.html) im AWS SDK für Java Entwicklerhandbuch.

```
import com.amazonaws.AmazonServiceException;
import com.amazonaws.SdkClientException;
import com.amazonaws.auth.profile.ProfileCredentialsProvider;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.s3.AmazonS3;
import com.amazonaws.services.s3.AmazonS3ClientBuilder;
import com.amazonaws.services.s3.model.ListVersionsRequest;
import com.amazonaws.services.s3.model.S3VersionSummary;
import com.amazonaws.services.s3.model.VersionListing;

public class ListKeysVersioningEnabledBucket {

    public static void main(String[] args) {
        Regions clientRegion = Regions.DEFAULT_REGION;
        String bucketName = "*** Bucket name ***";

        try {
            AmazonS3 s3Client = AmazonS3ClientBuilder.standard()
                    .withCredentials(new ProfileCredentialsProvider())
                    .withRegion(clientRegion)
                    .build();

            // Retrieve the list of versions. If the bucket contains more versions
            // than the specified maximum number of results, Amazon S3 returns
            // one page of results per request.
            ListVersionsRequest request = new ListVersionsRequest()
                    .withBucketName(bucketName)
                    .withMaxResults(2);
            VersionListing versionListing = s3Client.listVersions(request);
            int numVersions = 0, numPages = 0;
            while (true) {
                numPages++;
                for (S3VersionSummary objectSummary : versionListing.getVersionSummaries()) {
                    System.out.printf("Retrieved object %s, version %s\n",
                            objectSummary.getKey(),
                            objectSummary.getVersionId());
                    numVersions++;
                }
                // Check whether there are more pages of versions to retrieve. If
                // there are, retrieve them. Otherwise, exit the loop.
                if (versionListing.isTruncated()) {
                    versionListing = s3Client.listNextBatchOfVersions(versionListing);
                } else {
                    break;
                }
            }
            System.out.println(numVersions + " object versions retrieved in " + numPages + " pages");
        } catch (AmazonServiceException e) {
            // The call was transmitted successfully, but Amazon S3 couldn't process
            // it, so it returned an error response.
            e.printStackTrace();
        } catch (SdkClientException e) {
            // Amazon S3 couldn't be contacted for a response, or the client
            // couldn't parse the response from Amazon S3.
            e.printStackTrace();
        }
    }
}
```

------
#### [ .NET ]

Informationen zum Einrichten und Ausführen der Codebeispiele finden Sie unter [Getting Started with the AWS SDK for .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/net-dg-setup.html) im *AWS SDK for .NET Developer Guide*. 

```
using Amazon;
using Amazon.S3;
using Amazon.S3.Model;
using System;
using System.Threading.Tasks;

namespace Amazon.DocSamples.S3
{
    class ListObjectsVersioningEnabledBucketTest
    {
        static string bucketName = "*** bucket name ***";
        // Specify your bucket region (an example region is shown).
        private static readonly RegionEndpoint bucketRegion = RegionEndpoint.USWest2;
        private static IAmazonS3 s3Client;

        public static void Main(string[] args)
        {
            s3Client = new AmazonS3Client(bucketRegion);
            GetObjectListWithAllVersionsAsync().Wait();
        }

        static async Task GetObjectListWithAllVersionsAsync()
        {
            try
            {
                ListVersionsRequest request = new ListVersionsRequest()
                {
                    BucketName = bucketName,
                    // You can optionally specify key name prefix in the request
                    // if you want list of object versions of a specific object.

                    // For this example we limit response to return list of 2 versions.
                    MaxKeys = 2
                };
                do
                {
                    ListVersionsResponse response = await s3Client.ListVersionsAsync(request); 
                    // Process response.
                    foreach (S3ObjectVersion entry in response.Versions)
                    {
                        Console.WriteLine("key = {0} size = {1}",
                            entry.Key, entry.Size);
                    }

                    // If response is truncated, set the marker to get the next 
                    // set of keys.
                    if (response.IsTruncated)
                    {
                        request.KeyMarker = response.NextKeyMarker;
                        request.VersionIdMarker = response.NextVersionIdMarker;
                    }
                    else
                    {
                        request = null;
                    }
                } while (request != null);
            }
            catch (AmazonS3Exception e)
            {
                Console.WriteLine("Error encountered on server. Message:'{0}' when writing an object", e.Message);
            }
            catch (Exception e)
            {
                Console.WriteLine("Unknown encountered on server. Message:'{0}' when writing an object", e.Message);
            }
        }
    }
}
```

------

## Verwenden der REST-API
<a name="ListingtheObjectsinaVersioningEnabledBucket"></a>

**Example – Alle Objektversionen in einem Bucket auflisten**  
Um alle Versionen aller Objekte in einem Bucket aufzulisten, verwenden Sie die `versions`-Subressource in einer `GET Bucket`-Anfrage. Amazon S3 kann maximal 1000 Objekte abrufen. Jede Objektversion zählt als vollständiges Objekt. Wenn ein Bucket also zwei Schlüssel enthält (z. B. `photo.gif` und `picture.jpg`) und der erste Schlüssel 990 Versionen und der zweite Schlüssel 400 Versionen hat, ruft eine einzelne Abfrage alle 990 Versionen von `photo.gif` und nur die 10 neuesten Versionen von `picture.jpg` ab.  
Amazon S3 gibt Objektversionen in der Reihenfolge zurück, in der sie gespeichert wurden, wobei die zuletzt gespeicherte zuerst zurückgegeben wird.  
Geben Sie in einer `GET Bucket`-Anforderung die `versions`-Subressource an.  

```
1. GET /?versions HTTP/1.1
2. Host: bucketName.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 +0000
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

**Example – Abruf aller Versionen eines Schlüssels**  
 Wenn Sie eine Untermenge von Objektversionen abrufen möchten, verwenden Sie die Anforderungsparameter für `GET Bucket`. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html).   

1. Setzen Sie den Parameter `prefix` auf den Schlüssel des Objekts, das Sie abrufen wollen.

1. Senden Sie eine `GET Bucket`-Anforderung unter Verwendung der `versions`-Subressource und `prefix`.

   `GET /?versions&prefix=objectName HTTP/1.1`

**Example – Abrufen von Objekten unter Verwendung eines Präfix**  
Das folgende Beispiel ruft Objekte ab, deren Schlüssel ist oder damit beginn `myObject`.  

```
1. GET /?versions&prefix=myObject HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```
Sie können die anderen Anforderungsparameter verwenden, um eine Untermenge aller Versionen des Objekts abzurufen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html) in der *API-Referenz zu Amazon Simple Storage Service*.

**Example – Abrufen einer Liste zusätzlicher Objekte, falls die Antwort gekürzt wurde**  
Wenn die Anzahl der Objekte, die in einer `GET`-Anforderung zurückgegeben werden können, den Wert `max-keys` überschreitet, enthält die Antwort `<isTruncated>true</isTruncated>`, ebenso wie den ersten Schlüssel (in `NextKeyMarker`) und die erste Versions-ID (in `NextVersionIdMarker`), die die Anforderungskriterien erfüllen, aber nicht zurückgegeben wurden. Diese zurückgegebenen Werte verwenden Sie als Ausgangspunkt in einer nachfolgenden Anforderung, um die zusätzlichen Objekte abzurufen, die die `GET`-Anforderung erfüllen.   
Gehen Sie wie folgt vor, um zusätzlichen Objekte abzurufen, die die ursprüngliche `GET Bucket versions`-Anforderung von einem Bucket erfüllen. Weitere Informationen zu `key-marker`, `version-id-marker`, `NextKeyMarker` und `NextVersionIdMarker` finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTBucketGET.html) in *Amazon Simple Storage Service – API-Referenz*.  
Im Folgenden finden Sie zusätzliche Antworten, die die ursprüngliche `GET`-Anforderung erfüllen:  
+ Setzen Sie den Wert von `key-marker` auf den Schlüssel, der in `NextKeyMarker` in der vorherigen Antwort zurückgegeben wurde.
+ Setzen Sie den Wert von `version-id-marker` auf die Versions-ID, die in `NextVersionIdMarker` in der vorherigen Antwort zurückgegeben wurde.
+ Senden Sie eine `GET Bucket versions`-Anforderung mit `key-marker` und `version-id-marker`.

**Example – Abrufen von Objekten ab einem bestimmten Schlüssel und einer bestimmten Versions-ID**  

```
1. GET /?versions&key-marker=myObject&version-id-marker=298459348571 HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

## Verwenden von AWS CLI
<a name="list-obj-version-enabled-bucket-cli"></a>

Der folgende Befehl gibt Metadaten zu allen Versionen der Objekte in einem Bucket zurück. 

```
aws s3api list-object-versions --bucket amzn-s3-demo-bucket1
```

Weitere Informationen zu `list-object-versions` finden Sie unter [https://docs.aws.amazon.com/cli/latest/reference/s3api/list-object-versions.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/list-object-versions.html) in der *AWS CLI -Befehlsreferenz*.

# Abrufen von Objektversionen aus einem versioning-fähigen Bucket
<a name="RetrievingObjectVersions"></a>

Das Versioning in Amazon S3 ist eine Möglichkeit, mehrere Varianten eines Objekts im selben Bucket zu behalten. Eine einfache `GET`-Anforderung ruft die aktuelle Version eines Objekts ab. Die folgende Abbildung zeigt, wie `GET` die aktuelle Version des Objekts zurückgibt, `photo.gif`.

![\[Abbildung, die zeigt, wie GET die aktuelle Version des Objekts zurückgibt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_GET_NoVersionID.png)


Um eine spezifische Version abzurufen, müssen Sie ihre Versions-ID angeben. Die folgende Abbildung zeigt, dass eine `GET versionId`-Anforderung die angegebene Version des Objekts zurückgibt (nicht unbedingt die aktuelle).

![\[Abbildung, die zeigt, wie eine GET versionId-Anforderung die angegebene Version des Objekts abruft.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_GET_Versioned.png)


Sie können Objektversionen in Amazon S3 mithilfe der Konsole oder der REST-API abrufen. AWS SDKs

**Anmerkung**  
 Um auf Objektversionen zuzugreifen, die älter als 300 Versionen sind, müssen Sie die AWS CLI oder die URL des Objekts verwenden.

## Verwenden der S3-Konsole
<a name="retrieving-object-versions"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält.

1. Wählen Sie in der Liste **Objects (Objekte)** den Namen des Objekts aus.

1. Wählen Sie **Versions (Versionen)**.

   Amazon S3 zeigt alle Versionen für das Objekt an.

1. Aktivieren Sie das Kontrollkästchen neben der **Version ID (Versions-ID)** für die Versionen, die Sie abrufen möchten.

1. Wählen Sie **Actions (Aktionen)**, wählen Sie **Download (Herunterladen)** und speichern Sie das Objekt.

Objektversionen können auch in der Objektübersicht angezeigt, heruntergeladen und gelöscht werden. Weitere Informationen finden Sie unter [Anzeigen von Objekteigenschaften in der Amazon-S3-Konsole](view-object-properties.md).

**Wichtig**  
Sie können den Löschvorgang für ein Objekt nur rückgängig machen, wenn seine aktuelle Version gelöscht wurde. Es ist nicht möglich, das Löschen einer vorherigen Version eines Objekts rückgängig zu machen, das gelöscht wurde. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

## Verwenden Sie den AWS SDKs
<a name="retrieve-obj-version-sdks"></a>

Die Beispiele für das Hochladen von Objekten in nicht versioning-fähigen und versioning-fähigen Buckets sind dieselben. Für versioning-fähige Buckets weist Amazon S3 jedoch eine Versionsnummer zu. Andernfalls ist die Versionsnummer null.

Beispiele für das Herunterladen von Objekten mithilfe AWS SDKs von Java, .NET und PHP finden Sie unter [Objekte herunterladen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/download-objects.html).

Beispiele für das Auflisten der Version von Objekten, die AWS SDKs für.NET und Rust verwenden, finden Sie unter [Auflisten der Version von Objekten in einem Amazon S3 S3-Bucket](https://docs.aws.amazon.com/code-library/latest/ug/s3_example_s3_ListObjectVersions_section.html).

## Verwenden der REST-API
<a name="retrieve-obj-version-rest"></a>

**Abrufen einer spezifischen Objektversion**

1. Setzen Sie den Parameter `versionId` auf die ID der Version des Objekts, die Sie abrufen wollen.

1. Senden Sie eine `GET Object versionId`-Anforderung.

**Example – Abrufen eines versionierten Objekts**  
Die folgende Anforderung ruft die Version `L4kqtJlcpXroDTDmpUMLUo` von ab `my-image.jpg`.  

```
1. GET /my-image.jpg?versionId=L4kqtJlcpXroDTDmpUMLUo HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

Sie können nur die Metadaten eines Objekts (nicht den Inhalt) abrufen. Weitere Informationen finden Sie unter [Abrufen der Metadaten einer Objektversion](RetMetaOfObjVersion.md).

Informationen zum Wiederherstellen einer früheren Objektversion finden Sie unter [Wiederherstellen früherer Versionen](RestoringPreviousVersions.md).

# Abrufen der Metadaten einer Objektversion
<a name="RetMetaOfObjVersion"></a>

Wenn Sie nur die Metadaten eines Objekts abrufen wollen (nicht seinen Inhalt), verwenden Sie die `HEAD`-Operation. Standardmäßig erhalten Sie die Metadaten der aktuellsten Version. Um die Metadaten einer spezifischen Objektversion abzurufen, müssen Sie ihre Versions-ID angeben.

**Abruf der Metadaten einer Objektversion**

1. Setzen Sie den Parameter `versionId` auf die ID der Version des Objekts, dessen Metadaten Sie abrufen wollen.

1. Senden Sie eine `HEAD Object versionId`-Anforderung.

**Example – Abrufen der Metadaten eines versionierten Objekts**  
Die folgende Anforderung ruft die Metadaten der Version `3HL4kqCxf3vjVBH40Nrjfkd` von `my-image.jpg` ab.  

```
1. HEAD /my-image.jpg?versionId=3HL4kqCxf3vjVBH40Nrjfkd HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

Nachfolgend ist eine Beispielantwort angezeigt.

```
 1. HTTP/1.1 200 OK
 2. x-amz-id-2: ef8yU9AS1ed4OpIszj7UDNEHGran
 3. x-amz-request-id: 318BC8BC143432E5
 4. x-amz-version-id: 3HL4kqtJlcpXroDTDmjVBH40Nrjfkd
 5. Date: Wed, 28 Oct 2009 22:32:00 GMT
 6. Last-Modified: Sun, 1 Jan 2006 12:00:00 GMT
 7. ETag: "fba9dede5f27731c9771645a39863328"
 8. Content-Length: 434234
 9. Content-Type: text/plain
10. Connection: close
11. Server: AmazonS3
```

# Wiederherstellen früherer Versionen
<a name="RestoringPreviousVersions"></a>

Sie können Versioning verwenden, um frühere Versionen eines Objekts abzurufen. Hierfür gibt es zwei Ansätze:
+ Kopieren einer vorhergehenden Version des Objekts in denselben Bucket.

  Das kopierte Objekt wird zur aktuellen Version dieses Objekts, und alle Objektversionen werden beibehalten.
+ Dauerhaftes Löschen der aktuellen Version des Objekts

  Wenn Sie die aktuelle Objektversion löschen, wandeln Sie letztlich die nicht vorherige Version in die aktuelle Version dieses Objekts um.

Alle Objektversionen werden aufbewahrt, deshalb können Sie eine frühere Version zur aktuellen Version machen, indem Sie eine spezifische Version des Objekts in denselben Bucket kopieren. In der folgenden Abbildung wird das Quellobjekt (ID = 111111) in denselben Bucket kopiert. Amazon S3 stellt eine neue ID (88778877) bereit und diese wird zur aktuellen Version des Objekts. Der Bucket enthält jetzt also die ursprüngliche Objektversion (111111) und kopiert seine Kopie (88778877). Weitere Informationen zum Abrufen einer früheren Version und zum anschließenden Hochladen, um sie zur aktuellen Version zu machen, finden Sie unter [Objektversionen aus einem versionsfähigen Bucket abrufen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/RetrievingObjectVersions.html) und [Objekte hochladen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html).

![\[Abbildung, die zeigt, wie eine bestimmte Version eines Objekts in denselben Bucket kopiert wird, um daraus die aktuelle Version zu machen.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_COPY2.png)


Eine nachfolgende `GET`-Operation ruft Version 88778877 ab.

Die folgende Abbildung zeigt, wie die aktuelle Version (121212) eines Objekts gelöscht wird, sodass die vorhergehende Version (111111) zum aktuellen Objekt wird. Weitere Informationen zum Löschen eines Objekts finden Sie unter [Löschen eines einzelnen Objekts](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-objects.html).

![\[Abbildung, die zeigt, dass durch das Löschen der aktuellen Version eines Objekts die vorhergehende Version zum aktuellen Objekt wird.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_COPY_delete2.png)


Ein weiterer `GET` ruft die Version 111111 ab.

**Anmerkung**  
Wenn Sie Objektversionen in Batches wiederherstellen möchten, können Sie [die `CopyObject`-Operation](https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-copy-object.html) verwenden. Die `CopyObject`-Operation kopiert jedes im Manifest angegebene Objekt. Objekte werden jedoch nicht zwingend in derselben Reihenfolge kopiert, in der sie im Manifest erscheinen. Wenn für versionierte Buckets die Beibehaltung der aktuellen/nicht aktuellen Versionsreihenfolge wichtig ist, sollten Sie zuerst alle nicht aktuellen Versionen kopieren. Kopieren Sie dann, nachdem der erste Auftrag abgeschlossen ist, die aktuellen Versionen in einen nachfolgenden Auftrag.

## So stellen Sie frühere Objektversionen wieder her
<a name="restoring-obj-version-version-enabled-bucket-examples"></a>

Weitere Anleitungen zur Wiederherstellung gelöschter Objekte finden Sie unter [Wie kann ich ein Amazon S3 S3-Objekt abrufen, das in einem Bucket mit Versionierung gelöscht wurde?](https://repost.aws/knowledge-center/s3-undelete-configuration) im AWS re:Post Knowledge Center.

### Verwenden der S3-Konsole
<a name="retrieving-object-versions"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält.

1. Wählen Sie in der Liste **Objects (Objekte)** den Namen des Objekts aus.

1. Wählen Sie **Versions (Versionen)**.

   Amazon S3 zeigt alle Versionen für das Objekt an.

1. Aktivieren Sie das Kontrollkästchen neben der **Version ID (Versions-ID)** für die Versionen, die Sie abrufen möchten.

1. Wählen Sie **Actions (Aktionen)**, wählen Sie **Download (Herunterladen)** und speichern Sie das Objekt.

Objektversionen können auch in der Objektübersicht angezeigt, heruntergeladen und gelöscht werden. Weitere Informationen finden Sie unter [Anzeigen von Objekteigenschaften in der Amazon-S3-Konsole](view-object-properties.md).

**Wichtig**  
Sie können den Löschvorgang für ein Objekt nur rückgängig machen, wenn seine aktuelle Version gelöscht wurde. Es ist nicht möglich, das Löschen einer vorherigen Version eines Objekts rückgängig zu machen, das gelöscht wurde. Weitere Informationen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

### Verwenden Sie den AWS SDKs
<a name="restoring-obj-version-version-enabled-bucket-sdks"></a>

Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer Center](https://aws.amazon.com/code/). 

------
#### [ Python ]

Im folgenden Python-Codebeispiel wird die vorherige Version eines versionierten Objekts wiederhergestellt, indem alle Versionen gelöscht werden, die nach der angegebenen Rollback-Version aufgetreten sind.

```
def rollback_object(bucket, object_key, version_id):
    """
    Rolls back an object to an earlier version by deleting all versions that
    occurred after the specified rollback version.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that holds the object to roll back.
    :param object_key: The object to roll back.
    :param version_id: The version ID to roll back to.
    """
    # Versions must be sorted by last_modified date because delete markers are
    # at the end of the list even when they are interspersed in time.
    versions = sorted(
        bucket.object_versions.filter(Prefix=object_key),
        key=attrgetter("last_modified"),
        reverse=True,
    )

    logger.debug(
        "Got versions:\n%s",
        "\n".join(
            [
                f"\t{version.version_id}, last modified {version.last_modified}"
                for version in versions
            ]
        ),
    )

    if version_id in [ver.version_id for ver in versions]:
        print(f"Rolling back to version {version_id}")
        for version in versions:
            if version.version_id != version_id:
                version.delete()
                print(f"Deleted version {version.version_id}")
            else:
                break

        print(f"Active version is now {bucket.Object(object_key).version_id}")
    else:
        raise KeyError(
            f"{version_id} was not found in the list of versions for " f"{object_key}."
        )
```

------

# Löschen von Objekten aus einem versioning-fähigen Bucket
<a name="DeletingObjectVersions"></a>

Sie können Objektversionen aus Amazon-S3-Buckets löschen, wann immer Sie möchten. Sie können auch Lebenszyklus-Konfigurationsregeln für Objekte definieren, die einen definierten Lebenszyklus haben, um Amazon S3 aufzufordern, die aktuellen Objektversionen ablaufen zu lassen, oder die nicht aktuellen Objektversionen ständig zu entfernen. Wenn für Ihr Bucket die Versionsverwaltung aktiviert oder ausgesetzt ist, funktionieren die Lebenszyklus-Konfigurationsaktionen wie folgt:
+ Die Aktion `Expiration` gilt für die aktuelle Objektversion. Statt die aktuelle Objektversion zu löschen, behält Amazon S3 die aktuelle Version als nicht aktuelle Version bei, indem es eine *Löschmarkierung* hinzufügt, die anschließend zur aktuellen Version wird.
+ Die `NoncurrentVersionExpiration`-Aktion wird nur auf nicht aktuelle Objektversionen angewendet, und Amazon S3 entfernt diese Objektversionen dauerhaft. Dauerhaft entfernte Objekte können nicht wiederhergestellt werden.

Weitere Informationen zu S3 Lifecycle finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md) und [Beispiele für S3-Lebenszykluskonfigurationen](lifecycle-configuration-examples.md).

Um zu sehen, wie viele aktuelle und nicht aktuelle Objektversionen Ihre Buckets enthalten, können Sie die Metriken von Amazon S3 Storage Lens verwenden. S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können. Weitere Informationen finden Sie unter [Verwenden von S3 Storage Lens zur Optimierung Ihrer Speicherkosten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-lens-optimize-storage.html?icmpid=docs_s3_user_guide_DeletingObjectVersions.html). Eine vollständige Liste der Metriken finden Sie im [Glossar der S3-Storage-Lens-Metriken](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage_lens_metrics_glossary.html?icmpid=docs_s3_user_guide_replication.html).

**Anmerkung**  
 Für jede Version eines gespeicherten und übertragenen Objekts gelten die Standardpreise von Amazon S3. Dies gilt auch für nicht aktuelle Objektversionen. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing/). 

## Löschen von Anwendungsfällen
<a name="delete-request-use-cases"></a>

Eine `DELETE`-Anforderung hat die folgenden Anwendungsfälle:
+ Wenn das Versioning aktiviert ist, kann ein einfaches `DELETE` ein Objekt nicht dauerhaft löschen. (Eine einfache `DELETE`-Anforderung ist eine Anforderung, die keine Versions-ID angibt.) Stattdessen fügt Amazon S3 eine Löschmarkierung in den Bucket ein, und die Löschmarkierung wird zur aktuellen Objektversion mit einer neuen ID. 

  Wenn Sie versuchen, `GET` für ein Objekt auszuführen, dessen aktuelle Version eine Löschmarkierung ist, verhält sich Amazon S3, als wäre das Objekt gelöscht worden (obwohl es nicht vollständig entfernt wurde), und gibt einen 404-Fehler zurück. Weitere Informationen finden Sie unter [Arbeiten mit Löschmarkierungen](DeleteMarker.md).

  Die folgende Abbildung zeigt, dass ein einfaches `DELETE` das spezifizierte Objekt nicht wirklich löscht. Stattdessen fügt Amazon S3 eine Löschmarkierung ein.  
![\[Abbildung, die das Einfügen einer Löschmarkierung zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled.png)
+ Um Objektversionen dauerhaft zu löschen, müssen Sie `DELETE Object versionId` verwenden.

  Die folgende Abbildung zeigt, dass das beim Löschen einer angegebenen Objektversion dieses Objekt dauerhaft gelöscht wird.  
![\[Diagramm, das zeigt, wie DELETE Object versionId eine bestimmte Objektversion dauerhaft löscht.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)

## Löschen von Objektversionen
<a name="delete-object-version"></a>

Sie können Objektversionen in Amazon S3 mithilfe der Konsole AWS SDKs, der REST-API oder der löschen AWS Command Line Interface.

### Verwenden der S3-Konsole
<a name="deleting-object-versions"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält.

1. Wählen Sie in der Liste **Objects (Objekte)** den Namen des Objekts aus.

1. Wählen Sie **Versions (Versionen)**.

   Amazon S3 zeigt alle Versionen für das Objekt an.

1. Aktivieren Sie das Kontrollkästchen neben der **Version ID (Versions-ID)** für die Versionen, die Sie permanent löschen möchten.

1. Wählen Sie **Löschen** aus.

1. Geben Sie in **Objekte endgültig löschen?** **permanently delete** ein.
**Warnung**  
Wenn Sie eine Objektversion endgültig löschen, kann die Aktion nicht rückgängig gemacht werden.

1. Wählen Sie **Delete objects (Objekte löschen)**.

   Amazon S3 löscht die Objektversion.

### Verwenden Sie den AWS SDKs
<a name="delete-obj-version-version-enabled-bucket-sdks"></a>

Beispiele für das Löschen von Objekten mithilfe von AWS SDKs für Java, .NET und PHP finden Sie unter[Löschen von Amazon-S3-Objekten](DeletingObjects.md). Die Beispiele für das Löschen von Objekten in nicht versioning-fähigen und versioning-fähigen Buckets sind dieselben. Für versioning-fähige Buckets weist Amazon S3 jedoch eine Versionsnummer zu. Andernfalls ist die Versionsnummer null. 

Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer Center](https://aws.amazon.com/code/). 

------
#### [ Python ]

Das folgende Beispiel für Python-Code zeigt das dauerhafte Löschen eines versionierten Objekts, indem alle seine Versionen gelöscht werden.

```
def permanently_delete_object(bucket, object_key):
    """
    Permanently deletes a versioned object by deleting all of its versions.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that contains the object.
    :param object_key: The object to delete.
    """
    try:
        bucket.object_versions.filter(Prefix=object_key).delete()
        logger.info("Permanently deleted all versions of object %s.", object_key)
    except ClientError:
        logger.exception("Couldn't delete all versions of %s.", object_key)
        raise
```

------

### Verwenden der REST-API
<a name="delete-obj-version-enabled-bucket-rest"></a>

**Löschen einer spezifischen Objektversion**
+ Geben Sie in einem `DELETE` eine Versions-ID ein.

**Example – Löschen einer spezifischen Version**  
Im folgenden Beispiel wird die Version `UIORUnfnd89493jJFJ` von `photo.gif` gelöscht.  

```
1. DELETE /photo.gif?versionId=UIORUnfnd89493jJFJ HTTP/1.1 
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 12 Oct 2009 17:50:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:xQE0diMbLRepdf3YB+FIEXAMPLE=
5. Content-Type: text/plain
6. Content-Length: 0
```

### Mit dem AWS CLI
<a name="delete-obj-version-enabled-bucket-cli"></a>

Der folgende Befehl löscht ein Objekt namens test.txt aus einem Bucket mit dem Namen `amzn-s3-demo-bucket1`. Zum Entfernen einer bestimmte Version eines Objekts müssen Sie der Bucket-Eigentümer sein und die Versions-ID-Subressource verwenden.

```
aws s3api delete-object --bucket amzn-s3-demo-bucket1 --key test.txt --version-id versionID
```

Weitere Informationen zu `delete-object` finden Sie unter [https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/delete-object.html) in der *AWS CLI -Befehlsreferenz*.

Weitere Informationen zum Löschen von Objektversionen finden Sie in den folgenden Themen:
+ [Arbeiten mit Löschmarkierungen](DeleteMarker.md)
+ [Entfernen von Löschmarkierungen, um eine ältere Version aktuell zu machen](ManagingDelMarkers.md#RemDelMarker)
+ [Löschen eines Objekts aus einem MFA-Delete-fähigen Bucket](UsingMFADelete.md)

# Arbeiten mit Löschmarkierungen
<a name="DeleteMarker"></a>

Eine *Löschmarkierung* in Amazon S3 ist ein Platzhalter (bzw. eine Markierung) für ein versioniertes Objekt, das in einer einfachen `DELETE`-Anforderung angegeben wurde. Eine einfache `DELETE`-Anforderung ist eine Anforderung, die keine Versions-ID angibt. Weil sich das Objekt in einem versioning-fähigen Bucket befindet, wurde das Objekt nicht gelöscht. Die Löschmarkierung bewirkt jedoch, dass sich Amazon S3 verhält, als wäre das Objekt gelöscht worden. Sie können einen `DELETE`-API-Aufruf in Amazon S3 für eine Löschmarkierung verwenden. Dazu müssen Sie die `DELETE` Anfrage mithilfe eines AWS Identity and Access Management (IAM-) Benutzers oder einer Rolle mit den entsprechenden Berechtigungen stellen.

Eine Löschmarkierung hat einen *Schlüsselnamen* (oder *Schlüssel*) und eine Versions-ID, so wie jedes andere Objekt. Eine Löschmarkierung unterscheidet sich jedoch wie folgt von anderen Objekten:
+ Einer Löschmarkierung sind keine Daten zugeordnet.
+ Eine Löschmarkierung ist nicht mit einem Wert für eine Zugriffssteuerungsliste (ACL) verknüpft.
+ Wenn Sie eine `GET`-Anforderung für eine Löschmarkierung ausgeben, ruft die `GET`-Anforderung nichts ab, da eine Löschmarkierung keine Daten enthält. Insbesondere, wenn in Ihrer `GET`-Anforderung keine `versionId` angegeben ist, erhalten Sie den Fehler 404 (Nicht gefunden).

Für Löschmarkierungen fällt eine Mindestgebühr für die Speicherung in Amazon S3 an. Der Speicherbedarf einer Löschmarkierung ist gleich der Größe des Schlüsselnamens der Löschmarkierung. Ein Schlüsselname ist eine Folge von Unicode-Zeichen. Die UTF-8-Codierung für den Schlüsselnamen fügt Ihrem Bucket für jedes Zeichen im Namen 1 bis 4 Byte Speicherplatz hinzu. Löschmarkierungen werden in der S3-Standardspeicherklasse gespeichert. 

Wenn Sie ermitteln möchten, wie viele Löschmarkierungen Sie haben und in welcher Speicherklasse diese gespeichert sind, können Sie Amazon S3 Storage Lens verwenden. Weitere Informationen erhalten Sie unter [Überwachung Ihrer Speicheraktivität und -nutzung mit Amazon S3 Storage Lens](storage_lens.md) und [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

Weitere Informationen zu Schlüsselnamen finden Sie unter [Markieren von Amazon-S3-Objekten](object-keys.md). Informationen zum Löschen von Löschmarkierungen finden Sie unter [Verwalten von Löschmarkierungen](ManagingDelMarkers.md). 

Nur Amazon S3 kann eine Löschmarkierung erstellen. Dies erfolgt immer, wenn Sie eine `DeleteObject`-Anfrage für ein Objekt in einem Bucket mit Versioning oder ausgesetztem Versioning stellen. Das in der `DELETE`-Anforderung angegebene Objekt wird nicht wirklich gelöscht. Stattdessen wird die Löschmarkierung zur aktuellen Version des Objekts. Der Schlüsselname (oder Schlüssel) des Objekts wird zum Schlüssel der Löschmarkierung. 

Wenn Sie ein Objekt abrufen, ohne eine `versionId` in der Anforderung anzugeben, und die aktuelle Version eine Löschmarkierung ist, antwortet Amazon S3 mit Folgendem:
+ Fehler 404 (Nicht gefunden)
+ Ein Antwort-Header `x-amz-delete-marker: true`

Wenn Sie ein Objekt abrufen, indem Sie eine `versionId` in der Anforderung angeben, und die angegebene Version eine Löschmarkierung ist, antwortet Amazon S3 mit Folgendem:
+ Ein Fehler 405 (Method Not Allowed)
+ Ein Antwort-Header `x-amz-delete-marker: true`
+ Ein Antwortheader `Last-Modified: timestamp` (nur bei Verwendung der [GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)API-Operationen [HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)oder)

Der Antwort-Header `x-amz-delete-marker: true` teilt Ihnen mit, dass das Objekt, auf das Sie zugegriffen haben, eine Löschmarkierung war. Dieser Antwort-Header gibt niemals `false` zurück, denn wenn der Wert `false` lautet, handelt es sich bei der aktuellen oder angegebenen Version des Objekts nicht um eine Löschmarkierung.

Der Antwort-Header `Last-Modified` gibt die Erstellungszeit der Löschmarkierungen an.

Die folgende Abbildung zeigt, wie ein `GetObject`-API-Aufruf für ein Objekt, dessen aktuelle Version eine Löschmarkierung ist, mit dem Fehler 404 (Nicht gefunden) antwortet. Der Antwort-Header enthält `x-amz-delete-marker: true`.

![\[Abbildung, die zeigt, wie ein GetObject-Aufruf einer Löschmarkierung den Fehler 404 (Nicht gefunden) zurückgibt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound.png)


Wenn Sie einen `GetObject`-Aufruf für ein Objekt durchführen, indem Sie eine `versionId` in Ihrer Anfrage angeben, und wenn die angegebene Version eine Löschmarkierung ist, antwortet Amazon S3 mit dem Fehler 405 (Methode nicht zulässig) und die Antwort-Header enthalten `x-amz-delete-marker: true` und `Last-Modified: timestamp`.

![\[Abbildung, die zeigt, wie ein GetObject-Aufruf einer Löschmarkierung den Fehler 405 (Methode nicht erlaubt) zurückgibt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_NoObjectFound_405.png)


Auch wenn sie überschrieben werden, bleiben Löschmarken in Ihren Objektversionen erhalten. Die einzige Methode, Löschmarkierungen (und andere Versionen eines Objekts) aufzulisten, besteht in der Verwendung einer [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html) Anforderung. Sie können diese Anfrage in der stellen, AWS-Managementkonsole indem Sie Ihre Objekte in einem Allzweck-Bucket für allgemeine Zwecke auflisten und **Versionen anzeigen** auswählen. Weitere Informationen finden Sie unter [Auflisten von Objekten in einem versioning-fähigen Bucket](list-obj-version-enabled-bucket.md).

Die folgende Abbildung zeigt, dass eine [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)- oder [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html)-Anforderung keine Objekte zurückgibt, deren aktuelle Version eine Löschmarkierung ist.

![\[Abbildung, die zeigt, dass ein ListObjectsV2- oder ListObjects-Aufruf keine Löschmarkierungen zurückgibt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_GETBucketwithDeleteMarkers.png)


# Verwalten von Löschmarkierungen
<a name="ManagingDelMarkers"></a>

## Konfigurieren des Lebenszyklus zum automatischen Bereinigen abgelaufener Löschmarkierungen
<a name="LifecycleDelMarker"></a>

Eine abgelaufene Objektlöschmarkierung ist eine, bei der alle Objektversionen gelöscht werden und nur eine einzelne Löschmarkierung erhalten bleibt. Wenn die Lebenszyklus-Konfiguration so eingerichtet ist, dass aktuelle Versionen gelöscht werden, oder die `ExpiredObjectDeleteMarker`-Aktion explizit festgelegt ist, entfernt Amazon S3 die Löschmarkierung des abgelaufenen Objekts. Ein Beispiel finden Sie unter [Entfernen von Löschmarkierungen für abgelaufene Objekte in einem Bucket mit aktivierter Versionsverwaltung](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7). 

## Entfernen von Löschmarkierungen, um eine ältere Version aktuell zu machen
<a name="RemDelMarker"></a>

Wenn Sie ein Objekt in einem für das Versioning geeignetes Bucket löschen, bleiben alle Versionen in dem Bucket und Amazon S3 erstellt eine Löschmarkierung für das Objekt. Um das Löschen des Objekts rückgängig zu machen, müssen Sie diese Löschmarkierung löschen. Weitere Informationen zum Versioning und zu Löschmarkierungen finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

Um eine Löschmarkierung dauerhaft zu löschen, müssen Sie Ihre Versions-ID in einer `DeleteObject versionId`-Anforderung angeben. Die folgende Abbildung zeigt, dass ein einfaches `DeleteObject versionId` eine Löschmarkierung nicht dauerhaft entfernt.

![\[Abbildung, die das Löschen einer Löschmarke anhand ihrer Versions-ID zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_deleteMarkerVersioned.png)


Das Entfernen der Löschmarkierung bewirkt, dass eine einfache `GET`-Anforderung jetzt die aktuelle Versions-ID (121212) des Objekts abruft. 

**Anmerkung**  
Wenn Sie eine `DeleteObject`-Anforderung verwenden, bei der die aktuelle Version eine Löschmarkierung ist (ohne die Versions-ID der Löschmarkierung anzugeben), löscht Amazon S3 die Löschmarkierung nicht, sondern eine andere `PUTs` Löschmarkierung.

Um eine Löschmarkierung mit einer `NULL`-Versions-ID zu löschen, müssen Sie das `NULL` als Versions-ID in der `DeleteObject`-Anforderung übergeben. Die folgende Abbildung zeigt, wie eine einfache `DeleteObject`-Anfrage ohne Versions-ID, bei der die aktuelle Version eine Löschmarkierung ist, nichts entfernt, sondern stattdessen eine zusätzliche Löschmarkierung mit einer eindeutigen Versions-ID (7498372) hinzufügt.

![\[Abbildung, die das Löschen einer Löschmarkierung mit einer NULL-Versions-ID zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_deleteMarker.png)


## Verwenden der S3-Konsole
<a name="undelete-objects"></a>

Mit den folgenden Schritten können Sie gelöschte Objekte wiederherstellen, die keine Ordner aus Ihrem S3-Bucket sind, einschließlich der Objekte, die sich in diesen Ordnern befinden. 

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie in der Liste **Buckets** den Namen des von Ihnen erstellten Buckets aus.

1. Um eine Liste der **Versionen** der Objekte in dem Bucket anzuzeigen, wählen Sie den Schalter **List versions (Versionen auflisten)**. Sie sehen die Löschmarkierungen für gelöschte Objekte. 

   

1. Um das Löschen eines Objekts rückgängig zu machen, müssen Sie die Löschmarkierung löschen. Markieren Sie das Kontrollkästchen neben der **Löschmarkierung** des Objekts, das wiederhergestellt werden soll, und wählen Sie dann **Delete (Löschen)**.

1. Bestätigen Sie den Löschvorgang auf der Seite **Delete objects (Objekte löschen)** .

   1. Geben Sie für **Permanently delete objects?** (Objekte dauerhaft löschen?) **permanently delete** ein.

   1. Wählen Sie **Delete objects (Objekte löschen)**.

**Anmerkung**  
Sie können die Amazon-S3-Konsole nicht verwenden, um das Löschen von Ordnern rückgängig zu machen. Sie müssen das AWS CLI oder SDK verwenden. Beispiele finden Sie unter [Wie kann ich ein Amazon-S3-Objekt wiederherstellen, das in einem versionierungsfähigen Bucket gelöscht wurde?](https://aws.amazon.com/premiumsupport/knowledge-center/s3-undelete-configuration/) im AWS -Wissenszentrum

## Verwenden der REST-API
<a name="delete-marker-rest-api"></a>

**Eine Löschmarkierung dauerhaft entfernen**

1. Setzen Sie den Parameter `versionId` auf die ID der Version der Löschmarkierung, die Sie entfernen wollen.

1. Senden Sie eine `DELETE Object versionId`-Anforderung.

**Example – Entfernen einer Löschmarkierung**  
Das folgende Beispiel entfernt die Löschmarkierung für `photo.gif` Version 4857693.  

```
1. DELETE /photo.gif?versionId=4857693 HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

Wenn Sie eine Löschmarkierung löschen, nimmt Amazon S3 folgendes in die Antwort auf.

```
1. 204 NoContent 
2. x-amz-version-id: versionID 
3. x-amz-delete-marker: true
```

## Mit dem AWS SDKs
<a name="remove-delete-marker-examples-sdk"></a>

Informationen zur Verwendung von anderen AWS SDKs finden Sie im [AWS Developer Center](https://aws.amazon.com/code/).

------
#### [ Python ]

Das folgende Python-Codebeispiel zeigt, wie Sie einen Löschmarker von einem Objekt entfernen und damit die neueste nicht-aktuelle Version der aktuellsten Version zur aktuellen Version des Objekts machen.

```
def revive_object(bucket, object_key):
    """
    Revives a versioned object that was deleted by removing the object's active
    delete marker.
    A versioned object presents as deleted when its latest version is a delete marker.
    By removing the delete marker, we make the previous version the latest version
    and the object then presents as *not* deleted.

    Usage is shown in the usage_demo_single_object function at the end of this module.

    :param bucket: The bucket that contains the object.
    :param object_key: The object to revive.
    """
    # Get the latest version for the object.
    response = s3.meta.client.list_object_versions(
        Bucket=bucket.name, Prefix=object_key, MaxKeys=1
    )

    if "DeleteMarkers" in response:
        latest_version = response["DeleteMarkers"][0]
        if latest_version["IsLatest"]:
            logger.info(
                "Object %s was indeed deleted on %s. Let's revive it.",
                object_key,
                latest_version["LastModified"],
            )
            obj = bucket.Object(object_key)
            obj.Version(latest_version["VersionId"]).delete()
            logger.info(
                "Revived %s, active version is now %s  with body '%s'",
                object_key,
                obj.version_id,
                obj.get()["Body"].read(),
            )
        else:
            logger.warning(
                "Delete marker is not the latest version for %s!", object_key
            )
    elif "Versions" in response:
        logger.warning("Got an active version for %s, nothing to do.", object_key)
    else:
        logger.error("Couldn't get any version info for %s.", object_key)
```

------

# Löschen eines Objekts aus einem MFA-Delete-fähigen Bucket
<a name="UsingMFADelete"></a>

Wenn Sie MFA Delete konfigurieren, kann nur der Root-Benutzer Objektversionen dauerhaft löschen oder die Konfiguration der Versionsverwaltung in Ihrem S3-Bucket ändern. Sie müssen ein MFA-Gerät verwenden, um den Root-Benutzer zu authentifizieren, um die Löschaktion durchzuführen.

Wenn die Versioning-Konfiguration MFA Delete unterstützt, muss der Bucket-Eigentümer den `x-amz-mfa`-Anfrage-Header in Anfragen aufnehmen, um eine Objektversion dauerhaft zu löschen oder den Versioning-Status des Buckets zu ändern. Anforderung mit `x-amz-mfa` müssen HTTPS verwenden.

Der Wert des Headers ist die Verkettung der Seriennummer Ihres Authentifizierungsgeräts, eines Leerzeichens und des darauf angezeigten Authentifizierungscodes. Wenn sie dies im Anforderungs-Header nicht angeben, schlägt die Anforderung fehl.

Bei Verwendung von AWS CLI Include gelten dieselben Informationen wie für den Wert des `mfa` Parameters.

Weitere Informationen zu Authentifizierungsgeräten finden Sie unter [Multi-Factor Authentication](https://aws.amazon.com/iam/details/mfa/).

Weitere Informationen zur Aktivierung von MFA Delete finden Sie unter [Konfigurieren von MFA Delete](MultiFactorAuthenticationDelete.md).

**Anmerkung**  
Das Löschen eines Objekts aus einem versionsfähigen Bucket, der MFA Delete unterstützt, ist nicht über den verfügbar. AWS-Managementkonsole

## Mit dem AWS CLI
<a name="MFADeleteCLI"></a>

Verwenden Sie den folgenden Befehl, um ein Objekt aus einem versionsfähigen Bucket zu löschen, der MFA Delete unterstützt. Wenn Sie den folgenden Beispielbefehl verwenden möchten, ersetzen Sie `user input placeholders` durch Ihre eigenen Informationen.

```
 aws s3api delete-object --bucket amzn-s3-demo-bucket --key OBJECT-KEY --version-id "VERSION ID" --mfa "MFA_DEVICE_SERIAL_NUMBER MFA_DEVICE_CODE"						
```

## Verwenden der REST-API
<a name="MFADeleteAPI"></a>

Im folgenden Beispiel wird `my-image.jpg` (in der angegebenen Version) gelöscht, ein mit MFA Delete konfigurierter Bucket. 

Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectDELETE.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectDELETE.html) in der API-Referenz zu Amazon Simple Storage Service.

```
1. DELETE /my-image.jpg?versionId=3HL4kqCxf3vjVBH40Nrjfkd HTTPS/1.1
2. Host: bucketName.s3.amazonaws.com
3. x-amz-mfa: 20899872 301749
4. Date: Wed, 28 Oct 2009 22:32:00 GMT
5. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
```

# Konfigurieren von versionierten Objektberechtigungen
<a name="VersionedObjectPermissionsandACLs"></a>

Die Berechtigungen für Objekte in Amazon S3 werden auf Versionsebene festgelegt. Jede Version hat ihren eigenen Objekteigentümer. AWS-Konto Derjenige, der die Objektversion erstellt, ist der Besitzer. Sie können also unterschiedliche Berechtigungen für unterschiedliche Versionen desselben Objekts einrichten. Dazu geben Sie die Versions-ID des Objekts an, dessen Berechtigungen Sie in einer `PUT Object versionId acl`-Anforderung setzen wollen. Eine ausführliche Beschreibung und Anweisungen zur Verwendung ACLs finden Sie unter[Identitäts- und Zugriffsverwaltung für Amazon S3](security-iam.md).

**Example – Einrichtung von Berechtigungen für eine Objektversion**  
Mit der folgenden Anforderung wird die Berechtigung des Empfängers mit der kanonischen Benutzer-ID `FULL_CONTROL` auf den Schlüssel*b4bf1b36f9716f094c3079dcf5ac9982d4f2847de46204d47448bc557fb5ac2a*,, Versions-ID`my-image.jpg`, festgelegt. `3HL4kqtJvjVBH40Nrjfkd`  

```
 1. PUT /my-image.jpg?acl&versionId=3HL4kqtJvjVBH40Nrjfkd HTTP/1.1
 2. Host: bucket.s3.amazonaws.com
 3. Date: Wed, 28 Oct 2009 22:32:00 GMT
 4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU=
 5. Content-Length: 124
 6.  
 7. <AccessControlPolicy>
 8.   <Owner>
 9.     <ID>75cc57f09aa0c8caeab4f8c24e99d10f8e7faeebf76c078efc7c6caea54ba06a</ID>
10.   </Owner>
11.   <AccessControlList>
12.     <Grant>
13.       <Grantee xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="CanonicalUser">
14.         <ID>a9a7b886d6fd24a52fe8ca5bef65f89a64e0193f23000e241bf9b1c61be666e9</ID>
15.       </Grantee>
16.       <Permission>FULL_CONTROL</Permission>
17.     </Grant>
18.   </AccessControlList>
19.   </AccessControlPolicy>
```

Analog dazu müssen Sie, um die Berechtigungen für eine spezifische Objektversion zu erhalten, ihre Versions-ID in einer `GET Object versionId acl`-Anforderung angeben. Sie müssen diese Versions-ID angeben, weil `GET Object acl` standardmäßig die Berechtigungen für die aktuelle Version des Objekts zurückgibt. 

**Example – Abrufen der Berechtigungen für eine bestimmte Objektversion**  
Im folgenden Beispiel gibt Amazon S3 die Berechtigungen für den Schlüssel, `my-image.jpg`, Versions-ID, `DVBH40Nr8X8gUMLUo` zurück.  

```
1. GET /my-image.jpg?versionId=DVBH40Nr8X8gUMLUo&acl HTTP/1.1
2. Host: bucket.s3.amazonaws.com
3. Date: Wed, 28 Oct 2009 22:32:00 GMT
4. Authorization: AWS AKIAIOSFODNN7EXAMPLE:0RQf4/cRonhpaBX5sCYVf1bNRuU
```

Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGETacl.html](https://docs.aws.amazon.com/AmazonS3/latest/API/RESTObjectGETacl.html) in der *API-Referenz zu Amazon Simple Storage Service*.

# Arbeiten mit Objekten in einem Bucket mit ausgesetztem Versioning
<a name="VersionSuspendedBehavior"></a>

In Amazon S3 können Sie das Versioning aussetzen, um zu verhindern, dass sich neue Versionen desselben Objekts in einem Bucket ansammeln. Sie könnten dies tun, weil Sie nur eine einzige Version eines Objekts in einem Bucket haben möchten. Oder Sie möchten möglicherweise keine Gebühren für mehrere Versionen anfallen. 

Wenn Sie das Versioning aussetzen, ändern sich die in Ihrem Bucket vorhandenen Objekte nicht. Was sich ändert, ist, wie Amazon S3 die Objekte in zukünftigen Anfragen verarbeitet. Die Themen in diesem Abschnitt erläutern verschiedene Objekt-Vorgänge in einem Bucket mit ausgesetztem Versioning, einschließlich Hinzufügen, Abrufen und Löschen von Objekten.

Weitere Informationen über das S3-Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md). Weitere Informationen über das Abrufen von Objektversionen, finden Sie unter [Abrufen von Objektversionen aus einem versioning-fähigen Bucket](RetrievingObjectVersions.md).

**Topics**
+ [Hinzufügen von Objekten zu Buckets mit ausgesetztem Versioning](AddingObjectstoVersionSuspendedBuckets.md)
+ [Abrufen von Objekten aus Buckets mit ausgesetztem Versioning](RetrievingObjectsfromVersioningSuspendedBuckets.md)
+ [Löschen von Objekten aus Buckets mit ausgesetztem Versioning](DeletingObjectsfromVersioningSuspendedBuckets.md)

# Hinzufügen von Objekten zu Buckets mit ausgesetztem Versioning
<a name="AddingObjectstoVersionSuspendedBuckets"></a>

Sie können in Amazon S3 Objekte in Buckets mit ausgesetztem Versioning hinzufügen, um das Objekt mit der Versions-ID null zu erzeugen oder eine Objektversion mit einer übereinstimmenden Versions-ID zu überschreiben.

Nachdem Sie das Versioning für einen Bucket ausgesetzt haben, fügt Amazon S3 automatisch jedem nachfolgend (mit `PUT`, `POST` oder `CopyObject`) in diesem Bucket gespeicherten Objekt die Versions-ID `null` hinzu

Die folgende Abbildung zeigt, wie Amazon S3 jedem Objekt automatisch die Versions-ID `null` hinzufügt, wenn es einem Bucket mit ausgesetztem Versioning hinzugefügt wird.

![\[Amazon S3 fügt einer Objektgrafik die Versions-ID Null hinzu.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended.png)


Wenn sich bereits eine Null-Version im Bucket befindet und Sie ein weiteres Objekt mit demselben Schlüssel hinzufügen, überschreibt das hinzugefügte Objekt die ursprüngliche Null-Version. 

Wenn es versionsfähige Objekte im Bucket gibt, wird die Version, die Sie mit `PUT` hinzufügen, zur aktuellen Version des Objekts. Die folgende Abbildung zeigt, wie das Hinzufügen eines Objekts in einen Bucket, der versionsfähige Objekte enthält, das bereits im Bucket enthaltene Objekt nicht überschreibt. 

In diesem Fall befand sich Version 111111 bereits im Bucket. Amazon S3 weist dem Objekt, das hinzugefügt und im Bucket gespeichert wird, die Versions-ID null zu. Version 111111 wird nicht überschrieben.

![\[Amazon S3 fügt einem Objekt die Versions-ID Null hinzu, ohne die Grafik der Version 111111 zu überschreiben.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended3.png)


Wenn bereits eine Null-Version in einem Bucket vorhanden ist, wird die Null-Version überschrieben, wie in der folgenden Abbildung gezeigt.

![\[Amazon S3 fügt einem Objekt die Versions-ID Null hinzu und überschreibt gleichzeitig die Grafik mit dem ursprünglichen Inhalt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_PUT_versionSuspended4.png)


Obwohl der Schlüssel und die Versions-ID (`null`) der Null-Version vor und nach `PUT` gleich sind, wird der Inhalt der ursprünglich im Bucket gespeicherten Version jedoch durch die Inhalte des Objekts ersetzt, die mit `PUT` in den Bucket geschrieben wurde.

# Abrufen von Objekten aus Buckets mit ausgesetztem Versioning
<a name="RetrievingObjectsfromVersioningSuspendedBuckets"></a>

Eine `GET Object`-Anforderung gibt die aktuelle Version eines Objekts zurück, unabhängig davon, ob Sie das Versioning für einen Bucket aktiviert haben oder nicht. Die folgende Abbildung zeigt, wie ein einfaches `GET` die aktuelle Version des Objekts zurückgibt.

![\[Abbildung, die zeigt, wie eine einfache GET-Aufforderung die aktuelle Version des Objekts zurückgibt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_GET_suspended.png)


# Löschen von Objekten aus Buckets mit ausgesetztem Versioning
<a name="DeletingObjectsfromVersioningSuspendedBuckets"></a>

Sie können Objekte aus Buckets mit ausgesetztem Versioning löschen, um ein Objekt mit einer Versions-ID von null zu entfernen.

Wenn das Versioning für ein Bucket ausgesetzt ist, gilt für eine `DELETE`-Anforderung:
+ Kann nur ein Objekt entfernen, dessen Versions-ID `null` ist.
+ Entfernt nichts, wenn es keine Nullversion des Objekts im Bucket gibt.
+ Fügt eine Löschmarkierung in den Bucket ein.

Wenn die Bucket-Versionsverwaltung unterbrochen ist, entfernt der Vorgang das Objekt, dessen `versionId` Null lautet. Wenn eine Versions-ID vorhanden ist, fügt Amazon S3 eine Löschmarkierung ein, die zur aktuellen Version des Objekts wird. Die folgende Abbildung zeigt, wie eine einfache `DELETE`-Aufforderung eine Nullversion entfernt und Amazon S3 stattdessen eine Löschmarkierung mit der Versions-ID `null` einfügt.

![\[Abbildung, die einen einfachen Löschvorgang zeigt, um ein Objekt mit Versions-ID NULL zu entfernen.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningSuspended.png)


Um ein Objekt mit einer `versionId` dauerhaft zu löschen, müssen Sie die `versionId` des Objekts in die Anforderung aufnehmen. Da eine Löschmarkierung keine Inhalte speichert, verlieren Sie den Inhalt der Version `null`, wenn sie durch eine Löschmarkierung ersetzt wird.

Die folgende Abbildung zeigt einen Bucket, der keine Nullversion enthält. In diesem Fall wird durch die `DELETE`-Aufforderung nichts entfernt. Stattdessen fügt Amazon S3 nur eine Löschmarkierung ein.

![\[Abbildung, die das Einfügen einer Löschmarkierung zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningSuspendedNoNull.png)


Selbst in einem Bucket, für das die Versionierung gesperrt wurde, kann der Bucket-Besitzer eine bestimmte Version dauerhaft löschen, indem er die Versions-ID in die `DELETE` Anfrage aufnimmt, es sei denn, die Berechtigungen für die `DELETE` Anfrage wurden ausdrücklich verweigert. Um beispielsweise das Löschen von Objekten mit einer `null` Versions-ID zu verweigern, müssen Sie die Berechtigungen `s3:DeleteObject` und `s3:DeleteObjectVersions` explizit verweigern.

Die folgende Abbildung zeigt, dass das beim Löschen einer angegebenen Objektversion diese Version des Objekts dauerhaft gelöscht wird. Nur der Bucket-Eigentümer kann eine spezifische Objektversion löschen.

![\[Abbildung, die das permanente Löschen eines Objekts mithilfe einer angegebenen Versions-ID zeigt\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/versioning_DELETE_versioningEnabled2.png)


# Fehlerbehebung für die Versionsverwaltung
<a name="troubleshooting-versioning"></a>

Die folgenden Themen können bei der Behebung von allgemeinen Problemen mit der Amazon-S3-Versionsverwaltung hilfreich sein.

**Topics**
+ [Ich möchte Objekte wiederherstellen, die in einem Bucket mit aktivierter Versionsverwaltung versehentlich gelöscht wurden.](#recover-objects)
+ [Ich möchte versionierte Objekte dauerhaft löschen](#delete-objects-permanent)
+ [Nach dem Aktivieren der Bucket-Versionsverwaltung stelle ich Leistungseinbußen fest](#performance-degradation)

## Ich möchte Objekte wiederherstellen, die in einem Bucket mit aktivierter Versionsverwaltung versehentlich gelöscht wurden.
<a name="recover-objects"></a>

Wenn Objektversionen aus S3-Buckets gelöscht werden, hat Amazon S3 im Allgemeinen keine Möglichkeit, diese wiederherzustellen. Wenn Sie jedoch die S3-Versionsverwaltung in Ihrem S3-Bucket aktiviert haben, kann ein Objekt mit einer `DELETE`-Anforderung, in der keine Versions-ID angegeben ist, nicht dauerhaft gelöscht werden. Stattdessen wird eine Löschmarkierung als Platzhalter hinzugefügt. Diese Löschmarkierung wird zur aktuellen Version des Objekts. 

Gehen Sie wie folgt vor, um zu überprüfen, ob Ihre gelöschten Objekte dauerhaft oder vorübergehend (mit einer Löschmarkierung an ihrer Stelle) gelöscht wurden: 

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält.

1. Aktivieren Sie in der Liste **Objekte** den Schalter **Versionen anzeigen** rechts neben der Suchleiste und suchen Sie dann in der Suchleiste nach dem gelöschten Objekt. Dieser Schalter ist nur verfügbar, wenn die Versionsverwaltung zuvor für den Bucket aktiviert wurde.

   Sie können auch das [S3 Inventory verwenden, um nach gelöschten Objekten zu suchen](storage-inventory.md#storage-inventory-contents).

1. Wenn Sie das Objekt nicht finden können, nachdem Sie **Versionen anzeigen** eingeschaltet oder einen Bestandsbericht erstellt haben, und auch keine [Löschmarkierung](DeleteMarker.md) für das Objekt zu finden ist, ist der Löschvorgang dauerhaft und das Objekt kann nicht wiederhergestellt werden.



Sie können den Status eines gelöschten Objekts auch überprüfen, indem Sie die `HeadObject` API-Operation von AWS Command Line Interface (AWS CLI) aus verwenden. Verwenden Sie hierfür den folgenden Befehl `head-object` und ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen: 

`aws s3api head-object --bucket amzn-s3-demo-bucket --key index.html`

Wenn Sie den Befehl `head-object` für ein versioniertes Objekt ausführen, dessen aktuelle Version eine Löschmarkierung ist, erhalten Sie den Fehler 404 Nicht gefunden. Beispiel: 

Beim Aufrufen des HeadObject Vorgangs ist ein Fehler aufgetreten (404): Not Found

Wenn Sie den Befehl `head-object` für ein versioniertes Objekt ausführen und die Versions-ID des Objekts angeben, ruft Amazon S3 die Metadaten des Objekts ab und bestätigt damit, dass das Objekt noch vorhanden ist und nicht dauerhaft gelöscht wurde.

`aws s3api head-object --bucket amzn-s3-demo-bucket --key index.html --version-id versionID`

```
{
"AcceptRanges": "bytes",
"ContentType": "text/html",
"LastModified": "Thu, 16 Apr 2015 18:19:14 GMT",
"ContentLength": 77,
"VersionId": "Zg5HyL7m.eZU9iM7AVlJkrqAiE.0UG4q",
"ETag": "\"30a6ec7e1a9ad79c203d05a589c8b400\"",
"Metadata": {}
}
```

Wenn das Objekt gefunden wird und die neueste Version eine Löschmarkierung ist, ist die vorherige Version des Objekts immer noch vorhanden. Da die Löschmarkierung die aktuelle Version des Objekts darstellt, können Sie das Objekt wiederherstellen, indem Sie die Löschmarkierung löschen. 

Nachdem Sie die Löschmarkierung dauerhaft entfernt haben, wird die zweitneueste Version des Objekts zur aktuellen Version des Objekts, sodass Ihr Objekt wieder verfügbar ist. Eine visuelle Darstellung der Wiederherstellung von Objekten finden Sie unter [Entfernen von Löschmarkierungen](ManagingDelMarkers.md#RemDelMarker).

Um eine bestimmte Version eines Objekts entfernen zu können, müssen Sie der Bucket-Eigentümer sein. Um eine Löschmarkierung dauerhaft zu löschen, müssen Sie Ihre Versions-ID in einer `DeleteObject`-Anforderung angeben. Verwenden Sie zum Löschen der Löschmarkierung den folgenden Befehl und ersetzen Sie die `user input placeholders` durch Ihre eigenen Informationen: 

****  
`aws s3api delete-object --bucket amzn-s3-demo-bucket --key index.html --version-id versionID`

Weitere Informationen über den Befehl `delete-object` finden Sie unter [https://docs.aws.amazon.com//cli/latest/reference/s3api/delete-object.html](https://docs.aws.amazon.com//cli/latest/reference/s3api/delete-object.html) in der *AWS CLI -Befehlsreferenz*. Weitere Informationen zum dauerhaften Löschen von Löschmarkierungen finden Sie unter [Verwalten von Löschmarkierungen](ManagingDelMarkers.md).

## Ich möchte versionierte Objekte dauerhaft löschen
<a name="delete-objects-permanent"></a>

In einem Bucket mit aktivierter Versionsverwaltung kann ein Objekt mit einer `DELETE`-Anforderung ohne Versions-ID nicht dauerhaft gelöscht werden. Bei einer solchen Anforderung wird vielmehr eine Löschmarkierung eingefügt.

Um versionierte Objekte dauerhaft zu löschen, können Sie eine der folgenden Methoden auswählen:
+ Erstellen Sie eine S3-Lebenszyklusregel, um nicht aktuelle Versionen dauerhaft zu löschen. Um nicht aktuelle Versionen dauerhaft zu löschen, wählen Sie **Nicht aktuelle Versionen von Objekten dauerhaft löschen** aus und geben Sie anschließend eine Zahl unter **Tage, nachdem Objekte veraltet sind** ein. Sie können die Anzahl der beizubehaltenden neueren Versionen optional angeben, indem Sie einen Wert unter **Number of newer versions to retain** (Anzahl der beizubehaltenden neueren Versionen) eingeben. Weitere Informationen zum Erstellen dieser Regel finden Sie unter [Festlegen einer S3-Lebenszyklus-Konfiguration](how-to-set-lifecycle-configuration-intro.md).
+ Löschen Sie eine angegebene Version, indem Sie die Versions-ID in die `DELETE`-Anforderung aufnehmen. Weitere Informationen hierzu finden Sie unter [Dauerhaftes Löschen von versionierten Objekten](DeletingObjectVersions.md#delete-request-use-cases).
+ Erstellen Sie eine Lebenszyklusregel, um aktuelle Versionen ablaufen zu lassen. Um aktuelle Versionen von Objekten ablaufen zu lassen, wählen Sie **Aktuelle Objektversionen ablaufen lassen** aus und fügen Sie dann eine Zahl unter **Tage nach Objekterstellung** ein. Weitere Informationen zum Erstellen dieser Lebenszyklusregel finden Sie unter [Festlegen einer S3-Lebenszyklus-Konfiguration](how-to-set-lifecycle-configuration-intro.md).
+ Um alle versionierten Objekte und Löschmarkierungen dauerhaft zu löschen, erstellen Sie zwei Lebenszyklusregeln: eine, um aktuelle Versionen ablaufen zu lassen und nicht aktuelle Versionen von Objekten dauerhaft zu löschen, und die andere, um Löschmarkierungen für abgelaufene Objekte zu löschen.

In einem Bucket mit aktivierter Versionsverwaltung können mit einer `DELETE`-Anforderung, in der keine Versions-ID angegeben ist, nur Objekte mit einer Versions-ID `NULL` entfernt werden. Wenn das Objekt hochgeladen wurde, als die Versionsverwaltung aktiviert war, wird mit einer `DELETE`-Anforderung, in der keine Versions-ID angegeben ist, eine Löschmarkierung für dieses Objekt erstellt.

**Anmerkung**  
Bei Buckets mit aktivierter S3-Objektsperre verursacht eine `DELETE`-Objektanforderung mit einer ID einer geschützten Objektversion den Fehler 403 Zugriff verweigert. Eine `DELETE`-Objektanforderung ohne Versions-ID fügt eine Löschmarkierung als neueste Version des Objekts mit der Antwort 200 OK hinzu. Objekte, die durch die Objektsperre geschützt sind, können erst dauerhaft gelöscht werden, wenn ihre Aufbewahrungszeiträume und gesetzlichen Aufbewahrungsfristen aufgehoben sind. Weitere Informationen finden Sie unter [So funktioniert die S3-Objektsperre](object-lock.md#object-lock-overview).

## Nach dem Aktivieren der Bucket-Versionsverwaltung stelle ich Leistungseinbußen fest
<a name="performance-degradation"></a>

Bei Buckets mit aktivierter Versionsverwaltung kann es zu Leistungseinbußen kommen, wenn zu viele Löschmarkierungen oder versionierte Objekte vorhanden sind und wenn bewährte Methoden nicht befolgt werden.

**Zu viele Löschmarkierungen**  
Nachdem Sie die Versionsverwaltung für einen Bucket aktiviert haben, wird mit einer `DELETE`-Anforderung ohne Versions-ID an ein Objekt eine Löschmarkierung mit einer eindeutigen Versions-ID erstellt. Lebenszyklus-Konfigurationen mit der Regel **Aktuelle Objektversionen ablaufen lassen** fügen jedem Objekt eine Löschmarkierung mit einer eindeutigen Versions-ID hinzu. Wenn zu viele Löschmarkierungen vorhanden sind, kann dies die Leistung im Bucket beeinträchtigen.

Wenn die Versionsverwaltung für einen Bucket ausgesetzt wird, markiert Amazon S3 die Versions-ID bei neu erstellten Objekten als `NULL`. Eine Ablaufaktion in einem Bucket mit ausgesetzter Versionsverwaltung bewirkt, dass Amazon S3 eine Löschmarkierung mit der Versions-ID `NULL` erstellt. In einem Bucket mit ausgesetzter Versionsverwaltung wird für jede Löschanforderung eine `NULL`-Löschmarkierung erstellt. Diese `NULL`-Löschmarkierungen werden auch als Löschmarkierungen für abgelaufenes Objekt bezeichnet, wenn alle Objektversionen gelöscht werden und nur eine einzelne Löschmarkierung übrig bleibt. Wenn sich zu viele `NULL`-Löschmarkierungen ansammeln, kommt es zu Leistungseinbußen im Bucket.

**Zu viele versionierte Objekte**  
Wenn ein Bucket mit aktivierter Versionsverwaltung Objekte mit Millionen von Versionen enthält, kann es vermehrt zu Fehlern 503 Service nicht verfügbar kommen. Wenn Sie eine deutliche Zunahme der HTTP-Antworten 503 Service Unavailable feststellen, die für `PUT`- oder `DELETE`-Objektanforderungen an einen Bucket mit aktivierter Versionsverwaltung eingehen, befinden sich möglicherweise ein oder mehrere Objekte in dem Bucket, für die Millionen von Versionen vorhanden sind. Wenn Sie Objekte mit Millionen Versionen haben, drosselt Amazon S3 Anforderungen an den Bucket automatisch. Durch die Drosselung von Anforderungen wird Ihr Bucket vor übermäßigem Anforderungsdatenverkehr geschützt, der andere Anforderungen an denselben Bucket verhindern könnte. 

Um festzustellen, zu welchen Objekten es Millionen Versionen gibt, verwenden Sie S3 Inventory. S3 Inventory generiert einen Bericht, der eine flache Dateiliste der Objekte in einem Bucket enthält. Weitere Informationen finden Sie unter [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md).

Um zu überprüfen, ob der Bucket viele versionierte Objekte enthält, verwenden Sie die S3-Storage-Lens-Metriken, um die **Anzahl der Objekte der aktuellen Version**, die **Anzahl nicht aktueller Versionsobjekte** und die **Anzahl der Löschmarkierungsobjekte** anzuzeigen. Weitere Informationen zu Storage-Lens-Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

Das Amazon-S3-Team fordert die Kunden auf, Anwendungen zu überprüfen, die wiederholt dasselbe Objekt überschreiben und damit potenziell Millionen Versionen für dieses Objekt erstellen, um festzustellen, ob die Anwendung wie beabsichtigt funktioniert. Beispielsweise kann eine Anwendung, die eine Woche lang jede Minute dasselbe Objekt überschreibt, über zehntausend Versionen erstellen. Wir empfehlen, für jedes Objekt weniger als einhunderttausend Versionen zu speichern. Wenn Sie einen Anwendungsfall haben, der Millionen von Versionen für ein oder mehrere Objekte erfordert, wenden Sie sich an das AWS Support Team, um Unterstützung bei der Suche nach einer besseren Lösung zu erhalten.

**Best Practices**  
Um Leistungseinbußen im Zusammenhang mit der Versionsverwaltung zu vermeiden, empfehlen wir Ihnen, den folgenden bewährten Methoden zu folgen:
+ Aktivieren Sie eine Lebenszyklusregel, um die vorherigen Versionen von Objekten ablaufen zu lassen. Sie können beispielsweise eine Lebenszyklusregel erstellen, nach der nicht aktuelle Versionen ablaufen, wenn das Objekt 30 Tage nicht mehr aktuell ist. Sie können auch mehrere nicht aktuelle Versionen beibehalten, wenn Sie nicht alle löschen möchten. Weitere Informationen finden Sie unter [Festlegen einer S3-Lebenszyklus-Konfiguration](how-to-set-lifecycle-configuration-intro.md).
+ Aktivieren Sie eine Lebenszyklusregel, um Löschmarkierungen für abgelaufene Objekte zu löschen, denen keine Datenobjekte im Bucket zugeordnet sind. Weitere Informationen finden Sie unter [Löschen abgelaufener Löschmarkierungen für Objekte](lifecycle-configuration-examples.md#lifecycle-config-conceptual-ex7).

Weitere bewährte Methoden zur Amazon-S3-Leistungsoptimierung finden Sie unter [Bewährte Methoden für Designmuster](optimizing-performance.md).

# Sperren von Objekten mit Object Lock
<a name="object-lock"></a>

Mit S3 Object Lock können Sie für einen bestimmten Zeitraum oder auf unbestimmte Zeit verhindern, dass Amazon-S3-Objekte gelöscht oder überschrieben werden. Object Lock verwendet ein *write-once-read-many*(WORM) -Modell zum Speichern von Objekten. Sie können Object Lock verwenden, um regulatorische Anforderungen einzuhalten, die die WORM-Speicherung verlangen, oder um einfach eine zusätzliche Schutzebene gegen Objektänderungen und -löschungen einzurichten.

**Anmerkung**  
S3 Object Lock wurde von Cohasset Associates in Bezug auf die Verwendung in Umgebungen bewertet, die den Bestimmungen von SEC 17a-4, CFTC und FINRA unterliegen. Weitere Informationen zu Object Lock im Zusammenhang mit diesen Bestimmungen finden Sie unter [Cohasset AssociatesCompliance-Bewertung](https://d1.awsstatic.com/r2018/b/S3-Object-Lock/Amazon-S3-Compliance-Assessment.pdf).

Die Objektsperre stellt zwei Optionen für die Verwaltung der Aufbewahrung von Objekten bereit: *Aufbewahrungszeiträume* und *rechtliche Aufbewahrungsfristen*. Für eine Objektversion kann es sowohl einen Aufbewahrungszeitraum als auch eine rechtliche Aufbewahrungsfrist geben oder beides geben.
+ **Aufbewahrungszeitraum** – Ein Aufbewahrungszeitraum gibt einen festen Zeitraum an, für den ein Objekt gesperrt bleibt. Sie können einen eindeutigen Aufbewahrungszeitraum für einzelne Objekte festlegen. Sie können zusätzlich einen Standardaufbewahrungszeitraum für einen S3-Bucket festlegen. Mit dem Bedingungsschlüssel `s3:object-lock-remaining-retention-days` in der Bucket-Richtlinie können Sie auch den minimal und maximal zulässigen Aufbewahrungszeitraum einschränken. Mit diesem Bedingungsschlüssel können Sie den zulässigen Aufbewahrungszeitraum festlegen. Weitere Informationen finden Sie unter [Festlegen von Aufbewahrungsfristen mit einer Bucket-Richtlinie](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lock-managing.html#object-lock-managing-retention-limits).
+ **Gesetzliche Aufbewahrungsfrist** – Eine gesetzliche Aufbewahrungsfrist bietet denselben Schutz wie ein Aufbewahrungszeitraum, hat jedoch kein Ablaufdatum. Stattdessen bleibt eine rechtliche Aufbewahrungsfrist gültig, bis Sie diese ausdrücklich entfernen. Gesetzliche Aufbewahrungsfristen sind von Aufbewahrungszeiträumen unabhängig und gelten für einzelne Objektversionen.

Object Lock funktioniert nur in Buckets, für die S3 Versioning aktiviert ist. Wenn Sie eine Objektversion sperren, speichert Amazon S3 die Sperrinformationen in den Metadaten für diese Objektversion. Die Platzierung eines Aufbewahrungszeitraums oder einer rechtlichen Aufbewahrungsfrist für ein Objekt schützt ausschließlich die in der Anforderung angegebene Version. Aufbewahrungszeitraum und gesetzliche Aufbewahrungsfristen verhindern nicht die Erstellung neuer Versionen des Objekts oder das Hinzufügen von Löschmarkierungen zu dem Objekt. Weitere Informationen über S3 Versioning finden Sie unter [Beibehalten mehrerer Versionen von Objekten mit der S3-Versionsverwaltung](Versioning.md).

Wenn Sie ein Objekt in einem Bucket platzieren, der bereits ein vorhandenes, geschütztes Objekt mit demselben Objektschlüsselnamen enthält, erstellt Amazon S3 eine neue Version dieses Objekts. Die vorhandene, geschützte Version des Objekts bleibt entsprechend seiner Aufbewahrungskonfiguration gesperrt.

## So funktioniert die S3-Objektsperre
<a name="object-lock-overview"></a>

**Topics**
+ [Aufbewahrungszeiträume](#object-lock-retention-periods)
+ [Aufbewahrungsmodi](#object-lock-retention-modes)
+ [Rechtliche Aufbewahrungsfristen](#object-lock-legal-holds)
+ [So funktioniert der S3-Object-Lock](#object-lock-how-deletes-work)
+ [Bewährte Methoden für die Verwendung von S3 Object Lock](#object-lock-best-practices)
+ [Erforderliche Berechtigungen](#object-lock-permissions)

### Aufbewahrungszeiträume
<a name="object-lock-retention-periods"></a>

Ein *Aufbewahrungszeitraum* schützt eine Objektversion für einen festen Zeitraum. Wenn Sie für eine Objektversion einen Aufbewahrungszeitraum festlegen, speichert Amazon S3 einen Zeitstempel in den Metadaten der Objektversion, um anzugeben, wann der Aufbewahrungszeitraum abläuft. Nach Ablauf des Aufbewahrungszeitraums kann die Objektversion überschrieben oder gelöscht werden.

Sie können eine Aufbewahrungsfrist explizit für eine einzelne Objektversion oder für die Eigenschaften eines Buckets festlegen, so dass sie automatisch für alle Objekte in dem Bucket gilt. Wenn Sie einen Aufbewahrungszeitraum explizit auf eine Objektversion anwenden, geben Sie ein *Retain Until Date (Bis-Aufbewahrungsdatum)* für die Objektversion an. Amazon S3 speichert dieses Datum in den Metadaten der Objektversion.

Sie können auch eine Aufbewahrungsfrist in den Eigenschaften eines Buckets festlegen. Wenn Sie eine Aufbewahrungsfrist für einen Bucket festlegen, geben Sie eine Dauer in Tagen oder Jahren an, für die jede im Bucket platzierte Objektversion geschützt werden soll. Wenn Sie ein Objekt in den Bucket legen, berechnet Amazon S3 ein *Bis-Aufbewahrungsdatum* für die Objektversion, indem es die angegebene Dauer dem Zeitstempel der Erstellung der Objektversion hinzufügt. Die Objektversion wird anschließend so geschützt, als ob Sie für die Objektversion ausdrücklich eine individuelle Sperre mit diesem Aufbewahrungszeitraum angegeben hätten.

**Anmerkung**  
Wenn Sie `PUT` für eine Objektversion mit einem expliziten individuellen Aufbewahrungsmodus und Zeitraum in einem Bucket verwenden, haben die individuellen Object-Lock-Einstellungen der Objektversion Vorrang vor allen Aufbewahrungseinstellungen für Bucket-Eigenschaften.

Wie alle anderen Einstellungen für die Objektsperre gelten Aufbewahrungszeiträume für einzelne Objektversionen. Für verschiedene Versionen desselben Objekts können verschiedene Aufbewahrungsmodi und -zeiträume gelten.

z. B.: Angenommen, Sie haben ein Objekt, von dessen 30-tägigem Aufbewahrungszeitraum 15 Tage abgelaufen sind, und Sie führen die Aktion `PUT` für ein Objekt in Amazon S3 mit demselben Namen und einem 60-tägigen Aufbewahrungszeitraum durch. In diesem Fall ist die `PUT`-Anforderung erfolgreich und Amazon S3 erstellt eine neue Version des Objekts mit einem 60-tägigen Aufbewahrungszeitraum. Die ältere Version behält den ursprünglichen Aufbewahrungszeitraum und kann in 15 Tagen gelöscht werden.

Sie können einen Aufbewahrungszeitraum verlängern, nachdem Sie eine Aufbewahrungseinstellung auf eine Objektversion angewendet haben. Senden Sie dazu eine neue Object-Lock-Anforderung für die Objektversion mit einem *Aufbewahren bis*-Datum, das später liegt als das derzeit für die Objektversion konfigurierte Datum. Amazon S3 ersetzt die bestehende Aufbewahrungsfrist durch den neuen, längeren Zeitraum. Alle Benutzer, die die Berechtigung zur Festlegung von Aufbewahrungszeiträumen für Objekte besitzen, können Aufbewahrungszeiträume für Objektversionen verlängern. Um Aufbewahrungszeitraum festzulegen, müssen Sie die `s3:PutObjectRetention`-Berechtigung besitzen.

Wenn Sie einen Aufbewahrungszeitraum für ein Objekt oder einen S3-Bucket festlegen, müssen Sie einen von zwei Aufbewahrungsmodi auswählen: *Compliance* oder *Governance*.

### Aufbewahrungsmodi
<a name="object-lock-retention-modes"></a>

S3 Object Lock bietet zwei Aufbewahrungsmodi mit unterschiedlichen Schutzebenen für Ihre Objekte:
+ Compliance-Modus
+ Governance-Modus

Im *Compliance*-Modus kann eine geschützte Objektversion von keinem Benutzer überschrieben oder gelöscht werden. Dies schließt den Stammbenutzer in Ihrem AWS-Konto ein. Wenn ein Objekt im Compliance-Modus gesperrt wurde, können der Aufbewahrungsmodus nicht geändert und der Aufbewahrungszeitraum nicht verkürzt werden. Der Compliance-Modus stellt sicher, dass eine Objektversion während des Aufbewahrungszeitraums weder überschrieben noch gelöscht werden.

**Anmerkung**  
Die einzige Möglichkeit, ein Objekt im Kompatibilitätsmodus vor Ablauf seines Aufbewahrungsdatums zu löschen, besteht darin, das zugehörige Objekt zu löschen AWS-Konto.

Im *Governance*-Modus können Benutzer eine Objektversion nicht überschreiben oder löschen oder ihre Sperreinstellungen ändern, wenn sie keine speziellen Berechtigungen besitzen. Mit dem Governance-Modus schützen Sie Objekte dagegen, von den meisten Benutzern gelöscht zu werden, Sie können jedoch weiterhin einigen Benutzern die Berechtigung geben, die Aufbewahrungseinstellungen zu ändern oder die Objekte bei Bedarf zu löschen. Sie können den Governance-Modus auch verwenden, um die Einstellungen für Aufbewahrungszeiträume zu testen, bevor Sie einen Aufbewahrungszeitraum im Compliance-Modus erstellen. 

Um Aufbewahrungseinstellungen im Governance-Modus zu überschreiben oder zu entfernen, müssen Sie die Berechtigung `s3:BypassGovernanceRetention` besitzen und in jede Anfrage, die ein Überschreiben des Governance-Modus erfordert, ausdrücklich `x-amz-bypass-governance-retention:true` als Anfrage-Header einfügen. 

**Anmerkung**  
Die Amazon-S3-Konsole enthält standardmäßig den `x-amz-bypass-governance-retention:true`-Header. Wenn Sie versuchen, Objekte zu löschen, die durch den *Governance*-Modus geschützt sind und über die `s3:BypassGovernanceRetention`-Berechtigung verfügen, verläuft der Vorgang erfolgreich. 

### Rechtliche Aufbewahrungsfristen
<a name="object-lock-legal-holds"></a>

Mit Object Lock können Sie auch eine *gesetzliche Aufbewahrungsfrist* für eine Objektversion festlegen. Wie Aufbewahrungszeiträume verhindern auch rechtliche Aufbewahrungsfristen das Überschreiben oder Löschen von Objektversionen. Mit gesetzlichen Aufbewahrungsfristen sind jedoch keine Aufbewahrungszeiträume verknüpft. Sie sind gültig, bis sie entfernt werden. Alle Benutzer mit der Berechtigung `s3:PutObjectLegalHold` können rechtliche Aufbewahrungsfristen festlegen und entfernen. 

Rechtliche Aufbewahrungsfristen sind von Aufbewahrungszeiträumen unabhängig. Die Festlegung einer rechtlichen Aufbewahrungsfrist für eine Objektversion hat keine Auswirkungen auf den Aufbewahrungsmodus oder -zeitraum für die betreffende Objektversion. 

Angenommen, Sie setzen eine gesetzliche Aufbewahrungsfrist für eine Objektversion fest, während diese Objektversion gleichzeitig durch einen Aufbewahrungszeitraum geschützt ist. Wenn der Aufbewahrungszeitraum abläuft, verliert das Objekt seinen WORM-Schutz nicht. Stattdessen wird das Objekt durch die gesetzliche Aufbewahrungsfrist weiter geschützt, bis ein autorisierter Benutzer diese ausdrücklich entfernt. Wenn Sie eine rechtliche Aufbewahrungsfrist entfernen, während für eine Objektversion ein Aufbewahrungszeitraum gilt, bleibt die Objektversion geschützt, bis der Aufbewahrungszeitraum abläuft.

### So funktioniert der S3-Object-Lock
<a name="object-lock-how-deletes-work"></a>

Wenn in Ihrem Bucket der S3-Object-Lock aktiviert ist und das Objekt durch einen Aufbewahrungszeitraum oder eine rechtliche Aufbewahrungspflicht geschützt ist und Sie versuchen, ein Objekt zu löschen, gibt Amazon S3 je nach dem, wie Sie versucht haben, das Objekt zu löschen, eine der folgenden Antworten zurück:
+ **Permanente `DELETE`-Anfrage** – Wenn Sie eine permanente `DELETE` Anfrage gestellt haben (eine Anfrage, die eine Versions-ID angibt), gibt Amazon S3 den Fehler „Zugriff verweigert“ (`403 Forbidden`) zurück, wenn Sie versuchen, das Objekt zu löschen. Ausführliche Informationen zur Behebung von „Zugriff verweigert“-Fehlern mit Object Lock finden Sie unter [S3-Einstellungen für die Objektsperre](troubleshoot-403-errors.md#troubleshoot-403-object-lock).
+ **Einfache `DELETE` Anfrage** – Wenn Sie eine einfache `DELETE` Anfrage gestellt haben (eine Anfrage, die keine Versions-ID enthält), gibt Amazon S3 eine `200 OK` Antwort zurück und fügt eine [Löschmarkierung](DeleteMarker.md) in den Bucket ein, und diese Markierung wird zur aktuellen Objektversion mit einer neuen ID. Weitere Informationen zur Verwaltung von Löschmarkierungen mit Object Lock finden Sie unter [Verwalten von Löschmarkierungen mit Object Lock](object-lock-managing.md#object-lock-managing-delete-markers).

### Bewährte Methoden für die Verwendung von S3 Object Lock
<a name="object-lock-best-practices"></a>

Ziehen Sie den *Governance-Modus* in Betracht, wenn Sie verhindern möchten, dass Objekte während eines vordefinierten Aufbewahrungszeitraums von gewöhnlichen Benutzern gelöscht werden, aber gleichzeitig möchten, dass einige Benutzer mit speziellen Berechtigungen die Flexibilität haben, die Aufbewahrungseinstellungen zu ändern oder die Objekte zu löschen. 

Ziehen Sie den *Compliance-Modus* in Betracht, wenn Sie nie möchten, dass irgendein Benutzer, einschließlich des Root-Benutzers in Ihrem AWS-Konto, die Objekte während eines vordefinierten Aufbewahrungszeitraums löschen kann. Sie können diesen Modus verwenden, falls Sie Konformitätsdaten speichern müssen. 

Sie können *Gesetzliche Aufbewahrungsfrist* verwenden, wenn Sie sich nicht sicher sind, wie lange Ihre Objekte nicht verändert werden sollten. Dies kann vorkommen, wenn beispielsweise eine externe Prüfung Ihrer Daten bevorsteht und Sie Ihre Objekte bis zum Abschluss der Prüfung unverändert lassen möchten. Oder wenn in einem laufenden Projekt ein Datensatz verwendet wird, den Sie bis zum Abschluss des Projekts unverändert lassen möchten. 

### Erforderliche Berechtigungen
<a name="object-lock-permissions"></a>

Object-Lock-Vorgänge erfordern bestimmte Berechtigungen. Abhängig von dem genauen Vorgang, den Sie versuchen, benötigen Sie möglicherweise eine der folgenden Berechtigungen:
+ `s3:BypassGovernanceRetention`
+ `s3:GetBucketObjectLockConfiguration`
+ `s3:GetObjectLegalHold`
+ `s3:GetObjectRetention`
+ `s3:PutBucketObjectLockConfiguration`
+ `s3:PutObjectLegalHold`
+ `s3:PutObjectRetention`

Eine vollständige Liste der Berechtigungen für Amazon S3 finden Sie unter [Aktionen, Ressourcen und Bedingungsschlüssel für Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html) in der *Referenz zur Serviceautorisierung*.

Weitere Informationen zu den Berechtigungen für S3-API-Operationen nach S3-Ressourcentypen finden Sie unter [Erforderliche Berechtigungen für Amazon-S3-API-Operationen](using-with-s3-policy-actions.md).

Informationen zur Verwendung von Bedingungen mit Berechtigungen finden Sie unter [Beispiele für Bucket-Richtlinien mit Bedingungsschlüsseln](amazon-s3-policy-keys.md).

# Überlegungen zu Object Lock
<a name="object-lock-managing"></a>

Amazon S3 Object Lock kann verhindern, dass Objekte für einen bestimmten Zeitraum oder auf unbestimmte Zeit gelöscht oder überschrieben werden.

Sie können die Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder die Amazon S3 S3-REST-API verwenden AWS SDKs, um Object Lock-Informationen anzuzeigen oder festzulegen. Weitere Informationen zu den Funktionen von S3 Object Lock finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).

**Wichtig**  
Wenn Sie Object Lock für einen Bucket aktiviert haben, können Sie Object Lock nicht deaktivieren oder die Versionsverwaltung für diesen Bucket aussetzen. 
S3-Buckets mit Object Lock können nicht als Ziel-Buckets für Server-Zugriffsprotokolle verwendet werden. Weitere Informationen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

**Topics**
+ [Berechtigungen zum Anzeigen von Sperrinformationen](#object-lock-managing-view)
+ [Umgehen des Governance-Modus](#object-lock-managing-bypass)
+ [Verwenden von Object Lock mit der S3-Replikation](#object-lock-managing-replication)
+ [Verwenden von Object Lock mit Verschlüsselung](#object-lock-managing-encryption)
+ [Verwenden von Object Lock mit Amazon S3 Inventory](#object-lock-inv-report)
+ [Verwalten von S3-Lebenszyklusrichtlinien mit Object Lock](#object-lock-managing-lifecycle)
+ [Verwalten von Löschmarkierungen mit Object Lock](#object-lock-managing-delete-markers)
+ [Verwenden von S3 Storage Lens mit Object Lock](#object-lock-storage-lens)
+ [Hochladen von Objekten in einen Bucket mit aktivierter Object Lock](#object-lock-put-object)
+ [Konfigurieren von Ereignissen und Benachrichtigungen](#object-lock-managing-events)
+ [Festlegen von Beschränkungen für Aufbewahrungsfristen mit einer Bucket-Richtlinie](#object-lock-managing-retention-limits)

## Berechtigungen zum Anzeigen von Sperrinformationen
<a name="object-lock-managing-view"></a>

Sie können den Object-Lock-Status einer Amazon-S3-Objektversion mithilfe der Vorgänge [https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html) und [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html) anzeigen. Beide Vorgänge geben den Aufbewahrungsmodus, die Aufbewahrungsfrist und den Status in Bezug auf eine rechtliche Aufbewahrungsfrist für die angegebene Objektversion an. Darüber hinaus können Sie mithilfe von S3 Inventory den Status von Object Lock für mehrere Objekte in Ihrem S3-Bucket anzeigen. 

Um Aufbewahrungsmodus und Aufbewahrungszeitraum für eine Objektversion anzuzeigen, müssen Sie die Berechtigung `s3:GetObjectRetention` besitzen. Um den Status eines Objekts in Bezug auf rechtliche Aufbewahrungsfristen anzuzeigen, müssen Sie die Berechtigung `s3:GetObjectLegalHold` besitzen. Um die Standardaufbewahrungskonfiguration eines Buckets anzuzeigen, benötigen Sie die `s3:GetBucketObjectLockConfiguration`-Berechtigung. Wenn Sie eine Object-Lock-Konfiguration für einen Bucket anfordern, für den S3 Object Lock nicht aktiviert ist, gibt Amazon S3 einen Fehler zurück. 

## Umgehen des Governance-Modus
<a name="object-lock-managing-bypass"></a>

Sie können für im Governance-Modus gesperrte Objektversionen, Vorgänge ausführen, als ob sie nicht geschützt wären, wenn Sie die `s3:BypassGovernanceRetention`-Berechtigung besitzen. Zu diesen Vorgängen gehören das Löschen einer Objektversion, das Verkürzen des Aufbewahrungszeitraums oder das Entfernen des Object-Lock-Aufbewahrungszeitraums durch die Platzierung einer neuen `PutObjectRetention`-Anforderung mit leeren Parametern. 

Um den Governance-Modus umgehen zu können, müssen Sie in Ihrer Anforderung ausdrücklich angeben, dass Sie den Governance-Modus umgehen möchten. Fügen Sie dazu den `x-amz-bypass-governance-retention:true` Header Ihrer `PutObjectRetention` API-Operationsanforderung hinzu oder verwenden Sie den entsprechenden Parameter bei Anfragen, die über AWS CLI oder gestellt werden AWS SDKs. Die S3-Konsole übernimmt diesen Header automatisch für über die S3-Konsole gestellte Anforderungen, wenn Sie über die `s3:BypassGovernanceRetention`-Berechtigung verfügen, den Governance-Modus zu umgehen.

**Anmerkung**  
Die Umgehung des Governance-Modus hat keine Auswirkungen auf den Status einer Objektversion in Bezug auf rechtliche Aufbewahrungsfristen. Wenn für eine Objektversion eine rechtliche Aufbewahrungsfrist aktiviert ist, bleibt diese in Kraft und verhindert, dass die Objektversion durch Anforderungen überschrieben oder gelöscht wird.

## Verwenden von Object Lock mit der S3-Replikation
<a name="object-lock-managing-replication"></a>

Sie können Object Lock mit S3-Replikation verwenden, um automatisches asynchrones Kopieren von gesperrten Objekten und deren Aufbewahrungs-Metadaten über S3-Buckets hinweg zu aktivieren. Das bedeutet, dass Amazon S3 für replizierte Objekte die Object-Lock-Konfiguration des Quell-Buckets verwendet. In anderen Worten: Wenn für den Quell-Bucket Object Lock aktiviert ist, muss es für den Ziel-Bucket ebenfalls aktiviert sein. Wenn ein Objekt direkt in den Ziel-Bucket hochgeladen wird (außerhalb der S3-Replikation), verwendet es die im Ziel-Bucket festgelegte Object Lock. Wenn Sie Replikation verwenden, werden Objekte aus einem *Quell-Bucket* in einen oder mehrere *Ziel-Bucket(s)* repliziert. 

Um die Replikation für einen Bucket mit aktivierter Objektsperre einzurichten, können Sie die S3-Konsole AWS CLI, die Amazon S3 S3-REST-API oder verwenden AWS SDKs.

**Anmerkung**  
Um Object Lock mit der Replikation zu verwenden, müssen Sie zwei zusätzliche Berechtigungen für den S3-Quell-Bucket in der AWS Identity and Access Management (IAM) -Rolle gewähren, mit der Sie die Replikation einrichten. Die zwei neuen Berechtigungen sind `s3:GetObjectRetention` und `s3:GetObjectLegalHold`. Wenn die Rolle über eine `s3:Get*`-Berechtigungsanweisung verfügt, ist die Anforderung dadurch erfüllt. Weitere Informationen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md).  
Allgemeine Informationen zur S3-Replikation finden Sie unter [Replizieren von Objekten innerhalb und zwischen Regionen](replication.md).  
Beispiele für die Einrichtung der S3-Replikation finden Sie unter [Beispiele für die Konfiguration einer Live-Replikation](replication-example-walkthroughs.md).

## Verwenden von Object Lock mit Verschlüsselung
<a name="object-lock-managing-encryption"></a>

Amazon S3 verschlüsselt standardmäßig alle neuen Objekte. Sie können Object Lock mit Ihren verschlüsselten Objekten verwenden. Weitere Informationen finden Sie unter [Datenschutz durch Verschlüsselung](UsingEncryption.md).

Mit Object Lock können Sie zwar für einen bestimmten Zeitraum verhindern, dass Amazon-S3-Objekte gelöscht oder überschrieben werden. Es schützt jedoch nicht vor dem Verlust des Zugriffs auf die Verschlüsselungsschlüssel oder vor dem Löschen der Verschlüsselungsschlüssel. Wenn Sie beispielsweise Ihre Objekte mit AWS KMS serverseitiger Verschlüsselung verschlüsseln und Ihr AWS KMS Schlüssel gelöscht wird, können Ihre Objekte unlesbar werden.

## Verwenden von Object Lock mit Amazon S3 Inventory
<a name="object-lock-inv-report"></a>

Sie können Amazon S3 Inventory so konfigurieren, dass Listen der Objekte in einem S3-Bucket nach einem definierten Zeitplan erstellt werden. Sie können Amazon S3 Inventory so konfigurieren, dass es die folgenden Object-Lock-Metadaten für Ihre Objekte enthält:
+ Das Aufbewahrungsdatum
+ Der Aufbewahrungsmodus
+ Die gesetzliche Aufbewahrungsfrist

Weitere Informationen finden Sie unter [Katalogisieren und Analysieren Ihrer Daten mit S3 Inventory](storage-inventory.md).

## Verwalten von S3-Lebenszyklusrichtlinien mit Object Lock
<a name="object-lock-managing-lifecycle"></a>

Konfigurationen für die Verwaltung des Objektlebenszyklus funktionieren für geschützte Objekte weiterhin normal. Dies schließt die Platzierung von Löschmarkierungen ein. Eine gesperrte Version eines Objekts kann jedoch nicht durch eine Ablaufrichtlinie von S3-Lebenszyklus gelöscht werden. Object Lock wird unabhängig davon beibehalten, in welcher Speicherklasse sich das Objekt befindet, selbst wenn es im Laufe seines S3-Lebenszyklus auf andere Speicherklassen übertragen wird.

Weitere Informationen zur Verwaltung von Objektlebenszyklen finden Sie unter [Verwalten des Lebenszyklus von Objekten](object-lifecycle-mgmt.md).

## Verwalten von Löschmarkierungen mit Object Lock
<a name="object-lock-managing-delete-markers"></a>

Sie können eine geschützte Objektversion zwar nicht löschen, aber eine Löschmarkierung für das betreffende Objekt erstellen. Durch das Setzen einer Löschmarkierung auf einem Objekt wird keine Objektversion gelöscht. Amazon S3 verhält sich dadurch aber zumeist so, als ob das Objekt gelöscht worden wäre. Weitere Informationen finden Sie unter [Arbeiten mit Löschmarkierungen](DeleteMarker.md).

**Anmerkung**  
Löschmarkierungen sind nicht WORM-geschützt, unabhängig vom Aufbewahrungszeitraum oder der rechtlichen Aufbewahrungsfrist für das zugrunde liegende Objekt.

## Verwenden von S3 Storage Lens mit Object Lock
<a name="object-lock-storage-lens"></a>

Wenn Sie Metriken für Object-Lock-fähige Speicherbytes und die Anzahl der Objekte sehen möchten, können Sie Amazon S3 Storage Lens verwenden. S3 Storage Lens ist eine Cloud-Speicheranalysefunktion, mit der Sie unternehmensweite Einblicke in die Nutzung und Aktivität von Objektspeichern erhalten können.

Weitere Informationen finden Sie unter [Verwenden von S3 Storage Lens zum Schutz Ihrer Daten](storage-lens-data-protection.md).

Eine vollständige Liste der Metriken finden Sie unter [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md).

## Hochladen von Objekten in einen Bucket mit aktivierter Object Lock
<a name="object-lock-put-object"></a>

Der Header `Content-MD5` oder `x-amz-sdk-checksum-algorithm` ist für jede Anforderung erforderlich, bei der es darum geht, mit Object Lock ein Objekt mit einem konfigurierten Aufbewahrungszeitraum hochzuladen. Diese Header bieten die Möglichkeit, die Integrität Ihres Objekts während des Uploads zu überprüfen.

Beim Hochladen eines Objekts über die Amazon-S3-Konsole fügt S3 automatisch den Header `Content-MD5` hinzu. Sie können optional über die Konsole eine zusätzliche Prüfsummenfunktion und einen Prüfsummenwert als Header `x-amz-sdk-checksum-algorithm` angeben. Wenn Sie die [PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)API verwenden, müssen Sie den Header, den `Content-MD5` Header oder beide angeben, um den `x-amz-sdk-checksum-algorithm` Aufbewahrungszeitraum für Object Lock zu konfigurieren.

Weitere Informationen finden Sie unter [Überprüfen der Objektintegrität in Amazon S3](checking-object-integrity.md).

## Konfigurieren von Ereignissen und Benachrichtigungen
<a name="object-lock-managing-events"></a>

Sie können Amazon S3 Event Notifications verwenden, um den Zugriff und die Änderungen an Ihren Object Lock-Konfigurationen und -Daten nachzuverfolgen, indem Sie AWS CloudTrail Weitere Informationen dazu CloudTrail finden Sie unter [Was ist AWS CloudTrail?](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-user-guide.html) im *AWS CloudTrail Benutzerhandbuch*.

Sie können Amazon auch verwenden CloudWatch , um Benachrichtigungen auf der Grundlage dieser Daten zu generieren. Informationen zu CloudWatch finden Sie unter [Was ist Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) im * CloudWatch Amazon-Benutzerhandbuch*.

## Festlegen von Beschränkungen für Aufbewahrungsfristen mit einer Bucket-Richtlinie
<a name="object-lock-managing-retention-limits"></a>

Sie können mittels einer Bucket-Richtlinie mindestens erforderliche und maximal zulässige Aufbewahrungszeiträume für einen Bucket festlegen. Die maximale Aufbewahrungsfrist beträgt 100 Jahre.

Das folgende Beispiel zeigt eine Bucket-Richtlinie, die den Bedingungsschlüssel `s3:object-lock-remaining-retention-days` verwendet, um einen maximalen Aufbewahrungszeitraum von 10 Tagen festzulegen.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Id": "SetRetentionLimits",
    "Statement": [
        {
            "Sid": "SetRetentionPeriod",
            "Effect": "Deny",
            "Principal": "*",
            "Action": [
                "s3:PutObjectRetention"
            ],
            "Resource": "arn:aws:s3:::amzn-s3-demo-bucket1/*",
            "Condition": {
                "NumericGreaterThan": {
                    "s3:object-lock-remaining-retention-days": "10"
                }
            }
        }
    ]
}
```

------

**Anmerkung**  
Wenn es sich bei Ihrem Bucket um den Ziel-Bucket einer Replikationsrichtlinie handelt, können Sie minimal und maximal zulässige Aufbewahrungszeiträume für Objektreplikate einrichten, die mittels Replikation erstellt werden. Hierzu müssen Sie die `s3:ReplicateObject`-Aktion in Ihrer Bucket-Richtlinie zulassen. Weitere Informationen zur Verwendung von Replikationsberechtigungen finden Sie unter [Einrichten von Berechtigungen für die Live-Replikation](setting-repl-config-perm-overview.md). 

Weitere Informationen zu Bucket-Richtlinien finden Sie in den folgenden Themen:
+ [ Aktionen, Ressourcen und Bedingungsschlüssel für Amazon S3](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazons3.html) in der *Referenz zur Serviceautorisierung*.

  Weitere Informationen zu den Berechtigungen für S3-API-Operationen nach S3-Ressourcentypen finden Sie unter [Erforderliche Berechtigungen für Amazon-S3-API-Operationen](using-with-s3-policy-actions.md).
+ [Objektoperationen](security_iam_service-with-iam.md#using-with-s3-actions-related-to-objects)
+ [Beispiele für Bucket-Richtlinien mit Bedingungsschlüsseln](amazon-s3-policy-keys.md)

# Konfigurieren von S3 Object Lock
<a name="object-lock-configure"></a>

Mit Amazon S3 Object Lock können Sie Objekte mithilfe eines *write-once-read-many*(WORM) -Modells in Amazon S3 S3-Allzweck-Buckets speichern. Mit der S3-Objektsperre können Sie für einen festen Zeitraum oder auf unbegrenzte Zeit verhindern, dass ein Objekt gelöscht oder überschrieben wird. Allgemeine Informationen zu den Funktionen von Object Lock finden Sie unter [Sperren von Objekten mit Object Lock](object-lock.md).

Bevor Sie Objekte sperren können, müssen Sie die S3-Versionsverwaltung und Object Lock für einen Allzweck-Bucket aktivieren. Anschließend können Sie einen Aufbewahrungszeitraum, eine gesetzliche Aufbewahrungsfrist oder beides festlegen. 

Um mit Object Lock zu arbeiten, müssen Sie über bestimmte Berechtigungen verfügen. Eine Liste der Berechtigungen für verschiedene Object-Lock-Vorgänge finden Sie unter [Erforderliche Berechtigungen](object-lock.md#object-lock-permissions).

**Wichtig**  
Wenn Sie Object Lock für einen Bucket aktiviert haben, können Sie Object Lock nicht deaktivieren oder die Versionsverwaltung für diesen Bucket aussetzen. 
S3-Buckets mit Object Lock können nicht als Ziel-Buckets für Server-Zugriffsprotokolle verwendet werden. Weitere Informationen finden Sie unter [Protokollieren von Anfragen mit Server-Zugriffsprotokollierung](ServerLogs.md).

**Topics**
+ [Aktivieren von Object Lock beim Erstellen eines neuen S3-Allzweck-Buckets](#object-lock-configure-new-bucket)
+ [Aktivieren von Object Lock für einen vorhandenen S3-Bucket](#object-lock-configure-existing-bucket)
+ [Einrichten oder Ändern einer gesetzlichen Aufbewahrungsfrist für ein S3-Objekt](#object-lock-configure-set-legal-hold)
+ [Einrichten oder Ändern eines Aufbewahrungszeitraums für ein S3-Objekt](#object-lock-configure-set-retention-period-object)
+ [Einrichten oder Ändern eines Standard-Aufbewahrungszeitraums für einen S3-Bucket](#object-lock-configure-set-retention-period-bucket)

## Aktivieren von Object Lock beim Erstellen eines neuen S3-Allzweck-Buckets
<a name="object-lock-configure-new-bucket"></a>

Sie können Object Lock aktivieren, wenn Sie einen neuen S3-Allzweck-Bucket mithilfe der Amazon S3 S3-Konsole AWS Command Line Interface (AWS CLI) oder der Amazon S3 S3-REST-API erstellen. AWS SDKs

### Verwenden der S3-Konsole
<a name="object-lock-new-bucket-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus.

   Anschließend wird die Seite **Bucket erstellen** geöffnet.

1. Geben Sie unter **Bucket Name (Bucket-Name)** einen Namen für den Bucket ein.
**Anmerkung**  
Der Name eines einmal erstellten Buckets kann nicht nachträglich geändert werden. Weitere Informationen zur Benennung von Buckets finden Sie unter [Benennungsregeln für Allzweck-Buckets](bucketnamingrules.md).

1. Wählen Sie **unter Region** den AWS-Region Ort aus, an dem sich der Bucket befinden soll. 

1. Wählen Sie unter **Objekteigentümer** aus, ob Sie Zugriffskontrolllisten (ACLs) deaktivieren oder aktivieren und den Besitz von Objekten kontrollieren möchten, die in Ihren Bucket hochgeladen wurden.

1. Wählen Sie unter **Einstellungen "Öffentlichen Zugriff beschränken" für diesen Bucket** die Einstellungen zum Beschränken des öffentlichen Zugriffs aus, die Sie auf den Bucket anwenden möchten. 

1. Wählen Sie unter **Bucket-Versionsverwaltung** die Option **Aktiviert**.

   Object Lock funktioniert nur mit versionsgesteuerten Buckets.

1. (Optional) Unter **Tags** können Sie auswählen, ob Sie Ihrem Bucket Tags hinzufügen möchten. Tags sind Schlüssel-Wert-Paare, die zur Kategorisierung von Speicher und zur Zuweisung von Kosten verwendet werden.

1. Suchen Sie unter **Erweiterte Einstellungen** nach **Object Lock** und wählen Sie **Aktivieren** aus.

   Sie müssen sich darüber im Klaren sein, dass durch die Aktivierung von Object Lock Objekte in diesem Bucket dauerhaft gesperrt werden können.

1. Wählen Sie **Create Bucket** (Bucket erstellen) aus.

### Verwenden Sie den AWS CLI
<a name="object-lock-new-bucket-cli"></a>

Im folgenden `create-bucket`-Beispiel wird ein neuer S3-Bucket mit dem Namen `amzn-s3-demo-bucket1` und aktiviertem Object Lock erstellt:

```
aws s3api create-bucket --bucket amzn-s3-demo-bucket1 --object-lock-enabled-for-bucket
```

Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/create-bucket.html) in der *Referenz zum AWS CLI -Befehl*.

**Anmerkung**  
Sie können AWS CLI Befehle von der Konsole aus ausführen, indem Sie AWS CloudShell AWS CloudShell ist eine browserbasierte, vorauthentifizierte Shell, die Sie direkt von der aus starten können. AWS-Managementkonsole[Weitere Informationen finden Sie unter Was ist? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

### Verwenden der REST-API
<a name="object-lock-new-bucket-rest"></a>

Sie können die REST-API verwenden, um einen neuen S3-Bucket mit aktiviertem Object Lock zu erstellen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateBucket.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="object-lock-new-bucket-sdk"></a>

Beispiele dafür, wie Sie Object Lock aktivieren können, wenn Sie einen neuen S3-Bucket mit dem erstellen AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_LCreateBucket_section.html) in der *Amazon S3 S3-API-Referenz*.

Beispiele dafür, wie Sie die aktuelle Object Lock-Konfiguration mit dem abrufen können AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Ein interaktives Szenario, das verschiedene Object Lock-Funktionen mithilfe von demonstriert AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) in der *Amazon S3 S3-API-Referenz*.

Allgemeine Informationen zur Verwendung verschiedener AWS SDKs finden Sie unter [Entwickeln mit Amazon S3 unter Verwendung von AWS SDKs in der](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) *Amazon S3 S3-API-Referenz*.

## Aktivieren von Object Lock für einen vorhandenen S3-Bucket
<a name="object-lock-configure-existing-bucket"></a>

Sie können Object Lock für einen vorhandenen S3-Bucket aktivieren, indem Sie die Amazon S3 S3-Konsole, die AWS CLI AWS SDKs, oder die Amazon S3 S3-REST-API verwenden.

### Verwenden der S3-Konsole
<a name="object-lock-existing-bucket-console"></a>

**Anmerkung**  
Object Lock funktioniert nur mit versionsgesteuerten Buckets.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, für den Sie Object Lock aktivieren möchten.

1. Wählen Sie die Registerkarte **Eigenschaften** aus.

1. Scrollen Sie unter **Eigenschaften** nach unten zum Bereich **Object Lock** und wählen Sie **Bearbeiten** aus.

1. Wählen Sie unter **Object Lock** die Option **Aktivieren** aus.

   Sie müssen sich darüber im Klaren sein, dass durch die Aktivierung von Object Lock Objekte in diesem Bucket dauerhaft gesperrt werden können.

1. Wählen Sie **Änderungen speichern ** aus.



### Verwenden Sie den AWS CLI
<a name="object-lock-existing-bucket-cli"></a>

Mit dem folgenden `put-object-lock-configuration`-Beispielbefehl wird eine Aufbewahrungsfrist von 50 Tagen für Object Lock für einen Bucket mit dem Namen `amzn-s3-demo-bucket1` festgelegt:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 }}}'
```

Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html) in der *Referenz zum AWS CLI -Befehl*.

**Anmerkung**  
Sie können AWS CLI Befehle von der Konsole aus ausführen, indem Sie AWS CloudShell AWS CloudShell ist eine browserbasierte, vorauthentifizierte Shell, die Sie direkt von der aus starten können. AWS-Managementkonsole[Weitere Informationen finden Sie unter Was ist? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

### Verwenden der REST-API
<a name="object-lock-existing-bucket-rest"></a>

Sie können die Amazon-S3-REST-API verwenden, um Object Lock für einen vorhandenen S3-Bucket zu aktivieren. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="object-lock-existing-bucket-sdk"></a>

Beispiele dafür, wie Sie Object Lock für einen vorhandenen S3-Bucket mit dem aktivieren AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Beispiele dafür, wie Sie die aktuelle Object Lock-Konfiguration mit dem abrufen können AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Ein interaktives Szenario, das verschiedene Object Lock-Funktionen mithilfe von demonstriert AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) in der *Amazon S3 S3-API-Referenz*.

Allgemeine Informationen zur Verwendung verschiedener AWS SDKs finden Sie unter [Entwickeln mit Amazon S3 unter Verwendung von AWS SDKs in der](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) *Amazon S3 S3-API-Referenz*.

## Einrichten oder Ändern einer gesetzlichen Aufbewahrungsfrist für ein S3-Objekt
<a name="object-lock-configure-set-legal-hold"></a>

Sie können eine gesetzliche Sperre für ein S3-Objekt mithilfe der Amazon S3-Konsole, AWS CLI AWS SDKs, oder der Amazon S3-REST-API einrichten oder entfernen.

**Wichtig**  
Wenn Sie eine gesetzliche Aufbewahrungsfrist für ein Objekt festlegen möchten, muss Object Lock für den Bucket des Objekts bereits aktiviert sein.
Wenn Sie `PUT` für eine Objektversion mit einem expliziten individuellen Aufbewahrungsmodus und Zeitraum in einem Bucket verwenden, haben die individuellen Object-Lock-Einstellungen der Objektversion Vorrang vor allen Aufbewahrungseinstellungen für Bucket-Eigenschaften.

Weitere Informationen finden Sie unter [Rechtliche Aufbewahrungsfristen](object-lock.md#object-lock-legal-holds).

### Verwenden der S3-Konsole
<a name="object-lock-set-legal-hold-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält, für das Sie eine gesetzliche Aufbewahrungsfrist einrichten oder ändern möchten.

1. Wähle Sie in der Liste **Objekte** das Objekt aus, für das Sie eine gesetzliche Aufbewahrungsfrist festlegen oder ändern möchten.

1. Suchen Sie auf der Seite mit den **Objekteigenschaften** den Bereich **Object Lock – Gesetzliche Aufbewahrungsfristen** und wählen Sie **Bearbeiten**.

1. Wählen Sie **Aktivieren**, um eine gesetzliche Aufbewahrungsfrist festzulegen, oder **Deaktivieren**, um eine gesetzliche Aufbewahrungsfrist zu entfernen.

1. Wählen Sie **Änderungen speichern ** aus.

### Verwenden Sie den AWS CLI
<a name="object-lock-set-legal-hold-cli"></a>

Im folgenden `put-object-legal-hold`-Beispiel wird für das Objekt *`my-image.fs`* im Bucket mit dem Namen `amzn-s3-demo-bucket1` eine gesetzliche Aufbewahrungsfrist eingerichtet:

```
aws s3api put-object-legal-hold --bucket amzn-s3-demo-bucket1 --key my-image.fs --legal-hold="Status=ON"
```

Im folgenden `put-object-legal-hold`-Beispiel wird für das Objekt *`my-image.fs`* im Bucket mit dem Namen `amzn-s3-demo-bucket1` eine gesetzliche Aufbewahrungsfrist entfernt:

```
aws s3api put-object-legal-hold --bucket amzn-s3-demo-bucket1 --key my-image.fs --legal-hold="Status=OFF"
```

Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-legal-hold.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-legal-hold.html) in der *Referenz zum AWS CLI -Befehl*.

**Anmerkung**  
Sie können AWS CLI Befehle von der Konsole aus ausführen, indem Sie AWS CloudShell AWS CloudShell ist eine browserbasierte, vorauthentifizierte Shell, die Sie direkt von der aus starten können. AWS-Managementkonsole[Weitere Informationen finden Sie unter Was ist? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

### Verwenden der REST-API
<a name="object-lock-set-legal-hold-rest"></a>

Sie können die REST-API verwenden, um einen gesetzlichen Aufbewahrungszeitraum für ein Objekt festzulegen oder zu ändern. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="object-lock-set-legal-hold-sdk"></a>

Beispiele dafür, wie Sie mit dem eine gesetzliche Aufbewahrungsfrist für ein Objekt einrichten können AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLegalHold_section.html) in der *Amazon S3 S3-API-Referenz*.

Beispiele dafür, wie Sie den aktuellen gesetzlichen Aufbewahrungsstatus mit dem abrufen können AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLegalHoldConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Ein interaktives Szenario, das verschiedene Object Lock-Funktionen mithilfe von demonstriert AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) in der *Amazon S3 S3-API-Referenz*.

Allgemeine Informationen zur Verwendung verschiedener AWS SDKs finden Sie unter [Entwickeln mit Amazon S3 unter Verwendung von AWS SDKs in der](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) *Amazon S3 S3-API-Referenz*.

## Einrichten oder Ändern eines Aufbewahrungszeitraums für ein S3-Objekt
<a name="object-lock-configure-set-retention-period-object"></a>

Sie können einen Aufbewahrungszeitraum für ein S3-Objekt mithilfe der Amazon S3-Konsole, AWS CLI AWS SDKs, oder der Amazon S3-REST-API festlegen oder ändern.

**Wichtig**  
Wenn Sie einen Aufbewahrungszeitraum für ein Objekt festlegen möchten, muss Object Lock für den Bucket des Objekts bereits aktiviert sein.
Wenn Sie `PUT` für eine Objektversion mit einem expliziten individuellen Aufbewahrungsmodus und Zeitraum in einem Bucket verwenden, haben die individuellen Object-Lock-Einstellungen der Objektversion Vorrang vor allen Aufbewahrungseinstellungen für Bucket-Eigenschaften.
Die einzige Möglichkeit, ein Objekt im Compliance-Modus vor Ablauf seines Aufbewahrungsdatums zu löschen, besteht darin, das zugehörige Objekt zu löschen AWS-Konto.

Weitere Informationen finden Sie unter [Aufbewahrungszeiträume](object-lock.md#object-lock-retention-periods).

### Verwenden der S3-Konsole
<a name="object-lock-set-retention-period-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, der das Objekt enthält, für das Sie einen Aufbewahrungszeitraum einrichten oder ändern möchten.

1. Wähle Sie in der Liste **Objekte** das Objekt aus, für das Sie einen Aufbewahrungszeitraum festlegen oder ändern möchten.

1. Suchen Sie auf der Seite mit den **Objekteigenschaften** den Bereich **Object Lock – Aufbewahrungszeitraum** und wählen Sie **Bearbeiten**.

1. Wählen Sie unter **Aufbewahrung** die Option **Aktivieren** aus, um einen Aufbewahrungszeitraum festzulegen, oder **Deaktivieren**, um einen Aufbewahrungszeitraum zu entfernen.

1. Wenn Sie **Aktivieren** unter **Aufbewahrungsmodus** ausgewählt haben, wählen Sie entweder **Governance-Modus** oder **Compliance-Modus**. Weitere Informationen finden Sie unter [Aufbewahrungsmodi](object-lock.md#object-lock-retention-modes).

1. Wählen Sie unter **Aufbewahren bis** das Datum aus, an dem der Aufbewahrungszeitraum enden soll. Während dieses Zeitraums ist Ihr Objekt WORM-geschützt und kann weder überschrieben noch gelöscht werden. Weitere Informationen finden Sie unter [Aufbewahrungszeiträume](object-lock.md#object-lock-retention-periods).

1. Wählen Sie **Änderungen speichern ** aus.

### Verwenden Sie den AWS CLI
<a name="object-lock-set-retention-period-cli"></a>

Im folgenden `put-object-retention`-Beispiel wird für das Objekt *`my-image.fs`* in dem Bucket mit dem Namen `amzn-s3-demo-bucket1` ein Aufbewahrungszeitraum bis zum 1. Januar 2025 festgelegt:

```
aws s3api put-object-retention --bucket amzn-s3-demo-bucket1 --key my-image.fs --retention='{ "Mode": "GOVERNANCE", "RetainUntilDate": "2025-01-01T00:00:00" }'
```

Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-retention.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-retention.html) in der *Referenz zum AWS CLI -Befehl*.

**Anmerkung**  
Sie können AWS CLI Befehle von der Konsole aus ausführen, indem Sie AWS CloudShell AWS CloudShell ist eine browserbasierte, vorauthentifizierte Shell, die Sie direkt von der aus starten können. AWS-Managementkonsole[Weitere Informationen finden Sie unter Was ist? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

### Verwenden der REST-API
<a name="object-lock-set-retention-period-rest"></a>

Sie können die REST-API verwenden, um einen Aufbewahrungszeitraum für ein Objekt festzulegen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="object-lock-set-retention-period-sdk"></a>

Beispiele dafür, wie Sie mit dem eine Aufbewahrungsfrist für ein Objekt festlegen AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectRetention_section.html) in der *Amazon S3 S3-API-Referenz*.

Beispiele dafür, wie Sie die Aufbewahrungsdauer für ein Objekt mit dem ermitteln können AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Ein interaktives Szenario, das verschiedene Object Lock-Funktionen mithilfe von demonstriert AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_GetObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Allgemeine Informationen zur Verwendung verschiedener AWS SDKs finden Sie unter [Entwickeln mit Amazon S3 unter Verwendung von AWS SDKs in der](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) *Amazon S3 S3-API-Referenz*.

## Einrichten oder Ändern eines Standard-Aufbewahrungszeitraums für einen S3-Bucket
<a name="object-lock-configure-set-retention-period-bucket"></a>

Sie können eine standardmäßige Aufbewahrungsfrist für einen S3-Bucket mithilfe der Amazon S3-Konsole, AWS CLI AWS SDKs, oder der Amazon S3-REST-API festlegen oder ändern. Sie geben eine Dauer in Tagen oder Jahren an, für die jede in dem Bucket befindliche Objektversion geschützt werden soll.

**Wichtig**  
Wenn Sie einen Standard-Aufbewahrungszeitraum für einen Bucket festlegen möchten, muss Object Lock für den Bucket bereits aktiviert sein.
Wenn Sie für eine Objektversion mit einem expliziten individuellen Aufbewahrungsmodus und Zeitraum in einem Bucket `PUT` durchführen, haben die individuellen Object-Lock-Einstellungen der Objektversion Vorrang vor allen Aufbewahrungseinstellungen für Bucket-Eigenschaften.
Die einzige Möglichkeit, ein Objekt im Compliance-Modus vor Ablauf seines Aufbewahrungsdatums zu löschen, besteht darin, das zugehörige Objekt zu löschen AWS-Konto.

Weitere Informationen finden Sie unter [Aufbewahrungszeiträume](object-lock.md#object-lock-retention-periods).

### Verwenden der S3-Konsole
<a name="object-lock-set-retention-period-bucket-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie im linken Navigationsbereich **Buckets** aus.

1. Wählen Sie in der Liste **Buckets** den Namen des Buckets aus, für den Sie einen Aufbewahrungszeitraum einrichten oder ändern möchten.

1. Wählen Sie die Registerkarte **Eigenschaften** aus.

1. Scrollen Sie unter **Eigenschaften** nach unten zum Bereich **Object Lock** und wählen Sie **Bearbeiten** aus.

1. Wählen Sie unter **Standard-Aufbewahrung** die Option **Aktivieren** aus, um einen Standard-Aufbewahrungszeitraum festzulegen, oder **Deaktivieren**, um einen Standard-Aufbewahrungszeitraum zu entfernen.

1. Wenn Sie **Aktivieren** unter **Aufbewahrungsmodus** ausgewählt haben, wählen Sie entweder **Governance-Modus** oder **Compliance-Modus**. Weitere Informationen finden Sie unter [Aufbewahrungsmodi](object-lock.md#object-lock-retention-modes).

1. Wählen Sie unter **Standard-Aufbewahrungszeitraum** die Anzahl der Tage oder Jahre aus, für die der Aufbewahrungszeitraum gelten soll. Objekte, die sich in diesem Bucket befinden, werden für diese Anzahl von Tagen oder Jahren gesperrt. Weitere Informationen finden Sie unter [Aufbewahrungszeiträume](object-lock.md#object-lock-retention-periods).

1. Wählen Sie **Änderungen speichern ** aus.

### Verwenden Sie den AWS CLI
<a name="object-lock-configure-set-retention-period-bucket-cli"></a>

Mit dem folgenden `put-object-lock-configuration`-Beispielbefehl wird eine Object-Lock-Aufbewahrungsfrist von 50 Tag für einen Bucket mit dem Namen `amzn-s3-demo-bucket1` unter Verwendung des Compliance-Modus festgelegt:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled", "Rule": { "DefaultRetention": { "Mode": "COMPLIANCE", "Days": 50 }}}'
```

Im folgenden `put-object-lock-configuration`-Beispiel wird die Standard-Aufbewahrungskonfiguration für einen Bucket entfernt:

```
aws s3api put-object-lock-configuration --bucket amzn-s3-demo-bucket1 --object-lock-configuration='{ "ObjectLockEnabled": "Enabled"}'
```

Weitere Informationen und Beispiele finden Sie unter [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object-lock-configuration.html) in der *Referenz zum AWS CLI -Befehl*.

**Anmerkung**  
Sie können AWS CLI Befehle von der Konsole aus ausführen, indem Sie AWS CloudShell AWS CloudShell ist eine browserbasierte, vorauthentifizierte Shell, die Sie direkt von der aus starten können. AWS-Managementkonsole[Weitere Informationen finden Sie unter Was ist? CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html) im *AWS CloudShell Benutzerhandbuch*.

### Verwenden der REST-API
<a name="object-lock-configure-set-retention-period-bucket-rest"></a>

Sie können die REST-API nutzen, um einen Standardaufbewahrungszeitraum für einen bestehenden S3-Bucket festzulegen. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLockConfiguration.html) in der *API-Referenz zu Amazon Simple Storage Service*.

### Mit dem AWS SDKs
<a name="object-lock-configure-set-retention-period-bucket-sdk"></a>

Beispiele dafür, wie Sie mit dem eine standardmäßige Aufbewahrungsfrist für einen vorhandenen S3-Bucket festlegen AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_PutObjectLockConfiguration_section.html) in der *Amazon S3 S3-API-Referenz*.

Ein interaktives Szenario, das verschiedene Object Lock-Funktionen mithilfe von demonstriert AWS SDKs, finden Sie in den [Codebeispielen](https://docs.aws.amazon.com/AmazonS3/latest/API/s3_example_s3_Scenario_ObjectLock_section.html) in der *Amazon S3 S3-API-Referenz*.

Allgemeine Informationen zur Verwendung verschiedener AWS SDKs finden Sie unter [Entwickeln mit Amazon S3 unter Verwendung von AWS SDKs in der](https://docs.aws.amazon.com/AmazonS3/latest/API/sdk-general-information-section.html) *Amazon S3 S3-API-Referenz*.

# Sichern von Amazon-S3-Daten
<a name="backup-for-s3"></a>

Amazon S3  ist nativ integriert AWS Backup, ein vollständig verwalteter, richtlinienbasierter Service, mit dem Sie Backup-Richtlinien zum Schutz Ihrer Daten in Amazon S3 zentral definieren können. Nachdem Sie Ihre Backup-Richtlinien definiert und Amazon S3 S3-Ressourcen den Richtlinien zugewiesen haben, AWS Backup automatisiert die Erstellung von Amazon S3 S3-Backups und speichert die Backups sicher in einem verschlüsselten Backup-Tresor, den Sie in Ihrem Backup-Plan angeben. 

Bei der Verwendung AWS Backup für Amazon S3 können Sie die folgenden Aktionen ausführen:
+ Erstellen kontinuierlicher Sicherungen und regelmäßiger Sicherungen. Kontinuierliche Backups sind für die point-in-time Wiederherstellung nützlich, und regelmäßige Backups sind nützlich, um Ihre langfristigen Anforderungen an die Datenspeicherung zu erfüllen.
+ Automatisieren der Planung und Aufbewahrung von Backups durch die zentrale Konfigurierung von Backuprichtlinien.
+ Wiederherstellen von Backups von Amazon-S3-Daten zu einem bestimmten Zeitpunkt.

Darüber hinaus können Sie S3 Versioning und S3 Replication verwenden AWS Backup, um bei der Wiederherstellung nach versehentlichen Löschungen zu helfen und Ihre eigenen Wiederherstellungsvorgänge durchzuführen. 

**Voraussetzungen**  
Sie müssen [S3 Versioning](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Versioning.html) für Ihren Bucket aktivieren, bevor Sie ihn sichern AWS Backup können. 

**Anmerkung**  
Wir empfehlen, dass Sie [eine andere Lebenszyklusablaufregel für versionsfähige Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-configuration-examples.html#lifecycle-config-conceptual-ex6) festlegen, von denen ein Backup erstellt wird. Wenn Sie keinen Lebenszyklusablaufzeitraum festlegen, können Ihre Amazon-S3-Speicherkosten steigen, weil AWS Backup alle Versionen Ihrer Amazon-S3-Daten beibehält.

**Erste Schritte**  
Informationen zu den ersten Schritten AWS Backup für Amazon S3 finden Sie unter [Erstellen von Amazon S3 S3-Backups](https://docs.aws.amazon.com/aws-backup/latest/devguide/s3-backups.html) im *AWS Backup Entwicklerhandbuch*.

**Beschränkungen und Einschränkungen**  
Weitere Informationen über die Einschränkungen finden Sie unter [Erstellen von Amazon-S3-Backups](https://docs.aws.amazon.com/aws-backup/latest/devguide/s3-backups.html) im *Entwicklerhandbuch für AWS Backup *. 