

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Arbeiten mit Amazon S3 S3-Dateien
<a name="s3-files"></a>

## Was ist S3 Files?
<a name="s3-files-what-is"></a>

S3 Files ist ein gemeinsam genutztes Dateisystem, das jede AWS Rechenressource direkt mit Ihren Daten in Amazon S3 verbindet. Es bietet schnellen, direkten Zugriff auf all Ihre S3-Daten als Dateien mit vollständiger Dateisystemsemantik und geringer Latenz, ohne dass Ihre Daten S3 jemals verlassen. Jede dateibasierte Anwendung, jeder Agent und jedes Team können mithilfe der Tools, von denen sie bereits abhängig sind, auf Ihre S3-Daten als Dateisystem zugreifen und mit ihnen arbeiten. S3 Files wurde mit Amazon EFS entwickelt und bietet Ihnen die Leistung und Einfachheit eines Dateisystems mit der Skalierbarkeit, Haltbarkeit und Kosteneffektivität von S3. Sie können Daten mithilfe von Datei- und Verzeichnisoperationen lesen, schreiben und organisieren, während S3 Files die Synchronisation von Änderungen zwischen Ihrem Bucket und dem Dateisystem verwaltet.

## Wie funktioniert S3 Files?
<a name="s3-files-how-it-works"></a>

Wenn Sie ein S3-Dateisystem erstellen, das mit Ihrem S3-Bucket oder einem darin enthaltenen Präfix verknüpft ist, und es auf einer Rechenressource wie einer EC2-Instance oder einer Lambda-Funktion mounten, bietet S3 Files zunächst eine durchsuchbare Ansicht der Objekte Ihres Buckets als Dateien. Wenn Sie durch Verzeichnisse navigieren und Dateien öffnen, werden die zugehörigen Metadaten und Inhalte auf dem Hochleistungsspeicher des Dateisystems abgelegt. Wenn Sie Dateien lesen, lädt S3 Files bei Bedarf Dateiinhalte in den Hochleistungsspeicher, ohne dass Ihr gesamter Datensatz dupliziert wird. Wenn Sie Daten schreiben, werden Ihre Schreibvorgänge in den Hochleistungsspeicher verschoben und wieder mit Ihrem S3-Bucket synchronisiert. S3 Files übersetzt Ihre Dateisystemoperationen auf intelligente Weise in effiziente S3-Anfragen in Ihrem Namen. Bei vielen Lesevorgängen wird das Dateisystem vollständig umgangen, da die Daten direkt von S3 aus bereitgestellt werden.

Sie können den Schwellenwert für die Dateigröße für Dateien konfigurieren, die auf den Hochleistungsspeicher geladen werden (Standard 128 KB), da Latenzen bei kleinen Dateien am wichtigsten sind. Daten, die diesen Schwellenwert nicht erreichen, werden direkt aus S3 gelesen. Bei Lesevorgängen von 128 KB oder mehr an Daten, die bereits mit S3 synchronisiert wurden, streamt S3 Files direkt von S3, auch wenn sich die Daten auf dem Hochleistungsspeicher befinden, da S3 für einen hohen Durchsatz optimiert ist, während die Hochleistungsspeicherschicht des Dateisystems für den Zugriff auf kleine Dateien mit geringer Latenz optimiert ist. Kürzlich geänderte Daten, die noch nicht mit S3 synchronisiert wurden, werden immer vom Dateisystem aus bereitgestellt. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).

Daten, die nicht innerhalb eines konfigurierbaren Fensters (1 bis 365 Tage, Standard 30) gelesen wurden, laufen automatisch aus dem Hochleistungsspeicher ab. Ihre verlässlichen Daten verbleiben immer in S3, und die Hintergrundsynchronisierung sorgt dafür, dass das Dateisystem und der Bucket in beide Richtungen konsistent sind. Weitere Informationen finden Sie unter [Verstehen, wie die Synchronisation funktioniert](s3-files-synchronization.md).

Unterstützte Rechendienste zum Mounten Ihrer S3-Dateisysteme sind Amazon EC2 AWS Lambda, Amazon EKS und Amazon ECS. Weitere Informationen finden Sie unter [Mounten Ihrer S3-Buckets auf Rechenressourcen](s3-files-attach-compute.md).

![\[Diagramm, das den Datenfluss zwischen einem S3-Bucket, einem S3-Dateisystem und Rechenressourcen zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/S3Files_Compute_dataflow.png)


## Verwenden Sie S3 Files zum ersten Mal?
<a name="s3-files-first-time"></a>

Wenn Sie S3 Files zum ersten Mal verwenden, erstellen Sie Ihr erstes S3-Dateisystem mithilfe der S3-Konsole oder der AWS CLI, indem Sie dem [Tutorial: Erste Schritte mit S3-Dateien](s3-files-getting-started.md) folgen.

## Die wichtigsten Konzepte
<a name="s3-files-key-concepts"></a>

Die folgenden Begriffe werden in der gesamten Dokumentation zu S3 Files verwendet:

**Dateisystem**  
Ein gemeinsam genutztes Dateisystem, das mit Ihrem S3-Bucket verknüpft ist.

**Hochleistungsspeicher**  
Die Speicherebene mit niedriger Latenz in Ihrem Dateisystem, auf der sich aktiv genutzte Dateidaten und Metadaten befinden. S3 Files verwaltet diesen Speicher automatisch, kopiert Daten darauf, wenn Sie auf Dateien zugreifen, und entfernt Daten, die nicht innerhalb eines konfigurierbaren Ablauffensters gelesen wurden. Sie zahlen eine Speichergebühr für Daten, die sich auf dem Hochleistungsspeicher befinden.

**Synchronisation**  
Der Prozess, mit dem S3 Files Ihren aktiven Arbeitsdatensatz und Ihre Änderungen zwischen Ihrem Dateisystem und dem S3-Bucket konsistent hält. Beim Import werden Daten aus Ihrem S3-Bucket in das Dateisystem kopiert. Beim Exportieren werden Änderungen, die Sie über das Dateisystem vornehmen, zurück in Ihren S3-Bucket kopiert. S3 Files führt die Synchronisation automatisch in beide Richtungen durch.

**Ziel mounten**  
Ein Mount-Ziel bietet Netzwerkzugriff auf Ihr Dateisystem innerhalb einer einzigen Availability Zone in Ihrer VPC. Sie benötigen mindestens ein Mount-Ziel, um von Rechenressourcen aus auf Ihr Dateisystem zuzugreifen, und Sie können maximal ein Mount-Ziel pro Availability Zone erstellen.

**Zugriffspunkt**  
Access Points sind anwendungsspezifische Einstiegspunkte in ein Dateisystem, die die Verwaltung des Datenzugriffs für gemeinsam genutzte Datensätze in großem Umfang vereinfachen. Sie können Access Points verwenden, um Benutzeridentitäten und Berechtigungen für alle Dateisystemanfragen durchzusetzen, die über den Access Point gestellt werden. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch einen Zugriffspunkt für das Dateisystem.

## Features
<a name="s3-files-performance-storage"></a>

**Hohe Leistung ohne vollständige Datenreplikation**  
S3 Files bietet Dateizugriff mit niedriger Latenz, indem nur Ihr aktiver Arbeitssatz in den Hochleistungsspeicher des Dateisystems kopiert wird, nicht Ihr gesamter Datensatz. Kleine Dateien, auf die häufig zugegriffen wird, werden vom Hochleistungsspeicher mit Latenzen im Submillisekunden- bis einstelligen Millisekundenbereich bereitgestellt. Große Lesevorgänge werden mit einem Gesamtdurchsatz von bis zu Terabyte pro Sekunde direkt von S3 gestreamt. Das bedeutet, dass Sie Dateisystemleistung für interaktive Workloads und S3-Durchsatz für Streaming-Workloads erhalten, ohne für das Speichern oder Importieren von Daten bezahlen zu müssen, die Sie nicht verwenden oder die nicht von der niedrigen Latenz profitieren. Weitere Informationen finden Sie unter [Leistungsspezifikationen](s3-files-performance.md).

**Intelligentes Lese-Routing**  
S3 Files leitet Leseanfragen automatisch an die für sie am besten geeignete Speicherebene (S3-Dateisystem oder S3-Bucket) weiter und behält dabei die vollständige Semantik des Dateisystems, einschließlich Konsistenz, Sperren und POSIX-Berechtigungen, bei. Kleine, zufällige Lesevorgänge von aktiv verwendeten Dateien werden aus dem Hochleistungsspeicher bereitgestellt, um eine geringe Latenz zu gewährleisten. Große sequentielle Lese- und Lesevorgänge von Daten, die sich nicht im Dateisystem befinden, werden direkt von Ihrem S3-Bucket aus ausgeführt, um einen hohen Durchsatz zu gewährleisten, ohne dass für das Dateisystem Gebühren anfallen.

**Automatische Synchronisation**  
S3 Files sorgt automatisch dafür, dass Ihr Dateisystem und Ihr S3-Bucket in beide Richtungen konsistent sind. Änderungen, die Sie über das Dateisystem vornehmen, werden zurück in Ihren S3-Bucket kopiert, und Änderungen, die Sie direkt an Ihrem S3-Bucket vornehmen, werden in der Ansicht Ihres Dateisystems wiedergegeben. Sie können das Synchronisierungsverhalten anpassen, z. B. welche Daten importiert werden und wie lange sie im Dateisystem verbleiben. Weitere Informationen finden Sie unter [Verstehen, wie die Synchronisation funktioniert](s3-files-synchronization.md).

**Skalierbare Leistung**  
S3 Files skaliert den Durchsatz und die IOPS automatisch entsprechend Ihrer Workload-Aktivität. Sie müssen keine Leistungskapazität bereitstellen oder verwalten und zahlen nur für das, was Sie tatsächlich nutzen.

**Regionale Beständigkeit**  
Daten, die auf die Hochleistungsspeicherschicht geschrieben werden, haben dieselbe Haltbarkeit wie Amazon S3. Es speichert Daten redundant in mehreren geografisch getrennten Availability Zones innerhalb derselben AWS Region und bietet so eine hohe Beständigkeit und Verfügbarkeit Ihrer Daten.

**Verschlüsselung**  
S3 Files verschlüsselt alle Daten während der Übertragung mit TLS und alle Daten im Ruhezustand mit AWS KMS-Schlüsseln. Sie können AWS eigene Schlüssel (Standard) oder Ihre eigenen, vom Kunden verwalteten Schlüssel verwenden. Weitere Informationen finden Sie unter [Verschlüsselung](s3-files-encryption.md).

**Semantik des Dateisystems**  
S3 Files unterstützt die NFS-Protokolle der Versionen 4.2 und 4.1. Es bietet file-system-access Semantik wie read-after-write Datenkonsistenz, Dateisperre und POSIX-Berechtigungen.

## Wie werden Ihnen S3-Dateien in Rechnung gestellt?
<a name="s3-files-billing"></a>

Sie zahlen eine Speichergebühr für den Teil der aktiven Daten, die sich auf dem Hochleistungsspeicher befinden, und Sie zahlen Gebühren für den Dateisystemzugriff für das Lesen und Schreiben in den Hochleistungsspeicher Ihres Dateisystems. Bei Lesevorgängen von 128 KB oder mehr auf Daten, die bereits mit S3 synchronisiert wurden, streamt S3 Files direkt von S3, auch wenn sich die Daten auf dem Hochleistungsspeicher befinden, da S3 für einen hohen Durchsatz optimiert ist, während die Hochleistungsspeicherschicht des Dateisystems für den Zugriff auf kleine Dateien mit geringer Latenz optimiert ist. Für diese Lesevorgänge fallen nur die Standardkosten für S3 GET-Anfragen an, es fallen keine Gebühren für den Zugriff auf das Dateisystem an. Die Gebühren für den Dateisystemzugriff fallen für Synchronisationsvorgänge an: Für den Import von Daten in das Dateisystem fallen Schreibgebühren an, und für den Export von Änderungen zurück nach S3 fallen Lesekosten an. Weitere Informationen finden Sie unter [So wird S3 Files gemessen](s3-files-metering.md). Aktuelle Preise finden Sie auf der Preisseite für [S3 Files](https://aws.amazon.com/s3/pricing/).

**Topics**
+ [

## Was ist S3 Files?
](#s3-files-what-is)
+ [

## Wie funktioniert S3 Files?
](#s3-files-how-it-works)
+ [

## Verwenden Sie S3 Files zum ersten Mal?
](#s3-files-first-time)
+ [

## Die wichtigsten Konzepte
](#s3-files-key-concepts)
+ [

## Features
](#s3-files-performance-storage)
+ [

## Wie werden Ihnen S3-Dateien in Rechnung gestellt?
](#s3-files-billing)
+ [

# Voraussetzungen für S3-Dateien
](s3-files-prereq-policies.md)
+ [

# Tutorial: Erste Schritte mit S3-Dateien
](s3-files-getting-started.md)
+ [

# Mounten Ihrer S3-Buckets auf Rechenressourcen
](s3-files-attach-compute.md)
+ [

# Ressourcen für S3 Files erstellen und verwalten
](s3-files-resources.md)
+ [

# Verstehen, wie die Synchronisation funktioniert
](s3-files-synchronization.md)
+ [

# Überwachung und Prüfung von S3-Dateien
](s3-files-monitoring-logging.md)
+ [

# Leistungsspezifikationen
](s3-files-performance.md)
+ [

# Sicherheit für S3-Dateien
](s3-files-security.md)
+ [

# So wird S3 Files gemessen
](s3-files-metering.md)
+ [

# Bewährte Methoden für S3-Dateien
](s3-files-best-practices.md)
+ [

# Nicht unterstützte Funktionen, Beschränkungen und Kontingente
](s3-files-quotas.md)
+ [

# Problembehandlung bei S3-Dateien
](s3-files-troubleshooting.md)

# Voraussetzungen für S3-Dateien
<a name="s3-files-prereq-policies"></a>

Bevor Sie mit der Verwendung von S3 Files beginnen, stellen Sie sicher, dass Sie die folgenden Voraussetzungen erfüllt haben.

## AWS Konto und Compute-Setup
<a name="s3-files-prereq-account-setup"></a>
+ Sie haben ein AWS Konto.
+ Sie haben eine Rechenressource und einen S3-Bucket für allgemeine Zwecke in AWS der gewünschten Region, in der Sie Ihr Dateisystem erstellen möchten. Weitere Informationen finden Sie unter [Erstellen eines Allzweck-Buckets](create-bucket-overview.md).
+ In Ihrem S3-Bucket ist die Versionierung aktiviert. S3 Files erfordert S3 Versioning, um Änderungen zwischen Ihrem Dateisystem und Ihrem S3-Bucket zu synchronisieren. Weitere Informationen finden Sie unter [Aktivieren des Versioning für Buckets](manage-versioning-examples.md).
+ Ihr S3-Bucket muss einen der folgenden Verschlüsselungstypen verwenden: Serverseitige Verschlüsselung mit von Amazon S3 verwalteten Schlüsseln (SSE-S3) oder Serverseitige Verschlüsselung mit AWS Key Management Service (AWS KMS) -Schlüsseln (SSE-KMS).

## S3-Dateien-Client
<a name="s3-files-prereq-client"></a>

Um S3 Files mit Amazon EC2 zu verwenden, müssen Sie den Client installieren`amazon-efs-utils`, eine gemeinsam genutzte Open-Source-Sammlung von Tools für Amazon EFS und Amazon S3 Files. Um mit S3-Dateien arbeiten zu können, benötigen Sie `amazon-efs-utils` Version 3.0.0 oder höher. Der Client enthält ein Mount-Helper-Programm, das das Mounten von S3-Dateisystemen vereinfacht und CloudWatch Amazon-Metriken zur Überwachung des Mount-Status Ihres Dateisystems aktiviert.

### Schritt 1: Installieren Sie den Client
<a name="s3-files-prereq-client-install"></a>
+ Greifen Sie über Secure Shell (SSH) auf das Terminal für Ihre Amazon EC2 EC2-Instance zu und melden Sie sich mit dem entsprechenden Benutzernamen an. Weitere Informationen finden Sie unter [Connect to your EC2 Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect-to-linux-instance.html) im *Amazon Elastic Compute Cloud-Benutzerhandbuch*.
+ Wenn Sie Amazon Linux verwenden, gehen Sie wie folgt vor, um efs-utils aus den Repositorys von Amazon zu installieren:

  ```
  sudo yum -y install amazon-efs-utils
  ```
+ Wenn Sie andere unterstützte Linux-Distributionen verwenden, können Sie Folgendes tun:

  ```
  curl https://amazon-efs-utils.aws.com/efs-utils-installer.sh | sudo sh -s -- --install
  ```
+ Informationen zu anderen Linux-Distributionen finden Sie [unter Über andere Linux-Distributionen](https://github.com/aws/efs-utils/?tab=readme-ov-file#on-other-linux-distributions) in der amazon-efs-utils README-Datei unter. GitHub

### Schritt 2: Installieren Sie Botocore
<a name="s3-files-prereq-client-botocore"></a>

Der `amazon-efs-utils` Client verwendet Botocore, um mit anderen Diensten zu interagieren. AWS Sie müssen beispielsweise Botocore installieren, um Amazon zur Überwachung Ihres Dateisystems verwenden CloudWatch zu können. Anweisungen zur Installation und Aktualisierung von Botocore finden Sie unter Botocore [installieren in der README-Datei](https://github.com/aws/efs-utils#install-botocore) unter. amazon-efs-utils GitHub

### Den FIPS-Modus für S3-Dateien aktivieren
<a name="s3-files-prereq-client-fips"></a>

Wenn Sie die Federal Information Processing Standards (FIPS) einhalten müssen, müssen Sie den FIPS-Modus im Client aktivieren. Um den FIPS-Modus zu aktivieren, muss die `s3files-utils.conf` Datei im Betriebssystem geändert werden.

Gehen Sie wie folgt vor, um den FIPS-Modus im Client für S3-Dateien zu aktivieren:

1. Öffnen Sie mit einem Texteditor Ihrer Wahl die Datei `/etc/amazon/efs/s3files-utils.conf`.

1. Suchen Sie die Zeile mit dem folgenden Text:

   ```
   fips_mode_enabled = false
   ```

1. Ändern Sie den Text wie folgt:

   ```
   fips_mode_enabled = true
   ```

1. Speichern Sie Ihre Änderungen.

## IAM-Rollen und -Richtlinien
<a name="s3-files-prereq-iam"></a>

Um S3 Files verwenden zu können, müssen Sie IAM-Rollen und angehängte Richtlinien für zwei Zwecke konfigurieren:
+ Über das Dateisystem auf Ihren Bucket zugreifen
+ Ihr Dateisystem an AWS Rechenressourcen anhängen

### IAM-Rolle für den Zugriff auf Ihren Bucket vom Dateisystem aus
<a name="s3-files-prereq-iam-creation-role"></a>

Wenn Sie ein S3-Dateisystem erstellen, müssen Sie eine IAM-Rolle angeben, von der S3 Files annimmt, dass sie aus Ihrem S3-Bucket liest und in diesen schreibt. Diese Rolle ermöglicht es S3 Files, Änderungen zwischen Ihrem Dateisystem und Ihrem S3-Bucket zu synchronisieren. Die Rolle gewährt auch Berechtigungen zur Verwaltung von EventBridge Amazon-Regeln, die S3 Files verwendet, um Änderungen in Ihrem S3-Bucket zu erkennen und die Synchronisation auszulösen. Sie müssen außerdem sicherstellen, dass die Bucket-Richtlinien Ihres Quell-Buckets den Zugriff auf Ihre Rechenressource nicht verweigern.

**Anmerkung**  
Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch diese IAM-Rolle mit den erforderlichen Berechtigungen.

Für diese IAM-Rolle ist Folgendes erforderlich:
+ Eine Inline-Richtlinie wie folgt:

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "S3BucketPermissions",
              "Effect": "Allow",
              "Action": [
                  "s3:ListBucket",
                  "s3:ListBucketVersions"
              ],
              "Resource": "arn:aws:s3:::bucket",
              "Condition": {
                  "StringEquals": {
                      "aws:ResourceAccount": "accountId"
                  }
              }
          },
          {
              "Sid": "S3ObjectPermissions",
              "Effect": "Allow",
              "Action": [
                  "s3:AbortMultipartUpload",
                  "s3:DeleteObject*",
                  "s3:GetObject*",
                  "s3:List*",
                  "s3:PutObject*"
              ],
              "Resource": "arn:aws:s3:::bucket/*",
              "Condition": {
                  "StringEquals": {
                      "aws:ResourceAccount": "accountId"
                  }
              }
          },
          {
              "Sid": "UseKmsKeyWithS3Files",
              "Effect": "Allow",
              "Action": [
                  "kms:GenerateDataKey",
                  "kms:Encrypt",
                  "kms:Decrypt",
                  "kms:ReEncryptFrom",
                  "kms:ReEncryptTo"
              ],
              "Condition": {
                  "StringLike": {
                      "kms:ViaService": "s3.region.amazonaws.com",
                      "kms:EncryptionContext:aws:s3:arn": [
                          "arn:aws:s3:::bucket",
                          "arn:aws:s3:::bucket/*"
                      ]
                  }
              },
              "Resource": "arn:aws:kms:region:accountId:*"
          },
          {
              "Sid": "EventBridgeManage",
              "Effect": "Allow",
              "Action": [
                  "events:DeleteRule",
                  "events:DisableRule",
                  "events:EnableRule",
                  "events:PutRule",
                  "events:PutTargets",
                  "events:RemoveTargets"
              ],
              "Condition": {
                  "StringEquals": {
                      "events:ManagedBy": "elasticfilesystem.amazonaws.com"
                  }
              },
              "Resource": [
                  "arn:aws:events:*:*:rule/DO-NOT-DELETE-S3-Files*"
              ]
          },
          {
              "Sid": "EventBridgeRead",
              "Effect": "Allow",
              "Action": [
                  "events:DescribeRule",
                  "events:ListRuleNamesByTarget",
                  "events:ListRules",
                  "events:ListTargetsByRule"
              ],
              "Resource": [
                  "arn:aws:events:*:*:rule/*"
              ]
          }
      ]
  }
  ```

  Ersetzen Sie die Platzhalterwerte durch Ihre eigenen Werte.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/s3-files-prereq-policies.html)
+ Eine Vertrauensrichtlinie, die es S3 Files ermöglicht, die IAM-Rolle zu übernehmen. Fügen Sie der IAM-Rolle die folgende Vertrauensrichtlinie hinzu, damit der S3 Files-Dienst sie übernehmen kann. Ersetzen Sie *accountId* und *region* durch Ihre Werte.

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "AllowS3FilesAssumeRole",
              "Effect": "Allow",
              "Principal": {
                  "Service": "elasticfilesystem.amazonaws.com"
              },
              "Action": "sts:AssumeRole",
              "Condition": {
                  "StringEquals": {
                      "aws:SourceAccount": "accountId"
                  },
                  "ArnLike": {
                      "aws:SourceArn": "arn:aws:s3files:region:accountId:file-system/*"
                  }
              }
          }
      ]
  }
  ```

### IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS
<a name="s3-files-prereq-iam-compute-role"></a>

Ihren Rechenressourcen, auf denen Sie ein S3-Dateisystem bereitstellen, muss eine IAM-Rolle (z. B. ein EC2-Instance-Profil) mit Richtlinien zugewiesen sein, die es Ihrer Rechenressource ermöglichen, mit Ihrem S3-Dateisystem und Ihrem S3-Quell-Bucket zu interagieren. Sie müssen außerdem sicherstellen, dass die Bucket-Richtlinien Ihres Quell-Buckets den Zugriff auf Ihre Rechenressource nicht verweigern.

Fügen Sie der IAM-Rolle, die Ihrer Computing-Ressource zugewiesen ist, die folgenden beiden Richtlinien hinzu:
+ **Berechtigungen für die Rechenressource, sich mit S3-Dateisystemen zu verbinden und mit ihnen zu interagieren**

  Die IAM-Rolle muss Berechtigungen für den Mount-Helper enthalten, um eine Verbindung zu S3-Dateisystemen herzustellen und mit ihnen zu interagieren. Sie können eine AWS verwaltete Richtlinie anhängen, z. B. eine `AmazonS3FilesClientFullAccess` verwaltete Richtlinie, wenn Sie der Rechenressource vollen Lese- und Schreibzugriff auf Ihr S3-Dateisystem oder nur Lesezugriff gewähren möchten. `AmazonS3FilesClientReadOnlyAccess` Sie können die `AmazonElasticFileSystemUtils` verwaltete Richtlinie auch anhängen, wenn Sie die CloudWatch Amazon-Überwachung aktivieren möchten. Weitere Informationen und eine vollständige Liste der verfügbaren verwalteten Richtlinien für S3-Dateien finden Sie unter [AWS Verwaltete Richtlinien für Amazon S3 S3-Dateien](s3-files-security-iam-awsmanpol.md). Sie können diese Berechtigungen auch bereitstellen, indem Sie der IAM-Rolle Ihrer Rechenressource individuelle IAM-Berechtigungen wie `s3files:ClientMount` oder `s3files:ClientWrite` (nicht erforderlich für schreibgeschützte Verbindungen) hinzufügen.
+ **Eine Inline-Richtlinie, die der Rechenressource Lesezugriff auf S3-Objekte gewährt**

  Fügen Sie der IAM-Rolle die folgende Inline-Richtlinie hinzu. Diese Richtlinie gewährt der Rechenressource Berechtigungen zum direkten Lesen von Objekten aus dem verknüpften S3-Bucket in demselben Konto, um die Leseleistung zu optimieren. *bucket*Ersetzen Sie es durch Ihren S3-Bucket-Namen oder den Bucket-Namen mit Präfix.

  ```
  {
      "Version": "2012-10-17",		 	 	 
      "Statement": [
          {
              "Sid": "S3ObjectReadAccess",
              "Effect": "Allow",
              "Action": [
                  "s3:GetObject",
                  "s3:GetObjectVersion"
              ],
              "Resource": "arn:aws:s3:::bucket/*"
          },
          {
              "Sid": "S3BucketListAccess",
              "Effect": "Allow",
              "Action": "s3:ListBucket",
              "Resource": "arn:aws:s3:::bucket"
          }
      ]
  }
  ```

## Sicherheitsgruppen
<a name="s3-files-prereq-security-groups"></a>

Sobald Ihr Dateisystem und Ihre Mount-Ziele erstellt sind, müssen Sie die richtigen Sicherheitsgruppen konfigurieren, um Ihr Dateisystem verwenden zu können. Sicherheitsgruppen sowohl auf der Computing-Ressource als auch auf dem Mount-Ziel müssen den erforderlichen Datenverkehr zulassen, wie in der folgenden Tabelle dargestellt:


| Sicherheitsgruppe | Art der Regel | Protocol (Protokoll) | Port | Quelle/Ziel | 
| --- | --- | --- | --- | --- | 
| EC2-Instance | Ausgehend | TCP | 2049 | Zielsicherheitsgruppe einhängen | 
| Mount-Ziel | Eingehend | TCP | 2049 | EC2-Instance-Sicherheitsgruppe | 

# Tutorial: Erste Schritte mit S3-Dateien
<a name="s3-files-getting-started"></a>

In diesem Tutorial erstellen Sie ein S3-Dateisystem und mounten es auf einer EC2-Instance. Anschließend testen Sie grundlegende Dateioperationen. Sie können entweder die S3-Konsole oder die AWS CLI verwenden, um mit S3 Files zu beginnen.

## Erste Schritte mit S3-Dateien mithilfe der AWS Konsole
<a name="s3-files-getting-started-console"></a>

Der Workflow für S3-Dateien auf der S3-Konsole besteht aus den folgenden Schritten:
+ Erstellen Sie Ihr S3-Dateisystem
+ Mounten Sie das Dateisystem auf Ihrer EC2-Instance und führen Sie Dateisystemoperationen aus

### Voraussetzungen
<a name="s3-files-getting-started-console-prereqs"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Sie haben das abgeschlossen[AWS Konto und Compute-Setup](s3-files-prereq-policies.md#s3-files-prereq-account-setup).
+ Sie sind mit Amazon EC2 eingerichtet und mit dem Starten von EC2-Instances vertraut. Weitere Informationen finden Sie unter [Erste Schritte mit Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) im *Amazon-EC2-Benutzerhandbuch*. Verwenden Sie für dieses Tutorial die Standard-VPC für Ihre EC2-Instance.
+ Sie haben eine an Ihre EC2-Instance [IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role) angehängt, sodass sie mit Ihrem S3-Dateisystem und Ihrem S3-Bucket interagieren kann.

### Schritt 1: Erstellen Sie Ihr S3-Dateisystem
<a name="s3-files-getting-started-console-step1"></a>
+ Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).
+ Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region befinden, in der sich Ihre EC2-Instance und Ihr S3-Bucket befinden.
+ Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.
+ Wählen Sie den Bucket aus, für den Sie ein Dateisystem erstellen möchten.
+ Wählen Sie die Registerkarte **Dateisysteme**.
+ Wählen Sie **Create file system (Dateisystem erstellen)** aus.
+ Überprüfen und bestätigen Sie Ihre VPC. Verwenden Sie für dieses Tutorial Ihre Standard-VPC.
+ Wählen Sie **Erstellen** aus.

Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch ein Mount-Ziel in jeder Availability Zone in Ihrer Standard-VPC und einen Access Point für das Dateisystem. Dies kann einige Minuten dauern. Ihr Dateisystem ist für den nächsten Schritt verfügbar, sobald alle Ressourcen erstellt wurden.

### Schritt 2: Mounten Sie das Dateisystem auf Ihrer EC2-Instance
<a name="s3-files-getting-started-console-step2"></a>
+ Wählen Sie auf der Seite mit der **Übersicht über** das Dateisystem unter **An** **eine EC2-Instance anhängen die Option** Anhängen aus. Dadurch wird eine neue Seite geöffnet, auf der Sie Ihr Dateisystem auf einer EC2-Instance mounten können.
+ Wählen Sie Ihre gewünschte EC2-Instance aus der Dropdownliste **Verfügbare** EC2-Instances aus.
+ Geben Sie einen Pfad auf Ihrer EC2-Instance ein, in dem Sie das Dateisystem mounten möchten. Beispiel, `/mnt/s3files/`.
+ Stellen Sie sicher, dass Sie das richtige [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups) für Ihre EC2-Instance und das Mount-Ziel konfiguriert haben, damit der erforderliche Datenverkehr fließen kann.
+ Stellen Sie sicher, dass Sie Ihrer EC2-Instance die richtige IAM-Rolle mit den erforderlichen Berechtigungen zugewiesen haben, damit sie mit Ihrem S3-Dateisystem und Ihrem S3-Bucket interagieren kann. Weitere Informationen finden Sie unter [IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role). Für dieses Tutorial können Sie erwägen, dem Client vollen Zugriff zu gewähren, indem Sie die verwaltete Richtlinie `AmazonS3FilesClientFullAccess` zur IAM-Rolle der EC2-Instance hinzufügen.
+ Folgen Sie den Anweisungen zum Anhängen auf der Seite, um Ihr Dateisystem zu öffnen CloudShell, zu mounten und grundlegende Dateisystemoperationen auszuführen.

## Erste Schritte mit S3-Dateien mithilfe der AWS CLI
<a name="s3-files-getting-started-cli"></a>

Der Workflow für S3-Dateien auf AWS CLI besteht aus den folgenden Schritten:

1. Erstellen Sie Ihr -Dateisystem.

1. Erstellen Sie Mount-Ziele für Ihr Dateisystem.

1. Mounten Sie das Dateisystem auf Ihrer EC2-Instance mithilfe eines Mount-Ziels.

1. Testen Sie Dateioperationen wie das Auflisten eines Verzeichnisses, das Schreiben von Text in eine Datei, das Lesen einer Datei und das Kopieren einer Datei. Stellen Sie dann sicher, dass sich Ihre Änderungen in Ihrem S3-Bucket widerspiegeln.

### Voraussetzungen
<a name="s3-files-getting-started-cli-prereqs"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Sie haben die AWS CLI installiert und konfiguriert. Weitere Informationen finden Sie unter [Installation oder Aktualisierung auf die neueste Version der AWS -CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html).
+ Sie haben alle unter beschriebenen Voraussetzungen erfüllt[Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md).
+ Sie sind mit Amazon EC2 eingerichtet und mit dem Starten von EC2-Instances vertraut. Sie benötigen ein AWS Konto, einen Benutzer mit Administratorzugriff, ein key pair und eine Sicherheitsgruppe. Weitere Informationen finden Sie unter [Erste Schritte mit Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html) im *Amazon-EC2-Benutzerhandbuch*.

### Schritt 1: Erstellen Sie Ihr S3-Dateisystem
<a name="s3-files-getting-started-cli-step1"></a>

[Connect zu Ihrer EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html) her. Führen Sie den `create-file-system` Befehl aus, um ein Dateisystem zu erstellen.

```
aws s3files create-file-system --region aws-region --bucket bucket-arn --role-arn iam-role
```

Ersetzen Sie die folgenden Werte durch die gewünschten Werte:
+ *aws-region*: Die AWS Region Ihres Buckets. Beispiel, `us-east-1`.
+ *bucket-arn*: Der ARN Ihres S3-Buckets.
+ *iam-role*: ARN der IAM-Rolle, von der S3 Files annimmt, dass sie aus Ihrem S3-Bucket liest und in diesen schreibt. Stellen Sie sicher, dass Sie dieser IAM-Rolle die richtigen Berechtigungen hinzugefügt haben. Weitere Informationen finden Sie unter [IAM-Rolle für den Zugriff auf Ihren Bucket vom Dateisystem aus](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role).

Nach erfolgreicher Erstellung des Dateisystems gibt S3 Files die Dateisystembeschreibung als JSON zurück. Notieren Sie sich die Dateisystem-ID für den nächsten Schritt.

### Schritt 2: Mount-Ziele erstellen
<a name="s3-files-getting-started-cli-step2"></a>

Ein Mount-Ziel bietet Netzwerkzugriff auf Ihr Dateisystem in Ihrer VPC innerhalb einer einzigen Availability Zone. Sie benötigen ein Mount-Ziel, um von Rechenressourcen aus auf Ihr Dateisystem zuzugreifen. Sie können maximal ein Mount-Ziel pro Availability Zone erstellen. Wir empfehlen, in jeder Availability Zone, in der Sie tätig sind, ein Mount-Ziel zu erstellen.

Führen Sie den folgenden `create-mount-target` Befehl aus, um ein Mount-Ziel für Ihr Dateisystem zu erstellen. Sie müssen sicherstellen, dass *subnet-id* sich der in derselben VPC wie Ihre EC2-Instance befindet. Sie müssen Ihr Mount-Ziel in derselben Availability Zone wie Ihre EC2-Instance erstellen.

```
aws s3files create-mount-target --region aws-region --file-system-id file-system-id --subnet-id subnet-id
```

Hier *file-system-id* ist die Dateisystem-ID, die Sie als Antwort auf den `create-file-system` Befehl erhalten haben. Die Erstellung von Mount-Zielen kann bis zu \$15 Minuten dauern.

### Schritt 3: Mounten Sie das Dateisystem auf Ihrer EC2-Instance
<a name="s3-files-getting-started-cli-step3"></a>

Stellen Sie vor dem Mounten Ihres Dateisystems sicher, dass Sie die richtigen [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups) Einstellungen für Ihre Rechenressource und das Mount-Ziel so konfiguriert haben, dass der erforderliche Datenverkehr fließen kann. Weitere Informationen zu Sicherheitsgruppen finden Sie im [VPC-Benutzerhandbuch](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-groups.html).

Führen Sie die folgenden Befehle aus, um Ihr Dateisystem zu mounten:
+ Erstellen Sie mit dem folgenden Befehl ein Verzeichnis `/mnt/s3files`, das Sie als Mountingpunkt für das Dateisystem verwenden:

  ```
  sudo mkdir /mnt/s3files
  ```
+ Hängen Sie das Dateisystem ein:

  ```
  sudo mount -t s3files file-system-id:/ /mnt/s3files
  ```

Wenn Sie Ihre Dateisystem-ID nicht haben, können Sie sie finden, indem Sie den folgenden Befehl ausführen:

```
aws s3files get-file-system --region aws-region --file-system-id file-system-id
```

### Schritt 4: Testen Sie die Dateioperationen
<a name="s3-files-getting-started-cli-step4"></a>

Testen Sie grundlegende Dateioperationen auf Ihrem gemounteten Dateisystem wie folgt:
+ Wechseln Sie in das Verzeichnis, das Sie gemountet haben:

  ```
  cd /mnt/s3files
  ```
+ Sie können den Inhalt Ihres Verzeichnisses auflisten, um zu überprüfen, ob der Inhalt Ihres Quell-Buckets oder Präfixes importiert wurde. Die Synchronisation erfolgt in der Regel innerhalb von Sekunden, kann jedoch länger dauern, insbesondere bei der ersten Datei. Wenn Ihr Bucket leer ist, gibt der folgende Befehl ebenfalls ein leeres Ergebnis zurück.

  ```
  ls
  ```
+ Sie können auch andere Dateioperationen testen:
  + Erstellen Sie eine Datei:

    ```
    echo "Hello, S3 Files!" > test.txt
    ```
  + Lesen Sie die Datei:

    ```
    cat test.txt
    ```
  + Erstellen Sie ein Verzeichnis:

    ```
    mkdir test-directory
    ```
  + Kopieren Sie die Datei in das Verzeichnis:

    ```
    cp /mnt/s3files/test.txt /mnt/s3files/test-directory/
    ```

Sie können dann zu Ihrem S3-Bucket gehen und überprüfen, ob das Verzeichnis in Ihrem Bucket `test-directory` wiedergegeben wird. Beachten Sie, dass es \$11 Minute dauern kann, bis die Änderungen wieder mit Ihrem S3-Bucket synchronisiert sind.

# Mounten Ihrer S3-Buckets auf Rechenressourcen
<a name="s3-files-attach-compute"></a>

Sie können ein S3-Dateisystem auf Rechenressourcen mounten, um auf Ihre S3-Daten als Dateien zuzugreifen. Ihre Rechenressource muss in derselben Amazon Virtual Private Cloud (Amazon VPC) wie das S3-Dateisystem ausgeführt werden. Alle Rechenressourcen kommunizieren mit dem Dateisystem über Mount-Ziele auf dem NFS-Port 2049.

S3 Files unterstützt die folgenden Rechenumgebungen:
+ [Amazon Elastic Compute Cloud (Amazon EC2) -Instanzen](s3-files-mounting.md)
+ [AWS Lambda Funktionen](s3-files-mounting-lambda.md)
+ [Amazon Elastic Kubernetes Service (Amazon EKS) -Cluster](s3-files-mounting-eks.md)
+ [Amazon Elastic Container Service (Amazon ECS) -Cluster](s3-files-mounting-ecs.md)

# Mounten von S3-Dateisystemen auf Amazon EC2
<a name="s3-files-mounting"></a>

Um S3-Dateisysteme auf einer EC2-Instance zu mounten, müssen Sie den Mount-Helper für S3 Files verwenden. Der Mount-Helper hilft Ihnen dabei, Ihre S3-Dateisysteme auf EC2-Instances zu mounten, auf denen die unterstützten Distributionen ausgeführt werden. Beim Mounten eines Dateisystems definiert der Mount-Helper einen neuen Netzwerkdateisystemtyp namens`s3files`, der vollständig kompatibel mit dem `mount` Standardbefehl in Linux ist. Der Mount-Helper unterstützt auch das automatische Mounten eines S3-Dateisystems beim Start der Instanz mithilfe von Einträgen in der `/etc/fstab` Konfigurationsdatei auf EC2-Linux-Instances. Der Mount-Helper ist Teil der Open-Source-Toolsammlung, die bei der Installation des S3 Files-Clients () amazon-efs-utils installiert wird.

![\[Diagramm, das den Datenfluss zwischen einem S3-Bucket, einem S3-Dateisystem und einer Amazon EC2 EC2-Instance zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/S3Files_EC2_dataflow.png)


## Voraussetzungen für das Mounten auf EC2-Instances
<a name="s3-files-mounting-prereqs"></a>
+ Sie haben ein S3-Dateisystem mit mindestens einem verfügbaren Mount-Ziel.
+ Ihre EC2-Instance befindet sich in derselben Availability Zone wie das Mount-Ziel, das Sie zum Mounten Ihres Dateisystems verwenden werden.
+ Ein IAM-Instance-Profil mit den erforderlichen Berechtigungen für S3-Dateien ist an die EC2-Instance angehängt. Details hierzu finden Sie unter [IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ Sie haben das Erforderliche konfiguriert. [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups)
+ Sie müssen das amazon-efs-utils-Paket für die EC2-Instance installieren. Weitere Informationen finden Sie unter [S3-Dateien-Client](s3-files-prereq-policies.md#s3-files-prereq-client).

## Wie funktioniert der Mount Helper?
<a name="s3-files-mounting-how-it-works"></a>

Wenn Sie einen Mount-Befehl ausführen, führt der Mount-Helper die folgenden Aktionen aus:
+ Ruft IAM-Anmeldeinformationen aus dem EC2-Instanzprofil ab.
+ Initialisiert den EFS-Proxy-Prozess, um eine TLS-verschlüsselte Verbindung zum Mount-Ziel herzustellen.
+ Startet den amazon-efs-mount-watchdog Supervisor-Prozess, der den Zustand von TLS-Mounts überwacht. Dieser Prozess wird automatisch gestartet, wenn ein S3-Dateisystem zum ersten Mal bereitgestellt wird.
+ Hängt das Dateisystem am angegebenen Einhängepunkt ein.

Die Mountinghilfe verwendet TLS Version 1.2 für die Kommunikation mit dem Dateisystem. Für die Verwendung von TLS sind Zertifikate erforderlich, die von einer vertrauenswürdigen Amazon-Zertifizierungsstelle signiert sind. Weitere Informationen zur Funktionsweise von Verschlüsselung finden Sie unter [Sicherheit für S3-Dateien](s3-files-security.md).

Der Mount-Helper verwendet die folgenden Einhängeoptionen, die für S3-Dateien optimiert sind:


| Option | Wert | Description | 
| --- | --- | --- | 
| nfsvers | 4.2 | Version des NFS-Protokolls. | 
| rsize | 1048576 | Legt die maximale Anzahl von Datenbytes, die der NFS-Client für jede Netzwerk-READ-Anforderung empfangen kann, auf 1048576 (1 MB) fest, die größte verfügbare Anzahl, um Leistungseinbußen zu vermeiden. | 
| wsize | 1048576 | Legt die maximale Anzahl von Datenbytes, die der NFS-Client für jede Netzwerk-WRITE-Anforderung senden kann, auf 1048576 (1 MB) fest, die größte verfügbare Anzahl, um Leistungseinbußen zu vermeiden. | 
| hard | — | Legt das Wiederherstellungsverhalten des NFS-Clients nach einem Timeout für eine NFS-Anfrage fest, sodass NFS-Anfragen unbegrenzt wiederholt werden, bis der Server antwortet, um die Datenintegrität zu gewährleisten. | 
| timeo | 600 | Legt den Timeout-Wert, den der NFS-Client verwendet, um auf eine Antwort zu warten, bevor er eine NFS-Anfrage erneut versucht, auf 600 Dezisekunden (60 Sekunden) fest, um Leistungseinbußen zu vermeiden. | 
| retrans | 2 | Legt fest, wie oft der NFS-Client eine Anfrage wiederholt, bevor er weitere Wiederherstellungsaktionen versucht, auf 2. | 
| noresvport | — | Weist den NFS-Client an, einen neuen nicht privilegierten TCP-Quellport zu verwenden, wenn eine Netzwerkverbindung wiederhergestellt wird. Durch die Verwendung wird noresvport sichergestellt, dass Ihr Dateisystem nach einer erneuten Verbindung oder einem Netzwerkwiederherstellungsereignis ununterbrochen verfügbar ist. | 

Darüber hinaus verwendet der Mount-Helper automatisch `tls` und `iam` hängt Optionen automatisch ein, wenn ein S3-Dateisystem bereitgestellt wird, da S3 Files diese Optionen benötigt, um eine Verbindung herzustellen. Das liegt daran, dass S3 Files ein Dateisystem immer mithilfe von TLS-Verschlüsselung und IAM-Authentifizierung einhängt und diese nicht deaktiviert werden können.

## Wie mounten Sie Ihr S3-Dateisystem auf einer EC2-Instance?
<a name="s3-files-mounting-steps"></a>
+ Stellen Sie über Secure Shell (SSH) oder EC2 Instance Connect auf der EC2-Konsole eine Verbindung zu Ihrer EC2-Instance her. Weitere Informationen finden Sie unter [Connect zu Ihrer EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html) herstellen.
+ Erstellen Sie mit dem folgenden Befehl ein Verzeichnis `/mnt/s3files`, das Sie als Mountingpunkt für das Dateisystem verwenden:

  ```
  sudo mkdir /mnt/s3files
  ```
+ Mounten Sie Ihr S3-Dateisystem:

  ```
  FS="{YOUR_FILE_SYSTEM_ID}"
  sudo mount -t s3files $FS:/ /mnt/s3files
  ```
+ Vergewissern Sie sich, dass das Dateisystem gemountet ist.

  ```
  df -h /mnt/s3files
  ```

  Es wird eine Antwort ähnlich der folgenden angezeigt:

  ```
  Filesystem      Size  Used Avail Use% Mounted on
  {s3files-dns}    8.0E  129M  8.0E   1% {path/to/mount}
  ```

  Sie können auch das Einhängen des Dateisystems und die Einhängeoptionen überprüfen, indem Sie den Inhalt des lokalen Einhängepunkts auflisten. Wenn das Einhängen erfolgreich war, zeigt dieser Befehl die Einhängedetails, einschließlich Ihrer Einhängeoptionen, für das spezifische Verzeichnis an.

  ```
  findmnt -T /mnt/s3files
  ```

Ausführliche Informationen zu Mount-Befehlen finden Sie in der [GitHubDokumentation](https://github.com/aws/efs-utils/blob/master/README.md#mountefs).

Sie können jetzt S3-Objekte als Dateien auf Ihrem lokalen Mountpfad mithilfe von Standardoperationen im Dateisystem lesen und schreiben. Wenn Sie Objekte in Ihrem S3-Bucket haben, können Sie sie mit den folgenden Befehlen als Dateien anzeigen.

```
ls /mnt/s3files
```

Sie können den Speicher, die Leistung, die Client-Verbindungen und Synchronisierungsfehler Ihres Dateisystems mithilfe von [CloudWatchMetriken](s3-files-monitoring-cloudwatch.md) überwachen.

## So mounten Sie Ihr S3-Dateisystem mithilfe von Access Points auf einer EC2-Instance
<a name="s3-files-mounting-access-points-inline"></a>

Wenn Sie ein Dateisystem über einen Access Point mounten, beinhaltet der Mount-Befehl die `access-point-id` Mount-Option.

```
sudo mount -t s3files -o accesspoint=access-point-id file-system-id /mnt/s3files
```

Wobei:
+ *access-point-id*ist die ID Ihres Zugriffspunkts.
+ *file-system-id*ist die ID Ihres S3-Dateisystems.

## Automatisches Mounten von S3-Dateisystemen beim Start Ihrer EC2-Instance
<a name="s3-files-mounting-auto"></a>

Sie können Ihre EC2-Instance so konfigurieren, dass beim Starten oder Neustarten der Instance automatisch ein S3-Dateisystem bereitgestellt wird, indem Sie die Datei aktualisieren. `/etc/fstab` Die `/etc/fstab` Datei enthält Informationen über Dateisysteme und wird vom Betriebssystem verwendet, um zu bestimmen, welche Dateisysteme beim Booten gemountet werden sollen.

**Warnung**  
Verwenden Sie beim automatischen Mounting Ihres Dateisystems die Option `_netdev`, um es als Netzwerkdateisystem zu identifizieren. Wenn `_netdev` fehlt, reagiert die EC2-Instance möglicherweise nicht mehr. Der Grund dafür ist, dass zuerst das Netzwerk auf der Datenverarbeitungs-Instance gestartet worden sein muss. Die Netzwerkdateisysteme müssen danach initialisiert werden. Weitere Informationen finden Sie unter [Automatisches Mounten schlägt fehl und die Instanz reagiert nicht](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/builtInFS-fstab-issues.html).

Sie können den Mount Helper verwenden, um eine Amazon EC2 EC2-Instance so zu konfigurieren, dass beim Start der Instance automatisch ein S3-Dateisystem bereitgestellt wird:
+ Aktualisieren Sie die `/etc/fstab` EC2-Datei mit einem Eintrag für das S3-Dateisystem.
+ Hängen Sie ein S3-Dateisystem an, wenn Sie mit dem EC2-Launch-Instance-Assistenten eine neue EC2-Instance erstellen.

### Aktualisierung der Datei /etc/fstab
<a name="s3-files-mounting-auto-fstab"></a>

Führen Sie die folgenden Schritte aus, um die `/etc/fstab` auf einer EC2-Linux-Instance zu aktualisieren, sodass die Instance den Mount-Helper verwendet, um ein S3-Dateisystem automatisch neu zu mounten, wenn die Instanz neu gestartet wird.
+ [Connect zu Ihrer EC2-Instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect.html) her.
+ Öffnen Sie die `/etc/fstab` Datei in einem Editor und fügen Sie der Datei die folgende Zeile hinzu:

  ```
  file-system-id:/ mount-directory s3files _netdev 0 0
  ```

  Wobei Folgendes gilt:
  + *file-system-id*ist die ID Ihres S3-Dateisystems (zum Beispiel`fs-0123456789abcdef0`).
  + *mount-directory*ist das Mount-Point-Verzeichnis auf Ihrer EC2-Instance (zum Beispiel`/mnt/s3files`).
  + `_netdev`gibt an, dass es sich bei dem Dateisystem um ein Netzwerkdateisystem handelt, wodurch sichergestellt wird, dass die Instance die Netzwerkverfügbarkeit abwartet, bevor sie versucht, das System zu mounten.
+ Speichern Sie die Datei und schließen Sie den Editor.
+ Testen Sie den Fstab-Eintrag, indem Sie alle Dateisysteme in fstab einhängen:

  ```
  sudo mount -a
  ```
+ Stellen Sie sicher, dass das Dateisystem eingehängt ist:

  ```
  findmnt -T mount-directory
  ```

**Verwenden Sie die Option nofail**

Wir empfehlen, die `nofail` Option in Produktionsumgebungen zu Ihrem Fstab-Eintrag hinzuzufügen. Mit dieser Option kann die Instanz auch dann booten, wenn das Dateisystem nicht gemountet werden kann:

```
file-system-id:/ mount-directory s3files _netdev,nofail 0 0
```

**Automatisches Mounten mit einem Access Point**

Für die automatische Bereitstellung mithilfe eines Zugriffspunkts für S3-Dateien müssen Sie die folgende `accesspoint` Option einbeziehen:

```
file-system-id:/ mount-directory s3files _netdev,accesspoint=access-point-id 0 0
```

**Automatisches Mounten mit einem Unterverzeichnis**

Um ein bestimmtes Unterverzeichnis Ihres Dateisystems automatisch einzuhängen, geben Sie den Pfad an:

```
file-system-id:/path/to/directory mount-directory s3files _netdev 0 0
```

### Verwenden Sie den EC2-Instance-Startassistenten
<a name="s3-files-mounting-auto-wizard"></a>
+ Öffnen Sie die Amazon-EC2-Konsole unter [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/).
+ Wählen Sie **Launch Instance** aus.
+ Folgen Sie dieser Dokumentation, um eine EC2-Instance mithilfe des Launch-Instance-Assistenten in der AWS Konsole zu starten. Bevor Sie auf **Launch Instance** klicken, konfigurieren Sie Ihr Netzwerk und fügen Sie Ihr S3-Dateisystem hinzu, wie in den folgenden Schritten gezeigt.
+ Stellen Sie sicher, dass Sie in Ihren **Netzwerkeinstellungen ein Subnetz** auswählen.
+ Wählen Sie die Standardsicherheitsgruppe aus, um sicherzustellen, dass Ihre EC2-Instance auf Ihr S3-Dateisystem zugreifen kann. Sie können mit dieser Sicherheitsgruppe nicht über Secure Shell (SSH) auf Ihre EC2-Instance zugreifen. Für den Zugriff über SSH können Sie später die Standardsicherheit bearbeiten und eine Regel hinzufügen, um SSH oder eine neue Sicherheitsgruppe zuzulassen, die SSH zulässt. Sie können die folgenden Einstellungen verwenden:
  + Typ: SSH
  + Protokoll: TCP
  + Port-Bereich: 22
  + Quelle: Anywhere 0.0.0.0/0
+ Klicken Sie im Bereich **Speicher** auf **Dateisysteme** und wählen Sie **S3-Dateien** aus.
+ In der Dropdownliste Dateisystem sehen Sie Ihre Dateisysteme in der Availability Zone, basierend auf dem Subnetz, das Sie zuvor in Ihren Netzwerkeinstellungen ausgewählt haben. Wählen Sie das S3-Dateisystem aus, das Sie mounten möchten. Wenn Sie noch keine Dateisysteme haben, klicken Sie auf Neues Dateisystem erstellen, um ein neues zu erstellen.
+ Geben Sie einen lokalen Bereitstellungspfad auf Ihrer EC2-Instance ein, in der Sie das Dateisystem mounten möchten (z. B.`/mnt/s3files`).
+ Es wird ein Befehl generiert, um das Dateisystem zu mounten und zu fstab hinzuzufügen. Sie können wählen, ob Sie den Befehl zu den Benutzerdaten hinzufügen oder ihn nach dem Start manuell auf Ihrer EC2-Instance ausführen möchten. Ihre EC2-Instance wird dann so konfiguriert, dass das S3-Dateisystem beim Start und bei jedem Neustart bereitgestellt wird.
+ Wählen Sie **Launch Instance** aus.

## Mounten von S3-Dateisystemen von einer anderen VPC
<a name="s3-files-mounting-cross-vpc"></a>

Wenn Sie eine VPC-Peering-Verbindung oder ein Transit-Gateway verwenden, um VPCs zu verbinden, können Amazon EC2 EC2-Instances, die sich in einer VPC befinden, auf S3-Dateisysteme in einer anderen VPC zugreifen.

Ein Transit-Gateway ist ein Netzwerk-Transit-Hub, über den Sie Ihre Netzwerke und Ihre lokalen Netzwerke miteinander verbinden können. VPCs Weitere Informationen zur Verwendung von VPC-Transit-Gateways finden Sie unter [Erste Schritte mit Transit-Gateways](https://docs.aws.amazon.com/vpc/latest/tgw/tgw-getting-started.html) im *Amazon VPC-Gateways-Handbuch*. Eine VPC-Peering-Verbindung ist eine Netzwerkverbindung zwischen zwei. VPCs Dieser Verbindungstyp ermöglicht es Ihnen, den Verkehr zwischen ihnen mithilfe von privaten Internetprotokolladressen der Version 4 (IPv4) oder der Internetprotokoll-Version 6 (IPv6) weiterzuleiten. Sie können VPC-Peering verwenden, um eine Verbindung VPCs innerhalb derselben AWS Region oder zwischen AWS Regionen herzustellen. Weitere Informationen zu VPC-Peering finden Sie unter [Was ist VPC-Peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html)? im *Amazon VPC-Benutzerhandbuch*.

Wenn Sie ein Dateisystem von einer anderen VPC aus mounten, müssen Sie das Mount-Ziel manuell auflösen. Sie sollten die IP-Adresse der Mount-Ziele in der entsprechenden Availability Zone wie folgt verwenden und die *mount-target-ip-address**file-system-id*, und *mount-directory* durch Ihre Werte ersetzen.

```
sudo mount -t s3files -o mounttargetip=mount-target-ip-address file-system-id mount-directory
```

Um eine hohe Verfügbarkeit Ihres Dateisystems zu gewährleisten, empfehlen wir, dass Sie immer eine Mount-Ziel-IP-Adresse verwenden, die sich in derselben Availability Zone wie Ihr NFS-Client befindet.

Alternativ können Sie Amazon Route 53 als Ihren DNS-Service verwenden. In Route 53 können Sie die Mount-Ziel-IP-Adressen von einer anderen VPC auflösen, indem Sie eine private gehostete Zone und einen Ressourcendatensatz erstellen. Weitere Informationen dazu finden Sie unter [Arbeiten mit privaten gehosteten Zonen](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zones-private.html) im *Amazon Route 53 53-Entwicklerhandbuch*.

Weitere Informationen zur Montage von einer anderen VPC aus finden Sie unter [GitHub ReadMe](https://github.com/aws/efs-utils/blob/master/README.md).

## Mounten von S3-Dateisystemen aus einer anderen Region AWS
<a name="s3-files-mounting-cross-region"></a>

Wenn Sie Ihr S3-Dateisystem von einer anderen VPC aus mounten, die sich in einer anderen AWS Region als das Dateisystem befindet, müssen Sie die `s3files-utils.conf` Datei bearbeiten. Suchen Sie in `/etc/amazon/efs/s3files-utils.conf` die folgenden Zeilen:

```
#region = us-east-1
```

Kommentieren Sie die Zeile aus und ersetzen Sie den Wert für die ID der Region, in der sich das Dateisystem befindet, falls es sich nicht in us-east-1 befindet.

Anschließend müssen Sie die Mount-Ziel-IP im Mount-Befehl angeben, nachdem Sie die Region in der Konfiguration geändert haben:

```
sudo mount -t s3files -o mounttargetip=mount-target-ip-address file-system-id mount-directory
```

## Unmounten Ihres S3-Dateisystems
<a name="s3-files-mounting-unmount"></a>

Um ein S3-Dateisystem auszuhängen, das mit einer EC2-Instance unter Linux verbunden ist, verwenden Sie den `umount` Befehl wie folgt:

```
umount mount-directory
```

Wir empfehlen, dass Sie keine anderen `umount`-Optionen angeben. Vermeiden Sie die Einstellung anderer `umount`-Optionen, die sich von den Standardwerten unterscheiden. Sie können überprüfen, ob Ihr S3-Dateisystem unmountet wurde, indem Sie den Befehl ausführen. `findmnt` Wenn das Unmounten erfolgreich war, führt der `findmnt` Befehl in Ihrem Mount-Verzeichnis zu keiner Ausgabe.

# S3-Dateisysteme auf AWS Lambda Funktionen einhängen
<a name="s3-files-mounting-lambda"></a>

 AWS Lambda Funktionen stellen zwar einen kurzlebigen lokalen Speicher bereit, der während der Ausführung verfügbar ist, aber viele serverlose Workloads, wie maschinelles Lernen, Inferenz, Datenverarbeitung und Inhaltsmanagement, erfordern Zugriff auf große Referenzdatensätze, gemeinsam genutzte Dateien oder persistenten Speicher. Indem Sie ein S3-Dateisystem an Ihre Lambda-Funktion anhängen, können Sie Daten problemlos über Funktionsaufrufe hinweg gemeinsam nutzen, große Referenzdatendateien lesen und Funktionsausgaben in einen persistenten und gemeinsam genutzten Speicher schreiben, und das alles über einen lokalen Mount-Pfad.

![\[Diagramm, das den Datenfluss zwischen einem S3-Bucket, einem S3-Dateisystem und einer Funktion zeigt. AWS Lambda\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/S3Files_Lambda_dataflow.png)


## Voraussetzungen
<a name="s3-files-mounting-lambda-prereqs"></a>

Bevor Sie ein S3-Dateisystem auf einer Lambda-Funktion mounten, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ **Dateisystem, Mount-Ziele und Access Point** — Das S3-Dateisystem, mindestens ein Mount-Ziel und ein Access Point müssen verfügbar sein. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch ein Mount-Ziel in jeder Availability Zone in Ihrer Standard-VPC und einen Access Point (UID/GID 1000/1000 und `/Lambda` als Access Point-Bereich) für das Dateisystem.
+ **Lambda-Funktion** — Eine Lambda-Funktion mit einer Ausführungsrolle, die Zugriff auf das Mounten des Dateisystems hat. Weitere Informationen finden Sie im Benutzerhandbuch unter [Ausführungsrolle und *AWS Lambda Benutzerberechtigungen*](https://docs.aws.amazon.com/lambda/latest/dg/configuration-filesystem-s3files.html#configuration-filesystem-s3files-permissions).
+ **VPC** — Die Lambda-Funktion muss sich in derselben VPC wie Ihr Mount-Ziel befinden. Die Subnetze, die Sie Ihrer Lambda-Funktion zuweisen, müssen sich in der Availability Zone befinden, die ein Mount-Ziel hat.
+ Sie haben das Erforderliche konfiguriert. [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups)

## So mounten Sie Ihr S3-Dateisystem auf einer Lambda-Funktion
<a name="s3-files-mounting-lambda-steps"></a>
+ Wählen Sie in der S3-Konsole im linken Navigationsbereich **Dateisysteme** aus.
+ Wählen Sie das Dateisystem aus, das Sie auf Ihrer Lambda-Funktion mounten möchten.
+ Wählen Sie auf der Registerkarte **Übersicht** unter **An** **eine Lambda-Funktion anhängen die** Option Anhängen aus.
+ Wählen Sie eine verfügbare Lambda-Funktion aus dem Drop-down-Menü aus. Die verfügbare Liste zeigt nur Funktionen innerhalb derselben VPC und derselben Subnetze, für die Sie ein Mount-Ziel haben.
+ Geben Sie den lokalen Bereitstellungspfad an.
+ Wenn Sie mehr als einen Access Point haben, wählen Sie einen Access Point aus.
+ Klicken Sie auf **Anhängen**. Ihr Dateisystem wird jetzt angehängt, wenn Sie Ihre Lambda-Funktion das nächste Mal aufrufen.

Weitere Informationen finden Sie unter [Konfiguration des Zugriffs auf Amazon S3 S3-Dateien mit AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/configuration-filesystem-s3files.html).

Mit [Amazon](s3-files-monitoring-cloudwatch.md) können Sie den Speicher, die Leistung, die Client-Verbindungen und Synchronisierungsfehler Ihres Dateisystems überwachen CloudWatch.

# Mounten von S3-Dateisystemen auf Amazon EKS
<a name="s3-files-mounting-eks"></a>

Sie können ein S3-Dateisystem an einen Amazon EKS-Cluster anhängen, indem Sie den Amazon EFS Container Storage Interface (CSI) -Treiber verwenden, der sowohl dynamische als auch statische Bereitstellung unterstützt. Dazu gehört die efs-csi-driver Installation des CSI-Treibers für Amazon EFS- und S3-Dateien.

![\[Diagramm, das den Datenfluss zwischen einem S3-Bucket, einem S3-Dateisystem und einem Amazon EKS-Cluster zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/S3Files_EKS_dataflow.png)


## Voraussetzungen
<a name="s3-files-mounting-eks-prereqs"></a>

Bevor Sie ein S3-Dateisystem auf einem EKS-Cluster mounten, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Sie haben ein S3-Dateisystem, für das mindestens ein Mount-Ziel verfügbar ist.
+ Sie haben das Erforderliche konfiguriert[Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups).
+ Ihr EKS-Cluster muss sich in derselben VPC wie Ihr Mount-Ziel befinden.
+ Der Amazon EFS CSI-Treiber benötigt AWS Identity and Access Management (IAM) -Berechtigungen, um eine Verbindung zu S3-Dateisystemen herzustellen und mit diesen zu interagieren. Details hierzu finden Sie unter [IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ AWS schlägt vor, EKS Pod Identities zu verwenden. Weitere Informationen finden Sie unter [Überblick über die Einrichtung von EKS-Pod-Identitäten](https://docs.aws.amazon.com/eks/latest/userguide/pod-identities.html).
+ Informationen zu IAM-Rollen für Dienstkonten und zum Einrichten eines IAM OpenID Connect (OIDC) -Anbieters für Ihren Cluster finden Sie unter [Erstellen eines IAM-OIDC-Anbieters](https://docs.aws.amazon.com/eks/latest/userguide/enable-iam-roles-for-service-accounts.html) für Ihren Cluster.
+ Das `kubectl`-Befehlszeilen-Tool ist auf Ihrem Gerät oder in der AWS CloudShell installiert. Die Version kann mit der Kubernetes-Version Ihres Clusters identisch sein oder bis zu einer Nebenversion älter oder neuer sein. Wenn Ihre Clusterversion beispielsweise 1.29 ist, können Sie Version 1.28, 1.29 oder 1.30 damit verwenden`kubectl`. Informationen zur Installation oder zum Upgrade finden Sie unter `kubectl` Kubectl und [eksctl einrichten](https://docs.aws.amazon.com/eks/latest/userguide/install-kubectl.html).

## Wie mounten Sie Ihr S3-Dateisystem auf einem EKS-Cluster
<a name="s3-files-mounting-eks-steps"></a>

Der Amazon-EFS-CSI-Treiber benötigt IAM-Berechtigungen, um mit Ihrem Dateisystem zu interagieren. Erstellen Sie eine IAM-Rolle und fügen Sie ihr die `AmazonS3FilesCSIDriverPolicy` verwaltete Richtlinie hinzu. Fügen Sie den EFS-CSI-Treiber zu Ihrem EKS-Cluster hinzu und geben Sie die IAM-Rolle an, damit Ihr CSI-Treiber auf das Dateisystem zugreifen AWS APIs kann. Sie können die AWS Managementkonsole oder die AWS API verwenden. Einzelheiten finden Sie unter [Verwenden des S3-Dateisystemspeichers mit Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/s3files-csi.html).

Sie können auch S3-Dateisysteme mit AWS Batch auf Amazon EKS verwenden. Um ein S3-Dateisystem-Volume an Ihren AWS Batch on Amazon EKS-Job anzuhängen, können Sie Amazon EKS-Pods mit persistentem Volume Claim verwenden. Weitere Informationen finden Sie [persistentVolumeClaim](https://docs.aws.amazon.com/batch/latest/APIReference/API_EksVolume.html#Batch-Type-EksVolume-persistentVolumeClaim)auf den Seiten [Register Job Definitions](https://docs.aws.amazon.com/batch/latest/APIReference/API_RegisterJobDefinition.html) und [EKS Persistent Volume Claim](https://docs.aws.amazon.com/batch/latest/APIReference/API_EksPersistentVolumeClaim.html) im *AWS Batch API Reference Guide*.

Mit [Amazon](s3-files-monitoring-cloudwatch.md) können Sie den Speicher, die Leistung, die Client-Verbindungen und Synchronisierungsfehler Ihres Dateisystems überwachen CloudWatch.

# Mounten von S3-Dateisystemen auf Amazon ECS
<a name="s3-files-mounting-ecs"></a>

Sie können ein S3-Dateisystem an eine Amazon ECS-Aufgabendefinition anhängen und dann die Aufgabe bereitstellen, um von Ihren Containern aus auf Ihre S3-Daten zuzugreifen.

![\[Diagramm, das den Datenfluss zwischen einem S3-Bucket, einem S3-Dateisystem und einer Amazon ECS-Aufgabe zeigt.\]](http://docs.aws.amazon.com/de_de/AmazonS3/latest/userguide/images/S3Files_ECS_dataflow.png)


In Amazon ECS ist die Volumenunterstützung für S3 Files für AWS Fargate und ECS Managed Instances bei allgemeiner Verfügbarkeit verfügbar. S3-Dateien-Volumes werden beim Amazon EC2 EC2-Starttyp nicht unterstützt. Wenn Sie ein S3-Files-Volume in einer Aufgabendefinition konfigurieren und versuchen, es auf dem EC2-Starttyp auszuführen, schlägt die Aufgabe fehl.

## Voraussetzungen
<a name="s3-files-mounting-ecs-prereqs"></a>

Bevor Sie ein S3-Dateisystem an eine ECS-Task anhängen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Sie haben ein S3-Dateisystem mit mindestens einem Mount-Ziel im verfügbaren Status.
+ Die ECS-Task muss sich in derselben VPC wie das Mount-Ziel befinden.
+ Fügen Sie Ihrer IAM-Rolle für ECS-Aufgaben die Berechtigungen für den Zugriff auf S3-Dateisysteme hinzu. Details hierzu finden Sie unter [IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).
+ Sie haben das [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups) Erforderliche konfiguriert.

## Wie mounten Sie Ihr S3-Dateisystem auf einer ECS-Task
<a name="s3-files-mounting-ecs-steps"></a>
+ Wählen Sie in der S3-Konsole im linken Navigationsbereich **Dateisysteme** aus.
+ Wählen Sie das Dateisystem aus, das Sie mounten möchten.
+ Wählen Sie auf der Registerkarte **Übersicht** unter **An** **eine ECS-Aufgabe anhängen die Option** Anhängen aus.
+ Wählen Sie die gewünschte ECS-Aufgabendefinition aus der Drop-down-Liste aus.
+ Geben Sie den lokalen Bereitstellungspfad an.
+ Sie können optional einen Zugriffspunkt, ein Stammverzeichnis und einen Port für die Übertragungsverschlüsselung angeben.
+ Sobald das Dateisystem an die Aufgabendefinition angehängt wurde, können Sie eine Aufgabe mithilfe dieser Aufgabendefinition auf folgende Weise starten:
  + Sie können die Aufgabe als eigenständige, einmalige Ausführung bereitstellen. Einzelheiten finden Sie unter [Ausführen einer Anwendung als Amazon ECS-Aufgabe](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/standalone-task-create.html) im *Amazon ECS-Entwicklerhandbuch*.
  + Sie können die Aufgabendefinition auch als Service bereitstellen. Einzelheiten finden Sie unter [Serviceverlauf mithilfe von Amazon ECS-Servicebereitstellungen anzeigen](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-deployment.html) im *Amazon ECS-Entwicklerhandbuch*.

Einzelheiten finden Sie unter [Verwenden des S3-Dateisystemspeichers mit Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/s3files-volumes.html).

Mit [Amazon](s3-files-monitoring-cloudwatch.md) können Sie den Speicher, die Leistung, die Client-Verbindungen und Synchronisierungsfehler Ihres Dateisystems überwachen CloudWatch.

# Ressourcen für S3 Files erstellen und verwalten
<a name="s3-files-resources"></a>

Auf dieser Seite wird beschrieben, wie Sie Ressourcen für S3 Files erstellen, konfigurieren und verwalten. Informationen zur Verwaltung Ihrer Ressourcen mithilfe der AWS CLI finden Sie unter [S3 Files API-Referenz](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations_Amazon_S3_Files.html).

**Dateisysteme**  
Ein gemeinsam genutztes Dateisystem, das mit Ihrem S3-Bucket verknüpft ist. Es speichert einen Bruchteil Ihrer aktiv genutzten S3-Daten als Dateien und Verzeichnisse, sodass Ihre Anwendungen und Benutzer von der Leistung mit niedriger Latenz profitieren können. Sie können mit standardmäßigen Dateisystemoperationen wie Lesen, Schreiben und Sperren von Dateien auf Ihre Daten zugreifen.  
+ [Dateisysteme erstellen](s3-files-file-systems-creating.md)
+ [Dateisysteme löschen](s3-files-file-systems-deleting.md)

**Ziele einhängen**  
Ein Mount-Ziel bietet Netzwerkzugriff auf Ihr Dateisystem innerhalb einer einzigen Availability Zone in Ihrer VPC. Sie benötigen mindestens ein Mount-Ziel, um von Rechenressourcen aus auf Ihr Dateisystem zuzugreifen, und Sie können maximal ein Mount-Ziel pro Availability Zone erstellen. Wir empfehlen, in jeder Availability Zone, in der Sie arbeiten, ein Mount-Ziel zu erstellen, sodass Ihre Rechenressourcen immer über einen lokalen Netzwerkpfad zum Dateisystem verfügen, was sowohl die Verfügbarkeit als auch die Latenz verbessert. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch ein Mount-Ziel in jeder Availability Zone in Ihrer Standard-VPC.  
+ [Erstellen von Bereitstellungszielen](s3-files-mount-targets-creating.md)
+ [Verwalten der Mountingziele](s3-files-mount-targets-managing.md)
+ [Mount-Ziele löschen](s3-files-mount-targets-deleting.md)

**Dateisystemrichtlinien**  
Eine Dateisystemrichtlinie ist eine optionale IAM-Ressourcenrichtlinie, die Sie für Ihr S3-Dateisystem erstellen können, um den NFS-Client-Zugriff auf das Dateisystem zu steuern.  
+ [Erstellen von Dateisystemrichtlinien](s3-files-file-system-policies-creating.md)
+ [Dateisystemrichtlinien löschen](s3-files-file-system-policies-deleting.md)

**Zugriffspunkte**  
Access Points sind anwendungsspezifische Zugangspunkte zu einem Dateisystem, die die Verwaltung des Datenzugriffs für gemeinsam genutzte Datensätze in großem Umfang vereinfachen. Sie können Access Points verwenden, um Benutzeridentitäten und Berechtigungen für alle Dateisystemanfragen durchzusetzen, die über den Access Point gestellt werden. Darüber hinaus können Access Points Clients darauf beschränken, nur auf Daten innerhalb eines bestimmten Stammverzeichnisses und seiner Unterverzeichnisse zuzugreifen. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch einen Zugriffspunkt für das Dateisystem.  
Ein Dateisystem kann maximal 10.000 Zugriffspunkte haben, sofern Sie keine Erhöhung beantragen. Weitere Informationen finden Sie unter [Nicht unterstützte Funktionen, Beschränkungen und Kontingente](s3-files-quotas.md).  
+ [Access Points für ein S3-Dateisystem erstellen](s3-files-access-points-creating.md)
+ [Löschen von Access Points für ein S3-Dateisystem](s3-files-access-points-deleting.md)

**Tags**  
Tags sind Schlüssel-Wert-Paare, die Sie definieren und Ihren S3 Files-Ressourcen zuordnen, um sie zu organisieren, zu identifizieren und zu verwalten.  
+ [Ressourcen für das Taggen von S3-Dateien](s3-files-tagging.md)

**Topics**
+ [

# Dateisysteme erstellen
](s3-files-file-systems-creating.md)
+ [

# Dateisysteme löschen
](s3-files-file-systems-deleting.md)
+ [

# Erstellen von Bereitstellungszielen
](s3-files-mount-targets-creating.md)
+ [

# Verwalten der Mountingziele
](s3-files-mount-targets-managing.md)
+ [

# Mount-Ziele löschen
](s3-files-mount-targets-deleting.md)
+ [

# Erstellen von Dateisystemrichtlinien
](s3-files-file-system-policies-creating.md)
+ [

# Dateisystemrichtlinien löschen
](s3-files-file-system-policies-deleting.md)
+ [

# Access Points für ein S3-Dateisystem erstellen
](s3-files-access-points-creating.md)
+ [

# Löschen von Access Points für ein S3-Dateisystem
](s3-files-access-points-deleting.md)
+ [

# Ressourcen für das Taggen von S3-Dateien
](s3-files-tagging.md)

# Dateisysteme erstellen
<a name="s3-files-file-systems-creating"></a>

Sie können Dateisysteme mithilfe der AWS Konsole, der AWS Befehlszeilenschnittstelle (AWS CLI) oder der Amazon S3 S3-API für jeden vorhandenen oder neuen S3-Allzweckbucket erstellen. Informationen zum Erstellen eines neuen Buckets finden Sie unter[Erstellen eines Allzweck-Buckets](create-bucket-overview.md).

## Erforderliche IAM-Berechtigungen für die Erstellung von Dateisystemen
<a name="s3-files-file-systems-creating-permissions"></a>

Wenn Sie ein S3-Dateisystem erstellen, müssen Sie eine IAM-Rolle angeben, von der S3 Files annimmt, dass sie aus Ihrem S3-Bucket liest und in diesen schreibt. Diese Rolle ermöglicht es S3 Files, Änderungen zwischen Ihrem Dateisystem und Ihrem S3-Bucket zu synchronisieren. Wenn Sie mit der AWS Konsole ein Dateisystem erstellen, erstellt S3 Files automatisch diese IAM-Rolle mit den erforderlichen Berechtigungen. Wenn Sie die AWS CLI oder die S3-API verwenden, finden Sie weitere Informationen unter[IAM-Rolle für den Zugriff auf Ihren Bucket vom Dateisystem aus](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role).

Weitere Informationen zum Verwalten von Berechtigungen für die API-Operationen finden Sie unter [So funktioniert S3 Files mit IAM](s3-files-security-iam.md).

## Status eines Dateisystems
<a name="s3-files-file-systems-creating-status"></a>

Ein Dateisystem kann einen der in der folgenden Tabelle beschriebenen Statuswerte haben, die Sie mit dem `get-file-system` Befehl abrufen können.


| Status des Dateisystems | Description | 
| --- | --- | 
| VERFÜGBAR | Das Dateisystem befindet sich in einem fehlerfreien Zustand und ist erreichbar und kann verwendet werden. | 
| WIRD ERSTELLT | S3 Files ist dabei, das neue Dateisystem zu erstellen. | 
| WIRD GELÖSCHT | S3 Files löscht das Dateisystem als Antwort auf eine vom Benutzer initiierte Löschanfrage. | 
| GELÖSCHT | S3 Files hat das Dateisystem als Antwort auf eine vom Benutzer initiierte Löschanfrage gelöscht. | 
| ERROR | Das Dateisystem befindet sich in einem fehlerhaften Zustand und kann nicht wiederhergestellt werden. Um auf die Dateisystemdaten zuzugreifen, stellen Sie eine Sicherungskopie dieses Dateisystems in einem neuen Dateisystem wieder her. Überprüfen Sie das StatusMessage Feld auf Informationen zu dem Fehler. | 

**Anmerkung**  
S3 Files gibt einen Fehler zurück, wenn Sie versuchen, ein Dateisystem zu erstellen, das auf ein Präfix mit einer großen Anzahl von Objekten beschränkt ist. Dieser Fehler weist Sie darauf hin, dass umfangreiche rekursive Umbenennungs- oder Verschiebevorgänge die Leistung des Dateisystems beeinträchtigen und die Kosten für S3-Anfragen erhöhen können, da für jede Datei separate Kopier- und Löschanforderungen an Ihren S3-Bucket erforderlich sind. Wenn Sie dennoch ein Dateisystem erstellen möchten, das auf dieses Präfix beschränkt ist, können Sie den Parameter hinzufügen. `--AcceptBucketWarning`

## Verwenden der S3-Konsole
<a name="s3-files-file-systems-creating-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole ein Dateisystem für S3-Dateien erstellen.
+ Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).
+ Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der gewünschten AWS Region befinden.
+ Wählen Sie im linken Navigationsbereich die Option **Dateisysteme** aus.
+ Wählen Sie **Dateisystem erstellen** aus.
+ Wählen Sie auf der Erstellungsseite den S3-Bucket oder das S3-Präfix aus, aus dem Sie Ihr Dateisystem erstellen möchten. Sie können die S3-URI direkt eingeben (z. B.`s3://bucket-name/prefix`) oder „**S3 durchsuchen**“ wählen, um zu Ihrem Bucket oder Präfix zu navigieren und dieses auszuwählen.
+ Wählen Sie eine VPC für Ihr Dateisystem aus. S3 Files wählt Ihre Standard-VPC automatisch aus. Dies ist die VPC, über die sich Ihre Rechenressourcen mit Ihrem Dateisystem verbinden. Um eine andere VPC zu verwenden, wählen Sie eine aus der Dropdownliste aus.
+ Wählen Sie **Erstellen** und warten Sie, bis der Status Ihres Dateisystems erreicht ist. `Available`

**Standardeinstellungen auf der AWS Management Console**

S3 Files erstellt Ihr Dateisystem mit der folgenden Konfiguration:
+ **Verschlüsselung** — S3 Files legt die Verschlüsselungskonfiguration aus dem S3-Quell-Bucket fest und wendet sie auf ruhende Daten in Ihrem Dateisystem an.
+ **IAM-Rolle** — S3 Files erstellt eine neue IAM-Rolle, die für die Verwaltung der Datensynchronisierung zwischen Ihrem Dateisystem und dem Bucket verwendet wird.
+ **Mount-Ziele** — S3 Files erstellt automatisch ein Mount-Ziel in jeder Availability Zone der von Ihnen ausgewählten VPC.
+ **Zugriffspunkt** — S3 Files erstellt einen Zugriffspunkt für das Dateisystem.

## Mit dem AWS CLI
<a name="s3-files-file-systems-creating-cli"></a>

Wenn Sie die AWS CLI verwenden, erstellen Sie diese Ressourcen der Reihe nach. Zuerst erstellen Sie ein Dateisystem. Anschließend können Sie mithilfe der entsprechenden AWS CLI-Befehle Mount-Ziele und alle zusätzlichen optionalen Tags für das Dateisystem erstellen.

Der folgende `create-file-system` Beispielbefehl zeigt, wie Sie mit der AWS CLI ein Dateisystem für S3-Dateien erstellen können.

```
aws s3files create-file-system --region aws-region --bucket s3-bucket-arn --client-token idempotency-token --role-arn iam-role
```

Ersetzen Sie Folgendes durch Ihre gewünschten Werte:
+ *aws-region*: Die AWS Region Ihres Buckets. Beispiel, `us-east-1`.
+ *bucket-arn*: Der ARN Ihres S3-Buckets.
+ *idempotency-token*: Ein Idempotenz-Token. Das ist optional.
+ *iam-role*: ARN der IAM-Rolle, von der S3 Files annimmt, dass sie aus Ihrem S3-Bucket liest und in diesen schreibt. Stellen Sie sicher, dass Sie dieser IAM-Rolle die richtigen Berechtigungen hinzugefügt haben. Weitere Informationen finden Sie unter [IAM-Rolle für den Zugriff auf Ihren Bucket vom Dateisystem aus](s3-files-prereq-policies.md#s3-files-prereq-iam-creation-role).

Nach erfolgreicher Erstellung des Dateisystems gibt S3 Files die Dateisystembeschreibung als JSON zurück.

# Dateisysteme löschen
<a name="s3-files-file-systems-deleting"></a>

Wenn Sie ein Dateisystem löschen, werden das Dateisystem, seine Daten und seine Konfiguration dauerhaft entfernt. Stellen Sie vor dem Löschen sicher, dass keine Anwendungen das Dateisystem aktiv verwenden, um Dienstunterbrechungen zu vermeiden. Vor dem Löschen müssen Sie zuerst alle Mount-Ziele und Access Points löschen, die dem Dateisystem zugeordnet sind. Weitere Informationen erhalten Sie unter [Mount-Ziele löschen](s3-files-mount-targets-deleting.md) und [Löschen von Access Points für ein S3-Dateisystem](s3-files-access-points-deleting.md).

Wenn Sie ein Dateisystem löschen, prüft S3 Files, ob alle Änderungen in Ihrem Dateisystem mit Ihrem verknüpften S3-Bucket synchronisiert wurden. Wenn es Änderungen gibt, die noch nicht synchronisiert wurden, gibt S3 Files einen Fehler zurück und der Löschvorgang wird nicht fortgesetzt. Dadurch wird sichergestellt, dass alle Ihre Daten sicher in Ihrem S3-Bucket gespeichert werden, bevor das Dateisystem gelöscht wird. Wenn Sie mit dem Löschen fortfahren und akzeptieren möchten, dass alle nicht synchronisierten Änderungen verloren gehen, können Sie die Löschanforderung mit der Option „Löschen erzwingen“ erneut versuchen. Fügen Sie in der AWS CLI das `--ForceDelete` Flag zu Ihrem API-Löschaufruf hinzu. Wählen Sie in der AWS Konsole in der Fehlermeldung, die angezeigt wird, wenn Sie ein Dateisystem löschen, obwohl noch nicht synchronisierte Änderungen vorhanden sind, die Schaltfläche **Force** aus.

## Verwenden der S3-Konsole
<a name="s3-files-file-systems-deleting-console"></a>

In diesem Abschnitt wird erklärt, wie Sie die Amazon S3 S3-Konsole verwenden, um ein Dateisystem für S3-Dateien zu löschen.
+ Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).
+ Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region des Dateisystems befinden, das Sie löschen möchten.
+ Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.
+ Wählen Sie einen Allzweck-Bucket aus, an den Ihr Dateisystem angehängt ist.
+ Wählen Sie die Registerkarte **Dateisysteme** und dann das Dateisystem aus, das Sie löschen möchten.
+ Wählen Sie **Löschen** aus.
+ Geben Sie im Bestätigungsfenster ein`confirm`.

## Verwenden Sie den AWS CLI
<a name="s3-files-file-systems-deleting-cli"></a>

Der folgende `delete-file-system` Beispielbefehl zeigt, wie Sie mit der AWS CLI ein Dateisystem für S3-Dateien löschen können.

```
aws s3files delete-file-system --file-system-id file-system-id
```

# Erstellen von Bereitstellungszielen
<a name="s3-files-mount-targets-creating"></a>

Sie benötigen ein Mount-Ziel, um von Rechenressourcen aus auf Ihr Dateisystem zuzugreifen, und Sie können maximal ein Mount-Ziel pro Availability Zone erstellen. Wir empfehlen, ein Mount-Ziel pro Availability Zone, in der Sie arbeiten, zu erstellen. Wenn Sie mit der S3-Konsole ein Dateisystem erstellen, erstellt S3 Files automatisch ein Mount-Ziel in jeder Availability Zone in Ihrer Standard-VPC.

Sie können Mount-Ziele für das Dateisystem jeweils in einer VPC erstellen. Wenn Sie die VPC für Ihre Mount-Ziele ändern möchten, müssen Sie zuerst alle vorhandenen Mount-Ziele für das Dateisystem löschen und dann ein Mount-Ziel in einer neuen VPC erstellen. Falls die VPC über mehrere Subnetze in einer Availability Zone verfügt, können Sie nur in einem dieser Subnetze ein Mountingziel erstellen. Alle EC2-Instances in der Availability Zone können dieses einzelne Mountingziel gemeinsam verwenden.

## Verwenden der S3-Konsole
<a name="s3-files-mount-targets-creating-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole ein Mount-Ziel für S3-Dateien erstellen.

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region des Dateisystems befinden, für das Sie ein Mount-Ziel erstellen möchten.

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie einen Allzweck-Bucket aus, an den Ihr Dateisystem angehängt ist.

1. Wählen Sie die Registerkarte **Dateisysteme** und wählen Sie das gewünschte Dateisystem aus.

1. Wählen Sie die Registerkarte **Mount-Ziele** und anschließend **Mount-Ziele erstellen** aus.

1. Auf der Seite Mount-Ziel erstellen wird Ihre Standard-VPC automatisch ausgewählt. Wählen Sie die Availability Zone und die Subnetz-ID aus. Die VPC, die Availability Zone und die Subnetz-ID können nach der Erstellung des Mount-Ziels nicht bearbeitet werden.
**Anmerkung**  
Der IP-Adresstyp muss mit dem IP-Typ des Subnetzes übereinstimmen. Darüber hinaus hat der IP-Adresstyp Vorrang vor dem IP-Adressierungsattribut Ihres Subnetzes. Wenn der IP-Adresstyp beispielsweise IPv4 -only ist und das IPv6 Adressierungsattribut für Ihr Subnetz aktiviert ist, erhalten die im Subnetz erstellten Netzwerkschnittstellen eine IPv4 Adresse aus dem Bereich des Subnetzes. Weitere Informationen finden Sie unter [Ändern des öffentlichen IP-Adressierungsattributs Ihres Subnetzes](https://docs.aws.amazon.com/vpc/latest/userguide/modify-subnets.html).

1. Wenn Sie die IP-Adresse kennen, an der Sie das Mount-Ziel platzieren möchten, geben Sie sie in das IP-Adressfeld ein, das dem IP-Adresstyp entspricht. Wenn Sie keinen Wert angeben, wählt S3 Files eine ungenutzte IP-Adresse aus dem angegebenen Subnetz aus.

1. Wählen Sie Ihre Sicherheitsgruppen aus, die dem Mount-Ziel zugeordnet werden sollen. Informationen zu [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups) den Sicherheitsgruppenkonfigurationen, die für die Nutzung Ihres Dateisystems erforderlich sind, finden Sie in den Voraussetzungen.

1. Wählen Sie **Create Mount Target** aus.

## Verwenden Sie den AWS CLI
<a name="s3-files-mount-targets-creating-cli"></a>

Der folgende `create-mount-target` Beispielbefehl zeigt, wie Sie mit der AWS CLI ein Mount-Ziel für S3-Dateien erstellen können.

```
aws s3files create-mount-target --region aws-region --file-system-id file-system-id --subnet-id subnet-id
```

Die Erstellung von Mount-Zielen kann bis zu \$15 Minuten dauern.

# Verwalten der Mountingziele
<a name="s3-files-mount-targets-managing"></a>

Sie können Sicherheitsgruppen hinzufügen oder entfernen, die einem Mount-Ziel zugeordnet sind. Sicherheitsgruppen definieren den ein- und ausgehenden Zugriff. Wenn Sie einem Mountingziel zugeordnete Sicherheitsgruppen ändern, müssen Sie darauf achten, dass Sie den erforderlichen eingehenden/ausgehenden Zugriff zulassen. Dadurch kann Ihre Rechenressource mit dem Dateisystem kommunizieren. Informationen zu [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups) den Sicherheitsgruppenkonfigurationen, die für die Nutzung Ihres Dateisystems erforderlich sind, finden Sie in den Voraussetzungen.

## Verwenden der S3-Konsole
<a name="s3-files-mount-targets-managing-console"></a>

In diesem Abschnitt wird erklärt, wie Sie die Amazon S3 S3-Konsole verwenden, um Sicherheitsgruppen für ein Mount-Ziel in S3 Files hinzuzufügen oder zu entfernen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der gewünschten AWS Region befinden, in der Ihr Mount-Ziel existiert.

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie einen Allzweck-Bucket aus, an den Ihr Dateisystem angehängt ist.

1. Wählen Sie die Registerkarte **Dateisysteme** und wählen Sie das gewünschte Dateisystem aus.

1. Wählen Sie die Registerkarte **Mount-Ziele** und wählen Sie das Mount-Ziel aus, das Sie bearbeiten möchten.

1. Wählen Sie **Bearbeiten** aus. Sie werden Details zu Ihrem Mount-Ziel sehen.

1. Fügen Sie Sicherheitsgruppen zur Sicherheitsgruppen-Dropdownliste hinzu oder entfernen Sie sie daraus.

1. Wählen Sie **Speichern**.

## Unter Verwendung der AWS CLI
<a name="s3-files-mount-targets-managing-cli"></a>

Der folgende `update-mount-target` Beispielbefehl zeigt, wie Sie die AWS CLI verwenden können, um Sicherheitsgruppen für ein Mount-Ziel in S3 Files hinzuzufügen oder zu entfernen.

```
aws s3files update-mount-target --region aws-region --mount-target-id mount-target-id --security-groups security-group-ids-separated-by-space
```

# Mount-Ziele löschen
<a name="s3-files-mount-targets-deleting"></a>

Wenn Sie ein Mount-Ziel löschen, unterbricht der Vorgang gewaltsam alle Mounts des Dateisystems, wodurch Rechenressourcen und Anwendungen, die diese Mounts verwenden, beeinträchtigt werden könnten. Um eine Anwendungsunterbrechung zu vermeiden, stoppen Sie die Anwendungen und heben Sie den Dateisystem-Mount auf, bevor Sie das Mountingziel löschen.

Sie können Mount-Ziele für ein Dateisystem mithilfe der AWS Management Console, AWS CLI oder programmgesteuert mit dem löschen. AWS SDKs

## Verwenden der S3-Konsole
<a name="s3-files-mount-targets-deleting-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole ein Mount-Ziel für S3-Dateien löschen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region des Mount-Ziels befinden, das Sie löschen möchten.

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie einen Allzweck-Bucket aus, an den Ihr Dateisystem angehängt ist.

1. Wählen Sie die Registerkarte **Dateisysteme** und wählen Sie das gewünschte Dateisystem aus.

1. Wählen Sie die Registerkarte **Mount-Ziele** und wählen Sie das Mount-Ziel aus, das Sie löschen möchten.

1. Wählen Sie **Löschen** aus.

1. Geben Sie im Bestätigungsfenster den Text ein **confirm** und wählen Sie **Löschen**.

## Verwenden Sie den AWS CLI
<a name="s3-files-mount-targets-deleting-cli"></a>

Der folgende `delete-mount-target` Beispielbefehl zeigt, wie Sie mit der AWS CLI ein Mount-Ziel für S3-Dateien löschen können.

```
aws s3files delete-mount-target --region aws-region --mount-target-id mount-target-id
```

# Erstellen von Dateisystemrichtlinien
<a name="s3-files-file-system-policies-creating"></a>

Mithilfe von Dateisystemrichtlinien können Sie NFS-Clients Berechtigungen zur Ausführung von Vorgängen wie Mounten, Schreiben und Root-Zugriff auf Ihre Dateisysteme gewähren oder verweigern. Ein Dateisystem hat entweder eine leere (Standard-) Dateisystemrichtlinie oder genau eine explizite Richtlinie. Sie können Ihre Dateisystemrichtlinie jederzeit nach der Erstellung des Dateisystems mit der AWS Management Console, der AWS CLI oder dem AWS SDK aktualisieren.

Sie können eine Dateisystemrichtlinie aktualisieren, indem Sie die Amazon S3 S3-Konsole, die AWS CLI, programmgesteuert mit AWS SDKs oder die S3 Files API direkt verwenden. Es kann mehrere Minuten dauern, bis diese Richtlinienänderungen wirksam werden. S3-Dateisystemrichtlinien haben ein Limit von 20.000 Zeichen. Weitere Informationen zur Verwendung einer S3-Dateisystemrichtlinie, zu unterstützten Aktionen, unterstützten Bedingungsschlüsseln und Beispielen finden Sie unter[So funktioniert S3 Files mit IAM](s3-files-security-iam.md).

## Verwenden der S3-Konsole
<a name="s3-files-file-system-policies-creating-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole eine Dateisystemrichtlinie für S3-Dateien erstellen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region befinden, in der Ihr Dateisystem existiert.

1. Wählen Sie im linken Navigationsbereich die Option **Dateisysteme** aus.

1. Wählen Sie das gewünschte Dateisystem aus.

1. Wählen Sie den Tab „**Berechtigungen**“ und dann „**Bearbeiten“**.

1. Sie können den Richtlinien-Editor verwenden, um Ihre eigene Dateisystemrichtlinie hinzuzufügen.

1. Nachdem Sie die Bearbeitung der Richtlinie abgeschlossen haben, wählen Sie **Speichern** aus.

## Unter Verwendung des AWS CLI
<a name="s3-files-file-system-policies-creating-cli"></a>

Der folgende `put-file-system-policy` Beispielbefehl zeigt, wie Sie mit der AWS CLI eine Dateisystemrichtlinie für S3-Dateien erstellen können. Die folgende Dateisystemrichtlinie gewährt der `ReadOnly` IAM-Rolle nur `ClientMount` (schreibgeschützte) Berechtigungen. Ersetzen Sie die AWS Beispielkonto-ID *111122223333* durch Ihre AWS Konto-ID.

```
aws s3files put-file-system-policy --file-system-id file-system-id --policy '{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/ReadOnly"
            },
            "Action": [
                "s3files:ClientMount"
            ]
        }
    ]
}'
```

# Dateisystemrichtlinien löschen
<a name="s3-files-file-system-policies-deleting"></a>

Sie können eine Dateisystemrichtlinie mithilfe der Amazon S3 S3-Konsole und der AWS CLI löschen.

## Verwenden der S3-Konsole
<a name="s3-files-file-system-policies-deleting-console"></a>

In diesem Abschnitt wird erklärt, wie Sie die Amazon S3 S3-Konsole verwenden, um eine Dateisystemrichtlinie für S3-Dateien zu löschen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region befinden, in der Ihr Dateisystem existiert.

1. Wählen Sie im linken Navigationsbereich die Option **Dateisysteme** aus.

1. Wählen Sie Ihr Dateisystem aus.

1. Wählen Sie den Tab „**Berechtigungen**“ und dann „**Löschen**“.

1. Geben Sie im Bestätigungsfenster den Text ein **confirm** und wählen Sie **Löschen**.

## Verwenden Sie den AWS CLI
<a name="s3-files-file-system-policies-deleting-cli"></a>

Der folgende `delete-file-system-policy` Beispielbefehl zeigt, wie Sie die AWS CLI verwenden können, um eine Dateisystemrichtlinie für S3-Dateien zu löschen.

```
aws s3files delete-file-system-policy --file-system-id file-system-id
```

# Access Points für ein S3-Dateisystem erstellen
<a name="s3-files-access-points-creating"></a>

Access Points sind anwendungsspezifische Einstiegspunkte in ein Dateisystem, die die Verwaltung des Datenzugriffs für gemeinsam genutzte Datensätze in großem Umfang vereinfachen. Sie können Access Points verwenden, um Benutzeridentitäten und Berechtigungen für alle Dateisystemanfragen durchzusetzen, die über den Access Point gestellt werden. Darüber hinaus können Access Points Clients darauf beschränken, nur auf Daten innerhalb eines bestimmten Stammverzeichnisses und seiner Unterverzeichnisse zuzugreifen. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch einen Zugriffspunkt für das Dateisystem.

Ein Dateisystem kann maximal 10.000 Zugriffspunkte haben, sofern Sie keine Erhöhung beantragen. Weitere Informationen finden Sie unter [Nicht unterstützte Funktionen, Beschränkungen und Kontingente](s3-files-quotas.md). Sie können Access Points mit der S3-Konsole, der AWS CLI oder dem AWS SDK erstellen.

Access Points für ein S3-Dateisystem können nach der Erstellung nicht bearbeitet werden. Wenn Sie Aktualisierungen vornehmen möchten, müssen Sie den vorhandenen Access Point löschen und einen neuen erstellen.

## Verwenden der S3-Konsole
<a name="s3-files-access-points-creating-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole einen Access Point für ein S3-Dateisystem erstellen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region des Dateisystems befinden, für das Sie einen Access Point erstellen möchten.

1. Wählen Sie im linken Navigationsbereich die Option **Dateisysteme** aus.

1. Wählen Sie das gewünschte Dateisystem aus.

1. Wählen Sie die Registerkarte **Access Points** und dann **Access Point erstellen** aus.

1. Geben Sie auf der Seite Erstellen einen **Namen** für den Access Point ein.

1. (Optional) Geben Sie einen Stammverzeichnispfad für den Access Point an. Clients, die diesen Access Point verwenden, sind auf dieses Verzeichnis und seine Unterverzeichnisse beschränkt. Standardmäßig geht S3 Files davon aus, dass das Stammverzeichnis für den Access Point das Stammverzeichnis des Dateisystems ist.

1. (Optional) Im **POSIX-Benutzerbereich** können Sie die vollständige POSIX-Identität angeben, die verwendet werden soll, um Benutzer- und Gruppeninformationen für alle Dateioperationen von Clients, die den Access Point verwenden, durchzusetzen.
   + **Benutzer-ID** – Geben Sie die numerische POSIX-Benutzer-ID für den Benutzer ein.
   + **Gruppen-ID** – Geben Sie die numerische POSIX-Gruppen-ID für den Benutzer ein.
   + **Sekundäre Gruppe IDs** — Geben Sie eine optionale, durch Kommas getrennte Liste sekundärer Gruppen ein. IDs

1. (Optional) Für **Berechtigungen zum Erstellen von Stammverzeichnissen** können Sie die Berechtigungen angeben, die verwendet werden sollen, wenn S3 Files den Stammverzeichnispfad erstellt, sofern angegeben und das Stammverzeichnis noch nicht vorhanden ist.
**Anmerkung**  
Wenn Sie keine Eigentümerschaft und keine Berechtigungen für das Stammverzeichnis angeben und das Stammverzeichnis noch nicht existiert, erstellt S3 Files das Stammverzeichnis nicht. Versuche, das Dateisystem mithilfe des Zugangspunkts zu mounten, schlagen fehl.
   + **Besitzerbenutzer-ID** – Geben Sie die numerische POSIX-Benutzer-ID ein, die als Besitzer des Stammverzeichnisses verwendet werden soll.
   + **Benutzergruppen-ID** – Geben Sie die numerische POSIX-Gruppen-ID ein, die als Besitzergruppe des Stammverzeichnisses verwendet werden soll.
   + **Berechtigungen** – Geben Sie den Unix-Modus des Verzeichnisses ein. Eine allgemeine Konfiguration ist 755. Stellen Sie sicher, dass das Ausführungs-Bit für den Benutzer des Zugriffspunkts festgelegt ist, damit er mounten kann.

1. (Optional) Unter **Tags** können Sie festlegen, ob Sie Ihrem Access Point Tags hinzufügen möchten.

1. Wählen Sie **Zugangspunkt erstellen** aus.

## Verwenden Sie den AWS CLI
<a name="s3-files-access-points-creating-cli"></a>

Der folgende `create-access-point` Beispielbefehl zeigt, wie Sie mit der AWS CLI einen Access Point für ein S3-Dateisystem erstellen können.

```
aws s3files create-access-point --file-system-id file-system-id --root-directory root-directory --posix-user posix-user
```

Beispiel:

```
aws s3files create-access-point --file-system-id fs-abcdef0123456789a --client-token 010102020-3 \
  --root-directory "Path=/s3files/mobileapp/east,CreationInfo={OwnerUid=0,OwnerGid=11,Permissions=775}" \
  --posix-user "Uid=22,Gid=4" \
  --tags Key=Name,Value=east-users
```

**Anmerkung**  
Wenn mehrere Anfragen zum Erstellen von Access Points auf demselben Dateisystem schnell hintereinander gesendet werden und sich das Dateisystem dem Limit für Zugriffspunkte nähert, kann es bei diesen Anfragen zu einer Drosselung der Antwort kommen. Dadurch wird sichergestellt, dass das Dateisystem das Zugriffspunktkontingent nicht überschreitet.

# Löschen von Access Points für ein S3-Dateisystem
<a name="s3-files-access-points-deleting"></a>

Wenn Sie einen Access Point löschen, stellen Sie vor dem Löschen sicher, dass keine Anwendungen den Access Point aktiv nutzen, um Dienstunterbrechungen zu vermeiden. Nach dem Löschen werden der Access Point und seine Konfiguration dauerhaft entfernt.

## Verwenden der S3-Konsole
<a name="s3-files-access-points-deleting-console"></a>

In diesem Abschnitt wird erklärt, wie Sie mit der Amazon S3 S3-Konsole einen Access Point für S3-Dateien löschen.

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der AWS Region des Dateisystems befinden, in der sich der Access Point befindet, den Sie löschen möchten.

1. Wählen Sie im linken Navigationsbereich **Allzweck-Buckets** aus.

1. Wählen Sie einen Allzweck-Bucket aus, an den Ihr Dateisystem angehängt ist.

1. Wählen Sie die Registerkarte **Dateisysteme** und wählen Sie das Dateisystem aus, das Sie verwenden möchten.

1. Wählen Sie die Registerkarte **Access Points** und wählen Sie den Access Point aus, den Sie löschen möchten.

1. Wählen Sie **Löschen** aus.

1. Geben Sie im Bestätigungsfenster den Text ein **confirm** und wählen Sie **Löschen**.

## Verwenden Sie den AWS CLI
<a name="s3-files-access-points-deleting-cli"></a>

Der folgende `delete-access-point` Beispielbefehl zeigt, wie Sie mit der AWS CLI einen Access Point für S3-Dateien löschen können.

```
aws s3files delete-access-point --access-point-id access-point-id
```

# Ressourcen für das Taggen von S3-Dateien
<a name="s3-files-tagging"></a>

Um Ihnen bei der Verwaltung Ihrer S3 Files-Ressourcen zu helfen, können Sie jeder Ressource Ihre eigenen Metadaten in Form von Tags zuweisen. Mit Tags können Sie Ihre AWS Ressourcen auf unterschiedliche Weise kategorisieren, z. B. nach Zweck, Eigentümer oder Umgebung. Diese Kategorisierung ist nützlich, wenn Sie über viele Ressourcen desselben Typs verfügen, da Sie eine bestimmte Ressource anhand der Tags, die Sie ihr zugewiesen haben, schnell identifizieren können. Sie können S3-Dateisystem- und Zugriffspunktressourcen taggen, die bereits in Ihrem Konto vorhanden sind. In diesem Thema werden Tags (Markierungen) und deren Erstellung beschrieben.

## Tag-Einschränkungen
<a name="s3-files-tagging-restrictions"></a>

Die folgenden grundlegenden Einschränkungen gelten für Tags (Markierungen):
+ Maximale Anzahl von Tags (Markierungen) pro Ressource: 50
+ Jeder Tag (Markierung) muss für jede Ressource eindeutig sein. Jeder Tag (Markierung) kann nur einen Wert haben.
+ Maximale Schlüssellänge: 128 Unicode-Zeichen in UTF-8
+ Maximale Wertelänge — 256 Unicode-Zeichen in UTF-8
+ Die zulässigen Zeichen sind: Buchstaben, Zahlen und Leerzeichen, die in UTF-8 dargestellt werden können, sowie die folgenden Zeichen:. `+ - = . _ : / @`
+ Bei Tag-Schlüsseln und -Werten wird zwischen Groß- und Kleinschreibung unterschieden.
+ Das `aws:` Präfix ist für die Verwendung reserviert. AWS Wenn der Tag (Markierung) über einen Tag (Markierung)-Schlüssel mit diesem Präfix verfügt, können Sie den Schlüssel oder Wert des Tags (Markierung) nicht bearbeiten oder löschen. Tags (Markierungen) mit dem Präfix `aws:` werden nicht als Ihre Tags (Markierungen) pro Ressourcenlimit angerechnet.

Sie können Ressourcen nicht allein auf Grundlage ihrer Tags (Markierungen) aktualisieren oder löschen. Sie müssen den Ressourcenbezeichner angeben. Um beispielsweise Dateisysteme zu löschen, die Sie mit einem Tag-Schlüssel namens gekennzeichnet haben`DeleteMe`, müssen Sie die `DeleteFileSystem` Aktion mit den Ressourcen-IDs des Dateisystems, z. B. der Dateisystem-ID, verwenden.

Wenn Sie öffentliche oder gemeinsam genutzte Ressourcen taggen, sind die von Ihnen zugewiesenen Tags nur für Ihr AWS Konto verfügbar. Kein anderes AWS Konto hat Zugriff auf diese Tags. Für die tagbasierte Zugriffskontrolle auf gemeinsam genutzte Ressourcen muss jedem AWS Konto ein eigener Satz von Tags zugewiesen werden, um den Zugriff auf die Ressource zu kontrollieren.

## Verwenden der S3-Konsole
<a name="s3-files-tagging-console"></a>

Sie können die S3 Files-Konsole verwenden, um Tags auf Ihren Ressourcen zu verwalten.
+ Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).
+ Vergewissern Sie sich in der Navigationsleiste oben auf der Seite, dass Sie sich in der gewünschten AWS Region befinden.
+ Wählen Sie im linken Navigationsbereich die Option **Dateisysteme** aus.
+ Sie können Tags für eine Ressource angeben, wenn Sie die Ressource erstellen, z. B. für ein S3-Dateisystem oder einen Access Point. Oder Sie können Tags nach der Erstellung hinzufügen, ändern oder löschen, indem Sie zu den Eigenschaften der Ressource wechseln.

## Verwenden Sie den AWS CLI
<a name="s3-files-tagging-cli"></a>

Wenn Sie die S3-Files-API, die AWS CLI oder ein AWS SDK verwenden, können Sie die `TagResource` S3-Files-API-Aktion verwenden, um Tags auf vorhandene Ressourcen anzuwenden. Darüber hinaus können Sie bei einigen Aktionen zur Ressourcenerstellung Tags für eine Ressource angeben, wenn die Ressource erstellt wird, z. B. wenn Sie ein Dateisystem erstellen.

Die AWS CLI-Befehle für die Verwaltung von Tags und die entsprechenden API-Aktionen für S3 Files sind in der folgenden Tabelle aufgeführt.


| CLI-Befehl | Description | Äquivalente API-Operation | 
| --- | --- | --- | 
| tag-resource | Neue Tags hinzufügen oder vorhandene Tags aktualisieren | TagResource | 
| list-tags-for-resource | Vorhandene Tags abrufen | ListTagsForResource | 
| untag-resource | Vorhandene Tags löschen | UntagResource | 

# Verstehen, wie die Synchronisation funktioniert
<a name="s3-files-synchronization"></a>

S3 Files sorgt dafür, dass Ihr Dateisystem und der verknüpfte S3-Bucket automatisch synchronisiert werden. Die Daten, die Sie aktiv verwenden, werden in das Dateisystem kopiert, sodass Sie Dateien mit standardmäßigen Linux-Dateioperationen mit geringer Latenz lesen und schreiben können. Für S3 Files muss die S3-Versionierung auf dem verknüpften S3-Bucket aktiviert sein. Wenn Sie Dateien im Dateisystem bearbeiten, kopiert S3 Files Ihre Änderungen als neue Versionen der entsprechenden Objekte zurück in den S3-Bucket, wobei sichergestellt wird, dass die alten Versionen erhalten bleiben. Wenn andere Anwendungen Objekte in Ihrem S3-Bucket hinzufügen, ändern oder löschen, spiegelt S3 Files diese Änderungen automatisch in Ihrem Dateisystem wider. Wenn ein Konflikt aufgrund gleichzeitiger Änderungen an denselben Daten sowohl im Dateisystem als auch im S3-Bucket auftritt, behandelt S3 Files den [S3-Bucket im Konfliktfall als Informationsquelle](#s3-files-sync-source-of-truth).

Um die Speicherkosten zu optimieren, entfernt S3 Files Daten, die Sie in letzter Zeit nicht verwendet haben, aus dem Dateisystem. Ihre Daten bleiben dauerhaft im verknüpften S3-Bucket gespeichert und werden beim nächsten Zugriff wieder in das Dateisystem abgerufen.

## Der S3-Bucket ist über das Dateisystem zugänglich
<a name="s3-files-sync-bucket-accessible"></a>

Nachdem Sie ein S3-Dateisystem erstellt haben, können Sie [Ihre S3-Buckets auf Rechenressourcen mounten](s3-files-attach-compute.md) und sofort auf Ihre S3-Bucket-Daten zugreifen. Wenn Sie zum ersten Mal auf ein Verzeichnis zugreifen, indem Sie dessen Inhalt auflisten oder eine darin enthaltene Datei öffnen, importiert S3 Files standardmäßig die Metadaten für alle Dateien in diesem Verzeichnis zusammen mit den Daten für Dateien, die kleiner als der Schwellenwert für die Importgröße (Standard 128 KB) sind, aus dem S3-Bucket. Der erste Zugriff auf ein Verzeichnis hat möglicherweise eine höhere Latenz, nachfolgende Lese- und Schreibvorgänge sind jedoch erheblich schneller. Durch den Vorabimport von Metadaten können Sie mit S3 Files Verzeichnisinhalte durchsuchen, Dateigrößen anzeigen und Berechtigungen bei geringer Latenz überprüfen.

Nehmen wir zum Beispiel an, Ihr S3-Bucket enthält ein Präfix `data/images/` mit 1.000 Objekten. Bei der ersten Ausführung `ls /mnt/s3files/data/images/` importiert S3 Files Metadaten für alle 1.000 Dateien und kopiert asynchron Daten für Dateien, die unter dem Schwellenwert für die Importgröße liegen, in das Dateisystem. Diese erste Auflistung kann mehrere Sekunden dauern, aber nachfolgende Befehle wie `ls -la``stat`, oder `cat` für einzelne Dateien in diesem Verzeichnis werden mit geringer Latenz zurückgegeben.

Bei Dateien, die den Schwellenwert für die Importgröße überschreiten, importiert S3 Files nur Metadaten, während Daten nicht in das Dateisystem kopiert, sondern direkt aus dem S3-Bucket gelesen werden, wenn Sie darauf zugreifen. Sie können diesen Schwellenwert anpassen, um ihn besser an Ihre Arbeitslast anzupassen. Sie können ihn beispielsweise erhöhen, um mehr Daten für Workloads zu importieren, die wiederholt auf dieselben Dateien zugreifen und von Lesevorgängen mit geringer Latenz profitieren. Bei Workloads, bei denen Daten sequentiell gestreamt werden, kann ein niedrigerer Schwellenwert kostengünstiger sein, da der Latenzvorteil beim Import von Daten im Voraus weniger aussagekräftig ist, wenn Daten sequentiell in großen Blöcken gelesen werden und nicht in kleinen, zufälligen Lesevorgängen. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).

## Änderungen in Ihrem Dateisystem werden automatisch in Ihrem S3-Bucket widergespiegelt
<a name="s3-files-sync-changes-to-bucket"></a>

Wenn Sie Dateien im Dateisystem erstellen, ändern oder löschen, kopiert S3 Files diese Änderungen automatisch in Ihren S3-Bucket. Neue Dateien werden zu neuen S3-Objekten, Änderungen an vorhandenen Dateien werden zu neuen Objektversionen und gelöschte Dateien werden zu S3-Löschmarkierungen.

POSIX-Berechtigungen, die Sie über das Dateisystem für Dateien und Verzeichnisse festlegen, wie Eigentümer (UID), Gruppe (GID) und Berechtigungsbits, werden als benutzerdefinierte S3-Objektmetadaten in den entsprechenden S3-Objekten gespeichert. Wenn Sie Berechtigungen mithilfe von`chmod`, oder `chgrp` ändern`chown`, exportiert S3 Files diese Änderungen zusammen mit allen Datenänderungen in Ihren S3-Bucket. Wenn S3 Files Objekte aus Ihrem S3-Bucket importiert, liest es diese Metadaten und wendet die entsprechenden POSIX-Berechtigungen auf das Dateisystem an. Objekten, die keine POSIX-Berechtigungsmetadaten haben, werden Standardberechtigungen zugewiesen.

Wenn Sie eine Datei im Dateisystem ändern, wartet S3 Files bis zu 60 Sekunden und aggregiert alle in dieser Zeit aufeinanderfolgenden Änderungen an der Datei, bevor sie in Ihren S3-Bucket kopiert werden. Das bedeutet, dass schnelle aufeinanderfolgende Schreibvorgänge in dieselbe Datei in einer einzigen S3-PUT-Anforderung erfasst werden, anstatt für jede einzelne Änderung eine neue Objektversion zu generieren, wodurch Ihre S3-Anforderungs- und Speicherkosten reduziert werden. Wenn Sie die Datei weiter ändern, nachdem S3 Files Ihre Änderungen zurück in den S3-Bucket kopiert hat, werden nachfolgende Änderungen nach Bedarf kopiert.

Wenn eine Anwendung beispielsweise eine Protokolldatei öffnet und innerhalb von 30 Sekunden 50 Mal an sie anhängt, fasst S3 Files alle 50 Anhänge zu einer einzigen S3-PUT-Anforderung zusammen. Wenn die Anwendung nach der ersten Synchronisierung weiter schreibt, kopiert S3 Files die zusätzlichen Änderungen bei einer nachfolgenden Synchronisierung.

## Änderungen in Ihrem S3-Bucket werden automatisch in Ihrem Dateisystem angezeigt
<a name="s3-files-sync-changes-from-bucket"></a>

S3 Files überwacht Änderungen in Ihrem S3-Bucket mithilfe von S3-Ereignisbenachrichtigungen. Wenn eine andere Anwendung, die mit der S3-API arbeitet, Objekte in Ihrem S3-Bucket hinzufügt, ändert oder löscht, spiegelt S3 Files automatisch diese Änderungen im Dateisystem für Dateien wider, deren Daten derzeit im Hochleistungsspeicher des Dateisystems gespeichert sind. Dateien, deren Daten aus dem Dateisystem abgelaufen sind, werden erst aktualisiert, wenn Sie das nächste Mal auf sie zugreifen. Zu diesem Zeitpunkt ruft S3 Files die neueste Version aus dem S3-Bucket ab.

## Die Auswirkungen von Umbenennungs- und Verschiebevorgängen verstehen
<a name="s3-files-sync-rename-move"></a>

Amazon S3 verwendet eine flache Speicherstruktur, in der Objekte anhand ihrer Schlüsselnamen identifiziert werden. Mit S3 Files können Sie Ihre Daten zwar in Verzeichnissen organisieren, aber S3 hat kein systemeigenes Konzept von Verzeichnissen. Was in Ihrem Dateisystem als Verzeichnis angezeigt wird, ist ein gemeinsames Präfix, das von den Schlüsseln der Objekte innerhalb des S3-Buckets gemeinsam genutzt wird. Darüber hinaus sind S3-Objekte unveränderlich und unterstützen keine atomaren Umbenennungen. Wenn Sie eine Datei umbenennen oder verschieben, muss S3 Files daher die Daten mit dem aktualisierten Schlüssel in ein neues Objekt schreiben und das Original löschen. Wenn Sie ein Verzeichnis umbenennen oder verschieben, muss S3 Files diesen Vorgang für jedes Objekt wiederholen, das dieses Präfix verwendet. Wenn Sie also ein Verzeichnis mit zig Millionen Dateien umbenennen oder verschieben, erhöhen sich die Kosten für Ihre S3-Anfrage und die Synchronisierungszeit erheblich.

S3 Files gibt einen Fehler zurück, wenn Sie versuchen, ein Dateisystem zu erstellen, das auf ein Präfix mit mehr als 125 Millionen Objekten beschränkt ist. Dieser Fehler weist Sie darauf hin, dass umfangreiche rekursive Umbenennungs- oder Verschiebevorgänge die Leistung des Dateisystems beeinträchtigen können, da für jede Datei separate Schreib- und Löschanforderungen an Ihren S3-Bucket erforderlich sind. Wenn Sie dennoch ein Dateisystem erstellen möchten, das auf dieses Präfix beschränkt ist, können Sie den Parameter hinzufügen. `--AcceptBucketWarning`

Da S3 Files Objekte im S3-Bucket einzeln umbenennt, sind beide Verzeichnisse im S3-Bucket sichtbar, bis die Umbenennung vollständig abgeschlossen ist. Objekte, die nach der Umbenennung des Verzeichnisses, aber bevor die Umbenennung vollständig synchronisiert wurde, geschrieben wurden, werden nicht verschoben. Um die Datenreorganisation zu vereinfachen, empfehlen wir, beim Umbenennen eines passenden Verzeichnisses keine neuen Objekte über den S3-Bucket zu erstellen.

Wenn Sie beispielsweise ausführen`mv /mnt/s3files/projects/alpha /mnt/s3files/projects/beta`, wird die Umbenennung im Dateisystem sofort abgeschlossen. Im S3-Bucket beginnt S3 Files, jedes Objekt in seinen neuen Schlüssel innerhalb des S3-Buckets zu kopieren und zu löschen (das `projects/alpha/` Präfix durch zu ersetzen`projects/beta/`) und das Original zu löschen. Während dieses Vorgangs enthält der S3-Bucket vorübergehend Objekte `projects/alpha/` sowohl unter als auch`projects/beta/`. Sobald alle Objekte verschoben wurden, `projects/beta/` bleibt nur noch übrig.

## Ungenutzte Daten sind aus Gründen der Speicheroptimierung aus dem Dateisystem abgelaufen
<a name="s3-files-sync-expiration"></a>

S3 Files optimiert die Speicherkosten, indem Dateidaten, die in letzter Zeit nicht gelesen wurden, automatisch aus dem Dateisystem entfernt werden. Ihre Daten bleiben sicher in Ihrem S3-Bucket gespeichert. S3 Files entfernt nur die Kopie aus dem Dateisystem. Dateimetadaten wie Namen, Größen und Berechtigungen werden niemals aus dem Dateisystem entfernt, sodass Sie Ihr Dateisystem mit geringer Latenz weiter durchsuchen können.

Wenn eine Datei in Ihrem Dateisystem 30 Tage lang nicht gelesen wurde (konfigurierbar) und ihre Änderungen bereits mit dem S3-Bucket synchronisiert wurden, entfernt S3 Files die Dateidaten aus dem Dateisystem. Wenn Sie diese Datei das nächste Mal lesen, ruft S3 Files die neueste Version des entsprechenden Objekts aus dem S3-Bucket ab und kopiert es zurück in das Dateisystem.

Nehmen wir zum Beispiel an, Sie verarbeiten einen Datensatz `/mnt/s3files/data/batch-jan.parquet` im Januar und greifen nicht erneut darauf zu. Nach 30 Tagen entfernt S3 Files die Dateidaten aus dem Dateisystem. Die Datei wird immer noch mit der richtigen Größe und den richtigen Berechtigungen in den Verzeichnislisten angezeigt, aber die Daten befinden sich nicht mehr im Dateisystem. Wenn Sie die Datei im April erneut lesen, ruft S3 Files sie aus dem S3-Bucket ab und kopiert sie zurück in das Dateisystem. Der erste Lesevorgang hat möglicherweise eine höhere Latenz, nachfolgende Lesevorgänge sind jedoch schnell.

## Der S3-Bucket ist die Quelle der Wahrheit bei Konflikten
<a name="s3-files-sync-source-of-truth"></a>

Ein Konflikt tritt auf, wenn dieselbe Datei über das Dateisystem geändert wurde und sich auch das entsprechende S3-Objekt geändert hat, bevor S3 Files die Dateisystemänderungen wieder mit dem S3-Bucket synchronisiert hat. Sie können beispielsweise eine Datei über Ihr gemountetes Dateisystem bearbeiten, während eine andere Anwendung eine neue Version des entsprechenden Objekts direkt im verknüpften S3-Bucket hochlädt oder löscht.

S3 Files erkennt Konflikte, wenn versucht wird, Ihre Dateisystemänderungen wieder mit dem S3-Bucket zu synchronisieren, oder wenn es eine S3-Ereignisbenachrichtigung erhält, die darauf hinweist, dass sich das Objekt geändert hat. Ihr S3-Bucket dient als langfristiger Speicher für Ihre Daten. Daher betrachtet S3 Files den S3-Bucket als die Quelle der Wahrheit, wenn ein Konflikt auftritt. Dies sorgt für vorhersehbare Konsistenz und stellt sicher, dass die Version in Ihrem S3-Bucket immer Vorrang hat. Im Falle eines Konflikts verschiebt S3 Files die Datei, die den Konflikt verursacht, von ihrem aktuellen Speicherort in Ihrem Dateisystem in ein Verzeichnis, das nicht gefunden wurde, und importiert die neueste Version aus dem verknüpften S3-Bucket in das Dateisystem.

Nehmen wir zum Beispiel an, Sie bearbeiten die Datei `/mnt/s3files/report.csv` über das Dateisystem. Bevor S3 Files Ihre Änderungen wieder mit dem S3-Bucket synchronisiert, lädt eine andere Anwendung eine neue Version von `report.csv` direkt in den S3-Bucket hoch. Wenn S3 Files den Konflikt erkennt, verschiebt es Ihre Version von `report.csv` in das Verzeichnis Lost and Found und ersetzt sie durch die Version aus dem S3-Bucket.

Das Verzeichnis Lost and Found befindet sich im Stammverzeichnis Ihres Dateisystems unter dem Namen`.s3files-lost+found-file-system-id`. Wenn S3 Files eine Datei in das Verzeichnis Lost and Found verschiebt, wird dem Dateinamen eine Kennung vorangestellt, um zwischen mehreren Versionen derselben Datei zu unterscheiden, die im Laufe der Zeit möglicherweise verschoben werden. Dateien im Verzeichnis Lost and Found werden nicht in Ihren S3-Bucket kopiert. Sie können Dateien aus diesem Verzeichnis löschen und kopieren, aber Sie können keine Dateien darin verschieben oder umbenennen oder das Verzeichnis selbst löschen. Wenn Sie Ihre Dateisystemänderungen anstelle der neuesten Version im S3-Bucket behalten möchten, kopieren Sie die Datei aus dem Verzeichnis Lost and Found zurück in ihren ursprünglichen Pfad. Sie können den ursprünglichen Pfad der Datei aus den erweiterten Attributen der Datei im Verzeichnis Lost and Found abrufen. S3 Files kopiert es dann als neue Version des Objekts in Ihren S3-Bucket. Weitere Informationen finden Sie unter [Problembehandlung bei S3-Dateien](s3-files-troubleshooting.md).

**Anmerkung**  
Widersprüchliche Dateien, die S3 Files in das Verzeichnis Lost and Found verschiebt, verbleiben dort auf unbestimmte Zeit und werden auf die Speicherkosten Ihres Dateisystems angerechnet. Sie sollten Dateien aus dem Verzeichnis Lost and Found löschen, um Speicherplatz freizugeben, wenn sie nicht mehr benötigt werden.

Die Standard-Synchronisierungseinstellungen funktionieren bei den meisten Workloads für den dateibasierten Zugriff auf S3-Daten mit niedriger Latenz. Weitere Informationen zur Konfiguration dieser Parameter finden Sie unter. [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md)

**Topics**
+ [

## Der S3-Bucket ist über das Dateisystem zugänglich
](#s3-files-sync-bucket-accessible)
+ [

## Änderungen in Ihrem Dateisystem werden automatisch in Ihrem S3-Bucket widergespiegelt
](#s3-files-sync-changes-to-bucket)
+ [

## Änderungen in Ihrem S3-Bucket werden automatisch in Ihrem Dateisystem angezeigt
](#s3-files-sync-changes-from-bucket)
+ [

## Die Auswirkungen von Umbenennungs- und Verschiebevorgängen verstehen
](#s3-files-sync-rename-move)
+ [

## Ungenutzte Daten sind aus Gründen der Speicheroptimierung aus dem Dateisystem abgelaufen
](#s3-files-sync-expiration)
+ [

## Der S3-Bucket ist die Quelle der Wahrheit bei Konflikten
](#s3-files-sync-source-of-truth)
+ [

# Synchronisation für S3-Dateien anpassen
](s3-files-synchronization-customizing.md)

# Synchronisation für S3-Dateien anpassen
<a name="s3-files-synchronization-customizing"></a>

Mit S3 Files können Sie mithilfe einer Synchronisationskonfiguration steuern, wie Daten zwischen Ihrem Dateisystem und dem verknüpften S3-Bucket fließen. Die Standardeinstellungen sorgen für ein ausgewogenes Verhältnis zwischen Latenz und Kosten für die meisten Workloads. Sie können sie jedoch an Ihre Zugriffsmuster anpassen. Das Importieren von mehr Daten im Voraus reduziert die Leselatenz auf Kosten höherer Speicher- und Schreibgebühren. Der Import von weniger Daten hält die Speicherkosten niedrig, bedeutet aber, dass mehr Lesevorgänge von S3 mit höherer Latenz bereitgestellt werden. Jede Konfiguration besteht aus zwei Komponenten: Regeln für den Import von Daten, die steuern, welche Daten wann in das Dateisystem kopiert werden, und Regeln für Ablaufdaten, die steuern, wie lange ungenutzte Daten im Dateisystem verbleiben. Sie können diese Regeln mithilfe der AWS Management Console oder der PutSynchronizationConfiguration API aktualisieren.

## Datenregeln importieren
<a name="s3-files-sync-import-rules"></a>

Regeln für den Datenimport steuern, wie Daten aus Ihrem Bucket in das Dateisystem kopiert werden. Sie können maximal 10 Regeln für den Import von Daten pro Dateisystem festlegen. Jede Importdatenregel hat die folgenden Parameter:

**Präfix** — Das S3-Präfix, für das die Regel gilt. Geben Sie eine leere Zeichenfolge („“) für den gesamten Bucket (Dateisystembereich) oder ein bestimmtes Präfix (z. B. „data/ml/“) innerhalb des Dateisystems an. Das Präfix muss mit einem Schrägstrich (/) enden, sofern nicht der gesamte Bucket mit „“ angegeben wird. Sie müssen genau eine Importregel für das Stammverzeichnis angeben. Standard: „“ (gesamter Bucket- oder Dateisystembereich).

**trigger** — Wann Daten importiert werden sollen: ON\$1DIRECTORY\$1FIRST\$1ACCESS oder ON\$1FILE\$1ACCESS. Standard: ON\$1DIRECTORY\$1FIRST\$1ACCESS.
+ **ON\$1DIRECTORY\$1FIRST\$1ACCESS — Dateidaten werden importiert, wenn Sie zum ersten Mal auf ein Verzeichnis zugreifen**. Wenn Sie beispielsweise zum ersten Mal auf ein Verzeichnis zugreifen, indem Sie dessen Inhalt auflisten oder eine darin enthaltene Datei öffnen, werden Daten für alle unmittelbar untergeordneten Dateien in diesem Verzeichnis importiert, die unter dem Schwellenwert liegen. sizeLessThan Diese Option ist nützlich für Workloads, die beim ersten Zugriff auf Dateien eine geringe Latenz erfordern.
+ **ON\$1FILE\$1ACCESS** — Dateidaten werden nur importiert, wenn eine Datei zum ersten Mal gelesen wird. Diese Option minimiert die importierten Daten auf Kosten einer höheren Latenz beim ersten Lesen.

**sizeLessThan**— Maximale Dateigröße (in Byte) für den automatischen Import. S3 Files importiert zwar Metadaten für alle Dateien, importiert jedoch nur Daten für Dateien, die unter diesem Schwellenwert liegen. Minimum: 0 Byte (es werden keine Daten importiert, Metadaten werden trotzdem importiert). Maximum: 52.673.613.135.872 Byte (48 TiB). Standard: 131.072 Byte (128 KB).

### Verhalten beim Präfix-Abgleich
<a name="s3-files-sync-prefix-matching"></a>

Wenn mehrere Importdatenregeln mit einer Datei übereinstimmen, wendet S3 Files die Regel mit dem spezifischsten Präfix an. Nehmen wir zum Beispiel an, Sie haben drei Regeln:
+ Regel 1: Präfix = „“ (ganzer Bucket), sizeLessThan = 64 KB, Trigger = ON\$1FILE\$1ACCESS
+ Regel 2: Präfix = „hot/“, = 1 MB, Trigger = sizeLessThan ON\$1DIRECTORY\$1FIRST\$1ACCESS
+ Regel 3: Präfix = „Hot/LargeData/“, = 256 KB, Auslöser = ON\$1DIRECTORY\$1FIRST\$1ACCESS sizeLessThan 

Für eine Datei unter hot/largeData/data.txt, S3 Files applies Rule 3. For a file at hot/data.txt, S3 Files applies Rule 2. For a file at cold/data .txt wendet S3 Files Regel 1 an, da es keine spezielle Regel für das Präfix cold/ gibt.

## Regeln für Ablaufdaten
<a name="s3-files-sync-expiration-rules"></a>

Regeln für Ablaufdaten steuern, wann ungenutzte Daten aus dem Dateisystem entfernt werden, um die Speicherkosten zu optimieren. S3 Files entfernt Daten, nachdem sie für einen bestimmten Zeitraum nicht gelesen wurden und ihre Änderungen bereits mit dem S3-Bucket synchronisiert wurden. Immer wenn eine Datei gelesen wird, wird ihr Ablauf-Timer zurückgesetzt, wodurch die Zeit verlängert wird, für die Daten im Dateisystem verbleiben. Sie können den folgenden Parameter in den Ablaufdatenregeln angeben:

**daysAfterLastZugriff** — Anzahl der Tage nach dem letzten Lesevorgang, an denen Daten aus dem Dateisystem entfernt wurden. Minimum: 1 Tag. Maximum: 365 Tage. Standard: 30 Tage.

Wenn Sie Workloads mit langer Laufzeit haben, die häufig auf dieselben Daten zugreifen, sollten Sie längere Ablaufzeiträume (30—90 Tage) in Betracht ziehen. Bei temporären Daten sollten Sie kürzere Zeiträume (1—7 Tage) in Betracht ziehen.

## Beispielkonfigurationen
<a name="s3-files-sync-example-configs"></a>

**Allgemeine Dateifreigabe (Standardkonfiguration)** — Ein Team von Entwicklern und Datenwissenschaftlern stellt ein S3-Dateisystem bereit, um Code, Konfigurationsdateien und kleine Datensätze gemeinsam zu nutzen. Die meisten Dateien sind weniger als 128 KB groß und werden im Laufe des Tages wiederholt gelesen. Die Standardkonfiguration eignet sich gut für diese Arbeitslast: ON\$1DIRECTORY\$1FIRST\$1ACCESS importiert Metadaten und kleine Dateidaten, wenn zum ersten Mal auf eine Datei in einem Verzeichnis zugegriffen wird. Dies funktioniert gut, wenn auf Dateien in demselben Verzeichnis wahrscheinlich zusammen zugegriffen wird, z. B. Quelldateien in einem Projekt oder Konfigurationsdateien in einer Bereitstellung. Der anschließende Zugriff durch einen beliebigen Benutzer ist schnell. Wenn ein Benutzer eine große Datei wie ein Protokollarchiv öffnet, streamt S3 Files sie automatisch direkt von S3, um einen hohen Durchsatz zu erzielen. Durch das 30-tägige Ablauffenster bleiben aktiv genutzte Dateien im Dateisystem erhalten, ohne dass sie manuell bereinigt werden müssen.

**ML-Training mit wiederholten Lesevorgängen** — Bei einem Trainingsjob werden Tausende kleiner Dateien (<10 MB) über mehrere Epochen hinweg wiederholt gelesen. Um die Latenz zu minimieren, legen Sie mit ON\$1DIRECTORY\$1FIRST\$1ACCESS einen hohen sizeLessThan Schwellenwert (z. B. 10 MB) fest, sodass die Dateidaten vorab geladen werden, wenn das Trainingsskript jedes Verzeichnis zum ersten Mal auflistet. Legen Sie ein kurzes Ablaufdatum (z. B. 3 Tage) fest, sodass Daten unmittelbar nach Abschluss des Trainingsjobs aus dem Dateisystem entfernt werden.

**Agenten-Workloads mit umfassender Dateierkennung** — Ein KI-Agent durchsucht eine große Sammlung von Dokumenten, Code oder Wissensdatenbankdateien, um Anfragen zu beantworten. Dabei liest er viele kleine Dateien einmal, während er nach relevantem Kontext sucht. Auf 0 sizeLessThan setzen, damit keine Daten in das Dateisystem importiert werden. Der Agent kann den gesamten Verzeichnisbaum mit geringer Latenz durchsuchen, um Dateien zu finden, wobei jede gelesene Datei direkt von S3 aus bereitgestellt wird. Dadurch werden die Kosten für Workloads niedrig gehalten, die unvorhersehbar viele Dateien betreffen, aber selten dieselbe Datei erneut aufrufen, und die Skalierung erfolgt auf natürliche Weise, wenn Sie mehr Agenten hinzufügen, die parallel lesen.

**Heiße und kalte Präfixe** — Ein Dateisystem enthält sowohl häufig aufgerufene Konfigurationsdateien unter als auch selten aufgerufene Archivdaten unter`config/`. `archive/` Erstellen Sie zwei Importregeln: eine für einen hohen Wert sizeLessThan und ON\$1DIRECTORY\$1FIRST\$1ACCESS und eine für Importregeln `config/` mit dem Wert 0 und ON\$1FILE\$1ACCESS. `archive/` sizeLessThan Dadurch bleiben die Konfigurationsdateien für einen schnellen Zugriff im Dateisystem und vermeiden gleichzeitig Speicherkosten für Archivdaten, die selten gelesen werden.

# Überwachung und Prüfung von S3-Dateien
<a name="s3-files-monitoring-logging"></a>

S3 Files lässt sich in die folgenden AWS Dienste integrieren, um Sie bei der Überwachung Ihrer Dateisysteme zu unterstützen:

**Amazon CloudWatch**  
Standardmäßig werden Metrikdaten von S3 Files automatisch CloudWatch in Abständen von 1 Minute gesendet, sofern für einzelne Messwerte nichts anderes angegeben ist. Sie können auch eine einzelne Metrik über einen von Ihnen angegebenen Zeitraum beobachten und eine oder mehrere Aktionen ausführen, die auf dem Wert der Metrik im Verhältnis zu einem bestimmten Schwellenwert über mehrere Zeiträume basieren. Bei der Aktion handelt es sich um eine Benachrichtigung, die an ein Amazon-Simple-Notification-Service (Amazon-SNS)-Thema oder eine Amazon-EC2-Auto-Scaling-Richtlinie gesendet wird.  
Weitere Informationen finden Sie unter [Überwachung von S3-Dateien mit Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

**CloudTrail**  
CloudTrail erfasst API-Aufrufe und zugehörige Ereignisse, die von oder im Namen Ihres AWS Kontos getätigt wurden, und übermittelt Protokolldateien an einen von Ihnen angegebenen Amazon S3 S3-Bucket. S3 Files protokolliert Verwaltungsereignisse wie das Erstellen von Dateisystemen, das Erstellen von Mount-Zielen und das Mounten von Dateisystemen in Compute-Instances. S3 Files protokolliert keine Datenereignisse wie Lese- und Schreibvorgänge von Dateien.  
Weitere Informationen finden Sie unter [Loggen mit CloudTrail für S3-Dateien](s3-files-logging-cloudtrail.md).

**Topics**
+ [

# Überwachung von S3-Dateien mit Amazon CloudWatch
](s3-files-monitoring-cloudwatch.md)
+ [

# Loggen mit CloudTrail für S3-Dateien
](s3-files-logging-cloudtrail.md)

# Überwachung von S3-Dateien mit Amazon CloudWatch
<a name="s3-files-monitoring-cloudwatch"></a>

Sie können die Dateisysteme von S3 Files mithilfe von [Amazon](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) überwachen CloudWatch, das Rohdaten aus Amazon S3 Files sammelt und zu lesbaren Metriken verarbeitet. Diese Kennzahlen werden 15 Monate lang aufbewahrt, sodass Sie auf historische Informationen zugreifen und sich einen besseren Überblick über die Leistung Ihrer Dateisysteme verschaffen können.

Metrikdaten von S3 Files werden automatisch an gesendet CloudWatch. Die meisten Messwerte werden in Intervallen von einer Minute gesendet, während Speichermetriken alle 15 Minuten gesendet werden. Sie können [CloudWatchAlarme](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch_Alarms.html) erstellen, die Benachrichtigungen senden, wenn eine Metrik einen von Ihnen angegebenen Schwellenwert überschreitet. Sie können auch CloudWatch Dashboards verwenden. Dabei handelt es sich um anpassbare Homepages in der CloudWatch Konsole, mit denen Sie Ihre Ressourcen in einer einzigen Ansicht überwachen können. Weitere Informationen finden Sie unter [Ein benutzerdefiniertes CloudWatch Dashboard erstellen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/create_dashboard.html).

## CloudWatch Metriken für S3-Dateien
<a name="s3-files-monitoring-cloudwatch-metrics"></a>

Die Metriken von S3 Files verwenden den `AWS/S3Files` Namespace. Alle Metriken werden für eine einzelne Dimension `FileSystemId` gemeldet. Der `AWS/S3Files`-Namespace enthält die folgenden Metriken:


| Metrik | Description | Einheiten und gültige Statistiken | 
| --- | --- | --- | 
| StorageBytes | Die Gesamtgröße des Dateisystems in Byte, einschließlich Daten und Metadaten. Diese Metrik wird CloudWatch alle 15 Minuten ausgegeben. | Einheiten: Byte. Minimum, Maximum, Durchschnitt | 
| Inodes | Die Gesamtzahl der Inodes (wie Dateien, Verzeichnisse, Symlinks) in einem S3 Files-Dateisystem. Diese Metrik wird CloudWatch alle 15 Minuten ausgegeben. | Einheiten: Anzahl. Summe | 
| PendingExports | Die Gesamtzahl der Dateien und Verzeichnisse, deren Export in den S3-Bucket aussteht. | Einheiten: Anzahl. Summe | 
| ImportFailures | Die Gesamtzahl der Objekte, die nach Wiederholungsversuchen nicht in das Dateisystem importiert werden konnten (z. B. falsche IAM-Berechtigungen). | Einheiten: Anzahl. Summe | 
| ExportFailures | Gesamtzahl der Dateien und Verzeichnisse, bei denen der Export fehlgeschlagen ist und die nicht erneut versucht werden. Diese Metrik hilft Ihnen dabei, Fehler beim Terminal-Export zu identifizieren, sodass Sie Fehler beheben und Maßnahmen ergreifen können (z. B. die Aktualisierung der IAM-Berechtigungen). | Einheiten: Anzahl. Summe | 
| DataReadBytes | Die Anzahl der aus dem Dateisystem gelesenen Byte. SampleCountgibt die Anzahl der Datenleseoperationen an. Sie können den Durchsatz beim Lesen von Daten berechnen, indem Sie sich diese Metrik pro Zeiteinheit anzeigen lassen. | Einheiten: Byte (Minimum, Maximum, Durchschnitt, Summe), Anzahl (SampleCount) | 
| DataWriteBytes | Die Anzahl der in das Dateisystem geschriebenen Byte. SampleCountgibt die Anzahl der Datenschreiboperationen an. Sie können den Durchsatz beim Schreiben von Daten berechnen, indem Sie sich diese Metrik pro Zeiteinheit ansehen. | Einheiten: Byte (Minimum, Maximum, Durchschnitt, Summe), Anzahl (SampleCount) | 
| MetadataReadBytes | Die Anzahl der aus dem Dateisystem gelesenen Metadaten-Bytes. SampleCountgibt die Anzahl der Leseoperationen für Metadaten an. | Einheiten: Byte (Minimum, Maximum, Durchschnitt, Summe), Anzahl (SampleCount) | 
| MetadataWriteBytes | Die Anzahl der in das Dateisystem geschriebenen Metadaten-Bytes. SampleCountgibt die Anzahl der Schreiboperationen für Metadaten an. | Einheiten: Byte (Minimum, Maximum, Durchschnitt, Summe), Anzahl (SampleCount) | 
| LostAndFoundFiles | Gesamtzahl der Dateien im Verzeichnis Lost and Found. Das Verzeichnis Lost and Found befindet sich im Stammverzeichnis Ihres Dateisystems unter dem Namen.s3files-lost\$1found-file-system-id. Dateien im Verzeichnis Lost and Found werden nicht in Ihren S3-Bucket kopiert. Wenn ein Konflikt aufgrund gleichzeitiger Änderungen an denselben Daten sowohl im Dateisystem als auch im S3-Bucket auftritt, behandelt S3 Files den S3-Bucket als Quelle der Wahrheit und verschiebt die Datei, die den Konflikt verursacht, in ein Lost-and-Found-Verzeichnis. | Einheiten: Anzahl. Summe | 
| ClientConnections | Die Anzahl der aktiven Client-Verbindungen zu einem Dateisystem. | Einheiten: Anzahl. Summe | 

## Metriken zur Client-Konnektivität
<a name="s3-files-monitoring-cloudwatch-client-metrics"></a>

S3-Dateien können die Leseleistung optimieren, indem Clients Dateidaten direkt aus dem verknüpften S3-Bucket lesen können. Um dies zu unterstützen, sendet der S3 Files-Client Konnektivitätsmetriken aus, die überwachen, ob der Client die erforderlichen Verbindungen herstellen kann.

Diese Metriken werden vom S3 Files-Client (amazon-efs-utils) ausgegeben und im `efs-utils/S3Files` CloudWatch Namespace veröffentlicht. Die Ausgabe von Metriken ist standardmäßig als Teil der S3 Files-Erfahrung aktiviert.


| Metrik | Description | Einheiten und gültige Statistiken | 
| --- | --- | --- | 
| NFSConnectionAccessible | Gibt an, ob der Client über den NFS-Mount eine Verbindung zum Dateisystem herstellen kann. Ein Wert von 1 bedeutet, dass auf die Verbindung zugegriffen werden kann. Ein Wert von 0 bedeutet, dass auf die Verbindung nicht zugegriffen werden kann. | Einheiten: Keine. Minimum, Maximum, Durchschnitt | 
| S3BucketAccessible | Gibt an, ob der Client über die erforderlichen Berechtigungen zum Lesen von Daten aus dem verknüpften S3-Bucket verfügt. Ein Wert von 1 bedeutet, dass der Client über die erforderlichen Berechtigungen verfügt. Ein Wert von 0 bedeutet, dass der Client nicht über die erforderlichen Berechtigungen verfügt. | Einheiten: Keine. Minimum, Maximum, Durchschnitt | 
| S3BucketReachable | Gibt an, ob der verknüpfte S3-Bucket und das Präfix existieren und vom Client aus erreichbar sind. Ein Wert von 1 bedeutet, dass der Bucket und das Präfix erreichbar sind. Ein Wert von 0 bedeutet, dass der Bucket oder das Präfix nicht erreichbar ist. | Einheiten: Keine. Minimum, Maximum, Durchschnitt | 

## Zugriff auf CloudWatch Metriken
<a name="s3-files-monitoring-cloudwatch-access"></a>

Sie können S3 Files-Metriken über die CloudWatch Konsole, die AWS CLI oder die CloudWatch API anzeigen.

### Um Metriken mit der CloudWatch Konsole anzuzeigen
<a name="s3-files-monitoring-cloudwatch-access-console"></a>

1. Öffnen Sie die CloudWatch Konsole unter [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. Wählen Sie im Navigationsbereich **Metriken** und dann **Alle Metriken** aus.

1. Wählen Sie den **S3Files-Namespace.**

1. Wählen Sie **Dateisystem-Metriken**.

1. Wählen Sie die Metriken aus, die Sie sich ansehen möchten.

1. Wählen Sie die Registerkarte **Graphische Metriken**, um die Diagrammanzeige zu konfigurieren.

### So zeigen Sie Metriken mit der AWS CLI an
<a name="s3-files-monitoring-cloudwatch-access-cli"></a>

Verwenden Sie den Befehl `get-metric-statistics`. Zum Beispiel, um Folgendes anzuzeigen`DataReadBytes`:

```
aws cloudwatch get-metric-statistics \
  --namespace AWS/S3Files \
  --metric-name DataReadBytes \
  --dimensions Name=FileSystemId,Value=file-system-id \
  --start-time 2025-01-20T00:00:00Z \
  --end-time 2025-01-20T23:59:59Z \
  --period 3600 \
  --statistics Sum
```

# Loggen mit CloudTrail für S3-Dateien
<a name="s3-files-logging-cloudtrail"></a>

Amazon S3 Files ist in einen Service integriert CloudTrail, der eine Aufzeichnung der Aktionen eines Benutzers, einer Rolle oder eines AWS Dienstes in S3 Files bereitstellt. CloudTrail erfasst alle API-Aufrufe für S3-Dateien als Ereignisse, einschließlich Aufrufe von der S3 Files-Konsole und Codeaufrufen für die S3-Files-API-Operationen.

Wenn Sie einen Trail erstellen, können Sie die kontinuierliche Übermittlung von CloudTrail Ereignissen an einen Amazon S3 S3-Bucket aktivieren, einschließlich Ereignissen für S3-Dateien. Wenn Sie keinen Trail konfigurieren, können Sie die neuesten Ereignisse trotzdem in der CloudTrail Konsole im **Ereignisverlauf** anzeigen. Anhand der von CloudTrail gesammelten Informationen können Sie die Anfrage an S3 Files, die IP-Adresse, von der aus die Anfrage gestellt wurde, wer die Anfrage gestellt hat, wann sie gestellt wurde, und weitere Details ermitteln.

## S3 Files-Informationen in CloudTrail
<a name="s3-files-logging-cloudtrail-info"></a>

CloudTrail ist in Ihrem AWS Konto aktiviert, wenn Sie das Konto erstellen. Wenn Aktivitäten in Amazon S3 S3-Dateien auftreten, wird diese Aktivität zusammen mit anderen AWS Serviceereignissen in der CloudTrail **Ereignishistorie in einem Ereignis** aufgezeichnet. Sie können aktuelle Ereignisse in Ihrem AWS Konto ansehen, suchen und herunterladen. Weitere Informationen finden Sie im *CloudTrail Benutzerhandbuch* unter [Ereignisse mit CloudTrail Ereignisverlauf anzeigen](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html).

Für eine fortlaufende Aufzeichnung der Ereignisse in Ihrem AWS Konto, einschließlich Ereignissen für S3 Files, erstellen Sie einen Trail. Ein Trail ermöglicht CloudTrail die Übermittlung von Protokolldateien an einen Amazon S3 S3-Bucket. Wenn Sie einen Trail in der Konsole erstellen, gilt der Trail standardmäßig für alle AWS Regionen. Der Trail protokolliert Ereignisse aus allen Regionen der AWS Partition und übermittelt die Protokolldateien an den von Ihnen angegebenen Amazon S3 S3-Bucket. Darüber hinaus können Sie andere AWS Dienste konfigurieren, um die in den CloudTrail Protokollen gesammelten Ereignisdaten weiter zu analysieren und darauf zu reagieren.

Weitere Informationen finden Sie in folgenden Themen im *CloudTrail -Benutzerhandbuch*:
+ [Einen Trail für dein AWS Konto erstellen](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [AWS Serviceintegrationen mit Protokollen CloudTrail ](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html)
+ [Konfiguration von Amazon SNS SNS-Benachrichtigungen für CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/configure-sns-notifications-for-cloudtrail.html)
+ [Empfangen von CloudTrail Protokolldateien aus mehreren Regionen](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) und [Empfangen von CloudTrail Protokolldateien von mehreren Konten](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html)

Alle [S3-Dateien APIs](https://docs.aws.amazon.com/AmazonS3/latest/API/API_Operations_Amazon_S3_Files.html) werden von protokolliert CloudTrail. Beispielsweise generieren Aufrufe von `CreateMountTarget` und `TagResource` Operationen Einträge in den CloudTrail Protokolldateien. `CreateFileSystem` S3 Files generiert auch CloudTrail Protokolle, wenn Sie Ihr Dateisystem auf einer Rechenressource mounten.

Jeder Ereignis- oder Protokolleintrag enthält Informationen zu dem Benutzer, der die Anforderung generiert hat. Die Identitätsinformationen unterstützen Sie bei der Ermittlung der folgenden Punkte:
+ Ob die Anfrage mit Anmeldeinformationen des Stammbenutzers oder des IAM-Benutzers gestellt wurde.
+ Gibt an, ob die Anforderung mit temporären Sicherheitsanmeldeinformationen für eine Rolle oder einen Verbundbenutzer gesendet wurde.
+ Gibt an, ob die Anforderung aus einem anderen AWS -Service gesendet wurde

*Weitere Informationen finden Sie unter [CloudTrail UserIdentity-Element](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html) im CloudTrail Benutzerhandbuch.*

S3 Files protokolliert keine Datenereignisse. Zu den Datenereignissen gehören Lese- und Schreibvorgänge für Dateien, die im Dateisystem ausgeführt werden.

## Grundlegendes zu Protokolldateieinträgen in S3-Dateien
<a name="s3-files-logging-cloudtrail-entries"></a>

Ein Trail ist eine Konfiguration, die die Übertragung von Ereignissen als Protokolldateien an einen von Ihnen angegebenen Amazon S3 S3-Bucket ermöglicht. CloudTrail Protokolldateien enthalten einen oder mehrere Protokolleinträge. Ein Ereignis stellt eine einzelne Anforderung aus einer beliebigen Quelle dar und enthält Informationen über die angeforderte Aktion, Datum und Uhrzeit der Aktion, Anforderungsparameter usw. CloudTrail Protokolldateien sind kein geordneter Stack-Trace der öffentlichen API-Aufrufe, sodass sie nicht in einer bestimmten Reihenfolge angezeigt werden.

### Beispiel: CreateFileSystem
<a name="s3-files-logging-cloudtrail-example-createfs"></a>

Das folgende Beispiel zeigt einen CloudTrail Protokolleintrag, der die `CreateFileSystem` Aktion demonstriert:

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "111122223333",
        "arn": "arn:aws:sts::111122223333:assumed-role/myRole/i-0123456789abcdef0",
        "accountId": "111122223333",
        "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "111122223333",
                "arn": "arn:aws:iam::111122223333:role/myRole",
                "accountId": "111122223333",
                "userName": "myRole"
            },
            "attributes": {
                "creationDate": "2026-03-20T12:58:28Z",
                "mfaAuthenticated": "false"
            },
            "ec2RoleDelivery": "2.0"
        }
    },
    "eventTime": "2026-03-20T17:43:19Z",
    "eventSource": "s3files.amazonaws.com",
    "eventName": "CreateFileSystem",
    "awsRegion": "us-west-2",
    "sourceIPAddress": "192.0.2.0",
    "userAgent": "aws-cli/2.0",
    "requestParameters": {
        "bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
        "prefix": "images/",
        "clientToken": "myClientToken",
        "roleArn": "arn:aws:iam::111122223333:role/myS3FilesRole"
    },
    "responseElements": {
        "creationTime": "Mar 20, 2026, 5:43:19 PM",
        "fileSystemArn": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0",
        "fileSystemId": "fs-abcd123456789ef0",
        "bucket": "arn:aws:s3:::amzn-s3-demo-bucket",
        "prefix": "images/",
        "clientToken": "myClientToken",
        "status": "creating",
        "roleArn": "arn:aws:iam::111122223333:role/myS3FilesRole",
        "ownerId": "111122223333",
        "tags": []
    },
    "requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
    "eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
    "readOnly": false,
    "resources": [
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::FileSystem",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0"
        }
    ],
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "111122223333",
    "eventCategory": "Management",
    "tlsDetails": {
        "tlsVersion": "TLSv1.3",
        "cipherSuite": "TLS_AES_128_GCM_SHA256",
        "clientProvidedHostHeader": "s3files.us-west-2.api.aws"
    }
}
```

### Beispiel: CreateMountTarget
<a name="s3-files-logging-cloudtrail-example-createmt"></a>

Das folgende Beispiel zeigt einen CloudTrail Protokolleintrag für die `CreateMountTarget` Aktion:

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "111122223333",
        "arn": "arn:aws:sts::111122223333:assumed-role/myRole/i-0123456789abcdef0",
        "accountId": "111122223333",
        "accessKeyId": "AKIAIOSFODNN7EXAMPLE",
        "sessionContext": {
            "sessionIssuer": {
                "type": "Role",
                "principalId": "111122223333",
                "arn": "arn:aws:iam::111122223333:role/myRole",
                "accountId": "111122223333",
                "userName": "myRole"
            },
            "attributes": {
                "creationDate": "2026-03-20T13:09:56Z",
                "mfaAuthenticated": "false"
            },
            "ec2RoleDelivery": "2.0"
        }
    },
    "eventTime": "2026-03-20T18:05:14Z",
    "eventSource": "s3files.amazonaws.com",
    "eventName": "CreateMountTarget",
    "awsRegion": "us-west-2",
    "sourceIPAddress": "192.0.2.0",
    "userAgent": "aws-cli/2.0",
    "requestParameters": {
        "fileSystemId": "fs-abcd123456789ef0",
        "subnetId": "subnet-01234567890abcdef",
        "securityGroups": [
            "sg-c16d65b6"
        ]
    },
    "responseElements": {
        "availabilityZoneId": "usw2-az2",
        "ownerId": "111122223333",
        "mountTargetId": "fsmt-1234567",
        "fileSystemId": "fs-abcd123456789ef0",
        "subnetId": "subnet-01234567890abcdef",
        "ipv4Address": "192.0.2.0",
        "ipv6Address": "2001:db8::1",
        "networkInterfaceId": "eni-0123456789abcdef0",
        "vpcId": "vpc-01234567",
        "securityGroups": [
            "sg-c16d65b6"
        ],
        "status": "creating"
    },
    "requestID": "dEXAMPLE-feb4-11e6-85f0-736EXAMPLE75",
    "eventID": "eEXAMPLE-2d32-4619-bd00-657EXAMPLEe4",
    "readOnly": false,
    "resources": [
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::FileSystem",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:file-system/fs-abcd123456789ef0"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::S3Files::MountTarget",
            "ARN": "arn:aws:s3files:us-west-2:111122223333:mount-target/fsmt-1234567"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::EC2::Subnet",
            "ARN": "arn:aws:ec2:us-west-2:111122223333:subnet/subnet-01234567890abcdef"
        },
        {
            "accountId": "111122223333",
            "type": "AWS::EC2::NetworkInterface",
            "ARN": "arn:aws:ec2:us-west-2:111122223333:network-interface/eni-0123456789abcdef0"
        }
    ],
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "111122223333",
    "eventCategory": "Management",
    "tlsDetails": {
        "tlsVersion": "TLSv1.3",
        "cipherSuite": "TLS_AES_128_GCM_SHA256",
        "clientProvidedHostHeader": "s3files.us-west-2.api.aws"
    }
}
```

# Leistungsspezifikationen
<a name="s3-files-performance"></a>

S3 Files passt Durchsatz und IOPS automatisch an Ihre Arbeitslast an, ohne dass Sie Kapazitäten bereitstellen oder verwalten müssen. Auf dieser Seite werden die Leistungsmerkmale von S3 Files beschrieben.

## Zusammenfassung der Leistung
<a name="s3-files-performance-summary"></a>


|  |  | 
| --- |--- |
| Aggregierter Lesedurchsatz pro Dateisystem | Bis zu Terabyte pro Sekunde | 
| Aggregierter Schreibdurchsatz pro Dateisystem | 1—5 GiB/s | 
| Maximale Lese-IOPS pro S3-Bucket mit S3-Dateien | Keine Begrenzung (mehrere Dateisysteme an denselben Bucket anhängen) | 
| Maximale Schreib-IOPS pro S3-Bucket mit S3-Dateien | Keine Begrenzung (mehrere Dateisysteme an denselben Bucket anhängen) | 
| Maximale Lese-IOPS pro Dateisystem | 250 000 | 
| Maximale Schreib-IOPS pro Dateisystem | 50 000 | 
| Maximaler Lesedurchsatz pro Client | 3 GiB/s | 

## Wie S3 Files Leistung bietet
<a name="s3-files-performance-how"></a>

S3 Files stellt Daten aus zwei Speicherebenen bereit und leitet jeden Vorgang automatisch an die dafür am besten geeignete Stufe weiter.

**Hochleistungsspeicher — Die Speicherebene** mit niedriger Latenz innerhalb Ihres Dateisystems, auf der sich aktiv genutzte Dateidaten und Metadaten befinden. S3 Files verwaltet diesen Speicher automatisch, kopiert Daten darauf, wenn Sie auf Dateien zugreifen, und entfernt Daten, die nicht innerhalb eines konfigurierbaren Ablauffensters gelesen wurden. Sie zahlen eine Speichergebühr für Daten, die sich auf dem Hochleistungsspeicher befinden.

**Direkt von S3** — Große Lesevorgänge (128 KB oder mehr) von Daten, die bereits mit S3 synchronisiert wurden, und Lesevorgänge von Daten, die sich nicht im Dateisystem befinden, werden direkt aus Ihrem S3-Bucket ausgeführt. Diese Stufe bietet einen hohen Durchsatz für sequentielle Lesevorgänge und eignet sich daher gut für Analysen, Medienverarbeitung und andere Streaming-Workloads.

Da S3 Files dieses zweistufige Modell automatisch anwendet, müssen Sie sich nicht zwischen Latenz und Durchsatz entscheiden. Workloads mit kleinen Dateien erhöhen die Leistung des Dateisystems. Workloads mit großen Dateien erzielen einen S3-Durchsatz. Bei gemischten Workloads wird beides erreicht.

## Leistung lesen
<a name="s3-files-performance-read"></a>

Der Lesedurchsatz skaliert mit der Anzahl der verbundenen Recheninstanzen und dem Grad der Parallelität innerhalb jeder Instanz. Der maximale Lesedurchsatz pro Client beträgt 3 GiB/s. S3 Files unterstützt einen aggregierten Lesedurchsatz von bis zu Terabyte pro Sekunde und bis zu 250.000 Lese-IOPS pro Dateisystem.

## Leistung beim Schreiben
<a name="s3-files-performance-write"></a>

Schreibvorgänge werden in den Hochleistungsspeicher übertragen und sind sofort haltbar. Je nach Region unterstützt S3 Files einen aggregierten Schreibdurchsatz GiB/s von 1—5 und bis zu 50.000 Schreib-IOPS pro Dateisystem. Die Schreibleistung skaliert elastisch mit der Workload-Aktivität.

Wenn Sie eine Datei im Dateisystem ändern, wartet S3 Files etwa 60 Sekunden und fasst alle in diesem Zeitraum aufeinanderfolgenden Änderungen an der Datei zusammen, bevor sie in Ihren S3-Bucket kopiert werden. Das bedeutet, dass schnelle aufeinanderfolgende Schreibvorgänge in dieselbe Datei in einer einzigen S3-PUT-Anforderung erfasst werden, anstatt für jede einzelne Änderung eine neue Objektversion zu generieren, wodurch Ihre S3-Anforderungs- und Speicherkosten reduziert werden. Wenn Sie die Datei weiter ändern, nachdem S3 Files Ihre Änderungen zurück in den S3-Bucket kopiert hat, werden nachfolgende Änderungen nach Bedarf kopiert.

## Latenz beim ersten Zugriff
<a name="s3-files-performance-first-access"></a>

Wenn Sie zum ersten Mal auf ein Verzeichnis zugreifen, importiert S3 Files Metadaten für alle Dateien in diesem Verzeichnis und, abhängig von Ihrer Importkonfiguration, Daten für kleine Dateien. Ihr erster Zugriff dauert also länger als nachfolgende Operationen. Nach dem Import kehren alle nachfolgenden Verzeichnislisten und Dateizugriffe mit geringer Latenz zurück.

## Leistung der Synchronisation
<a name="s3-files-performance-sync"></a>

S3 Files synchronisiert Änderungen zwischen Ihrem Dateisystem und dem S3-Bucket im Hintergrund.

**Änderungen aus S3 importieren** — Wenn eine andere Anwendung ein Objekt in Ihrem S3-Bucket hinzufügt oder ändert, spiegelt S3 Files die Änderung in Ihrem Dateisystem in der Regel innerhalb von Sekunden wider. S3 Files verarbeitet bis zu 2.400 Objektänderungen pro Sekunde und Dateisystem mit einem Importdatendurchsatz von bis zu 700 Megabyte pro Sekunde.

**Exportieren von Änderungen nach S3** — Wenn Sie eine Datei über das Dateisystem schreiben, stapelt S3 Files Ihre Änderungen für etwa 60 Sekunden, um schnelle aufeinanderfolgende Schreibvorgänge in einer einzigen S3-Objektversion zu konsolidieren und so die Kosten für Ihre S3-Anfrage und Speicherversion zu reduzieren. Nach Ablauf des Batching-Fensters kopiert S3 Files die Datei in Ihren S3-Bucket. S3 Files exportiert bis zu 800 Dateien pro Sekunde pro Dateisystem mit einem Exportdatendurchsatz von bis zu 2.700 Megabyte pro Sekunde.


| Metrik für den Betrieb | Wert | Einheit | 
| --- | --- | --- | 
| Aus dem S3-Bucket IOPS importieren | 2.400 | Objekte pro Sekunde pro Dateisystem | 
| Durchsatz aus dem S3-Bucket importieren | 700 | Megabyte pro Sekunde | 
| Exportieren Sie in den S3-Bucket IOPS | 800 | Dateien pro Sekunde pro Dateisystem | 
| Durchsatz für den Export in den S3-Bucket | 2.700 | Megabyte pro Sekunde | 

Amazon S3 verwendet eine flache Speicherstruktur, in der Objekte anhand ihrer Schlüsselnamen identifiziert werden. Mit S3 Files können Sie Ihre Daten zwar in Verzeichnissen organisieren, aber in S3 gibt es kein systemeigenes Konzept von Verzeichnissen. Was in Ihrem Dateisystem als Verzeichnis angezeigt wird, ist ein gemeinsames Präfix, das von den Schlüsseln der Objekte innerhalb des S3-Buckets gemeinsam genutzt wird. Darüber hinaus sind S3-Objekte unveränderlich und unterstützen keine atomaren Umbenennungen. Wenn Sie eine Datei umbenennen oder verschieben, muss S3 Files daher die Daten mit dem aktualisierten Schlüssel in ein neues Objekt schreiben und das Original löschen. Wenn Sie ein Verzeichnis umbenennen oder verschieben, muss S3 Files diesen Vorgang für jedes Objekt wiederholen, das dieses Präfix verwendet. Wenn Sie also ein Verzeichnis mit zig Millionen Dateien umbenennen oder verschieben, erhöhen sich die Kosten für Ihre S3-Anfrage und die Synchronisierungszeit erheblich. Es dauert ein paar Minuten, bis eine Verzeichnisumbenennung von 100.000 Dateien vollständig im S3-Bucket übernommen wird. Die Umbenennung erfolgt jedoch sofort im Dateisystem. Weitere Informationen finden Sie unter [Die Auswirkungen von Umbenennungs- und Verschiebevorgängen verstehen](s3-files-synchronization.md#s3-files-sync-rename-move).

Wenn Ihr Workload Änderungen schneller generiert als die Synchronisierungsrate, stellt S3 Files die Änderungen in eine Warteschlange und verarbeitet sie der Reihe nach. Mithilfe der `PendingExports` CloudWatch Metrik können Sie die Anzahl der ausstehenden Exporte überwachen. Weitere Informationen finden Sie unter [Überwachung von S3-Dateien mit Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

## Überwachen der Leistung
<a name="s3-files-performance-monitoring"></a>

Sie können die Leistung Ihres Dateisystems mit Amazon überwachen CloudWatch. S3 Files veröffentlicht Metriken wie`DataReadBytes`,`DataWriteBytes`, und `MetadataReadBytes``MetadataWriteBytes`, mit denen Sie den Durchsatz und die IOPS im Laufe der Zeit verfolgen können. Weitere Informationen finden Sie unter [Überwachung von S3-Dateien mit Amazon CloudWatch](s3-files-monitoring-cloudwatch.md).

# Sicherheit für S3-Dateien
<a name="s3-files-security"></a>

Cloud-Sicherheit AWS hat höchste Priorität. Als AWS Kunde profitieren Sie von einer Rechenzentrums- und Netzwerkarchitektur, die darauf ausgelegt sind, die Anforderungen der sicherheitssensibelsten Unternehmen zu erfüllen.

Sicherheit ist eine gemeinsame Verantwortung von Ihnen AWS und Ihnen. Das [Modell der geteilten Verantwortung](https://aws.amazon.com/compliance/shared-responsibility-model/) beschreibt dies als Sicherheit *der* Cloud und Sicherheit *in* der Cloud:

**Sicherheit der Cloud**  
AWS ist verantwortlich für den Schutz der Infrastruktur, auf der AWS Dienste in der ausgeführt AWS Cloud werden. AWS bietet Ihnen auch Dienste, die Sie sicher nutzen können. Auditoren von Drittanbietern testen und überprüfen die Effektivität unserer Sicherheitsmaßnahmen im Rahmen der [AWS -Compliance-Programme](https://aws.amazon.com/compliance/programs/) regelmäßig. Weitere Informationen zu den Compliance-Programmen, die für Amazon S3 S3-Dateien gelten, finden Sie unter [AWS Services in Scope by Compliance Program](https://aws.amazon.com/compliance/services-in-scope/).

**Sicherheit in der Cloud**  
Ihre Verantwortung richtet sich nach dem AWS Service, den Sie nutzen. Sie sind auch für andere Faktoren verantwortlich, einschließlich der Vertraulichkeit Ihrer Daten, für die Anforderungen Ihres Unternehmens und für die geltenden Gesetze und Vorschriften.

Diese Dokumentation hilft Ihnen zu verstehen, wie Sie das Modell der gemeinsamen Verantwortung bei der Verwendung von Amazon S3 Files anwenden können.

## Datenschutz
<a name="s3-files-security-data-protection"></a>

Das [Modell der AWS gemeinsamen Verantwortung](https://aws.amazon.com/compliance/shared-responsibility-model/) gilt für den Datenschutz in S3 Files. Wie in diesem Modell beschrieben, AWS ist verantwortlich für den Schutz der globalen Infrastruktur, auf der alle Systeme ausgeführt AWS Cloud werden. Sie sind dafür verantwortlich, die Kontrolle über Ihre in dieser Infrastruktur gehosteten Inhalte zu behalten. Sie sind auch für die Sicherheitskonfiguration und die Verwaltungsaufgaben der von Ihnen verwendeten AWS Dienste verantwortlich. Weitere Informationen zum Datenschutz finden Sie unter [Häufig gestellte Fragen zum Datenschutz](https://aws.amazon.com/compliance/data-privacy-faq). Informationen zum Datenschutz in Europa finden Sie im Blog-Beitrag [AWS](https://aws.amazon.com/blogs/security/the-aws-shared-responsibility-model-and-gdpr/)-Modell der geteilten Verantwortung und die GDPR*AWS im Blog zur *-Sicherheit.

Aus Datenschutzgründen empfehlen wir, die AWS Kontoanmeldeinformationen zu schützen und einzelne Benutzer mit AWS IAM Identity Center oder AWS Identity and Access Management (IAM) einzurichten. So erhält jeder Benutzer nur die Berechtigungen, die zum Durchführen seiner Aufgaben erforderlich sind. Außerdem empfehlen wir, die Daten mit folgenden Methoden schützen:
+ Verwenden Sie für jedes Konto die Multi-Faktor-Authentifizierung (MFA).
+ Wird für SSL/TLS die Kommunikation mit AWS Ressourcen verwendet. Wir benötigen TLS 1.2 und empfehlen TLS 1.3.
+ Richten Sie die API und die Protokollierung von Benutzeraktivitäten mit ein AWS CloudTrail. Informationen zur Verwendung von CloudTrail Pfaden zur Erfassung von AWS Aktivitäten finden Sie unter [Arbeiten mit CloudTrail Pfaden](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-trails.html) im *AWS CloudTrail Benutzerhandbuch*.
+ Verwenden Sie AWS Verschlüsselungslösungen zusammen mit allen Standardsicherheitskontrollen innerhalb der AWS Dienste.
+ Verwenden Sie erweiterte verwaltete Sicherheitsservices wie Amazon Macie, die dabei helfen, in Amazon S3 gespeicherte persönliche Daten zu erkennen und zu schützen.
+ Wenn Sie für den Zugriff AWS über eine Befehlszeilenschnittstelle oder eine API FIPS 140-3-validierte kryptografische Module benötigen, verwenden Sie einen FIPS-Endpunkt. Weitere Informationen über verfügbare FIPS-Endpunkte finden Sie unter [Federal Information Processing Standard (FIPS) 140-3](https://aws.amazon.com/compliance/fips/).

Wir empfehlen dringend, in Freitextfeldern, z. B. im Feld **Name**, keine vertraulichen oder sensiblen Informationen wie die E-Mail-Adressen Ihrer Kunden einzugeben. Dies gilt auch, wenn Sie mit S3-Dateien oder anderen AWS Diensten über die Konsole, API, AWS CLI oder arbeiten AWS SDKs. Alle Daten, die Sie in Tags oder Freitextfelder eingeben, die für Namen verwendet werden, können für Abrechnungs- oder Diagnoseprotokolle verwendet werden. Wenn Sie eine URL für einen externen Server bereitstellen, empfehlen wir dringend, keine Anmeldeinformationen zur Validierung Ihrer Anforderung an den betreffenden Server in die URL einzuschließen.

**Topics**
+ [

## Datenschutz
](#s3-files-security-data-protection)
+ [

# Verschlüsselung
](s3-files-encryption.md)
+ [

# So funktioniert S3 Files mit IAM
](s3-files-security-iam.md)

# Verschlüsselung
<a name="s3-files-encryption"></a>

S3 Files bietet umfassende Verschlüsselungsfunktionen, um Ihre Daten sowohl im Speicher als auch bei der Übertragung zu schützen.

## Verschlüsselung im Ruhezustand
<a name="s3-files-encryption-at-rest"></a>

Ihr S3-Bucket wird mithilfe der Verschlüsselungsmechanismen von Amazon S3 verschlüsselt. Informationen zur Verschlüsselung von Daten in S3 finden Sie unter [Daten durch Verschlüsselung schützen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingEncryption.html).

S3 Files verschlüsselt ruhende Daten im S3-Dateisystem mithilfe serverseitiger Verschlüsselung. Serverseitige Verschlüsselung ist die Verschlüsselung von Daten am Zielort durch die Anwendung oder den Service, der sie erhält. In S3-Dateisystemen werden Daten und Metadaten standardmäßig verschlüsselt, bevor sie in den Speicher geschrieben werden, und beim Lesen automatisch entschlüsselt. Diese Prozesse werden von S3 Files transparent abgewickelt, sodass Sie Ihre Anwendungen nicht ändern müssen. Alle Daten, die sich im Dateisystem befinden, werden mithilfe von AWS Key Management Service (KMS) -Schlüsseln mit einer der folgenden Methoden verschlüsselt:
+ (Standard) Serverseitige Verschlüsselung mit AWS eigenen KMS-Schlüsseln (SSE-KMS)
+ Serverseitige Verschlüsselung mit vom Kunden verwalteten KMS-Schlüsseln (SSE-KMS-CMK)

Für die Verwendung von KMS-Schlüsseln fallen zusätzliche Gebühren an. AWS Weitere Informationen finden Sie unter [Schlüsselkonzepte von AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html) im *AWS Key Management Service Developer Guide* und unter [AWS KMS-Preisgestaltung](https://aws.amazon.com/kms/pricing/).

### Serverseitige Verschlüsselung mit AWS eigenen KMS-Schlüsseln (SSE-KMS)
<a name="s3-files-encryption-aws-owned-key"></a>

Dies ist der Standardschlüssel für die Verschlüsselung ruhender Daten in Ihrem S3-Dateisystem. AWS Eigene Schlüssel sind eine Sammlung von KMS-Schlüsseln, die ein AWS Dienst besitzt und verwaltet. S3 Files besitzt und verwaltet die Verschlüsselung Ihrer Daten und Metadaten, die sich in Ihrem S3-Dateisystem befinden, wenn Sie einen AWS eigenen Schlüssel verwenden. Weitere Informationen zu AWS eigenen Schlüsseln finden Sie unter [AWS KMS-Schlüssel](https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html).

### Serverseitige Verschlüsselung mit vom Kunden verwalteten AWS KMS-Schlüsseln (SSE-KMS-CMK)
<a name="s3-files-encryption-sse-kms"></a>

Bei der Erstellung Ihres Dateisystems können Sie wählen, ob Sie einen AWS Key Management Service (AWS KMS) -Schlüssel konfigurieren möchten, den Sie verwalten. Wenn Sie die SSE-KMS-Verschlüsselung mit einem S3-Dateisystem verwenden, müssen sich die AWS KMS-Schlüssel in derselben Region wie das Dateisystem befinden.

## Wichtige Richtlinien für KMS für S3-Dateien AWS
<a name="s3-files-encryption-key-policies"></a>

Schlüsselrichtlinien sind die wichtigste Methode zur Kontrolle des Zugriffs auf vom Kunden verwaltete Schlüssel. Weitere Informationen zu wichtigen Richtlinien finden Sie unter [Wichtige Richtlinien in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html) im *AWS Key Management Service Developer Guide*. In der folgenden Liste werden alle AWS KMS-bezogenen Berechtigungen beschrieben, die von S3 Files zur Verschlüsselung von Dateisystemen im Ruhezustand unterstützt werden:

kms:Encrypt  
(Optional) Verschlüsselt Klartext in Chiffretext. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

kms:Decrypt  
(Erforderlich) Entschlüsselt Chiffretext. Geheimtext ist Klartext, der zuvor verschlüsselt wurde. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

km: ReEncrypt  
(Optional) Verschlüsselt Daten auf der Serverseite mit einem neuen, vom Kunden verwalteten Schlüssel, ohne dass der Klartext der Daten auf der Clientseite offengelegt wird. Die Daten werden zuerst entschlüsselt und dann neu verschlüsselt. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

km: GenerateDataKeyWithoutPlaintext  
(Erforderlich) Gibt einen Datenverschlüsselungsschlüssel zurück, der unter einem vom Kunden verwalteten Schlüssel verschlüsselt wurde. Diese Berechtigung ist in der Standardschlüsselrichtlinie unter kms: GenerateDataKey \$1 enthalten.

km: CreateGrant  
(Erforderlich) Fügt einem Schlüssel einen Grant hinzu, um anzugeben, wer den Schlüssel verwenden kann und unter welchen Bedingungen. Erteilungen sind eine alternative Berechtigungsmethode zu Schlüsselrichtlinien. Weitere Informationen zu Zuschüssen finden Sie unter [Grants in AWS KMS](https://docs.aws.amazon.com/kms/latest/developerguide/grants.html) im *AWS Key Management Service Developer Guide*. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

km: DescribeKey  
(Erforderlich) Stellt detaillierte Informationen zum angegebenen vom Kunden verwalteten Schlüssel bereit. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

km: ListAliases  
(Optional) Listet alle Schlüsselaliase im Konto auf. Wenn Sie die Konsole verwenden, um ein verschlüsseltes Dateisystem zu erstellen, wird mit dieser Berechtigung die Liste KMS-Schlüssel auswählen ausgefüllt. Wir empfehlen für eine optimale Benutzererfahrung diese Berechtigung. Diese Berechtigung ist in der Standard-Schlüsselrichtlinie enthalten.

## Wichtige Zustände und ihre Auswirkungen
<a name="s3-files-encryption-key-states"></a>

Der Status Ihres KMS-Schlüssels wirkt sich direkt auf den Zugriff auf Ihr verschlüsseltes Dateisystem aus:

Aktiviert  
Normaler Betrieb — voller Lese- und Schreibzugriff auf das Dateisystem.

Disabled  
Auf das Dateisystem kann nach einiger Zeit nicht mehr zugegriffen werden. Kann wieder aktiviert werden.

Löschen ausstehend  
Auf das Dateisystem kann nicht mehr zugegriffen werden. Das Löschen kann während der Wartezeit abgebrochen werden. Beachten Sie, dass der Schlüssel nach dem Abbrechen des Löschvorgangs in den aktivierten Zustand versetzt werden muss.

Gelöscht  
Auf das Dateisystem kann dauerhaft nicht zugegriffen werden. Diese Aktion kann nicht rückgängig gemacht werden.

**Warnung**  
Wenn Sie den für Ihr Dateisystem verwendeten KMS-Schlüssel deaktivieren oder löschen oder S3 Files den Zugriff auf den Schlüssel entziehen, kann nicht mehr auf Ihr Dateisystem zugegriffen werden. Dies kann zu Datenverlust führen, wenn Sie keine Backups haben. Stellen Sie immer sicher, dass Sie über die richtigen Backup-Verfahren verfügen, bevor Sie Änderungen an den Verschlüsselungsschlüsseln vornehmen.

## Verschlüsselung während der Übertragung
<a name="s3-files-encryption-in-transit"></a>

S3-Dateien erfordern die Verschlüsselung von Daten während der Übertragung mit Transport Layer Security (TLS). Wenn Sie Ihr Dateisystem mit dem Mount Helper mounten, werden alle Daten, die zwischen Ihrem Client und dem Dateisystem übertragen werden, mit TLS verschlüsselt. Der Mount-Helper initialisiert den EFS-Proxy-Prozess, um eine sichere TLS-Verbindung mit Ihrem Dateisystem herzustellen. Der Mount-Helper erstellt auch einen Prozess namens amazon-efs-mount-watchdog, der den Zustand von Mounts überwacht und automatisch gestartet wird, wenn ein S3-Dateisystem zum ersten Mal gemountet wird. Er stellt sicher, dass der EFS-Proxy-Prozess jedes Mounts läuft, und stoppt den Prozess, wenn das Dateisystem unmountet wird. Wenn der Prozess aus irgendeinem Grund unerwartet beendet wird, startet der Watchdog-Prozess ihn neu.

Im Folgenden wird beschrieben, wie die TLS-Verschlüsselung bei der Übertragung funktioniert:

1. Es wird eine sichere TLS-Verbindung zwischen Ihrem Client und dem Dateisystem hergestellt

1. Der gesamte NFS-Verkehr wird über diese verschlüsselte Verbindung geleitet

1. Daten werden vor der Übertragung verschlüsselt und beim Empfang entschlüsselt

Durch die Verschlüsselung von Daten während der Übertragung ändert sich Ihr NFS-Client-Setup. In den aktiv gemounteten Dateisystemen ist ein Dateisystem wie im folgenden Beispiel gezeigt als 127.0.0.1 oder localhost gemountet.

```
$ mount | column -t
127.0.0.1:/  on  /home/ec2-user/s3files        type  nfs4         (rw,relatime,vers=4.1,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=20127,timeo=600,retrans=2,sec=sys,clientaddr=127.0.0.1,local_lock=none,addr=127.0.0.1)
```

Sie mounten Ihr Dateisystem mit dem Mount Helper, der Daten während der Übertragung immer mit TLS verschlüsselt. Daher wird Ihr NFS-Client beim Mounten so umkonfiguriert, dass er an einem lokalen Port gemountet wird.

# So funktioniert S3 Files mit IAM
<a name="s3-files-security-iam"></a>

Auf dieser Seite wird beschrieben, wie AWS Identity and Access Management (IAM) mit S3-Dateien funktioniert und wie Sie IAM-Richtlinien verwenden können, um den Zugriff auf Ihre Dateisysteme zu kontrollieren.

S3 Files verwendet IAM für zwei verschiedene Arten der Zugriffskontrolle:
+ **API-Zugriff** — Steuert, wer S3 Files-Ressourcen wie Dateisysteme, Mount-Ziele und Access Points erstellen, verwalten und löschen kann. Sie steuern diesen Zugriff mithilfe identitätsbasierter Richtlinien, die IAM-Benutzern, -Gruppen oder -Rollen zugeordnet sind.
+ **Client-Zugriff** — Steuert, was Clients (Ihre bereitgestellten Rechenressourcen) mit dem Dateisystem tun können, sobald sie eine Verbindung hergestellt haben, z. B. Dateien als Root-Benutzer lesen, schreiben oder darauf zugreifen können. Sie steuern diesen Zugriff mithilfe einer Kombination aus ressourcenbasierten Richtlinien, identitätsbasierten Richtlinien, Zugriffspunkten und POSIX-Berechtigungen.

Mit IAM können Sie Clients erlauben, bestimmte Aktionen auf einem Dateisystem durchzuführen, einschließlich Lese-, Schreib- und Root-Zugriff. Eine „allow“-Erlaubnis für eine Aktion in einer IAM-Identitätsrichtlinie oder einer Dateisystem-Ressourcenrichtlinie erlaubt den Zugriff auf diese Aktion. Die Genehmigung muss nicht sowohl in einer Identitäts- als auch in einer Ressourcenrichtlinie erteilt werden.

Ihre S3-Bucket-Richtlinien in Ihrem verknüpften S3-Bucket regeln auch den Zugriff von Ihrer Rechenressource und Ihrem Dateisystem auf Ihren S3-Bucket. Sie müssen außerdem sicherstellen, dass die Bucket-Richtlinien Ihres Quell-Buckets den Zugriff über Ihre Rechenressource oder Ihr Dateisystem nicht verweigern. Weitere Informationen finden Sie unter [Bucket-Richtlinien für Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html).

## Identitätsbasierte Richtlinien
<a name="s3-files-security-iam-identity-based"></a>

Identitätsbasierte Richtlinien sind JSON-Richtlinien, die Sie IAM-Benutzern, -Gruppen oder -Rollen zuordnen. Sie können diese Berechtigungen bereitstellen, indem Sie benutzerdefinierte Richtlinien schreiben oder eine verwaltete Richtlinie anhängen. AWS Weitere Informationen zu verfügbaren verwalteten Richtlinien für API-Zugriff und Client-Zugriff finden Sie unter [AWS Verwaltete Richtlinien für Amazon S3 S3-Dateien](s3-files-security-iam-awsmanpol.md).

S3 Files optimiert auch die Leseleistung, indem es Clients ermöglicht, Dateidaten direkt aus dem S3-Quell-Bucket zu lesen. Wenn Sie ein S3-Dateisystem auf Ihrer Rechenressource bereitstellen, müssen Sie der IAM-Rolle Ihrer Rechenressource eine Inline-Richtlinie hinzufügen, die Berechtigungen zum Lesen von Objekten aus dem angegebenen S3-Bucket gewährt. Der Mount-Helper verwendet diese Berechtigungen, um die S3-Daten zu lesen. Weitere Informationen zu dieser Richtlinie finden Sie unter[IAM-Rolle zum Anhängen Ihres Dateisystems an Rechenressourcen AWS](s3-files-prereq-policies.md#s3-files-prereq-iam-compute-role).

## Ressourcenbasierte Richtlinien
<a name="s3-files-security-iam-resource-based"></a>

Eine Dateisystemrichtlinie ist eine auf IAM-Ressourcen basierende Richtlinie, die Sie direkt an ein Dateisystem anhängen, um den Client-Zugriff zu steuern. Mithilfe von Dateisystemrichtlinien können Sie Clients Berechtigungen zur Ausführung von Vorgängen wie Mounten, Schreiben und Root-Zugriff gewähren oder verweigern.

Ein Dateisystem hat entweder eine leere (Standard-) Dateisystemrichtlinie oder genau eine explizite Richtlinie. S3-Dateisystemrichtlinien haben ein Limit von 20.000 Zeichen. Informationen zum Erstellen und Verwalten von Dateisystemrichtlinien finden Sie unter[Erstellen von Dateisystemrichtlinien](s3-files-file-system-policies-creating.md).

## S3 Files-Aktionen für Clients
<a name="s3-files-security-iam-client-actions"></a>

Sie können die folgenden Aktionen in einer Dateisystemrichtlinie angeben, um den Client-Zugriff zu steuern:


| Action | Description | 
| --- | --- | 
| s3files:ClientMount | Ermöglicht den Nur-Lese-Zugriff auf ein Dateisystem. | 
| s3files:ClientWrite | Bietet Schreibrechte für ein Dateisystem. | 
| s3files:ClientRootAccess | Ermöglicht die Verwendung des Root-Benutzers beim Zugriff auf ein Dateisystem. | 

## Bedingungsschlüssel für S3-Dateien für Clients
<a name="s3-files-security-iam-condition-keys"></a>

Sie können die folgenden Bedingungsschlüssel im `Condition` Element einer Dateisystemrichtlinie verwenden, um die Zugriffskontrolle weiter zu verfeinern:


| Bedingungsschlüssel | Description | Operator | 
| --- | --- | --- | 
| s3files:AccessPointArn | ARN des S3 Files-Zugriffspunkts, zu dem der Client eine Verbindung herstellt. | Zeichenfolge | 

## Beispiele für Dateisystemrichtlinien
<a name="s3-files-security-iam-policy-examples"></a>

### Beispiel: Erteilen von schreibgeschütztem Zugriff
<a name="s3-files-security-iam-policy-example-readonly"></a>

Die folgende Dateisystemrichtlinie gewährt der `ReadOnly` IAM-Rolle nur `ClientMount` (schreibgeschützt) Berechtigungen. Ersetzen Sie es *111122223333* durch Ihre Konto-ID AWS .

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::111122223333:role/ReadOnly"
            },
            "Action": [
                "s3files:ClientMount"
            ]
        }
    ]
}
```

### Beispiel: Gewähren Sie Zugriff auf einen S3 Files-Zugriffspunkt
<a name="s3-files-security-iam-policy-example-accesspoint"></a>

Die folgende Dateisystemrichtlinie verwendet ein Bedingungselement, um einem bestimmten Zugriffspunkt vollen Zugriff auf das Dateisystem zu gewähren, wenn das Mounten über den angegebenen Zugriffspunkt erfolgt. Ersetzen Sie den ARN und die Konto-ID des Access Points durch Ihre Werte. Weitere Informationen finden Sie unter [Access Points für ein S3-Dateisystem erstellen](s3-files-access-points-creating.md).

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "AWS": "arn:aws:iam::555555555555:role/S3FilesAccessPointFullAccess"
            },
            "Action": [
                "s3files:Client*"
            ],
            "Condition": {
                "StringEquals": {
                    "s3files:AccessPointArn": "arn:partition:s3files:region:account-id:file-system/fs-1234567890/access-point/fsap-0987654321"
                }
            }
        }
    ]
}
```

## POSIX-Berechtigungen
<a name="s3-files-security-iam-posix"></a>

Nach erfolgreicher IAM-Autorisierung erzwingt S3 Files POSIX-Standardberechtigungen (UNIX-Stil) auf Datei- und Verzeichnisebene. POSIX-Berechtigungen steuern den Zugriff auf der Grundlage der Benutzer-ID (UID), der Gruppen-ID (GID) und der Berechtigungsbits (Lesen, Schreiben, Ausführen), die jeder Datei und jedem Verzeichnis zugeordnet sind. Access Points können eine bestimmte POSIX-Benutzeridentität für alle Anfragen erzwingen und so die Zugriffsverwaltung für gemeinsam genutzte Datensätze vereinfachen. Weitere Informationen finden Sie unter [Access Points für ein S3-Dateisystem erstellen](s3-files-access-points-creating.md).

## Sicherheitsgruppen
<a name="s3-files-security-iam-security-groups"></a>

Sicherheitsgruppen fungieren als Firewall auf Netzwerkebene, die den Verkehr zwischen Ihren Rechenressourcen und den Mount-Zielen des Dateisystems steuert. Einzelheiten zur Konfiguration von Sicherheitsgruppen für den Einstieg in S3 Files finden Sie unter. [Sicherheitsgruppen](s3-files-prereq-policies.md#s3-files-prereq-security-groups)

# AWS verwaltete Richtlinien für Amazon S3 S3-Dateien
<a name="s3-files-security-iam-awsmanpol"></a>

Eine AWS verwaltete Richtlinie ist eine eigenständige Richtlinie, die von erstellt und verwaltet wird AWS. AWS Verwaltete Richtlinien sind so konzipiert, dass sie Berechtigungen für viele gängige Anwendungsfälle bereitstellen, sodass Sie damit beginnen können, Benutzern, Gruppen und Rollen Berechtigungen zuzuweisen.

Beachten Sie, dass AWS verwaltete Richtlinien für Ihre speziellen Anwendungsfälle möglicherweise keine Berechtigungen mit den geringsten Rechten gewähren, da sie allen AWS Kunden zur Verfügung stehen. Wir empfehlen Ihnen, die Berechtigungen weiter zu reduzieren, indem Sie [vom Kunden verwaltete Richtlinien](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#customer-managed-policies) definieren, die speziell auf Ihre Anwendungsfälle zugeschnitten sind.

Sie können die in AWS verwalteten Richtlinien definierten Berechtigungen nicht ändern. Wenn die in einer AWS verwalteten Richtlinie definierten Berechtigungen AWS aktualisiert werden, wirkt sich das Update auf alle Prinzidentitäten (Benutzer, Gruppen und Rollen) aus, denen die Richtlinie zugeordnet ist. AWS aktualisiert eine AWS verwaltete Richtlinie höchstwahrscheinlich, wenn eine neue Richtlinie eingeführt AWS-Service wird oder neue API-Operationen für bestehende Dienste verfügbar werden.

Weitere Informationen finden Sie unter [Von AWS verwaltete Richtlinien](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_managed-vs-inline.html#aws-managed-policies) im *IAM-Benutzerhandbuch*.

## AWS verwaltete Richtlinie: AmazonS3FilesFullAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesfullaccess"></a>

Sie können die `AmazonS3FilesFullAccess`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt vollen Zugriff auf Amazon S3 S3-Dateien, einschließlich der Berechtigungen zum Erstellen und Verwalten von Dateisystemen, Bereitstellungszielen und Zugriffspunkten. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesFullAccess.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonS3FilesReadOnlyAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesreadonlyaccess"></a>

Sie können die `AmazonS3FilesReadOnlyAccess`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt nur Lesezugriff auf Amazon S3 S3-Dateien, einschließlich Berechtigungen zum Anzeigen von Dateisystemen, Mount-Zielen, Zugriffspunkten und zugehörigen Konfigurationen. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesReadOnlyAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesReadOnlyAccess.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonS3FilesClientFullAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientfullaccess"></a>

Sie können die `AmazonS3FilesClientFullAccess`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt dem Client vollen Zugriff auf die Dateisysteme von S3 Files, einschließlich der Möglichkeit, Dateien als Root-Benutzer bereitzustellen, zu lesen, zu schreiben und darauf zuzugreifen. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientFullAccess.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonS3FilesClientReadWriteAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientreadwriteaccess"></a>

Sie können die `AmazonS3FilesClientReadWriteAccess`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt dem Client Lese- und Schreibzugriff auf die Dateisysteme von S3 Files, einschließlich der Fähigkeit zum Mounten, Lesen und Schreiben. Diese Richtlinie gewährt keinen Root-Zugriff. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadWriteAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadWriteAccess.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonS3FilesClientReadOnlyAccess
<a name="s3-files-security-iam-awsmanpol-amazons3filesclientreadonlyaccess"></a>

Sie können die `AmazonS3FilesClientReadOnlyAccess`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt nur lesenden Client-Zugriff auf S3 Files-Dateisysteme, einschließlich der Möglichkeit, das Dateisystem zu mounten und aus dem Dateisystem zu lesen. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadOnlyAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesClientReadOnlyAccess.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonS3FilesCSIDriverPolicy
<a name="s3-files-security-iam-awsmanpol-amazons3filescsidriverpolicy"></a>

Sie können die `AmazonS3FilesCSIDriverPolicy`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt dem Amazon EFS Container Storage Interface (CSI) -Treiber Berechtigungen zur Verwaltung von S3 Files-Zugriffspunkten im Namen von Amazon EKS-Clustern. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesCSIDriverPolicy.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonS3FilesCSIDriverPolicy.html)in der Referenz zu AWS verwalteten Richtlinien.

## AWS verwaltete Richtlinie: AmazonElasticFileSystemUtils
<a name="s3-files-security-iam-awsmanpol-amazonelasticfilesystemutils"></a>

Sie können die `AmazonElasticFileSystemUtils`-Richtlinie an Ihre IAM-Identitäten anfügen. Diese Richtlinie gewährt den Dienstprogrammen des S3 Files-Clients (amazon-efs-utils) Berechtigungen zur Ausführung von Vorgängen wie der Beschreibung von Bereitstellungszielen, der Veröffentlichung von CloudWatch Metriken und Protokollen und der Kommunikation mit AWS Systems Manager. Weitere Informationen zu dieser Richtlinie finden Sie [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonElasticFileSystemUtils.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonElasticFileSystemUtils.html)in der Referenz zu AWS verwalteten Richtlinien.

## Aktualisierungen AWS verwalteter Richtlinien in Amazon S3 Files
<a name="s3-files-security-iam-awsmanpol-updates"></a>

Sehen Sie sich Details zu Aktualisierungen der AWS verwalteten Richtlinien für Amazon S3 Files an, seit S3 Files begonnen hat, diese Änderungen zu verfolgen.


| Änderungen | Beschreibung | Date | 
| --- | --- | --- | 
|  `AmazonElasticFileSystemUtils`— Aktualisiert  |   CloudWatch PutMetricData Amazon-Berechtigungen wurden hinzugefügt, um die Veröffentlichung von Client-Konnektivitätsmetriken zu unterstützen.  | 7. April 2026 | 
|  `AmazonS3FilesCSIDriverPolicy`— Hinzugefügt  |  Neue verwaltete Richtlinie, die dem Amazon EFS CSI-Treiber Berechtigungen zur Verwaltung von S3 Files-Zugriffspunkten im Namen von Amazon EKS-Clustern gewährt.  | 7. April 2026 | 
|  `AmazonS3FilesClientReadOnlyAccess`— Hinzugefügt  |  Neue verwaltete Richtlinie, die schreibgeschützten Client-Zugriff auf S3 Files-Dateisysteme gewährt.  | 7. April 2026 | 
|  `AmazonS3FilesClientReadWriteAccess`— Hinzugefügt  |  Neue verwaltete Richtlinie, die Lese- und Schreibclientzugriff auf S3 Files-Dateisysteme gewährt.  | 7. April 2026 | 
|  `AmazonS3FilesClientFullAccess`— Hinzugefügt  |  Neue verwaltete Richtlinie, die vollen Client-Zugriff auf S3 Files-Dateisysteme gewährt, einschließlich Root-Zugriff.  | 7. April 2026 | 
|  `AmazonS3FilesReadOnlyAccess`— Hinzugefügt  |  Neue verwaltete Richtlinie, die nur Lesezugriff auf S3 Files-Ressourcen gewährt.  | 7. April 2026 | 
|  `AmazonS3FilesFullAccess`— Hinzugefügt  |  Neue verwaltete Richtlinie, die vollen Zugriff auf S3 Files-Ressourcen gewährt.  | 7. April 2026 | 
|  S3 Files hat begonnen, Änderungen zu verfolgen  |  Amazon S3 Files hat damit begonnen, Änderungen für seine AWS verwalteten Richtlinien nachzuverfolgen.  | 7. April 2026 | 

# So wird S3 Files gemessen
<a name="s3-files-metering"></a>

Die Preisgestaltung für S3 Files basiert auf zwei Dimensionen: der Datenmenge, die auf dem Hochleistungsspeicher Ihres Dateisystems gespeichert ist, und den Dateisystemoperationen, die Ihre Anwendungen und der Synchronisierungsprozess ausführen. Auf dieser Seite wird erklärt, wie jede Dimension gemessen wird, damit Sie Ihre Kosten verstehen und optimieren können.

Aktuelle Preise finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing/).

## Wie wird der Speicherplatz im Dateisystem gemessen
<a name="s3-files-metering-storage"></a>

Wenn Sie über Ihr S3-Dateisystem mit Dateien arbeiten, speichert S3 Files die Daten, die Sie aktiv verwenden, aus Ihrem S3-Bucket auf dem Hochleistungsspeicher des Dateisystems. Sie zahlen für die Datenmenge, die sich auf dem Hochleistungsspeicher des Dateisystems befindet, gemessen in GB pro Monat. Dazu gehören Daten, die aus Ihrem S3-Bucket kopiert wurden, Daten, die Sie über das Dateisystem geschrieben haben, und die Metadaten für Ihre Dateien und Verzeichnisse.

Wenn eine Datei in Ihrem Dateisystem nicht innerhalb eines konfigurierbaren Fensters (1 bis 365 Tage, Standard 30 Tage) gelesen wurde und ihre Änderungen bereits mit Ihrem S3-Bucket synchronisiert wurden, entfernt S3 Files die Daten dieser Datei automatisch aus dem Hochleistungsspeicher des Dateisystems. Dadurch bleiben Ihre Speicherkosten proportional zu Ihrem aktiven Arbeitsdatensatz und nicht zur Gesamtgröße Ihres S3-Buckets. Ihre Daten bleiben sicher in Ihrem S3-Bucket gespeichert. S3 Files entfernt nur die Kopie aus dem Hochleistungsspeicher des Dateisystems. Wenn Sie diese Datei das nächste Mal lesen, ruft S3 Files die neueste Version des entsprechenden Objekts aus dem S3-Bucket ab und kopiert es zurück in den Hochleistungsspeicher des Dateisystems. Weitere Informationen finden Sie unter [Verstehen, wie die Synchronisation funktioniert](s3-files-synchronization.md).

## Wie werden Dateisystemoperationen gemessen
<a name="s3-files-metering-operations"></a>

S3 Files bewertet jeden Dateisystemvorgang entweder als Lese- oder Schreibvorgang. Jeder Vorgang hat eine gemessene Mindestgröße.

Beim Lesen **von Daten**, z. B. beim Lesen des Inhalts einer Datei, wird die Größe der gelesenen Daten berechnet, wobei pro Lesevorgang ein Mindestwert von 32 KB gilt. Es gibt auch Fälle, in denen ein Lesevorgang aus Gründen der Leistungsoptimierung direkt aus Ihrem S3-Bucket (siehe unten) ausgeführt wird. Solche Operationen werden nicht für gelesene Daten, sondern nur für einen 4-KB-Metadatenlesevorgang berechnet.

**Schreibvorgänge**, wie das Schreiben oder Anhängen an eine Datei, werden anhand der Größe der geschriebenen Daten berechnet, wobei mindestens 32 KB pro Schreibvorgang erforderlich sind.

**Metadatenvorgänge** wie das Auflisten eines Verzeichnisses, das Anzeigen von Dateiattributen, das Erstellen oder Löschen von Dateien und Verzeichnissen, das Umbenennen und Ändern von Berechtigungen werden als Lesevorgänge mit 4 KB pro Vorgang abgerechnet. Der Commit-Vorgang (ausgelöst durch `fsync` oder Schließen einer Datei nach dem Schreibvorgang) ist mit 4 KB der einzige Metadatenvorgang, der als Schreibvorgang gemessen wird.

Alle gemessenen Größen werden auf die nächste Grenze von 1 KB aufgerundet.

## So werden Lesevorgänge gemessen, wenn sie direkt von Amazon S3 bereitgestellt werden
<a name="s3-files-metering-s3-reads"></a>

Bei Lesevorgängen von 128 KB oder mehr auf Daten, die bereits mit S3 synchronisiert wurden, streamt S3 Files automatisch direkt von S3, auch wenn sich die Daten auf dem Hochleistungsspeicher befinden, da S3 für einen hohen Durchsatz optimiert ist, während der Hochleistungsspeicher des Dateisystems für den Zugriff auf kleine Dateien mit niedriger Latenz optimiert ist.

In solchen Fällen zahlen Sie für S3 GET-Anfragen statt für das Lesen von Dateisystemdaten. S3 Files misst für solche Lesevorgänge nur einen 4-KB-Metadatenlesevorgang.

## Wie wird die Synchronisation gemessen
<a name="s3-files-metering-sync"></a>

S3 Files sorgt dafür, dass Ihr Dateisystem und der verknüpfte S3-Bucket automatisch synchronisiert werden. Diese Synchronisierungsvorgänge werden zusätzlich zu den Standardgebühren für S3-Anfragen, die für S3 Files in Ihrem Namen anfallen, als Dateisystemvorgänge abgerechnet.

**Daten in das Dateisystem importieren:** Wenn S3 Files Daten aus Ihrem S3-Bucket auf den Hochleistungsspeicher des Dateisystems kopiert, wird der Vorgang als Schreibvorgang im Dateisystem abgerechnet. Dazu gehören die Daten, die kopiert werden, wenn Sie zum ersten Mal auf ein Verzeichnis zugreifen, wenn Sie eine Datei lesen, deren Daten sich nicht im Hochleistungsspeicher des Dateisystems befinden, und wenn S3 Files Änderungen widerspiegelt, die direkt an Ihrem S3-Bucket vorgenommen wurden. Die gemessene Größe ist die Datenmenge, die in den Hochleistungsspeicher des Dateisystems geschrieben wird.

**Änderungen in Ihren S3-Bucket exportieren:** Wenn S3 Files Ihre Dateisystemänderungen zurück in Ihren S3-Bucket kopiert, wird der Vorgang als Lesevorgang im Dateisystem gewertet. Nur die Daten, die aus dem Dateisystem gelesen werden, werden auf diese Gebühr angerechnet. Wenn die Datei, die Sie geändert haben, Daten enthält, die nie auf den Hochleistungsspeicher des Dateisystems kopiert wurden, wird dieser Teil der Daten zum Preis von S3 GET auf Anfrage aus Ihrem S3-Bucket gelesen. Es fallen keine Gebühren für das Lesen des Dateisystems an. Wenn Sie beispielsweise Daten an eine Datei anhängen, verwendet S3 Files mehrteilige Uploads, um zu vermeiden, dass das gesamte Objekt in den Hochleistungsspeicher des Dateisystems importiert wird, bevor Daten daran angehängt werden. Dadurch werden die Speicherkosten Ihres Dateisystems optimiert.

**Operationen zum Umbenennen und Verschieben:** S3 hat kein systemeigenes Konzept für Verzeichnisse. Was in Ihrem Dateisystem als Verzeichnis angezeigt wird, ist ein gemeinsames Präfix, das von den Schlüsseln der Objekte innerhalb des S3-Buckets gemeinsam genutzt wird. Darüber hinaus sind S3-Objekte unveränderlich und unterstützen keine atomaren Umbenennungen. Wenn Sie eine Datei umbenennen oder verschieben, muss S3 Files daher die Daten mit dem aktualisierten Schlüssel (gemessen als S3-PUT-Anfrage) in ein neues Objekt schreiben und das Original löschen. Bei der Synchronisation von Umbenennungsvorgängen werden außerdem alle aus dem Dateisystem gelesenen Daten gelesen. Wenn die Daten der Datei nie auf den Hochleistungsspeicher des Dateisystems kopiert wurden, misst das Dateisystem nur für einen 4-KB-Metadatenlesevorgang. Wenn Sie ein Verzeichnis umbenennen oder verschieben, muss S3 Files diesen Vorgang (und die Messung) für jedes Objekt wiederholen, das dieses Präfix teilt. Weitere Informationen finden Sie unter [Die Auswirkungen von Umbenennungs- und Verschiebevorgängen verstehen](s3-files-synchronization.md#s3-files-sync-rename-move).

**Ablauf der Daten:** Wenn S3 Files ungenutzte Daten aus dem Dateisystem entfernt, fallen keine Gebühren für den Betrieb des Dateisystems an.

## Beispiele für die Messung
<a name="s3-files-metering-examples"></a>

**Erstmaliges Auflisten eines großen Verzeichnisses**

Wenn Sie ein Verzeichnis zum ersten Mal auflisten, importiert S3 Files Metadaten für alle Dateien in diesem Verzeichnis. Für den Metadatenimport jeder Datei wird ein Schreibvorgang von 4 KB berechnet. Abhängig von Ihrer Importkonfiguration kann S3 Files auch Daten für kleine Dateien in diesem Verzeichnis vorab abrufen und auf den Hochleistungsspeicher des Dateisystems kopieren, um die Leistung zu optimieren. Der Datenimport jeder Datei wird bei der Größe der Datei (mindestens 32 KB) als Schreibvorgang abgerechnet. Sie können steuern, für welche Dateien die Daten importiert werden, indem Sie Ihre Importregeln konfigurieren. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).

**Eine große Datei lesen**

Bei Lesevorgängen von 128 KB oder mehr an Daten, die bereits mit S3 synchronisiert wurden, streamt S3 Files direkt von S3, auch wenn sich die Daten auf dem Hochleistungsspeicher befinden, da S3 für einen hohen Durchsatz optimiert ist, während die Hochleistungsspeicherschicht des Dateisystems für den Zugriff auf kleine Dateien mit geringer Latenz optimiert ist. Sie zahlen den Preis für S3 GET-Anfragen zusammen mit einem 4-KB-Metadatenlesevorgang. Es fallen keine Gebühren für das Lesen von Dateisystemdaten an.

**Lesen einer kleinen Datei, die sich nicht im Hochleistungsspeicher des Dateisystems befindet**

S3 Files liest die Daten aus dem S3-Bucket und stellt sie dem Client zur Verfügung und importiert die Daten asynchron in den Hochleistungsspeicher des Dateisystems, sodass future Lesevorgänge schneller sind. Dies wird als ein vom Dateisystem gelesenes Dateisystem mit der Größe der übertragenen Daten (mindestens 32 KB) gemessen. Der asynchrone Import von Daten in den Hochleistungsspeicher des Dateisystems wird entsprechend der Größe der übertragenen Daten als Schreibvorgang abgerechnet. Ein ähnlicher Vorgang wird angewendet, wenn Sie eine Datei lesen, deren Daten aus dem Dateisystem abgelaufen sind. Für den Ablauf von Daten fallen keine zusätzlichen Gebühren für den Betrieb des Dateisystems an.

**Eine Datei schreiben**

Ihr Schreibvorgang wird als Schreibvorgang im Dateisystem gemessen und entspricht der Größe der geschriebenen Daten (mindestens 32 KB). Ungefähr 60 Sekunden nach Ihrem letzten Schreibvorgang kopiert S3 Files die Datei in Ihren S3-Bucket. Das liegt daran, dass S3 Files, wenn Sie eine Datei im Dateisystem ändern, bis zu 60 Sekunden wartet und alle in diesem Zeitraum aufeinanderfolgenden Änderungen an der Datei zusammenfasst, bevor es in Ihren S3-Bucket kopiert wird. Das bedeutet, dass schnelle aufeinanderfolgende Schreibvorgänge in derselben Datei in einer einzigen S3-PUT-Anfrage erfasst werden, anstatt für jede einzelne Änderung eine neue Objektversion zu generieren, wodurch Ihre S3-Anforderungs- und Speicherkosten reduziert werden. Diese Synchronisation wird als Dateisystemlesung für Daten berechnet, die aus dem Hochleistungsspeicher des Dateisystems gelesen werden, plus als Standard-S3-PUT-Anfrage.

# Bewährte Methoden für S3-Dateien
<a name="s3-files-best-practices"></a>

Auf dieser Seite werden die empfohlenen bewährten Methoden für die Arbeit mit S3-Dateisystemen beschrieben.

## Leistungs- und Kostenoptimierung
<a name="s3-files-best-practices-performance"></a>
+ **Parallelisieren Sie Ihre Workloads** — S3 Files wurde entwickelt, um hochparallele Workloads zu unterstützen. Die Verteilung von Lesevorgängen auf mehrere Dateien und mehrere Recheninstanzen trägt zur Maximierung des Gesamtdurchsatzes bei. Sie können auch mehrere Dateisysteme mit unterschiedlichen spezifischen Präfixen innerhalb desselben Buckets erstellen (anstatt ein Dateisystem für den gesamten Bucket zu erstellen), um horizontal zu skalieren und den Gesamtdurchsatz zu verbessern.
+ **Richten Sie Ihr Dateisystem auf das kleinste Präfix ein, das Ihre Arbeitslast benötigt, um die Auswirkungen von Umbenennungen zu minimieren —** S3 hat kein systemeigenes Verzeichniskonzept. Wenn Sie ein Verzeichnis umbenennen oder verschieben, muss S3 Files die Daten mit dem aktualisierten Schlüssel in ein neues Objekt schreiben und das Original für jede Datei in diesem Verzeichnis löschen. Das Umbenennen von Verzeichnissen mit zig Millionen Dateien kann die Kosten für S3-Anfragen und die Synchronisationszeit erheblich erhöhen. Richten Sie Ihr Dateisystem auf Ihren aktiven Datensatz ein oder strukturieren Sie Ihre Daten so, dass Verzeichnisse, die Sie voraussichtlich umbenennen werden, weniger Dateien enthalten. Weitere Informationen finden Sie unter [Die Auswirkungen von Umbenennungs- und Verschiebevorgängen verstehen](s3-files-synchronization.md#s3-files-sync-rename-move).
+ **Verwenden Sie große I/O-Größen** — S3 Files misst jeden Lese- und Schreibvorgang auf mindestens 32 KB. Die Verwendung größerer I/O-Größen (1 MB oder mehr) amortisiert den Aufwand pro Vorgang und ist kostengünstiger als viele kleine Lese- oder Schreibvorgänge. Bei Verwendung des Mount-Helpers sind die standardmäßigen NFS-Lese- und Schreibpuffergrößen für optimale Leistung auf 1 MB festgelegt.
+ **Passen Sie Ihren sizeLessThan Wert in der Importkonfiguration an Ihre Dateigrößen** an — Standardmäßig speichert S3 Files Daten für Dateien, die kleiner als 128 KB sind, zwischenspeichert, wenn Sie zum ersten Mal auf ein Verzeichnis zugreifen. Dateien, die diesen Schwellenwert überschreiten, werden direkt aus S3 gelesen. Wenn Ihr Workload kleine, latenzempfindliche Lesevorgänge an größeren Dateien durchführt, erhöhen Sie den sizeLessThan Schwellenwert, sodass er den Dateigrößen entspricht, die Sie im Hochleistungsspeicher des Dateisystems für den Zugriff mit niedriger Latenz benötigen. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).
+ **Legen Sie Ablauffenster fest, die Ihrem Workload-Lebenszyklus entsprechen** — Daten, die innerhalb des Ablauffensters nicht gelesen wurden, werden automatisch aus dem Dateisystem entfernt. Verwenden Sie für kurzlebige Workloads wie Batch-Jobs oder Trainingsläufe ein kürzeres Ablaufdatum (1—7 Tage), um die Speicherkosten zu minimieren. Verwenden Sie für Workloads, bei denen dieselben Daten wochenlang erneut abgerufen werden, ein längeres Ablaufdatum (30—90 Tage), um weiterhin von der niedrigen Latenz zu profitieren. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).
+ **Verwenden Sie Regeln mit Präfixbereich für gemischte Workloads** — Wenn Ihr Bucket sowohl Daten enthält, auf die häufig zugegriffen wird, als auch Daten, auf die selten zugegriffen wird, erstellen Sie separate Importregeln für jedes Präfix. Auf diese Weise können Sie Daten für heiße Präfixe aggressiv importieren und gleichzeitig nur Metadaten für kalte Präfixe verwenden. Weitere Informationen finden Sie unter [Synchronisation für S3-Dateien anpassen](s3-files-synchronization-customizing.md).
+ **Erstellen Sie in jeder Availability Zone ein Mount-Ziel** — Wir empfehlen, in jeder Availability Zone, in der Sie tätig sind, ein Mount-Ziel zu erstellen, um die AZ-übergreifenden Datenübertragungskosten zu senken und die Leistung zu verbessern. Dadurch wird sichergestellt, dass Ihre Rechenressourcen immer über einen lokalen Netzwerkpfad zum Dateisystem verfügen, was sowohl die Verfügbarkeit als auch die Latenz verbessert. Wenn Sie mit der AWS Management Console ein Dateisystem erstellen, erstellt S3 Files automatisch ein Mount-Ziel in jeder Availability Zone in Ihrer ausgewählten VPC.

## Synchronisierung
<a name="s3-files-best-practices-sync"></a>
+ **Verstehen Sie das Konsistenzmodell für S3-Dateien** — Wenn eine Datei im Dateisystem gleichzeitig mit dem entsprechenden Objekt im S3-Bucket geändert wird, behandelt S3 Files den S3-Bucket als Quelle der Wahrheit und verschiebt die Datei in das Verzeichnis Lost and Found. Um Konflikte zu vermeiden, sollten Sie einen Pfad (Dateisystem oder S3) als primären Writer festlegen.
+ **Synchronisationsstatus überwachen** — Verwenden Sie CloudWatch Metriken, um den Status der Synchronisation zwischen Ihrem Dateisystem und dem S3-Bucket zu verfolgen. Ein Anstieg `PendingExports` deutet darauf hin, dass Ihr Workload Änderungen schneller generiert als die Synchronisationsrate, was bedeutet, dass die Synchronisation länger dauert. Eine `ExportFailures` CloudWatch Metrik ungleich Null weist auf Dateien hin, die nicht exportiert werden konnten und Maßnahmen erfordern. Weitere Informationen finden Sie unter [Problembehandlung bei S3-Dateien](s3-files-troubleshooting.md).

## Zugriffskontrolle
<a name="s3-files-best-practices-access"></a>
+ **Folgen Sie dem Prinzip der geringsten Rechte** — Erteilen Sie nur die Mindestberechtigungen, die für jede IAM-Rolle und Dateisystemrichtlinie erforderlich sind. Wenn eine Rechenressource beispielsweise nur Daten aus dem Dateisystem lesen muss, fügen Sie stattdessen die `AmazonS3FilesClientReadOnlyAccess` verwaltete Richtlinie hinzu. `AmazonS3FilesClientFullAccess` Erwägen Sie außerdem, Ihr Dateisystem auf ein bestimmtes Präfix und nicht auf den gesamten Bucket zu beschränken, sodass Clients nur auf Daten innerhalb dieses Präfixes zugreifen können.
+ **Ändern Sie nicht die IAM-Rolle für S3-Dateien** — Ändern oder löschen Sie nicht die IAM-Rolle, von der S3 Files annimmt, dass sie mit Ihrem S3-Bucket synchronisiert wird. Das Ändern oder Entfernen dieser Rolle kann die Synchronisation zwischen Ihrem Dateisystem und dem S3-Bucket unterbrechen.
+ **Ändern Sie die EventBridge Regel für S3-Dateien nicht** — S3 Files erstellt eine EventBridge Regel (mit dem Präfix DO-NOT-DELETE-S 3-Files), um Änderungen in Ihrem S3-Bucket zu erkennen. Deaktivieren, ändern oder löschen Sie diese Regel nicht. Wenn Sie sie entfernen, wird verhindert, dass S3 Files neue oder geänderte Objekte in Ihrem Bucket erkennt, wodurch Ihr Dateisystem veraltet ist.
+ **Erwägen Sie, den Zugriff auf Protokolle zu beschränken, die von `efs-utils`** — `efs-utils` schreibt S3-Objektschlüsselnamen direkt in Protokolle, die es im Verzeichnis speichert. `/var/log/amazon/efs` Wenn Ihre S3-Schlüsselnamen vertrauliche Informationen enthalten, sollten Sie den Zugriff auf dieses Verzeichnis über POSIX-Berechtigungen einschränken. Sie könnten beispielsweise den Zugriff über den Befehl `sudo chmod 700 /var/log/amazon/efs` einschränken.

## Überwachen
<a name="s3-files-best-practices-monitoring"></a>
+ **Alarme bei Synchronisierungsfehlern einrichten** — Damit können Sie CloudWatch Alarme einrichten `ImportFailures` und `ExportFailures` sich benachrichtigen lassen, wenn Dateien nicht synchronisiert werden können. Fehlgeschlagene Exporte können auf Berechtigungsprobleme, Probleme mit Verschlüsselungsschlüsseln oder Pfadlängenbeschränkungen hinweisen. Weitere Informationen finden Sie unter [Problembehandlung bei S3-Dateien](s3-files-troubleshooting.md).

# Nicht unterstützte Funktionen, Beschränkungen und Kontingente
<a name="s3-files-quotas"></a>

Auf dieser Seite werden die Einschränkungen und Kontingente bei der Verwendung von S3-Dateien beschrieben.

## Nicht unterstützte S3-Funktionen
<a name="s3-files-unsupported-s3-features"></a>
+ **Archivierungsspeicherklassen** — Auf Objekte in den Speicherklassen S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive kann nicht über das Dateisystem zugegriffen werden. Ebenso kann auf Objekte in den Stufen S3 Intelligent-Tiering Archive Access oder Deep Archive Access nicht über das Dateisystem zugegriffen werden. Sie müssen diese Objekte zuerst mithilfe der S3-API wiederherstellen.
+ **S3-Zugriffskontrolllisten (ACLs)** — S3 ACLs werden nicht beibehalten, nachdem Änderungen über das Dateisystem vorgenommen wurden. Wir empfehlen, die ACLs Option deaktiviert zu lassen und Richtlinien zu verwenden, um den Zugriff auf alle Objekte in Ihrem Bucket zu kontrollieren, unabhängig davon, wer die Objekte in Ihren Bucket hochgeladen hat. Weitere Informationen finden Sie unter [Zugriff verwalten mit ACLs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acls.html).
+ **Benutzerdefinierte S3-Objektmetadaten** — Benutzerdefinierte benutzerdefinierte Metadaten für S3-Objekte werden nicht beibehalten, nachdem Änderungen über das Dateisystem vorgenommen wurden.

## Einschränkungen des Dateisystems
<a name="s3-files-filesystem-limitations"></a>
+ **Feste Links** — S3 Files unterstützt keine Hardlinks. Jede Datei im Dateisystem entspricht einem einzelnen S3-Objektschlüssel.
+ **Größe der Pfadkomponenten** — S3 Files unterstützt keine Objekte, bei denen ein einzelner Verzeichnis- oder Dateiname im Pfad 255 Byte überschreitet. Eine Pfadkomponente ist ein Verzeichnis- oder Dateiname, der von einem S3-Objektschlüssel abgeleitet wird. Der Schlüssel `dir1/dir2/file.txt` hat beispielsweise drei Pfadkomponenten: `dir1``dir2`, und`file.txt`.
+ **Größenbeschränkung für S3-Schlüssel** — Dateien oder Verzeichnisse, deren vollständiger Pfadname die Größenbeschränkung von 1.024 Byte für S3-Objektschlüssel überschreitet, können nicht nach S3 exportiert werden.
+ **Symlink-Ziele** — Wenn ein S3-Objekt ein Symlink ist, muss sein Ziel ein gültiger Pfad sein, der nicht leer ist und 4.080 Byte nicht überschreitet.
+ **Größe der POSIX-Berechtigungsmetadaten** — Dateien oder Verzeichnisse, bei denen die POSIX-Berechtigungsmetadaten 2 KB überschreiten, können nicht nach S3 exportiert werden.

## Kontingente
<a name="s3-files-quotas-resource"></a>

Die folgenden Kontingente können erhöht werden, indem Sie sich an den AWS Support wenden.


| Ressource | Standardkontingent | 
| --- | --- | 
| Dateisysteme pro AWS Konto | 1.000 | 
| Zugriffspunkte pro Dateisystem | 10.000 | 

Um eine Erhöhung zu beantragen, öffnen Sie das [AWS Support Center](https://console.aws.amazon.com/support/home), wählen Sie **Create Case** und dann **Service Limit Increase** aus.

Die folgenden Kontingente können nicht geändert werden.


| Ressource | Kontingent | 
| --- | --- | 
| Verbindungen pro Dateisystem | 25,000 | 
| Mounten Sie Ziele pro Dateisystem pro Availability Zone | 1 | 
| Sicherheitsgruppen pro Mounting-Ziel | 5 | 
| Tags pro Dateisystem | 50 | 
| VPCs pro Dateisystem | 1 | 

Es gibt auch Kontingente, die für einzelne Dateisysteme spezifisch sind.


| Ressource | Kontingent | 
| --- | --- | 
| Maximale Dateigröße | 52.673.613.135.872 Bytes (48 TiB) | 
| Maximale Verzeichnistiefe | 1.000 Stufen | 
| Maximale Länge des Dateinamens | 255 Byte | 
| Maximale Länge des Symlink-Ziels | 4.080 Byte | 
| Maximale Länge des S3-Objektschlüssels | 1,024 Bytes | 
| Maximale Anzahl geöffneter Dateien pro Client | 32.768 | 
| Maximale Anzahl aktiver Benutzerkonten pro Kunde | 128 | 
| Maximale Anzahl an Sperren pro Datei | 512 für alle verbundenen Instanzen | 
| Maximale Anzahl an Sperren pro Halterung | 8.192 in bis zu 256 Dateiprozess-Paaren | 
| Größenbeschränkung für Dateisystemrichtlinien | 20.000 Zeichen | 

## NFS-Funktionen werden nicht unterstützt
<a name="s3-files-unsupported-nfs"></a>

S3 Files unterstützt NFSv4 .1 und NFSv4 .2 mit den folgenden Ausnahmen:
+ pNFS
+ Delegierung oder Rückrufe durch den Kunden
+ Obligatorisches Sperren (alle Sperren sind empfehlenswert)
+ Verweigerung der Freigabe
+ Zugriffskontrolllisten (ACLs)
+ Kerberos-basierte Sicherheit
+ NFSv41. Aufbewahrung von Daten
+ SetUID auf Verzeichnissen
+ Blockieren Sie Geräte, Zeichengeräte, Attributverzeichnisse und benannte Attribute
+ Die `nconnect` Mount-Option

# Problembehandlung bei S3-Dateien
<a name="s3-files-troubleshooting"></a>

Auf dieser Seite können Sie häufig auftretende Probleme mit S3-Dateien diagnostizieren und lösen.
+ [Der Mount-Befehl schlägt fehl](#s3-files-troubleshooting-mount-fails)
+ [Zugriff auf Dateioperationen verweigert](#s3-files-troubleshooting-permission-denied)
+ [Intelligentes Leserouting funktioniert nicht](#s3-files-troubleshooting-read-routing)
+ [Das Dateisystem gibt durchweg einen NFS-Serverfehler zurück](#s3-files-troubleshooting-encrypted-fs)
+ [Fehlendes Objekt im S3-Bucket nach dem Schreiben im Dateisystem](#s3-files-troubleshooting-missing-object)
+ [Dateien, die im Verzeichnis Lost and Found erscheinen](#s3-files-troubleshooting-lost-found)
+ [Die Synchronisation gerät ins Hintertreffen](#s3-files-troubleshooting-sync-behind)
+ [Debug-Logs für Clients aktivieren](#s3-files-troubleshooting-debug-logs)

## Der Mount-Befehl schlägt fehl
<a name="s3-files-troubleshooting-mount-fails"></a>

Der `mount -t s3files` Befehl schlägt mit einem Fehler fehl.

**Häufige Ursachen und Maßnahmen:**
+ **„mount.s3files: Befehl nicht gefunden“** — Der S3 Files-Client (amazon-efs-utils) ist nicht installiert oder liegt unter Version 3.0.0. Installieren oder aktualisieren Sie den Client. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md).
+ **„Fehler beim Auflösen des DNS-Namens des Dateisystems“** — In der Availability Zone, in der Ihre EC2-Instance ausgeführt wird, gibt es kein Mount-Ziel. Erstellen Sie ein Mount-Ziel in dieser Availability Zone oder starten Sie Ihre Instance in einer Availability Zone, die über ein Mount-Ziel verfügt. Weitere Informationen finden Sie unter [Erstellen von Bereitstellungszielen](s3-files-mount-targets-creating.md).
+ **Verbindungstimeout** — Die Sicherheitsgruppenkonfiguration lässt keinen NFS-Verkehr zu. Stellen Sie sicher, dass die Sicherheitsgruppe des Mount-Ziels eingehendes TCP auf Port 2049 von der Sicherheitsgruppe Ihrer Instance zulässt und dass die Sicherheitsgruppe Ihrer Instance ausgehendes TCP auf Port 2049 zur Sicherheitsgruppe des Mount-Ziels zulässt. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md).
+ **„Zugriff verweigert“ beim Mounten** — Die Ihrer Rechenressource zugeordnete IAM-Rolle verfügt nicht über die erforderlichen S3 Files-Berechtigungen. Stellen Sie sicher, dass der Rolle die Richtlinie `AmazonS3FilesClientFullAccess` oder die `AmazonS3FilesClientReadOnlyAccess` verwaltete Richtlinie oder zumindest die `s3files:ClientMount` entsprechende Berechtigung zugewiesen wurde. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md).
+ **Botocore nicht installiert** — Der Mount Helper benötigt Botocore, um mit Diensten zu interagieren. AWS Installieren Sie Botocore gemäß den Anweisungen in der README-Datei unter. amazon-efs-utils GitHub

## Zugriff auf Dateioperationen verweigert
<a name="s3-files-troubleshooting-permission-denied"></a>

Sie können das Dateisystem mounten, erhalten aber beim Lesen, Schreiben oder Zugreifen auf Dateien die Fehlermeldung „Zugriff verweigert“ oder „Vorgang nicht erlaubt“.

**Häufige Ursachen und Maßnahmen:**
+ **Fehlende Schreibberechtigung** — Wenn Sie lesen, aber nicht schreiben können, stellen Sie sicher, dass die Ihrer Rechenressource zugeordnete IAM-Rolle die `s3files:ClientWrite` entsprechende Berechtigung enthält, oder fügen Sie die Richtlinie `AmazonS3FilesClientReadWriteAccess` oder die `AmazonS3FilesClientFullAccess` verwaltete Richtlinie hinzu. Weitere Informationen finden Sie unter [AWS Verwaltete Richtlinien für Amazon S3 S3-Dateien](s3-files-security-iam-awsmanpol.md).
+ **Fehlender Root-Zugriff** — Wenn Sie beim Zugriff auf Dateien, die Root gehören (UID 0), Berechtigungsfehler erhalten, verfügt Ihre IAM-Rolle möglicherweise nicht über die `s3files:ClientRootAccess` entsprechende Berechtigung. Ohne diese Berechtigung werden alle Operationen als anonymer NFS-Benutzer (normalerweise nfsnobody) ausgeführt, der möglicherweise keinen Zugriff auf die Dateien hat. Hängen Sie die `AmazonS3FilesClientFullAccess` verwaltete Richtlinie an oder fügen Sie `s3files:ClientRootAccess` sie Ihrer Richtlinie hinzu.
+ **Dateisystemrichtlinie, die den Zugriff verweigert** — Wenn Sie eine Dateisystemrichtlinie angehängt haben, stellen Sie sicher, dass diese nicht die Aktionen verweigert, die Ihre Kunden benötigen. Ein „Zulassen“ in der identitätsbasierten Richtlinie oder der Dateisystemrichtlinie reicht für den Zugriff aus. Weitere Informationen finden Sie unter [So funktioniert S3 Files mit IAM](s3-files-security-iam.md).
+ **Nichtübereinstimmung der POSIX-Berechtigungen** — S3 Files erzwingt POSIX-Standardberechtigungen (Besitzer, Gruppe, andere) für Dateien und Verzeichnisse. Wenn Ihre Anwendung als Benutzer ausgeführt wird, der nicht dem Eigentümer oder der Gruppe der Datei entspricht, kann der Zugriff verweigert werden, selbst wenn die IAM-Berechtigungen korrekt sind. Verwenden Sie einen Zugriffspunkt, um UID/GID für alle Anfragen eine bestimmte Regel durchzusetzen. Weitere Informationen finden Sie unter [Access Points für ein S3-Dateisystem erstellen](s3-files-access-points-creating.md).

## Intelligentes Leserouting funktioniert nicht
<a name="s3-files-troubleshooting-read-routing"></a>

S3 Files führt intelligentes Leserouting durch, indem es Leseanforderungen automatisch an die für sie am besten geeignete Speicherebene weiterleitet und dabei die vollständige Dateisystemsemantik einschließlich Konsistenz, Sperren und POSIX-Berechtigungen beibehält. Kleine, zufällige Lesevorgänge von aktiv verwendeten Dateien werden aus dem Hochleistungsspeicher bereitgestellt, um eine geringe Latenz zu gewährleisten. Große sequentielle Lese- und Lesevorgänge von Daten, die sich nicht im Dateisystem befinden, werden direkt von Ihrem S3-Bucket aus ausgeführt, um einen hohen Durchsatz zu gewährleisten, ohne dass für das Dateisystem Gebühren anfallen.

Intelligentes Lese-Routing funktioniert möglicherweise nicht, wenn eine der Client-Konnektivitätsmetriken (`NFSConnectionAccessible``S3BucketAccessible`, und`S3BucketReachable`) 0 anzeigt oder wenn Sie nicht den erwarteten Lesedurchsatz sehen.

**Häufige Ursachen und Maßnahmen:**
+ **Fehlende S3-Inline-Richtlinie für die Rechenrolle** — Die Ihrer Rechenressource zugeordnete IAM-Rolle muss eine Inline-Policy-Gewährung `s3:GetObject` für den verknüpften S3-Bucket beinhalten. `s3:GetObjectVersion` Ohne diese Richtlinie kann der Mount-Helper nicht direkt aus S3 lesen und alle Lesevorgänge werden über das Dateisystem abgewickelt. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md).
+ **S3-Bucket nicht erreichbar** — Überprüfen Sie die `S3BucketReachable` Metrik. Wenn 0 angezeigt wird, stellen Sie sicher, dass Ihre Rechenressource Netzwerkzugriff auf S3 hat (z. B. über einen VPC-Endpunkt oder ein NAT-Gateway).
+ **Datei wurde geändert** — Lesevorgänge werden nur direkt von S3 aus bereitgestellt, wenn die Datei nicht über das Dateisystem geändert wurde. Wenn Sie in die Datei geschrieben haben und die Änderungen noch nicht mit S3 synchronisiert wurden, werden Lesevorgänge durch das Dateisystem geleitet, bis die Synchronisation abgeschlossen ist.

## Das Dateisystem gibt durchweg einen NFS-Serverfehler zurück
<a name="s3-files-troubleshooting-encrypted-fs"></a>

Ein verschlüsseltes Dateisystem gibt ständig NFS-Serverfehler zurück. Diese Fehler können auftreten, wenn S3 Files Ihren KMS-Schlüssel aus einem der folgenden Gründe nicht von AWS KMS abrufen kann:
+ Der Schlüssel wurde deaktiviert.
+ Der Schlüssel wurde gelöscht.
+ Die Erlaubnis für S3 Files, den Schlüssel zu verwenden, wurde widerrufen.
+ AWS KMS ist vorübergehend nicht verfügbar.

**Maßnahme**

Vergewissern Sie sich zunächst, dass der AWS KMS-Schlüssel aktiviert ist. Sie können Ihre Schlüssel in der AWS KMS-Konsole einsehen. Weitere Informationen finden Sie unter [Anzeigen von Schlüsseln](https://docs.aws.amazon.com/kms/latest/developerguide/viewing-keys.html) im *Entwicklerhandbuch für AWS Key Management Service*.

Wenn der Schlüssel nicht aktiviert ist, aktivieren Sie ihn. Weitere Informationen finden Sie unter [Aktivieren und Deaktivieren von Schlüsseln](https://docs.aws.amazon.com/kms/latest/developerguide/enabling-keys.html) im *Entwicklerhandbuch für AWS Key Management Service*.

Wenn der Schlüssel noch gelöscht werden muss, brechen Sie den Löschvorgang ab und aktivieren Sie den Schlüssel erneut. Weitere Informationen finden Sie im Key *Management Service Developer Guide unter [Planen und Abbrechen der AWS Schlüssellöschung](https://docs.aws.amazon.com/kms/latest/developerguide/deleting-keys.html)*.

Wenn der Schlüssel aktiviert ist und Sie weiterhin Probleme haben, wenden Sie sich an den AWS Support.

## Fehlendes Objekt im S3-Bucket nach dem Schreiben im Dateisystem
<a name="s3-files-troubleshooting-missing-object"></a>

Sie haben eine Datei über das Dateisystem geschrieben und erwartet, dass sie als Objekt in Ihrem S3-Bucket erscheint, aber das Objekt ist nicht da. S3 Files stapelt Änderungen für etwa 60 Sekunden, bevor sie nach S3 kopiert werden. Wenn das Objekt immer noch nicht angezeigt wird, ist der Export möglicherweise fehlgeschlagen. In einem solchen Fall werden Sie feststellen, dass die `FailedExports` CloudWatch Metrik zunimmt.

**Maßnahme**

Überprüfen Sie den Exportstatus der Datei mithilfe erweiterter Attribute:

```
getfattr -n "user.s3files.status;$(date -u +%s)" missing-file.txt --only-values
```

Der Zeitstempel im Attributnamen stellt sicher, dass Sie den neuesten Status erhalten. Beispielausgabe:

```
S3Key: s3://bucket/prefix/missing-file.txt
ExportError: PathTooLong
```

`ExportError`wird nicht angezeigt, wenn kein Exportfehler vorliegt. `S3Key`ist leer, wenn ein S3-Objekt nie mit der Datei verknüpft wurde.

In der folgenden Tabelle sind alle möglichen `ExportError` Werte aufgeführt:


| Fehler | Ursache | 
| --- | --- | 
| S3AccessDenied | Die IAM-Rolle, von der S3 Files ausgeht, verfügt nicht über ausreichende Berechtigungen, um in den S3-Bucket zu schreiben. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md). | 
| S3BucketNotFound | Der Quell-S3-Bucket ist nicht mehr vorhanden oder wurde umbenannt. Stellen Sie sicher, dass er in der erwarteten AWS Region und im erwarteten Konto vorhanden ist. | 
| InternalError | Es ist ein interner Systemfehler aufgetreten. | 
| S3UserMetadataTooLarge | Die Größenbeschränkung für S3-Benutzermetadaten wurde überschritten. Informationen [Nicht unterstützte Funktionen, Beschränkungen und Kontingente](s3-files-quotas.md) zu diesen Grenzwerten finden Sie unter. | 
| FileSizeExceedsS3Limit | Die Dateigröße überschreitet die Größenbeschränkung für S3-Objekte. Informationen [Nicht unterstützte Funktionen, Beschränkungen und Kontingente](s3-files-quotas.md) zu diesen Beschränkungen finden Sie unter. | 
| EncryptionKeyInaccessible | Auf den vom S3-Bucket verwendeten Verschlüsselungsschlüssel kann für S3-Dateien nicht zugegriffen werden. Gewähren Sie S3 Files Zugriff auf Ihren Verschlüsselungsschlüssel. Weitere Informationen finden Sie unter [Verschlüsselung](s3-files-encryption.md). | 
| RoleAssumptionFailed | Die Rolle konnte nicht übernommen werden. Überprüfen Sie Ihre Vertrauensrichtlinien. Weitere Informationen finden Sie unter [Voraussetzungen für S3-Dateien](s3-files-prereq-policies.md). | 
| KeyTooLongToBreakCycle | S3-Dateien konnten eine zirkuläre Abhängigkeit nicht auflösen (z. B. aufgrund der Umbenennung von zwei Dateien in jeweils andere Namen), da der Dateipfad die S3-Schlüssellängenbeschränkung überschreitet. Kürzen Sie den Verzeichnispfad, um diesen Fehler zu beheben. | 
| PathTooLong | Ihr Dateipfad überschreitet die S3-Schlüssellängenbeschränkung. Informationen [Nicht unterstützte Funktionen, Beschränkungen und Kontingente](s3-files-quotas.md) zu diesen Beschränkungen finden Sie unter. | 
| DependencyExportFailed | Bei einem übergeordneten Element oder einer Abhängigkeit ist ein Exportfehler aufgetreten, der nicht erneut versucht werden kann. Überprüfen Sie den Status des übergeordneten Elements oder aller Abhängigkeiten mithilfe von. getfattr | 
| S3ObjectArchived | Das S3-Objekt ist archiviert (S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive) und kann nicht gelesen werden. Stellen Sie das Objekt zuerst mit dem S3 APIs wieder her. | 

S3 Files wiederholt automatisch fehlgeschlagene Exporte. `ExportError`wird nur bei Fehlern angezeigt, die nicht erneut versucht werden können.

## Dateien, die im Verzeichnis Lost and Found erscheinen
<a name="s3-files-troubleshooting-lost-found"></a>

Dateien wurden in dem `.s3files-lost+found-file-system-id` Verzeichnis im Stammverzeichnis Ihres Dateisystems angezeigt. In diesem Fall sehen Sie einen Anstieg der `LostAndFoundFiles` CloudWatch Metrik. Dies tritt auf, wenn ein Synchronisationskonflikt auftritt. Ein Konflikt tritt auf, wenn dieselbe Datei im Dateisystem geändert wird und sich das entsprechende S3-Objekt ändert, bevor S3 Files die Dateisystemänderungen wieder mit S3 synchronisiert. S3 Files behandelt den S3-Bucket als Quelle der Wahrheit, verschiebt die widersprüchliche Datei in das Verzeichnis Lost and Found und importiert die neueste Version aus dem S3-Bucket in das Dateisystem.

**Identifizieren von Dateien im Verzeichnis Lost and Found**

Wenn S3 Files eine Datei in das Verzeichnis Lost and Found verschiebt, wird dem Dateinamen eine hexadezimale Kennung vorangestellt, um mehrere Versionen derselben Datei zu unterscheiden, die im Laufe der Zeit möglicherweise verschoben werden. Dateinamen, die länger als 100 Zeichen sind, werden gekürzt, um Platz für diesen Bezeichner zu schaffen. Der ursprüngliche Verzeichnispfad der Datei wird im Verzeichnis Lost and Found nicht beibehalten.

**Maßnahme**

Rufen Sie den ursprünglichen Pfad der Datei und den entsprechenden S3-Objektschlüssel ab:

```
getfattr -n "user.s3files.status;$(date -u +%s)" .s3files-lost+found-fs-12345678/abcdef1234_report.csv --only-values
```

Beispielausgabe:

```
S3Key: s3://bucket/prefix/report.csv
FilePath: /data/report.csv
```


| Feld | Description | 
| --- | --- | 
| S3Key | Vollständiger S3-Pfad des Objekts, das den Konflikt verursacht hat, oder leer, wenn das Objekt im S3-Bucket gelöscht wurde. | 
| FilePath | Relativer Pfad der Datei vor dem Konflikt. | 

Sie können dann entweder die neueste Version aus Ihrem S3-Bucket behalten und die Datei aus dem Verzeichnis Lost and Found löschen, oder Sie können die Datei aus dem Lost & Found-Verzeichnis zurück in ihren ursprünglichen Pfad kopieren, um die S3-Version zu überschreiben.

**Anmerkung**  
Dateien im Verzeichnis Lost and Found verbleiben dort auf unbestimmte Zeit und werden auf die Speicherkosten Ihres Dateisystems angerechnet. Löschen Sie Dateien aus dem Verzeichnis Lost and Found, wenn sie nicht mehr benötigt werden.

## Die Synchronisation gerät ins Hintertreffen
<a name="s3-files-troubleshooting-sync-behind"></a>

Die `PendingExports` CloudWatch Zahl wächst, was darauf hindeutet, dass Ihr Workload Änderungen schneller generiert, als S3 Files sie mit S3 synchronisieren kann.

Das bedeutet, dass Ihre Arbeitslast möglicherweise die Synchronisierungsrate überschreitet. S3 Files exportiert bis zu 800 Dateien pro Sekunde pro Dateisystem. Erwägen Sie, die Anzahl der Dateiänderungen zu reduzieren oder die Arbeit auf mehrere Dateisysteme zu verteilen. Überwachen Sie die `PendingExports` Metrik im Laufe der Zeit. Wenn sie sich stabilisiert oder abnimmt, holt S3 Files auf. Wenn es weiter wächst, wenden Sie sich an den AWS Support.

## Debug-Logs für Clients aktivieren
<a name="s3-files-troubleshooting-debug-logs"></a>

Wenn Sie Probleme mit der Bereitstellung, der Konnektivität oder der Umgehung von Lesevorgängen beheben möchten, können Sie die Protokollierung auf Debug-Ebene auf dem S3 Files-Client aktivieren, um mehr Details zu erfassen.

**Mounten Sie die Helper- und Watchdog-Protokolle**

Bearbeiten `/etc/amazon/efs/s3files-utils.conf` und ändern Sie die Protokollierungsebene von INFO auf DEBUG:

```
[DEFAULT]
logging_level = DEBUG
```

Hängen Sie das Dateisystem aus und hängen Sie es erneut ein, damit die Änderung wirksam wird:

```
sudo umount /mnt/s3files
sudo mount -t s3files file-system-id:/ /mnt/s3files
```

Protokolle werden in geschrieben. `/var/log/amazon/efs/` Das Mount Helper-Protokoll ist`mount.log`.

**Proxyprotokolle (efs-proxy)**

Der Proxy verarbeitet den NFS-Verkehr und den S3-Lesebypass. Um die Debug-Protokollierung für den Proxy zu aktivieren, bearbeiten Sie: `/etc/amazon/efs/s3files-utils.conf`

```
[proxy]
proxy_logging_level = DEBUG
```

Hängen Sie das Gerät aus und hängen Sie es erneut ein, damit die Änderung wirksam wird. Proxyprotokolle werden in geschrieben. `/var/log/amazon/efs/`

**TLS-Tunnelprotokolle (Stunnel)**

TLS-Tunnelprotokolle sind standardmäßig deaktiviert. Um sie zu aktivieren, bearbeiten `/etc/amazon/efs/s3files-utils.conf` und stellen Sie Folgendes ein:

```
[mount]
stunnel_debug_enabled = true
```

Um alle Stunnel-Logs für ein Dateisystem in einer einzigen Datei zu speichern, entfernen Sie auch das Kommentarzeichen aus der `stunnel_logs_file` Zeile:

```
stunnel_logs_file = /var/log/amazon/efs/{fs_id}.stunnel.log
```

**Größenbeschränkungen für Protokolle**

Protokolldateien werden automatisch rotiert. Sie können die maximale Größe und Anzahl rotierter Dateien konfigurieren in`s3files-utils.conf`:

```
[DEFAULT]
logging_max_bytes = 1048576
logging_file_count = 10
```

Die Standardeinstellung ist 1 MB pro Protokolldatei mit 10 rotierten Dateien, also maximal 10 MB pro Protokolltyp.

**Logs mit dem AWS Support teilen**

Wenn Sie sich an den AWS Support wenden, sammeln Sie die Client-Logs und die Konfiguration in einem einzigen Archiv:

```
sudo tar -czf /tmp/s3files-support-logs.tar.gz \
  /var/log/amazon/efs/ \
  /etc/amazon/efs/s3files-utils.conf
```

Fügen `/tmp/s3files-support-logs.tar.gz` Sie es Ihrer Support-Anfrage bei.