

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Protokollieren von Datenereignissen
<a name="logging-data-events-with-cloudtrail"></a>

In diesem Abschnitt wird beschrieben, wie Datenereignisse mithilfe der [CloudTrail Konsole](#logging-data-events-console) und protokolliert [AWS CLI](#creating-data-event-selectors-with-the-AWS-CLI)werden.

Standardmäßig werden Datenereignisse nicht von Trails und Ereignisdatenspeichern protokolliert. Für Datenereignisse werden zusätzliche Gebühren fällig. Weitere Informationen finden Sie unter [AWS CloudTrail  – Preise](https://aws.amazon.com/cloudtrail/pricing/).

Datenereignisse liefern Informationen zu Ressourcenoperationen, die für oder innerhalb einer Ressource ausgeführt wurden. Sie werden auch als *Vorgänge auf Datenebene* bezeichnet. Datenereignisse sind oft Aktivitäten mit hohem Volume.

Beispiele für Datenereignisse:
+ [Amazon S3 S3-API-Aktivität auf Objektebene](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events) (z. B., `GetObject``DeleteObject`, und `PutObject` API-Operationen) für Objekte in S3-Buckets.
+ AWS Lambda Aktivität zur Ausführung von Funktionen (die `Invoke` API).
+ CloudTrail [https://docs.aws.amazon.com/awscloudtraildata/latest/APIReference/API_PutAuditEvents.html](https://docs.aws.amazon.com/awscloudtraildata/latest/APIReference/API_PutAuditEvents.html)Aktivität auf einem [CloudTrail Lake-Kanal](query-event-data-store-integration.md), der verwendet wird, um Ereignisse von außen zu protokollieren AWS.
+ [https://docs.aws.amazon.com/sns/latest/api/API_Publish.html](https://docs.aws.amazon.com/sns/latest/api/API_Publish.html)- und [https://docs.aws.amazon.com/sns/latest/api/API_PublishBatch.html](https://docs.aws.amazon.com/sns/latest/api/API_PublishBatch.html)-API-Operationen von Amazon SNS zu Themen.

Sie können erweiterte Event-Selektoren verwenden, um detaillierte Selektoren zu erstellen, die Ihnen helfen, die Kosten zu kontrollieren, indem sie nur die spezifischen Ereignisse protokollieren, die für Ihre Anwendungsfälle von Interesse sind. Sie können beispielsweise erweiterte Event-Selektoren verwenden, um bestimmte API-Aufrufe zu protokollieren, indem Sie dem Feld einen Filter hinzufügen. `eventName` Weitere Informationen finden Sie unter [Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md).

**Anmerkung**  
Die Ereignisse, die von Ihren Trails protokolliert werden, sind bei Amazon verfügbar EventBridge. Wenn Sie beispielsweise für den Trail festlegen, dass er Datenereignisse für S3-Objekte, aber keine Verwaltungsereignisse protokolliert, verarbeitet und protokolliert Ihr Trail nur Datenereignisse für die angegebenen S3-Objekte. Die Datenereignisse für diese S3-Objekte sind in Amazon verfügbar EventBridge. Weitere Informationen finden Sie unter [AWS Serviceereignisse, die über bereitgestellt werden](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-service-event-cloudtrail.html), CloudTrail im * EventBridge Amazon-Benutzerhandbuch* und in der [AWS Veranstaltungsreferenz](https://docs.aws.amazon.com//eventbridge/latest/ref/welcome.html). 

**Contents**
+ [Datenereignisse](#logging-data-events)
  + [Datenereignisse werden unterstützt von AWS CloudTrail](#w2aac21c31c19c11)
  + [Beispiele: Protokollieren von Datenereignissen für Amazon-S3-Objekte](#logging-data-events-examples)
  + [Protokollierung von Datenereignissen für S3-Objekte in anderen AWS Konten](#logging-data-events-for-s3-resources-in-other-accounts)
+ [Schreibgeschützte Ereignisse und Nur-Schreiben-Ereignisse](#read-write-events-data)
+ [Protokollieren von Datenereignissen mit dem AWS-Managementkonsole](#logging-data-events-console)
+ [Protokollieren von Datenereignissen mit dem AWS Command Line Interface](#creating-data-event-selectors-with-the-AWS-CLI)
  + [Protokollierung von Datenereignissen für Trails mit dem AWS CLI](#logging-data-events-CLI-trail-examples)
    + [Protokollieren Sie Datenereignisse für Trails mithilfe erweiterter Event-Selektoren](#creating-data-event-selectors-advanced)
    + [Protokollieren Sie alle Amazon S3 S3-Ereignisse für einen Amazon S3 S3-Bucket mithilfe erweiterter Event-Selektoren](#creating-data-adv-event-selectors-CLI-s3)
    + [Amazon S3 AWS Outposts S3-Ereignisse mithilfe erweiterter Event-Selektoren protokollieren](#creating-data-event-selectors-CLI-outposts)
    + [Protokollieren von Ereignissen mithilfe grundlegender Ereignisselektoren](#creating-data-event-selectors-basic)
  + [Protokollieren von Datenereignissen für Ereignisdatenspeicher mit dem AWS CLI](#logging-data-events-CLI-eds-examples)
    + [Alle Amazon S3 S3-Ereignisse für einen bestimmten Bucket einbeziehen](#creating-data-adv-event-selectors-CLI-s3-eds)
    + [Amazon S3 in AWS Outposts Veranstaltungen einbeziehen](#creating-data-event-selectors-CLI-outposts-eds)
+ [Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md)
  + [Wie CloudTrail werden mehrere Bedingungen für ein Feld ausgewertet](filtering-data-events.md#filtering-data-events-conditions)
    + [Beispiel, das mehrere Bedingungen für das `resources.ARN` Feld zeigt](filtering-data-events.md#filtering-data-events-conditions-ex)
  + [AWS CLI Beispiele für das Filtern von Datenereignissen](filtering-data-events.md#filtering-data-events-examples)
    + [Beispiel 1: Nach dem `eventName` Feld filtern](filtering-data-events.md#filtering-data-events-eventname)
    + [Beispiel 2: Filtern nach den `userIdentity.arn` Feldern `resources.ARN` und](filtering-data-events.md#filtering-data-events-useridentityarn)
    + [Beispiel 3: Filtern nach den `eventName` Feldern `resources.type` und, um einzelne Objekte auszuschließen, die durch ein Amazon S3 DeleteObjects S3-Ereignis gelöscht wurden](filtering-data-events.md#filtering-data-events-deleteobjects)
+ [Aggregieren von Datenereignissen](aggregating-data-events.md)
  + [Aktivieren von Aggregationen für Datenereignisse mithilfe der Konsole](aggregating-data-events.md#aggregating-data-events-console)
  + [Aktivieren von Aggregationen für Datenereignisse mithilfe der AWS CLI](aggregating-data-events.md#aggregating-data-events-cli)
    + [Beispiel: API\$1ACTIVITY aggregiertes Ereignis](aggregating-data-events.md#aggregating-data-events-api-activity-example)
    + [Beispiel: Aggregiertes Ereignis RESOURCE\$1ACCESS](aggregating-data-events.md#aggregating-data-events-resource-access-example)
+ [Protokollierung von Datenereignissen zur Einhaltung gesetzlicher Vorschriften AWS Config](#config-data-events-best-practices)
+ [Protokollieren von Datenereignissen mit dem AWS SDKs](#logging-data-events-with-the-AWS-SDKs)

## Datenereignisse
<a name="logging-data-events"></a>

In der folgenden Tabelle sind die Ressourcentypen aufgeführt, die für Datenspeicher für Wanderwege und Ereignisse verfügbar sind. In der Spalte **Ressourcentyp (Konsole)** wird die entsprechende Auswahl in der Konsole angezeigt. In der **Wertspalte resources.type** wird der `resources.type` Wert angezeigt, den Sie angeben würden, um Datenereignisse dieses Typs mit oder in Ihren Trail- oder Event-Datenspeicher aufzunehmen. AWS CLI CloudTrail APIs

Für Trails können Sie einfache oder erweiterte Event-Selektoren verwenden, um Datenereignisse für Amazon S3 S3-Objekte in Allzweck-Buckets, Lambda-Funktionen und DynamoDB-Tabellen (in den ersten drei Zeilen der Tabelle dargestellt) zu protokollieren. Sie können nur erweiterte Event-Selektoren verwenden, um die in den verbleibenden Zeilen angezeigten Ressourcentypen zu protokollieren.

Für Ereignisdatenspeicher können Sie nur erweiterte Ereignisselektoren verwenden, um Datenereignisse einzubeziehen.

### Datenereignisse werden unterstützt von AWS CloudTrail
<a name="w2aac21c31c19c11"></a>


****  

| AWS-Service | Description | Ressourcentyp (Konsole) | resources.type-Wert | 
| --- | --- | --- | --- | 
| Amazon RDS | [Amazon RDS-API-Aktivität](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/logging-using-cloudtrail-data-api.html#logging-using-cloudtrail-data-api.including-excluding-cloudtrail-events) in einem DB-Cluster. | RDS-Daten-API — DB-Cluster | AWS::RDS::DBCluster | 
| Amazon S3 | [API-Aktivitäten auf Amazon S3 S3-Objektebene](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events) (z. B., `GetObject``DeleteObject`, und `PutObject` API-Operationen) für Objekte in Allzweck-Buckets. | S3 | AWS::S3::Object | 
| Amazon S3 | [Amazon S3 S3-API-Aktivität](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events) auf Access Points. | S3-Zugangspunkt | AWS::S3::AccessPoint | 
| Amazon S3 | [Amazon S3 S3-API-Aktivität auf Objektebene](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events) (z. B., `GetObject``DeleteObject`, und `PutObject` API-Operationen) für Objekte in Verzeichnis-Buckets. | S3 Express | AWS::S3Express::Object | 
| Amazon S3 | [API-Aktivitäten für Amazon S3 Object Lambda Access Points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events), z. B. Aufrufe von `CompleteMultipartUpload` und`GetObject`. | S3 Object Lambda | AWS::S3ObjectLambda::AccessPoint | 
| Amazon S3 |  FSx Amazon-API-Aktivität auf Volumes.  | FSx Volumen | AWS::FSx::Volume | 
| Amazon S3 Tables | Amazon S3 S3-API-Aktivität für [Tabellen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-create.html). | S3-Tabelle | AWS::S3Tables::Table | 
| Amazon S3 Tables | Amazon S3 S3-API-Aktivität für [Tabellen-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-buckets.html). | S3-Tabell-Bucket | AWS::S3Tables::TableBucket | 
| Amazon S3 Vectors | Amazon S3 S3-API-Aktivität für [Vektor-Buckets](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-buckets.html). | S3-Vektor-Bucket | AWS::S3Vectors::VectorBucket | 
| Amazon S3 Vectors | Amazon S3 S3-API-Aktivität für [Vektorindizes](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-vectors-indexes.html). | S3-Vektorindex | AWS::S3Vectors::Index | 
| Amazon S3 on Outposts |  API-Aktivität auf Objektebene auf [Amazon S3 on Outposts](https://docs.aws.amazon.com/AmazonS3/latest/userguide/cloudtrail-logging-s3-info.html#cloudtrail-data-events). | S3-Outposts | AWS::S3Outposts::Object | 
| Amazon SNS | [https://docs.aws.amazon.com/sns/latest/api/API_Publish.html](https://docs.aws.amazon.com/sns/latest/api/API_Publish.html)-API-Operationen von Amazon SNS auf Plattformendpunkten. | SNS-Plattformendpunkt | AWS::SNS::PlatformEndpoint | 
| Amazon SNS | [https://docs.aws.amazon.com/sns/latest/api/API_Publish.html](https://docs.aws.amazon.com/sns/latest/api/API_Publish.html)- und [https://docs.aws.amazon.com/sns/latest/api/API_PublishBatch.html](https://docs.aws.amazon.com/sns/latest/api/API_PublishBatch.html)-API-Operationen von Amazon SNS zu Themen. | SNS-Thema | AWS::SNS::Topic | 
| Amazon SQS | [Amazon-SQS-API-Aktivität](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-logging-using-cloudtrail.html#sqs-data-events-in-cloud-trail) auf Nachrichten.  | SQS | AWS::SQS::Queue | 
| Supply Chain | Supply Chain API-Aktivität auf einer Instanz.  | Lieferkette | AWS::SCN::Instance | 
| Amazon SWF | [Amazon SWF SWF-API-Aktivität](https://docs.aws.amazon.com/amazonswf/latest/developerguide/ct-logging.html#cloudtrail-data-events) auf [Domains](https://docs.aws.amazon.com/amazonswf/latest/developerguide/swf-dev-domains.html).  | SWF-Domäne | AWS::SWF::Domain | 
| AWS AppConfig | [AWS AppConfig API-Aktivität](https://docs.aws.amazon.com/appconfig/latest/userguide/logging-using-cloudtrail.html#appconfig-data-events-cloudtrail) für Konfigurationsvorgänge wie Aufrufe von `StartConfigurationSession` und`GetLatestConfiguration`. | AWS AppConfig | AWS::AppConfig::Configuration | 
| AWS AppSync | [AWS AppSync API-Aktivität](https://docs.aws.amazon.com/appsync/latest/devguide/cloudtrail-logging.html#cloudtrail-data-events) auf AppSync GraphQL APIs. | AppSync GraphQL | AWS::AppSync::GraphQLApi | 
| Amazon Aurora DSQL | Amazon Aurora DSQL API-Aktivität auf Cluster-Ressourcen.  | Amazon Aurora DSQL | AWS::DSQL::Cluster | 
| AWS B2B-Datenaustausch | B2B-Datenaustausch-API-Aktivität für Transformer-Operationen wie Aufrufe von `GetTransformerJob` und `StartTransformerJob`. | B2B-Datenaustausch | AWS::B2BI::Transformer | 
| AWS Backup | AWS Backup Suchdaten-API-Aktivität bei Suchaufträgen. | AWS Backup Daten durchsuchen APIs | AWS::Backup::SearchJob | 
| Amazon Bedrock | [Amazon-Bedrock-API-Aktivität](https://docs.aws.amazon.com/bedrock/latest/userguide/logging-using-cloudtrail.html#service-name-data-events-cloudtrail) auf einem Agent-Alias. | Bedrock-Agent-Alias | AWS::Bedrock::AgentAlias | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität bei asynchronen Aufrufen. | Asynchroner Aufruf von Bedrock | AWS::Bedrock::AsyncInvoke | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität für einen Flow-Alias. | Bedrock Flow-Alias | AWS::Bedrock::FlowAlias | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität auf Leitplanken. | Grundfels-Leitplanke | AWS::Bedrock::Guardrail | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität auf Inline-Agenten. | Bedrock Inline-Agent aufrufen | AWS::Bedrock::InlineAgent | 
| Amazon Bedrock | [Amazon-Bedrock-API-Aktivität](https://docs.aws.amazon.com/bedrock/latest/userguide/logging-using-cloudtrail.html#service-name-data-events-cloudtrail) auf einer Wissensdatenbank. | Bedrock-Wissensdatenbank | AWS::Bedrock::KnowledgeBase | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität für Modelle. | Bedrock-Modell | AWS::Bedrock::Model | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität bei Eingabeaufforderungen. | Bedrock-Eingabeaufforderung | AWS::Bedrock::PromptVersion | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität in Sitzungen. | Bedrock-Sitzung | AWS::Bedrock::Session | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität bei Flow-Ausführungen.  | Ausführung von Bedrock-Flows | AWS::Bedrock::FlowExecution | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität im Rahmen einer automatisierten Argumentationsrichtlinie.  | Richtlinie für automatisiertes Denken von Bedrock | AWS::Bedrock::AutomatedReasoningPolicy | 
| Amazon Bedrock | Amazon Bedrock API-Aktivität in einer Version mit automatisierter Argumentationsrichtlinie.  | Version der Bedrock-Richtlinie für automatisiertes Denken | AWS::Bedrock::AutomatedReasoningPolicyVersion | 
| Amazon Bedrock | API-Aktivität für das Amazon Bedrock-Datenautomatisierungsprojekt. | **Projekt Bedrock Data Automation** | `AWS::Bedrock::DataAutomationProject` | 
| Amazon Bedrock | API-Aktivität zum Aufrufen von Bedrock-Datenautomatisierung. | **Aufruf von Bedrock Data Automation** | `AWS::Bedrock::DataAutomationInvocation` | 
| Amazon Bedrock | API-Aktivität für das Amazon Bedrock-Datenautomatisierungsprofil. | **Bedrock Data Automation-Profil** | `AWS::Bedrock::DataAutomationProfile` | 
| Amazon Bedrock | Amazon Bedrock Blueprint-API-Aktivität. | **Blueprint von Bedrock** | `AWS::Bedrock::Blueprint` | 
| Amazon Bedrock | API-Aktivität von Amazon Bedrock Code-Interpreter. | **Bedrock — AgentCore Code-Interpreter** | `AWS::BedrockAgentCore::CodeInterpreter` | 
| Amazon Bedrock | Amazon Bedrock Browser API-Aktivität. | **Bedrock — Browser AgentCore ** | `AWS::BedrockAgentCore::Browser` | 
| Amazon Bedrock | API-Aktivität für Amazon Bedrock Workload Identity. | **Bedrock — Workload-Identität AgentCore ** | `AWS::BedrockAgentCore::WorkloadIdentity` | 
| Amazon Bedrock | API-Aktivität für das Amazon Bedrock Workload Identity Directory. | **Bedrock — Verzeichnis der AgentCore Workload-Identitäten** | `AWS::BedrockAgentCore::WorkloadIdentityDirectory` | 
| Amazon Bedrock | API-Aktivität von Amazon Bedrock Token Vault. | **Bedrock — AgentCore Token-Tresor** | `AWS::BedrockAgentCore::TokenVault` | 
| Amazon Bedrock | Amazon Bedrock APIKey CredentialProvider API-Aktivität. | **Bedrock- AgentCore APIKey CredentialProvider** | `AWS::BedrockAgentCore::APIKeyCredentialProvider` | 
| Amazon Bedrock | Amazon Bedrock Runtime-API-Aktivität. | **Bedrock — Laufzeit AgentCore ** | `AWS::BedrockAgentCore::Runtime` | 
| Amazon Bedrock | Amazon Bedrock Runtime-Endpoint API-Aktivität. | **Bedrock — Laufzeit-Endpunkt AgentCore ** | `AWS::BedrockAgentCore::RuntimeEndpoint` | 
| Amazon Bedrock | API-Aktivität von Amazon Bedrock Gateway. | **Bedrock — Gateway AgentCore ** | `AWS::BedrockAgentCore::Gateway` | 
| Amazon Bedrock | Amazon Bedrock Memory-API-Aktivität. | **Bedrock — Speicher AgentCore ** | `AWS::BedrockAgentCore::Memory` | 
| Amazon Bedrock | Amazon Bedrock Oauth2-API-Aktivität CredentialProvider . | **Bedrock — Oauth2 AgentCore CredentialProvider** | `AWS::BedrockAgentCore::OAuth2CredentialProvider` | 
| Amazon Bedrock | Benutzerdefinierte API-Aktivität für Amazon Bedrock Browser. | **Bedrock — Browser-Benutzerdefiniert AgentCore ** | `AWS::BedrockAgentCore::BrowserCustom` | 
| Amazon Bedrock | Amazon Bedrock Code-Interpreter-Custom API-Aktivität. | **Bedrock — Code-Interpreter — Benutzerdefiniert AgentCore ** | `AWS::BedrockAgentCore::CodeInterpreterCustom` | 
| Amazon Bedrock | API-Aktivität des Amazon Bedrock Tools. | Bedrock Tool | AWS::Bedrock::Tool | 
| AWS Cloud Map | [AWS Cloud Map API-Aktivität](https://docs.aws.amazon.com/cloud-map/latest/dg/cloudtrail-data-events.html) in einem [Namespace](https://docs.aws.amazon.com/cloud-map/latest/api/API_Namespace.html). | AWS Cloud Map Namespace | AWS::ServiceDiscovery::Namespace | 
| AWS Cloud Map | [AWS Cloud Map API-Aktivität](https://docs.aws.amazon.com/cloud-map/latest/dg/cloudtrail-data-events.html) für einen [Dienst.](https://docs.aws.amazon.com/cloud-map/latest/api/API_Service.html) | AWS Cloud Map Service nicht zulässig | AWS::ServiceDiscovery::Service | 
| Amazon CloudFront | CloudFront API-Aktivität auf einem [https://docs.aws.amazon.com/cloudfront/latest/APIReference/API_KeyValueStore.html](https://docs.aws.amazon.com/cloudfront/latest/APIReference/API_KeyValueStore.html). | CloudFront KeyValueStore | AWS::CloudFront::KeyValueStore | 
| AWS CloudTrail | CloudTrail [https://docs.aws.amazon.com/awscloudtraildata/latest/APIReference/API_PutAuditEvents.html](https://docs.aws.amazon.com/awscloudtraildata/latest/APIReference/API_PutAuditEvents.html)Aktivität auf einem [CloudTrail Lake-Kanal](query-event-data-store-integration.md), der verwendet wird, um Ereignisse von außen zu protokollieren AWS. | CloudTrail Kanal | AWS::CloudTrail::Channel | 
| Amazon CloudWatch | [ CloudWatch Amazon-API-Aktivität in Bezug](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/logging_cw_api_calls.html#CloudWatch-data-plane-events) auf Metriken. | CloudWatch Metrik | AWS::CloudWatch::Metric | 
| Amazon CloudWatch Network Flow Monitor | Amazon CloudWatch Network Flow Monitor-API-Aktivität auf Monitoren. | Network Flow Monitor überwachen | AWS::NetworkFlowMonitor::Monitor | 
| Amazon CloudWatch Network Flow Monitor | Amazon CloudWatch Network Flow Monitor-API-Aktivität in Bereichen. | Umfang von Network Flow Monitor | AWS::NetworkFlowMonitor::Scope | 
| Amazon CloudWatch RUM | Amazon CloudWatch RUM-API-Aktivität auf App-Monitoren. | RUM-App-Monitor | AWS::RUM::AppMonitor | 
| Amazon CodeGuru Profiler | CodeGuru Profiler-API-Aktivität für Profilerstellungsgruppen. | CodeGuru Profiler-Profilerstellungsgruppe | AWS::CodeGuruProfiler::ProfilingGroup | 
| Amazon CodeWhisperer |  CodeWhisperer Amazon-API-Aktivität bei einer Anpassung. | CodeWhisperer Anpassung | AWS::CodeWhisperer::Customization | 
| Amazon CodeWhisperer |  CodeWhisperer Amazon-API-Aktivität in einem Profil. | CodeWhisperer | AWS::CodeWhisperer::Profile | 
| Amazon Cognito | API-Aktivität von Amazon Cognito in Amazon-Cognito-[Identitätspools](https://docs.aws.amazon.com/cognito/latest/developerguide/amazon-cognito-info-in-cloudtrail.html#identity-pools-cloudtrail-events). | Cognito-Identitätspools | AWS::Cognito::IdentityPool | 
| AWS Data Exchange | AWS Data Exchange API-Aktivität für Vermögenswerte. | **Datenaustausch-Asset** | `AWS::DataExchange::Asset` | 
| Amazon Data Firehose | API-Aktivität für den Amazon Data Firehose-Lieferstream. | **Amazon Data Firehose** | `AWS::KinesisFirehose::DeliveryStream` | 
| AWS Deadline Cloud | [Deadline Cloud](https://docs.aws.amazon.com/deadline-cloud/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events)API-Aktivität auf Flotten. | **Deadline Cloud Flotte** | `AWS::Deadline::Fleet` | 
| AWS Deadline Cloud | [Deadline Cloud](https://docs.aws.amazon.com/deadline-cloud/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events)API-Aktivität für Jobs. | **Deadline Cloud Arbeit** | `AWS::Deadline::Job` | 
| AWS Deadline Cloud | [Deadline Cloud](https://docs.aws.amazon.com/deadline-cloud/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events)API-Aktivität in Warteschlangen. | **Deadline Cloud Warteschlange** | `AWS::Deadline::Queue` | 
| AWS Deadline Cloud | [Deadline Cloud](https://docs.aws.amazon.com/deadline-cloud/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events)API-Aktivität für Mitarbeiter. | **Deadline Cloud Arbeiter** | `AWS::Deadline::Worker` | 
| Amazon DynamoDB | [Amazon DynamoDB DynamoDB-API-Aktivität auf Artikelebene](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/logging-using-cloudtrail.html#ddb-data-plane-events-in-cloudtrail) für Tabellen (z. B., `PutItem``DeleteItem`, und `UpdateItem` API-Operationen). Bei Tabellen mit aktivierten Streams enthält das `resources`-Feld im Datenereignis sowohl `AWS::DynamoDB::Stream` als auch `AWS::DynamoDB::Table`. Wenn Sie `AWS::DynamoDB::Table` als `resources.type` angeben, werden standardmäßig sowohl DynamoDB-Tabellen- als auch DynamoDB-Stream-Ereignisse protokolliert. Um [Streams-Ereignisse](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/logging-using-cloudtrail.html#ddb-data-plane-events-in-cloudtrail) auszuschließen, fügen Sie dem Feld einen Filter hinzu. `eventName`   | DynamoDB | `AWS::DynamoDB::Table`  | 
| Amazon DynamoDB | API-Aktivitäten von [Amazon DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/logging-using-cloudtrail.html#ddb-data-plane-events-in-cloudtrail) in Streams. | DynamoDB-Streams | AWS::DynamoDB::Stream | 
| Amazon Elastic Block Store | [Amazon Elastic Block Store (EBS)](https://docs.aws.amazon.com/ebs/latest/userguide/logging-ebs-apis-using-cloudtrail.html) direkt APIs, wie `PutSnapshotBlock``GetSnapshotBlock`, und `ListChangedBlocks` auf Amazon EBS-Snapshots. | Amazon EBS direkt APIs | AWS::EC2::Snapshot | 
| Amazon Elastic Compute Cloud | API-Aktivität Amazon EC2 EC2-Instance Connect-Endpunkte. | **Endpunkt mit EC2-Instance verbinden** | `AWS::EC2::InstanceConnectEndpoint` | 
| Amazon Elastic Container Service | Amazon Elastic Container Service API-Aktivität auf einer Container-Instance. | ECS-Container-Instance | AWS::ECS::ContainerInstance | 
| Amazon Elastic Kubernetes Service | API-Aktivität von Amazon Elastic Kubernetes Service auf Dashboards.  | Dashboard für Amazon Elastic Kubernetes Service | AWS::EKS::Dashboard | 
| Amazon EMR | [Amazon EMR-API-Aktivität](https://docs.aws.amazon.com/emr/latest/ManagementGuide/logging-using-cloudtrail.html#cloudtrail-data-events) in einem Write-Ahead-Log-Workspace. | EMR-Write-Ahead-Log-Workspace | AWS::EMRWAL::Workspace | 
| AWS SMS-Nachrichten für Endbenutzer | [AWS SMS-API-Aktivität für Endbenutzer-Nachrichten](https://docs.aws.amazon.com/sms-voice/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events) auf Originalidentitäten. | Identität der SMS-Sprachquelle | AWS::SMSVoice::OriginationIdentity | 
| AWS SMS-Nachrichten für Endbenutzer | [AWS SMS-API-Aktivität für Endbenutzer-Nachrichten](https://docs.aws.amazon.com/sms-voice/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events) in Bezug auf Nachrichten. | SMS-Sprachnachricht | AWS::SMSVoice::Message | 
| AWS Nachrichtenübermittlung für Endbenutzer in sozialen Netzwerken | [AWS Social API-Aktivität für Endbenutzer-Messaging](https://docs.aws.amazon.com/social-messaging/latest/userguide/logging-using-cloudtrail.html#cloudtrail-data-events) auf der Telefonnummer IDs. | ID der Telefonnummer für soziale Nachrichten | AWS::SocialMessaging::PhoneNumberId | 
| AWS Social Messaging für Endbenutzer | AWS Soziale API-Aktivität für Endbenutzer-Messaging auf Waba IDs. | Waba-ID für soziale Nachrichten | AWS::SocialMessaging::WabaId | 
| Amazon FinSpace | API-Aktivitäten von [Amazon FinSpace](https://docs.aws.amazon.com/finspace/latest/userguide/logging-cloudtrail-events.html#finspace-dataplane-events) in Umgebungen. | FinSpace | AWS::FinSpace::Environment | 
|  GameLift Amazon-Streams | [Streaming-API-Aktivitäten](https://docs.aws.amazon.com/gameliftstreams/latest/developerguide/logging-using-cloudtrail.html#cloudtrail-data-events) von Amazon GameLift Streams für Anwendungen. | GameLift Streams-Anwendung | AWS::GameLiftStreams::Application | 
|  GameLift Amazon-Streams | Amazon GameLift [Streaming-API-Aktivität](https://docs.aws.amazon.com/gameliftstreams/latest/developerguide/logging-using-cloudtrail.html#cloudtrail-data-events) in Stream-Gruppen. | GameLift Stream-Gruppe streamt | AWS::GameLiftStreams::StreamGroup | 
| AWS Glue | AWS Glue API-Aktivität für Tabellen, die von Lake Formation erstellt wurden. | Lake Formation | AWS::Glue::Table | 
| Amazon GuardDuty |  GuardDuty Amazon-API-Aktivität für einen [Detektor](https://docs.aws.amazon.com/guardduty/latest/ug/logging-using-cloudtrail.html#guardduty-data-events-in-cloudtrail). | GuardDuty Detektor | AWS::GuardDuty::Detector | 
| AWS HealthImaging | AWS HealthImaging API-Aktivität in Datenspeichern. | MedicalImaging Datenspeicher | AWS::MedicalImaging::Datastore | 
| AWS HealthImaging | AWS HealthImaging API-Aktivität für Bilddatensätze. | **MedicalImaging Bildsatz** | `AWS::MedicalImaging::Imageset` | 
| AWS IoT | [AWS IoT API-Aktivität](https://docs.aws.amazon.com/greengrass/v2/developerguide/logging-using-cloudtrail.html#greengrass-data-events-cloudtrail) für [Zertifikate](https://docs.aws.amazon.com/iot/latest/developerguide/x509-client-certs.html). | IoT-Zertifikat | AWS::IoT::Certificate | 
| AWS IoT | [AWS IoT API-Aktivität](https://docs.aws.amazon.com/greengrass/v2/developerguide/logging-using-cloudtrail.html#greengrass-data-events-cloudtrail) für [Dinge](https://docs.aws.amazon.com/iot/latest/developerguide/thing-registry.html). | IoT-Sache | AWS::IoT::Thing | 
| AWS IoT Greengrass Version 2 | [Greengrass-API-Aktivität](https://docs.aws.amazon.com/greengrass/v2/developerguide/logging-using-cloudtrail.html#greengrass-data-events-cloudtrail) von einem Greengrass-Core-Gerät auf einer Komponentenversion. Greengrass protokolliert keine Ereignisse, bei denen der Zugriff verweigert wurde. | IoT Greengrass-Komponentenversion | AWS::GreengrassV2::ComponentVersion | 
| AWS IoT Greengrass Version 2 | [Greengrass-API-Aktivität](https://docs.aws.amazon.com/greengrass/v2/developerguide/logging-using-cloudtrail.html#greengrass-data-events-cloudtrail) von einem Greengrass-Core-Gerät in einer Bereitstellung. Greengrass protokolliert keine Ereignisse, bei denen der Zugriff verweigert wurde. | Einsatz von IoT Greengrass | AWS::GreengrassV2::Deployment | 
| AWS IoT SiteWise | [ SiteWise IoT-API-Aktivität](https://docs.aws.amazon.com/iot-sitewise/latest/userguide/logging-using-cloudtrail.html#service-name-data-events-cloudtrail) für [Anlagen](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateAsset.html). |  SiteWise IoT-Anlage | AWS::IoTSiteWise::Asset | 
| AWS IoT SiteWise | [ SiteWise IoT-API-Aktivität](https://docs.aws.amazon.com/iot-sitewise/latest/userguide/logging-using-cloudtrail.html#service-name-data-events-cloudtrail) in [Zeitreihen](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_DescribeTimeSeries.html). |  SiteWise IoT-Zeitreihen | AWS::IoTSiteWise::TimeSeries | 
| AWS IoT SiteWise Assistentin | API-Aktivität des Sitewise Assistant bei Konversationen. | Sitewise Assistant-Konversation | AWS::SitewiseAssistant::Conversation | 
| AWS IoT TwinMaker |  TwinMaker IoT-API-Aktivität für eine [Entität](https://docs.aws.amazon.com/iot-twinmaker/latest/apireference/API_CreateEntity.html). |  TwinMaker IoT-Entität | AWS::IoTTwinMaker::Entity | 
| AWS IoT TwinMaker |  TwinMaker IoT-API-Aktivität in einem [Workspace](https://docs.aws.amazon.com/iot-twinmaker/latest/apireference/API_CreateWorkspace.html). |  TwinMaker IoT-Arbeitsplatz | AWS::IoTTwinMaker::Workspace | 
| Amazon Kendra Intelligent Ranking | API-Aktivität von Amazon Kendra Intelligent Rankin für [Rescore-Ausführungspläne](https://docs.aws.amazon.com/kendra/latest/dg/cloudtrail-intelligent-ranking.html#cloud-trail-intelligent-ranking-log-entry). | Kendra-Rangliste | AWS::KendraRanking::ExecutionPlan | 
| Amazon Keyspaces (für Apache Cassandra) | [Amazon Keyspaces-API-Aktivität](https://docs.aws.amazon.com/keyspaces/latest/devguide/logging-using-cloudtrail.html#keyspaces-in-cloudtrail-dml) in einer Tabelle. | Cassandra-Tabelle | AWS::Cassandra::Table | 
| Amazon Keyspaces (für Apache Cassandra) | API-Aktivität von Amazon Keyspaces (für Apache Cassandra) auf Cassandra CDC-Streams.  | Cassandra CDC-Streams | AWS::Cassandra::Stream | 
| Amazon Kinesis Data Streams | Kinesis Data Streams Streams-API-Aktivität in [Streams](https://docs.aws.amazon.com/streams/latest/dev/working-with-streams.html). | Kinesis-Stream | AWS::Kinesis::Stream | 
| Amazon Kinesis Data Streams | Kinesis Data Streams API-Aktivität auf [Stream-Verbrauchern](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html). | Kinesis Stream Consumer | AWS::Kinesis::StreamConsumer | 
| Amazon Kinesis Video Streams | Kinesis Video Streams Streams-API-Aktivitäten in Videostreams, z. B. Aufrufe von GetMedia undPutMedia. | Kinesis-Videostream | AWS::KinesisVideo::Stream | 
| Amazon Kinesis Video Streams | Kinesis Video Streams Streams-Videosignalkanal-API-Aktivität. | **Kinesis-Videosignalkanal** | `AWS::KinesisVideo::SignalingChannel` | 
| AWS Lambda | AWS Lambda Aktivität zur Ausführung von Funktionen (die `Invoke` API). | Lambda | AWS::Lambda::Function | 
| Amazon-Lagepläne | API-Aktivität von Amazon Location Maps. | Geokarten | AWS::GeoMaps::Provider | 
| Standorte von Amazon | API-Aktivität von Amazon Location Places. | Geo & Places | AWS::GeoPlaces::Provider | 
| Amazon-Standortrouten | API-Aktivität von Amazon Location Routes. | Geo-Routen | AWS::GeoRoutes::Provider | 
| Amazon Machine Learning | API-Aktivität für Machine Learning auf ML-Modellen. | Passendes Lernen MlModel | AWS::MachineLearning::MlModel | 
| Amazon Managed Blockchain | API-Aktivität von Amazon Managed Blockchain in einem Netzwerk. | Managed-Blockchain-Netzwerk | AWS::ManagedBlockchain::Network | 
| Amazon Managed Blockchain | JSON-RPC-Aufrufe von [Amazon Managed Blockchain](https://docs.aws.amazon.com/managed-blockchain/latest/ethereum-dev/logging-using-cloudtrail.html#ethereum-jsonrpc-logging) in Ethereum-Knoten, zum Beispiel `eth_getBalance` oder `eth_getBlockByNumber`. | Managed Blockchain | AWS::ManagedBlockchain::Node | 
| Amazon Managed Blockchain Query | API-Aktivität für Amazon Managed Blockchain Query. | Verwaltete Blockchain-Abfrage | AWS::ManagedBlockchainQuery::QueryAPI | 
| Von Amazon verwaltete Workflows für Apache Airflow | Amazon MWAA-API-Aktivität in Umgebungen.  | Verwalteter Apache Airflow | AWS::MWAA::Environment | 
| Amazon-Neptune-Graph | Daten-API-Aktivitäten in einem Neptune-Graph, zum Beispiel Abfragen, Algorithmen oder Vektorsuche. | Neptun-Graph | AWS::NeptuneGraph::Graph | 
| Amazon One Enterprise | Amazon One Enterprise API-Aktivität auf einem UKey. | Amazon One UKey | AWS::One::UKey | 
| Amazon One Enterprise | Amazon One Enterprise API-Aktivität für Benutzer. | Amazon One-Benutzer | AWS::One::User | 
| AWS Payment Cryptography | AWS Payment Cryptography API-Aktivität für Aliase. | Alias für Zahlungskryptografie | AWS::PaymentCryptography::Alias | 
| AWS Payment Cryptography | AWS Payment Cryptography API-Aktivität für Schlüssel. | Kryptografie-Schlüssel für Zahlungen | AWS::PaymentCryptography::Key | 
| Amazon Pinpoint | Amazon Pinpoint API-Aktivität in mobilen Targeting-Anwendungen. | Anwendung für mobiles Targeting | AWS::Pinpoint::App | 
| AWS Private CA | AWS Private CA Konnektor für Active Directory-API-Aktivitäten. | AWS Private CA Konnektor für Active Directory | AWS::PCAConnectorAD::Connector | 
| AWS Private CA | AWS Private CA Konnektor für die SCEP-API-Aktivität. | AWS Private CA Konnektor für SCEP | AWS::PCAConnectorSCEP::Connector | 
| Amazon Q Apps | Daten-API-Aktivität auf [Amazon Q Apps](https://docs.aws.amazon.com/amazonq/latest/qbusiness-ug/purpose-built-qapps.html). | Amazon Q Apps | AWS::QApps::QApp | 
| Amazon Q Apps | Daten-API-Aktivität in Amazon Q App-Sitzungen. | Amazon Q App-Sitzung | AWS::QApps::QAppSession | 
| Amazon Q Business | [Amazon-Q-Business-API-Aktivität](https://docs.aws.amazon.com/amazonq/latest/business-use-dg/logging-using-cloudtrail.html#service-name-data-plane-events-cloudtrail) auf einer Anwendung. | Amazon-Q-Business-Anwendung | AWS::QBusiness::Application | 
| Amazon Q Business | [Amazon-Q-Business-API-Aktivität](https://docs.aws.amazon.com/amazonq/latest/business-use-dg/logging-using-cloudtrail.html#service-name-data-plane-events-cloudtrail) auf einer Datenquelle. | Amazon-Q-Business-Datenquelle | AWS::QBusiness::DataSource | 
| Amazon Q Business | [Amazon-Q-Business-API-Aktivität](https://docs.aws.amazon.com/amazonq/latest/business-use-dg/logging-using-cloudtrail.html#service-name-data-plane-events-cloudtrail) auf einem Index. | Amazon-Q-Business-Index | AWS::QBusiness::Index | 
| Amazon Q Business | [Amazon-Q-Business-API-Aktivität](https://docs.aws.amazon.com/amazonq/latest/business-use-dg/logging-using-cloudtrail.html#service-name-data-plane-events-cloudtrail) auf einem Weberlebnis. | Amazon-Q-Business-Weberlebnis | AWS::QBusiness::WebExperience | 
| Amazon Q Business  | API-Aktivität für die Amazon Q Business-Integration. | **Amazon Q Business-Integration** | `AWS::QBusiness::Integration` | 
| Amazon Q Developer | Amazon Q Developer API-Aktivität für eine Integration. | Q: Integration für Entwickler | AWS::QDeveloper::Integration | 
| Amazon Q Developer | [Amazon Q Developer API-Aktivität](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/logging_cw_api_calls.html#Q-Developer-Investigations-Cloudtrail) im Zusammenhang mit operativen Untersuchungen. | AIOps Ermittlungsgruppe | AWS::AIOps::InvestigationGroup | 
| Amazon Quick | Amazon Quick API-Aktivität auf einem Action-Connector. | AWS QuickSuite Aktionen | AWS::Quicksight::ActionConnector | 
| Amazon Quick | Amazon Quick Flow API-Aktivität. | **QuickSight fließen** | `AWS::QuickSight::Flow` | 
| Amazon Quick | Amazon Quick FlowSession API-Aktivität. | **QuickSight Flow-Sitzung** | `AWS::QuickSight::FlowSession` | 
| Amazon SageMaker KI |  SageMaker [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_runtime_InvokeEndpointWithResponseStream.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_runtime_InvokeEndpointWithResponseStream.html)Amazon-KI-Aktivitäten auf Endpunkten. | SageMaker KI-Endpunkt | AWS::SageMaker::Endpoint | 
| Amazon SageMaker KI | Amazon SageMaker AI-API-Aktivität in Feature-Stores. | SageMaker KI-Featurestore | AWS::SageMaker::FeatureGroup | 
| Amazon SageMaker KI | Amazon SageMaker AI-API-Aktivität für [Komponenten von Experimenten und Studien](https://docs.aws.amazon.com/sagemaker/latest/dg/experiments-monitoring.html). | SageMaker Komponente für das Experiment mit KI-Metriken | AWS::SageMaker::ExperimentTrialComponent | 
| Amazon SageMaker KI | Amazon SageMaker MLflow AI-API-Aktivität. | **SageMaker MLflow** | `AWS::SageMaker::MlflowTrackingServer` | 
| AWS Signer | API-Aktivität des Unterzeichners beim Signieren von Aufträgen. | Job beim Signieren durch den Unterzeichner | AWS::Signer::SigningJob | 
| AWS Signer | API-Aktivität des Unterzeichners bei Signierprofilen. | Signaturprofil des Unterzeichners | AWS::Signer::SigningProfile | 
| Amazon Simple Email Service | API-Aktivität von Amazon Simple Email Service (Amazon SES) in Konfigurationssätzen. | SES-Konfigurationssatz | AWS::SES::ConfigurationSet | 
| Amazon Simple Email Service | API-Aktivität von Amazon Simple Email Service (Amazon SES) für E-Mail-Identitäten. | SES-Identität | AWS::SES::EmailIdentity | 
| Amazon Simple Email Service | API-Aktivität von Amazon Simple Email Service (Amazon SES) für Vorlagen. | SES-Vorlage | AWS::SES::Template | 
| Amazon SimpleDB | Amazon SimpleDB SimpleDB-API-Aktivität auf Domains. | SimpleDB-Domäne | AWS::SDB::Domain | 
| AWS Step Functions | [API-Aktivität von Step Functions](https://docs.aws.amazon.com/step-functions/latest/dg/procedure-cloud-trail.html#cloudtrail-data-events) für Aktivitäten.  | Step Functions | AWS::StepFunctions::Activity | 
| AWS Step Functions | [API-Aktivität von Step Functions](https://docs.aws.amazon.com/step-functions/latest/dg/procedure-cloud-trail.html#cloudtrail-data-events) auf Zustandsmaschinen.  | Step-Functions-Zustandsautomat | AWS::StepFunctions::StateMachine | 
| AWS Systems Manager | [Systems Manager Manager-API-Aktivität](https://docs.aws.amazon.com/systems-manager/latest/userguide/monitoring-cloudtrail-logs.html#cloudtrail-data-events) auf Kontrollkanälen. |  Systems Manager | AWS::SSMMessages::ControlChannel | 
| AWS Systems Manager | API-Aktivität von Systems Manager im Zusammenhang mit Folgenabschätzungen. | SSM-Folgenabschätzung | AWS::SSM::ExecutionPreview | 
| AWS Systems Manager | [Systems Manager Manager-API-Aktivität](https://docs.aws.amazon.com/systems-manager/latest/userguide/monitoring-cloudtrail-logs.html#cloudtrail-data-events) auf verwalteten Knoten. | Von Systems Manager verwalteter Knoten | AWS::SSM::ManagedNode | 
| Amazon Timestream | [https://docs.aws.amazon.com/timestream/latest/developerguide/API_query_Query.html](https://docs.aws.amazon.com/timestream/latest/developerguide/API_query_Query.html)-API-Aktivität von Amazon Timestream in Datenbanken. | Timestream-Datenbank | AWS::Timestream::Database | 
| Amazon Timestream | Amazon Timestream Timestream-API-Aktivität auf regionalen Endpunkten. | Regionaler Timestream-Endpunkt | AWS::Timestream::RegionalEndpoint | 
| Amazon Timestream | [https://docs.aws.amazon.com/timestream/latest/developerguide/API_query_Query.html](https://docs.aws.amazon.com/timestream/latest/developerguide/API_query_Query.html)-API-Aktivität von Amazon Timestream in Tabellen. | Timestream-Tabelle | AWS::Timestream::Table | 
| Amazon Verified Permissions | API-Aktivität von Amazon Verified Permissions in einem Richtlinienspeicher. | Amazon Verified Permissions | AWS::VerifiedPermissions::PolicyStore | 
| Amazon WorkSpaces Thin Client | WorkSpaces Thin Client-API-Aktivität auf einem Gerät. | Thin-Client-Gerät | AWS::ThinClient::Device | 
| Amazon WorkSpaces Thin Client | WorkSpaces Thin Client-API-Aktivität in einer Umgebung. | Thin-Client-Umgebung | AWS::ThinClient::Environment | 
| AWS X-Ray | [X-Ray-API-Aktivität](https://docs.aws.amazon.com/xray/latest/devguide/xray-api-cloudtrail.html#cloudtrail-data-events) auf [Spuren](https://docs.aws.amazon.com/xray/latest/devguide/xray-concepts.html#xray-concepts-traces). | Röntgenspur | AWS::XRay::Trace | 
| Amazon AIDev Ops | AIDevOps-API-Aktivität auf Agenten-Spaces. | Agentenbereich | AWS::AIDevOps::AgentSpace | 
| Amazon AIDev Ops | AIDevOps-API-Aktivität für Assoziationen. | AIDevOps-Zuordnung | AWS::AIDevOps::Association | 
| Amazon AIDev Ops | AIDevOps-API-Aktivität in Betreiber-App-Teams. | AIDevApp-Team für Ops-Betreiber | AWS::AIDevOps::OperatorAppTeam | 
| Amazon AIDev Ops | AIDevOps-API-Aktivität für Pipeline-Metadaten. | AIDevMetadaten von Ops-Pipelines | AWS::AIDevOps::PipelineMetadata | 
| Amazon AIDev Ops | AIDevOps-API-Aktivität für Dienste. | AIDevOps-Dienst | AWS::AIDevOps::Service | 
| Amazon Bedrock | Bedrock-API-Aktivität bei erweiterten Optimize-Prompt-Aufträgen. | AdvancedOptimizePromptJob | AWS::Bedrock::AdvancedOptimizePromptJob | 
| Amazon Grundgestein AgentCore | Bedrock AgentCore API-Aktivität bei Evaluatoren. | Bedrock — Evaluator AgentCore  | AWS::BedrockAgentCore::Evaluator | 
| Amazon-Kostenoptimierung | CloudOptimization API-Aktivität in Profilen. | CloudOptimization Profil | AWS::CloudOptimization::Profile | 
| Amazon-Kostenoptimierung | CloudOptimization API-Aktivität im Zusammenhang mit Empfehlungen. | CloudOptimization Empfehlung | AWS::CloudOptimization::Recommendation | 
| Amazon GuardDuty | GuardDuty API-Aktivität bei Malware-Scans. | GuardDuty Malware-Scan | AWS::GuardDuty::MalwareScan | 
| Amazon NovaAct |  NovaAct Amazon-API-Aktivität für Workflow-Definitionen. | Workflow-Definition | AWS::NovaAct::WorkflowDefinition | 
| Amazon NovaAct |  NovaAct Amanzon-API-Aktivität bei Workflow-Läufen. | Workflow-Ausführung | AWS::NovaAct::WorkflowRun | 
| Amazon Redshift | Redshift-API-Aktivität auf Clustern. | Amazon Redshift Redshift-Cluster | AWS::Redshift::Cluster | 
| Amazon -Support | SupportAccess API-Aktivität für Mandanten. | SupportAccess Mieter | AWS::SupportAccess::Tenant | 
| Amazon -Support | SupportAccess API-Aktivität für vertrauenswürdige Konten. | SupportAccess vertrauenswürdiges Konto | AWS::SupportAccess::TrustingAccount | 
| Amazon -Support | SupportAccess API-Aktivität für vertrauenswürdige Rollen. | SupportAccess vertrauenswürdige Rolle | AWS::SupportAccess::TrustingRole | 
| Amazon Transform | Transformieren Sie die API-Aktivität auf Agenten-Instances. | Transformieren Sie die Agenten-Instanz | AWS::Transform::AgentInstance | 
| Amazon Transform Benutzerdefiniert | Transformieren Sie benutzerdefinierte API-Aktivitäten in Kampagnen. | Transformieren Sie eine benutzerdefinierte Kampagne | AWS::TransformCustom::Campaign | 
| Amazon Transform Benutzerdefiniert | Transformieren Sie benutzerdefinierte API-Aktivitäten in Konversationen. | Transformieren — Benutzerdefinierte Konversation | AWS::TransformCustom::Conversation | 
| Amazon Transform Benutzerdefiniert | Transformieren Sie benutzerdefinierte API-Aktivitäten für Wissenselemente. | Transformieren — Benutzerdefiniertes Wissenselement | AWS::TransformCustom::KnowledgeItem | 
| Amazon Transform Benutzerdefiniert | Transformieren Sie benutzerdefinierte API-Aktivitäten für Pakete. | Transformieren — Benutzerdefiniertes Paket | AWS::TransformCustom::Package | 

Um CloudTrail Datenereignisse aufzuzeichnen, müssen Sie jeden Ressourcentyp, für den Sie Aktivitäten sammeln möchten, explizit hinzufügen. Weitere Informationen erhalten Sie unter [Einen Trail mit der CloudTrail Konsole erstellen](cloudtrail-create-a-trail-using-the-console-first-time.md) und [Erstellen Sie mit der Konsole einen Ereignisdatenspeicher für CloudTrail Ereignisse](query-event-data-store-cloudtrail.md).

In einem Trail oder einem Ereignisspeicher mit einer Region können Sie Datenereignisse nur für Ressourcen protokollieren, auf die Sie in dieser Region zugreifen können. Obwohl S3-Buckets global sind, sind AWS Lambda Funktionen und DynamoDB-Tabellen regional.

Für die Protokollierung von Datenereignissen fallen zusätzliche Gebühren an. CloudTrail [Die Preise finden Sie unter Preise.AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/)

### Beispiele: Protokollieren von Datenereignissen für Amazon-S3-Objekte
<a name="logging-data-events-examples"></a>

**Protokollierung von Datenereignissen für alle S3-Objekte in einem S3-Bucket**

Das folgende Beispiel veranschaulicht, wie die Protokollierung funktioniert, wenn Sie die Protokollierung aller Datenereignisse für einen S3-Bucket mit dem Namen `amzn-s3-demo-bucket` konfigurieren. In diesem Beispiel hat der CloudTrail Benutzer ein leeres Präfix und die Option angegeben, sowohl **Lese** - als auch **Schreibdatenereignisse** zu protokollieren.

1. Ein Benutzer lädt ein Objekt auf `amzn-s3-demo-bucket` hoch. 

1. Der `PutObject`-API-Vorgang ist eine Amazon-S3-API auf Objektebene. Es wird als Datenereignis in aufgezeichnet CloudTrail. Da der CloudTrail Benutzer einen S3-Bucket mit einem leeren Präfix angegeben hat, werden Ereignisse, die für jedes Objekt in diesem Bucket auftreten, protokolliert. Der Trail oder der Ereignisdatenspeicher verarbeitet und protokolliert das Ereignis.

1. Ein weiterer Benutzer lädt ein Objekt auf `amzn-s3-demo-bucket2` hoch. 

1. Der `PutObject`-API-Vorgang ist an einem Objekt in einem S3-Bucket aufgetreten, das nicht für den Trail oder den Ereignisdatenspeicher angegeben wurde. Der Trail- oder Ereignisdatenspeicher protokolliert das Ereignis nicht. 

**Protokollierung von Datenereignissen für bestimmte S3-Objekte**

Das folgende Beispiel zeigt, wie die Protokollierung funktioniert, wenn Sie einen Trail oder Ereignisdatenspeicher so konfigurieren, dass Ereignisse für bestimmte S3-Objekte protokolliert werden. In diesem Beispiel gab der CloudTrail Benutzer einen S3-Bucket mit dem Namen`amzn-s3-demo-bucket3`, mit dem Präfix und der Option an*my-images*, nur **Write-Data-Ereignisse** zu protokollieren.

1. Ein Benutzer löscht im Bucket ein Objekt, das mit dem `my-images`-Präfix beginnt, beispielsweise `arn:aws:s3:::amzn-s3-demo-bucket3/my-images/example.jpg`.

1. Der `DeleteObject`-API-Vorgang ist eine Amazon-S3-API auf Objektebene. Es wird als **Write-Data-Ereignis** in aufgezeichnet CloudTrail. Das Ereignis ist bei einem Objekt eingetreten, das mit dem in dem Trail oder Ereignisdatenspeicher angegebenen S3-Bucket und Präfix übereinstimmt. Der Trail oder der Ereignisdatenspeicher verarbeitet und protokolliert das Ereignis.

1. Ein weiterer Benutzer löscht im S3-Bucket ein Objekt mit einem anderen Präfix, beispielsweise `arn:aws:s3:::amzn-s3-demo-bucket3/my-videos/example.avi`.

1. Das Ereignis ist bei einem Objekt aufgetreten, das nicht mit dem in Ihrem Trail oder Ereignisdatenspeicher angegebenen Präfix übereinstimmt. Der Trail- oder Ereignisdatenspeicher protokolliert das Ereignis nicht.

1. Ein Benutzer ruft den `GetObject`-API-Vorgang für das Objekt auf, `arn:aws:s3:::amzn-s3-demo-bucket3/my-images/example.jpg`.

1. Das Ereignis ist in einem Bucket und einem Präfix aufgetreten, die im Trail oder dem Ereignisdatenspeicher angegeben sind, aber bei `GetObject` handelt es sich um eine Amazon-S3-API auf Objektebene mit Lesefunktion. Es wird als **Datenleseereignis** in aufgezeichnet CloudTrail, und der Trail- oder Ereignisdatenspeicher ist nicht für die Protokollierung von **Leseereignissen** konfiguriert. Der Trail- oder Ereignisdatenspeicher protokolliert das Ereignis nicht.

**Anmerkung**  
Wenn Sie für Trails Datenereignisse für bestimmte Amazon-S3-Buckets protokollieren, wird empfohlen, keinen Amazon-S3-Bucket für die Protokollierung von Datenereignissen zu verwenden, um Protokolldateien zu empfangen, die Sie im Abschnitt für Datenereignisse angegeben haben. Wenn Sie denselben Amazon-S3-Bucket verwenden, protokolliert Ihr Trail jedes Mal ein Datenereignis, wenn die Protokolldateien an Ihren Amazon-S3-Bucket übergeben werden. Bei den Protokolldateien handelt es sich um aggregierte Ereignisse, die in regelmäßigen Abständen geliefert werden. Es handelt sich also nicht um ein 1:1-Verhältnis von Ereignis zu Protokolldatei; das Ereignis wird in der nächsten Protokolldatei aufgezeichnet. Wenn beispielsweise Protokolle CloudTrail übermittelt werden, tritt das `PutObject` Ereignis im S3-Bucket auf. Wenn der S3-Bucket auch im Abschnitt Datenereignisse angegeben ist, verarbeitet und protokolliert der Trail das `PutObject`-Ereignis als Datenereignis. Diese Aktion ist ein weiteres `PutObject`-Ereignis, und die Spur verarbeitet und protokolliert das Ereignis erneut.  
Um die Protokollierung von Datenereignissen für den Amazon S3 S3-Bucket zu vermeiden, in dem Sie Protokolldateien erhalten, wenn Sie einen Trail zur Protokollierung aller Amazon S3 S3-Datenereignisse in Ihrem AWS Konto konfigurieren, sollten Sie die Übertragung von Protokolldateien an einen Amazon S3 S3-Bucket konfigurieren, der zu einem anderen AWS Konto gehört. Weitere Informationen finden Sie unter [Empfangen von CloudTrail Protokolldateien von mehreren KontenDas Konto des Bucket-Besitzers wird für Datenereignisse, die von anderen Konten IDs aufgerufen wurden, geschwärzt](cloudtrail-receive-logs-from-multiple-accounts.md).

### Protokollierung von Datenereignissen für S3-Objekte in anderen AWS Konten
<a name="logging-data-events-for-s3-resources-in-other-accounts"></a>

Wenn Sie Ihren Trail so konfigurieren, dass Datenereignisse protokolliert werden, können Sie auch S3-Objekte angeben, die zu anderen AWS Konten gehören. Tritt ein Ereignis für das angegebene Objekt auf, prüft CloudTrail , ob das Ereignis einem Trail im jeweiligen Konto entspricht. Wenn das Ereignis mit den Einstellungen für ein Trail übereinstimmt, verarbeitet und protokolliert den Trail das Ereignis für dieses Konto. Im Allgemeinen können sowohl API-Aufrufer als auch Ressourcenbesitzer Ereignisse empfangen.

Wenn Sie Eigentümer eines S3-Objekts sind und es in Ihrem Trail angeben, protokolliert Ihr Trail Ereignisse, die auf dem Objekt in Ihrem Konto auftreten. Da das Objekt Ihnen gehört, protokolliert der Trail auch Ereignisse, wenn andere Konten das Objekt aufrufen.

Wenn Sie ein S3-Objekt in Ihrem Trail angeben und das Objekt ist einem anderen Konto zugeordnet, protokolliert der Trail nur Ereignisse, die auf diesem Objekt in Ihrem Konto auftreten. Ereignisse, die in anderen Konten auftreten, werden von Ihrem Trail nicht protokolliert.

**Beispiel: Protokollierung von Datenereignissen für ein Amazon S3 S3-Objekt für zwei AWS Konten**

Das folgende Beispiel zeigt, wie zwei AWS Konten so konfiguriert werden CloudTrail , dass sie Ereignisse für dasselbe S3-Objekt protokollieren.

1. In Ihrem Konto möchten Sie, dass Ihr Trail Datenereignisse für alle Objekte in Ihrem S3-Bucket namens `amzn-s3-demo-bucket` protokolliert. Sie konfigurieren den Trail, indem Sie den S3-Bucket mit einem leeren Objektpräfix angeben.

1. Bob hat ein separates Konto, das auf den S3-Bucket zugreifen kann. Bob möchte auch Datenereignisse für alle Objekte im selben S3-Bucket protokollieren. Für sein Trail konfiguriert er sein Trail und gibt denselben S3-Bucket mit einem leeren Objektpräfix an.

1. Bob lädt mit dem `PutObject`-API-Vorgang ein Objekt in den S3-Bucket hoch.

1. Dieses Ereignis ist in seinem Konto aufgetreten und stimmt mit den Trail-Einstellungen überein. Bobs Trail verarbeitet und protokolliert das Ereignis.

1. Da der S3-Bucket Ihnen zugeordnet ist und das Ereignis mit den Einstellungen für Ihren Trail übereinstimmt, verarbeitet und protokolliert Ihr Trail das Ereignis ebenfalls. Da es jetzt zwei Kopien des Ereignisses gibt (eine ist in Bobs Spur und eine in Ihrer Datenbank protokolliert), CloudTrail fallen Gebühren für zwei Kopien des Datenereignisses an.

1. Sie laden ein Objekt in den S3-Bucket hoch.

1. Dieses Ereignis tritt in Ihrem Konto auf und entspricht den Einstellungen für Ihren Pfad. Ihr Trail verarbeitet und protokolliert das Ereignis.

1. Da das Ereignis nicht in Bobs Konto eingetreten ist und ihm der S3-Bucket nicht gehört, protokolliert Bobs Trail das Ereignis nicht. CloudTrail berechnet nur eine Kopie dieses Datenereignisses.

**Beispiel: Protokollierung von Datenereignissen für alle Buckets, einschließlich eines S3-Buckets, der von zwei AWS Konten genutzt wird**

Das folgende Beispiel zeigt das Protokollierungsverhalten, wenn **„Alle S3-Buckets in Ihrem Konto auswählen**“ für Trails aktiviert ist, die Datenereignisse in einem AWS Konto erfassen.

1. Ihr Trail soll in Ihrem Konto Datenereignisse für alle S3-Buckets protokollieren. Sie konfigurieren den Trail, indem Sie **Lese**-Ereignisse, **Schreib**-Ereignisse oder beides für **Alle aktuellen und zukünftigen S3 Buckets** in **Datenereignisse** auswählen.

1. Bob hat ein separates Konto, das Zugriff auf einen S3-Bucket in Ihrem Konto erhalten hat. Er möchte Datenereignisse für den Bucket protokollieren, auf den er Zugriff hat. Er konfiguriert seinen Trail so, dass er Datenereignisse für alle S3-Buckets erhält.

1. Bob lädt mit dem `PutObject`-API-Vorgang ein Objekt in den S3-Bucket hoch.

1. Dieses Ereignis ist in seinem Konto aufgetreten und stimmt mit den Trail-Einstellungen überein. Bobs Trail verarbeitet und protokolliert das Ereignis.

1. Da Sie Eigentümer des S3-Buckets sind und das Ereignis den Einstellungen für Ihren Trail entspricht, verarbeitet und protokolliert Ihr Trail das Ereignis ebenfalls. Da es jetzt zwei Kopien des Ereignisses gibt (eine ist in Bobs Trail angemeldet und eine in Ihrem Konto), wird für jedes Konto eine Kopie des Datenereignisses CloudTrail berechnet.

1. Sie laden ein Objekt in den S3-Bucket hoch.

1. Dieses Ereignis tritt in Ihrem Konto auf und entspricht den Einstellungen für Ihren Pfad. Ihr Trail verarbeitet und protokolliert das Ereignis.

1. Da das Ereignis nicht in Bobs Konto eingetreten ist und ihm der S3-Bucket nicht gehört, protokolliert Bobs Trail das Ereignis nicht. CloudTrail Gebühren für nur eine Kopie dieses Datenereignisses in Ihrem Konto.

1. Ein dritter Benutzer, Mary, hat Zugriff auf den S3-Bucket und führt einen `GetObject`-Vorgang auf dem Bucket aus. Sie hat eine Spur konfiguriert, um Datenereignisse auf allen S3-Buckets in ihrem Konto zu protokollieren. Da sie die API-Aufruferin ist, CloudTrail protokolliert sie ein Datenereignis. Obwohl Bob Zugriff auf den Bucket hat, ist er nicht der Eigentümer der Ressource, so dass diesmal kein Bucket in seinem Trail protokolliert wird. Als Ressourcenbesitzer erhalten Sie ein Ereignis über die `GetObject`-Operation, die Mary angerufen hat, in Ihrem Trail. CloudTrail belastet Ihr und Marys Konto für jede Kopie des Datenereignisses: eins in Marys Trail und eins in Ihrem.

## Schreibgeschützte Ereignisse und Nur-Schreiben-Ereignisse
<a name="read-write-events-data"></a>

Wenn Sie Ihren Trail oder Ereignisdatenspeicher so konfigurieren, dass er Daten und Verwaltungsereignisse protokolliert, können Sie angeben, ob Sie Nur-Lesen-Ereignisse, Nur-Schreiben-Ereignisse oder beides wünschen.
+ **Read** (Lesen)

  **Schreib**-Ereignisse umfassen API-Operationen, die Ihre Ressourcen lesen, aber keine Änderungen vornehmen. Schreibgeschützte Ereignisse enthalten beispielsweise die API-Operationen Amazon EC2 `DescribeSecurityGroups` und `DescribeSubnets`. Diese Operationen geben nur Informationen über die Amazon-EC2-Ressourcen zurück und ändern nicht die Konfigurationen. 
+ **Write** (Scheriben)

  **Schreib**-Ereignisse enthalten API-Operationen, die (möglicherweise) Ihre Ressourcen ändern. Die API-Operationen Amazon EC2 `RunInstances` und `TerminateInstances` ändern beispielsweise Ihre Instances.

**Beispiel: protokollieren von Lese- und Schreibereignissen für separate Trails**

Das folgende Beispiel zeigt, wie Sie Trails so konfigurieren können, dass die Protokollaktivität für ein Konto in separate S3-Buckets aufgeteilt wird: Ein Bucket mit dem Namen amzn-s3-demo-bucket1 empfängt schreibgeschützte Ereignisse und ein zweiter amzn-s3-demo-bucket2 empfängt schreibgeschützte Ereignisse.

1. Sie erstellen einen Trail `amzn-s3-demo-bucket1` und wählen den S3-Bucket mit dem Namen für den Empfang von Protokolldateien aus. Anschließend aktualisieren Sie den Trail, um anzugeben, dass Sie **Schreib**-Verwaltungs- und Datenereignisse protokollieren möchten.

1. Sie erstellen einen zweiten Trail und wählen den S3-Bucket aus`amzn-s3-demo-bucket2 `, der die Protokolldateien empfangen soll. Anschließend aktualisieren Sie den Trail, um anzugeben, dass Sie Verwaltungs- und Datenereignisse vom Typ **Schreiben** protokollieren möchten.

1. Die API-Operationen Amazon EC2 `DescribeInstances` und `TerminateInstances` werden in Ihrem Konto ausgeführt.

1. Der `DescribeInstances`-API-Vorgang ist ein schreibgeschütztes Ereignis und entspricht den Einstellungen für den ersten Trail. Der Trail protokolliert das Ereignis und liefert es an den `amzn-s3-demo-bucket1`.

1. Die `TerminateInstances`-API-Operation ist ein Nur-Schreiben-Ereignis und stimmt mit den Einstellungen für den zweiten Trail überein. Der Trail protokolliert das Ereignis und liefert es an den `amzn-s3-demo-bucket2 `.

## Protokollieren von Datenereignissen mit dem AWS-Managementkonsole
<a name="logging-data-events-console"></a>

In den folgenden Verfahren wird beschrieben, wie Sie einen vorhandenen Ereignisdatenspeicher oder Trail aktualisieren, um Datenereignisse mit der AWS-Managementkonsole zu protokollieren. Weitere Informationen zum Erstellen eines Ereignisdatenspeichers zum Speichern von Protokolldatenereignissen finden Sie unter [Erstellen Sie mit der Konsole einen Ereignisdatenspeicher für CloudTrail Ereignisse](query-event-data-store-cloudtrail.md). Weitere Informationen zum Erstellen eines Trails zum Protokollieren von Datenereignissen finden Sie unter [Einen Trail mit der Konsole erstellen](cloudtrail-create-a-trail-using-the-console-first-time.md#creating-a-trail-in-the-console). 

Bei Trails unterscheiden sich die Schritte zum Protokollieren von Datenereignissen je nachdem, ob Sie erweiterte oder einfache Event-Selektoren verwenden. Sie können Datenereignisse für alle Ressourcentypen mithilfe erweiterter Event-Selektoren protokollieren. Wenn Sie jedoch einfache Event-Selektoren verwenden, sind Sie auf die Protokollierung von Datenereignissen für Amazon S3 S3-Buckets und Bucket-Objekte, AWS Lambda Funktionen und Amazon DynamoDB-Tabellen beschränkt.

### Aktualisierung eines vorhandenen Ereignisdatenspeichers zur Protokollierung von Datenereignissen mithilfe der Konsole
<a name="logging-data-events-with-the-cloudtrail-console-eds"></a>

Verwenden Sie das folgende Verfahren, um einen vorhandenen Ereignisdatenspeicher zu aktualisieren und Datenereignisse zu protokollieren. Weitere Informationen zur Verwendung erweiterter Ereignisselektoren finden Sie unter [Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md) diesem Thema.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die CloudTrail Konsole unter [https://console.aws.amazon.com/cloudtrail/](https://console.aws.amazon.com/cloudtrail/).

1.  Wählen Sie im Navigationsbereich unter **Lake** **Ereignisdatenspeicher** aus. 

1. Wählen Sie auf der Seite **Ereignisdatenspeicher** den Ereignisdatenspeicher aus, den Sie aktualisieren möchten.
**Anmerkung**  
Sie können Datenereignisse nur in Ereignisdatenspeichern aktivieren, die CloudTrail Ereignisse enthalten. Sie können keine Datenereignisse in CloudTrail Ereignisdatenspeichern für AWS Config Konfigurationselemente, CloudTrail Insights-Ereignisse oder AWS Nichtereignisse aktivieren.

1. Wählen Sie auf der Detailseite unter **Datenereignisse** die Option **Bearbeiten** aus.

1. Wenn Sie noch keine Datenereignisse protokollieren, aktivieren Sie das Kontrollkästchen **Datenereignisse**.

1. Wählen Sie unter **Ressourcentyp** den Ressourcentyp aus, für den Sie Datenereignisse protokollieren möchten.

1. Wählen Sie eine Protokoll-Selektorvorlage aus. Sie können eine vordefinierte Vorlage wählen oder **Benutzerdefiniert** wählen, um Ihre eigenen Bedingungen für die Erfassung von Ereignissen zu definieren.

   Sie können aus den folgenden vordefinierten Vorlagen wählen:
   + **Alle Ereignisse protokollieren**: Wählen Sie diese Vorlage, um alle Ereignisse zu protokollieren.
   + **Nur Leseereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Leseereignisse zu protokollieren. Schreibgeschützte Ereignisse sind Ereignisse, die den Status einer Ressource nicht ändern, wie z. B. Ereignisse `Get*` oder`Describe*`.
   + **Nur Schreibereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Schreibereignisse zu protokollieren. Schreibereignisse fügen Ressourcen, Attribute oder Artefakte hinzu, ändern oder löschen sie, wie z. B. `Put*`-, `Delete*`- oder `Write*`-Ereignisse.
   + **Nur AWS-Managementkonsole Ereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Ereignisse zu protokollieren, die ihren Ursprung in haben AWS-Managementkonsole.
   + ** AWS-Service Ausgelöste Ereignisse ausschließen** — Wählen Sie diese Vorlage, um AWS-Service Ereignisse mit dem Wert „Von“ und Ereignisse`AwsServiceEvent`, die mit AWS-Service-verknüpften Rollen (SLRs) initiiert wurden, auszuschließen. `eventType`

1. (Optional) Geben Sie unter **Selektorname** einen Namen ein, um Ihre Auswahl zu identifizieren. Der Selektorname ist ein optionaler, beschreibender Name für eine erweiterte Ereignisauswahl, z. B. „Datenereignisse nur für zwei S3-Buckets protokollieren“. Der Name des Selektors wird als `Name` in der erweiterten Ereignisauswahl aufgeführt und ist sichtbar, wenn Sie die **JSON-Ansicht** erweitern.

1. Wenn Sie **Benutzerdefiniert** ausgewählt haben, erstellen Sie unter **Erweiterte Ereignisauswahlen** einen Ausdruck, der auf den Werten der erweiterten Ereignisauswahlfelder basiert.
**Anmerkung**  
Selektoren unterstützen nicht die Verwendung von Platzhaltern wie. `*` Um mehrere Werte mit einer einzigen Bedingung abzugleichen, können Sie`StartsWith`,, oder verwenden `EndsWith``NotStartsWith`, `NotEndsWith` um explizit den Anfang oder das Ende des Ereignisfeldes abzugleichen.

   1. Wählen Sie aus den folgenden Feldern.
      + **`readOnly`**- `readOnly` kann so gesetzt werden, dass sie einem Wert von `true` oder **`false`entspricht**. Schreibgeschützte Datenereignisse sind Ereignisse, die den Zustand einer Ressource nicht ändern, z. B. `Get*`- oder `Describe*`-Ereignisse. Schreibereignisse fügen Ressourcen, Attribute oder Artefakte hinzu, ändern oder löschen sie, wie z. B. `Put*`-, `Delete*`- oder `Write*`-Ereignisse. Um sowohl `read`- als auch `write`-Ereignisse zu protokollieren, fügen Sie keinen `readOnly`-Selektor hinzu.
      + **`eventName`** – `eventName` kann einen beliebigen Operator verwenden. Sie können damit jedes Datenereignis, für das protokolliert wurde, ein- oder ausschließen CloudTrail, z. B. `PutBucket``GetItem`, oder`GetSnapshotBlock`.
      + **`eventSource`**— Die Ereignisquelle, die ein- oder ausgeschlossen werden soll. In diesem Feld kann ein beliebiger Operator verwendet werden.
      + **eventType**: der Ereignistyp, der ein- oder ausgeschlossen werden soll. Sie können dieses Feld beispielsweise auf „ungleich“ setzen, `AwsServiceEvent` um **es** auszuschließen[AWS-Service Ereignisse](non-api-aws-service-events.md). Eine Liste der Ereignistypen finden Sie [`eventType`](cloudtrail-event-reference-record-contents.md#ct-event-type)unter[CloudTrail Inhalte für Verwaltungs-, Daten- und Netzwerkaktivitätsereignisse aufzeichnen](cloudtrail-event-reference-record-contents.md).
      + **sessionCredentialFromKonsole** — Ereignisse, die aus einer AWS-Managementkonsole Sitzung stammen, einschließen oder ausschließen. Dieses Feld kann auf „**gleich**“ oder „ungleich**“ mit dem Wert von gesetzt** werden. `true`
      + **userIdentity.arn**: schließt Ereignisse für Aktionen bestimmter IAM-Identitäten ein oder aus. Weitere Informationen finden Sie unter [CloudTrail -Element userIdentity](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html).
      + **`resources.ARN`**- Sie können jeden Operator mit verwenden`resources.ARN`, aber wenn Sie **equals** oder **ungleich** verwenden, muss der Wert genau dem ARN einer gültigen Ressource des Typs entsprechen, den Sie in der Vorlage als Wert von `resources.type` angegeben haben.
**Anmerkung**  
Sie können das `resources.ARN` Feld nicht verwenden, um Ressourcentypen zu filtern, bei denen dies nicht der Fall ist. ARNs

        Weitere Informationen zu den ARN-Formaten von Datenereignisressourcen finden Sie unter [Aktionen, Ressourcen und Bedingungsschlüssel für AWS-Services](https://docs.aws.amazon.com/service-authorization/latest/reference/reference_policies_actions-resources-contextkeys.html) in der *Service Authorization Reference*.

   1. Wählen Sie für jedes Feld **\$1 Bedingung** aus, um beliebig viele Bedingungen hinzuzufügen, bis zu maximal 500 angegebene Werte für alle Bedingungen. Um beispielsweise Datenereignisse für zwei S3-Buckets von Datenereignissen auszuschließen, die in Ihrem Ereignisdatenspeicher protokolliert werden, können Sie das Feld auf **Resources.ARN** festlegen, den Operator für **beginnt nicht mit** festlegen und dann einen S3-Bucket-ARN einfügen, für den Sie keine Ereignisse protokollieren möchten.

      Um den zweiten S3-Bucket hinzuzufügen, wählen Sie **\$1 Bedingung** und wiederholen Sie dann die vorherige Anweisung, indem Sie den ARN für einen anderen Bucket einfügen oder nach einem anderen Bucket suchen.

      Informationen darüber, wie mehrere Bedingungen CloudTrail ausgewertet werden, finden Sie unter. [Wie CloudTrail werden mehrere Bedingungen für ein Feld ausgewertet](filtering-data-events.md#filtering-data-events-conditions)
**Anmerkung**  
Sie können maximal 500 Werte für alle Selektoren in einem Ereignisdatenspeicher haben. Dies schließt Arrays mit mehreren Werten für einen Selektor wie `eventName` ein. Wenn Sie einzelne Werte für alle Selektoren haben, können Sie einem Selektor maximal 500 Bedingungen hinzufügen.

   1. Wählen Sie **\$1 Feld**, um bei Bedarf zusätzliche Felder hinzuzufügen. Um Fehler zu vermeiden, legen Sie keine widersprüchlichen oder doppelten Werte für Felder fest. Geben Sie beispielsweise nicht an, dass ein ARN in einem Selektor einem Wert entspricht, und geben Sie dann an, dass der ARN in einem anderen Selektor nicht dem gleichen Wert entspricht.

1. Um einen weiteren Ressourcentyp für die Protokollierung von Datenereignissen hinzuzufügen, wählen Sie **Datenereignistyp hinzufügen**. Wiederholen Sie die Schritte 6 bis zu diesem Schritt, um erweiterte Event-Selektoren für einen anderen Ressourcentyp zu konfigurieren.

1. Nachdem Sie Ihre Auswahl überprüft und bestätigt haben, wählen Sie **Änderungen speichern** aus.

### Aktualisierung eines vorhandenen Pfads zur Protokollierung von Datenereignissen mithilfe erweiterter Ereignisauswahlfunktionen mithilfe der Konsole
<a name="logging-data-events-with-the-cloudtrail-console-adv"></a>

Wenn Ihr Trail erweiterte Event-Selektoren verwendet AWS-Managementkonsole, können Sie aus vordefinierten Vorlagen wählen, die alle Datenereignisse auf einer ausgewählten Ressource protokollieren. Nachdem Sie eine Protokol- Selektorvorlage ausgewählt haben, können Sie die Vorlage so anpassen, dass sie nur die Datenereignisse enthält, die Sie am meisten sehen möchten. Weitere Informationen zur Verwendung erweiterter Event-Selektoren finden Sie unter [Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md) diesem Thema.

1. Wählen Sie auf den Seiten **Dashboard** oder **Trails** der CloudTrail Konsole den Trail aus, den Sie aktualisieren möchten.

1. Wählen Sie auf der Detailseite unter **Datenereignisse** die Option **Bearbeiten** aus.

1. Wenn Sie noch keine Datenereignisse protokollieren, aktivieren Sie das Kontrollkästchen **Datenereignisse**.

1. Wählen Sie unter **Ressourcentyp** den Ressourcentyp aus, auf dem Sie Datenereignisse protokollieren möchten.

1. Wählen Sie eine Protokoll-Selektorvorlage aus. Sie können eine vordefinierte Vorlage wählen oder **Benutzerdefiniert** wählen, um Ihre eigenen Bedingungen für die Erfassung von Ereignissen zu definieren.

   Sie können aus den folgenden vordefinierten Vorlagen wählen:
   + **Alle Ereignisse protokollieren**: Wählen Sie diese Vorlage, um alle Ereignisse zu protokollieren.
   + **Nur Leseereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Leseereignisse zu protokollieren. Schreibgeschützte Ereignisse sind Ereignisse, die den Status einer Ressource nicht ändern, wie z. B. Ereignisse `Get*` oder`Describe*`.
   + **Nur Schreibereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Schreibereignisse zu protokollieren. Schreibereignisse fügen Ressourcen, Attribute oder Artefakte hinzu, ändern oder löschen sie, wie z. B. `Put*`-, `Delete*`- oder `Write*`-Ereignisse.
   + **Nur AWS-Managementkonsole Ereignisse protokollieren** — Wählen Sie diese Vorlage, um nur Ereignisse zu protokollieren, die ihren Ursprung in haben AWS-Managementkonsole.
   + ** AWS-Service Ausgelöste Ereignisse ausschließen** — Wählen Sie diese Vorlage, um AWS-Service Ereignisse mit dem Wert „Von“ und Ereignisse`AwsServiceEvent`, die mit AWS-Service-verknüpften Rollen (SLRs) initiiert wurden, auszuschließen. `eventType`
**Anmerkung**  
Wenn Sie eine vordefinierte Vorlage für S3-Buckets auswählen, wird die Protokollierung von Datenereignissen für alle Buckets aktiviert, die sich derzeit in Ihrem AWS Konto befinden, sowie für alle Buckets, die Sie erstellen, nachdem Sie die Erstellung des Trails abgeschlossen haben. Es ermöglicht auch die Protokollierung der Datenereignisaktivitäten, die von einem beliebigen Benutzer oder einer Rolle in Ihrem AWS Konto ausgeführt werden, selbst wenn diese Aktivität in einem Bucket ausgeführt wird, der zu einem anderen Konto gehört. AWS   
Wenn der Trail nur für eine Region gilt, aktiviert die Auswahl einer vordefinierten Vorlage, die alle S3 Buckets protokolliert, die Datenereignisprotokollierung für alle Buckets in derselben Region wie Ihr Trail und alle Buckets, die Sie später in dieser Region erstellen. Es werden keine Datenereignisse für Amazon S3 S3-Buckets in anderen Regionen in Ihrem AWS Konto protokolliert.  
Wenn Sie einen Trail für alle Regionen erstellen, aktiviert die Auswahl einer vordefinierten Vorlage für Lambda-Funktionen die Datenereignisprotokollierung für alle Funktionen, die sich derzeit in Ihrem AWS Konto befinden, sowie für alle Lambda-Funktionen, die Sie möglicherweise in einer beliebigen Region erstellen, nachdem Sie den Trail erstellt haben. Wenn Sie einen Trail für eine einzelne Region erstellen (bei Pfaden ist dies nur mit der möglich AWS CLI), aktiviert diese Auswahl die Datenereignisprotokollierung für alle Funktionen, die sich derzeit in dieser Region in Ihrem AWS Konto befinden, sowie für alle Lambda-Funktionen, die Sie möglicherweise in dieser Region erstellen, nachdem Sie den Trail erstellt haben. Es wird keine Datenereignisprotokollierung für Lambda-Funktionen aktiviert, die in anderen Regionen erstellt wurden.  
Das Protokollieren von Datenereignissen für alle Funktionen ermöglicht auch die Protokollierung von Datenereignisaktivitäten, die von einem beliebigen Benutzer oder einer Rolle in Ihrem AWS Konto ausgeführt werden, selbst wenn diese Aktivität für eine Funktion ausgeführt wird, die zu einem anderen AWS Konto gehört.

1. (Optional) Geben Sie unter **Selektorname** einen Namen ein, um Ihre Auswahl zu identifizieren. Der Selektorname ist ein optionaler, beschreibender Name für eine erweiterte Ereignisauswahl, z. B. „Datenereignisse nur für zwei S3-Buckets protokollieren“. Der Name des Selektors wird als `Name` in der erweiterten Ereignisauswahl aufgeführt und ist sichtbar, wenn Sie die **JSON-Ansicht** erweitern.

1. Wenn Sie **Benutzerdefiniert** ausgewählt haben, erstellen **Event-Selektoren unter Advanced** einen Ausdruck, der auf den Werten der erweiterten Event-Selektor-Felder basiert.
**Anmerkung**  
Selektoren unterstützen nicht die Verwendung von Platzhaltern wie. `*` Um mehrere Werte mit einer einzigen Bedingung abzugleichen, können Sie`StartsWith`,, oder verwenden `EndsWith``NotStartsWith`, `NotEndsWith` um explizit den Anfang oder das Ende des Ereignisfeldes abzugleichen.

   1. Wählen Sie aus den folgenden Feldern.
      + **`readOnly`**- `readOnly` kann so gesetzt werden, dass sie einem Wert von `true` oder **`false`entspricht**. Schreibgeschützte Datenereignisse sind Ereignisse, die den Zustand einer Ressource nicht ändern, z. B. `Get*`- oder `Describe*`-Ereignisse. Schreibereignisse fügen Ressourcen, Attribute oder Artefakte hinzu, ändern oder löschen sie, wie z. B. `Put*`-, `Delete*`- oder `Write*`-Ereignisse. Um sowohl `read`- als auch `write`-Ereignisse zu protokollieren, fügen Sie keinen `readOnly`-Selektor hinzu.
      + **`eventName`** – `eventName` kann einen beliebigen Operator verwenden. Sie können damit jedes Datenereignis, für das protokolliert wurde, ein- oder ausschließen CloudTrail, z. B. `PutBucket``GetItem`, oder`GetSnapshotBlock`.
      + **`eventSource`**— Die Ereignisquelle, die ein- oder ausgeschlossen werden soll. In diesem Feld kann ein beliebiger Operator verwendet werden.
      + **eventType**: der Ereignistyp, der ein- oder ausgeschlossen werden soll. Sie können dieses Feld beispielsweise auf „ungleich“ setzen, `AwsServiceEvent` um **es** auszuschließen[AWS-Service Ereignisse](non-api-aws-service-events.md). Eine Liste der Ereignistypen finden Sie [`eventType`](cloudtrail-event-reference-record-contents.md#ct-event-type)unter[CloudTrail Inhalte für Verwaltungs-, Daten- und Netzwerkaktivitätsereignisse aufzeichnen](cloudtrail-event-reference-record-contents.md).
      + **sessionCredentialFromKonsole** — Ereignisse, die aus einer AWS-Managementkonsole Sitzung stammen, einschließen oder ausschließen. Dieses Feld kann auf „**gleich**“ oder „ungleich**“ mit dem Wert von gesetzt** werden. `true`
      + **userIdentity.arn**: schließt Ereignisse für Aktionen bestimmter IAM-Identitäten ein oder aus. Weitere Informationen finden Sie unter [CloudTrail -Element userIdentity](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html).
      + **`resources.ARN`**- Sie können jeden Operator mit verwenden`resources.ARN`, aber wenn Sie **equals** oder **ungleich** verwenden, muss der Wert genau dem ARN einer gültigen Ressource des Typs entsprechen, den Sie in der Vorlage als Wert von `resources.type` angegeben haben.
**Anmerkung**  
Sie können das `resources.ARN` Feld nicht verwenden, um Ressourcentypen zu filtern, bei denen dies nicht der Fall ist. ARNs

        Weitere Informationen zu den ARN-Formaten von Datenereignisressourcen finden Sie unter [Aktionen, Ressourcen und Bedingungsschlüssel für AWS-Services](https://docs.aws.amazon.com/service-authorization/latest/reference/reference_policies_actions-resources-contextkeys.html) in der *Service Authorization Reference*.

   1. Wählen Sie für jedes Feld **\$1 Bedingung** aus, um beliebig viele Bedingungen hinzuzufügen, bis zu maximal 500 angegebene Werte für alle Bedingungen. Um beispielsweise Datenereignisse für zwei S3-Buckets von Datenereignissen auszuschließen, die in Ihrem Ereignisdatenspeicher protokolliert werden, können Sie das Feld auf **Resources.ARN** festlegen, den Operator für **beginnt nicht mit** festlegen und dann einen S3-Bucket-ARN einfügen, für den Sie keine Ereignisse protokollieren möchten.

      Um den zweiten S3-Bucket hinzuzufügen, wählen Sie **\$1 Bedingung** und wiederholen Sie dann die vorherige Anweisung, indem Sie den ARN für einen anderen Bucket einfügen oder nach einem anderen Bucket suchen.

      Informationen darüber, wie mehrere Bedingungen CloudTrail ausgewertet werden, finden Sie unter. [Wie CloudTrail werden mehrere Bedingungen für ein Feld ausgewertet](filtering-data-events.md#filtering-data-events-conditions)
**Anmerkung**  
Sie können maximal 500 Werte für alle Selektoren in einem Ereignisdatenspeicher haben. Dies schließt Arrays mit mehreren Werten für einen Selektor wie `eventName` ein. Wenn Sie einzelne Werte für alle Selektoren haben, können Sie einem Selektor maximal 500 Bedingungen hinzufügen.

   1. Wählen Sie **\$1 Feld**, um bei Bedarf zusätzliche Felder hinzuzufügen. Um Fehler zu vermeiden, legen Sie keine widersprüchlichen oder doppelten Werte für Felder fest. Geben Sie beispielsweise nicht an, dass ein ARN in einem Selektor einem Wert entspricht, und geben Sie dann an, dass der ARN in einem anderen Selektor nicht dem gleichen Wert entspricht.

1. Um einen weiteren Ressourcentyp für die Protokollierung von Datenereignissen hinzuzufügen, wählen Sie **Datenereignistyp hinzufügen**. Wiederholen Sie die Schritte 4 bis zu diesem Schritt, um erweiterte Ereignisauswahlen für den Ressourcentyp zu konfigurieren.

1. Nachdem Sie Ihre Auswahl überprüft und bestätigt haben, wählen Sie **Änderungen speichern** aus.

### Aktualisieren Sie mithilfe der Konsole einen vorhandenen Trail, um Datenereignisse mit grundlegenden Ereignisauswahlen zu protokollieren
<a name="logging-data-events-with-the-cloudtrail-console"></a>

Verwenden Sie das folgende Verfahren, um einen vorhandenen Trail zu aktualisieren und Datenereignisse mit grundlegenden Ereignisselektoren zu protokollieren.

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die CloudTrail Konsole unter [https://console.aws.amazon.com/cloudtrail/](https://console.aws.amazon.com/cloudtrail/).

1. Öffnen Sie die **Trails-Seite** der CloudTrail Konsole und wählen Sie den Namen des Trails aus.
**Anmerkung**  
Sie können zwar einen vorhandenen Trail bearbeiten, um Datenereignisse zu protokollieren, doch es ist eine bewährte Methode, einen separaten Trail speziell für das Protokollieren von Datenereignissen zu erstellen.

1. Wählen Sie für **Datenereignisse** **Bearbeiten** aus.

1. Für Amazon-S3-Buckets:

   1. Wählen Sie für **Daten-Ereignissquelle** **S3** aus.

   1. Sie können wählen, ob Sie **alle aktuellen und zukünftigen S3 Buckets** protokollieren oder einzelne Buckets oder Funktionen angeben möchten. Standardmäßig werden Datenereignisse für alle aktuellen und zukünftigen S3 Buckets protokolliert.
**Anmerkung**  
Wenn Sie die Standardoption **Alle aktuellen und future S3-Buckets** beibehalten, wird die Datenereignisprotokollierung für alle Buckets aktiviert, die sich derzeit in Ihrem AWS Konto befinden, sowie für alle Buckets, die Sie erstellen, nachdem Sie den Trail erstellt haben. Es ermöglicht auch die Protokollierung der Datenereignisaktivitäten, die von einem beliebigen Benutzer oder einer Rolle in Ihrem AWS Konto ausgeführt werden, selbst wenn diese Aktivität in einem Bucket ausgeführt wird, der zu einem anderen Konto gehört. AWS   
Wenn Sie einen Trail für eine einzelne Region erstellen (mithilfe von AWS CLI), **aktivieren Sie bei Auswahl der Option Alle S3-Buckets in Ihrem Konto** auswählen die Protokollierung von Datenereignissen für alle Buckets in derselben Region wie Ihr Trail und für alle Buckets, die Sie später in dieser Region erstellen. Es werden keine Datenereignisse für Amazon S3 S3-Buckets in anderen Regionen in Ihrem AWS Konto protokolliert.

   1. Wenn Sie die Standardeinstellung **Alle aktuellen und zukünftigen S3 Buckets** beibehalten, können Sie **Lese**ereignisse, **Schreib**ereignisse oder beides protokollieren.

   1. Um einzelne Buckets auszuwählen, leeren Sie die Kontrollkästchen **Lesen** und **Schreiben** für **Alle aktuellen und zukünftigen S3 Buckets**. Suchen Sie unter **Individuelle Bucket-Auswahl** nach einem Bucket, in dem Datenereignisse protokolliert werden sollen. Um bestimmte Buckets zu suchen, geben Sie ein Bucket-Präfix für den gewünschten Bucket ein. Sie können in diesem Fenster mehrere Buckets auswählen. Wählen Sie **Bucket hinzufügen**, um Datenereignisse für weitere Buckets zu protokollieren. Wählen Sie, ob Sie **Read (Lesen)**-Ereignisse wie `GetObject`, **Write (Schreiben)**-Ereignisse wie `PutObject` oder Ereignisse beider Typen protokolliert werden sollen.

      Diese Einstellung hat Vorrang vor individuellen Einstellungen, die Sie für einzelne Buckets konfigurieren. Wenn Sie beispielsweise die Protokollierung von **Lese**-Ereignissen für alle S3-Buckets festlegen und dann einen bestimmten Bucket für die Protokollierung von Datenereignissen hinzufügen, ist für den hinzugefügten Bucket bereits **Lesen** ausgewählt. Sie können die Auswahl nicht löschen. Sie können die Option nur für **Write** (Schreiben) konfigurieren.

      Um einen Bucket aus der Protokollierung zu entfernen, wählen Sie **X** aus.

1. Um einen weiteren Ressourcentyp hinzuzufügen, auf dem Datenereignisse protokolliert werden sollen, wählen Sie **Datenereignistyp hinzufügen**.

1. Für Lambda-Funktionen:

   1. Wählen Sie für **Daten-Ereignissquelle** **Lambda** aus.

   1. Wählen Sie in der **Lambda-Funktion** **Alle Regionen** aus, um alle Lambda-Funktionen zu protokollieren, oder **Eingabefunktion als ARN**, um Datenereignisse für eine bestimmte Funktion zu protokollieren. 

      Um Datenereignisse für alle Lambda-Funktionen in Ihrem AWS -Konto zu protokollieren, wählen Sie **Log all current and future functions** (Alle aktuellen und zukünftigen Funktionen protokollieren). Diese Einstellung hat Vorrang vor individuellen Einstellungen, die Sie für einzelne Funktionen vornehmen. Alle Funktionen werden protokolliert, auch wenn nicht alle Funktionen angezeigt werden.
**Anmerkung**  
Wenn Sie einen Trail für alle Regionen erstellen, wird durch diese Auswahl die Datenereignisprotokollierung für alle Funktionen aktiviert, die sich derzeit in Ihrem AWS -Konto befinden, sowie für alle Lambda-Funktionen, die Sie ggf. in einer Region erstellen, nachdem Sie den Trail erstellt haben. Wenn Sie einen Trail für eine einzelne Region erstellen (mithilfe von AWS CLI), aktiviert diese Auswahl die Datenereignisprotokollierung für alle Funktionen, die sich derzeit in dieser Region in Ihrem AWS Konto befinden, sowie für alle Lambda-Funktionen, die Sie möglicherweise in dieser Region erstellen, nachdem Sie den Trail erstellt haben. Es wird keine Datenereignisprotokollierung für Lambda-Funktionen aktiviert, die in anderen Regionen erstellt wurden.  
Das Protokollieren von Datenereignissen für alle Funktionen ermöglicht auch die Protokollierung von Datenereignisaktivitäten, die von einem beliebigen Benutzer oder einer Rolle in Ihrem AWS Konto ausgeführt werden, selbst wenn diese Aktivität für eine Funktion ausgeführt wird, die zu einem anderen AWS Konto gehört.

   1. Wenn Sie **Eingabefunktion als ARN** wählen, geben Sie den ARN einer Lambda-Funktion ein.
**Anmerkung**  
Wenn Sie mehr als 15.000 Lambda-Funktionen in Ihrem Konto haben, können Sie beim Erstellen eines Trails nicht alle Funktionen in der CloudTrail Konsole anzeigen oder auswählen. Sie können weiterhin die Option wählen, alle Funktionen zu protokollieren, auch wenn sie nicht angezeigt werden. Wenn Sie Datenereignisse für bestimmte Funktionen protokollieren möchten, können Sie eine Funktion manuell hinzufügen, wenn Sie deren ARN kennen. Sie können die Erstellung des Trails auch in der Konsole abschließen und dann den Befehl AWS CLI und den **put-event-selectors** Befehl verwenden, um die Datenereignisprotokollierung für bestimmte Lambda-Funktionen zu konfigurieren. Weitere Informationen finden Sie unter [Verwaltung von Wanderwegen mit dem AWS CLI](cloudtrail-additional-cli-commands.md).

1. Um einen weiteren Ressourcentyp für die Protokollierung von Datenereignissen hinzuzufügen, wählen Sie **Datenereignistyp hinzufügen**.

1. Für DynamoDB-Tabellen:

   1. Wählen Sie für **Daten-Ereignissquelle** **DynamoDB** aus.

   1. Wählen Sie unter **DynamoDB table selection** (DynamoDB-Tabellenauswahl) die Option **Browse** (Durchsuchen), um eine Tabelle auszuwählen, oder fügen Sie den ARN einer DynamoDB-Tabelle ein, auf die Sie Zugriff haben. Ein DynamoDB-Tabellen-ARN verwendet das folgende Format:

      ```
      arn:partition:dynamodb:region:account_ID:table/table_name
      ```

      Um eine weitere Tabelle hinzuzufügen, wählen Sie **Add row** (Zeile hinzufügen) und suchen Sie nach einer Tabelle oder fügen Sie den ARN einer Tabelle ein, auf die Sie Zugriff haben.

1. Wählen Sie **Änderungen speichern ** aus.

## Protokollieren von Datenereignissen mit dem AWS Command Line Interface
<a name="creating-data-event-selectors-with-the-AWS-CLI"></a>

Sie können Ihre Trails oder Ereignisdatenspeicher so konfigurieren, dass Datenereignisse per AWS CLI protokolliert werden.

**Topics**
+ [Protokollierung von Datenereignissen für Trails mit dem AWS CLI](#logging-data-events-CLI-trail-examples)
+ [Protokollieren von Datenereignissen für Ereignisdatenspeicher mit dem AWS CLI](#logging-data-events-CLI-eds-examples)

### Protokollierung von Datenereignissen für Trails mit dem AWS CLI
<a name="logging-data-events-CLI-trail-examples"></a>

Sie können Ihre Trails so konfigurieren, dass Verwaltungs- und Datenereignisse mit AWS CLI protokolliert werden.

**Anmerkung**  
Beachten Sie, dass Sie Gebühren anfallen, wenn Ihr Konto mehr als eine Kopie von Verwaltungsereignissen protokolliert. Für die Protokollierung von Datenereignissen fällt immer eine Gebühr an. Weitere Informationen finden Sie unter [Preise zu AWS CloudTrail](https://aws.amazon.com/cloudtrail/pricing/).
Sie können entweder erweiterte Ereignisselektoren oder einfache Ereignisselektoren verwenden, aber nicht beide. Wenn Sie erweiterte Ereignisselektoren auf einen Trail anwenden, werden alle vorhandenen grundlegenden Ereignisselektoren überschrieben.
Wenn Ihr Trail grundlegende Ereignisselektoren verwendet, können Sie nur die folgenden Ressourcentypen protokollieren:  
`AWS::DynamoDB::Table`
`AWS::Lambda::Function`
`AWS::S3::Object`
Um zusätzliche Ressourcentypen zu protokollieren, müssen Sie erweiterte Ereignisselektoren verwenden. Um einen Trail in erweiterte Ereignisselektoren umzuwandeln, führen Sie den Befehl **get-event-selectors** aus, um die aktuellen Ereignisselektoren zu bestätigen, und konfigurieren Sie dann die erweiterten Ereignisselektoren so, dass sie der Abdeckung der vorherigen Ereignisselektoren entsprechen. Fügen Sie dann Selektoren für alle Ressourcentypen hinzu, für die Sie Datenereignisse protokollieren möchten.
Sie können erweiterte Event-Selektoren verwenden, um nach dem Wert der [unterstützten erweiterten Event-Selector-Felder](filtering-data-events.md) zu filtern, sodass Sie nur die Datenereignisse protokollieren können, die für Sie von Interesse sind. Weitere Informationen zur Konfiguration dieser Felder finden Sie [https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_AdvancedFieldSelector.html)in der *AWS CloudTrail API-Referenz* und [Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md) in diesem Handbuch.

Führen Sie den Befehl [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/get-event-selectors.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/get-event-selectors.html) aus, um anzuzeigen, ob Ihr Trail Verwaltungs- und Datenereignisse protokolliert.

```
aws cloudtrail get-event-selectors --trail-name TrailName
```

Der Befehl gibt die Event-Selektoren für den Trail zurück.

**Topics**
+ [Protokollieren Sie Datenereignisse für Trails mithilfe erweiterter Event-Selektoren](#creating-data-event-selectors-advanced)
+ [Protokollieren Sie alle Amazon S3 S3-Ereignisse für einen Amazon S3 S3-Bucket mithilfe erweiterter Event-Selektoren](#creating-data-adv-event-selectors-CLI-s3)
+ [Amazon S3 AWS Outposts S3-Ereignisse mithilfe erweiterter Event-Selektoren protokollieren](#creating-data-event-selectors-CLI-outposts)
+ [Protokollieren von Ereignissen mithilfe grundlegender Ereignisselektoren](#creating-data-event-selectors-basic)

#### Protokollieren Sie Datenereignisse für Trails mithilfe erweiterter Event-Selektoren
<a name="creating-data-event-selectors-advanced"></a>

**Anmerkung**  
Wenn Sie erweiterte Ereignisselektoren auf einen Trail anwenden, werden alle vorhandenen grundlegenden Ereignisselektoren überschrieben. Bevor Sie die erweiterten Ereignisselektoren konfigurieren, führen Sie den Befehl **get-event-selectors** aus, um die aktuellen Ereignisselektoren zu bestätigen. Anschließend konfigurieren Sie die erweiterten Ereignisselektoren so, dass sie der Abdeckung der vorherigen Ereignisselektoren entsprechen, und fügen dann Selektoren für zusätzliche Datenereignisse hinzu, die Sie protokollieren möchten.

Das folgende Beispiel erstellt benutzerdefinierte erweiterte Event-Selektoren für einen Trail, der so benannt ist, *TrailName* dass er Lese- und Schreibverwaltungsereignisse (durch Weglassen des `readOnly` Selektors) `PutObject` und `DeleteObject` Datenereignisse für alle Amazon S3 S3-Bucket/Präfix-Kombinationen mit Ausnahme eines Buckets mit dem Namen `amzn-s3-demo-bucket` und Datenereignisse für eine Funktion mit dem Namen enthält. AWS Lambda `MyLambdaFunction` Da es sich um benutzerdefinierte erweiterte Ereignisselektoren handelt, hat jeder Satz von Selektoren einen beschreibenden Namen. Beachten Sie, dass ein abschließender Schrägstrich Teil des ARN-Werts für S3 Buckets ist.

```
aws cloudtrail put-event-selectors --trail-name TrailName --advanced-event-selectors
'[
  {
    "Name": "Log readOnly and writeOnly management events",
    "FieldSelectors": [
      { "Field": "eventCategory", "Equals": ["Management"] }
    ]
  },
  {
    "Name": "Log PutObject and DeleteObject events for all but one bucket",
    "FieldSelectors": [
      { "Field": "eventCategory", "Equals": ["Data"] },
      { "Field": "resources.type", "Equals": ["AWS::S3::Object"] },
      { "Field": "eventName", "Equals": ["PutObject","DeleteObject"] },
      { "Field": "resources.ARN", "NotStartsWith": ["arn:aws:s3:::amzn-s3-demo-bucket/"] }
    ]
  },
  {
    "Name": "Log data plane actions on MyLambdaFunction",
    "FieldSelectors": [
      { "Field": "eventCategory", "Equals": ["Data"] },
      { "Field": "resources.type", "Equals": ["AWS::Lambda::Function"] },
      { "Field": "resources.ARN", "Equals": ["arn:aws:lambda:us-east-2:111122223333:function/MyLambdaFunction"] }
    ]
  }
]'
```

Das Beispiel gibt die für den Trail konfigurierten fortschrittlichen Ereignisauswahlen zurück.

```
{
  "AdvancedEventSelectors": [
    {
      "Name": "Log readOnly and writeOnly management events",
      "FieldSelectors": [
        {
          "Field": "eventCategory", 
          "Equals": [ "Management" ]
        }
      ]
    },
    {
      "Name": "Log PutObject and DeleteObject events for all but one bucket",
      "FieldSelectors": [
        {
          "Field": "eventCategory", 
          "Equals": [ "Data" ]
        },
        {
          "Field": "resources.type", 
          "Equals": [ "AWS::S3::Object" ]
        },
        {
          "Field": "resources.ARN", 
          "NotStartsWith": [ "arn:aws:s3:::amzn-s3-demo-bucket/" ]
        },
      ]
    },
{
      "Name": "Log data plane actions on MyLambdaFunction",
      "FieldSelectors": [
        {
          "Field": "eventCategory", 
          "Equals": [ "Data" ]
        },
        {
          "Field": "resources.type", 
          "Equals": [ "AWS::Lambda::Function" ]
        },
        {
          "Field": "eventName", 
          "Equals": [ "Invoke" ]
        },
        {
          "Field": "resources.ARN", 
          "Equals": [ "arn:aws:lambda:us-east-2:111122223333:function/MyLambdaFunction" ]
        }
      ]
    }
  ],
  "TrailARN": "arn:aws:cloudtrail:us-east-2:123456789012:trail/TrailName"
}
```

#### Protokollieren Sie alle Amazon S3 S3-Ereignisse für einen Amazon S3 S3-Bucket mithilfe erweiterter Event-Selektoren
<a name="creating-data-adv-event-selectors-CLI-s3"></a>

**Anmerkung**  
Wenn Sie erweiterte Ereignisselektoren auf einen Trail anwenden, werden alle vorhandenen grundlegenden Ereignisselektoren überschrieben.

Das folgende Beispiel zeigt, wie Sie Ihren Trail so konfigurieren, dass alle Datenereignisse für alle Amazon-S3-Objekte in einem bestimmten S3 Bucket enthalten sind. Der Wert für S3-Ereignisse für das `resources.type`-Feld ist `AWS::S3::Object`. Da sich die ARN-Werte für S3-Objekte und S3 Buckets geringfügig unterscheiden, müssen Sie den `StartsWith`-Operator für `resources.ARN` hinzufügen, um alle Ereignisse zu erfassen.

```
aws cloudtrail put-event-selectors --trail-name TrailName --region region \
--advanced-event-selectors \
'[
    {
            "Name": "S3EventSelector",
            "FieldSelectors": [
                { "Field": "eventCategory", "Equals": ["Data"] },
                { "Field": "resources.type", "Equals": ["AWS::S3::Object"] },
                { "Field": "resources.ARN", "StartsWith": ["arn:partition:s3:::amzn-s3-demo-bucket/"] }
            ]
        }
]'
```

Der Befehl gibt die folgende Beispielausgabe zurück.

```
{
    "TrailARN": "arn:aws:cloudtrail:region:account_ID:trail/TrailName",
    "AdvancedEventSelectors": [
        {
            "Name": "S3EventSelector",
            "FieldSelectors": [
                {
                    "Field": "eventCategory",
                    "Equals": [
                        "Data"
                    ]
                },
                {
                    "Field": "resources.type",
                    "Equals": [
                        "AWS::S3::Object"
                    ]
                },
                {
                    "Field": "resources.ARN",
                    "StartsWith": [
                        "arn:partition:s3:::amzn-s3-demo-bucket/"
                    ]
                }
            ]
        }
    ]
}
```

#### Amazon S3 AWS Outposts S3-Ereignisse mithilfe erweiterter Event-Selektoren protokollieren
<a name="creating-data-event-selectors-CLI-outposts"></a>

**Anmerkung**  
Wenn Sie erweiterte Ereignisselektoren auf einen Trail anwenden, werden alle vorhandenen grundlegenden Ereignisselektoren überschrieben.

Das folgende Beispiel zeigt, wie Sie Ihren Trail so konfigurieren, dass alle Datenereignisse für alle Amazon S3 on Outposts-Objekte in Ihrem Outpost enthalten sind.

```
aws cloudtrail put-event-selectors --trail-name TrailName --region region \
--advanced-event-selectors \
'[
    {
            "Name": "OutpostsEventSelector",
            "FieldSelectors": [
                { "Field": "eventCategory", "Equals": ["Data"] },
                { "Field": "resources.type", "Equals": ["AWS::S3Outposts::Object"] }
            ]
    }
]'
```

Der Befehl gibt die folgende Beispielausgabe zurück.

```
{
    "TrailARN": "arn:aws:cloudtrail:region:account_ID:trail/TrailName",
    "AdvancedEventSelectors": [
        {
            "Name": "OutpostsEventSelector",
            "FieldSelectors": [
                {
                    "Field": "eventCategory",
                    "Equals": [
                        "Data"
                    ]
                },
                {
                    "Field": "resources.type",
                    "Equals": [
                        "AWS::S3Outposts::Object"
                    ]
                }
            ]
        }
    ]
}
```

#### Protokollieren von Ereignissen mithilfe grundlegender Ereignisselektoren
<a name="creating-data-event-selectors-basic"></a>

Das Folgende ist ein Beispielergebnis des **get-event-selectors**-Befehls, das grundlegende Ereignisselektoren zeigt. Wenn Sie mithilfe von einen Trail erstellen AWS CLI, protokolliert ein Trail standardmäßig alle Verwaltungsereignisse. Standardmäßig protokollieren die Trails keine Datenereignisse.

```
{
    "TrailARN": "arn:aws:cloudtrail:us-east-2:123456789012:trail/TrailName",
    "EventSelectors": [
        {
            "IncludeManagementEvents": true,
            "DataResources": [],
            "ReadWriteType": "All"
        }
    ]
}
```

Führen Sie den Befehl [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/put-event-selectors.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/put-event-selectors.html) aus, um Ihren Trail für die Protokollierung von Verwaltungs- und Datenereignissen zu konfigurieren.

Das folgende Beispiel zeigt, wie Sie grundlegende Ereignisselektoren verwenden, um Ihren Trail so zu konfigurieren, dass er alle Verwaltungs- und Datenereignisse für die S3-Objekte in zwei S3-Bucket-Präfixen enthält. Sie können zwischen 1 und 5 Ereignisselektoren für einen Trail angeben. Sie können zwischen 1 und 250 Datenressourcen für einen Trail festlegen.

**Anmerkung**  
Die maximale Anzahl von S3-Datenressourcen beträgt 250, wenn Sie Datenereignisse mithilfe einfacher Ereignisselektoren begrenzen.

```
aws cloudtrail put-event-selectors --trail-name TrailName --event-selectors '[{ "ReadWriteType": "All", "IncludeManagementEvents":true, "DataResources": [{ "Type": "AWS::S3::Object", "Values": ["arn:aws:s3:::amzn-s3-demo-bucket1/prefix", "arn:aws:s3:::amzn-s3-demo-bucket2;/prefix2"] }] }]'
```

Der Befehl gibt die Ereignisselektoren zurück, die für den Trail konfiguriert sind.

```
{
    "TrailARN": "arn:aws:cloudtrail:us-east-2:123456789012:trail/TrailName",
    "EventSelectors": [
        {
            "IncludeManagementEvents": true,
            "DataResources": [
                {
                    "Values": [
                        "arn:aws:s3:::amzn-s3-demo-bucket1/prefix",
                        "arn:aws:s3:::amzn-s3-demo-bucket2/prefix2",
                    ],
                    "Type": "AWS::S3::Object"
                }
            ],
            "ReadWriteType": "All"
        }
    ]
}
```

### Protokollieren von Datenereignissen für Ereignisdatenspeicher mit dem AWS CLI
<a name="logging-data-events-CLI-eds-examples"></a>

Sie können Ihre Ereignisdatenspeicher so konfigurieren, dass Datenereignisse per AWS CLI protokolliert werden. Verwenden Sie den Befehl [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/create-event-data-store.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/create-event-data-store.html), um einen neuen Ereignisdatenspeicher zum Protokollieren von Datenereignissen zu erstellen. Verwenden Sie den Befehl [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/update-event-data-store.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/update-event-data-store.html), um die erweiterten Ereignisselektoren für einen vorhandenen Ereignisdatenspeicher zu aktualisieren.

Sie konfigurieren erweiterte Ereignisselektoren, um Datenereignisse in einem Ereignisdatenspeicher zu protokollieren. Eine Liste der unterstützten Felder finden Sie unter[Filterung von Datenereignissen mithilfe erweiterter Event-Selektoren](filtering-data-events.md).

Führen Sie den Befehl [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/get-event-data-store.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/cloudtrail/get-event-data-store.html) aus, um zu überprüfen, ob Ihr Ereignisdatenspeicher Datenereignisse enthält. 

```
aws cloudtrail get-event-data-store --event-data-store EventDataStoreARN
```

Der Befehl gibt die Einstellungen für den Ereignisdatenspeicher zurück.

```
{
    "EventDataStoreArn": "arn:aws:cloudtrail:us-east-1:111122223333:eventdatastore/EXAMPLE492-301f-4053-ac5e-EXAMPLE6441aa",
    "Name": "ebs-data-events",
    "Status": "ENABLED",
    "AdvancedEventSelectors": [
        {
            "Name": "Log all EBS direct APIs on EBS snapshots",
            "FieldSelectors": [
                {
                    "Field": "eventCategory",
                    "Equals": [
                        "Data"
                    ]
                },
                {
                    "Field": "resources.type",
                    "Equals": [
                        "AWS::EC2::Snapshot"
                    ]
                }
            ]
        }
    ],
    "MultiRegionEnabled": true,
    "OrganizationEnabled": false,
    "BillingMode": "EXTENDABLE_RETENTION_PRICING",
    "RetentionPeriod": 366,
    "TerminationProtectionEnabled": true,
    "CreatedTimestamp": "2023-11-04T15:57:33.701000+00:00",
    "UpdatedTimestamp": "2023-11-20T20:37:34.228000+00:00"
}
```

**Topics**
+ [Alle Amazon S3 S3-Ereignisse für einen bestimmten Bucket einbeziehen](#creating-data-adv-event-selectors-CLI-s3-eds)
+ [Amazon S3 in AWS Outposts Veranstaltungen einbeziehen](#creating-data-event-selectors-CLI-outposts-eds)

#### Alle Amazon S3 S3-Ereignisse für einen bestimmten Bucket einbeziehen
<a name="creating-data-adv-event-selectors-CLI-s3-eds"></a>

Das folgende Beispiel zeigt, wie Sie einen Ereignisdatenspeicher erstellen, um alle Datenereignisse für alle Amazon S3 S3-Objekte in einem speziellen S3-Bucket für allgemeine Zwecke aufzunehmen und AWS-Service Ereignisse und Ereignisse auszuschließen, die von der generiert wurden `bucket-scanner-role``userIdentity`. Der Wert für S3-Ereignisse für das `resources.type`-Feld ist `AWS::S3::Object`. Da sich die ARN-Werte für S3-Objekte und S3 Buckets geringfügig unterscheiden, müssen Sie den `StartsWith`-Operator für `resources.ARN` hinzufügen, um alle Ereignisse zu erfassen.

```
aws cloudtrail create-event-data-store --name "EventDataStoreName" --multi-region-enabled \
--advanced-event-selectors \
'[
    {
        "Name": "S3EventSelector",
        "FieldSelectors": [
            { "Field": "eventCategory", "Equals": ["Data"] },
            { "Field": "resources.type", "Equals": ["AWS::S3::Object"] },
            { "Field": "resources.ARN", "StartsWith": ["arn:partition:s3:::amzn-s3-demo-bucket/"] },
            { "Field": "userIdentity.arn", "NotStartsWith": ["arn:aws:sts::123456789012:assumed-role/bucket-scanner-role"]},
            { "Field": "eventType","NotEquals": ["AwsServiceEvent"]}
        ]
    }
]'
```

Der Befehl gibt die folgende Beispielausgabe zurück.

```
{
    "EventDataStoreArn": "arn:aws:cloudtrail:us-east-1:111122223333:eventdatastore/EXAMPLE492-301f-4053-ac5e-EXAMPLE441aa",
    "Name": "EventDataStoreName",
    "Status": "ENABLED",
    "AdvancedEventSelectors": [
        {
            "Name": "S3EventSelector",
            "FieldSelectors": [
                {
                    "Field": "eventCategory",
                    "Equals": [
                        "Data"
                    ]
                },
                {
                    "Field": "resources.ARN",
                    "StartsWith": [
                        "arn:partition:s3:::amzn-s3-demo-bucket/"
                    ]
                },
                {
                    "Field": "resources.type",
                    "Equals": [
                        "AWS::S3::Object"
                    ]
                },
                { 
                    "Field": "userIdentity.arn", 
                    "NotStartsWith": [
                        "arn:aws:sts::123456789012:assumed-role/bucket-scanner-role"
                     ]
                },
                { 
                    "Field": "eventType",
                    "NotEquals": [
                        "AwsServiceEvent"
                    ]
                }
            ]
        }
    ],
    "MultiRegionEnabled": true,
    "OrganizationEnabled": false,
    "BillingMode": "EXTENDABLE_RETENTION_PRICING",
    "RetentionPeriod": 366,
    "TerminationProtectionEnabled": true,
    "CreatedTimestamp": "2024-11-04T15:57:33.701000+00:00",
    "UpdatedTimestamp": "2024-11-20T20:49:21.766000+00:00"
}
```

#### Amazon S3 in AWS Outposts Veranstaltungen einbeziehen
<a name="creating-data-event-selectors-CLI-outposts-eds"></a>

Das folgende Beispiel zeigt, wie Sie Ihren Ereignisdatenspeicher so konfigurieren, dass alle Datenereignisse für alle Objekte von Amazon S3 on Outposts in Ihrem Outpost enthalten sind.

```
aws cloudtrail create-event-data-store --name EventDataStoreName \
--advanced-event-selectors \
'[
    {
            "Name": "OutpostsEventSelector",
            "FieldSelectors": [
                { "Field": "eventCategory", "Equals": ["Data"] },
                { "Field": "resources.type", "Equals": ["AWS::S3Outposts::Object"] }
            ]
        }
]'
```

Der Befehl gibt die folgende Beispielausgabe zurück.

```
{
    "EventDataStoreArn": "arn:aws:cloudtrail:us-east-1:111122223333:eventdatastore/EXAMPLEb4a8-99b1-4ec2-9258-EXAMPLEc890",
    "Name": "EventDataStoreName",
    "Status": "CREATED",
    "AdvancedEventSelectors": [
        {
            "Name": "OutpostsEventSelector",
            "FieldSelectors": [
                {
                    "Field": "eventCategory",
                    "Equals": [
                        "Data"
                    ]
                },
                {
                    "Field": "resources.type",
                    "Equals": [
                        "AWS::S3Outposts::Object"
                    ]
                }
            ]
        }
    ],
    "MultiRegionEnabled": true,
    "OrganizationEnabled": false,
    "BillingMode": "EXTENDABLE_RETENTION_PRICING",
    "RetentionPeriod": 366,
    "TerminationProtectionEnabled": true,
    "CreatedTimestamp": "2023-02-20T21:00:17.673000+00:00",
    "UpdatedTimestamp": "2023-02-20T21:00:17.820000+00:00"
}
```

## Protokollierung von Datenereignissen zur Einhaltung gesetzlicher Vorschriften AWS Config
<a name="config-data-events-best-practices"></a>

Wenn Sie AWS Config Conformance Packs verwenden, um Ihr Unternehmen bei der Einhaltung formalisierter Standards zu unterstützen, wie sie beispielsweise vom Federal Risk and Authorization Management Program (FedRAMP) oder vom National Institute of Standards and Technology (NIST) gefordert werden, erfordern Konformitätspakete für Compliance-Frameworks in der Regel, dass Sie mindestens Datenereignisse für Amazon S3 S3-Buckets protokollieren. Compliance-Pakete für Compliance-Frameworks enthalten eine [verwaltete Regel](https://docs.aws.amazon.com/config/latest/developerguide/evaluate-config_use-managed-rules.html) namens [https://docs.aws.amazon.com/config/latest/developerguide/cloudtrail-s3-dataevents-enabled.html](https://docs.aws.amazon.com/config/latest/developerguide/cloudtrail-s3-dataevents-enabled.html), die die S3-Datenereignisprotokollierung in Ihrem Konto überprüft. Viele Compliance-Pakete, die nicht mit Compliance-Frameworks verknüpft sind, erfordern auch die S3-Datenereignisprotokollierung. Im Folgenden finden Sie Beispiele für Konformitätspakete, die diese Regel enthalten.
+ [Bewährte betriebliche Verfahren für die AWS Sicherheitssäule eines Well-Architected Frameworks](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-wa-Security-Pillar.html)
+ [Betriebliche bewährte Methoden für FDA Titel 21 CFR Teil 11](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-FDA-21CFR-Part-11.html)
+ [Betriebliche bewährte Methoden für FFIEC](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-ffiec.html)
+ [Betriebliche bewährte Methoden für FedRAMP (Moderat)](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-fedramp-moderate.html)
+ [Betriebliche bewährte Methoden für die HIPAA-Sicherheit](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-hipaa_security.html)
+ [Betriebliche bewährte Methoden für K-ISMS](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-k-isms.html)
+ [Betriebliche bewährte Methoden für die Protokollierung](https://docs.aws.amazon.com/config/latest/developerguide/operational-best-practices-for-logging.html)

*Eine vollständige Liste der in verfügbaren Muster-Conformance Packs finden Sie im AWS Config Developer Guide unter [Conformance Pack-Beispielvorlagen](https://docs.aws.amazon.com/config/latest/developerguide/conformancepack-sample-templates.html).AWS Config *

## Protokollieren von Datenereignissen mit dem AWS SDKs
<a name="logging-data-events-with-the-AWS-SDKs"></a>

Führen Sie den [GetEventSelectors](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_GetEventSelectors.html)Vorgang aus, um festzustellen, ob Ihr Trail Datenereignisse protokolliert. Sie können Ihre Trails so konfigurieren, dass Datenereignisse protokolliert werden, indem Sie den [PutEventSelectors](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_PutEventSelectors.html)Vorgang ausführen. Weitere Informationen finden Sie in der [AWS CloudTrail -API-Referenz](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/).

Führen Sie den [GetEventDataStore](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_GetEventDataStore.html)Vorgang aus, um festzustellen, ob Ihr Ereignisdatenspeicher Datenereignisse protokolliert. Sie können Ihre Ereignisdatenspeicher so konfigurieren, dass sie Datenereignisse enthalten, indem Sie die [UpdateEventDataStore](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_UpdateEventDataStore.html)Operationen [CreateEventDataStore](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/API_CreateEventDataStore.html)oder ausführen und erweiterte Ereignisselektoren angeben. Weitere Informationen finden Sie unter [Erstellen, aktualisieren und verwalten Sie Ereignisdatenspeicher mit dem AWS CLI](lake-eds-cli.md) und der [AWS CloudTrail -API-Referenz](https://docs.aws.amazon.com/awscloudtrail/latest/APIReference/).