Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Validation du flux des événements des journaux
Une fois que vous avez créé la politique de filtrage des abonnements au niveau du compte, CloudWatch Logs transmet tous les événements de journal entrants qui correspondent au modèle de filtre et aux critères de sélection au flux encapsulé dans le flux de destination appelé « ». RecipientStream Le propriétaire de la destination peut vérifier que cela se produit en utilisant la get-shard-iterator commande aws kinesis pour récupérer une partition Kinesis Data Streams, et en utilisant la commande aws kinesis get-records pour récupérer certains enregistrements Kinesis Data Streams :
aws kinesis get-shard-iterator \ --stream-name RecipientStream \ --shard-id shardId-000000000000 \ --shard-iterator-type TRIM_HORIZON
{ "ShardIterator": "AAAAAAAAAAFGU/kLvNggvndHq2UIFOw5PZc6F01s3e3afsSscRM70JSbjIefg2ub07nk1y6CDxYR1UoGHJNP4m4NFUetzfL+wev+e2P4djJg4L9wmXKvQYoE+rMUiFq+p4Cn3IgvqOb5dRA0yybNdRcdzvnC35KQANoHzzahKdRGb9v4scv+3vaq+f+OIK8zM5My8ID+g6rMo7UKWeI4+IWiKEXAMPLE" }aws kinesis get-records \ --limit 10 \ --shard-iterator "AAAAAAAAAAFGU/kLvNggvndHq2UIFOw5PZc6F01s3e3afsSscRM70JSbjIefg2ub07nk1y6CDxYR1UoGHJNP4m4NFUetzfL+wev+e2P4djJg4L9wmXKvQYoE+rMUiFq+p4Cn3IgvqOb5dRA0yybNdRcdzvnC35KQANoHzzahKdRGb9v4scv+3vaq+f+OIK8zM5My8ID+g6rMo7UKWeI4+IWiKEXAMPLE"
Note
Il se peut que vous deviez réexécuter la get-records
commande plusieurs fois avant que Kinesis Data Streams ne commence à renvoyer des données.
Vous devriez voir une réponse comportant un tableau d'enregistrements Kinesis Data Streams. L'attribut de données dans le registre Kinesis Data Streams est compressé au format gzip, puis codé en base64. Vous pouvez examiner les données brutes à partir de la ligne de commande au moyen de la commande Unix suivante :
echo -n "<
Content of Data
>" | base64 -d | zcat
Les données codées et décompressées en base64 sont formatées au format JSON avec la structure suivante :
{ "owner": "111111111111", "logGroup": "CloudTrail/logs", "logStream": "111111111111_CloudTrail/logs_us-east-1", "subscriptionFilters": [ "RecipientStream" ], "messageType": "DATA_MESSAGE", "logEvents": [ { "id": "3195310660696698337880902507980421114328961542429EXAMPLE", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "3195310660696698337880902507980421114328961542429EXAMPLE", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" }, { "id": "3195310660696698337880902507980421114328961542429EXAMPLE", "timestamp": 1432826855000, "message": "{\"eventVersion\":\"1.03\",\"userIdentity\":{\"type\":\"Root\"}" } ] }
Les principaux éléments de la structure de données sont les suivants :
- messageType
-
Les données de messages utiliseront le type « DATA_MESSAGE ». Parfois, CloudWatch Logs peut émettre des enregistrements Kinesis Data Streams de type « CONTROL_MESSAGE », principalement pour vérifier si la destination est accessible.
- owner
-
L'ID de AWS compte des données du journal d'origine.
- logGroup
-
Le nom du groupe de journaux des données du journal source.
- logStream
-
Le nom du flux de journaux des données du journal source.
- subscriptionFilters
-
La liste des noms de filtres d'abonnements qui correspondaient aux données du journal source.
- logEvents
-
Les données du journal réelles, représentées sous la forme d'un tableau d'enregistrements d'événements du journal. La propriété « id » est un identifiant unique pour chaque événement de journal.
- Niveau de la politique
-
Niveau auquel la politique a été appliquée. « ACCOUNT_LEVEL_POLICY » correspond à une politique de filtrage
policyLevel
d'abonnement au niveau du compte.