

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Mengonfigurasikan pencatatan standar (v2)
<a name="standard-logging"></a>

Anda dapat mengaktifkan log akses (log standar) saat Anda membuat atau memperbarui distribusi. Pencatatan standar (v2) mencakup fitur-fitur berikut:
+ Kirim log akses ke Amazon CloudWatch Logs, Amazon Data Firehose, dan Amazon Simple Storage Service (Amazon S3).
+ Pilih bidang log yang Anda inginkan. Anda juga dapat memilih [subset bidang log akses real-time](#standard-logging-real-time-log-selection).
+ Pilih format [file log keluaran](#supported-log-file-format) tambahan.

Jika Anda menggunakan Amazon S3, Anda memiliki fitur opsional berikut:
+ Kirim log ke opt-in Wilayah AWS.
+ Atur log Anda dengan partisi.
+ Aktifkan nama file yang kompatibel dengan HIVE.

Untuk informasi selengkapnya, lihat [Mengirim log ke Amazon S3](#send-logs-s3).

Untuk memulai dengan pencatatan standar, selesaikan langkah-langkah berikut:

1. Siapkan izin yang diperlukan untuk yang ditentukan Layanan AWS yang akan menerima log Anda.

1. Konfigurasikan logging standar dari CloudFront konsol atau CloudWatch API.

1. Lihat log akses Anda.

**catatan**  
Jika Anda mengaktifkan pencatatan standar (v2), ini tidak memengaruhi atau mengubah logging standar (lama). Anda dapat terus menggunakan logging standar (legacy) untuk distribusi Anda, selain menggunakan logging standar (v2). Untuk informasi selengkapnya, lihat [Mengonfigurasikan pencatatan standar (lama)](standard-logging-legacy-s3.md).
Jika Anda sudah mengaktifkan pencatatan standar (lama) dan ingin mengaktifkan pencatatan standar (v2) ke Amazon S3, sebaiknya tentukan bucket Amazon S3 *yang* berbeda atau gunakan jalur *terpisah di bucket yang* sama (misalnya, gunakan awalan log atau partisi). Ini membantu Anda melacak file log mana yang terkait dengan distribusi mana dan mencegah file log saling menimpa.

## Izin
<a name="permissions-standard-logging"></a>

CloudFront menggunakan log CloudWatch vended untuk mengirimkan log akses. Untuk melakukannya, Anda memerlukan izin untuk yang ditentukan Layanan AWS sehingga Anda dapat mengaktifkan pengiriman logging.

Untuk melihat izin yang diperlukan untuk setiap tujuan pencatatan, pilih dari topik berikut di *Panduan Pengguna Amazon CloudWatch Logs*.
+ [CloudWatch Log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-CloudWatchLogs)
+ [Firehose](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-Firehose)
+ [Amazon S3](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-S3)

Setelah menyiapkan izin ke tujuan pencatatan, Anda dapat mengaktifkan pencatatan standar untuk distribusi Anda.

**catatan**  
CloudFront mendukung pengiriman log akses ke yang berbeda Akun AWS (lintas akun). Untuk mengaktifkan pengiriman lintas akun, kedua akun (akun Anda dan akun penerima) harus memiliki izin yang diperlukan. Untuk informasi selengkapnya, lihat [Aktifkan pencatatan standar untuk pengiriman lintas akun](#enable-standard-logging-cross-accounts) bagian atau [contoh pengiriman lintas akun](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#vended-logs-crossaccount-example) di *Panduan Pengguna CloudWatch Log Amazon*. 

## Aktifkan logging standar
<a name="set-up-standard-logging"></a>

Untuk mengaktifkan logging standar, Anda dapat menggunakan CloudFront konsol atau CloudWatch API.

**Contents**
+ [Aktifkan logging standar (CloudFront konsol)](#access-logging-console)
+ [Aktifkan logging standar (CloudWatch API)](#enable-access-logging-api)

### Aktifkan logging standar (CloudFront konsol)
<a name="access-logging-console"></a>

**Untuk mengaktifkan pencatatan standar untuk CloudFront distribusi (konsol)**

1. Gunakan CloudFront konsol untuk [memperbarui distribusi yang ada](HowToUpdateDistribution.md#HowToUpdateDistributionProcedure).

1. Pilih tab **Logging**.

1. Pilih **Tambah**, lalu pilih layanan untuk menerima log Anda:
   + CloudWatch Log
   + Firehouse
   + Amazon S3

1. Untuk **Tujuan**, pilih sumber daya untuk layanan Anda. Jika Anda belum membuat sumber daya, Anda dapat memilih **Buat** atau melihat dokumentasi berikut.
   + Untuk CloudWatch Log, masukkan **[nama grup Log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/Working-with-log-groups-and-streams.html)**.
   + Untuk Firehose, masuk ke aliran pengiriman **[Firehose](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html)**.
   + Untuk Amazon S3, masukkan nama **[Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html)**. 
**Tip**  
Untuk menentukan awalan, masukkan awalan setelah nama bucket, seperti. `amzn-s3-demo-bucket.s3.amazonaws.com/MyLogPrefix` Jika Anda tidak menentukan awalan, secara otomatis CloudFront akan menambahkan satu untuk Anda. Untuk informasi selengkapnya, lihat [Mengirim log ke Amazon S3](#send-logs-s3).

1. Untuk **Pengaturan tambahan - *opsional***, Anda dapat menentukan opsi berikut:

   1. Untuk **pemilihan Bidang**, pilih nama bidang log yang ingin Anda kirimkan ke tujuan Anda. Anda dapat memilih [bidang log akses](standard-logs-reference.md#BasicDistributionFileFormat) dan subset [bidang log akses real-time](#standard-logging-real-time-log-selection).

   1. (Hanya Amazon S3) Untuk **Partisi, tentukan jalur untuk mempartisi** data file log Anda. 

   1. (Hanya Amazon S3) Untuk **format file yang kompatibel dengan HIVE**, Anda dapat memilih kotak centang untuk menggunakan jalur S3 yang kompatibel dengan HIVE. Ini membantu menyederhanakan pemuatan data baru ke alat yang kompatibel dengan HIVE Anda.

   1. Untuk **format Output**, tentukan format pilihan Anda.
**catatan**  
Jika Anda memilih **Parket**, opsi ini CloudWatch dikenakan biaya untuk mengonversi log akses Anda ke Apache Parquet. Untuk informasi selengkapnya, lihat [bagian Vended Logs untuk CloudWatch harga](https://aws.amazon.com/cloudwatch/pricing/).

   1. Untuk **pembatas bidang**, tentukan cara memisahkan bidang log. 

1. Selesaikan langkah-langkah untuk memperbarui atau membuat distribusi Anda.

1. Untuk menambahkan tujuan lain, ulangi langkah 3—6.

1. Dari halaman **Log**, verifikasi bahwa status log standar **Diaktifkan** di sebelah distribusi.

1. (Opsional) Untuk mengaktifkan pencatatan cookie, pilih **Kelola**, **Pengaturan**, dan aktifkan **Pencatatan cookie**, lalu pilih **Simpan perubahan**.
**Tip**  
Cookie logging adalah pengaturan global yang berlaku untuk *semua* logging standar untuk distribusi Anda. Anda tidak dapat mengganti pengaturan ini untuk tujuan pengiriman terpisah.

Untuk informasi selengkapnya tentang pengiriman logging standar dan bidang log, lihat[Referensi logging standar](standard-logs-reference.md).

### Aktifkan logging standar (CloudWatch API)
<a name="enable-access-logging-api"></a>

Anda juga dapat menggunakan CloudWatch API untuk mengaktifkan logging standar untuk distribusi Anda. 

**Catatan**  
Saat memanggil CloudWatch API untuk mengaktifkan pencatatan standar, Anda harus menentukan Wilayah AS Timur (Virginia Utara) (`us-east-1`), meskipun Anda ingin mengaktifkan pengiriman lintas Wilayah ke tujuan lain. Misalnya, jika Anda ingin mengirim log akses ke bucket S3 di Wilayah Eropa (Irlandia) (`eu-west-1`), gunakan CloudWatch API di `us-east-1` Wilayah.
Ada opsi tambahan untuk memasukkan cookie dalam pencatatan standar. Di CloudFront API, ini adalah `IncludeCookies` parameternya. Jika Anda mengonfigurasi pencatatan akses dengan menggunakan CloudWatch API dan Anda menentukan bahwa Anda ingin menyertakan cookie, Anda harus menggunakan CloudFront konsol atau CloudFront API untuk memperbarui distribusi Anda untuk menyertakan cookie. Jika tidak, tidak CloudFront dapat mengirim cookie ke tujuan log Anda. Untuk informasi selengkapnya, lihat [Pencatatan cookie](DownloadDistValuesGeneral.md#DownloadDistValuesCookieLogging).

**Untuk mengaktifkan pencatatan standar untuk distribusi (CloudWatch API)**

1. Setelah Anda membuat distribusi, dapatkan Amazon Resource Name (ARN). 

   Anda dapat menemukan ARN dari halaman **Distribusi** di CloudFront konsol atau Anda dapat menggunakan operasi [GetDistribution](https://docs.aws.amazon.com/cloudfront/latest/APIReference/API_GetDistribution.html)API. Sebuah distribusi ARN mengikuti format: `arn:aws:cloudfront::123456789012:distribution/d111111abcdef8` 

1. Selanjutnya, gunakan operasi CloudWatch [PutDeliverySource](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliverySource.html)API untuk membuat sumber pengiriman untuk distribusi. 

   1. Masukkan nama untuk sumber pengiriman.

   1. `resourceArn`Lewati distribusi. 

   1. Untuk`logType`, tentukan `ACCESS_LOGS` sebagai jenis log yang dikumpulkan. 

   1.   
**Example Contoh AWS CLI put-delivery-source perintah**  

      Berikut ini adalah contoh konfigurasi sumber pengiriman untuk distribusi.

      ```
      aws logs put-delivery-source --name S3-delivery --resource-arn arn:aws:cloudfront::123456789012:distribution/d111111abcdef8 --log-type ACCESS_LOGS
      ```

      **Keluaran**

      ```
      {
       "deliverySource": {
       "name": "S3-delivery",
       "arn": "arn:aws:logs:us-east-1:123456789012:delivery-source:S3-delivery",
       "resourceArns": [
       "arn:aws:cloudfront::123456789012:distribution/d111111abcdef8"
       ],
       "service": "cloudfront",
       "logType": "ACCESS_LOGS"
       }
      }
      ```

1. Gunakan operasi [PutDeliveryDestination](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestination.html)API untuk mengonfigurasi tempat menyimpan log Anda. 

   1. Untuk`destinationResourceArn`, tentukan ARN tujuan. Ini bisa berupa grup CloudWatch log Log, aliran pengiriman Firehose, atau bucket Amazon S3.

   1. Untuk`outputFormat`, tentukan format output untuk log Anda.

   1.   
**Example Contoh AWS CLI put-delivery-destination perintah**  

      Berikut ini adalah contoh mengonfigurasi tujuan pengiriman ke bucket Amazon S3.

      ```
      aws logs put-delivery-destination --name S3-destination --delivery-destination-configuration destinationResourceArn=arn:aws:s3:::amzn-s3-demo-bucket
      ```

      **Keluaran**

      ```
      {
          "name": "S3-destination",
          "arn": "arn:aws:logs:us-east-1:123456789012:delivery-destination:S3-destination",
          "deliveryDestinationType": "S3",
          "deliveryDestinationConfiguration": {
              "destinationResourceArn": "arn:aws:s3:::amzn-s3-demo-bucket"
          }
      }
      ```
**catatan**  
Jika mengirimkan log lintas akun, Anda harus menggunakan operasi [PutDeliveryDestinationPolicy](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestinationPolicy.html)API untuk menetapkan kebijakan AWS Identity and Access Management (IAM) ke akun tujuan. Kebijakan IAM memungkinkan pengiriman dari satu akun ke akun lain.

1. Gunakan operasi [CreateDelivery](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_CreateDelivery.html)API untuk menautkan sumber pengiriman ke tujuan yang Anda buat di langkah sebelumnya. Operasi API ini mengaitkan sumber pengiriman dengan tujuan akhir.

   1. Untuk`deliverySourceName`, tentukan nama sumbernya.

   1. Untuk`deliveryDestinationArn`, tentukan ARN untuk tujuan pengiriman.

   1. Untuk`fieldDelimiter`, tentukan string untuk memisahkan setiap bidang log.

   1. Untuk`recordFields`, tentukan bidang log yang Anda inginkan.

   1. Jika Anda menggunakan S3, tentukan apakah akan menggunakan `enableHiveCompatiblePath` dan`suffixPath`.  
**Example Contoh perintah AWS CLI create-delivery**  

   Berikut ini adalah contoh pembuatan pengiriman. 

   ```
   aws logs create-delivery --delivery-source-name cf-delivery --delivery-destination-arn arn:aws:logs:us-east-1:123456789012:delivery-destination:S3-destination
   ```

   **Keluaran**

   ```
   {
       "id": "abcNegnBoTR123",
       "arn": "arn:aws:logs:us-east-1:123456789012:delivery:abcNegnBoTR123",
       "deliverySourceName": "cf-delivery",
       "deliveryDestinationArn": "arn:aws:logs:us-east-1:123456789012:delivery-destination:S3-destination",
       "deliveryDestinationType": "S3",
       "recordFields": [
           "date",
           "time",
           "x-edge-location",
           "sc-bytes",
           "c-ip",
           "cs-method",
           "cs(Host)",
           "cs-uri-stem",
           "sc-status",
           "cs(Referer)",
           "cs(User-Agent)",
           "cs-uri-query",
           "cs(Cookie)",
           "x-edge-result-type",
           "x-edge-request-id",
           "x-host-header",
           "cs-protocol",
           "cs-bytes",
           "time-taken",
           "x-forwarded-for",
           "ssl-protocol",
           "ssl-cipher",
           "x-edge-response-result-type",
           "cs-protocol-version",
           "fle-status",
           "fle-encrypted-fields",
           "c-port",
           "time-to-first-byte",
           "x-edge-detailed-result-type",
           "sc-content-type",
           "sc-content-len",
           "sc-range-start",
           "sc-range-end",
           "c-country",
           "cache-behavior-path-pattern"
       ],
        "fieldDelimiter": ""
   }
   ```

1. Dari CloudFront konsol, pada halaman **Log**, verifikasi bahwa status log standar **Diaktifkan** di sebelah distribusi.

   Untuk informasi selengkapnya tentang pengiriman logging standar dan bidang log, lihat[Referensi logging standar](standard-logs-reference.md).

**catatan**  
Untuk mengaktifkan logging standar (v2) CloudFront dengan menggunakan AWS CloudFormation, Anda dapat menggunakan properti CloudWatch Log berikut:  
[Pengiriman](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-logs-delivery.html)
[DeliveryDestination](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-logs-deliverydestination.html)
[DeliverySource](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-logs-deliverysource.html)
`ResourceArn`Ini adalah CloudFront distribusi dan `LogType` harus `ACCESS_LOGS` sebagai jenis log yang didukung.

## Aktifkan pencatatan standar untuk pengiriman lintas akun
<a name="enable-standard-logging-cross-accounts"></a>

Jika Anda mengaktifkan pencatatan standar untuk Anda Akun AWS dan Anda ingin mengirimkan log akses Anda ke akun lain, pastikan Anda mengonfigurasi akun sumber dan akun tujuan dengan benar. *Akun sumber* dengan CloudFront distribusi mengirimkan log aksesnya ke *akun tujuan*.

Dalam contoh prosedur ini, akun sumber*111111111111*) mengirimkan log aksesnya ke bucket Amazon S3 di akun tujuan ()*222222222222*. Untuk mengirim log akses ke bucket Amazon S3 di akun tujuan, gunakan file. AWS CLI

### Konfigurasikan akun tujuan
<a name="steps-destination-account"></a>

Untuk akun tujuan, selesaikan prosedur berikut.

**Untuk mengkonfigurasi akun tujuan**

1. Untuk membuat tujuan pengiriman log, Anda dapat memasukkan AWS CLI perintah berikut. Contoh ini menggunakan `MyLogPrefix` string untuk membuat awalan untuk log akses Anda.

   ```
   aws logs put-delivery-destination --name cloudfront-delivery-destination --delivery-destination-configuration "destinationResourceArn=arn:aws:s3:::amzn-s3-demo-bucket-cloudfront-logs/MyLogPrefix"
   ```

   **Keluaran**

   ```
   {
       "deliveryDestination": {
           "name": "cloudfront-delivery-destination",
           "arn": "arn:aws:logs:us-east-1:222222222222:delivery-destination:cloudfront-delivery-destination",
           "deliveryDestinationType": "S3",
           "deliveryDestinationConfiguration": {"destinationResourceArn": "arn:aws:s3:::amzn-s3-demo-bucket-cloudfront-logs/MyLogPrefix"}
       }
   }
   ```
**catatan**  
Jika Anda menentukan bucket S3 *tanpa* awalan, secara otomatis CloudFront akan menambahkan `AWSLogs/<account-ID>/CloudFront` sebagai awalan yang muncul di tujuan pengiriman `suffixPath` S3. Untuk informasi lebih lanjut, lihat [S3 DeliveryConfiguration](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_S3DeliveryConfiguration.html).

1. Tambahkan kebijakan sumber daya untuk tujuan pengiriman log agar akun sumber dapat membuat pengiriman log.

   Dalam kebijakan berikut, ganti *111111111111* dengan ID akun sumber dan tentukan ARN tujuan pengiriman dari output pada langkah 1. 

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "AllowCreateDelivery",
               "Effect": "Allow",
               "Principal": {"AWS": "111111111111"},
               "Action": ["logs:CreateDelivery"],
               "Resource": "arn:aws:logs:us-east-1:222222222222:delivery-destination:cloudfront-delivery-destination"
           }
       ]
   }
   ```

------

1. Simpan file, seperti`deliverypolicy.json`.

1. Untuk melampirkan kebijakan sebelumnya ke tujuan pengiriman, masukkan AWS CLI perintah berikut.

   ```
   aws logs put-delivery-destination-policy --delivery-destination-name cloudfront-delivery-destination --delivery-destination-policy file://deliverypolicy.json
   ```

1. Tambahkan pernyataan di bawah ini ke kebijakan bucket Amazon S3 tujuan, menggantikan ARN sumber daya dan ID akun sumber. Kebijakan ini memungkinkan kepala `delivery.logs.amazonaws.com` layanan untuk melakukan `s3:PutObject` tindakan.

   ```
   {
       "Sid": "AWSLogsDeliveryWrite",
       "Effect": "Allow",
       "Principal": {"Service": "delivery.logs.amazonaws.com"},
       "Action": "s3:PutObject",
       "Resource": "arn:aws:s3:::amzn-s3-demo-bucket-cloudfront-logs/*",
       "Condition": {
           "StringEquals": {
               "s3:x-amz-acl": "bucket-owner-full-control",
               "aws:SourceAccount": "111111111111"
           },
           "ArnLike": {"aws:SourceArn": "arn:aws:logs:us-east-1:111111111111:delivery-source:*"}
       }
   }
   ```

1. Jika Anda menggunakan AWS KMS bucket, tambahkan pernyataan berikut ke kebijakan kunci KMS untuk memberikan izin kepada prinsipal `delivery.logs.amazonaws.com` layanan.

   ```
   {
       "Sid": "Allow Logs Delivery to use the key",
       "Effect": "Allow",
       "Principal": {"Service": "delivery.logs.amazonaws.com"},
       "Action": [
           "kms:Encrypt",
           "kms:Decrypt",
           "kms:ReEncrypt*",
           "kms:GenerateDataKey*",
           "kms:DescribeKey"
       ],
       "Resource": "*",
       "Condition": {
           "StringEquals": {"aws:SourceAccount": "111111111111"},
           "ArnLike": {"aws:SourceArn": "arn:aws:logs:us-east-1:111111111111:delivery-source:*"}
       }
   }
   ```

### Konfigurasikan akun sumber
<a name="steps-source-account"></a>

Setelah Anda mengonfigurasi akun tujuan, ikuti prosedur ini untuk membuat sumber pengiriman dan mengaktifkan pencatatan untuk distribusi di akun sumber.

**Untuk mengkonfigurasi akun sumber**

1. Buat sumber pengiriman untuk pencatatan CloudFront standar sehingga Anda dapat mengirim file log ke CloudWatch Log. 

   Anda dapat memasukkan AWS CLI perintah berikut, mengganti nama dan ARN distribusi Anda.

   ```
   aws logs put-delivery-source --name s3-cf-delivery --resource-arn arn:aws:cloudfront::111111111111:distribution/E1TR1RHV123ABC --log-type ACCESS_LOGS
   ```

   **Keluaran**

   ```
   {
       "deliverySource": {
           "name": "s3-cf-delivery",
           "arn": "arn:aws:logs:us-east-1:111111111111:delivery-source:s3-cf-delivery",
           "resourceArns": ["arn:aws:cloudfront::111111111111:distribution/E1TR1RHV123ABC"],
           "service": "cloudfront",
           "logType": "ACCESS_LOGS"
       }
   }
   ```

1. Buat pengiriman untuk memetakan sumber pengiriman log akun sumber dan tujuan pengiriman log akun tujuan.

   Dalam AWS CLI perintah berikut, tentukan ARN tujuan pengiriman dari output di [Langkah 1: Konfigurasikan akun tujuan](#steps-destination-account).

   ```
   aws logs create-delivery --delivery-source-name s3-cf-delivery --delivery-destination-arn arn:aws:logs:us-east-1:222222222222:delivery-destination:cloudfront-delivery-destination
   ```

   **Keluaran**

   ```
   {
       "delivery": {
           "id": "OPmOpLahVzhx1234",
           "arn": "arn:aws:logs:us-east-1:111111111111:delivery:OPmOpLahVzhx1234",
           "deliverySourceName": "s3-cf-delivery",
           "deliveryDestinationArn": "arn:aws:logs:us-east-1:222222222222:delivery-destination:cloudfront-delivery-destination",
           "deliveryDestinationType": "S3",
           "recordFields": [
               "date",
               "time",
               "x-edge-location",
               "sc-bytes",
               "c-ip",
               "cs-method",
               "cs(Host)",
               "cs-uri-stem",
               "sc-status",
               "cs(Referer)",
               "cs(User-Agent)",
               "cs-uri-query",
               "cs(Cookie)",
               "x-edge-result-type",
               "x-edge-request-id",
               "x-host-header",
               "cs-protocol",
               "cs-bytes",
               "time-taken",
               "x-forwarded-for",
               "ssl-protocol",
               "ssl-cipher",
               "x-edge-response-result-type",
               "cs-protocol-version",
               "fle-status",
               "fle-encrypted-fields",
               "c-port",
               "time-to-first-byte",
               "x-edge-detailed-result-type",
               "sc-content-type",
               "sc-content-len",
               "sc-range-start",
               "sc-range-end",
               "c-country",
               "cache-behavior-path-pattern"
           ],
           "fieldDelimiter": "\t"
       }
   }
   ```

1. Verifikasi pengiriman lintas akun Anda berhasil.

   1. Dari *source* akun, masuk ke CloudFront konsol dan pilih distribusi Anda. Pada tab **Logging**, di bawah **Type**, Anda akan melihat entri yang dibuat untuk pengiriman log lintas akun S3.

   1. Dari *destination* akun, masuk ke konsol Amazon S3 dan pilih bucket Amazon S3 Anda. Anda akan melihat awalan `MyLogPrefix` di nama bucket dan log akses apa pun yang dikirimkan ke folder itu. 

## Format file keluaran
<a name="supported-log-file-format"></a>

Bergantung pada tujuan pengiriman yang Anda pilih, Anda dapat menentukan salah satu format berikut untuk file log:
+ JSON
+ Biasa
+ w3c
+ Mentah
+ Parket (hanya Amazon S3)

**catatan**  
Anda hanya dapat mengatur format output saat pertama kali membuat tujuan pengiriman. Ini tidak dapat diperbarui nanti. Untuk mengubah format output, hapus pengiriman dan buat yang baru.

Untuk informasi selengkapnya, lihat [PutDeliveryDestination](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestination.html)di *Referensi API Amazon CloudWatch Logs*.

## Edit pengaturan logging standar
<a name="standard-logs-v2-edit-settings"></a>

Anda dapat mengaktifkan atau menonaktifkan logging dan memperbarui pengaturan log lainnya dengan menggunakan [CloudFront konsol](https://console.aws.amazon.com/cloudfront/v4/home) atau CloudWatch API. Perubahan Anda pada pengaturan log mulai berlaku dalam 12 jam.

Untuk informasi selengkapnya, lihat topik berikut:
+ Untuk memperbarui distribusi menggunakan CloudFront konsol, lihat[Perbarui distribusi](HowToUpdateDistribution.md).
+ Untuk memperbarui distribusi menggunakan CloudFront API, lihat [UpdateDistribution](https://docs.aws.amazon.com/cloudfront/latest/APIReference/API_UpdateDistribution.html)di *Referensi Amazon CloudFront API*.
+ Untuk informasi selengkapnya tentang operasi API CloudWatch Log, lihat [Referensi API Amazon CloudWatch Logs](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/Welcome.html).

## Akses bidang log
<a name="standard-logging-real-time-log-selection"></a>

Anda dapat memilih bidang log yang sama yang didukung oleh pencatatan standar (lama). Untuk informasi selengkapnya, lihat [bidang file log](standard-logs-reference.md#BasicDistributionFileFormat).

Selain itu, Anda dapat memilih [bidang log akses real-time](real-time-logs.md#understand-real-time-log-config) berikut.

1. `timestamp(ms)`— Timestamp dalam milidetik.

1. `origin-fbl`— Jumlah detik latensi byte pertama antara CloudFront dan asal Anda. 

1. `origin-lbl`— Jumlah detik latensi byte terakhir antara CloudFront dan asal Anda. 

1. `asn`— Nomor sistem otonom (ASN) dari pemirsa. 

1. `c-country`— Kode negara yang mewakili lokasi geografis pemirsa, sebagaimana ditentukan oleh alamat IP pemirsa. Untuk daftar kode negara, lihat [ISO 3166-1 alpha-2](https://en.wikipedia.org/wiki/ISO_3166-1_alpha-2).

1. `cache-behavior-path-pattern`— Pola jalur yang mengidentifikasi perilaku cache yang cocok dengan permintaan penampil. 

## Kirim log ke CloudWatch Log
<a name="send-logs-cloudwatch-logs"></a>

Untuk mengirim CloudWatch log ke Log, buat atau gunakan grup CloudWatch log Log yang ada. Untuk informasi selengkapnya tentang mengonfigurasi grup CloudWatch log Log, lihat [Bekerja dengan Grup Log dan Aliran Log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/Working-with-log-groups-and-streams.html).

Setelah membuat grup log, Anda harus memiliki izin yang diperlukan untuk mengizinkan pencatatan standar. Untuk informasi selengkapnya tentang izin yang diperlukan, lihat [Log yang dikirim ke CloudWatch Log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-CloudWatchLogs) di *Panduan Pengguna CloudWatch Log Amazon*. 

**Catatan**  
Saat Anda menentukan nama grup CloudWatch log Log, hanya gunakan pola regex. `[\w-]` Untuk informasi selengkapnya, lihat operasi [PutDeliveryDestination](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestination.html#API_PutDeliveryDestination_RequestSyntax)API di *Referensi API Amazon CloudWatch Logs*.
Pastikan kebijakan sumber daya grup log Anda tidak melebihi batas ukuran. Lihat bagian [Pertimbangan batas ukuran kebijakan sumber daya grup log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-CloudWatchLogs) di topik CloudWatch Log.

### Contoh log akses dikirim ke CloudWatch Log
<a name="example-access-logs-cwl"></a>

```
{ 
"date": "2024-11-14", 
"time": "21:34:06", 
"x-edge-location": "SOF50-P2", 
"asn": "16509", 
"timestamp(ms)": "1731620046814", 
"origin-fbl": "0.251", 
"origin-lbl": "0.251", 
"x-host-header": "d111111abcdef8.cloudfront.net", 
"cs(Cookie)": "examplecookie=value" 
}
```

## Kirim log ke Firehose
<a name="send-logs-kinesis"></a>

Untuk mengirim log ke Firehose, buat atau gunakan aliran pengiriman Firehose yang ada. Kemudian, tentukan aliran pengiriman Firehose sebagai tujuan pengiriman log. Anda harus menentukan aliran pengiriman Firehose di Wilayah us-east-1 AS Timur (Virginia Utara).

Untuk informasi tentang membuat aliran pengiriman, lihat [Membuat aliran pengiriman Amazon Data Firehose](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html). 

Setelah membuat aliran pengiriman, Anda harus memiliki izin yang diperlukan untuk mengizinkan pencatatan standar. Untuk informasi selengkapnya, lihat [Log yang dikirim ke Firehose](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-Firehose) di *Panduan Pengguna Amazon CloudWatch Logs*.

**catatan**  
Saat Anda menentukan nama aliran Firehose, hanya gunakan pola regex. `[\w-]` Untuk informasi selengkapnya, lihat operasi [PutDeliveryDestination](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestination.html#API_PutDeliveryDestination_RequestSyntax)API di *Referensi API Amazon CloudWatch Logs*.

### Contoh log akses dikirim ke Firehose
<a name="example-access-logs-firehose"></a>

```
{"date":"2024-11-15","time":"19:45:51","x-edge-location":"SOF50-P2","asn":"16509","timestamp(ms)":"1731699951183","origin-fbl":"0.254","origin-lbl":"0.254","x-host-header":"d111111abcdef8.cloudfront.net","cs(Cookie)":"examplecookie=value"}
{"date":"2024-11-15","time":"19:45:52","x-edge-location":"SOF50-P2","asn":"16509","timestamp(ms)":"1731699952950","origin-fbl":"0.125","origin-lbl":"0.125","x-host-header":"d111111abcdef8.cloudfront.net","cs(Cookie)":"examplecookie=value"}
```

## Mengirim log ke Amazon S3
<a name="send-logs-s3"></a>

Untuk mengirim log akses ke Amazon S3, buat atau gunakan bucket S3 yang sudah ada. Saat Anda mengaktifkan login CloudFront, tentukan nama bucket. Untuk informasi tentang membuat bucket, lihat [Membuat bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.

Setelah membuat bucket, Anda harus memiliki izin yang diperlukan untuk mengizinkan pencatatan standar. Untuk informasi selengkapnya, lihat [Log yang dikirim ke Amazon S3](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AWS-logs-and-resource-policy.html#AWS-logs-infrastructure-V2-S3) di *Panduan Pengguna Amazon CloudWatch Logs*.
+ Setelah mengaktifkan pencatatan, AWS secara otomatis menambahkan kebijakan bucket yang diperlukan untuk Anda.
+ [Anda juga dapat menggunakan bucket S3 dalam opt-in. Wilayah AWS](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)

**catatan**  
Jika Anda sudah mengaktifkan pencatatan standar (lama) dan ingin mengaktifkan pencatatan standar (v2) ke Amazon S3, sebaiknya tentukan bucket Amazon S3 *yang* berbeda atau gunakan jalur *terpisah di bucket yang* sama (misalnya, gunakan awalan log atau partisi). Ini membantu Anda melacak file log mana yang terkait dengan distribusi mana dan mencegah file log saling menimpa.

**Topics**
+ [Tentukan ember S3](#prefix-s3-buckets)
+ [Partitioning](#partitioning)
+ [Format nama file yang kompatibel dengan HIVE](#hive-compatible-file-name-format)
+ [Contoh jalur untuk mengakses log](#bucket-path-examples)
+ [Contoh log akses dikirim ke Amazon S3](#example-access-logs-s3)

### Tentukan ember S3
<a name="prefix-s3-buckets"></a>

Saat Anda menentukan bucket S3 sebagai tujuan pengiriman, perhatikan hal berikut.

Nama bucket S3 hanya dapat menggunakan pola regex. `[\w-]` Untuk informasi selengkapnya, lihat operasi [PutDeliveryDestination](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_PutDeliveryDestination.html#API_PutDeliveryDestination_RequestSyntax)API di *Referensi API Amazon CloudWatch Logs*.

Jika Anda menetapkan awalan untuk bucket S3 Anda, log Anda akan muncul di bawah jalur itu. Jika Anda tidak menentukan awalan, secara otomatis CloudFront akan menambahkan `AWSLogs/{account-id}/CloudFront` awalan untuk Anda. 

Untuk informasi selengkapnya, lihat [Contoh jalur untuk mengakses log](#bucket-path-examples).

### Partitioning
<a name="partitioning"></a>

Anda dapat menggunakan partisi untuk mengatur log akses Anda saat CloudFront mengirimkannya ke bucket S3 Anda. Ini membantu Anda mengatur dan menemukan log akses Anda berdasarkan jalur yang Anda inginkan.

Anda dapat menggunakan variabel berikut untuk membuat jalur folder.
+ `{DistributionId}` atau `{distributionid}`
+ `{yyyy}`
+ `{MM}`
+ `{dd}`
+ `{HH}`
+ `{accountid}`

Anda dapat menggunakan sejumlah variabel dan menentukan nama folder di jalur Anda. CloudFrontkemudian gunakan jalur ini untuk membuat struktur folder untuk Anda di ember S3.

**Contoh**
+ `my_distribution_log_data/{DistributionId}/logs`
+ `/cloudfront/{DistributionId}/my_distribution_log_data/{yyyy}/{MM}/{dd}/{HH}/logs `

**catatan**  
 Anda dapat menggunakan salah satu variabel untuk ID distribusi di jalur sufiks. Namun, jika Anda mengirim log akses ke AWS Glue, Anda harus menggunakan `{distributionid}` variabel karena AWS Glue mengharapkan nama partisi berada dalam huruf kecil. Perbarui konfigurasi log Anda yang ada CloudFront untuk menggantikan `{DistributionId}` dengan`{distributionid}`. 

### Format nama file yang kompatibel dengan HIVE
<a name="hive-compatible-file-name-format"></a>

Anda dapat menggunakan opsi ini sehingga objek S3 yang berisi log akses terkirim menggunakan struktur awalan yang memungkinkan integrasi dengan Apache Hive. Untuk informasi selengkapnya, lihat operasi API [CreateDelivery](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_CreateDelivery.html).

**Example Contoh**  

```
/cloudfront/DistributionId={DistributionId}/my_distribution_log_data/year={yyyy}/month={MM}/day={dd}/hour={HH}/logs
```

*Untuk informasi selengkapnya tentang partisi dan opsi yang kompatibel dengan HIVE, lihat [elemen S3 DeliveryConfiguration](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_S3DeliveryConfiguration.html) di Referensi API Amazon Logs. CloudWatch *

### Contoh jalur untuk mengakses log
<a name="bucket-path-examples"></a>

Saat menentukan bucket S3 sebagai tujuan, Anda dapat menggunakan opsi berikut untuk membuat jalur ke log akses:
+ Bucket Amazon S3, dengan atau tanpa awalan
+ Partisi, dengan menggunakan variabel yang CloudFront disediakan atau memasukkan variabel Anda sendiri
+ Mengaktifkan opsi yang kompatibel dengan HIVE

Tabel berikut menunjukkan bagaimana log akses Anda muncul di bucket, tergantung pada opsi yang Anda pilih.

#### Bucket Amazon S3 dengan awalan
<a name="bucket-with-prefix"></a>


| Nama ember Amazon S3 | Partisi yang Anda tentukan di jalur sufiks | Jalur sufiks yang diperbarui | Hive-kompatibel diaktifkan? | Log akses dikirim ke | 
| --- | --- | --- | --- | --- | 
| amzn-s3-demo-bucket/MyLogPrefix | Tidak ada | Tidak ada | Tidak | amzn-s3-demo-bucket/MyLogPrefix/ | 
| amzn-s3-demo-bucket/MyLogPrefix | myFolderA/ | myFolderA/ | Tidak | amzn-s3-demo-bucket/MyLogPrefix/myFolderA/ | 
| amzn-s3-demo-bucket/MyLogPrefix | myFolderA/\$1yyyy\$1 | myFolderA/\$1yyyy\$1 | Ya | amzn-s3-demo-bucket/MyLogPrefix/myFolderA/year=2025 | 

#### Bucket Amazon S3 tanpa awalan
<a name="bucket-without-prefix"></a>


| Nama ember Amazon S3 | Partisi yang Anda tentukan di jalur sufiks | Jalur sufiks yang diperbarui | Hive-kompatibel diaktifkan? | Log akses dikirim ke | 
| --- | --- | --- | --- | --- | 
| amzn-s3-demo-bucket | Tidak ada | AWSLogs/\$1account-id\$1/CloudFront/ | Tidak | amzn-s3-demo-bucket/AWSLogs/<your-account-ID>/CloudFront/ | 
| amzn-s3-demo-bucket | myFolderA/ | AWSLogs/\$1account-id\$1/CloudFront/myFolderA/ | Tidak | amzn-s3-demo-bucket/AWSLogs/<your-account-ID>/CloudFront/myFolderA/ | 
| amzn-s3-demo-bucket | myFolderA/ | AWSLogs/\$1account-id\$1/CloudFront/myFolderA/ | Ya | amzn-s3-demo-bucket/AWSLogs/aws-account-id=<your-account-ID>/CloudFront/myFolderA/ | 
| amzn-s3-demo-bucket | myFolderA/\$1yyyy\$1 | AWSLogs/\$1account-id\$1/CloudFront/myFolderA/\$1yyyy\$1 | Ya | amzn-s3-demo-bucket/AWSLogs/aws-account-id=<your-account-ID>/CloudFront/myFolderA/year=2025 | 

#### Akun AWS ID sebagai partisi
<a name="bucket-account-id-partition"></a>


| Nama ember Amazon S3 | Partisi yang Anda tentukan di jalur sufiks | Jalur sufiks yang diperbarui | Hive-kompatibel diaktifkan? | Log akses dikirim ke | 
| --- | --- | --- | --- | --- | 
| amzn-s3-demo-bucket | Tidak ada | AWSLogs/\$1account-id\$1/CloudFront/ | Ya | amzn-s3-demo-bucket/AWSLogs/aws-account-id=<your-account-ID>/CloudFront/ | 
| amzn-s3-demo-bucket | myFolderA/\$1accountid\$1 | AWSLogs/\$1account-id\$1/CloudFront/myFolderA/\$1accountid\$1 | Ya | amzn-s3-demo-bucket/AWSLogs/aws-account-id=<your-account-ID>/CloudFront/myFolderA/accountid=<your-account-ID> | 

**Catatan**  
`{account-id}`Variabel dicadangkan untuk CloudFront. CloudFrontsecara otomatis menambahkan variabel ini ke jalur sufiks jika Anda menentukan *bucket Amazon S3 tanpa awalan*. Jika log Anda kompatibel dengan HIVE, variabel ini muncul sebagai. `aws-account-id`
Anda dapat menggunakan `{accountid}` variabel sehingga CloudFront menambahkan ID akun Anda ke jalur akhiran. Jika log Anda kompatibel dengan HIVE, variabel ini muncul sebagai. `accountid`
Untuk informasi selengkapnya tentang jalur sufiks, lihat [DeliveryConfigurationS3](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_S3DeliveryConfiguration.html).

### Contoh log akses dikirim ke Amazon S3
<a name="example-access-logs-s3"></a>

```
#Fields: date time x-edge-location asn timestamp(ms) x-host-header cs(Cookie)
2024-11-14    22:30:25    SOF50-P2    16509    1731623425421    
d111111abcdef8.cloudfront.net    examplecookie=value2
```

## Nonaktifkan logging standar
<a name="delete-standard-log-destination"></a>

Anda dapat menonaktifkan pencatatan standar untuk distribusi Anda jika Anda tidak lagi membutuhkannya.

**Untuk menonaktifkan logging standar**

1. Masuk ke CloudFront konsol.

1. Pilih **Distribusi** dan kemudian pilih ID distribusi Anda. 

1. Pilih **Logging** dan kemudian di bawah **Akses log tujuan**, pilih tujuan.

1. Pilih **Kelola** dan kemudian pilih **Hapus**.

1. Ulangi langkah sebelumnya jika Anda memiliki lebih dari satu logging standar.

**catatan**  
Saat Anda menghapus logging standar dari CloudFront konsol, tindakan ini hanya menghapus pengiriman dan tujuan pengiriman. Itu tidak menghapus sumber pengiriman dari Anda Akun AWS. Untuk menghapus sumber pengiriman, tentukan nama sumber pengiriman dalam `aws logs delete-delivery-source --name DeliverySourceName` perintah. Untuk informasi selengkapnya, lihat [DeleteDeliverySource](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_DeleteDeliverySource.html)di *Referensi API Amazon CloudWatch Logs*.

## Pemecahan Masalah
<a name="troubleshooting-access-logs-v2"></a>

Gunakan informasi berikut untuk memperbaiki masalah umum saat Anda bekerja dengan logging CloudFront standar (v2).

### Sumber pengiriman sudah ada
<a name="access-logging-resource-already-used"></a>

Saat mengaktifkan pencatatan standar untuk distribusi, Anda membuat sumber pengiriman. Anda kemudian menggunakan sumber pengiriman tersebut untuk membuat pengiriman ke jenis tujuan yang Anda inginkan: CloudWatch Log, Firehose, Amazon S3. Saat ini, Anda hanya dapat memiliki satu sumber pengiriman per distribusi. Jika Anda mencoba membuat sumber pengiriman lain untuk distribusi yang sama, pesan galat berikut akan muncul.

```
This ResourceId has already been used in another Delivery Source in this account
```

Untuk membuat sumber pengiriman lain, hapus yang sudah ada terlebih dahulu. Untuk informasi selengkapnya, lihat [DeleteDeliverySource](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_DeleteDeliverySource.html)di *Referensi API Amazon CloudWatch Logs*.

### Saya mengubah jalur sufiks dan ember Amazon S3 tidak dapat menerima log saya
<a name="access-logging-s3-permission"></a>

Jika Anda mengaktifkan pencatatan standar (v2) dan menentukan ARN bucket tanpa awalan, CloudFront akan menambahkan default berikut ke jalur sufiks:. `AWSLogs/{account-id}/CloudFront` Jika Anda menggunakan CloudFront konsol atau operasi [UpdateDeliveryConfiguration](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_UpdateDeliveryConfiguration.html)API untuk menentukan jalur sufiks yang berbeda, Anda harus memperbarui kebijakan bucket Amazon S3 untuk menggunakan jalur yang sama.

**Example Contoh: Memperbarui jalur sufiks**  

1. Jalur sufiks default Anda adalah `AWSLogs/{account-id}/CloudFront` dan Anda menggantinya dengan`myFolderA`. 

1. Karena jalur akhiran baru Anda berbeda dari jalur yang ditentukan dalam kebijakan bucket Amazon S3, log akses Anda tidak akan dikirimkan.

1. Anda dapat melakukan salah satu langkah berikut:
   + Perbarui izin bucket Amazon S3 dari ke`amzn-s3-demo-bucket/AWSLogs/<your-account-ID>/CloudFront/*`. `amzn-s3-demo-bucket/myFolderA/*`
   + Perbarui konfigurasi logging Anda untuk menggunakan akhiran default lagi: `AWSLogs/{account-id}/CloudFront` 
Untuk informasi selengkapnya, lihat [Izin](#permissions-standard-logging).

## Hapus file log
<a name="standard-logs-v2-delete"></a>

CloudFront tidak secara otomatis menghapus file log dari tujuan Anda. Untuk informasi tentang menghapus file log, lihat topik berikut:

**Amazon S3**
+ [Menghapus objek](https://docs.aws.amazon.com/AmazonS3/latest/userguide/DeletingObjects.html) di *Panduan Pengguna Konsol Layanan Penyimpanan Sederhana Amazon*

**CloudWatch Log**
+ [Bekerja dengan grup log dan aliran log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/Working-with-log-groups-and-streams.html) di *Panduan Pengguna Amazon CloudWatch Logs*
+ [DeleteLogGroup](https://docs.aws.amazon.com/AmazonCloudWatchLogs/latest/APIReference/API_DeleteLogGroup.html)di *Referensi API Amazon CloudWatch Logs*

**Firehouse**
+ [DeleteDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_DeleteDeliveryStream.html)di Referensi *API Firehose Data Amazon*

## Harga
<a name="pricing-standard-logs"></a>

CloudFront tidak mengenakan biaya untuk mengaktifkan log standar. Namun, Anda dapat dikenakan biaya untuk pengiriman, konsumsi, penyimpanan, atau akses, tergantung pada tujuan pengiriman log yang Anda pilih. Untuk informasi selengkapnya, lihat [Harga CloudWatch Log Amazon](https://aws.amazon.com/cloudwatch/pricing/). Di bawah **Tingkat Berbayar**, pilih tab **Log**, lalu di bawah **Log Terjual**, lihat informasi untuk setiap tujuan pengiriman.

Untuk informasi selengkapnya tentang harga untuk masing-masing Layanan AWS, lihat topik berikut:
+ [Harga Amazon CloudWatch Log](https://aws.amazon.com/cloudwatch/pricing/)
+ [Harga Amazon Data Firehose](https://aws.amazon.com/kinesis/data-firehose/pricing/)
+ [Harga Amazon S3](https://aws.amazon.com/s3/pricing/) 
**catatan**  
Tidak ada biaya tambahan untuk pengiriman log ke Amazon S3, meskipun Anda dikenakan biaya Amazon S3 untuk menyimpan dan mengakses file log. Jika Anda mengaktifkan opsi **Parket** untuk mengonversi log akses Anda ke Apache Parquet, opsi ini dikenakan biaya. CloudWatch Untuk informasi selengkapnya, lihat [bagian Vended Logs untuk CloudWatch harga](https://aws.amazon.com/cloudwatch/pricing/).