

Amazon Timestream for LiveAnalytics와 유사한 기능을 원하는 경우 Amazon Timestream for InfluxDB를 고려해 보세요. 간소화된 데이터 수집과 실시간 분석을 위한 10밀리초 미만의 쿼리 응답 시간을 제공합니다. [여기](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)에서 자세히 알아보세요.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon CloudWatch를 사용한 모니터링
<a name="monitoring-cloudwatch"></a>

Timestream for LiveAnalytics에서 원시 데이터를 수집하여 읽기 가능하며 실시간에 가까운 지표로 처리하는 Amazon CloudWatch를 통해 Timestream for LiveAnalytics를 모니터링할 수 있습니다. 이러한 통계는 2주간 기록되므로 기록 정보에 액세스하고 웹 애플리케이션 또는 서비스가 어떻게 실행되고 있는지 전체적으로 더 잘 파악할 수 있습니다. Timestream for LiveAnalytics 지표 데이터는 기본적으로 1분 또는 15분 단위로 CloudWatch에 자동 전송됩니다. 자세한 설명은 *Amazon CloudWatch 사용자 가이드*의 [Amazon CloudWatch란 무엇인가?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/WhatIsCloudWatch.html)를 참조하십시오.

**Topics**
+ [Timestream for LiveAnalytics 지표를 사용하려면 어떻게 해야 하나요?](#how-to-use-metrics)
+ [Timestream for LiveAnalytics 지표 및 차원](metrics-dimensions.md)
+ [Timestream for LiveAnalytics를 모니터링하기 위한 CloudWatch 경보 생성](creating-alarms.md)

## Timestream for LiveAnalytics 지표를 사용하려면 어떻게 해야 하나요?
<a name="how-to-use-metrics"></a>

Timestream for LiveAnalytics에서 보고하는 지표는 다양한 방법으로 분석이 기능한 정보를 제공합니다. 다음 목록은 몇 가지 일반적인 지표 사용 사례를 보여 줍니다. 모든 사용 사례를 망라한 것은 아니지만 시작하는 데 참고가 될 것입니다.


****  

|  사용 방법  |  관련 지표  | 
| --- | --- | 
|  How can I determine if any system errors occurred?  |  `SystemErrors`를 모니터링하여 서버 오류 코드가 발생한 요청이 있는지 확인할 수 있습니다. 일반적으로 이 지표는 0이어야 합니다. 그렇지 않다면 조사가 필요합니다.  | 
|  How can I monitor the amount of data in the memory store?  |  지정된 기간 동안 `MemoryCumulativeBytesMetered`를 모니터링하여 메모리 스토어에 저장된 데이터의 양을 바이트 단위로 모니터링할 수 있습니다. 이 지표는 매시간 내보내지며 계정 및 데이터베이스 세부 수준에 저장된 바이트를 추적할 수 있습니다. 메모리 스토어는 GB-시간(1시간 동안 1GB의 데이터를 저장하는 비용) 단위로 측정됩니다. 따라서 `MemoryCumulativeBytesMetered`의 시간당 값을 해당 리전의 GB-시간 요금과 곱하면 시간당 발생하는 비용이 발생합니다. 차원: 작업(스토리지), DatabaseName, 지표 이름  | 
|  How can I monitor the amount of data in the magnetic store?  |   지정된 기간 동안 `MagneticCumulativeBytesMetered`를 모니터링하여 마그네틱 스토어에 저장된 데이터의 양을 바이트 단위로 모니터링할 수 있습니다. 이 지표는 매시간 내보내지며 계정 및 데이터베이스 세부 수준에 저장된 바이트를 추적할 수 있습니다. 메모리 스토어는 GB-월(1개월 동안 1GB의 데이터를 저장하는 비용) 단위로 측정됩니다. 따라서 `MagneticCumulativeBytesMetered`의 시간당 값을 해당 리전의 GB-월 요금과 곱하면 시간당 발생하는 비용이 발생합니다. 예를 들어 `MagneticCumulativeBytesMetered`의 값이 107,374,182,400바이트(100GB)인 경우 마그네틱 스토어의 1GB 데이터에 대한 시간당 요금은 (0.03)(us-east-1 요금)/(30.4\$124)입니다. 이 값에 GB 단위의 `MagneticCumulativeBytesMetered` 값을 곱하면 해당 시간당 약 0.004 USD가 됩니다. 차원: 작업(스토리지), DatabaseName, 지표 이름  | 
|  How can I monitor the data scanned by queries?  |   지정된 기간 동안 `CumulativeBytesMetered`를 모니터링하여 Timestream for LiveAnalytics로 전송된 쿼리에서 스캔된 데이터(바이트)를 확인할 수 있습니다. 이 지표는 쿼리 실행 후 생성되며 계정 및 데이터베이스 세부 수준에서 스캔한 데이터를 추적할 수 있습니다. 지표 값에 리전에서 스캔한 GB당 요금을 곱하여 특정 기간의 쿼리 비용을 계산할 수 있습니다. 이 지표에는 예약된 쿼리가 스캔한 바이트 수가 포함됩니다. 차원: 작업(쿼리), DatabaseName, 지표 이름  | 
|  How can I monitor the data scanned by scheduled queries?  |   지정된 기간 동안 `CumulativeBytesMetered`를 모니터링하여 Timestream for LiveAnalytics에서 실행된 예약된 쿼리(바이트)에서 스캔된 데이터를 확인할 수 있습니다. 이 지표는 쿼리 실행 후 생성되며 계정 및 데이터베이스 세부 수준에서 스캔한 데이터를 추적할 수 있습니다. 지표 값에 리전에서 스캔한 GB당 요금을 곱하여 특정 기간의 쿼리 비용을 계산할 수 있습니다.  측정된 바이트 수는 `CumulativeBytesMetered` 쿼리에도 포함됩니다.  차원: 작업(TriggeredScheduledQuery), DatabaseName, 지표 이름  | 
|  How can I monitor the number of records ingested?  |  지정된 기간 동안 `NumberOfRecords`를 모니터링하여 수집된 레코드 수를 확인할 수 있습니다. 계정 및 데이터베이스 세부 수준에 저장된 바이트를 추적할 수 있습니다. 또한 이 지표를 사용하여 쿼리 결과가 별도의 테이블에 작성될 때 예약된 쿼리가 작성한 쓰기를 모니터링할 수 있습니다. `WriteRecords` API를 사용할 때 각 `WriteRecords` 요청에 대해 지표가 내보내지며 CloudWatch 작업 차원은 `WriteRecords`입니다. `BatchLoad` 또는 `ScheduledQuery` API를 사용하는 경우 태스크가 완료될 때까지 서비스에서 결정한 간격으로 지표가 내보내집니다. 이 지표의 CloudWatch 작업 차원은 사용되는 API에 따라 `BatchLoad` 또는 `ScheduledQuery`입니다. 차원: 작업(WriteRecords, BatchLoad 또는 ScheduledQuery), DatabaseName, 지표 이름  | 
|  How can I monitor the cost of records ingested?  |  `CumulativeBytesMetered`를 모니터링하여 비용이 누적되는 수집된 바이트 수를 확인할 수 있습니다. 계정 및 데이터베이스 세부 수준에 저장된 바이트를 추적할 수 있습니다. 수집된 레코드는 누적 바이트 단위로 측정됩니다. `CumulativeBytesMetered` 값에 해당 지역의 쓰기 요금을 곱하면 발생하는 데이터 수집 비용이 계산됩니다. `WriteRecords` API를 사용할 때 각 `WriteRecords` 요청에 대해 이 지표가 내보내지며 CloudWatch 작업 차원은 `WriteRecords`입니다. `BatchLoad` 또는 `ScheduledQuery` API를 사용하는 경우 태스크가 완료될 때까지 서비스에서 결정한 간격으로 지표가 내보내집니다. 이 지표의 CloudWatch 작업 차원은 사용되는 API에 따라 `BatchLoad` 또는 `ScheduledQuery`입니다. 차원: 작업(WriteRecords, BatchLoad 또는 ScheduledQuery), DatabaseName, 지표 이름  | 
| How can I monitor the Timestream Compute Units (TCUs) used in my account? |  원하는 기간 동안 `QueryTCU`를 모니터링하여 계정에 프로비저닝된 컴퓨팅 유닛을 확인할 수 있습니다. 이 지표는 15분마다 전송됩니다. 단위: `Count` 유효한 통계: Minimum, Maximum 지표: `ResourceCount` 차원: `Service: Timestream`, `Namespace:AWS/Usage`, `Resource: QueryTCU`, `Type: Resource`, `Class: OnDemand`   | 
| How can I monitor the number of provisioned Timestream Compute Units (TCUs) used in my account? |  이제 아시아 태평양(뭄바이) 리전에서만 프로비저닝된 TCU를 사용할 수 있습니다. `QueryTCU`를 모니터링하여 계정의 쿼리 워크로드에 사용되는 프로비저닝된 TCU 수를 모니터링할 수 있습니다. 이 지표는 계정에서 활성 쿼리 워크로드 중 1분마다 내보내집니다. 단위: `Count` 유효한 통계: Minimum, Maximum 지표: `ResourceCount` 차원: `Service: Timestream` ,`Namespace: AWS/Usage` ,`Resource: ProvisionedQueryTCU` `Class: None`   | 
| How can I monitor the provisioned Timestream Compute Units (TCUs) used in my account? |  이제 아시아 태평양(뭄바이) 리전에서만 프로비저닝된 TCU를 사용할 수 있습니다. 지정된 기간 동안 `QueryTCU`를 모니터링하여 계정의 쿼리 워크로드에 사용되는 컴퓨팅 유닛을 확인할 수 있습니다. 이 지표는 계정에서 활성 쿼리 워크로드 중 1분마다 최대 및 최소 컴퓨팅 유닛과 함께 내보내집니다. 단위: `Count` 유효한 통계: Minimum, Maximum 지표: `ResourceCount` 차원: `Service: Timestream` ,`Namespace: AWS/Usage` ,`Resource: QueryTCU` `Class: Provisioned`   | 