

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Monitora i flussi di dati Kinesis
<a name="monitoring"></a>

È possibile monitorare i flussi di dati nel flusso di dati Amazon Kinesis utilizzando le seguenti funzionalità:
+ [CloudWatch metriche](monitoring-with-cloudwatch.md) — Kinesis Data Streams invia ad CloudWatch Amazon parametri personalizzati con monitoraggio dettagliato per ogni flusso.
+ [Kinesis Agent](agent-health.md): Kinesis Agent pubblica CloudWatch metriche personalizzate per aiutare a valutare se l'agente funziona come previsto.
+ [Registrazione API](logging-using-cloudtrail.md): il flusso di dati Kinesis utilizza AWS CloudTrail per registrare le chiamate alle API e archiviare i dati in un bucket Amazon S3.
+ [Kinesis Client Library](monitoring-with-kcl.md): la Kinesis Client Library (KCL) fornisce parametri per partizione, worker e applicazione KCL.
+ [Kinesis Producer Library](monitoring-with-kpl.md) — Amazon Kinesis Producer Library (KPL) fornisce parametri per shard, worker e applicazione KPL.

Per ulteriori informazioni sui problemi di monitoraggio, domande e risoluzione dei problemi più comuni, consulta:
+  [Quali parametri devo utilizzare per monitorare e risolvere i problemi del flusso di dati Kinesis?](https://aws.amazon.com/premiumsupport/knowledge-center/kinesis-data-streams-troubleshoot/)
+ [Perché il IteratorAgeMilliseconds valore di Kinesis Data Streams continua ad aumentare?](https://aws.amazon.com/premiumsupport/knowledge-center/kinesis-data-streams-iteratorage-metric/)

# Monitora il servizio Amazon Kinesis Data Streams con Amazon CloudWatch
<a name="monitoring-with-cloudwatch"></a>

Amazon Kinesis Data Streams CloudWatch e Amazon sono integrati in modo da poter raccogliere CloudWatch, visualizzare e analizzare i parametri per i flussi di dati Kinesis. Ad esempio, per tenere traccia dell'utilizzo degli shard, è possibile monitorare i parametri `IncomingBytes` e `OutgoingBytes` e confrontarli con il numero di shard nel flusso.

Le metriche di streaming e le metriche a livello di shard che configuri vengono raccolte automaticamente e aggiornate ogni minuto. CloudWatch I parametri sono conservati per due settimane; dopo tale periodo, i dati vengono eliminati.

La tabella seguente descrive un monitoraggio di base a livello di flusso e un monitoraggio avanzato a livello di partizione per i flussi di dati Kinesis.


| Tipo | Description | 
| --- | --- | 
|  Monitoraggio di base (a livello di flusso)  |  I dati a livello di flusso sono inviati automaticamente ogni minuto, senza alcun costo aggiuntivo.  | 
|  Monitoraggio avanzato (a livello di shard)  |  I dati a livello di shard sono inviati ogni minuto, con un costo aggiuntivo. Per ottenere questo livello di dati, è necessario impostarlo specificamente per il flusso utilizzando l'operazione [EnableEnhancedMonitoring](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_EnableEnhancedMonitoring.html).  Per informazioni sui prezzi, consulta la [pagina CloudWatch del prodotto Amazon](https://aws.amazon.com/cloudwatch).  | 

## Dimensioni e metriche di Amazon Kinesis Data Streams
<a name="kinesis-metrics"></a>

Kinesis Data Streams invia le CloudWatch metriche a due livelli: a livello di stream e, facoltativamente, a livello di shard. Le metriche a livello di stream sono destinate ai casi d'uso di monitoraggio più comuni in condizioni normali. I parametri a livello di shard sono per attività di monitoraggio specifiche, solitamente correlate alla risoluzione dei problemi, e sono abilitati utilizzando l'operazione [EnableEnhancedMonitoring](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_EnableEnhancedMonitoring.html). 

Per una spiegazione delle statistiche raccolte dalle CloudWatch metriche, consulta [CloudWatch Statistics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/cloudwatch_concepts.html#Statistic) in the *Amazon CloudWatch User Guide*.

**Topics**
+ [

### Metriche di base a livello di stream
](#kinesis-metrics-stream)
+ [

### Metriche avanzate a livello di shard
](#kinesis-metrics-shard)
+ [

### Dimensioni per i parametri di Amazon Kinesis Data Streams
](#kinesis-metricdimensions)
+ [

### Parametri di Amazon Kinesis Data Streams consigliati
](#kinesis-metric-use)

### Metriche di base a livello di stream
<a name="kinesis-metrics-stream"></a>

Il namespace `AWS/Kinesis` include i parametri a livello di flusso descritti di seguito.

Kinesis Data Streams invia queste metriche a livello di flusso CloudWatch a ogni minuto. Tali parametri sono sempre disponibili.


| Metrica | Description | 
| --- | --- | 
| GetRecords.Bytes |  Il numero di byte recuperati dal flusso Kinesis misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i byte in un'unica operazione `GetRecords` per il flusso nel periodo di tempo specificato. Nome parametro a livello di shard: `OutgoingBytes`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| GetRecords.IteratorAge |  Questa metrica non viene più utilizzata. Utilizza `GetRecords.IteratorAgeMilliseconds`.  | 
| GetRecords.IteratorAgeMilliseconds |  L'età dell'ultimo record in tutte le chiamate `GetRecords` effettuate su un flusso Kinesis, misurate durante il periodo di tempo specificato. L'età è la differenza tra l'ora corrente e il momento in cui l'ultimo record della chiamata `GetRecords` è stato scritto nel flusso. Le statistiche Minimo e Massimo possono essere utilizzate per tenere traccia dell'attività delle applicazioni consumer di Kinesis. Il valore zero indica che i record in fase di lettura sono totalmente assorbiti dal flusso. Nome parametro a livello di shard: `IteratorAgeMilliseconds`. Dimensioni: StreamName Statistiche: minimo, massimo, media, esempi Unità: millisecondi  | 
| GetRecords.Latency |  Il tempo necessario per operazione `GetRecords`, misurato durante il periodo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media Unità: millisecondi  | 
| GetRecords.Records |  Il numero di record recuperati dallo shard, misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i record in un'unica operazione `GetRecords` per il flusso nel periodo di tempo specificato. Nome parametro a livello di shard: `OutgoingRecords`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| GetRecords.Success |  Il numero di operazioni `GetRecords` riuscite per flusso, misurate durante il periodo di tempo specificato. Dimensioni: StreamName Statistiche: media, somma, esempi Unità: numero  | 
| IncomingBytes |  Il numero di byte correttamente inseriti nel flusso Kinesis durante il periodo di tempo specificato. Questo parametro include i byte delle operazioni `PutRecord` e `PutRecords`. Le statistiche Minimo, Massimo e Media rappresentano i byte in un'unica operazione put per il flusso nel periodo di tempo specificato. Nome parametro a livello di shard: `IncomingBytes`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| IncomingRecords |  Il numero di record inseriti correttamente nel flusso Kinesis durante il periodo di tempo specificato. Questo parametro include il numero di record delle operazioni `PutRecord` e `PutRecords`. Le statistiche Minimo, Massimo e Media rappresentano i record in un'unica operazione put per il flusso nel periodo di tempo specificato. Nome parametro a livello di shard: `IncomingRecords`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| PutRecord.Bytes |  Il numero di byte inseriti nel flusso Kinesis mediante l'operazione `PutRecord` durante il periodo di tempo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| PutRecord.Latency |  Il tempo necessario per operazione `PutRecord`, misurato durante il periodo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media Unità: millisecondi  | 
| PutRecord.Success |  Il numero di operazioni `PutRecord` riuscite per flusso Kinesis misurate durante il periodo di tempo specificato. La media riflette la percentuale di scritture riuscite in un flusso. Dimensioni: StreamName Statistiche: media, somma, esempi Unità: numero  | 
| PutRecords.Bytes |  Il numero di byte inseriti nel flusso Kinesis mediante l'operazione `PutRecords` durante il periodo di tempo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| PutRecords.Latency |  Il tempo necessario per operazione `PutRecords`, misurato durante il periodo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media Unità: millisecondi  | 
| PutRecords.Records |  Questo parametro è obsoleto. Utilizza `PutRecords.SuccessfulRecords`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| PutRecords.Success |  Il numero di operazioni `PutRecords` con almeno un record riuscito, per flusso Kinesis, misurate durante il periodo di tempo specificato. Dimensioni: StreamName Statistiche: media, somma, esempi Unità: numero  | 
| PutRecords.TotalRecords |  Il numero di record inviati in un'operazione `PutRecords` per il flusso di dati Kinesis misurata nel periodo di tempo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| PutRecords.SuccessfulRecords |  Il numero di record riusciti in un'operazione `PutRecords` per flusso di dati Kinesis, misurati durante il periodo di tempo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| PutRecords.FailedRecords |  Il numero di record rifiutati a causa di errori interni in un'operazione `PutRecords` per il flusso di dati Kinesis, misurato nel periodo di tempo specificato. È probabile che si verifichino errori interni occasionali e che sia necessario riprovare. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| PutRecords.ThrottledRecords |  Il numero di record rifiutati a causa della limitazione in un'operazione `PutRecords` per il flusso di dati Kinesis misurata nel periodo di tempo specificato. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| ReadProvisionedThroughputExceeded |  Il numero di chiamate `GetRecords` sottoposte a throttling per il flusso durante il periodo di tempo specificato. La statistica Media è quella più utilizzata per questo parametro. Quando il valore della statistica Minimo è 1, tutti i record sono stati sottoposti a throttling per il flusso durante il periodo di tempo specificato.  Quando il valore della statistica Massimo è 0 (zero), nessun record è stato sottoposto a throttling per il flusso durante il periodo di tempo specificato. Nome parametro a livello di shard: `ReadProvisionedThroughputExceeded`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| SubscribeToShard.RateExceeded | Questo parametro viene emesso quando un tentativo di nuovo abbonamento non va a buon fine perché è attivo un abbonamento dello stesso consumer oppure hai superato il numero di chiamate al secondo consentite per questa operazione.Dimensioni: StreamName, ConsumerName | 
| SubscribeToShard.Success |  Questa metrica registra se l' SubscribeToShardabbonamento è stato stabilito con successo. L'abbonamento non dura più di 5 minuti. Pertanto, questa metrica viene emessa almeno una volta ogni 5 minuti. Dimensioni:, StreamName ConsumerName  | 
| SubscribeToShardEvent.Bytes |  Il numero di byte ricevuti dallo shard, misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i byte pubblicati in un singolo evento per il periodo di tempo specificato. Nome parametro a livello di shard: `OutgoingBytes`. Dimensioni: StreamName, ConsumerName Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| SubscribeToShardEvent.MillisBehindLatest |  Il numero di millisecondi in cui i record di lettura provengono dall'estremità dello stream, che indica il ritardo del consumatore rispetto all'ora corrente. Dimensioni:, StreamName ConsumerName Statistiche: minimo, massimo, media, esempi Unità: millisecondi  | 
| SubscribeToShardEvent.Records |  Il numero di record ricevuti dallo shard, misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i record pubblicati in un singolo evento per il periodo di tempo specificato. Nome parametro a livello di shard: `OutgoingRecords`. Dimensioni: StreamName, ConsumerName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| SubscribeToShardEvent.Success | Questo parametro viene emesso ogni volta che un evento viene pubblicato correttamente. Viene emesso solo in presenza di un abbonamento attivo.Dimensioni: StreamName, ConsumerNameStatistiche: minimo, massimo, media, somma, esempiUnità: numero | 
| WriteProvisionedThroughputExceeded |  Il numero di record rifiutati a causa del throttling per il flusso durante il periodo di tempo specificato. Questo parametro include il throttling delle operazioni `PutRecord` e `PutRecords`. La statistica Media è quella più utilizzata per questo parametro. Quando il valore della statistica Minimo non è 0 (zero), i record sono stati sottoposti a throttling per il flusso durante il periodo di tempo specificato.  Quando il valore della statistica Massimo è 0 (zero), nessun record è stato sottoposto a throttling per il flusso durante il periodo di tempo specificato. Nome parametro a livello di shard: `WriteProvisionedThroughputExceeded`. Dimensioni: StreamName Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 

### Metriche avanzate a livello di shard
<a name="kinesis-metrics-shard"></a>

Il namespace `AWS/Kinesis` include i parametri a livello di shard descritti di seguito.

Kinesis invia le seguenti metriche a livello di shard a ogni minuto. CloudWatch Ogni dimensione metrica crea 1 CloudWatch metrica ed effettua circa 43.200 chiamate API al mese. `PutMetricData` Per impostazione predefinita, tali parametri non sono attivati. I parametri avanzati emessi da Kinesis comportano un addebito. Per ulteriori informazioni, consulta la [pagina CloudWatch dei prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/) alla voce *Amazon CloudWatch Custom Metrics*. I costi sono forniti per shard per parametro per mese.


| Metrica | Description | 
| --- | --- | 
| IncomingBytes |  Il numero di byte inseriti nello shard durante il periodo di tempo specificato. Questo parametro include i byte delle operazioni `PutRecord` e `PutRecords`. Le statistiche Minimo, Massimo e Media rappresentano i byte in un'unica operazione put per lo shard nel periodo di tempo specificato. Nome parametro a livello di flusso: `IncomingBytes`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| IncomingRecords |  Il numero di record inseriti nello shard durante il periodo di tempo specificato. Questo parametro include il numero di record delle operazioni `PutRecord` e `PutRecords`. Le statistiche Minimo, Massimo e Media rappresentano i record in un'unica operazione put per lo shard nel periodo di tempo specificato. Nome parametro a livello di flusso: `IncomingRecords`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| IteratorAgeMilliseconds |  L'età dell'ultimo record in tutte le chiamate `GetRecords` effettuate su uno shard, misurata durante il periodo di tempo specificato. L'età è la differenza tra l'ora corrente e il momento in cui l'ultimo record della chiamata `GetRecords` è stato scritto nel flusso. Le statistiche Minimo e Massimo possono essere utilizzate per tenere traccia dell'attività delle applicazioni consumer di Kinesis. Il valore 0 (zero) indica che i record in fase di lettura sono totalmente assorbiti dal flusso. Nome parametro a livello di flusso: `GetRecords.IteratorAgeMilliseconds`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, esempi Unità: millisecondi  | 
| OutgoingBytes |  Il numero di byte recuperati dallo shard, misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i byte restituiti in un'unica operazione `GetRecords` o pubblicati in un singolo evento `SubscribeToShard` per lo shard nel periodo di tempo specificato. Nome parametro a livello di flusso: `GetRecords.Bytes`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: byte  | 
| OutgoingRecords |  Il numero di record recuperati dallo shard, misurati durante il periodo di tempo specificato. Le statistiche Minimo, Massimo e Media rappresentano i record restituiti in un'unica operazione `GetRecords` o pubblicati in un singolo evento `SubscribeToShard` per lo shard nel periodo di tempo specificato. Nome parametro a livello di flusso: `GetRecords.Records`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| ReadProvisionedThroughputExceeded |  Il numero di chiamate `GetRecords` sottoposte a throttling per lo shard durante il periodo di tempo specificato. Questo numero di eccezioni copre tutte le dimensioni dei seguenti limiti: 5 letture per shard per secondo o 2 MB per secondo per shard. La statistica Media è quella più utilizzata per questo parametro. Quando il valore della statistica Minimo è 1, tutti i record sono stati sottoposti a throttling per lo shard durante il periodo di tempo specificato.  Quando il valore della statistica Massimo è 0 (zero), nessun record è stato sottoposto a throttling per lo shard durante il periodo di tempo specificato. Nome parametro a livello di flusso: `ReadProvisionedThroughputExceeded`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 
| WriteProvisionedThroughputExceeded |  Il numero di record rifiutati a causa del throttling dello shard durante il periodo di tempo specificato. Questo parametro include il throttling delle operazioni `PutRecord` e `PutRecords` e copre tutte le dimensioni dei seguenti limiti: 1.000 record per secondo per shard o 1 MB per secondo per shard. La statistica Media è quella più utilizzata per questo parametro. Quando il valore della statistica Minimo non è 0 (zero), i record sono stati sottoposti a throttling per lo shard durante il periodo di tempo specificato.  Quando il valore della statistica Massimo è 0 (zero), nessun record è stato sottoposto a throttling per lo shard durante il periodo di tempo specificato. Nome parametro a livello di flusso: `WriteProvisionedThroughputExceeded`. Dimensioni: StreamName, ShardId Statistiche: minimo, massimo, media, somma, esempi Unità: numero  | 

### Dimensioni per i parametri di Amazon Kinesis Data Streams
<a name="kinesis-metricdimensions"></a>


|  Dimensione  |  Description  | 
| --- | --- | 
|  StreamName  |  Il nome del flusso Kinesis. Tutte le statistiche disponibili vengono filtrate per `StreamName`.   | 

### Parametri di Amazon Kinesis Data Streams consigliati
<a name="kinesis-metric-use"></a>

Diversi parametri del flusso di dati Amazon Kinesis potrebbero essere di particolare interesse per i clienti del flusso di dati Kinesis. Il seguente elenco fornisce i parametri consigliati e i loro utilizzi.


| Metrica | Note per l'utilizzo | 
| --- | --- | 
|  `GetRecords.IteratorAgeMilliseconds`  |  Monitora la posizione di lettura di tutti gli shard e i consumatori nel flusso. Se l'età di un iteratore supera il 50% del periodo di conservazione (per impostazione predefinita, 24 ore, configurabile fino a 7 giorni), c'è il rischio di una perdita di dati a causa della scadenza del record. Ti consigliamo di utilizzare gli CloudWatch allarmi nella statistica Maximum per avvisarti prima che questa perdita rappresenti un rischio. Per uno scenario di esempio che utilizza questo parametro, consulta [L'elaborazione dei record dei consumatori è in ritardo](troubleshooting-consumers.md#record-processing-falls-behind).  | 
|  `ReadProvisionedThroughputExceeded`  |  Quando l'elaborazione di record nel lato del consumer è in ritardo, talvolta è difficile sapere dov'è il collo di bottiglia. Utilizza questo parametro per determinare se le operazioni di lettura vengono sottoposte a throttling a causa del fatto che superano i tuoi limiti di throughput di lettura. La statistica Media è quella più utilizzata per questo parametro.  | 
| WriteProvisionedThroughputExceeded | Ha lo stesso scopo del parametro ReadProvisionedThroughputExceeded ma per il lato del producer (put) del flusso. La statistica Media è quella più utilizzata per questo parametro. | 
| PutRecord.Success, PutRecords.Success | Ti consigliamo di utilizzare gli CloudWatch allarmi nella statistica Average per indicare quando i record non vengono trasmessi allo streaming. Scegli uno o entrambi i tipi di put, in base a ciò che utilizza il tuo producer. Se usi Amazon Kinesis Producer Library (KPL), usa. PutRecords.Success | 
| GetRecords.Success | Ti consigliamo di utilizzare gli CloudWatch allarmi nella statistica Average per indicare quando i record dello stream non funzionano. | 

## Accedi ai CloudWatch parametri di Amazon per Kinesis Data Streams
<a name="cloudwatch-metrics"></a>

È possibile monitorare le metriche per Kinesis Data Streams utilizzando CloudWatch la console, la riga di comando o l'API. CloudWatch Le procedure seguenti mostrano come accedere ai parametri utilizzando questi diversi metodi. 

**Per accedere alle metriche utilizzando la console CloudWatch**

1. Apri la CloudWatch console all'indirizzo [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/).

1. Nella barra di navigazione, scegli una regione.

1. Nel riquadro di navigazione, seleziona **Parametri**.

1. Nel riquadro **CloudWatch Metriche per categoria**, scegli **Kinesis** Metrics.

1. Fai clic sulla riga pertinente per visualizzare le statistiche relative all'oggetto specificato e. **MetricName**StreamName**** 

   **Nota:** **la maggior parte dei nomi delle statistiche delle console corrisponde ai nomi delle CloudWatch metriche corrispondenti elencati in precedenza, ad eccezione di **Read Throughput e Write Throughput**.** **Queste statistiche vengono calcolate su intervalli di 5 minuti: **Write Throughput monitora la metrica e Read Throughput** monitora la metrica e Read Throughput. `IncomingBytes` CloudWatch ** `GetRecords.Bytes`

1. (Facoltativo) Nel riquadro grafico, selezionate una statistica e un periodo di tempo, quindi create un allarme utilizzando queste impostazioni. CloudWatch 

**Per accedere alle metriche utilizzando il AWS CLI**  
Utilizzate le [metriche e i comandi dell'elenco](https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/list-metrics.html). [get-metric-statistics](https://docs.aws.amazon.com/cli/latest/reference/cloudwatch/get-metric-statistics.html)

**Per accedere alle metriche utilizzando la CLI CloudWatch**  
Utilizza i comandi [mon-list-metrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/cli/cli-mon-list-metrics.html) e [mon-get-stats](https://docs.aws.amazon.com/AmazonCloudWatch/latest/cli/cli-mon-get-stats.html).

**Per accedere alle metriche utilizzando l'API CloudWatch**  
Utilizzare le operazioni [ListMetrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_ListMetrics.html) e [GetMetricStatistics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_GetMetricStatistics.html).

# Monitora lo stato dell'agente Kinesis Data Streams con Amazon CloudWatch
<a name="agent-health"></a>

L'agente pubblica CloudWatch metriche personalizzate con uno spazio dei nomi di. **AWS KinesisAgent** Questi parametri consentono di valutare se l'agente sta inviando dati a Flussi di dati Kinesis come specificato, se è integro e se sta consumando la quantità di risorse di CPU e di memoria appropriate nel producer di dati. Metriche come il numero di record e byte inviati sono utili per comprendere la velocità con cui l'agente invia i dati allo stream. Quando questi parametri si trovano al di sotto delle soglie previste in alcune percentuali o passano a zero, potrebbe trattarsi di problemi di configurazione, di errori di rete o di problemi correlati allo stato dell'agente. I parametri come il consumo di CPU e memoria di host e i contatori di errore dell'agente indicano l'utilizzo delle risorse da parte del producer e forniscono informazioni utili in merito a possibili errori di configurazione o di host. Infine, l'agente registra anche le eccezioni di servizio per aiutare a verificare i problemi dell'agente. Queste metriche sono riportate nella regione specificata nell'impostazione di configurazione dell'agente. `cloudwatch.endpoint` CloudWatch le metriche pubblicate da più agenti Kinesis vengono aggregate o combinate. Per ulteriori informazioni sulla configurazione dell'agente, consulta [Specificare le impostazioni di configurazione dell'agente](writing-with-agents.md#agent-config-settings).

## Monitora con CloudWatch
<a name="agent-metrics"></a>

L'agente Kinesis Data Streams invia le seguenti metriche a. CloudWatch


| Metrica | Description | 
| --- | --- | 
| BytesSent |  Il numero di byte inviati al flusso di dati Kinesis durante il periodo di tempo specificato. Unità: byte  | 
| RecordSendAttempts |  Il numero di record tentati (sia per la prima volta che come nuovo tentativo) in una chiamata a `PutRecords` durante il periodo di tempo specificato. Unità: numero  | 
| RecordSendErrors |  Il numero di record che hanno restituito uno stato di errore in una chiamata a `PutRecords`, inclusi i nuovi tentativi, durante il periodo di tempo specificato. Unità: numero  | 
| ServiceErrors |  Il numero di chiamate a `PutRecords` che hanno causato un errore di servizio (diverso da un errore di throttling) durante il periodo di tempo specificato.  Unità: numero  | 

# Registra le chiamate API Amazon Kinesis Data Streams con AWS CloudTrail
<a name="logging-using-cloudtrail"></a>

Amazon Kinesis Data Streams è AWS CloudTrail integrato con un servizio che fornisce un registro delle azioni intraprese da un utente, ruolo AWS o servizio in Kinesis Data Streams. CloudTrail acquisisce tutte le chiamate API per Kinesis Data Streams come eventi. Le chiamate acquisite includono le chiamate dalla console Kinesis Data Firehose e le chiamate di codice alle operazioni API di Kinesis Data Firehose. Se crei un trail, puoi abilitare la distribuzione continua di CloudTrail eventi a un bucket Amazon S3, inclusi gli eventi per Kinesis Data Streams. **Se non configuri un percorso, puoi comunque visualizzare gli eventi più recenti nella CloudTrail console nella cronologia degli eventi.** Utilizzando le informazioni raccolte da CloudTrail, è possibile determinare la richiesta effettuata a Kinesis Data Streams, l'indirizzo IP da cui è stata effettuata la richiesta, chi ha effettuato la richiesta, quando è stata effettuata e dettagli aggiuntivi. 

Per saperne di più CloudTrail, incluso come configurarlo e abilitarlo, consulta la Guida per l'[AWS CloudTrail utente](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/).

## Informazioni su Kinesis Data Streams in CloudTrail
<a name="service-name-info-in-cloudtrail"></a>

CloudTrail è abilitato sul tuo AWS account al momento della creazione dell'account. Quando si verifica un'attività di evento supportata in Kinesis Data Streams, tale attività viene registrata CloudTrail in un evento AWS insieme ad altri eventi di servizio nella cronologia **degli eventi**. Puoi visualizzare, cercare e scaricare gli eventi recenti nel tuo AWS account. Per ulteriori informazioni, consulta [Visualizzazione di eventi mediante la cronologia eventi di CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html). 

Per una registrazione continua degli eventi nel tuo AWS account, inclusi gli eventi per Kinesis Data Streams, crea un percorso. Un *trail* consente di CloudTrail inviare file di log a un bucket Amazon S3. Per impostazione predefinita, quando crei un percorso nella console, il percorso si applica a tutte le AWS regioni. Il trail registra gli eventi di tutte le regioni della AWS partizione e consegna i file di log al bucket Amazon S3 specificato. Inoltre, puoi configurare altri AWS servizi per analizzare ulteriormente e agire in base ai dati sugli eventi raccolti nei log. CloudTrail Per ulteriori informazioni, consulta gli argomenti seguenti: 
+ [Panoramica della creazione di un trail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [CloudTrail Servizi e integrazioni supportati](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html#cloudtrail-aws-service-specific-topics-integrations)
+ [Configurazione delle notifiche Amazon SNS per CloudTrail](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/getting_notifications_top_level.html)
+ [Ricezione di file di CloudTrail registro da più regioni](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) e [ricezione di file di CloudTrail registro da](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html) più account

Kinesis Data Streams supporta la registrazione delle seguenti azioni come CloudTrail eventi nei file di registro:
+ [AddTagsToStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_AddTagsToStream.html)
+ [CreateStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_CreateStream.html)
+ [DecreaseStreamRetentionPeriod](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DecreaseStreamRetentionPeriod.html)
+ [DeleteStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DeleteStream.html)
+ [DeregisterStreamConsumer](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DeregisterStreamConsumer.html)
+ [DescribeStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DescribeStream.html)
+ [DescribeStreamConsumer](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DescribeStreamConsumer.html)
+ [DisableEnhancedMonitoring](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_DisableEnhancedMonitoring.html)
+ [EnableEnhancedMonitoring](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_EnableEnhancedMonitoring.html)
+ [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)
+ [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)
+ [IncreaseStreamRetentionPeriod](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_IncreaseStreamRetentionPeriod.html)
+ [ListStreamConsumers](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_ListStreamConsumers.html)
+ [ListStreams](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_ListStreams.html)
+ [ListTagsForStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_ListTagsForStream.html)
+ [MergeShards](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_MergeShards.html)
+ [PutRecord](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_PutRecord.html)
+ [PutRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_PutRecords.html)
+ [RegisterStreamConsumer](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_RegisterStreamConsumer.html)
+ [RemoveTagsFromStream](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_RemoveTagsFromStream.html)
+ [SplitShard](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_SplitShard.html)
+ [StartStreamEncryption](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_StartStreamEncryption.html)
+ [StopStreamEncryption](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_StopStreamEncryption.html)
+ [SubscribeToShard](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_SubscribeToShard.html)
+ [UpdateShardCount](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_UpdateShardCount.html)
+ [UpdateStreamMode](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_UpdateStreamMode.html)

Ogni evento o voce di log contiene informazioni sull’utente che ha generato la richiesta. Le informazioni di identità consentono di determinare quanto segue: 
+ Se la richiesta è stata effettuata con credenziali utente root o AWS Identity and Access Management (IAM).
+ Se la richiesta è stata effettuata con le credenziali di sicurezza temporanee per un ruolo o un utente federato.
+ Se la richiesta è stata effettuata da un altro AWS servizio.

Per ulteriori informazioni, consulta [Elemento CloudTrail userIdentity](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html).

## Esempio: voci dei file di registro di Kinesis Data Streams
<a name="understanding-service-name-entries"></a>

Un trail è una configurazione che consente la distribuzione di eventi come file di log in un bucket Amazon S3 specificato dall'utente. CloudTrail i file di registro contengono una o più voci di registro. Un evento rappresenta una singola richiesta da qualsiasi sorgente e include informazioni sull'azione richiesta, la data e l'ora dell'operazione, i parametri della richiesta e così via. I file di log di CloudTrail non sono una traccia di stack ordinata delle chiamate API pubbliche, pertanto non vengono visualizzati in un ordine specifico.

L'esempio seguente mostra una voce di CloudTrail registro che illustra le `MergeShards` azioni `CreateStream` `DescribeStream``ListStreams`,`DeleteStream`,`SplitShard`, e.

```
{
    "Records": [
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:16:31Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "CreateStream",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "shardCount": 1,
                "streamName": "GoodStream"
            },
            "responseElements": null,
            "requestID": "db6c59f8-c757-11e3-bc3b-57923b443c1c",
            "eventID": "b7acfcd0-6ca9-4ee1-a3d7-c4e8d420d99b"
        },
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:17:06Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "DescribeStream",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "streamName": "GoodStream"
            },
            "responseElements": null,
            "requestID": "f0944d86-c757-11e3-b4ae-25654b1d3136",
            "eventID": "0b2f1396-88af-4561-b16f-398f8eaea596"
        },
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:15:02Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "ListStreams",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "limit": 10
            },
            "responseElements": null,
            "requestID": "a68541ca-c757-11e3-901b-cbcfe5b3677a",
            "eventID": "22a5fb8f-4e61-4bee-a8ad-3b72046b4c4d"
        },
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:17:07Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "DeleteStream",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "streamName": "GoodStream"
            },
            "responseElements": null,
            "requestID": "f10cd97c-c757-11e3-901b-cbcfe5b3677a",
            "eventID": "607e7217-311a-4a08-a904-ec02944596dd"
        },
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:15:03Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "SplitShard",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "shardToSplit": "shardId-000000000000",
                "streamName": "GoodStream",
                "newStartingHashKey": "11111111"
            },
            "responseElements": null,
            "requestID": "a6e6e9cd-c757-11e3-901b-cbcfe5b3677a",
            "eventID": "dcd2126f-c8d2-4186-b32a-192dd48d7e33"
        },
        {
            "eventVersion": "1.01",
            "userIdentity": {
                "type": "IAMUser",
                "principalId": "EX_PRINCIPAL_ID",
                "arn": "arn:aws:iam::012345678910:user/Alice",
                "accountId": "012345678910",
                "accessKeyId": "EXAMPLE_KEY_ID",
                "userName": "Alice"
            },
            "eventTime": "2014-04-19T00:16:56Z",
            "eventSource": "kinesis.amazonaws.com",
            "eventName": "MergeShards",
            "awsRegion": "us-east-1",
            "sourceIPAddress": "127.0.0.1",
            "userAgent": "aws-sdk-java/unknown-version Linux/x.xx",
            "requestParameters": {
                "streamName": "GoodStream",
                "adjacentShardToMerge": "shardId-000000000002",
                "shardToMerge": "shardId-000000000001"
            },
            "responseElements": null,
            "requestID": "e9f9c8eb-c757-11e3-bf1d-6948db3cd570",
            "eventID": "77cf0d06-ce90-42da-9576-71986fec411f"
        }
    ]
}
```

# Monitora la libreria client Kinesis con Amazon CloudWatch
<a name="monitoring-with-kcl"></a>

La [Kinesis Client Library](https://docs.aws.amazon.com/kinesis/latest/dev/developing-consumers-with-kcl.html) (KCL) per Amazon Kinesis Data Streams pubblica metriche CloudWatch Amazon personalizzate per tuo conto, utilizzando il nome dell'applicazione KCL come spazio dei nomi. [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/) Per ulteriori informazioni sui parametri personalizzati, consulta [Publish Custom Metrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/publishingMetrics.html) nella *Amazon CloudWatch User Guide*.

È previsto un costo nominale per le metriche caricate CloudWatch da KCL; in particolare, si applicano le tariffe di *Amazon CloudWatch Custom Metrics* e * CloudWatch Amazon API* Requests. Per ulteriori informazioni, consulta la pagina [ CloudWatch dei prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/).

**Topics**
+ [

## Metriche e namespace
](#metrics-namespace)
+ [

## Livelli e dimensioni metriche
](#metric-levels)
+ [

## Configurazione metrica
](#metrics-config)
+ [

## Elenco delle metriche
](#kcl-metrics-list)

## Metriche e namespace
<a name="metrics-namespace"></a>

Lo spazio dei nomi utilizzato per caricare i parametri è il nome dell'applicazione che è necessario specificare quando si lancia la KCL.

## Livelli e dimensioni metriche
<a name="metric-levels"></a>

Sono disponibili due opzioni per controllare quali parametri vengono caricati su CloudWatch:

Livelli di parametri  
A ogni parametro viene assegnato un livello individuale. Quando imposti un livello di reporting delle metriche, le metriche con un livello individuale inferiore al livello di reporting non vengono inviate a. CloudWatch I livelli sono: `NONE`, `SUMMARY` e `DETAILED`. L'impostazione predefinita è, `DETAILED` ovvero, tutte le metriche vengono inviate a. CloudWatch Un livello di reporting di `NONE` significa che nessun parametro viene inviato. Per informazioni su quali livelli sono assegnati a quali parametri, consulta [Elenco delle metriche](#kcl-metrics-list).

Dimensioni abilitate  
A ogni metrica KCL sono associate dimensioni che vengono inviate anche a. CloudWatch In KCL 2.x, se KCL è configurato per elaborare un singolo flusso di dati, tutte le dimensioni dei parametri (`Operation`, `ShardId` e `WorkerIdentifier`) sono abilitate per impostazione predefinita. Inoltre, in KCL 2.x, se KCL è configurato per elaborare un singolo flusso di dati, la dimensione `Operation` non può essere disabilitata. In KCL 2.x, se KCL è configurato per elaborare più flussi di dati, tutte le dimensioni delle metriche (`Operation`,, e) sono abilitate per impostazione `ShardId` predefinita`StreamId`. `WorkerIdentifier` Inoltre, in KCL 2.x, se KCL è configurato per elaborare più flussi di dati, le dimensioni e non possono essere disabilitate. `Operation` `StreamId` `StreamId`la dimensione è disponibile solo per le metriche per-shard.  
 In KCL 1.x, solo le dimensioni `Operation` e `ShardId` sono abilitate per impostazione predefinita, mentre la dimensione `WorkerIdentifier` è disabilitata. In KCL 1.x, la dimensione `Operation` non può essere disabilitata.  
Per ulteriori informazioni sulle dimensioni CloudWatch metriche, consulta la sezione [Dimensioni](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/cloudwatch_concepts.html#Dimension) nell'argomento Amazon CloudWatch Concepts, nella *Amazon CloudWatch User Guide*.  
Quando la `WorkerIdentifier` dimensione è abilitata, se viene utilizzato un valore diverso per la proprietà dell'ID del lavoratore ogni volta che un determinato lavoratore KCL si riavvia, vengono inviati nuovi set di metriche con nuovi valori di `WorkerIdentifier` dimensione. CloudWatch Se necessiti che il valore della dimensione `WorkerIdentifier` sia lo stesso ogni volta che viene riavviato un determinato worker KCL, devi specificare esplicitamente lo stesso valore di ID worker durante l'inizializzazione per ogni worker. Si noti che il valore di ID worker per ogni worker attivo della KCL deve essere univoco per tutti i worker KCL.

## Configurazione metrica
<a name="metrics-config"></a>

I livelli metrici e le dimensioni abilitate possono essere configurati utilizzando l' KinesisClientLibConfiguration istanza, che viene passata a Worker all'avvio dell'applicazione KCL. Nel MultiLangDaemon caso, è possibile specificare `metricsEnabledDimensions` le proprietà `metricsLevel` and nel file .properties utilizzato per avviare l'applicazione KCL. MultiLangDaemon 

Ai livelli di parametri può essere assegnato uno dei tre valori seguenti: NONE, SUMMARY o DETAILED. I valori delle dimensioni abilitati devono essere stringhe separate da virgole con l'elenco delle dimensioni consentite per le metriche. CloudWatch Le dimensioni utilizzate dall'applicazione KCL sono `Operation`, `ShardId` e `WorkerIdentifier`.

## Elenco delle metriche
<a name="kcl-metrics-list"></a>

Le seguenti tabelle riportano i parametri della KCL raggruppati in base all'ambito e all'operazione.

**Topics**
+ [

### Per-KCL-application metriche
](#kcl-metrics-per-app)
+ [

### Metriche per lavoratore
](#kcl-metrics-per-worker)
+ [

### Metriche per shard
](#kcl-metrics-per-shard)

### Per-KCL-application metriche
<a name="kcl-metrics-per-app"></a>

Queste metriche sono aggregate tra tutti i lavoratori KCL nell'ambito dell'applicazione, come definito dallo spazio dei nomi Amazon. CloudWatch 

**Topics**
+ [

#### LeaseAssignmentManager
](#lease-assignment-manager)
+ [

#### InitializeTask
](#init-task)
+ [

#### ShutdownTask
](#shutdown-task)
+ [

#### ShardSyncTask
](#shard-sync-task)
+ [

#### BlockOnParentTask
](#block-parent-task)
+ [

#### PeriodicShardSyncManager
](#periodic-task)
+ [

#### MultistreamTracker
](#multi-task)

#### LeaseAssignmentManager
<a name="lease-assignment-manager"></a>

L'`LeaseAssignmentManager`operazione è responsabile dell'assegnazione dei contratti di locazione ai lavoratori e del riequilibrio dei contratti di locazione tra i lavoratori per ottenere un utilizzo uniforme delle risorse dei lavoratori. La logica di questa operazione include la lettura dei metadati relativi al leasing dalla tabella dei leasing e delle metriche dalla tabella delle metriche dei lavoratori e l'esecuzione delle assegnazioni del leasing.


| Metrica | Description | 
| --- | --- | 
|  LeaseAndWorkerMetricsLoad.Ora  |  Tempo impiegato per caricare tutti i leasing e le metriche dei lavoratori nel Lease Assignment Manager (LAM), il nuovo algoritmo di assegnazione del leasing e di bilanciamento del carico introdotto in KCL 3.x. Livello parametro: Detailed Unità: millisecondi  | 
| TotalLeases |  Numero totale di leasing per l'attuale applicazione KCL. Livello parametro: Summary Unità: numero  | 
| NumWorkers |  Numero totale di lavoratori nell'attuale applicazione KCL. Livello parametro: Summary Unità: numero  | 
|  AssignExpiredOrUnassignedLeases.Ora  |  Tempo necessario per eseguire l'assegnazione in memoria dei leasing scaduti. Livello parametro: Detailed Unità: millisecondi  | 
| LeaseSpillover |  Numero di leasing che non sono stati assegnati perché è stato raggiunto il limite del numero massimo di leasing o della produttività massima per lavoratore. Livello parametro: Summary Unità: numero  | 
|  BalanceWorkerVariance.Ora  |  È ora di eseguire il bilanciamento in memoria dei contratti di locazione tra i lavoratori. Livello parametro: Detailed Unità: millisecondi  | 
|  NumOfLeasesReassignment  |  Numero totale di riassegnazioni di leasing effettuate nell'attuale iterazione di riassegnazione. Livello parametro: Summary Unità: numero  | 
|  FailedAssignmentCount  |  Numero di errori nelle AssignLease chiamate alla tabella di lease di DynamoDB.  Livello parametro: Detailed Unità: numero  | 
|  ParallelyAssignLeases.Ora  |  È ora di inserire nuove assegnazioni nella tabella di lease di DynamoDB. Livello parametro: Detailed Unità: millisecondi  | 
|  ParallelyAssignLeases.Successo  |  Numero di nuovi incarichi completati con successo. Livello parametro: Detailed Unità: numero  | 
|  TotalStaleWorkerMetricsEntry  |  Numero totale di voci delle metriche dei lavoratori che devono essere ripulite. Livello parametro: Detailed Unità: numero  | 
| StaleWorkerMetricsCleanup.Ora |  È ora di eseguire l'eliminazione delle voci delle metriche dei lavoratori dalla tabella delle metriche dei lavoratori DynamoDB. Livello parametro: Detailed Unità: millisecondi  | 
| Orario |  Tempo impiegato dall'operazione. `LeaseAssignmentManager` Livello parametro: Summary Unità: millisecondi  | 
| Completato |  Numero di volte in cui l'operazione `LeaseAssignmentManager` viene completata correttamente. Livello parametro: Summary Unità: numero  | 
| ForceLeaderRelease |  Indica che il responsabile dell'assegnazione del leasing ha fallito per 3 volte consecutive e che il lavoratore dirigente sta rilasciando la leadership. Livello parametro: Summary Unità: numero  | 
|  NumWorkersWithInvalidEntry  |  Numero di voci relative alle metriche dei lavoratori considerate non valide.  Livello parametro: Summary Unità: numero  | 
|  NumWorkersWithFailingWorkerMetric  |  Numero di voci delle metriche dei lavoratori che hanno -1 (che rappresenta il valore della metrica del lavoratore non è disponibile) come valore per le metriche dei lavoratori. Livello parametro: Summary Unità: numero  | 
|  LeaseDeserializationFailureCount  |  Voce di leasing dalla tabella dei leasing che non è stata deserializzata. Livello parametro: Summary Unità: numero  | 

#### InitializeTask
<a name="init-task"></a>

L'operazione `InitializeTask` è responsabile dell'inizializzazione del processore di record per l'applicazione KCL. La logica per questa operazione include l'acquisizione di un iteratore di partizione da Flussi di dati Kinesis e l'inizializzazione del processore di record.


| Metrica | Description | 
| --- | --- | 
| KinesisDataFetcher.getIterator.Successo |  Numero di operazioni `GetShardIterator` riuscite per applicazione KCL.  Livello parametro: Detailed Unità: numero  | 
| KinesisDataFetcher.getIterator.Time |  Tempo impiegato per l'operazione `GetShardIterator` per l'applicazione KCL in questione. Livello parametro: Detailed Unità: millisecondi  | 
| RecordProcessor.inizializza. Ora |  Tempo impiegato dal metodo di inizializzazione del processore di record. Livello parametro: Summary Unità: millisecondi  | 
| Completato |  Numero di inizializzazioni corrette del processore di record.  Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato dal worker KCL per l'inizializzazione del processore di record. Livello parametro: Summary Unità: millisecondi  | 

#### ShutdownTask
<a name="shutdown-task"></a>

L'operazione `ShutdownTask` avvia la sequenza di arresto per l'elaborazione di shard. Questa situazione può verificarsi perché uno shard viene frazionato o fuso, oppure quando il lease dello shard viene perso dal lavoratore. In entrambi i casi, viene invocata la funzione `shutdown()` del processore di record. Nuovi shard vengono individuati anche nel caso in cui uno shard sia stato frazionato o fuso; ciò comporta la creazione di uno o due nuovi shard.


| Metrica | Description | 
| --- | --- | 
| CreateLease.Successo |  Numero di volte in cui le nuove partizioni secondarie vengono aggiunte correttamente nella tabella DynamoDB dell'applicazione KCL dopo l'arresto della partizione principale. Livello parametro: Detailed Unità: numero  | 
| CreateLease.Ora |  Tempo impiegato per l'aggiunta delle informazioni relative alla nuova partizione secondaria nella tabella DynamoDB dell'applicazione KCL. Livello parametro: Detailed Unità: millisecondi  | 
| UpdateLease.Successo |  Numero di checkpoint finali corretti durante l'arresto del processore di record. Livello parametro: Detailed Unità: numero  | 
| UpdateLease.Ora |  Tempo impiegato dall'operazione di checkpoint durante l'arresto del processore di record. Livello parametro: Detailed Unità: millisecondi  | 
| RecordProcessor.Spegnimento. Ora |  Tempo impiegato dal metodo di arresto del processore di record. Livello parametro: Summary Unità: millisecondi  | 
| Completato |  Numero di attività di arresto corrette. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato dal worker KCL per l'attività di arresto. Livello parametro: Summary Unità: millisecondi  | 

#### ShardSyncTask
<a name="shard-sync-task"></a>

L'operazione `ShardSyncTask` rileva le modifiche alle informazioni relative alla partizione per il flusso di dati Kinesis, pertanto le nuove partizioni possono essere elaborate dall'applicazione KCL.


| Metrica | Description | 
| --- | --- | 
| CreateLease.Successo |  Numero di tentativi riusciti di aggiunta di nuove informazioni relative alla partizione nella tabella DynamoDB dell'applicazione KCL. Livello parametro: Detailed Unità: numero  | 
| CreateLease.Ora |  Tempo impiegato per l'aggiunta delle informazioni relative alla nuova partizione nella tabella DynamoDB dell'applicazione KCL. Livello parametro: Detailed Unità: millisecondi  | 
| Completato |  Numero di operazioni di sincronizzazione dello shard corrette. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato per l'operazione di sincronizzazione dello shard. Livello parametro: Summary Unità: millisecondi  | 

#### BlockOnParentTask
<a name="block-parent-task"></a>

Se lo shard viene frazionato o fuso con altri shard, vengono creati nuovi shard secondari. L'operazione `BlockOnParentTask` garantisce che l'elaborazione dei record per le nuove partizioni non inizi fino a quando le partizioni principali non siano state completamente elaborate dalla KCL.


| Metrica | Description | 
| --- | --- | 
| Completato |  Numero di controlli corretti per il completamento dello shard principale. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato per il completamento degli shard principali. Livello parametro: Summary Unità: millisecondi  | 

#### PeriodicShardSyncManager
<a name="periodic-task"></a>

`PeriodicShardSyncManager` è responsabile dell'esame dei flussi di dati elaborati dall'applicazione consumer KCL, dell'identificazione dei flussi di dati con leasing parziali e della loro trasmissione per la sincronizzazione.

Le seguenti metriche sono disponibili quando KCL è configurato per elaborare un singolo flusso di dati (quindi il valore di NumStreamsToSync e NumStreamsWithPartialLeases è impostato su 1) e anche quando KCL è configurato per elaborare più flussi di dati.


| Metrica | Description | 
| --- | --- | 
| NumStreamsToSync |  Il numero di flussi di dati (per AWS account) elaborati dall'applicazione consumer che contiene contratti di locazione parziali e che devono essere trasferiti per la sincronizzazione.  Livello parametro: Summary Unità: numero  | 
| NumStreamsWithPartialLeases |  Il numero di flussi di dati (per AWS account) che l'applicazione consumer sta elaborando e che contengono leasing parziali.  Livello parametro: Summary Unità: numero  | 
| Completato |  Il numero di volte in cui `PeriodicShardSyncManager` è riuscito a identificare con successo i lease parziali nei flussi di dati elaborati dall'applicazione consumer.  Livello parametro: Summary Unità: numero  | 
| Orario |  La quantità di tempo (in millisecondi) `PeriodicShardSyncManager` necessaria per esaminare i flussi di dati elaborati dall'applicazione consumer, al fine di determinare quali flussi di dati richiedono la sincronizzazione degli shard.  Livello parametro: Summary Unità: millisecondi  | 

#### MultistreamTracker
<a name="multi-task"></a>

L'interfaccia `MultistreamTracker` consente di creare applicazioni consumer KCL in grado di elaborare più flussi di dati contemporaneamente.


| Metrica | Description | 
| --- | --- | 
| DeletedStreams.Conta |  Il numero di flussi di dati eliminati in questo periodo di tempo. Livello parametro: Summary Unità: numero  | 
| ActiveStreams.Conta |  Il numero di flussi di dati attivi in fase di elaborazione. Livello parametro: Summary Unità: numero  | 
| StreamsPendingDeletion.Conta |  Il numero di flussi di dati in attesa di eliminazione in base a `FormerStreamsLeasesDeletionStrategy`.  Livello parametro: Summary Unità: numero  | 

### Metriche per lavoratore
<a name="kcl-metrics-per-worker"></a>

Questi parametri vengono aggregati in tutti i processori di record che consumano dati da un flusso di dati Kinesis, come ad esempio, un'istanza Amazon EC2.

**Topics**
+ [

#### WorkerMetricStatsReporter
](#worker-metrics-stats)
+ [

#### LeaseDiscovery
](#lease-discovery)
+ [

#### RenewAllLeases
](#renew-leases)
+ [

#### TakeLeases
](#take-leases)

#### WorkerMetricStatsReporter
<a name="worker-metrics-stats"></a>

L'`WorkerMetricStatReporter`operazione è responsabile della pubblicazione periodica delle metriche del lavoratore corrente nella tabella delle metriche del lavoratore. Queste metriche vengono utilizzate dall'`LeaseAssignmentManager`operazione per eseguire assegnazioni di leasing.


| Metrica | Description | 
| --- | --- | 
|  InMemoryMetricStatsReporterFailure  |  Numero di errori nell'acquisizione del valore della metrica del lavoratore in memoria, a causa del fallimento di alcune metriche del lavoratore. Livello parametro: Summary Unità: numero  | 
|  WorkerMetricStatsReporter.Ora  |  Tempo impiegato dall'`WorkerMetricsStats`operazione. Livello parametro: Summary Unità: millisecondi  | 
|  WorkerMetricStatsReporter.Successo  |  Numero di volte in cui l'operazione `WorkerMetricsStats` viene completata correttamente. Livello parametro: Summary Unità: numero  | 

#### LeaseDiscovery
<a name="lease-discovery"></a>

L'`LeaseDiscovery`operazione è responsabile dell'identificazione dei nuovi contratti di locazione assegnati all'attuale lavoratore dall'`LeaseAssignmentManager`operazione. La logica di questa operazione prevede l'identificazione dei leasing assegnati al lavoratore corrente mediante la lettura dell'indice secondario globale della tabella dei leasing.


| Metrica | Description | 
| --- | --- | 
|  ListLeaseKeysForWorker.Ora  |  È ora di richiamare l'indice secondario globale nella tabella delle locazioni e ottenere le chiavi di locazione assegnate al lavoratore corrente. Livello parametro: Detailed Unità: millisecondi  | 
|  FetchNewLeases.Ora  |  È ora di recuperare tutti i nuovi leasing dalla tabella dei leasing.  Livello parametro: Detailed Unità: millisecondi  | 
|  NewLeasesDiscovered  |  Numero totale di nuovi contratti di locazione assegnati ai lavoratori. Livello parametro: Detailed Unità: numero  | 
|  Orario  |  Tempo impiegato dall'`LeaseDiscovery`operazione. Livello parametro: Summary Unità: millisecondi  | 
|  Completato  |  Numero di volte in cui l'operazione `LeaseDiscovery` viene completata correttamente. Livello parametro: Summary Unità: numero  | 
|  OwnerMismatch  |  Numero di mancate corrispondenze tra il proprietario e la risposta del GSI e la lettura coerente della tabella di leasing. Livello parametro: Detailed Unità: numero  | 

#### RenewAllLeases
<a name="renew-leases"></a>

L'operazione `RenewAllLeases` rinnova periodicamente i lease di shard di proprietà di una determinata istanza di lavoratore. 


| Metrica | Description | 
| --- | --- | 
| RenewLease.Successo |  Numero di rinnovi corretti di lease da parte del lavoratore. Livello parametro: Detailed Unità: numero  | 
| RenewLease.Ora |  Tempo impiegato dall'operazione di rinnovo del lease. Livello parametro: Detailed Unità: millisecondi  | 
| CurrentLeases |  Numero di lease di shard di proprietà del lavoratore dopo il rinnovo di tutti i lease. Livello parametro: Summary Unità: numero  | 
| LostLeases |  Numero di lease di shard perduti a seguito di un tentativo di rinnovo di tutti i lease di proprietà del lavoratore. Livello parametro: Summary Unità: numero  | 
| Completato |  Numero di volte in cui l'operazione di rinnovo del contratto di locazione ha avuto successo per il lavoratore. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato per rinnovare tutti i lease per il lavoratore. Livello parametro: Summary Unità: millisecondi  | 

#### TakeLeases
<a name="take-leases"></a>

L'operazione `TakeLeases` bilancia l'elaborazione di record tra tutti i worker KCL. Se il worker KCL corrente ha un numero di lease di partizione inferiore rispetto al necessario, utilizza i lease di partizione di un altro worker che è sovraccarico.


| Metrica | Description | 
| --- | --- | 
| ListLeases.Successo |  Numero di volte in cui tutti i lease di partizione sono stati recuperati correttamente dalla tabella DynamoDB dell'applicazione KCL. Livello parametro: Detailed Unità: numero  | 
| ListLeases.Ora |  Tempo impiegato per recuperare tutti i lease di partizione dalla tabella DynamoDB dell'applicazione KCL. Livello parametro: Detailed Unità: millisecondi  | 
| TakeLease.Successo |  Numero di volte in cui il worker ha utilizzato correttamente lease di partizione di altri worker KCL. Livello parametro: Detailed Unità: numero  | 
| TakeLease.Ora |  Tempo impiegato per aggiornare la tabella di lease con i lease di altri lavoratori utilizzati dal lavoratore. Livello parametro: Detailed Unità: millisecondi  | 
| NumWorkers |  Numero totale di lavoratori, come identificato da un determinato lavoratore. Livello parametro: Summary Unità: numero  | 
| NeededLeases |  Numero di lease di shard che l'attuale lavoratore necessita per un carico equilibrato di elaborazione di shard. Livello parametro: Detailed Unità: numero  | 
| LeasesToTake |  Numero di lease di altri lavoratori che il lavoratore cercherà di utilizzare. Livello parametro: Detailed Unità: numero  | 
| TakenLeases |  Numero di lease di altri lavoratori utilizzati correttamente dal lavoratore. Livello parametro: Summary Unità: numero   | 
| TotalLeases |  Numero totale di partizioni che l'applicazione KCL sta elaborando. Livello parametro: Detailed Unità: numero  | 
| ExpiredLeases |  Numero totale di shard che non vengono elaborati da nessun lavoratore, come identificato dal lavoratore specifico. Livello parametro: Summary Unità: numero  | 
| Completato |  Numero di volte in cui l'operazione `TakeLeases` viene completata correttamente. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato dall'operazione `TakeLeases` per un lavoratore. Livello parametro: Summary Unità: millisecondi  | 

### Metriche per shard
<a name="kcl-metrics-per-shard"></a>

Questi parametri si aggregano in un singolo processore di record.

#### ProcessTask
<a name="process-task"></a>

L'operazione `ProcessTask` chiama [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html) con la posizione attuale dell'iteratore per recuperare record dal flusso e richiama la funzione `processRecords` del processore di record.


| Metrica | Description | 
| --- | --- | 
| KinesisDataFetcher.getRecords.Success |  Numero di operazioni `GetRecords` riuscite per partizione del flusso di dati Kinesis.  Livello parametro: Detailed Unità: numero  | 
| KinesisDataFetcher.getRecords.Time |  Tempo impiegato per l'operazione `GetRecords` per la partizione del flusso di dati Kinesis Livello parametro: Detailed Unità: millisecondi  | 
| UpdateLease.Successo |  Numero di checkpoint corretti eseguiti dal processore di record per un determinato shard. Livello parametro: Detailed Unità: numero  | 
| UpdateLease.Ora |  Tempo impiegato per ogni operazione di checkpoint per un determinato shard. Livello parametro: Detailed Unità: millisecondi  | 
| DataBytesProcessed |  Dimensione totale dei record elaborati in byte in ogni invocazione di `ProcessTask`. Livello parametro: Summary Unità: byte  | 
| RecordsProcessed |  Numero di record elaborati in ogni invocazione di `ProcessTask`. Livello parametro: Summary Unità: numero  | 
| ExpiredIterator |  Numero di messaggi ExpiredIteratorException ricevuti durante la chiamata`GetRecords`. Livello parametro: Summary Unità: numero  | 
| MillisBehindLatest | Ritardo dell'attuale iteratore rispetto all'ultimo record (estremità) nello shard. Questo valore è inferiore o pari alla differenza temporale tra l'ultimo record in una risposta e l'orario attuale. Si tratta di un indicatore più accurato della distanza di un frammento dalla punta rispetto al confronto dei timestamp del record dell'ultima risposta. Questo valore si applica all'ultimo gruppo di record, non alla media di tutti i timestamp di ogni record.Livello parametro: SummaryUnità: millisecondi | 
| RecordProcessor.processRecords.time |  Tempo impiegato dal metodo `processRecords` del processore di record. Livello parametro: Summary Unità: millisecondi  | 
| Completato |  Numero di operazioni di attività di processo corrette. Livello parametro: Summary Unità: numero  | 
| Orario |  Tempo impiegato per l'operazione di attività di processo. Livello parametro: Summary Unità: millisecondi  | 

# Monitora la libreria Kinesis Producer con Amazon CloudWatch
<a name="monitoring-with-kpl"></a>

[Amazon Kinesis Producer Library](https://docs.aws.amazon.com/kinesis/latest/dev/developing-producers-with-kpl.html) (KPL) per Amazon Kinesis Data Streams pubblica metriche Amazon personalizzate per tuo conto. CloudWatch [https://console.aws.amazon.com/cloudwatch/](https://console.aws.amazon.com/cloudwatch/) Per ulteriori informazioni sui parametri personalizzati, consulta [Publish Custom Metrics](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/publishingMetrics.html) nella *Amazon CloudWatch User Guide*.

È previsto un costo nominale per i parametri caricati CloudWatch dal KPL; in particolare, si applicano i costi di Amazon CloudWatch Custom Metrics e CloudWatch Amazon API Requests. Per ulteriori informazioni, consulta la pagina [ CloudWatch dei prezzi di Amazon](https://aws.amazon.com/cloudwatch/pricing/). Per la raccolta di parametri locali non verrà addebitato alcun costo di CloudWatch.

**Topics**
+ [

## Metriche, dimensioni e namespace
](#kpl-metrics)
+ [

## Livello metrico e granularità
](#kpl-metrics-granularity)
+ [

## Accesso locale e CloudWatch caricamento su Amazon
](#kpl-metrics-local-upload)
+ [

## Elenco delle metriche
](#kpl-metrics-list)

## Metriche, dimensioni e namespace
<a name="kpl-metrics"></a>

È possibile specificare un nome di applicazione al momento dell'avvio della KPL, che viene poi utilizzato come parte di uno spazio dei nomi durante il caricamento dei parametri. Si tratta di un'opzione facoltativa; se il nome di un'applicazione non è impostato la KPL fornisce un valore predefinito.

È anche possibile configurare la KPL per aggiungere dimensioni aggiuntive arbitrarie ai parametri. Ciò è utile se desideri dati più dettagliati nelle tue metriche. CloudWatch Ad esempio, è possibile aggiungere il nome host come una dimensione, che consente di identificare le distribuzioni di carico irregolari nel tuo parco. Tutte le impostazioni di configurazione della KPL sono immutabili, perciò non è possibile modificare queste dimensioni aggiuntive dopo l'inizializzazione dell'istanza KPL.

## Livello metrico e granularità
<a name="kpl-metrics-granularity"></a>

Sono disponibili due opzioni per controllare il numero di parametri caricati su CloudWatch:

*Livelli di parametri*  
Si tratta di una calibrazione approssimativa dell'importanza di un parametro. A ogni parametro viene assegnato un livello. Quando imposti un livello, le metriche con livelli inferiori a quello non vengono inviate a. CloudWatch I livelli sono `NONE`, `SUMMARY` e `DETAILED`. L'impostazione predefinita è `DETAILED`; cioè, tutti i parametri. `NONE` significa nessun parametro, per cui nessun parametro viene assegnato a quel livello.

*Granularità*  
Ciò consente di controllare se lo stesso parametro è emesso a ulteriori livelli di granularità. I livelli sono `GLOBAL`, `STREAM` e `SHARD`. L'impostazione predefinita è `SHARD`, che contiene la maggior parte dei parametri granulari.  
Quando `SHARD` viene scelto, i parametri vengono emessi con il nome di flusso e l'ID dello shard come dimensioni. Inoltre, lo stesso parametro è emesso anche con solo la dimensione del nome di flusso e il parametro senza il nome di flusso. Ciò significa che, per una particolare metrica, due stream con due shard ciascuno produrranno sette CloudWatch metriche: una per ogni shard, una per ogni stream e una complessiva; tutte che descrivono le stesse statistiche ma a diversi livelli di granularità. Per un'illustrazione, si veda il seguente diagramma.  
I livelli differenti di granularità formano una gerarchia e tutti i parametri nel sistema formano alberi radicati nei nomi parametri:  

```
MetricName (GLOBAL):           Metric X                    Metric Y
                                  |                           |
                           -----------------             ------------
                           |               |             |          |
StreamName (STREAM):    Stream A        Stream B      Stream A   Stream B
                           |               |
                        --------        ---------
                        |      |        |       |
ShardID (SHARD):     Shard 0 Shard 1  Shard 0 Shard 1
```
Non tutti i parametri sono disponibili a livello di shard; alcuni sono disponibili a livello di flusso o sono di natura globale. Questi parametri non vengono prodotti a livello di shard, anche se hai abilitato i parametri a livello di shard (`Metric Y` nel diagramma precedente).  
Quando si specifica una dimensione aggiuntiva, è necessario fornire valori per. `tuple:<DimensionName, DimensionValue, Granularity>` La granularità viene utilizzata per determinare dove viene inserita la dimensione personalizzata nella gerarchia: `GLOBAL` significa che la dimensione aggiuntiva viene inserita dopo il nome parametro, `STREAM` significa che viene inserita dopo il nome del flusso e `SHARD` significa che viene inserita dopo l'ID dello shard. Se sono indicate più dimensioni aggiuntive per livello di granularità, queste dimensioni sono inserite nell'ordine determinato.

## Accesso locale e CloudWatch caricamento su Amazon
<a name="kpl-metrics-local-upload"></a>

I parametri per l'istanza di KPL corrente sono disponibili in locale in tempo reale; puoi inviare una query alla KPL in qualsiasi momento per ottenerli. Il KPL calcola localmente la somma, la media, il minimo, il massimo e il conteggio di ogni metrica, ad esempio. CloudWatch

È possibile ottenere statistiche cumulative dall'inizio del programma fino al momento attuale o tramite una finestra continua per gli ultimi *N* secondi, dove *N* è un numero intero compreso tra 1 e 60.

Tutte le metriche possono essere caricate su. CloudWatch Ciò è particolarmente utile per aggregare i data tra più host, per il monitoraggio e per la creazione di allarmi. Questa funzionalità non è disponibile in locale.

Come descritto in precedenza, è possibile selezionare quali parametri caricare con le impostazioni di *livello di parametro* e *granularità*. I parametri che non vengono caricati sono disponibili in locale.

Il caricamento di singoli punti di dati è insostenibile in quando potrebbe produrre milioni di caricamenti al secondo, se il traffico è elevato. Per questo motivo, il KPL aggrega le metriche localmente in bucket da 1 minuto e carica un oggetto statistico una volta al minuto, per metrica CloudWatch abilitata.



## Elenco delle metriche
<a name="kpl-metrics-list"></a>


| Metrica | Description | 
| --- | --- | 
| UserRecordsReceived |  Conteggio del numero di record utenti logici ricevuti dal core KPL per operazioni put. Non disponibile a livello di shard. Livello parametro: Detailed  Unità: numero   | 
| UserRecordsPending |  Campione periodico del numero di record di utenti attualmente in sospeso. Un record è in sospeso se è attualmente memorizzato nel buffer e in attesa di essere inviato oppure inviato in elaborazione al servizio di backend. Non disponibile a livello di shard.  La KPL fornisce un metodo dedicato per recuperare questo parametro a livello globale e consentire ai clienti di gestire la loro velocità di put. Livello parametro: Detailed  Unità: numero   | 
| UserRecordsPut |  Conteggio del numero di record di utenti logici inseriti correttamente. La KPL restituisce zero per i record non riusciti. In questo modo, la media offre la percentuale dei record inseriti correttamente, il conteggio offre il numero totale di tentativi e la differenza tra il conteggio e la somma offre il conteggio dei record non inseriti correttamente. Livello parametro: Summary Unità: numero  | 
| UserRecordsDataPut |  Byte inseriti correttamente nei record di utenti logici. Livello parametro: Detailed  Unità: byte   | 
| KinesisRecordsPut |  Conteggio del numero di record del flusso di dati Kinesis inseriti correttamente (ogni record del flusso di dati Kinesis può contenere più record di utente).  La KPL restituisce zero per i record non riusciti. In questo modo, la media offre la percentuale dei record inseriti correttamente, il conteggio offre il numero totale di tentativi e la differenza tra il conteggio e la somma offre il conteggio dei record non inseriti correttamente. Livello parametro: Summary  Unità: numero   | 
| KinesisRecordsDataPut |  Byte nei record del flusso di dati Kinesis.  Livello parametro: Detailed  Unità: byte   | 
| ErrorsByCode |  Conteggio di ogni tipo di codice di errore. Ciò introduce un'ulteriore dimensione di `ErrorCode`, in aggiunta alle dimensioni normali come `StreamName` e `ShardId`. Non tutti gli errori possono essere rintracciati in uno shard. Gli errori che non possono essere rintracciati vengono emessi esclusivamente a livello di flusso o a livello globale. Questo parametro acquisisce informazioni su elementi come il throttling, le variazioni nella mappatura degli shard, gli errori interni, l'indisponibilità del servizio, i tempi di attesa e così via.  Gli errori dell'API del flusso di dati Kinesis vengono conteggiati una volta per ogni record del flusso di dati Kinesis. Più record utente all'interno di un record di Flussi di dati Kinesis non generano conteggi multipli. Livello parametro: Summary  Unità: numero   | 
| AllErrors |  Questo parametro viene attivato dagli stessi errori di **Errors by Code**, ma non distingue tra i tipi. È utile come monitoraggio generale della percentuale di errori, senza richiedere una somma manuale dei conteggi di tutti i diversi tipi di errori. Livello parametro: Summary  Unità: numero   | 
| RetriesPerRecord |  Numero di nuovi tentativi eseguiti per record di utente. Viene emesso uno zero per i record che risultano corretti in un solo tentativo. I dati vengono emessi nel momento in cui termina il record di un utente (se termina correttamente, non è possibile effettuare un nuovo tentativo). Se il valore record time-to-live è elevato, questa metrica potrebbe subire un notevole ritardo. Livello parametro: Detailed  Unità: numero   | 
| BufferingTime |  Il tempo tra l'arrivo di un record utente alla KPL e la sua uscita per il back-end. Queste informazioni sono nuovamente trasmesse all'utente per ogni record, ma sono disponibili anche sotto forma di statistica aggregata. Livello parametro: Summary  Unità: millisecondi   | 
| Request Time |  Tempo necessario per eseguire `PutRecordsRequests`. Livello parametro: Detailed  Unità: millisecondi   | 
| User Records per Kinesis Record |  Il numero di record utente logici aggregati in un singolo record di Flussi di dati Kinesis. Livello parametro: Detailed  Unità: numero   | 
| Amazon Kinesis Records per PutRecordsRequest |  Il numero di record del flusso di dati Kinesis aggregati in un singolo `PutRecordsRequest`. Non disponibile a livello di shard. Livello parametro: Detailed  Unità: numero   | 
| User Records per PutRecordsRequest |  Numero totale di record di utenti contenuti all'interno di una `PutRecordsRequest`. È approssimativamente equivalente al prodotto dei due parametri precedenti. Non disponibile a livello di shard. Livello parametro: Detailed  Unità: numero   | 