Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon Data Firehose memorizza nel buffer i dati di streaming in entrata fino a una certa dimensione e per un determinato periodo di tempo prima di consegnarli alle destinazioni specificate. È possibile configurare la dimensione e l'intervallo del buffer durante la creazione di nuovi flussi Firehose o aggiornare la dimensione e l'intervallo del buffer sui flussi Firehose esistenti. La dimensione del buffer viene misurata in e l'intervallo del buffer viene misurato in secondi. MBs
Nota
La funzionalità Zero Buffering non è disponibile per il partizionamento dinamico.
Quando il partizionamento dinamico è abilitato, Firehose memorizza internamente i record che appartengono a una determinata partizione in base al suggerimento di buffering configurato (dimensione e ora) prima di consegnare questi record al bucket Amazon S3. Per fornire oggetti di dimensioni massime, Firehose utilizza internamente un buffering multistadio. Pertanto, il end-to-end ritardo di un batch di record potrebbe essere 1,5 volte il tempo di suggerimento per il buffering configurato. Ciò influisce sulla freschezza dei dati di un flusso Firehose.
Il conteggio delle partizioni attive corrisponde al numero totale di partizioni attive all'interno del buffer di distribuzione. Ad esempio, se la query di partizionamento dinamico costruisce 3 partizioni al secondo e disponi di una configurazione di suggerimento per il buffering che attiva la distribuzione ogni 60 secondi, in media si avranno 180 partizioni attive. Se Firehose non è in grado di consegnare i dati in una partizione a una destinazione, questa partizione viene contata come attiva nel buffer di consegna fino a quando non può essere consegnata.
Una nuova partizione viene creata quando un prefisso S3 viene valutato con un nuovo valore in base ai campi di dati del record e alle espressioni del prefisso S3. Un nuovo buffer viene creato per ogni partizione attiva. Ogni record successivo con lo stesso prefisso S3 valutato viene inviato a quel buffer.
Una volta che il buffer raggiunge il limite di dimensione del buffer o l'intervallo di tempo del buffer, Firehose crea un oggetto con i dati del buffer e lo invia al prefisso Amazon S3 specificato. Dopo la consegna dell'oggetto, il buffer per quella partizione e la partizione stessa vengono eliminati e rimossi dal conteggio delle partizioni attive.
Firehose fornisce ogni dato del buffer come oggetto singolo una volta soddisfatte le dimensioni o l'intervallo del buffer per ciascuna partizione separatamente. Una volta che il numero di partizioni attive raggiunge il limite di 500 per flusso Firehose, il resto dei record del flusso Firehose viene inviato al prefisso del bucket di errore S3 specificato (). activePartitionExceeded Puoi utilizzare il modulo Amazon Data Firehose Limits