

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creare una EventBridge pipa Amazon
<a name="eb-pipes-create"></a>

EventBridge Pipes consente di creare point-to-point integrazioni tra sorgenti e destinazioni, comprese trasformazioni e arricchimenti avanzati degli eventi. 

Per creare una EventBridge pipe, effettuate le seguenti operazioni: 

1. [Specificare un'origine](#pipes-configure-source)

1. [Configurazione dei filtri di eventi (facoltativo)](#pipes-configure-filtering)

1. [Definizione dell'arricchimento degli eventi (facoltativo)](#pipes-define-enrichment)

1. [Configurazione di una destinazione](#pipes-configure-target)

1. [Configurazione delle impostazioni della pipe](#pipes-configure-pipe-settings)

Per configurare rapidamente una pipa di esempio, vedere[Guida introduttiva: crea una EventBridge pipa Amazon](pipes-get-started.md). In questo argomento viene utilizzata CloudFormation la distribuzione di una pipe e delle relative risorse associate e viene illustrata una panoramica delle funzionalità di una pipe.

*Per informazioni su come creare una pipe utilizzando la AWS CLI, consulta [create-pipe nel](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/pipes/create-pipe.html) CLI Command Reference.AWS *

## Specificare un'origine
<a name="pipes-configure-source"></a>

Per iniziare, specifica l'origine da cui la pipe deve ricevere eventi.

**Per specificare l''origine di una pipe utilizzando la console**

1. Apri la EventBridge console Amazon all'indirizzo [https://console.aws.amazon.com/events/](https://console.aws.amazon.com/events/).

1. Nel riquadro di navigazione, scegli **Pipe**.

1. Scegli **Crea pipe**.

1. Immetti un nome per la pipe.

1. (Facoltativo) Aggiungi una descrizione per la pipe.

1. Nella scheda **Costruisci pipe**, in **Origine**, scegli il tipo di origine da specificare per la pipe e configura l'origine.

   Le proprietà di configurazione differiscono in base al tipo di origine che scegli:

------
#### [ Confluent ]

**Per configurare uno stream Confluent Cloud come sorgente, utilizzando la console**

   1. Per **Source**, scegli **Confluent Cloud**.

   1. In **Server di bootstrap**, immetti gli indirizzi della coppia `host:port` dei tuoi broker.

   1. In **Nome dell'argomento**, immetti il nome dell'argomento che la pipe leggerà.

   1. (Facoltativo) In **VPC**, scegli il VPC da utilizzare. In **Sottoreti VPC**, scegli le sottoreti. In **Gruppi di sicurezza VPC**, scegli i gruppi di sicurezza.

   1. Per **l'autenticazione: facoltativo**, attiva **Usa autenticazione** ed esegui quanto segue:

      1. In **Metodo di autenticazione**, scegli il tipo di autenticazione.

      1. In **Chiave segreta**, scegli la chiave segreta.

      Per ulteriori informazioni, consulta [Authenticate to Confluent Cloud resources](https://docs.confluent.io/cloud/current/access-management/authenticate/overview.html) nella documentazione di Confluent.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Posizione di partenza**, scegli una delle seguenti opzioni:
         + **Più recente**: inizia a leggere il flusso con il record più recente nella partizione.
         + **Orizzonte di taglio**: inizia a leggere il flusso con l'ultimo record non tagliato nella partizione. Questo è il record meno recente nella partizione.

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 100.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

------
#### [ DynamoDB ]

   1. In **Origine**, scegli **Dynamo DB**.

   1. In **Flusso DynamoDB**, scegli il flusso da utilizzare come origine.

   1. In **Posizione di partenza**, scegli una delle seguenti opzioni:
      + **Più recente**: inizia a leggere il flusso con il record più recente nella partizione.
      + **Orizzonte di taglio**: inizia a leggere il flusso con l'ultimo record non tagliato nella partizione. Questo è il record meno recente nella partizione.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 10.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

      1. In **Batch simultanei per partizione (facoltativo)**, immetti il numero di batch della stessa partizione che possono essere letti contemporaneamente.

      1. In **In caso di errore parziale dell'articolo di un batch**, scegli quanto segue:
         + **AUTOMATIC\$1BISECT**: dimezza ogni batch e riprova ogni metà fino a quando tutti i record non risultano elaborati o rimane un messaggio di errore nel batch.
**Nota**  
Se non scegli **AUTOMATIC\$1BISECT**, è possibile che vengano restituiti specifici record non riusciti e solo per quelli viene effettuato un nuovo tentativo.

------
#### [ Kinesis ]

**Per configurare un'origine Kinesis utilizzando la console**

   1. In **Origine**, scegli **Kinesis**.

   1. In **Flusso Kinesis**, scegli il flusso da utilizzare come origine.

   1. In **Posizione di partenza**, scegli una delle seguenti opzioni:
      + **Più recente**: inizia a leggere il flusso con il record più recente nella partizione.
      + **Orizzonte di taglio**: inizia a leggere il flusso con l'ultimo record non tagliato nella partizione. Questo è il record meno recente nella partizione.
      + **Al timestamp**: inizia a leggere il flusso a partire dalla data specificata. In **Timestamp, inserisci una data e un'ora** utilizzando il formato hh:mm:ss. YYYY/MM/DD

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 10.

      1. (Facoltativo) In **Finestra batch (facoltativo)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

      1. In **Batch simultanei per partizione (facoltativo)**, immetti il numero di batch della stessa partizione che possono essere letti contemporaneamente.

      1. In **In caso di errore parziale dell'articolo di un batch**, scegli quanto segue:
         + **AUTOMATIC\$1BISECT**: dimezza ogni batch e riprova ogni metà fino a quando tutti i record non risultano elaborati o rimane un messaggio di errore nel batch.
**Nota**  
Se non scegli **AUTOMATIC\$1BISECT**, è possibile che vengano restituiti specifici record non riusciti e solo per quelli viene effettuato un nuovo tentativo.

------
#### [ Amazon MQ ]

**Per configurare un'origine Amazon MQ utilizzando la console**

   1. In **Origine**, scegli **Amazon MQ**.

   1. In **Broker Amazon MQ**, scegli il flusso da utilizzare come origine.

   1. In **Nome della coda**, immetti il nome della coda che la pipe leggerà.

   1. In **Metodo di autenticazione**, scegli **BASIC\$1AUTH**.

   1. In **Chiave segreta**, scegli la chiave segreta.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di messaggi per ogni batch. Il valore predefinito è 100.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

------
#### [ Amazon MSK ]

**Per configurare un'origine Amazon MSK utilizzando la console**

   1. In **Origine**, scegli **Amazon MSK**.

   1. In **Cluster Amazon MSK**, scegli il cluster da utilizzare.

   1. In **Nome dell'argomento**, immetti il nome dell'argomento che la pipe leggerà.

   1. (Facoltativo) In **ID del gruppo di consumatori (facoltativo)**, immetti l'ID del gruppo di consumer a cui la pipe deve aderire.

   1. (Facoltativo) In **Autenticazione (facoltativo)**, attiva **Usa l'autenticazione** ed esegui le seguenti operazioni:

      1. In **Metodo di autenticazione**, scegli il tipo che desideri.

      1. In **Chiave segreta**, scegli la chiave segreta.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 100.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

      1. In **Posizione di partenza**, scegli una delle seguenti opzioni:
         + **Più recente**: inizia a leggere l'argomento con il record più recente nella partizione.
         + **Orizzonte di taglio**: inizia a leggere l'argomento con l'ultimo record non tagliato nella partizione. Questo è il record meno recente nella partizione.
**Nota**  
**Orizzonte di taglio** è simile a **Meno recente** per Apache Kafka.

------
#### [ Self managed Apache Kafka ]

**Per configurare un'origine Apache Kafka autogestita utilizzando la console**

   1. In **Origine**, scegli **Apache Kafka autogestita**.

   1. In **Server di bootstrap**, immetti gli indirizzi della coppia `host:port` dei tuoi broker.

   1. In **Nome dell'argomento**, immetti il nome dell'argomento che la pipe leggerà.

   1. (Facoltativo) In **VPC**, scegli il VPC da utilizzare. In **Sottoreti VPC**, scegli le sottoreti. In **Gruppi di sicurezza VPC**, scegli i gruppi di sicurezza.

   1. (Facoltativo) In **Autenticazione (facoltativo)**, attiva **Usa l'autenticazione** ed esegui le seguenti operazioni:

      1. In **Metodo di autenticazione**, scegli il tipo di autenticazione.

      1. In **Chiave segreta**, scegli la chiave segreta.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Posizione di partenza**, scegli una delle seguenti opzioni:
         + **Più recente**: inizia a leggere il flusso con il record più recente nella partizione.
         + **Orizzonte di taglio**: inizia a leggere il flusso con l'ultimo record non tagliato nella partizione. Questo è il record meno recente nella partizione.

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 100.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

------
#### [ Amazon SQS ]

**Per configurare un'origine Amazon SQS utilizzando la console**

   1. In **Origine**, scegli **SQS**.

   1. In **coda SQS**, scegli la coda da utilizzare.

   1. (Facoltativo) In **Impostazioni aggiuntive (facoltativo)**, procedi come segue:

      1. In **Dimensione del batch (facoltativo)**, immetti un numero massimo di record per ogni batch. Il valore predefinito è 100.

      1. In **Finestra batch (facoltativa)**, immetti un numero massimo di secondi per raccogliere i record prima di procedere.

------

## Configurazione dei filtri di eventi (facoltativo)
<a name="pipes-configure-filtering"></a>

Puoi aggiungere filtri alla tua pipe in modo da inviare solo un sottoinsieme di eventi dall'origine alla destinazione.

**Per configurare i filtri utilizzando la console**

1. Scegli **Filtro**.

1. In **Evento di esempio (facoltativo)**, vedrai un evento di esempio che puoi usare per creare il tuo modello di eventi, oppure puoi immettere il tuo evento scegliendo **Inserisci il mio**.

1. In **Modello di eventi**, immetti il modello di eventi da utilizzare per filtrare gli eventi. Per ulteriori informazioni sulla creazione di filtri, consulta. [Filtraggio degli eventi in Amazon EventBridge Pipes](eb-pipes-event-filtering.md)

   Di seguito è riportato un esempio di modello di eventi che invia solo eventi con il valore **Seattle** nel campo **City**.

   ```
   {
     "data": {
       "City": ["Seattle"]
     }
   }
   ```

Ora che gli eventi vengono filtrati, puoi aggiungere un arricchimento facoltativo e un destinazione per la pipe.

## Definizione dell'arricchimento degli eventi (facoltativo)
<a name="pipes-define-enrichment"></a>

Puoi inviare i dati dell'evento per l'arricchimento a una funzione Lambda, una macchina a stati AWS Step Functions , Amazon API Gateway o una destinazione API.

**Per selezionare l'arricchimento**

1. Scegli **Arricchimento**.

1. In **Dettagli**, per **Servizio**, seleziona il servizio e le relative impostazioni da utilizzare per l'arricchimento.

Puoi anche trasformare i dati prima di inviarli per migliorarli.

**(Facoltativo) Per definire il trasformatore di input**

1. Scegli **Trasformatore di input di arricchimento (facoltativo)**.

1. Per **Sample events/Event Payload**, scegli il tipo di evento di esempio.

1. In **Trasformatore**, immetti la sintassi del trasformatore, ad esempio `"Event happened at <$.detail.field>."` dove `<$.detail.field>` è un riferimento a un campo dell'evento di esempio. Puoi anche fare doppio clic su un campo dell'evento di esempio per aggiungerlo al trasformatore.

1. In **Output**, verifica che l'output sia come desiderato.

Ora che i dati sono stati filtrati e migliorati, devi definire una destinazione a cui inviare i dati dell'evento.

## Configurazione di una destinazione
<a name="pipes-configure-target"></a>

**Per configurare una destinazione**

1. Scegli **Destinazione**.

1. In **Dettagli**, per **Servizio di destinazione**, scegli la destinazione. I campi visualizzati variano a seconda della destinazione scelta. Immetti informazioni specifiche per questo tipo di destinazione, come necessario.

Puoi anche trasformare i dati prima di inviarli alla destinazione.

**(Facoltativo) Per definire il trasformatore di input**

1. Scegli **Trasformatore di input di destinazione (facoltativo)**.

1. Per **Sample events/Event Payload**, scegli il tipo di evento di esempio.

1. In **Trasformatore**, immetti la sintassi del trasformatore, ad esempio `"Event happened at <$.detail.field>."` dove `<$.detail.field>` è un riferimento a un campo dell'evento di esempio. Puoi anche fare doppio clic su un campo dell'evento di esempio per aggiungerlo al trasformatore.

1. In **Output**, verifica che l'output sia come desiderato.

Ora che la pipe è configurata, assicurati che le relative impostazioni siano configurate correttamente.

## Configurazione delle impostazioni della pipe
<a name="pipes-configure-pipe-settings"></a>

Una pipe è attiva per impostazione predefinita, ma è possibile disattivarla. È inoltre possibile specificare le autorizzazioni per le pipe, impostare la registrazione di log delle pipe e aggiungere tag.

**Per configurare le impostazioni della pipe**

1. Scegli la scheda **Impostazioni delle pipe**.

1. Per impostazione predefinita, le pipe appena create sono attive non appena vengono create. Se desideri creare una pipe inattiva, in **Attivazione**, per **Attiva pipe**, disattiva **Attivo**.

1. In **Autorizzazioni**, per **Ruolo di esecuzione**, effettua una delle seguenti operazioni:

   1. Per EventBridge creare un nuovo ruolo di esecuzione per questa pipe, scegli **Crea un nuovo ruolo per questa risorsa specifica**. In **Nome ruolo**, puoi eventualmente modificare il nome del ruolo.

   1. Per utilizzare il ruolo di esecuzione, scegli **Utilizza un ruolo esistente**. In **Nome ruolo**, scegli il ruolo.

1. (Facoltativo) Se avete specificato uno DynamoDB stream Kinesis or come sorgente pipe, potete configurare una politica di riprova e una coda di lettere dead-letter (DLQ).

   In **Policy di ripetizione e coda DLQ (Dead-Letter Queue) (facoltativo)**, procedi come segue:

   In **Policy di ripetizione**, procedi come segue:

   1. Se desideri attivare le policy di ripetizione, attiva **Riprova**. Per impostazione predefinita, nelle pipe appena create non è attivata la policy di ripetizione. 

   1. Per **Maximum age of event** (Età massima dell'evento), immetti un valore compreso tra un minuto (00:01) e 24 ore (24:00).

   1. Per **Tentativi**, specifica un numero compreso tra 0 e 185.

   1. Se desideri utilizzare una coda DLQ, attiva **Coda DLQ**, scegli il metodo e scegli la coda o l'argomento da utilizzare. Per impostazione predefinita, le pipe appena create non utilizzano una coda DLQ. 

1. Scegliete il formato da utilizzare KMS key per EventBridge crittografare i dati delle pipe.

   Per ulteriori informazioni sulle modalità di EventBridge utilizzo KMS keys, vedere[Crittografia dei dati a riposo](eb-data-protection.md#eb-encryption-at-rest).
   + Scegli **Usa Chiave di proprietà di AWS** per EventBridge crittografare i dati utilizzando un Chiave di proprietà di AWS.

     Si Chiave di proprietà di AWS tratta di un account KMS key che EventBridge possiede e gestisce per l'utilizzo in più AWS account. In generale, a meno che non sia necessario verificare o controllare la chiave di crittografia che protegge le risorse, an Chiave di proprietà di AWS è una buona scelta. 

     Questa è l’impostazione predefinita.
   + Scegliete **Usa chiave gestita dal cliente** EventBridge per crittografare i dati utilizzando chiave gestita dal cliente quello che avete specificato o creato.

     Chiavi gestite dal cliente sono KMS keys nel tuo AWS account che crei, possiedi e gestisci. Hai il pieno controllo su questi KMS keys.

     1. Specificane uno esistente chiave gestita dal cliente o scegli **Crea un nuovo KMS key**.

       EventBridge visualizza lo stato della chiave e tutti gli alias chiave che sono stati associati al valore specificato chiave gestita dal cliente.

1. (Facoltativo) In **Log (facoltativo)**, è possibile impostare il modo in cui EventBridge Pipes invia le informazioni sulla registrazione di log ai servizi supportati, incluso il modo in cui configurare tali log. 

   Per ulteriori informazioni sulla registrazione di log di record di pipe, consulta [Registrazione delle prestazioni di Amazon EventBridge Pipes](eb-pipes-logs.md).

   CloudWatch logs è selezionato come destinazione di log per impostazione predefinita, così come il livello di `ERROR` registro. Quindi, per impostazione predefinita, EventBridge Pipes crea un nuovo gruppo di CloudWatch log a cui invia i record di log contenenti il `ERROR` livello di dettaglio.

   Per fare in modo che EventBridge Pipes invii i record di registro a una qualsiasi delle destinazioni di log supportate, effettuate le seguenti operazioni: 

   1. In **Log (facoltativo)**, scegli le destinazioni a cui inviare i record di log.

   1. Per **Livello di registro**, scegliete il livello di informazioni EventBridge da includere nei record di registro. Il livello di log `ERROR` è selezionato per impostazione predefinita.

      Per ulteriori informazioni, consulta [Specificazione del livello di log di EventBridge Pipes](eb-pipes-logs.md#eb-pipes-logs-level).

   1. Seleziona **Includi dati di esecuzione** se desideri includere EventBridge le informazioni sul payload degli eventi e le informazioni sulla richiesta e sulla risposta del servizio nei record di registro.

      Per ulteriori informazioni, consulta [Inclusione dei dati di esecuzione nei log di EventBridge Pipes](eb-pipes-logs.md#eb-pipes-logs-execution-data).

   1. Configura ogni destinazione di log selezionata:

      Per CloudWatch Logs i log, in **CloudWatch log** procedi come segue:
      + Per **CloudWatch il gruppo di log**, scegli se EventBridge creare un nuovo gruppo di log oppure puoi selezionare un gruppo di log esistente o specificare l'ARN di un gruppo di log esistente.
      + Per i nuovi gruppi di log, modifica il nome del gruppo di log come desiderato.

      CloudWatch i log sono selezionati per impostazione predefinita.

      Per i log degli Firehose stream, in **Firehose Stream log**, seleziona lo Firehose stream. 

      Per Amazon S3 i log, in **S3 logs** procedi come segue:
      + Immetti il nome del bucket da utilizzare come destinazione dei log.
      + Inserisci l'ID dell' AWS account del proprietario del bucket.
      + Immetti il testo del prefisso da utilizzare quando EventBridge crea oggetti S3.

        Per ulteriori informazioni, consulta [Organizzazione degli oggetti utilizzando i prefissi](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) nella *Guida per l'utente di Amazon Simple Storage Service *.
      + Scegli come vuoi formattare EventBridge i record di registro S3:
        + `json`: JSON 
        + `plain`: testo normale
        + `w3c`: [formato di file di log W3C Extended](https://www.w3.org/TR/WD-logfile)

1. (Facoltativo) In **Tag (facoltativo)**, scegli **Aggiungi nuovo tag** e immetti uno o più tag per la regola. Per ulteriori informazioni, consulta [Etichettare le risorse in Amazon EventBridge](eb-tagging.md).

1. Scegli **Crea pipe**.

## Convalida dei parametri di configurazione
<a name="pipes-validation"></a>

Dopo aver creato una pipe, EventBridge convalida i seguenti parametri di configurazione:
+ **Ruolo IAM**: poiché l'origine di una pipe non può essere modificata dopo la creazione della pipe, EventBridge verifica che il ruolo IAM fornito possa accedere all'origine.
**Nota**  
EventBridge non esegue la stessa convalida per gli arricchimenti o gli obiettivi perché possono essere aggiornati dopo la creazione della pipe.
+ **Batching**: EventBridge verifica che la dimensione del batch dell'origine non superi la dimensione massima del batch della destinazione. In caso affermativo, EventBridge richiede una dimensione del batch inferiore. Inoltre, se una destinazione non supporta il batching, non è possibile configurare il batch in batch EventBridge per l'origine.
+ **Arricchimenti**: EventBridge verifica che la dimensione del batch per API Gateway e gli arricchimenti delle destinazioni API sia 1 perché sono supportate solo le dimensioni dei batch pari a 1.