Obiettivi di Amazon EventBridge Pipes - Amazon EventBridge

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Obiettivi di Amazon EventBridge Pipes

Puoi inviare i dati presenti nella tua pipe a una destinazione specifica. È possibile configurare i seguenti obiettivi quando si imposta una pipe in EventBridge:

Parametri di destinazione

Alcuni servizi di destinazione non inviano il payload dell'evento alla destinazione, ma trattano l'evento come un trigger per richiamarne uno specifico. API EventBridge usa il PipeTargetParametersper specificare quali informazioni vengono inviate a quel destinatario. API Questi sono i seguenti:

  • APIdestinazioni (I dati inviati a una API destinazione devono corrispondere alla struttura diAPI. È necessario utilizzare l'InputTemplateoggetto per assicurarsi che i dati siano strutturati correttamente. Se desiderate includere il payload dell'evento originale, fate riferimento a esso in InputTemplate.)

  • APIGateway (I dati inviati a API Gateway devono corrispondere alla struttura di. API È necessario utilizzare l'InputTemplateoggetto per assicurarsi che i dati siano strutturati correttamente. Se desiderate includere il payload dell'evento originale, fate riferimento a esso in InputTemplate.)

  • PipeTargetRedshiftDataParameters(Cluster di dati API Amazon Redshift)

  • PipeTargetSageMakerPipelineParameters(Pipeline di creazione SageMaker di modelli Amazon Runtime)

  • PipeTargetBatchJobParameters (AWS Batch)

Nota

EventBridge non supporta tutta la sintassi di JSON Path e la valuta in fase di esecuzione. La sintassi supportata include:

  • notazione a punti (ad esempio, $.detail)

  • trattini

  • caratteri di sottolineatura

  • caratteri alfanumerici

  • indici array

  • caratteri jolly (*)

Parametri di percorso dinamici

EventBridge I parametri di destinazione di Pipes supportano la sintassi del JSON percorso dinamico opzionale. È possibile utilizzare questa sintassi per specificare JSON percorsi anziché valori statici (ad esempio$.detail.state). L'intero valore deve essere un JSON percorso, non solo una parte di esso. Ad esempio, RedshiftParameters.Sql può essere $.detail.state ma non può essere "SELECT * FROM $.detail.state". Questi percorsi vengono sostituiti dinamicamente al runtime con i dati del payload di eventi nel percorso specificato. I parametri di percorso dinamici non possono fare riferimento a valori nuovi o trasformati risultanti dalla trasformazione dell'input. La sintassi supportata per i JSON percorsi dinamici dei parametri è la stessa utilizzata per la trasformazione dell'input. Per ulteriori informazioni, consulta Trasformazione degli input di Amazon EventBridge Pipes.

La sintassi dinamica può essere utilizzata su tutti i campi di tipo stringa non enum di tutti i parametri di arricchimento e di destinazione di EventBridge Pipes, ad eccezione di:

Ad esempio, per impostare il target Kinesis PartitionKey di una pipe su una chiave personalizzata dal tuo evento di origine, imposta il. KinesisTargetParameter PartitionKeya:

  • "$.data.someKey" per un'origine Kinesis

  • "$.body.someKey"per una SQS fonte Amazon

Quindi, se il payload dell'evento è una JSON stringa valida, ad esempio{"someKey":"someValue"}, EventBridge estrae il valore dal JSON percorso e lo utilizza come parametro di destinazione. In questo esempio, EventBridge imposterebbe Kinesis PartitionKey su»someValue".

Autorizzazioni

Per effettuare API chiamate sulle risorse che possiedi, EventBridge Pipes necessita dell'autorizzazione appropriata. EventBridge PIpesutilizza il IAM ruolo specificato nella pipe per le chiamate di arricchimento e di destinazione utilizzando il IAM principalpipes.amazonaws.com.

Richiamo di destinazioni

EventBridge ha i seguenti modi per richiamare un target:

  • In modo sincrono (tipo di invocazione impostato suREQUEST_RESPONSE): EventBridge attende una risposta dal target prima di procedere.

  • In modo asincrono (tipo di chiamata impostato suFIRE_AND_FORGET): non attende una risposta prima di procedere. EventBridge

Per impostazione predefinita, per le pipe con sorgenti ordinate, EventBridge richiama le destinazioni in modo sincrono perché è necessaria una risposta dalla destinazione prima di passare all'evento successivo.

Se una fonte non impone l'ordine, ad esempio una SQS coda Amazon standard, EventBridge può richiamare una destinazione supportata in modo sincrono o asincrono.

Con le funzioni Lambda e le macchine a stati Step Functions, puoi configurare il tipo di invocazione.

Nota

Per le macchine a stati Step Functions, i Flussi di lavoro standard devono essere richiamati in modo asincrono.

AWS Batch code di lavoro, specifiche del target.

Tutti i AWS Batch submitJob parametri sono configurati in modo esplicito con eBatchParameters, come tutti i parametri Pipe, possono essere dinamici utilizzando un JSON percorso verso il payload dell'evento in entrata.

CloudWatch Registra le specifiche del target del gruppo

Indipendentemente che si utilizzi o meno un trasformatore di input, il payload di eventi viene utilizzato come messaggio di log. Puoi impostare Timestamp (o LogStreamName esplicito della tua destinazione) tramite CloudWatchLogsParameters in PipeTarget. Come tutti i parametri pipe, questi parametri possono essere dinamici quando si utilizza un JSON percorso verso il payload dell'evento in entrata.

Informazioni specifiche sull'ECSobiettivo delle attività di Amazon

Tutti i ECS runTask parametri Amazon sono configurati esplicitamente tramiteEcsParameters. Come tutti i parametri pipe, questi parametri possono essere dinamici quando si utilizza un JSON percorso verso il payload dell'evento in entrata.

Specifiche del target delle funzioni Lambda e del flusso di lavoro Step Functions

Lambda e Step Functions non dispongono di un batch. API Per elaborare batch di eventi da un'origine pipe, il batch viene convertito in un JSON array e passato come input al target Lambda o Step Functions. Per ulteriori informazioni, consulta Dosaggio e concorrenza di Amazon EventBridge Pipes.

Timestream per le specifiche del target LiveAnalytics della tabella

Le considerazioni da prendere in considerazione quando si specifica una LiveAnalytics tabella Timestream for come destinazione del tubo includono:

  • Gli stream Apache Kafka (inclusi quelli provenienti da Amazon MSK fornitori terzi) non sono attualmente supportati come sorgenti pipe.

  • Se hai specificato uno DynamoDB stream Kinesis or come sorgente pipe, devi specificare il numero di tentativi di nuovo tentativo.

    Per ulteriori informazioni, consulta Configurazione delle impostazioni della pipe.