Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Obiettivi di Amazon EventBridge Pipes
Puoi inviare i dati presenti nella tua pipe a una destinazione specifica. È possibile configurare i seguenti obiettivi quando si imposta una pipe in EventBridge:
-
Bus di eventi nello stesso account e nella stessa Regione
-
Flussi di distribuzione Firehose
-
Modello di valutazione di Inspector
-
Flusso di Kinesis
-
Interrogazioni sui dati del cluster Redshift API
-
SageMaker Pipeline
-
SNSArgomento Amazon (SNSFIFOargomenti non supportati)
-
SQSCoda Amazon
-
Macchina a stati di Step Functions
-
Flussi di lavoro Express (SYNCo) ASYNC
-
Flussi di lavoro standard () ASYNC
-
Parametri di destinazione
Alcuni servizi di destinazione non inviano il payload dell'evento alla destinazione, ma trattano l'evento come un trigger per richiamarne uno specifico. API EventBridge usa il PipeTargetParameters
per specificare quali informazioni vengono inviate a quel destinatario. API Questi sono i seguenti:
-
APIdestinazioni (I dati inviati a una API destinazione devono corrispondere alla struttura diAPI. È necessario utilizzare l'
InputTemplate
oggetto per assicurarsi che i dati siano strutturati correttamente. Se desiderate includere il payload dell'evento originale, fate riferimento a esso inInputTemplate
.) -
APIGateway (I dati inviati a API Gateway devono corrispondere alla struttura di. API È necessario utilizzare l'
InputTemplate
oggetto per assicurarsi che i dati siano strutturati correttamente. Se desiderate includere il payload dell'evento originale, fate riferimento a esso inInputTemplate
.) -
PipeTargetRedshiftDataParameters
(Cluster di dati API Amazon Redshift) -
PipeTargetSageMakerPipelineParameters
(Pipeline di creazione SageMaker di modelli Amazon Runtime) -
PipeTargetBatchJobParameters
(AWS Batch)
Nota
EventBridge non supporta tutta la sintassi di JSON Path e la valuta in fase di esecuzione. La sintassi supportata include:
notazione a punti (ad esempio,
$.detail
)trattini
caratteri di sottolineatura
caratteri alfanumerici
indici array
caratteri jolly (*)
Parametri di percorso dinamici
EventBridge I parametri di destinazione di Pipes supportano la sintassi del JSON percorso dinamico opzionale. È possibile utilizzare questa sintassi per specificare JSON percorsi anziché valori statici (ad esempio$.detail.state
). L'intero valore deve essere un JSON percorso, non solo una parte di esso. Ad esempio, RedshiftParameters.Sql
può essere $.detail.state
ma non può essere "SELECT * FROM $.detail.state"
. Questi percorsi vengono sostituiti dinamicamente al runtime con i dati del payload di eventi nel percorso specificato. I parametri di percorso dinamici non possono fare riferimento a valori nuovi o trasformati risultanti dalla trasformazione dell'input. La sintassi supportata per i JSON percorsi dinamici dei parametri è la stessa utilizzata per la trasformazione dell'input. Per ulteriori informazioni, consulta Trasformazione degli input di Amazon EventBridge Pipes.
La sintassi dinamica può essere utilizzata su tutti i campi di tipo stringa non enum di tutti i parametri di arricchimento e di destinazione di EventBridge Pipes, ad eccezione di:
-
"$.data.
per un'origine KinesissomeKey
" -
"$.body.
per una SQS fonte AmazonsomeKey
"
Quindi, se il payload dell'evento è una JSON stringa valida, ad esempio{"
, EventBridge estrae il valore dal JSON percorso e lo utilizza come parametro di destinazione. In questo esempio, EventBridge imposterebbe Kinesis someKey
":"someValue
"}PartitionKey
su»someValue
".
Autorizzazioni
Per effettuare API chiamate sulle risorse che possiedi, EventBridge Pipes necessita dell'autorizzazione appropriata. EventBridge PIpesutilizza il IAM ruolo specificato nella pipe per le chiamate di arricchimento e di destinazione utilizzando il IAM principalpipes.amazonaws.com
.
Richiamo di destinazioni
EventBridge ha i seguenti modi per richiamare un target:
-
In modo sincrono (tipo di invocazione impostato su
REQUEST_RESPONSE
): EventBridge attende una risposta dal target prima di procedere. -
In modo asincrono (tipo di chiamata impostato su
FIRE_AND_FORGET
): non attende una risposta prima di procedere. EventBridge
Per impostazione predefinita, per le pipe con sorgenti ordinate, EventBridge richiama le destinazioni in modo sincrono perché è necessaria una risposta dalla destinazione prima di passare all'evento successivo.
Se una fonte non impone l'ordine, ad esempio una SQS coda Amazon standard, EventBridge può richiamare una destinazione supportata in modo sincrono o asincrono.
Con le funzioni Lambda e le macchine a stati Step Functions, puoi configurare il tipo di invocazione.
Nota
Per le macchine a stati Step Functions, i Flussi di lavoro standard devono essere richiamati in modo asincrono.
AWS Batch code di lavoro, specifiche del target.
Tutti i AWS Batch submitJob
parametri sono configurati in modo esplicito con eBatchParameters
, come tutti i parametri Pipe, possono essere dinamici utilizzando un JSON percorso verso il payload dell'evento in entrata.
CloudWatch Registra le specifiche del target del gruppo
Indipendentemente che si utilizzi o meno un trasformatore di input, il payload di eventi viene utilizzato come messaggio di log. Puoi impostare Timestamp
(o LogStreamName
esplicito della tua destinazione) tramite CloudWatchLogsParameters
in PipeTarget
. Come tutti i parametri pipe, questi parametri possono essere dinamici quando si utilizza un JSON percorso verso il payload dell'evento in entrata.
Informazioni specifiche sull'ECSobiettivo delle attività di Amazon
Tutti i ECS runTask
parametri Amazon sono configurati esplicitamente tramiteEcsParameters
. Come tutti i parametri pipe, questi parametri possono essere dinamici quando si utilizza un JSON percorso verso il payload dell'evento in entrata.
Specifiche del target delle funzioni Lambda e del flusso di lavoro Step Functions
Lambda e Step Functions non dispongono di un batch. API Per elaborare batch di eventi da un'origine pipe, il batch viene convertito in un JSON array e passato come input al target Lambda o Step Functions. Per ulteriori informazioni, consulta Dosaggio e concorrenza di Amazon EventBridge Pipes.
Timestream per le specifiche del target LiveAnalytics della tabella
Le considerazioni da prendere in considerazione quando si specifica una LiveAnalytics tabella Timestream for come destinazione del tubo includono:
-
Gli stream Apache Kafka (inclusi quelli provenienti da Amazon MSK fornitori terzi) non sono attualmente supportati come sorgenti pipe.
-
Se hai specificato uno DynamoDB stream Kinesis or come sorgente pipe, devi specificare il numero di tentativi di nuovo tentativo.
Per ulteriori informazioni, consulta Configurazione delle impostazioni della pipe.