Ejecuciones programadas y basadas en eventos para las canalizaciones del procesador de características - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejecuciones programadas y basadas en eventos para las canalizaciones del procesador de características

Las ejecuciones del proceso de procesamiento de funciones de Amazon SageMaker Feature Store se pueden configurar para que se inicien de forma automática y asíncrona en función de una programación preconfigurada o como resultado de otro evento de servicio. AWS Por ejemplo, puede programar las canalizaciones de procesamiento de características para que se ejecuten el primer día de cada mes o encadenar dos canalizaciones para que una canalización objetiva se ejecute automáticamente una vez finalizada la ejecución de la canalización de origen.

Ejecuciones basadas en una programación

El procesador de funciones SDK scheduleAPIpermite ejecutar las canalizaciones del procesador de funciones de forma recurrente con la integración de Amazon EventBridge Scheduler. La programación se puede especificar con una cron expresión atrate, o utilizando el ScheduleExpressionparámetro con las mismas expresiones admitidas por Amazon EventBridge. La programación API es semánticamente una operación secundaria, ya que actualiza la programación si ya existe; de lo contrario, la crea. Para obtener más información sobre EventBridge las expresiones y los ejemplos, consulte los tipos de programación en el Scheduler en la Guía del usuario del EventBridge EventBridge Scheduler.

En los ejemplos siguientes se utiliza el procesador de funciones scheduleAPI, las at expresionesrate, ycron.

from sagemaker.feature_store.feature_processor import schedule pipeline_name='feature-processor-pipeline' event_bridge_schedule_arn = schedule( pipeline_name=pipeline_name, schedule_expression="at(2020-11-30T00:00:00)" ) event_bridge_schedule_arn = schedule( pipeline_name=pipeline_name, schedule_expression="rate(24 hours)" ) event_bridge_schedule_arn = schedule( pipeline_name=pipeline_name, schedule_expression="cron(0 0-23/1 ? * * 2023-2024)" )

La zona horaria predeterminada para las entradas de fecha y hora en el schedule API are in. UTC Para obtener más información sobre las expresiones de programación del EventBridge programador, consulte la documentación de ScheduleExpressionreferencia del EventBridge programadorAPI.

Las ejecuciones planificadas de la canalización del procesador de características proporcionan a la función de transformación el tiempo de ejecución programado, que se utilizará como un token de idempotencia o un punto de referencia fijo para las entradas basadas en un intervalo de fechas. Para deshabilitar (es decir, pausar) o volver a habilitar una programación, utilice el state parámetro scheduleAPIwith ‘DISABLED’ o‘ENABLED’, respectivamente.

Para obtener información sobre el procesador de características, consulte Fuentes de SDK datos del procesador de funciones.

Ejecuciones basadas en eventos

Es posible configurar una canalización de procesamiento de características para que se ejecute automáticamente cuando se produzca un evento AWS . El procesamiento de funciones SDK proporciona una put_triggerfunción que acepta una lista de eventos de origen y una canalización de destino. Los eventos de origen deben ser instancias de FeatureProcessorPipelineEvent, que especifica una canalización y eventos de estado de ejecución.

La put_trigger función configura una EventBridge regla y un objetivo de Amazon para enrutar los eventos y te permite especificar un patrón de EventBridge eventos para responder a cualquier AWS evento. Para obtener información sobre estos conceptos, consulta EventBridge las reglas, los objetivos y los patrones de eventos de Amazon.

Los activadores se pueden activar o desactivar. EventBridge iniciará la ejecución de una canalización objetivo utilizando la función proporcionada en el role_arn parámetro de put_triggerAPI. La función de ejecución se usa de forma predeterminada si SDK se usa en un entorno Amazon SageMaker Studio Classic o Notebook. Para obtener información sobre cómo obtener el rol de ejecución, consulte Consiga su función de ejecución.

En el siguiente ejemplo se establece:

  • Una SageMaker canalización que utilice la to_pipelineAPI, que incluya el nombre de la canalización de destino (target-pipeline) y la función de transformación (transform). Para obtener información sobre el procesador de características y su función de transformación, consulte Fuentes de SDK datos del procesador de funciones.

  • Un disparador que utiliza el put_triggerAPI, que toma como referencia FeatureProcessorPipelineEvent el evento y el nombre de la canalización de destino (target-pipeline).

    El FeatureProcessorPipelineEvent define el desencadenador para cuando el estado de la canalización de origen (source-pipeline) pase a ser Succeeded. Para obtener información sobre la función de eventos de canalización del procesador de características, consulte FeatureProcessorPipelineEvent en Read the Docs del almacén de características.

from sagemaker.feature_store.feature_processor import put_trigger, to_pipeline, FeatureProcessorPipelineEvent to_pipeline(pipeline_name="target-pipeline", step=transform) put_trigger( source_pipeline_events=[ FeatureProcessorPipelineEvent( pipeline_name="source-pipeline", status=["Succeeded"] ) ], target_pipeline="target-pipeline" )

Para ver un ejemplo del uso de desencadenadores basados en eventos para crear ejecuciones continuas y reintentos automáticos para su canalización del procesador de características, consulte Ejecuciones continuas y reintentos automáticos mediante desencadenadores basados en eventos.

Para ver un ejemplo del uso de desencadenadores basados en eventos para crear transmisiones continuas y reintentos automáticos mediante desencadenadores basados en eventos, consulte Ejemplos de orígenes de datos personalizados de transmisión.