As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
A página a seguir descreve como executar um pipeline com o Amazon SageMaker Pipelines, com recursos de SageMaker IA ou localmente.
Inicie uma nova execução de pipeline com a pipeline.start()
função, como você faria com uma execução de pipeline de SageMaker IA tradicional. Para obter informações sobre a função start()
, consulte sagemaker.workflow.pipeline.Pipeline.start
nota
Uma etapa definida usando o decorador @step
é executada como um trabalho de treinamento. Portanto, esteja ciente das seguintes limitações:
Limites de instância e limites de tarefas de treinamento em suas contas. Atualize seus limites adequadamente para evitar problemas de limitação de recursos ou controle de utilização.
Os custos monetários associados a cada execução de uma etapa de treinamento no pipeline. Para obter mais detalhes, consulte Amazon SageMaker AI Pricing
.
Recupere resultados de uma execução de pipeline localmente
Para ver o resultado de qualquer etapa da execução de um pipeline, use execution.result()
execution = pipeline.start()
execution.result(step_name="train")
nota
O Pipelines não oferece apoio ao execution.result()
no modo local.
Você só poderá recuperar resultados de uma etapa de cada vez. Se o nome da etapa foi gerado pela SageMaker IA, você pode recuperar o nome da etapa chamando da list_steps
seguinte forma:
execution.list_step()
Execute um pipeline localmente
Você pode executar um pipeline com etapas decoradas por @step
localmente, como faria com as etapas tradicionais do pipeline. Para obter detalhes sobre a execução de pipeline no modo local, consulte Executar pipelines usando o modo local. Para usar o modo local, forneça um LocalPipelineSession
em vez de SageMakerSession
para sua definição de pipeline, conforme mostrado no seguinte exemplo:
from sagemaker.workflow.function_step import step
from sagemaker.workflow.pipeline import Pipeline
from sagemaker.workflow.pipeline_context import LocalPipelineSession
@step
def train():
training_data = s3.download(....)
...
return trained_model
step_train_result = train()
local_pipeline_session = LocalPipelineSession()
local_pipeline = Pipeline(
name="<pipeline-name>
",
steps=[step_train_result],
sagemaker_session=local_pipeline_session # needed for local mode
)
local_pipeline.create(role_arn="role_arn")
# pipeline runs locally
execution = local_pipeline.start()