Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Trasformazioni in batch con pipeline di inferenza
Per ottenere inferenze su un intero set di dati esegui una trasformazione in batch su un modello addestrato. Lo stesso modello di pipeline di inferenza creato e distribuito in un endpoint per l'elaborazione in tempo reale può essere utilizzato in un processo di trasformazione in batch. Per eseguire un processo di trasformazione in batch in una pipeline, devi scaricare i dati di input da Amazon S3 e inviarli in una o HTTP più richieste al modello di pipeline di inferenza. Per un esempio che mostra come preparare i dati per una trasformazione in batch, consulta «Sezione 2 - Preelabora i dati grezzi sull'alloggiamento utilizzando Scikit Learn» degli endpoint Amazon SageMaker Multi-Model utilizzando il notebook di esempio Linear Learner
Nota
Per utilizzare immagini Docker personalizzate in una pipeline che include algoritmi SageMaker integrati di Amazon, è necessaria una policy Amazon Elastic Container Registry () ECR. Il tuo ECR repository Amazon deve concedere SageMaker l'autorizzazione per estrarre l'immagine. Per ulteriori informazioni, consulta Risolvi i problemi relativi alle ECR autorizzazioni Amazon per Inference Pipelines.
L'esempio seguente mostra come eseguire un processo di trasformazione utilizzando Amazon SageMaker Python SDKmodel_name
è la pipeline di inferenza che combina SparkML e XGBoost modelli (creati negli esempi precedenti). La posizione Amazon S3 specificata da input_data_path
contiene i dati di input, in CSV formato, da scaricare e inviare al modello Spark ML. Al termine del processo di trasformazione, la posizione Amazon S3 specificata da output_data_path
contiene i dati di output restituiti dal XGBoost modello in CSV formato.
import sagemaker input_data_path = 's3://{}/{}/{}'.format(default_bucket, 'key', 'file_name') output_data_path = 's3://{}/{}'.format(default_bucket, 'key') transform_job = sagemaker.transformer.Transformer( model_name = model_name, instance_count = 1, instance_type = 'ml.m4.xlarge', strategy = 'SingleRecord', assemble_with = 'Line', output_path = output_data_path, base_transform_job_name='inference-pipelines-batch', sagemaker_session=sagemaker.Session(), accept = CONTENT_TYPE_CSV) transform_job.transform(data = input_data_path, content_type = CONTENT_TYPE_CSV, split_type = 'Line')