翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
推論パイプラインを使用したバッチ変換
データセット全体の推論を取得するには、トレーニングされたモデルに対してバッチ変換を実行します。データセット全体に対して推論を実行するには、リアルタイム処理用として作成し、エンドポイントにデプロイした同じ推論パイプラインモデルを、バッチ変換ジョブで使用できます。パイプラインでバッチ変換ジョブを実行するには、Amazon S3 から入力データをダウンロードし、1 つ以上のHTTPリクエストで推論パイプラインモデルに送信します。バッチ変換用にデータを準備する方法を示す例については、「セクション 2 - Linear Learner サンプルノートブック を使用して Amazon SageMaker マルチモデルエンドポイントの Scikit Learn」を使用して未加工の住宅データを前処理する
注記
Amazon SageMaker 組み込みアルゴリズム を含むパイプラインでカスタム Docker イメージを使用するには、Amazon Elastic Container Registry (ECR) ポリシー が必要です。Amazon ECRリポジトリは、イメージをプルする SageMaker アクセス許可を付与する必要があります。詳細については、「推論パイプラインの Amazon ECR アクセス許可のトラブルシューティング」を参照してください。
次の例は、Amazon SageMaker Python SDKmodel_name
は SparkML とXGBoostモデル (前の例で作成) を組み合わせた推論パイプラインです。で指定された Amazon S3 の場所には、Spark ML モデルにダウンロードして送信する CSV形式の入力データinput_data_path
が含まれます。変換ジョブが完了すると、 で指定された Amazon S3 の場所には、XGBoostモデルによって返される出力データが CSV 形式でoutput_data_path
含まれます。
import sagemaker input_data_path = 's3://{}/{}/{}'.format(default_bucket, 'key', 'file_name') output_data_path = 's3://{}/{}'.format(default_bucket, 'key') transform_job = sagemaker.transformer.Transformer( model_name = model_name, instance_count = 1, instance_type = 'ml.m4.xlarge', strategy = 'SingleRecord', assemble_with = 'Line', output_path = output_data_path, base_transform_job_name='inference-pipelines-batch', sagemaker_session=sagemaker.Session(), accept = CONTENT_TYPE_CSV) transform_job.transform(data = input_data_path, content_type = CONTENT_TYPE_CSV, split_type = 'Line')