推論パイプラインを使用したバッチ変換 - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

推論パイプラインを使用したバッチ変換

データセット全体の推論を取得するには、トレーニングされたモデルに対してバッチ変換を実行します。データセット全体に対して推論を実行するには、リアルタイム処理用として作成し、エンドポイントにデプロイした同じ推論パイプラインモデルを、バッチ変換ジョブで使用できます。パイプラインでバッチ変換ジョブを実行するには、Amazon S3 から入力データをダウンロードし、1 つ以上のHTTPリクエストで推論パイプラインモデルに送信します。バッチ変換用にデータを準備する方法を示す例については、「セクション 2 - Linear Learner サンプルノートブック を使用して Amazon SageMaker マルチモデルエンドポイントの Scikit Learn」を使用して未加工の住宅データを前処理する「」を参照してください。Amazon SageMaker バッチ変換の詳細については、「」を参照してくださいAmazon による推論のためのバッチ変換 SageMaker

注記

Amazon SageMaker 組み込みアルゴリズム を含むパイプラインでカスタム Docker イメージを使用するには、Amazon Elastic Container Registry (ECR) ポリシー が必要です。Amazon ECRリポジトリは、イメージをプルする SageMaker アクセス許可を付与する必要があります。詳細については、「推論パイプラインの Amazon ECR アクセス許可のトラブルシューティング」を参照してください。

次の例は、Amazon SageMaker Python SDKを使用して変換ジョブを実行する方法を示しています。この例では、 model_nameは SparkML とXGBoostモデル (前の例で作成) を組み合わせた推論パイプラインです。で指定された Amazon S3 の場所には、Spark ML モデルにダウンロードして送信する CSV形式の入力データinput_data_pathが含まれます。変換ジョブが完了すると、 で指定された Amazon S3 の場所には、XGBoostモデルによって返される出力データが CSV 形式でoutput_data_path含まれます。

import sagemaker input_data_path = 's3://{}/{}/{}'.format(default_bucket, 'key', 'file_name') output_data_path = 's3://{}/{}'.format(default_bucket, 'key') transform_job = sagemaker.transformer.Transformer( model_name = model_name, instance_count = 1, instance_type = 'ml.m4.xlarge', strategy = 'SingleRecord', assemble_with = 'Line', output_path = output_data_path, base_transform_job_name='inference-pipelines-batch', sagemaker_session=sagemaker.Session(), accept = CONTENT_TYPE_CSV) transform_job.transform(data = input_data_path, content_type = CONTENT_TYPE_CSV, split_type = 'Line')