SageMaker DeepAR 予測アルゴリズムを使用する - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

SageMaker DeepAR 予測アルゴリズムを使用する

Amazon SageMaker DeepAR 予測アルゴリズムは、反復ニューラルネットワーク () を使用してスカラー (1 次元) 時系列を予測するための教師あり学習アルゴリズムですRNN。自己回帰統合移動平均 (ARIMA) や指数平滑化 (ETS) などの従来の予測方法は、個々の時系列に 1 つのモデルに適合します。その後、そのモデルを使用して時系列から未来を外挿します。

ただし多くのアプリケーションでは、一連の横断的な単位にわたって同様の時系列が多数あります。たとえば、さまざまな商品に対する需要、サーバーの負荷、およびウェブページのリクエストを時系列でグループ化することができます。このタイプのアプリケーションでは、すべての時系列にわたって単一のモデルを共同でトレーニングすることにより、メリットを享受できます。DeepAR はこのアプローチを使用します。データセットに数百もの関連する時系列が含まれている場合、DeepAR は標準ARIMAおよびETSメソッドよりも優れています。トレーニングしたモデルを使用して、トレーニングしたモデルと似た新しい時系列の予測を生成することもできます。

DeepAR アルゴリズムのトレーニング入力は、同一または同様のプロセスによって生成された、1 つまたは可能であればそれ以上の時系列 (target) です。この入力データセットに基づき、アルゴリズムではこのプロセスの近似値を学習するモデルをトレーニングし、それを使用してターゲットの時系列がどのように進化するかを予測します。必要に応じて、各ターゲット時系列を cat フィールドで指定された静的 (時系に依存しない) カテゴリ別の特徴のベクトルと、dynamic_feat フィールドで指定された動的 (時系に依存する) の時系列のベクトルと関連付けることができます。 SageMaker は、トレーニングデータセット内の各ターゲット時系列からトレーニング例をランダムにサンプリングして、DeepAR モデルをトレーニングします。各トレーニング例は、事前定義された固定長を持つ一対の隣接コンテキストと予測ウィンドウで構成されています。ネットワークがどの程度までの過去を遡れるかを制御するには、context_length ハイパーパラメータを使用します。ネットワークがどの程度までの未来を予測できるかを制御するには、prediction_length ハイパーパラメータを使用します。詳細については、「DeepAR アルゴリズムの仕組み」を参照してください。

DeepAR アルゴリズムの入出力インターフェイス

DeepAR は、2 つのデータチャネルをサポートしています。必須の train チャネルは、トレーニングデータセットを表します。オプションの test チャネルは、アルゴリズムがトレーニング後にモデルの精度を評価するために使用するデータセットを表します。トレーニングデータセットとテストデータセットは JSON Lines 形式で提供できます。ファイルは gzip 形式または Parquet 形式のものを指定できます。

トレーニングデータとテストデータのパスを指定するときには、単一のファイルまたは複数のファイルを含むディレクトリを指定できます。これらのファイルはサブディレクトリに保存されていても構いません。ディレクトリを指定すると、DeepAR はディレクトリ内のすべてのファイルを対応するチャネルの入力として使用します。ただし、ピリオド (.) で始まるファイルと _SUCCESS という名前のファイルを除きます。これにより、Spark ジョブによって生成された出力フォルダを DeepAR トレーニングジョブの入力チャネルとして直接使用できるようになります。

DeepAR モデルはデフォルトでは、指定された入力パスのファイル拡張子 (.json.json.gz、または .parquet) から入力形式を判別します。パスがこれらの拡張のいずれかで終了しない場合は、 SDK for Python で形式を明示的に指定する必要があります。s3_input クラスの content_type パラメータを使用します。

入力ファイルのレコードには、以下のフィールドが含まれています。

  • start - YYYY-MM-DD HH:MM:SS 形式の文字列。開始タイムスタンプにタイムゾーン情報を含めることはできません。

  • target - 時系列を表す浮動小数点値または整数の配列。欠損値はリnullテラルとしてエンコードすることも、 の"NaN"文字列としてエンコードすることもJSON、Parquet のnan浮動小数点値としてエンコードすることもできます。

  • dynamic_feat (オプション) - カスタムの特徴の時系列 (動的特徴) のベクトルを表す、浮動小数点値または整数の配列の配列。このフィールドを設定した場合は、すべてのレコードに同じ数の内部配列 (同じ数の特徴時系列) が含まれている必要があります。さらに、各内部配列は、関連付けられている target 値と prediction_length と同じ長さにする必要があります。欠損値は特徴ではサポートされません。たとえば、ターゲットの時系列がさまざまな製品の需要を表す場合、関連付けられた dynamic_feat は、プロモーションが特定の商品に適用されたか (1) または適用されていないか (0) を示すブール時系列になります。

    {"start": ..., "target": [1, 5, 10, 2], "dynamic_feat": [[0, 1, 1, 0]]}
  • cat (オプション) - レコードが属するグループをエンコードするために使用できるカテゴリ別特徴の配列。カテゴリ別特徴は、0 から始まる正の整数のシーケンスとしてエンコードする必要があります。たとえば、カテゴリ別ドメイン {R, G, B} は {0, 1, 2} としてエンコードできます。各カテゴリ別ドメインのすべての値が、トレーニングデータセット内で表されている必要があります。これは、DeepAR アルゴリズムが、トレーニング中に観察されたカテゴリについてしか予測できないためです。さらに、各カテゴリ別特徴は、次元が embedding_dimension ハイパーパラメータによって制御される低次元空間に埋め込まれています。詳細については、「DeepAR ハイパーパラメータ」を参照してください。

JSON ファイルを使用する場合は、JSON行形式である必要があります。例:

{"start": "2009-11-01 00:00:00", "target": [4.3, "NaN", 5.1, ...], "cat": [0, 1], "dynamic_feat": [[1.1, 1.2, 0.5, ...]]} {"start": "2012-01-30 00:00:00", "target": [1.0, -5.0, ...], "cat": [2, 3], "dynamic_feat": [[1.1, 2.05, ...]]} {"start": "1999-01-30 00:00:00", "target": [2.0, 1.0], "cat": [1, 4], "dynamic_feat": [[1.3, 0.4]]}

この例では、各時系列に、関連付けられている 2 つのカテゴリ別特徴と 1 つの時系列特徴があります。

Parquet の場合、同じ 3 つのフィールドを列として使用します。さらに、"start"datetime 型として使用できます。Parquet ファイルを圧縮するには、gzip (gzip) または Snappy 圧縮ライブラリ (snappy) を使用します。

アルゴリズムが cat フィールドと dynamic_feat フィールドなしでトレーニングされる場合、「グローバル」モデル、つまり推論時のターゲットの時系列の特定のアイデンティティに依存せず、その形状のみによる条件付きのモデルを学習します。

モデルが各時系列で提供された cat および dynamic_feat の特徴データの条件付きである場合、予測は、対応する cat の特徴を持つ時系列の特性の影響を受ける場合があります。たとえば、target の時系列が衣料品の需要を表す場合は、最初のコンポーネントの品目の種類 (0 = 靴、1 = 衣服など) と、2 番目のコンポーネントの品目の色 (例: 0 = 赤、1 = 青) をエンコードする 2 次元の cat ベクトルを関連付けることができます。サンプルの入力は次のようになります。

{ "start": ..., "target": ..., "cat": [0, 0], ... } # red shoes { "start": ..., "target": ..., "cat": [1, 1], ... } # blue dress

推論時、トレーニングデータで観測された cat の値の組み合わせである、cat の値を持つターゲットの予測をリクエストできます。次に例を示します。

{ "start": ..., "target": ..., "cat": [0, 1], ... } # blue shoes { "start": ..., "target": ..., "cat": [1, 0], ... } # red dress

トレーニングデータには以下のガイドラインが適用されます。

  • 時系列の開始時刻と長さは異なる場合があります。たとえば、マーケティングでは通常、製品がカタログに掲載される日は異なるため、開始日も異なります。ただし、すべてのシリーズにおいて、頻度やカテゴリ別特徴の数、動的特徴の数は同じでなければなりません。

  • トレーニングファイルを、ファイル内の時系列の位置に関してシャッフルします。つまり、時系列はファイル内でランダムな順序で出現します。

  • start フィールドが正しく設定されていることを確認します。アルゴリズムは start タイムスタンプを使用して内部の特徴を取得します。

  • カテゴリ別特徴 (cat) を使用する場合は、すべての時系列には同じ数のカテゴリ別特徴が含まれている必要があります。データセットに cat フィールドが含まれている場合、アルゴリズムはそれを使用してデータセットからグループの基数を抽出します。デフォルトでは、cardinality"auto" です。データセットに cat フィールドが含まれていても、それを使用しないようにするには、無効にするために、cardinality"" に設定します。モデルが特徴 cat を使用してトレーニングされた場合は、推論のためにそれを含める必要があります。

  • データセットに dynamic_feat フィールドが含まれている場合、アルゴリズムはそれを自動的に使用します。すべての時系列に、同じ数の特徴時系列が含まれている必要があります。各特徴量時系列のタイムポイントは one-to-one、ターゲットのタイムポイントに対応します。さらに、dynamic_feat フィールドのエントリは target と同じ長さである必要があります。データセットに dynamic_feat フィールドが含まれていても、それを使用しないようにするには、無効にするために、num_dynamic_feat"" に設定します。モデルが dynamic_feat フィールドを使用してトレーニングされた場合は、推論のためにこのフィールドを提供する必要があります。さらに各特徴は、提供されたターゲットの長さに prediction_length を加えた長さである必要があります。つまり、未来の特徴値を提供する必要があります。

オプションのテストチャネルデータを指定した場合、DeepAR アルゴリズムは異なる正確性メトリクスでトレーニング済みモデルを評価します。アルゴリズムは、次のようにテストデータ全体の二乗平均平方根誤差 (RMSE) を計算します。

RMSE 式: Sqrt(1/nT(Sum[i,t](y-hat(i,t)-y(i,t))^2))

ここで、yi,t は時間 t における時系列 i の真の値です。ŷi,t は、平均予測です。合計は、テストセット内の n 個の時系列すべてと、各時系列の最後の T 個の時間ポイントの和です。ここで、T は予測期間に対応します。予測期間の長さを指定するには、prediction_length ハイパーパラメータを設定します。詳細については、「DeepAR ハイパーパラメータ」を参照してください。

さらにこのアルゴリズムは、重み付けされた分位損失を使用して予測分布の正確性を評価します。[0, 1] の範囲にある変位値の場合、重み付けされた分位損失は次のように定義されます。

加重分位数損失方程式。

qi,t(τ) は、モデルが予測する分布の τ 分位数です。損失を計算する分位数を指定するには、test_quantiles ハイパーパラメータを設定します。これらに加えて、規定の分位損失の平均がトレーニングログの一部として報告されます。詳細については、DeepAR ハイパーパラメータ を参照してください。

推論の場合、DeepAR はJSON形式と次のフィールドを受け入れます。

  • "instances"。これには、1 つ以上の時系列が JSON Lines 形式で含まれます。

  • "configuration" の名前: 予測を生成するためのパラメータを含む

詳細については、「DeepAR 推論の形式」を参照してください。

DeepAR アルゴリズム使用のベストプラクティス

時系列データを準備するときには、以下のベストプラクティスに従うと、最善の結果を得ることができます。

  • トレーニングとテストのデータセットを分割する場合を除き、トレーニングとテストのため、および推論のためにモデルを呼び出す際には、常に時系列全体を提供します。context_length の設定方法にかかわらず、時系列を分割したり、その一部だけを指定したりしないでください。モデルは、遅延値の特徴には、context_length に設定された値より遡ったデータポイントを使用します。

  • DeepAR モデルを調整するときには、データセットを分割して、トレーニングデータセットとテストデータセットを作成することができます。典型的な評価では、トレーニングに使用したのと同じ時系列でモデルをテストしますが、トレーニング中に表示される最後の時間ポイントの直後に続く未来の prediction_length 時間ポイントでモデルをテストします。この基準を満たすトレーニングデータセットとテストデータセットを作成するには、テストセットとしてデータセット全体 (使用可能なすべての時系列の全長) を使用し、トレーニング用に各時系列から最後の prediction_length ポイントを削除します。トレーニング中には、モデルはテスト時に評価される時間ポイントのターゲット値を確認しません。テスト中、アルゴリズムはテストセット内の各時系列の最後の prediction_length ポイントを保留し、予測を生成します。その後、保留した値と予測を比較します。より複雑な評価を作成するには、テストセット内で時系列を複数回繰り返しますが、それぞれ異なる終了ポイントで切り捨てます。このアプローチにより、精度メトリクスは、さまざまな時間ポイントからの複数の予測で平均化されます。詳細については、「DeepAR モデルを調整する」を参照してください。

  • prediction_length に非常に大きい値 (>400) を使用しないでください。このような値を設定すると、モデルの速度が遅くなり、精度が低下します。未来の予測をさらに生成するには、より低い頻度でデータを集約することを検討してください。例えば、1min ではなく 5min を使用します。

  • 遅延が使用されるため、モデルは context_length に指定された値より遡って時系列を調べることができます。そのため、このパラメータを大きい値に設定する必要はありません。prediction_length に使用した値から開始することをお勧めします。

  • 可能な限り多くの時系列について DeepAR モデルをトレーニングすることをお勧めします。1 つの時系列でトレーニングされた DeepAR モデルはうまく機能する可能性がありますが、 ARIMAや などの標準予測アルゴリズムはETS、より正確な結果を提供する可能性があります。データセットに関連する時系列データが何百も含まれている場合、DeepAR アルゴリズムは標準の方法より優れた性能を発揮するようになります。DeepAR では現在、すべてのトレーニング時系列にわたって利用可能な観測の総数が 300 以上であることが要求されます。

EC2 DeepAR アルゴリズムのインスタンスに関する推奨事項

DeepAR は、 GPU インスタンスと CPUインスタンスの両方でトレーニングでき、シングルマシン設定とマルチマシン設定の両方でトレーニングできます。1 つのCPUインスタンス (例: ml.c4.2xlarge または ml.c4.4xlarge) から開始し、必要な場合にのみGPUインスタンスと複数のマシンに切り替えることをお勧めします。GPUs と複数のマシンを使用すると、より大きなモデル (レイヤーごとに多数のセルがあり、多くのレイヤーがある) と大きなミニバッチサイズ (例えば、512 より大きい) でのみスループットが向上します。

推論の場合、DeepAR はCPUインスタンスのみをサポートします。

context_lengthprediction_lengthnum_cellsnum_layers、または mini_batch_size に大きな値を指定すると、スモールインスタンスには大きすぎるモデルが作成される可能性があります。この場合は、使用するインスタンスタイプをより大きなものにするか、これらのパラメータの値を小さくします。この問題は、ハイパーパラメータ調整ジョブを実行するときにも頻繁に発生します。その場合は、モデル調整ジョブに十分な大きさのインスタンスタイプを使用し、重要なパラメータの上限値を制限することを検討して、ジョブの失敗を回避してください。

DeepAR サンプルノートブック

SageMaker DeepAR アルゴリズムをトレーニングするための時系列データセットを準備する方法と、推論を実行するためのトレーニング済みモデルをデプロイする方法を示すサンプルノートブックについては、「電気データセットの DeepAR デモ」を参照してください。これは、実世界のデータセットの DeepAR の高度な機能を示しています。で例を実行するために使用できる Jupyter ノートブックインスタンスを作成してアクセスする手順については SageMaker、「」を参照してくださいAmazon SageMaker Notebook インスタンス。ノートブックインスタンスを作成して開いたら、SageMaker サンプルタブを選択して、すべての SageMakerサンプルのリストを表示します。ノートブックを開くには、その [Use (使用)] タブを選択し、[Create copy (コピーを作成)] を選択します。

Amazon SageMaker DeepAR アルゴリズムの詳細については、次のブログ記事を参照してください。