翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
モデルカスタマイズに関するガイドライン
モデルをカスタマイズする理想的なパラメータは、データセットと、モデルが対象とするタスクによって異なります。値をいろいろ試して、どのパラメータがお客様自身のケースで最も適切に機能するかを確認する必要があります。参考までに、モデル評価ジョブを実行してモデルを評価してください。詳細については、「Amazon Bedrock の評価を使用して、最もパフォーマンスの高いモデルを選択する」を参照してください。
このトピックでは、Amazon をカスタマイズするためのベースラインとしてガイドラインと推奨値について説明します。Titan テキスト・プレミアム・モデル。他のモデルについては、プロバイダーのドキュメントを確認してください。
ファインチューニングジョブの送信時に生成される出力ファイルに含まれるトレーニングと検証のメトリクスを使用して、パラメータを調整します。これらのファイルは、出力を書き込んだ Amazon S3 バケットで検索するか、 GetCustomModelオペレーションを使用します。
Amazon Titan テキスト・プレミアム
以下のガイドラインは、 Titan テキストプレミアム text-to-text モデル。設定できるハイパーパラメータの詳細については、「Amazon Titan テキストモデルカスタマイズハイパーパラメータ」を参照してください。
他のタスクタイプへの影響
一般に、トレーニングデータセットが大きいほど、当該タスクのパフォーマンスが向上します。ただし、特定のタスクにトレーニングを行うと、特にサンプルを多数使用する場合など、他のタスクでモデルのパフォーマンスが低下する可能性があります。例えば、要約タスクのトレーニングデータセットに 100,000 個のサンプルが含まれている場合、モデルのパフォーマンスが分類タスクで低下する可能性があります。
モデルサイズ
一般に、与えられているトレーニングデータが少ない場合でも、大規模なモデルほど、タスクのパフォーマンスは向上します。
このモデルを分類タスクに使用する場合、特にクラス数が比較的少ないとき (100 サンプル未満)、数ショットでの微調整 (100 サンプル未満) で得られる利益は比較的小さくなる可能性があります。
エポック
設定するエポック数を決定するには、以下のメトリクスを使用することをお勧めします。
-
検証出力の精度 - 精度が高くなるエポック数を設定します。
-
トレーニングおよび検証ロス - トレーニングおよび検証ロスが安定するまでのエポック数を設定します。これはモデルが収束するタイミングに対応しています。トレーニングロス値は、
step_wise_training_metrics.csv
およびvalidation_metrics.csv
ファイル内で確認してください。
バッチサイズ
バッチサイズを変更する場合は、次の式を使用して学習率を変更することをお勧めします。
newLearningRate = oldLearningRate x newBatchSize / oldBatchSize
現在、Titan Text"" モデルは、お客様の微調整のために 1 のミニバッチサイズのみをサポートしています。
学習率
微調整機能から最良の結果を得るには、1.00E-07 から 1.00E-05 までの学習レートを使用することをお勧めします。適切な開始点は、推奨されるデフォルト値の 1.00E-06 です。学習率を大きくすると、トレーニングの収束が速くなる可能性がありますが、コアモデル機能に悪影響を及ぼす可能性があります。
小さなサブサンプルでトレーニングデータを検証する - トレーニングデータの品質を検証するには、より大きなトレーニングデータセットでトレーニングジョブを送信する前に、より小さなデータセット (約 100 個のサンプル) を試し、検証メトリクスをモニタリングすることをお勧めします。
学習率のウォームアップステップ
デフォルト値は 5 にすることをお勧めします。