トレーニング済み Amazon Rekognition Custom Labels の実行 - Rekognition

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

トレーニング済み Amazon Rekognition Custom Labels の実行

モデルのパフォーマンスに満足している場合は、使用を開始できます。コンソールまたは AWS SDK を使用してモデルを開始および停止できます。コンソールには、使用可能な SDK オペレーションの例も含まれています。

推論単位

モデルの開始時に、モデルが使用する推論単位と呼ばれるコンピューティングリソースの数を指定します。

重要

モデルの実行の設定方法に基づいて、モデルの実行時間数と、モデルの実行中にモデルが使用する推論単位の数に対して課金されます。例えば、モデルを 2 推論単位で開始し、モデルを 8 時間使用すると、16 推論時間 (8 時間実行時間 × 2 推論単位) に対して課金されます。詳細については、「推論時間」を参照してください。明示的にモデルを停止しないと、モデルでイメージをアクティブに分析していない場合でも課金されます。

1 つの推論単位がサポートする 1 秒あたりのトランザクション (TPS) は、次の影響を受けます。

  • 一般に、イメージレベルのラベルを検出するモデル (分類) は、境界ボックスでオブジェクトを検出してローカライズするモデル (オブジェクト検出) よりも TPS が高くなります。

  • モデルの複雑さ。

  • 高解像度のイメージでは、分析に時間がかかります。

  • イメージ内のオブジェクトが多いほど、分析に時間がかかります。

  • 小さなイメージは、大きなイメージよりも速く分析されます。

  • イメージバイトとして渡されたイメージは、最初に Amazon S3 バケットにアップロードしてからアップロードされたイメージを参照するよりも速く分析されます。イメージバイトとして渡されるイメージは 4.0 MB 未満である必要があります。イメージをほぼリアルタイムで処理する場合や、イメージサイズが 4.0 MB 未満の場合は、イメージバイトを使用することをお勧めします。例えば、IP カメラからキャプチャされたイメージなど。

  • Amazon S3 バケットに保存されたイメージの処理は、イメージをダウンロードしてイメージバイトに変換し、分析用にイメージバイトを渡すよりも高速です。

  • Amazon S3 バケットに既に保存されたイメージの分析は、イメージバイトとして渡されたイメージを分析するよりも高速です。これは特にイメージサイズが大きい場合に当てはまります。

DetectCustomLabels への呼び出し数が、モデルが使用する推論単位の合計でサポートされる最大 TPS を超えると、Amazon Rekognition Custom Labels は ProvisionedThroughputExceededException 例外を返します。

推論単位によるスループットの管理

アプリケーションの要求に応じて、モデルのスループットを増やしたり減らしたりすることができます。スループットを増やすには、追加の推論ユニットを使用します。推論ユニットを追加するたびに、処理速度が 1 推論ユニット増加します。必要な推論ユニット数の計算方法については、「Amazon Rekognition Custom Labels と Amazon Lookout for Vision モデルの推論単を計算する」を参照してください。モデルのサポート対象スループットを変更する場合は、次の 2 つのオプションがあります:

手動で推論ユニットを追加または削除する

モデルを停止し、必要な推論ユニット数で再開します。この方法の欠点は、再開中はモデルがリクエストを受け取ることができず、需要の急増に対処できないことです。モデルのスループットが安定していて、ユースケースが 10 ~ 20 分のダウンタイムを許容できる場合は、このアプローチを使用してください。例としては、週ユニットのスケジュールを使用してモデルへの呼び出しをバッチ処理する場合などが挙げられます。

推論単位の自動スケーリング

モデルの需要の急増に対応する必要がある場合、Amazon Rekognition Custom Labels はモデルが使用する推論単位の数を自動的にスケールできます。需要が増加すると、Amazon Rekognition Custom Labels はモデルに追加の推論単位を追加し、需要が減少するとそれらを削除します。

Amazon Rekognition Custom Labels がモデルの推論単位を自動的にスケールできるようにするには、モデルを開始しMaxInferenceUnits パラメータを使用して使用できる推論単位の最大数を設定します。推論単位の最大数を設定すると、使用可能な推論単位の数を制限することにより、モデルの実行コストを管理できます。最大単位数を指定しない場合、Amazon Rekognition Custom Labels はモデルを自動的にスケールせず、最初に使用した推論単位数のみを使用します。推論単位の最大数については、「Service Quotas」を参照してください。

MinInferenceUnits パラメータを使用して推論ユニットの最小数も指定できます。これにより、モデルの最小スループットを指定できます。1 つの推論単位は 1 時間の処理時間を表します。

注記

Amazon Rekognition Custom Labels では、推論単位の最大数を設定することはできません。代わりに、StartProjectVersion オペレーションに MaxInferenceUnits 入力パラメータを指定してください。

Amazon Rekognition Custom Labels には、モデルの現在の自動スケーリングステータスを判断するために使用できる以下の Amazon CloudWatch Logs メトリクスが用意されています。

メトリクス 説明

DesiredInferenceUnits

Amazon Rekognition Custom Labels がスケールアップまたはスケールダウンの対象となる推論単位の数。

InServiceInferenceUnits

モデルが使用している推論単位の数。

DesiredInferenceUnits = InServiceInferenceUnits の場合、Amazon Rekognition Custom Labels は現在、推論単位の数をスケールしていません。

DesiredInferenceUnits > InServiceInferenceUnits の場合、Amazon Rekognition Custom Labels は DesiredInferenceUnits の値までスケールアップされます。

DesiredInferenceUnits < InServiceInferenceUnits の場合、Amazon Rekognition Custom Labels は DesiredInferenceUnits の値にスケールダウンされます。

Amazon Rekognition Custom Labels によって返されるメトリクスとフィルタリングディメンションの詳細については、「CloudWatch Rekognition のメトリクス」を参照してください。

モデルにリクエストした推論単位の最大数を確認するには、DescribeProjectsVersion を呼び出して応答の MaxInferenceUnits フィールドを確認します。サンプルコードについては、「モデルの記述 (SDK)」を参照してください。

アベイラビリティーゾーン

Amazon Rekognition Custom Labels は、 AWS リージョン内の複数のアベイラビリティーゾーンに推論単位を分散させ、可用性を高めています。詳細については、「アベイラビリティーゾーン」を参照してください。アベイラビリティーゾーンの停止や推論ユニットの障害から量産モデルを保護するために、少なくとも 2 つの推論ユニットを使用して量産モデルを開始することを強くお勧めします。

アベイラビリティーゾーンの停止が発生すると、アベイラビリティーゾーン内のすべての推論ユニットが使用できなくなり、モデル容量が削減されます。DetectCustomラベルへの呼び出しは、残りの推論ユニットに再分散されます。このような呼び出しは、残りの推論単位のサポートされる TPS (Transactions Per Seconds) を超えていなければ成功します。AWS がアベイラビリティーゾーンを修復した後、推論単位が再起動され、フルキャパシティが復元されます。

1 つの推論単位に障害が発生すると、Amazon Rekognition Custom Labels は同じアベイラビリティーゾーンで新しい推論単位を自動的に開始します。新しい推論単位が始まるまで、モデル容量は減少します。