画像分類 - MXNet - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

画像分類 - MXNet

Amazon SageMaker イメージ分類アルゴリズムは、マルチラベル分類をサポートする教師あり学習アルゴリズムです。入力として画像を取得し、その画像に割り当てられた 1 つ以上のラベルを出力します。畳み込みニューラルネットワークを使用します。これは、ゼロからトレーニングすることも、大量のトレーニングイメージが使用可能でない場合に転移学習を使用してトレーニングすることもできます。

Amazon SageMaker イメージ分類アルゴリズムの推奨入力形式は Apache MXNet RecordIO。ただし、.jpg または .png の形式で RAW イメージを使用することもできます。機械学習システムの効率的なデータ準備と読み込みの概要については、こちらの説明を参照してください。

注記

既存の深層学習フレームワークとの相互運用性を維持するために、これは他の Amazon SageMaker アルゴリズムで一般的に使用される protobuf データ形式とは異なります。

畳み込みネットワークの詳細については、以下を参照してください。

イメージ分類アルゴリズムの入出力インターフェイス

SageMaker 画像分類アルゴリズムは、ファイルモードでのトレーニング用に RecordIO (application/x-recordio) と画像 (image/pngimage/jpegapplication/x-image) の両方のコンテンツタイプをサポートし、パイプモードでのトレーニング用に RecordIO (application/x-recordio) コンテンツタイプをサポートします。ただし、RecordIO ファイルを作成せずに、拡張マニフェスト形式を使用して、イメージファイル (image/pngimage/jpegapplication/x-image) を使用してパイプモードでトレーニングすることもできます。

分散トレーニングは、ファイルモードとパイプモードでサポートされています。パイプモードで RecordIO コンテンツタイプを使用する場合は、S3DataSourceS3DataDistributionTypeFullyReplicated に設定する必要があります。このアルゴリズムは、データが各マシンにコピーされる完全にレプリケートされるモデルをサポートします。

このアルゴリズムでは、推論に image/pngimage/jpeg、および application/x-image のみをサポートします。

RecordIO 形式でトレーニングする

トレーニングに RecordIO フォーマットを使用する場合は、train チャネルと validation チャネルの両方を InputDataConfig リクエストの CreateTrainingJob パラメータの値として指定します。1 つの RecordIO (.rec) ファイルを train チャネルで指定し、もう 1 つの RecordIO ファイルを validation チャネルで指定します。両方のチャネルのコンテンツタイプを application/x-recordio に設定します。

イメージ形式でトレーニングする

トレーニングにイメージフォーマットを使用する場合は、trainvalidationtrain_lstvalidation_lst チャネルを InputDataConfig リクエストの CreateTrainingJob パラメータの値として指定します。.jpg および .png チャネルの個々のイメージデータ (train または validation ファイル) を指定します。.lst チャネルと train_lst チャネルそれぞれに 1 つの validation_lst ファイルを指定します。4 つのチャネルすべてのコンテンツタイプを application/x-image に設定します。

注記

SageMaker は、トレーニングデータと検証データを異なるチャネルから個別に読み取るため、トレーニングデータと検証データを異なるフォルダに保存する必要があります。

.lst ファイルはタブ区切りファイルで、イメージファイルのリストを含む 3 つの列があります。最初の列はイメージのインデックスを指定し、2 番目の列はイメージのクラスラベルインデックスを指定します。3 番目の列はイメージファイルの相対パスを指定します。最初の列のイメージインデックスはすべてのイメージにわたって一意である必要があります。一連のクラスラベルインデックスには連番が付けられ、番号は 0 から開始する必要があります。たとえば、0 は cat クラス、1 は dog クラスなどです。

次は、.lst ファイルの例です。

5 1 your_image_directory/train_img_dog1.jpg 1000 0 your_image_directory/train_img_cat1.jpg 22 1 your_image_directory/train_img_dog2.jpg

たとえば、トレーニングイメージが s3://<your_bucket>/train/class_dogs3://<your_bucket>/train/class_cat などに保存されている場合は、train チャネルのパスをデータの最上位ディレクトリである s3://<your_bucket>/train として指定します。.lst ファイルで、train_image_dog1.jpg という名前の個々のファイルの相対パスを class_dog クラスディレクトリに class_dog/train_image_dog1.jpg として指定します。すべてのイメージファイルを train ディレクトリ内にある 1 つのサブディレクトリに保存することもできます。その場合は、そのサブディレクトリの相対パスを使用します。例えば、s3://<your_bucket>/train/your_image_directory と指定します。

拡張マニフェストイメージ形式でトレーニングする

拡張マニフェスト形式を使用すると、RecordIO ファイルを作成しなくても、イメージファイルを使用してパイプモードでトレーニングを行うことができます。CreateTrainingJob リクエストの InputDataConfig パラメータの値として、トレーニングチャネルと検証チャネルの両方を指定する必要があります。形式を使用している間、イメージとそれに対応する注釈のリストを含む S3 マニフェストファイルを生成する必要があります。マニフェストファイル形式は、各JSON行が 1 つのサンプルを表す行形式である必要があります。イメージは、その S3 の場所を指す 'source-ref' タグを使用して指定します。注釈は、CreateTrainingJob リクエストで指定されている "AttributeNames" パラメータ値の下に入力します。metadata タグの下に追加のメタデータを含めることもできますが、これらはアルゴリズムによって無視されます。次の例では、"AttributeNames" は画像および注釈参照 ["source-ref", "class"] のリストに含まれます。対応するラベル値は最初のイメージの場合は "0"、2 番目のイメージの場合は “1” です。

{"source-ref":"s3://image/filename1.jpg", "class":"0"} {"source-ref":"s3://image/filename2.jpg", "class":"1", "class-metadata": {"class-name": "cat", "type" : "groundtruth/image-classification"}}

ImageClassification アルゴリズムをトレーニングするときは、入力ファイル"AttributeNames"内の の順序が重要です。パイプ指定されたデータは特定の順で受け入れられます。image が最初になり、その後に label が続きます。したがって、AttributeNamesこの例の「」は、"source-ref"最初に が、その後に が続きます"class"。Augmented Manifest で ImageClassification アルゴリズムを使用する場合、 RecordWrapperTypeパラメータの値は である必要があります"RecordIO"

マルチラベルトレーニングは、値のJSON配列を指定することでもサポートされています。num_classes ハイパーパラメータは、クラスの合計数と一致するように設定する必要があります。有効なラベル形式には、multi-hot と class-id の 2 つがあります。

multi-hot 形式では、各ラベルはすべてのクラスの multi-hot エンコードされたベクトルであり、各クラスは 0 または 1 の値をとります。次の例では 3 つのクラスがあります。最初のイメージはクラス 0 と 2 でラベル付けされ、2 番目のイメージはクラス 2 のみでラベル付けされます。

{"image-ref": "s3://amzn-s3-demo-bucket/sample01/image1.jpg", "class": "[1, 0, 1]"} {"image-ref": "s3://amzn-s3-demo-bucket/sample02/image2.jpg", "class": "[0, 0, 1]"}

class-id 形式では、各ラベルはデータポイントに適用される [0, num_classes) からのクラス ID のリストです。代わりに、前の例は次のようになります。

{"image-ref": "s3://amzn-s3-demo-bucket/sample01/image1.jpg", "class": "[0, 2]"} {"image-ref": "s3://amzn-s3-demo-bucket/sample02/image2.jpg", "class": "[2]"}

マルチホット形式はデフォルトですが、 label-formatパラメータを使用してコンテンツタイプで明示的に設定できます。 "application/x-recordio; label-format=multi-hot". によって出力される形式である class-id 形式は GroundTruth、明示的に設定する必要があります。 "application/x-recordio; label-format=class-id".

拡張マニフェストファイルの詳細については、トレーニングジョブの拡張マニフェストファイルを参照してください。

段階的トレーニング

新しいモデルのトレーニングを、以前に でトレーニングしたモデルのアーティファクトでシードすることもできます SageMaker。インクリメンタルトレーニングでは、同じデータまたは類似のデータを使用して新しいモデルをトレーニングする場合のトレーニング時間を節約できます。 SageMaker 画像分類モデルは、 でトレーニングされた別の組み込み画像分類モデルでのみシードできます SageMaker。

事前トレーニング済みモデルを使用するには、CreateTrainingJob リクエストで、InputDataConfig パラメータに ChannelName を "model" と指定します。モデルチャネルの ContentTypeapplication/x-sagemaker-model に設定します。モデルチャネルにアップロードする新しいモデルと事前トレーニング済みモデルの両方の入力ハイパーパラメータの設定は、num_layersimage_shape、および num_classes 入力パラメータの設定と同じである必要があります。これらのパラメータはネットワークアーキテクチャーを定義します。事前トレーニング済みモデルファイルには、 によって圧縮されたモデルアーティファクト (.tar.gz 形式) 出力を使用します SageMaker。入力データには、RecordIO 形式またはイメージ形式を使用できます。

イメージ分類アルゴリズムによる推論

生成されたモデルは推論のためにホストでき、エンコードされた .jpg および .png イメージ形式を image/png, image/jpeg、および application/x-image コンテンツタイプとしてサポートします。入力イメージのサイズは自動的に変更されます。出力は、 JSON形式でエンコードされたすべてのクラスの確率値、またはバッチ変換用のJSON行テキスト形式です。イメージ分類モデルはリクエストごとに 1 つのイメージを処理するため、 JSONまたは Lines 形式で 1 JSON 行のみを出力します。JSON Lines 形式のレスポンスの例を次に示します。

accept: application/jsonlines {"prediction": [prob_0, prob_1, prob_2, prob_3, ...]}

トレーニングと推論の詳細については、概要説明で言及しているイメージ分類サンプルノートブックのインスタンスを参照してください。

EC2 画像分類アルゴリズムのインスタンスレコメンデーション

イメージ分類では、P2、P3、G4dn、G5 インスタンスをサポートしています。バッチサイズが大きいトレーニングには、メモリの大きいGPUインスタンスを使用することをお勧めします。分散トレーニングのマルチGPUマシン設定とマルチマシン設定でアルゴリズムを実行することもできます。CPU (C4 など) インスタンスと GPU (P2、P3, G4dnインスタンスの両方を推論に使用できます。 G5

イメージ分類サンプルノートブック

SageMaker 画像分類アルゴリズムを使用するサンプルノートブックについては、 SageMaker 「パイプライン によるMXNet画像分類モデルの構築と登録」を参照してください。で例を実行するために使用できる Jupyter Notebook インスタンスを作成してアクセスする手順については SageMaker、「」を参照してくださいAmazon SageMaker Notebook インスタンス。ノートブックインスタンスを作成して開いたら、SageMaker「例」タブを選択すると、すべての SageMaker サンプルのリストが表示されます。イメージ分類サンプルノートブックは、[Introduction to Amazon algorithm (Amazon アルゴリズムの概要)] セクションにあります。ノートブックを開くには、その [Use (使用)] タブをクリックして [Create copy (コピーを作成)] を選択します。