翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
TensorFlow ハブモデル
テキスト分類 - TensorFlow アルゴリズムを使用した転送学習には、以下の事前トレーニング済みモデルを使用できます。
次のモデルは、指定するデータセットにより、サイズ、モデルパラメータの数、トレーニング時間、および推定レイテンシーが大きく異なります。ユースケースに最適なモデルは、微調整するデータセットの複雑さや、トレーニング時間、推論レイテンシー、またはモデルの精度に関する要件によって異なります。
モデル名 | model_id |
ソース |
---|---|---|
BERT 大文字と小文字を区別しないベース |
|
|
BERT ベースケース |
|
|
BERT ベース多言語ケースド |
|
|
小型 BERT L-2_H-128_A-2 |
|
|
小型 BERT L-2_H-256_A-4 |
|
|
小型 BERT L-2_H-512_A-8 |
|
|
小型 BERT L-2_H-768_A-12 |
|
|
小型 BERT L-4_H-128_A-2 |
|
|
小型 BERT L-4_H-256_A-4 |
|
|
小型 BERT L-4_H-512_A-8 |
|
|
小型 BERT L-4_H-768_A-12 |
|
|
小型 BERT L-6_H-128_A-2 |
|
|
小型 BERT L-6_H-256_A-4 |
|
|
小型 BERT L-6_H-512_A-8 |
|
|
小型 BERT L-6_H-768_A-12 |
|
|
小型 BERT L-8_H-128_A-2 |
|
|
小型 BERT L-8_H-256_A-4 |
|
|
小型 BERT L-8_H-512_A-8 |
|
|
小型 BERT L-8_H-768_A-12 |
|
|
小型 BERT L-10_H-128_A-2 |
|
|
小型 BERT L-10_H-256_A-4 |
|
|
小型 BERT L-10_H-512_A-8 |
|
|
小型 BERT L-10_H-768_A-12 |
|
|
小型 BERT L-12_H-128_A-2 |
|
|
小型 BERT L-12_H-256_A-4 |
|
|
小型 BERT L-12_H-512_A-8 |
|
|
小型 BERT L-12_H-768_A-12 |
|
|
BERT ラージ、ケースなし |
|
|
BERT ラージケースド |
|
|
BERT 大きな大文字と小文字を区別しない全単語マスキング |
|
|
BERT ラージケースド全単語マスキング |
|
|
ALBERT ベース |
|
|
ELECTRA Small++ |
|
|
ELECTRA ベース |
|
|
BERT ベース Wikipedia と BooksCorpus |
|
|
BERT ベース MEDLINE/PubMed |
|
|
トラッキングヘッド Base |
|
|
トラッキングヘッド Large |
|