本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
TensorFlow 中樞模型
下列預先訓練的模型可用於具有文字分類 TensorFlow 演算法的遷移學習。
對於所有特定的資料集,以下模型在大小、模型參數數量、訓練時間和推理延遲方面,存在顯著差異。最適合使用案例的模型取決於微調資料集的複雜度,以及您對訓練時間、推論延遲或模型準確性的任何需求。
模型名稱 | model_id |
來源 |
---|---|---|
BERT 基本未封裝 |
|
|
BERT 基本案例 |
|
|
BERT 基礎多語言案例 |
|
|
小型 BERT L-2_H-128_A-2 |
|
|
小型 BERT L-2_H-256_A-4 |
|
|
小型 BERT L-2_H-512_A-8 |
|
|
小型 BERT L-2_H-768_A-12 |
|
|
小型 BERT L-4_H-128_A-2 |
|
|
小型 BERT L-4_H-256_A-4 |
|
|
小型 BERT L-4_H-512_A-8 |
|
|
小型 BERT L-4_H-768_A-12 |
|
|
小型 BERT L-6_H-128_A-2 |
|
|
小型 BERT L-6_H-256_A-4 |
|
|
小型 BERT L-6_H-512_A-8 |
|
|
小型 BERT L-6_H-768_A-12 |
|
|
小型 BERT L-8_H-128_A-2 |
|
|
小型 BERT L-8_H-256_A-4 |
|
|
小型 BERT L-8_H-512_A-8 |
|
|
小型 BERT L-8_H-768_A-12 |
|
|
小型 BERT L-10_H-128_A-2 |
|
|
小型 BERT L-10_H-256_A-4 |
|
|
小型 BERT L-10_H-512_A-8 |
|
|
小型 BERT L-10_H-768_A-12 |
|
|
小型 BERT L-12_H-128_A-2 |
|
|
小型 BERT L-12_H-256_A-4 |
|
|
小型 BERT L-12_H-512_A-8 |
|
|
小型 BERT L-12_H-768_A-12 |
|
|
BERT 大型未封裝 |
|
|
BERT 大型大小寫 |
|
|
BERT 大型未封裝的整字遮罩 |
|
|
BERT 大型大小寫全字遮罩 |
|
|
ALBERT 基礎 |
|
|
ELECTRA 小型++ |
|
|
ELECTRA 基礎 |
|
|
BERT Base Wikipedia 和 BooksCorpus |
|
|
BERT 基礎 MEDLINE/PubMed |
|
|
Talking Heads Base |
|
|
Talking Heads Large |
|