本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
TensorFlow 集线器型号
以下预训练模型可用于使用文本分类- TensorFlow 算法进行迁移学习。
对于任何给定数据集,以下模型在大小、模型参数数量、训练时间和推理延迟方面差异很大。最适合您的使用场景的模型取决于微调数据集的复杂性,以及您对训练时间、推理延迟或模型准确性的任何要求。
模型名称 | model_id |
来源 |
---|---|---|
BERTBase uncase |
|
|
BERT底座外壳 |
|
|
BERT基础多语言保护壳 |
|
|
小 BERT L-2_H-128_A-2 |
|
|
小 BERT L-2_H-256_A-4 |
|
|
小 BERT L-2_H-512_A-8 |
|
|
小 BERT L-2_H-768_A-12 |
|
|
小 BERT L-4_H-128_A-2 |
|
|
小 BERT L-4_H-256_A-4 |
|
|
小 BERT L-4_H-512_A-8 |
|
|
小号 BERT L-4_H-768_A-12 |
|
|
小号 BERT L-6_H-128_A-2 |
|
|
小号 BERT L-6_H-256_A-4 |
|
|
小 BERT L-6_H-512_A-8 |
|
|
小号 BERT L-6_H-768_A-12 |
|
|
小号 BERT L-8_H-128_A-2 |
|
|
小号 BERT L-8_H-256_A-4 |
|
|
小 BERT L-8_H-512_A-8 |
|
|
小号 BERT L-8_H-768_A-12 |
|
|
小 BERT L-10_H-128_A-2 |
|
|
小 BERT L-10_H-256_A-4 |
|
|
小 BERT L-10_H-512_A-8 |
|
|
小号 BERT L-10_H-768_A-12 |
|
|
小 BERT L-12_H-128_A-2 |
|
|
小号 BERT L-12_H-256_A-4 |
|
|
小 BERT L-12_H-512_A-8 |
|
|
小号 BERT L-12_H-768_A-12 |
|
|
BERT大号无壳 |
|
|
BERT大号外壳 |
|
|
BERT大号无大小写的整字掩码 |
|
|
BERT大号大写全字蒙版 |
|
|
ALBERT基地 |
|
|
ELECTRA小号++ |
|
|
ELECTRA基地 |
|
|
BERT基础维基百科和 BooksCorpus |
|
|
BERT基地MEDLINE/PubMed |
|
|
Talking Heads Base |
|
|
Talking Heads Large |
|