Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
TensorFlow Modèles de hub
Les modèles préentraînés suivants peuvent être utilisés pour l'apprentissage par transfert avec l' TensorFlow algorithme de classification de texte.
Les modèles suivants varient de manière significative par leur taille, le nombre de paramètres de modèle, la durée d'entraînement et la latence d'inférence pour n'importe quel jeu de données. Le meilleur modèle pour votre cas d'utilisation dépend de la complexité de l'affinage du jeu de données et de toutes vos exigences en matière de durée d'entraînement, de latence d'inférence ou de précision du modèle.
Nom du modèle | model_id |
Source |
---|---|---|
BERTBase sans boîtier |
|
|
BERTBoîtier de base |
|
|
BERTAffaires multilingues de base |
|
|
Petit BERT L-2_H-128_A-2 |
|
|
Petit BERT L-2_H-256_A-4 |
|
|
Petit BERT L-2_H-512_A-8 |
|
|
Petit BERT L-2_H-768_A-12 |
|
|
Petit BERT L-4_H-128_A-2 |
|
|
Petit BERT L-4_H-256_A-4 |
|
|
Petit BERT L-4_H-512_A-8 |
|
|
Petit BERT L-4_H-768_A-12 |
|
|
Petit BERT L-6_H-128_A-2 |
|
|
Petit BERT L-6_H-256_A-4 |
|
|
Petit BERT L-6_H-512_A-8 |
|
|
Petit BERT L-6_H-768_A-12 |
|
|
Petit BERT L-8_H-128_A-2 |
|
|
Petit BERT L-8_H-256_A-4 |
|
|
Petit BERT L-8_H-512_A-8 |
|
|
Petit BERT L-8_H-768_A-12 |
|
|
Petit BERT L-10_H-128_A-2 |
|
|
Petit BERT L-10_H-256_A-4 |
|
|
Petit BERT L-10_H-512_A-8 |
|
|
Petit BERT L-10_H-768_A-12 |
|
|
Petit BERT L-12_H-128_A-2 |
|
|
Petit BERT L-12_H-256_A-4 |
|
|
Petit BERT L-12_H-512_A-8 |
|
|
Petit BERT L-12_H-768_A-12 |
|
|
BERTGrand sans étui |
|
|
BERTGrand étui |
|
|
BERTGrand masquage de mots entiers non encadré |
|
|
BERTMasquage du mot entier dans un grand étui |
|
|
ALBERTBase |
|
|
ELECTRAPetit++ |
|
|
ELECTRABase |
|
|
BERTWikipédia de base et BooksCorpus |
|
|
BERTSocleMEDLINE/PubMed |
|
|
Talking Heads Base |
|
|
Talking Heads Large |
|