Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
TensorFlow Hub-Modelle
Die folgenden vortrainierten Modelle können für das Transferlernen mit dem TensorFlow Textklassifizierungsalgorithmus verwendet werden.
Die folgenden Modelle unterscheiden sich erheblich in Größe, Anzahl der Modellparameter, Trainingszeit und Inferenzlatenz für einen bestimmten Datensatz. Welches Modell am besten für Ihren Anwendungsfall geeignet ist, hängt von der Komplexität Ihres Feinabstimmungsdatensatzes und allen Anforderungen ab, die Sie an Trainingszeit, Inferenzlatenz oder Modellgenauigkeit haben.
Modellname | model_id |
Quelle |
---|---|---|
BERT-Base ohne Hülle |
|
|
BERT-Basisgehäuse |
|
|
BERT Base Mehrsprachiges Gehalten |
|
|
Kleines BERT L-2_H-128_A-2 |
|
|
Kleines BERT L-2_H-256_A-4 |
|
|
Kleines BERT L-2_H-512_A-8 |
|
|
Kleines BERT L-2_H-768_A-12 |
|
|
Kleines BERT L-4_H-128_A-2 |
|
|
Kleines BERT L-4_H-256_A-4 |
|
|
Kleines BERT L-4_H-512_A-8 |
|
|
Kleines BERT L-4_H-768_A-12 |
|
|
Kleines BERT L-6_H-128_A-2 |
|
|
Kleines BERT L-6_H-256_A-4 |
|
|
Kleines BERT L-6_H-512_A-8 |
|
|
Kleines BERT L-6_H-768_A-12 |
|
|
Kleines BERT L-8_H-128_A-2 |
|
|
Kleines BERT L-8_H-256_A-4 |
|
|
Kleines BERT L-8_H-512_A-8 |
|
|
Kleines BERT L-8_H-768_A-12 |
|
|
Kleines BERT L-10_H-128_A-2 |
|
|
Kleines BERT L-10_H-256_A-4 |
|
|
Kleiner BERT L-10_H-512_A-8 |
|
|
Kleiner BERT L-10_H-768_A-12 |
|
|
Kleines BERT L-12_H-128_A-2 |
|
|
Kleines BERT L-12_H-256_A-4 |
|
|
Kleines BERT L-12_H-512_A-8 |
|
|
Kleines BERT L-12_H-768_A-12 |
|
|
BERT Large ohne Hülle |
|
|
BERT Großkoffer |
|
|
BERT Große Ganzwortmaskierung ohne Groß- und Kleinschreibung |
|
|
BERT Maskierung ganzer Wörter in Großbuchstaben |
|
|
ALBERT-Untergestell |
|
|
ELECTRA Small ++ |
|
|
ELECTRA-Basis |
|
|
BERT Base Wikipedia und BooksCorpus |
|
|
BERT-Basis MEDLINE/ PubMed |
|
|
Talking Heads Base |
|
|
Talking Heads groß |
|