

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Classificazione del testo - TensorFlow Iperparametri
<a name="text-classification-tensorflow-Hyperparameter"></a>

Gli iperparametri sono parametri impostati prima che un modello di machine learning inizi l'apprendimento. I seguenti iperparametri sono supportati dall' TensorFlow algoritmo Object Detection integrato di Amazon SageMaker AI. Per ulteriori informazioni sull'ottimizzazione iperparametri, consulta [Ottimizzazione di una classificazione del testo - modello TensorFlow](text-classification-tensorflow-tuning.md). 


| Nome parametro | Description | 
| --- | --- | 
| batch\$1size |  Le dimensioni del batch per l’addestramento. Per l'addestramento su istanze con più istanze GPUs, questa dimensione del batch viene utilizzata in tutto. GPUs  Valori validi: numeri interi positivi. Valore predefinito: `32`.  | 
| beta\$11 |  La beta1 per gli ottimizzatori `"adam"` e `"adamw"`. Rappresenta la percentuale di decadimento esponenziale per stime di primo momento. Ignorato per altri ottimizzatori. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.9`.  | 
| beta\$12 |  La beta2 per gli ottimizzatori `"adam"` e `"adamw"`. Rappresenta la percentuale di decadimento esponenziale per stime di secondo momento. Ignorato per altri ottimizzatori. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.999`.  | 
| dropout\$1rate | La percentuale di dropout per il livello di dropout nel livello di classificazione superiore. Usato solo quando `reinitialize_top_layer` è impostato su `"True"`. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.2` | 
| early\$1stopping |  Imposta su `"True"` per utilizzare la logica di arresto precoce durante l’addestramento. Se `"False"`, l'arresto anticipato non viene utilizzato. Valori validi: stringa: (`"True"` o `"False"`). Valore predefinito: `"False"`.  | 
| early\$1stopping\$1min\$1delta | La modifica minima necessaria per qualificarsi come miglioramento. Una variazione assoluta inferiore al valore di early\$1stopping\$1min\$1delta non si qualifica come miglioramento. Usato solo quando early\$1stopping è impostato su "True".Valori validi: float, intervallo: [`0.0`, `1.0`].Valore predefinito: `0.0`. | 
| early\$1stopping\$1patience |  Il numero di epoche in cui continuare l’addestramento senza alcun miglioramento. Usato solo quando `early_stopping` è impostato su `"True"`. Valori validi: numeri interi positivi. Valore predefinito: `5`.  | 
| epochs |  Il numero di epoche (Unix epochs) di addestramento. Valori validi: numeri interi positivi. Valore predefinito: `10`.  | 
| epsilon |  L'epsilon per gli ottimizzatori `"adam"`, `"rmsprop"`, `"adadelta"` e `"adagrad"`. Di solito è impostato su un piccolo valore per evitare la divisione per 0. Ignorato per altri ottimizzatori. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `1e-7`.  | 
| initial\$1accumulator\$1value |  Il valore iniziale per gli accumulatori o i valori di momento per parametro per l'ottimizzatore `"adagrad"`. Ignorato per altri ottimizzatori. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.0001`.  | 
| learning\$1rate | La velocità di apprendimento dell'ottimizzatore. Valori validi: float, intervallo: [`0.0`, `1.0`].Valore predefinito: `0.001`. | 
| momentum |  Il momento per gli ottimizzatori `"sgd"` e `"nesterov"`. Ignorato per altri ottimizzatori. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.9`.  | 
| optimizer |  Il tipo di ottimizzazione. Per ulteriori informazioni, consulta [Ottimizzatori](https://www.tensorflow.org/api_docs/python/tf/keras/optimizers) nella TensorFlow documentazione. Valori validi: stringa, uno dei seguenti valori: (`"adamw"`, `"adam"`, `"sgd"`, `"nesterov"`, `"rmsprop"`,` "adagrad"`, `"adadelta"`). Valore predefinito: `"adam"`.  | 
| regularizers\$1l2 |  Il fattore di regolarizzazione L2 per il livello denso nel livello di classificazione. Usato solo quando `reinitialize_top_layer` è impostato su `"True"`. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.0001`.  | 
| reinitialize\$1top\$1layer |  Se impostato su `"Auto"`, i parametri del livello di classificazione superiore vengono reinizializzati durante l’ottimizzazione. Per l'addestramento incrementale, i parametri del livello di classificazione superiore non vengono reinizializzati a meno che non siano impostati su `"True"`. Valori validi: stringa, uno dei seguenti valori: (`"Auto"`, `"True"` o `"False"`). Valore predefinito: `"Auto"`.  | 
| rho |  Il fattore di sconto per il gradiente degli ottimizzatori `"adadelta"` e `"rmsprop"`. Ignorato per altri ottimizzatori.  Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.95`.  | 
| train\$1only\$1on\$1top\$1layer |  Se `"True"`, solo i parametri del livello di classificazione superiore vengono ottimizzati. Se `"False"`, tutti i parametri del modello vengono ottimizzati. Valori validi: stringa: (`"True"` o `"False"`). Valore predefinito: `"False"`.  | 
| validation\$1split\$1ratio |  La frazione di dati di addestramento da dividere casualmente per creare dati di convalida. Utilizzata solo se i dati di convalida non vengono forniti attraverso il canale `validation`. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.2`.  | 
| warmup\$1steps\$1fraction |  La frazione del numero totale di fasi di aggiornamento del gradiente, in cui il tasso di apprendimento aumenta da 0 al tasso di apprendimento iniziale durante il riscaldamento. Utilizzato solo con l'ottimizzatore `adamw`. Valori validi: float, intervallo: [`0.0`, `1.0`]. Valore predefinito: `0.1`.  | 