Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Gli iperparametri sono parametri impostati prima che un modello di machine learning inizi l'apprendimento. I seguenti iperparametri sono supportati dall' TensorFlow algoritmo Object Detection integrato di Amazon SageMaker AI. Per ulteriori informazioni sull'ottimizzazione iperparametri, consulta Ottimizzazione di una classificazione del testo - modello TensorFlow .
Nome parametro | Descrizione |
---|---|
batch_size |
Le dimensioni del batch per l’addestramento. Per l'addestramento su istanze con più istanze GPUs, questa dimensione del batch viene utilizzata in tutto. GPUs Valori validi: numeri interi positivi. Valore predefinito: |
beta_1 |
La beta1 per gli ottimizzatori Valori validi: float, intervallo: [ Valore predefinito: |
beta_2 |
La beta2 per gli ottimizzatori Valori validi: float, intervallo: [ Valore predefinito: |
dropout_rate |
La percentuale di dropout per il livello di dropout nel livello di classificazione superiore. Usato solo quando Valori validi: float, intervallo: [ Valore predefinito: |
early_stopping |
Imposta su Valori validi: stringa: ( Valore predefinito: |
early_stopping_min_delta |
La modifica minima necessaria per qualificarsi come miglioramento. Una variazione assoluta inferiore al valore di early_stopping_min_delta non si qualifica come miglioramento. Usato solo quando early_stopping è impostato su "True" .Valori validi: float, intervallo: [ Valore predefinito: |
early_stopping_patience |
Il numero di epoche in cui continuare l’addestramento senza alcun miglioramento. Usato solo quando Valori validi: numeri interi positivi. Valore predefinito: |
epochs |
Il numero di epoche (Unix epochs) di addestramento. Valori validi: numeri interi positivi. Valore predefinito: |
epsilon |
L'epsilon per gli ottimizzatori Valori validi: float, intervallo: [ Valore predefinito: |
initial_accumulator_value |
Il valore iniziale per gli accumulatori o i valori di momento per parametro per l'ottimizzatore Valori validi: float, intervallo: [ Valore predefinito: |
learning_rate |
La velocità di apprendimento dell'ottimizzatore. Valori validi: float, intervallo: [ Valore predefinito: |
momentum |
Il momento per gli ottimizzatori Valori validi: float, intervallo: [ Valore predefinito: |
optimizer |
Il tipo di ottimizzazione. Per ulteriori informazioni, consulta Ottimizzatori Valori validi: stringa, uno dei seguenti valori: ( Valore predefinito: |
regularizers_l2 |
Il fattore di regolarizzazione L2 per il livello denso nel livello di classificazione. Usato solo quando Valori validi: float, intervallo: [ Valore predefinito: |
reinitialize_top_layer |
Se impostato su Valori validi: stringa, uno dei seguenti valori: ( Valore predefinito: |
rho |
Il fattore di sconto per il gradiente degli ottimizzatori Valori validi: float, intervallo: [ Valore predefinito: |
train_only_on_top_layer |
Se Valori validi: stringa: ( Valore predefinito: |
validation_split_ratio |
La frazione di dati di addestramento da dividere casualmente per creare dati di convalida. Utilizzata solo se i dati di convalida non vengono forniti attraverso il canale Valori validi: float, intervallo: [ Valore predefinito: |
warmup_steps_fraction |
La frazione del numero totale di fasi di aggiornamento del gradiente, in cui il tasso di apprendimento aumenta da 0 al tasso di apprendimento iniziale durante il riscaldamento. Utilizzato solo con l'ottimizzatore Valori validi: float, intervallo: [ Valore predefinito: |