Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Iperparametri NTM

Modalità Focus
Iperparametri NTM - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

La tabella seguente elenca gli iperparametri che puoi impostare per l'algoritmo Amazon SageMaker AI Neural Topic Model (NTM).

Nome parametro Descrizione

feature_dim

La dimensione del vocabolario del set di dati.

Campo obbligatorio

Valori validi: numeri interi positivi (min: 1, max: 1,000,000)

num_topics

Il numero di argomenti richiesti.

Campo obbligatorio

Valori validi: numeri interi positivi (min: 2, max: 1000)

batch_norm

Indica se utilizzare la normalizzazione in batch durante l’addestramento.

Opzionale

Valori validi: true o false

Valore predefinito: false

clip_gradient

La grandezza massima di ogni componente gradiente.

Opzionale

Valori validi: float (min: 1e-3)

Valore predefinito: Infinity

encoder_layers

Il numero di livelli nel codificatore e le dimensioni dell'output di ogni livello. Se impostato su auto, l'algoritmo utilizza due livelli di dimensioni 3 x num_topics e 2 x num_topics rispettivamente.

Opzionale

Valori validi: elenco separato da virgole di numeri interi positivi o auto

Valore predefinito: auto

encoder_layers_activation

La funzione di attivazione da utilizzare nei livelli del codificatore.

Opzionale

Valori validi:

Valore predefinito: sigmoid

epochs

Numero massimo di passate sui dati di addestramento.

Opzionale

Valori validi: numeri interi positivi (min: 1)

Valore predefinito: 50

learning_rate

La velocità di apprendimento dell'ottimizzatore.

Opzionale

Valori validi: float (min: 1e-6, max: 1.0)

Valore predefinito: 0,001

mini_batch_size

Il numero di esempi in ogni mini-batch.

Opzionale

Valori validi: numeri interi positivi (min: 1, max: 10000)

Valore predefinito: 256

num_patience_epochs

Il numero di epoche (Unix epoch) successive in base al quale il criterio di arresto precoce viene valutato. L'arresto precoce viene attivato quando la modifica della funzione di perdita scende al di sotto della tolerance specificata nell'ultimo numero di epoche (Unix epochs) num_patience_epochs. Per disabilitare l'esclusione dello stopword precoce, imposta num_patience_epochs su un valore maggiore di epochs.

Opzionale

Valori validi: numeri interi positivi (min: 1)

Valore predefinito: 3

optimizer

L'ottimizzatore da utilizzare per l’addestramento.

Opzionale

Valori validi:

Valore predefinito: adadelta

rescale_gradient

Il fattore di ridimensionamento per il gradiente.

Opzionale

Valori validi: float (min: 1e-3, max: 1.0)

Valore predefinito: 1.0

sub_sample

La frazione dei dati di addestramento da campionare per l’addestramento per ogni epoca (Unix epoch).

Opzionale

Valori validi: float (min: 0.0, max: 1.0)

Valore predefinito: 1.0

tolerance

La modifica relativa massima nella funzione di perdita. L'arresto precoce viene attivato quando la modifica della funzione di perdita scende al di sotto di questo valore nell'ultimo numero di epoche (Unix epochs) num_patience_epochs.

Opzionale

Valori validi: float (min: 1e-6, max: 0.1)

Valore predefinito: 0,001

weight_decay

Il coefficiente di decadimento del peso. Aggiunge la regolarizzazione L2.

Opzionale

Valori validi: float (min: 0.0, max: 1.0)

Valore predefinito: 0.0

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.