NTMHiperparâmetros - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

NTMHiperparâmetros

A tabela a seguir lista os hiperparâmetros que você pode definir para o algoritmo Amazon SageMaker Neural Topic Model (NTM).

Nome do parâmetro Descrição

feature_dim

O tamanho do vocabulário do conjunto de dados.

Obrigatório

Valores válidos: inteiro positivo (mínimo: 1; máximo: 1.000.000)

num_topics

O número de tópicos obrigatórios.

Obrigatório

Valores válidos: inteiro positivo (mínimo: 2; máximo: 1000)

batch_norm

Se a normalização de lote deve ser usada durante o treinamento.

Opcional

Valores válidos: true ou false

Valor padrão: false

clip_gradient

A magnitude máxima de cada componente de gradiente.

Opcional

Valores válidos: flutuante (mínimo: 1e-3)

Valor padrão: infinito

encoder_layers

O número de camadas no codificador e o tamanho da saída de cada camada. Quando definido como auto, o algoritmo usa duas camadas com 3 vezes o tamanho de num_topics e 2 vezes o tamanho de num_topics respectivamente.

Opcional

Valores válidos: lista separada por vírgulas de inteiros positivos ou auto

Valor padrão: auto

encoder_layers_activation

A função de ativação a ser usada nos codificadores de camadas.

Opcional

Valores válidos:

Valor padrão: sigmoid

epochs

O número máximo de passagens nos dados de treinamento.

Opcional

Valores válidos: Número inteiro positivo (mínimo: 1)

Valor padrão: 50

learning_rate

A taxa de aprendizagem do otimizador.

Opcional

Valores válidos: flutuante (mínimo: 1e-6; máximo: 1,0)

Valor padrão: 0.001

mini_batch_size

O número de exemplos em cada minilote.

Opcional

Valores válidos: inteiro positivo (mínimo: 1; máximo: 10000)

Valor padrão: 256

num_patience_epochs

O número de epochs sucessivos sobre o qual cada critério de interrupção precoce é avaliado. A interrupção precoce é acionada quando a mudança na função de perda cai abaixo do tolerance especificado no último num_patience_epochs número de epochs. Para desativar a interrupção precoce, defina num_patience_epochs como um valor maior que epochs.

Opcional

Valores válidos: Número inteiro positivo (mínimo: 1)

Valor padrão: 3

optimizer

O otimizador a ser usado para o treinamento.

Opcional

Valores válidos:

Valor padrão: adadelta

rescale_gradient

O fator de redimensionamento do gradiente.

Opcional

Valores válidos: flutuante (mínimo: 1e-3; máximo: 1,0)

Valor padrão: 1.0

sub_sample

A fração dos dados de treinamento da qual obter uma amostra para treinamento por epoch.

Opcional

Valores válidos: flutuante (mínimo: 0,0; máximo: 1,0)

Valor padrão: 1.0

tolerance

A mudança relativa máxima na função de perda. A interrupção precoce é acionada quando a mudança na função de perda cai abaixo desse valor no último num_patience_epochs número de epochs.

Opcional

Valores válidos: flutuante (mínimo: 1e-6; máximo: 0,1)

Valor padrão: 0.001

weight_decay

O coeficiente de degradação do peso. Adiciona regularização L2.

Opcional

Valores válidos: flutuante (mínimo: 0,0; máximo: 1,0)

Valor padrão: 0.0