Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Ajustar um modelo NTM

Modo de foco
Ajustar um modelo NTM - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

O ajuste automático de modelos, também conhecido como ajuste de hiperparâmetros, localiza a melhor versão de um modelo executando vários trabalhos que testam uma série de hiperparâmetros no seu conjunto de dados. Você escolhe os hiperparâmetros ajustáveis, um intervalo de valores para cada um e uma métrica objetiva. Você escolhe a métrica objetiva entre as métricas que o algoritmo calcula. O ajuste de modelo automático pesquisa os hiperparâmetros escolhidos para encontrar a combinação de valores que resultam no modelo que otimiza a métrica objetiva.

O Amazon SageMaker AI NTM é um algoritmo de aprendizado não supervisionado que aprende representações latentes de grandes coleções de dados discretos, como um corpus de documentos. Representações latentes usam variáveis inferidas que não são medidas diretamente para modelar as observações em um conjunto de dados. O ajuste automático de modelo no NTM ajuda a encontrar o modelo que minimiza a perda sobre os dados de treinamento ou validação. A perda de treinamento mede o quão bem o modelo se encaixa nos dados de treinamento. A perda de validação mede o quão bem o modelo pode generalizar para os dados nos quais ele não é treinado. Uma baixa perda de treinamento indica que um modelo é uma boa opção para os dados de treinamento. Uma baixa perda de validação indica que um modelo não causou sobreajuste nos dados de treinamento e, portanto, deve ser capaz de modelar com sucesso os documentos nos quais não foi treinado. Normalmente, é preferível que ambas as perdas sejam pequenas. No entanto, minimizar a perda de treinamento em excesso pode resultar em um superajuste e aumentar a perda de validação, o que reduziria a generalidade do modelo.

Para mais informações sobre o ajuste de modelos, consulte Ajuste automático do modelo com SageMaker IA.

Métricas calculadas pelo algoritmo NTM

O algoritmo NTM relata uma única métrica que é calculada durante o treinamento: validation:total_loss. A perda total é a soma da perda de reconstrução e da divergência de Kullback-Leibler. Ao ajustar os valores de hiperparâmetros, escolha essa métrica como o objetivo.

Nome da métrica Descrição Direção de otimização
validation:total_loss

Perda total no conjunto de validação

Minimizar

Hyperparameters ajustáveis do NTM

Você pode ajustar os seguintes hiperparâmetros para o algoritmo NTM: Normalmente, configurar valores mini_batch_size baixos e learning_rate pequenos resulta em perdas de validação mais baixas, embora possa exigir maior tempo de treinamento. Baixas perdas de validação não necessariamente produzem mais tópicos coerentes conforme interpretados pelos seres humanos. O efeito de outros hiperparâmetros na perda de treinamento e validação pode variar dependendo do conjunto de dados. Para ver quais valores são compatíveis, consulte Hiperparâmetros do NTM.

Nome do parâmetro Tipo de parâmetro Intervalos recomendados
encoder_layers_activation

CategoricalParameterRanges

['sigmoid', 'tanh', 'relu']

learning_rate

ContinuousParameterRange

MinValue: 1e-4, MaxValue: 0,1

mini_batch_size

IntegerParameterRanges

MinValue: 16, :2048 MaxValue

optimizer

CategoricalParameterRanges

['sgd', 'adam', 'adadelta']

rescale_gradient

ContinuousParameterRange

MinValue: 0,1, MaxValue 1,0

weight_decay

ContinuousParameterRange

MinValue: 0,0, MaxValue 1,0

Nesta página

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.