As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Ajustar um modelo de aprendizagem linear
O ajuste automático de modelos, também conhecido como ajuste de hiperparâmetros, localiza a melhor versão de um modelo executando vários trabalhos que testam uma série de hiperparâmetros no seu conjunto de dados. Você escolhe os hiperparâmetros ajustáveis, um intervalo de valores para cada um e uma métrica objetiva. Você escolhe a métrica objetiva entre as métricas que o algoritmo calcula. O ajuste de modelo automático pesquisa os hiperparâmetros escolhidos para encontrar a combinação de valores que resultam no modelo que otimiza a métrica objetiva.
O algoritmo de Aprendizagem linear também tem um mecanismo interno para ajuste de hiperparâmetros separados do recurso de ajuste de modelo automático descrito aqui. Por padrão, o algoritmo de Aprendizagem linear ajusta os hiperparâmetros treinando vários modelos em paralelo. Quando você usa o ajuste automático de modelo, o mecanismo de ajuste interno de Aprendizagem linear é desativado automaticamente. Isso define o número de modelos paralelos, num_models
, como 1. O algoritmo ignora qualquer valor que você tenha definido para num_models
.
Para mais informações sobre o ajuste de modelos, consulte Ajuste automático do modelo com SageMaker.
Métricas calculadas pelo algoritmo de aprendizagem linear
O algoritmo de aprendizagem linear relata as métricas na tabela a seguir, que são calculadas durante o treinamento. Escolha uma deles como a métrica objetiva. Para evitar o sobreajuste, recomendamos ajustar o modelo em uma métrica de validação em vez de em uma métrica de treinamento.
Nome da métrica | Descrição | Direção de otimização |
---|---|---|
test:absolute_loss |
A perda absoluta do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para regressão. |
Minimizar |
test:binary_classification_accuracy |
A precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação binária. |
Maximizar |
test:binary_f_beta |
A pontuação F-beta do modelo final no conjunto de dados de teste. Por padrão, é a pontuação F1, que é a média harmônica de precisão e recall. Essa métrica objetiva só é válida para classificação binária. |
Maximizar |
test:dcg |
O ganho cumulativo descontado do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
test:macro_f_beta |
A pontuação F-beta do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
test:macro_precision |
A pontuação da precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
test:macro_recall |
A pontuação do recall do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
test:mse |
O erro quadrático médio do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para regressão. |
Minimizar |
test:multiclass_accuracy |
A precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
test:multiclass_top_k_accuracy |
A precisão entre os k principais rótulos previstos no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos definir o valor de k usando o hiperparâmetro |
Maximizar |
test:objective_loss |
O valor médio da função de perda de objetivo no conjunto de dados de teste após o modelo ser treinado. Por padrão, a perda é a perda logística para classificação binária e a perda quadrada para regressão. Para definir a perda como outros tipos, use o hiperparâmetro |
Minimizar |
test:precision |
A precisão do modelo final no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos configurar um recall de destino definindo o hiperparâmetro |
Maximizar |
test:recall |
O recall do modelo final no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos configurar uma precisão de destino definindo o hiperparâmetro |
Maximizar |
test:roc_auc_score |
A área sob a curva característica operacional receptora (curva ROC) do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação binária. |
Maximizar |
validation:absolute_loss |
A perda absoluta do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão. |
Minimizar |
validation:binary_classification_accuracy |
A precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação binária. |
Maximizar |
validation:binary_f_beta |
A pontuação F-beta do modelo final no conjunto de dados de validação. Por padrão, a pontuação F-beta é a pontuação F1, que é a média harmônica das métricas |
Maximizar |
validation:dcg |
O ganho cumulativo descontado do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
validation:macro_f_beta |
A pontuação F-beta do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
validation:macro_precision |
A pontuação de precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
validation:macro_recall |
A pontuação do recall do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
validation:mse |
O erro quadrático médio do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão. |
Minimizar |
validation:multiclass_accuracy |
A precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse. |
Maximizar |
validation:multiclass_top_k_accuracy |
A precisão entre os k principais rótulos previstos no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos definir o valor de k usando o hiperparâmetro |
Maximizar |
validation:objective_loss |
O valor médio da função de perda de objetivo no conjunto de dados de validação a cada epoch. Por padrão, a perda é a perda logística para classificação binária e a perda quadrada para regressão. Para definir a perda como outros tipos, use o hiperparâmetro |
Minimizar |
validation:precision |
A precisão do modelo final no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos configurar um recall de destino definindo o hiperparâmetro |
Maximizar |
validation:recall |
O recall do modelo final no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos configurar uma precisão de destino definindo o hiperparâmetro |
Maximizar |
validation:rmse |
A raiz do erro quadrático médio do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão. |
Minimizar |
validation:roc_auc_score |
A área sob a curva característica de operação receptora (curva ROC) do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação binária. |
Maximizar |
Ajuste de hiperparâmetros da aprendizagem linear
Você pode ajustar um modelo de aprendizagem linear com os seguintes hiperparâmetros.
Nome do parâmetro | Tipo de parâmetro | Intervalos recomendados |
---|---|---|
wd |
|
|
l1 |
|
|
learning_rate |
|
|
mini_batch_size |
|
|
use_bias |
|
|
positive_example_weight_mult |
|
|