As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
O ajuste automático de modelos, também conhecido como ajuste de hiperparâmetros, localiza a melhor versão de um modelo executando vários trabalhos que testam uma série de hiperparâmetros no seu conjunto de dados. O ajuste do modelo se concentra nos seguintes hiperparâmetros:
nota
A função de objetivo de aprendizado é atribuída automaticamente com base no tipo de tarefa de classificação, que é determinado pelo número de números inteiros exclusivos na coluna do rótulo. Para obter mais informações, consulte Hiperparâmetros LightGBM.
-
Uma função de objetivo de aprendizado para otimizar durante o treinamento do modelo
-
Uma métrica de avaliação usada para avaliar o desempenho do modelo durante a validação
-
Um conjunto de hiperparâmetros e uma faixa de valores para cada um usar ao ajustar o modelo automaticamente
O ajuste de modelo automático pesquisa os seus hiperparâmetros especificados para encontrar a combinação de valores que resultam no modelo que otimiza a métrica objetiva.
nota
O ajuste automático do modelo para o LightGBM está disponível apenas na Amazon SageMaker SDKs, não no console SageMaker AI.
Para mais informações sobre o ajuste de modelos, consulte Ajuste automático do modelo com SageMaker IA.
Métricas de avaliação calculadas pelo algoritmo LightGBM
O algoritmo SageMaker AI LightGBM calcula as seguintes métricas para usar na validação do modelo. A métrica de avaliação é atribuída automaticamente com base no tipo de tarefa de classificação, que é determinado pelo número de números inteiros exclusivos na coluna do rótulo.
Nome da métrica | Descrição | Direção de otimização | Padrão Regex |
---|---|---|---|
rmse |
erro quadrático médio. | minimizar | "rmse: ([0-9\\.]+)" |
l1 |
erro absoluto médio | minimizar | "l1: ([0-9\\.]+)" |
l2 |
erro quadrático médio | minimizar | "l2: ([0-9\\.]+)" |
huber |
perda de huber | minimizar | "huber: ([0-9\\.]+)" |
fair |
perda justa | minimizar | "fair: ([0-9\\.]+)" |
binary_logloss |
entropia cruzada binária | maximizar | "binary_logloss: ([0-9\\.]+)" |
binary_error |
erro binário | minimizar | "binary_error: ([0-9\\.]+)" |
auc |
AUC | maximizar | "auc: ([0-9\\.]+)" |
average_precision |
pontuação de precisão média | maximizar | "average_precision: ([0-9\\.]+)" |
multi_logloss |
entropia cruzada multiclasse | maximizar | "multi_logloss: ([0-9\\.]+)" |
multi_error |
pontuação de erro multiclasse | minimizar | "multi_error: ([0-9\\.]+)" |
auc_mu |
AUC-Mu | maximizar | "auc_mu: ([0-9\\.]+)" |
cross_entropy |
entropia cruzada | minimizar | "cross_entropy: ([0-9\\.]+)" |
Hiperparâmetros ajustáveis LightGBM
Ajuste o modelo LightGBM com os seguintes hiperparâmetros: Os hiperparâmetros que têm o maior efeito na otimização das métricas de avaliação do LightGBM são:learning_rate
, num_leaves
, feature_fraction
, bagging_fraction
, bagging_freq
, max_depth
e min_data_in_leaf
. Para obter uma lista de todos os hiperparâmetros do LightGBM, consulte Hiperparâmetros LightGBM.
Nome do parâmetro | Tipo de parâmetro | Intervalos recomendados |
---|---|---|
learning_rate |
ContinuousParameterRanges | MinValue: 0,001, MaxValue: 0,01 |
num_leaves |
IntegerParameterRanges | MinValue: 10, MaxValue 10 |
feature_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue 1,0 |
bagging_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue 1,0 |
bagging_freq |
IntegerParameterRanges | MinValue: 0, MaxValue 10 |
max_depth |
IntegerParameterRanges | MinValue: 15, MaxValue 10 |
min_data_in_leaf |
IntegerParameterRanges | MinValue: 10, MaxValue 20 |