As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Como o SageMaker XGBoost algoritmo funciona
XGBoosté uma implementação popular e eficiente de código aberto do algoritmo de árvores com aumento de gradiente. O aumento de gradiente é um algoritmo de aprendizagem supervisionada, que tenta prever com precisão uma variável de destino. Para isso, combina as estimativas de um conjunto de modelos mais simples e mais fracos.
Ao usar o aumento de gradiente para regressão, os alunos fracos são árvores de regressão, e cada árvore de regressão mapeia um ponto de dados de entrada em uma de suas folhas que contém uma pontuação contínua. XGBoostminimiza uma função objetiva regularizada (L1 e L2) que combina uma função de perda convexa (com base na diferença entre as saídas previstas e alvo) e um termo de penalidade para a complexidade do modelo (em outras palavras, as funções da árvore de regressão). O treinamento prossegue iterativamente, adicionando novas árvores que preveem resíduos ou erros de árvores anteriores, com as quais são combinadas para fazer a previsão final. É chamado de aumento de gradiente porque usa um algoritmo descendente de gradiente para minimizar a perda quando novos modelos são adicionados.
Abaixo está uma breve ilustração de como funciona o aumento de gradiente da árvore.
Para obter mais detalhes sobreXGBoost, consulte: