Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
CatBoost implementa un algoritmo Gradient Boosting Decision Tree (GBDT) convenzionale con l'aggiunta di due progressi algoritmici critici:
L'implementazione del boosting ordinato, un'alternativa basata sulla permutazione all'algoritmo classico
Un algoritmo innovativo per l'elaborazione di funzionalità categoriali
Entrambe le tecniche sono state create per contrastare un cambiamento di previsione causato da uno speciale tipo di perdita di dati di destinazione presente in tutte le implementazioni attualmente esistenti degli algoritmi di gradient boosting.
L' CatBoost algoritmo si comporta bene nelle competizioni di machine learning grazie alla sua solida gestione di una varietà di tipi di dati, relazioni, distribuzioni e alla varietà di iperparametri che è possibile ottimizzare. È possibile utilizzarlo CatBoost per problemi di regressione, classificazione (binaria e multiclasse) e classificazione.
Per ulteriori informazioni sul gradient boosting, consulta Come funziona l' XGBoost algoritmo SageMaker AI. Per dettagli approfonditi sulle tecniche GOSS ed EFB aggiuntive utilizzate nel CatBoost metodo, vedereCatBoost: miglioramento imparziale con caratteristiche categoriche.