Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Come CatBoost funziona

Modalità Focus
Come CatBoost funziona - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

CatBoost implementa un algoritmo Gradient Boosting Decision Tree (GBDT) convenzionale con l'aggiunta di due progressi algoritmici critici:

  1. L'implementazione del boosting ordinato, un'alternativa basata sulla permutazione all'algoritmo classico

  2. Un algoritmo innovativo per l'elaborazione di funzionalità categoriali

Entrambe le tecniche sono state create per contrastare un cambiamento di previsione causato da uno speciale tipo di perdita di dati di destinazione presente in tutte le implementazioni attualmente esistenti degli algoritmi di gradient boosting.

L' CatBoost algoritmo si comporta bene nelle competizioni di machine learning grazie alla sua solida gestione di una varietà di tipi di dati, relazioni, distribuzioni e alla varietà di iperparametri che è possibile ottimizzare. È possibile utilizzarlo CatBoost per problemi di regressione, classificazione (binaria e multiclasse) e classificazione.

Per ulteriori informazioni sul gradient boosting, consulta Come funziona l' XGBoost algoritmo SageMaker AI. Per dettagli approfonditi sulle tecniche GOSS ed EFB aggiuntive utilizzate nel CatBoost metodo, vedereCatBoost: miglioramento imparziale con caratteristiche categoriche.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.