Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Come funziona l' XGBoost algoritmo SageMaker AI

Modalità Focus
Come funziona l' XGBoost algoritmo SageMaker AI - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

XGBoostè un'implementazione open source popolare ed efficiente dell'algoritmo Gradient Boosted Trees. Il gradient boosting è un algoritmo di apprendimento supervisionato che tenta di prevedere con precisione una variabile di destinazione combinando le stime di un insieme di modelli più semplici e deboli.

Quando si utilizza il gradient boosting per la regressione, gli studenti più deboli sono alberi di regressione e ogni albero di regressione mappa un punto dati di input su una delle sue foglie che contiene un punteggio continuo. XGBoost minimizza una funzione obiettivo regolarizzata (L1 e L2) che combina una funzione di perdita convessa (basata sulla differenza tra gli output previsti e quelli target) e un termine di penalità per la complessità del modello (in altre parole, le funzioni dell'albero di regressione). L’addestramento procede in modo iterativo, aggiungendo nuovi alberi che prevedono i valori residuali o gli errori degli alberi antecedenti, che vengono quindi combinati con gli alberi precedenti per la previsione finale. Questa tecnica viene chiamata gradient boosting (potenziamento del gradiente) poiché utilizza un algoritmo di discesa del gradiente per ridurre al minimo le perdite durante l'aggiunta di nuovi modelli.

Di seguito è riportata una breve illustrazione di come funzionano gli alberi con boosting a gradiente.

Un diagramma che illustra l'aumento dell'albero a gradiente.

Per maggiori dettagli su, vedi: XGBoost

Argomento successivo:

Iperparametri

Argomento precedente:

Notebook di esempio
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.