XGBoost© è un'implmentazione avanzata di un algoritmo gradient boosting. Gli algoritmi Boosting rilevano in modo interattivo i classificatori deboli e li aggiungono ai classificatori forti finali. XGBoost è molto flessibile e fornisce molti parametri che possono essere eccessivi per la maggior parte degli utenti, quindi il nodo XGBoost-AS in 'watsonx.ai Studio espone le caratteristiche principali e i parametri comunemente usati. Il nodo XGBoost-AS è implementato in Spark.
Per ulteriori informazioni sugli algoritmi di boosting, consultare Esercitazioni XGBoost. 1
Si noti che la funzione di convalida incrociata XGBoost non è supportata in 'watsonx.ai Studio. È possibile utilizzare il nodo Partizione per questa funzionalità. Si noti inoltre che XGBoost in 'watsonx.ai Studio esegue automaticamente la codifica one-hot per le variabili categoriche.
- Sul Mac, è richiesta la versione 10.12.3 o superiore per la creazione di modelli XGBoost-AS.
- XGBoost non è supportato su IBM POWER.
1 "Supporti didattici XGBoost Boosting gradiente scalabile e flessibile. Web. © 2015-2016 DMLC.