XGBoost Linear© est une implémentation avancée d'un algorithme de boosting de gradient qui utilise un modèle linéaire comme modèle de base. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. Le noeud XGBoost Linear de watsonx.ai est implémenté dans Python.
Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1
Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans watsonx.ai. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans watsonx.ai effectue automatiquement un codage one-hot pour les variables catégorielles.
1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Relations. © 2015-2016 DMLC.