XGBoost Tree est une implémentation avancée d'un algorithme de boosting de gradient qui utilise un modèle d'arbre comme modèle de base. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. L'arbre XGBoost est très flexible et propose de nombreux paramètres qui peuvent être déconcertants pour la plupart des utilisateurs. Le nœud de l'arbre XGBoost dans le " watsonx.ai Studio expose donc les fonctions principales et les paramètres les plus couramment utilisés. Ce noeud est mis en oeuvre dans Python.
Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1
Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans le " watsonx.ai Studio. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans le " watsonx.ai Studio effectue automatiquement un encodage à une touche pour les variables catégorielles.
1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.