XGBoost© est une implémentation avancée d'un algorithme de boosting de gradient. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. XGBoost est très flexible et fournit de nombreux paramètres qui peuvent être trop importants pour la plupart des utilisateurs. Le nœud XGBoost-AS dans 'watsonx.ai Studio expose donc les fonctionnalités principales et les paramètres les plus couramment utilisés. Le noeud XGBoost-AS est implémenté dans Spark.
Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1
Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans le " watsonx.ai Studio. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans le " watsonx.ai Studio effectue automatiquement un encodage à une touche pour les variables catégorielles.
- Sur Mac, la version 10.12.3 ou supérieure est requise pour générer des modèles XGBoost-AS.
- XGBoost n'est pas pris en charge sur IBM POWER.
1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.