À propos des cookies sur ce site Pour fonctionner correctement, nos sites Internet nécessitent certains cookies (requis). En outre, d'autres cookies peuvent être utilisés avec votre consentement pour analyser l'utilisation d'un site, améliorer l'expérience des utilisateurs et à des fins publicitaires. Pour plus informations, passez en revue vos options de préférences en. En visitant notre site Web, vous acceptez que nous traitions les informations comme décrit dans ladéclaration de confidentialité d’IBM. Pour faciliter la navigation, vos préférences en matière de cookie seront partagées dans les domaines Web d'IBM énumérés ici.
Noeud XGBoost Tree
Dernière mise à jour : 11 févr. 2025
XGBoost Tree est une implémentation avancée d'un algorithme de boosting de gradient qui utilise un modèle d'arbre comme modèle de base. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. L'arbre XGBoost est très flexible et propose de nombreux paramètres qui peuvent être déconcertants pour la plupart des utilisateurs. Le nœud de l'arbre XGBoost dans le " watsonx.ai Studio expose donc les fonctions principales et les paramètres les plus couramment utilisés. Ce noeud est mis en oeuvre dans Python.
Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1
Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans le " watsonx.ai Studio. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans le " watsonx.ai Studio effectue automatiquement un encodage à une touche pour les variables catégorielles.
1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.
La rubrique a-t-elle été utile ?
0/1000