0 / 0
Retourner à la version anglaise de la documentation
Noeud XGBoost Tree
Dernière mise à jour : 22 nov. 2024
Sources de données prises en charge (SPSS Modeler)

XGBoost Tree est une implémentation avancée d'un algorithme de boosting de gradient qui utilise un modèle d'arbre comme modèle de base. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. L'arbre XGBoost est très flexible et propose de nombreux paramètres qui peuvent être déconcertants pour la plupart des utilisateurs. Le nœud de l'arbre XGBoost dans le " watsonx.ai Studio expose donc les fonctions principales et les paramètres les plus couramment utilisés. Ce noeud est mis en oeuvre dans Python.

Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1

Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans le " watsonx.ai Studio. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans le " watsonx.ai Studio effectue automatiquement un encodage à une touche pour les variables catégorielles.

1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus