0 / 0
Retourner à la version anglaise de la documentation
Noeud XGBoost-AS
Dernière mise à jour : 22 nov. 2024
Noeud XGBoost-AS (SPSS Modeler)

XGBoost© est une implémentation avancée d'un algorithme de boosting de gradient. Les algorithmes de boosting forment les classificateurs faibles de manière itérative et les ajoutent ensuite à un classificateur fort final. XGBoost est très flexible et fournit de nombreux paramètres qui peuvent être trop importants pour la plupart des utilisateurs. Le nœud XGBoost-AS dans 'watsonx.ai Studio expose donc les fonctionnalités principales et les paramètres les plus couramment utilisés. Le noeud XGBoost-AS est implémenté dans Spark.

Pour plus d'informations sur les algorithmes de boosting, voir les tutoriels de XGBoost. 1

Notez que la fonction de validation croisée XGBoost n'est pas prise en charge dans le " watsonx.ai Studio. Vous pouvez utiliser le noeud Partitionner pour cette fonctionnalité. Notez également que XGBoost dans le " watsonx.ai Studio effectue automatiquement un encodage à une touche pour les variables catégorielles.

Remarques :
  • Sur Mac, la version 10.12.3 ou supérieure est requise pour générer des modèles XGBoost-AS.
  • XGBoost n'est pas pris en charge sur IBM POWER.

1 « Tutoriels XGBoost. » Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus