Acerca de las cookies de este sitio Nuestros sitios web necesitan algunas cookies para funcionar correctamente (necesarias). Además, se pueden utilizar otras cookies con su consentimiento para analizar el uso del sitio, para mejorar la experiencia del usuario y para publicidad. Para obtener más información, consulte sus opciones de. Al visitar nuestro sitio web, acepta que procesemos la información tal y como se describe en ladeclaración de privacidad de IBM. Para facilitar la navegación, sus preferencias de cookies se compartirán entre los dominios web de IBM que se muestran aquí.
Nodo XGBoost Tree
Última actualización: 11 feb 2025
XGBoost Tree© es una implementación avanzada de un algoritmo de aumento de gradiente con un modelo de árbol como modelo base. Los algoritmos de aumento conocen de forma iterativa los clasificadores débiles y, a continuación, los añaden a un clasificador fuerte final. XGBoost Tree es muy flexible y proporciona muchos parámetros que pueden ser abrumadores para la mayoría de los usuarios, por lo que el nodo XGBoost Tree en ' watsonx.ai Studio ' expone las características principales y los parámetros más utilizados. El nodo se implementa en Python.
Para obtener más información sobre los algoritmos de aumento, consulte las Guías de aprendizaje de XGBoost. 1
Tenga en cuenta que la función de validación cruzada XGBoost no es compatible con ' watsonx.ai Studio. Puede utilizar el nodo Partición para esta funcionalidad. Observe también que XGBoost en ' watsonx.ai Studio ' realiza la codificación one-hot automáticamente para variables categóricas.
1 "Guías de aprendizaje de XGBoost." Aumento de gradiente escalable y flexible. Web. © 2015-2016 DMLC.
¿Fue útil el tema?
0/1000