XGBoost© es una implementación avanzada de un algoritmo de aumento de gradiente. Los algoritmos de aumento conocen de forma iterativa los clasificadores débiles y, a continuación, los añaden a un clasificador fuerte final. XGBoost es muy flexible y proporciona muchos parámetros que pueden resultar abrumadores para la mayoría de los usuarios, por lo que el nodo XGBoost-AS en ' watsonx.ai Studio ' expone las características principales y los parámetros más utilizados. El nodo XGBoost-AS se implementa en Spark.
Para obtener más información sobre los algoritmos de aumento, consulte las Guías de aprendizaje de XGBoost. 1
Tenga en cuenta que la función de validación cruzada XGBoost no es compatible con ' watsonx.ai Studio. Puede utilizar el nodo Partición para esta funcionalidad. Observe también que XGBoost en ' watsonx.ai Studio ' realiza la codificación one-hot automáticamente para variables categóricas.
- En Mac, es necesaria la versión 10.12.3 o superior para crear modelos XGBoost-AS.
- XGBoost no está soportado en IBM POWER.
1 "Guías de aprendizaje de XGBoost." Aumento de gradiente escalable y flexible. Web. © 2015-2016 DMLC.