XGBoost-AS-Knoten
XGBoost© ist eine erweiterte Implementierung eines Gradienten-Boosting-Algorithmus. Boosting-Algorithmen lernen iterativ schwache Klassifikationsmerkmale und fügen Sie einem endgültigen starken Klassifikationsmerkmal hinzu. XGBoost ist sehr flexibel und bietet viele Parameter, die für die meisten Benutzer überwältigend sein können. Der XGBoost-AS-Knoten in " watsonx.ai Studio stellt daher die wichtigsten Funktionen und häufig verwendeten Parameter vor. Der Knoten "XGBoost-AS" ist in Spark implementiert.
Weitere Informationen zu Boosting-Algorithmen finden Sie unter XGBoost Tutorials. 1
Beachten Sie, dass die XGBoost-Kreuzvalidierungsfunktion in " watsonx.ai Studio nicht unterstützt wird. Zu diesem Zweck können Sie den Partitionsknoten verwenden. Beachten Sie auch, dass XGBoost in " watsonx.ai Studio automatisch eine One-Hot-Codierung für kategoriale Variablen durchführt.
- Auf dem Mac ist Version 10.12.3 oder höher für die Erstellung von XGBoost-AS-Modellen erforderlich.
- XGBoost wird auf IBM POWER nicht unterstützt.
1 "XGBoost Tutorials." Skalierbares und flexibles Gradientenboosting. Web. © 2015 -2016 DMLC.