0 / 0
Zurück zur englischen Version der Dokumentation
Eigenschaften von "xgboosttreenode"
Letzte Aktualisierung: 07. Okt. 2024
Eigenschaften von "xgboosttreenode"

Knotensymbol 'XGBoost Tree'XGBoost Tree© ist eine erweiterte Implementierung eines Gradienten-Boosting-Algorithmus mit einem Baummodell als Basismodell. Boosting-Algorithmen lernen iterativ schwache Klassifikationsmerkmale und fügen Sie einem endgültigen starken Klassifikationsmerkmal hinzu. XGBoost Tree ist sehr flexibel und bietet viele Parameter, die für die meisten Benutzer überwältigend sein können, sodass der Knoten "XGBoost Tree" in SPSS Modeler die zentralen Funktionen und häufig verwendeten Parameter bereitstellt. Der Knoten ist in Python implementiert.

Tabelle 1. xgboosttreenode, Eigenschaften
xgboosttreenodeEigenschaften Datentyp Eigenschaftsbeschreibung
custom_fields Boolesch Diese Option weist den Knoten an, die hier angegebenen Feldinformationen anstelle der in einem vorgeordneten Typknoten angegebenen zu verwenden. Geben Sie nach Auswahl dieser Option die erforderlichen Felder an.
target Feld Die Zielfelder.
inputs Feld Die Eingabefelder.
tree_method Zeichenfolge Die Baummethode für die Modellerstellung. Mögliche Werte sind auto, exact oder approx. Der Standardwert ist auto.
num_boost_round Ganze Zahl Der Wert für die Anzahl Boosting-Runden zur Modellerstellung. Geben Sie einen Wert zwischen 1 und 1000 an. Der Standardwert ist 10.
max_depth Ganze Zahl Die maximale Tiefe für den Baumaufbau. Geben Sie einen Wert ab 1an. Der Standardwert ist 6.
min_child_weight Double Die minimale Gewichtung untergeordneter Elemente für den Baumaufbau. Geben Sie einen Wert ab 0an. Der Standardwert ist 1.
max_delta_step Double Die maximale Delta-Schritt für den Baumaufbau. Geben Sie einen Wert ab 0an. Der Standardwert ist 0.
objective_type Zeichenfolge Der Lernzieltyp für die Aufgabe. Mögliche Werte sindreg:linear, reg:logistic, reg:gamma, reg:tweedie,count:poisson,rank:pairwise, binary:logisticodermulti. Beachten Sie, dass für Flagziele nur binary:logisticoder multiverwendet werden kann. Wenn multiverwendet wird, zeigt das Scoreergebnis die Zieltypen multi:softmaxund multi:softprobXGBoost an.
early_stopping Boolesch Gibt an, ob die Early-Stopping-Funktion verwendet wird. Der Standardwert ist False.
early_stopping_rounds Ganze Zahl Die Anzahl der Validierungsfehler muss nach jeweils einer festgelegten Anzahl Early-Stopping-Runden zurückgehen, damit das Training fortgesetzt werden kann. Der Standardwert ist 10.
evaluation_data_ratio Double Faktor der für Validierungsfehler verwendeten Eingabedaten. Der Standardwert ist 0.3.
random_seed Ganze Zahl Der Startwert für Zufallszahlen. Eine beliebige Zahl zwischen 0und9999999. Der Standardwert ist 0.
sample_size Double Die Teilstichprobe zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.1 und 1.0 an. Der Standardwert ist 0.1.
eta Double Der Eta-Wert zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0 und 1 an. Der Standardwert ist 0.3.
gamma Double Der Gamma-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0an. Der Standardwert ist 6.
col_sample_ratio Double Die Spaltenstichprobe nach Baum zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.01 und 1 an. Der Standardwert ist 1.
col_sample_level Double Die Spaltenstichprobe nach Ebene zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.01 und 1 an. Der Standardwert ist 1.
lambda Double Der Lambda-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0an. Der Standardwert ist 1.
alpha Double Der Alpha-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0an. Der Standardwert ist 0.
scale_pos_weight Double Die Skalenpositionsgewichtung zur Behandlung von unausgewogenen Datasets. Der Standardwert ist 1.
use_HPO
Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen