Zurück zur englischen Version der DokumentationEigenschaften von "xgboosttreenode"
Eigenschaften von "xgboosttreenode"
Letzte Aktualisierung: 07. Okt. 2024
XGBoost Tree© ist eine erweiterte Implementierung eines Gradienten-Boosting-Algorithmus mit einem Baummodell als Basismodell. Boosting-Algorithmen lernen iterativ schwache Klassifikationsmerkmale und fügen Sie einem endgültigen starken Klassifikationsmerkmal hinzu. XGBoost Tree ist sehr flexibel und bietet viele Parameter, die für die meisten Benutzer überwältigend sein können, sodass der Knoten "XGBoost Tree" in SPSS Modeler die zentralen Funktionen und häufig verwendeten Parameter bereitstellt. Der Knoten ist in Python implementiert.
xgboosttreenode Eigenschaften |
Datentyp | Eigenschaftsbeschreibung |
---|---|---|
custom_fields |
Boolesch | Diese Option weist den Knoten an, die hier angegebenen Feldinformationen anstelle der in einem vorgeordneten Typknoten angegebenen zu verwenden. Geben Sie nach Auswahl dieser Option die erforderlichen Felder an. |
target |
Feld | Die Zielfelder. |
inputs |
Feld | Die Eingabefelder. |
tree_method |
Zeichenfolge | Die Baummethode für die Modellerstellung. Mögliche Werte sind auto , exact oder approx . Der Standardwert ist auto . |
num_boost_round |
Ganze Zahl | Der Wert für die Anzahl Boosting-Runden zur Modellerstellung. Geben Sie einen Wert zwischen 1 und 1000 an. Der Standardwert ist 10 . |
max_depth |
Ganze Zahl | Die maximale Tiefe für den Baumaufbau. Geben Sie einen Wert ab 1 an. Der Standardwert ist 6 . |
min_child_weight |
Double | Die minimale Gewichtung untergeordneter Elemente für den Baumaufbau. Geben Sie einen Wert ab 0 an. Der Standardwert ist 1 . |
max_delta_step |
Double | Die maximale Delta-Schritt für den Baumaufbau. Geben Sie einen Wert ab 0 an. Der Standardwert ist 0 . |
objective_type |
Zeichenfolge | Der Lernzieltyp für die Aufgabe. Mögliche Werte sindreg:linear , reg:logistic , reg:gamma , reg:tweedie ,count:poisson ,rank:pairwise , binary:logistic odermulti . Beachten Sie, dass für Flagziele nur binary:logistic oder multi verwendet werden kann. Wenn multi verwendet wird, zeigt das Scoreergebnis die Zieltypen multi:softmax und multi:softprob XGBoost an. |
early_stopping |
Boolesch | Gibt an, ob die Early-Stopping-Funktion verwendet wird. Der Standardwert ist False . |
early_stopping_rounds |
Ganze Zahl | Die Anzahl der Validierungsfehler muss nach jeweils einer festgelegten Anzahl Early-Stopping-Runden zurückgehen, damit das Training fortgesetzt werden kann. Der Standardwert ist 10 . |
evaluation_data_ratio |
Double | Faktor der für Validierungsfehler verwendeten Eingabedaten. Der Standardwert ist 0.3 . |
random_seed |
Ganze Zahl | Der Startwert für Zufallszahlen. Eine beliebige Zahl zwischen 0 und9999999 . Der Standardwert ist 0 . |
sample_size |
Double | Die Teilstichprobe zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.1 und 1.0 an. Der Standardwert ist 0.1 . |
eta |
Double | Der Eta-Wert zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0 und 1 an. Der Standardwert ist 0.3 . |
gamma |
Double | Der Gamma-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0 an. Der Standardwert ist 6 . |
col_sample_ratio |
Double | Die Spaltenstichprobe nach Baum zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.01 und 1 an. Der Standardwert ist 1 . |
col_sample_level |
Double | Die Spaltenstichprobe nach Ebene zur Steuerung der Überanpassung. Geben Sie einen Wert zwischen 0.01 und 1 an. Der Standardwert ist 1 . |
lambda |
Double | Der Lambda-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0 an. Der Standardwert ist 1 . |
alpha |
Double | Der Alpha-Wert zur Steuerung der Überanpassung. Geben Sie eine beliebige Zahl ab 0 an. Der Standardwert ist 0 . |
scale_pos_weight |
Double | Die Skalenpositionsgewichtung zur Behandlung von unausgewogenen Datasets. Der Standardwert ist 1 . |
use_HPO |