0 / 0
Zurück zur englischen Version der Dokumentation
Hyperparameterdefinitionen
Letzte Aktualisierung: 07. Okt. 2024
Hyperparameterdefinitionen

Definitionen von Hyperparametern, die im Experimenttraining verwendet werden. Je nach Framework und Fusionsmethode kann mindestens eine dieser Hyperparameteroptionen verwendet werden.

Hyperparameterdefinitionen
Hyperparameter Beschreibung
Rounds (Runden) Ganzzahliger Wert. Die Anzahl der durchzuführenden Trainingsiterationen zwischen dem Aggregator und dem fernen System.
Abschlussgenauigkeit (Optional) Gleitkommawert. Nimmt model_accuracy und vergleicht es mit einem numerischen Wert. Wenn die Bedingung erfüllt ist, wird das Experiment vorzeitig beendet.

Beispiel: termination_predicate: accuracy >= 0.8 beendet das Experiment, wenn der Mittelwert der Modellgenauigkeit für beteiligte Parteien größer-gleich 80% ist. Derzeit akzeptiert Federated Learning nur einen Typ von Bedingung für vorzeitige Beendigung (Modellgenauigkeit) für Klassifikationsmodelle.
Quorum (Optional) Gleitkommawert. Setzt das Modelltraining fort, nachdem der Aggregator ein bestimmte Quote von Parteiantworten erreicht hat. Nimmt einen Dezimalwert zwischen 0 und 1 an. Der Standardwert ist 1. Das Modelltraining beginnt erst, nachdem Parteiantworten den angegebenen Quotenwert erreicht haben.
Wenn Sie diesen Wert beispielsweise auf 0.5 setzen, wird das Training gestartet, nachdem 50% der registrierten Parteien auf den Aggregatoraufruf geantwortet haben.
Max. Zeitlimit (Optional) Ganzzahliger Wert. Beendet das Federated Learning-Experiment, wenn die Wartezeit für Parteiantworten diesen Wert in Sekunden überschreitet. Akzeptiert einen numerischen Wert bis 43200. Wenn dieser Wert (in Sekunden) überschritten und das quorum-Verhältnis nicht erreicht wird, wird das Experiment beendet.

Beispiel: max_timeout = 1000 beendet das Experiment nach 1000 Sekunden, wenn die Parteien nicht innerhalb dieser Zeit antworten.
Skizzengenauigkeit vs. Datenschutz (Optional) Gleitkommawert. Wird mit XGBoost-Training verwendet, um die relative Genauigkeit von skizzierten Daten zu steuern, die an den Aggregator gesendet werden. Nimmt einen Dezimalwert zwischen 0 und 1 an. Höhere Werte führen zu Modellen höherer Qualität, aber mit einer Reduzierung des Datenschutzes und einer Erhöhung der Ressourcenauslastung.
Anzahl Klassen Ganzzahliger Wert. Die Anzahl der Zielklassen für das Klassifikationsmodell. Erforderlich, wenn der Hyperparameter "Verlust" wie folgt lautet:
- auto
- binary_crossentropy
- categorical_crossentropy
Lernrate Dezimalwert. Die Lernrate, auch bekannt als Schrumpfung. Dies wird als multiplikativer Faktor für die Verzweigungswerte verwendet.
Loss (Verlust) Zeichenfolgewert. Die im Boosting-Prozess zu verwendende Verlustfunktion.
- binary_crossentropy (auch bekannt als logistischer Verlust) wird für die Binärklassifikation verwendet.
- categorical_crossentropy wird für die Klassifikation mehrerer Klassen verwendet.
- auto wählt abhängig von der Problemstellung eine der beiden Verlustfunktionen.
- least_squares wird für die Regression verwendet.
Max. Iter. Ganzzahliger Wert. Die Gesamtzahl Durchläufe des lokalen Trainingsdatasets zum Trainieren eines Scikit-learn-Modells.
N cluster (N Cluster) Ganzzahliger Wert. Die Anzahl der zu bildenden Cluster und die Anzahl der zu generierenden Zentroide.
Epoche (Optional) Ganzzahliger Wert. Die Anzahl der lokalen Trainingsiterationen, die von jeder fernen Partei für jede Runde ausgeführt werden sollen Wenn Sie beispielsweise Runden auf 2 und Epochen auf 5 setzen, trainieren alle fernen Parteien lokal 5 Mal, bevor das Modell an den Aggregator gesendet wird. In Runde 2 wird das Aggregatormodell von allen Parteien 5 Mal lokal erneut trainiert und erneut an den Aggregator gesendet.
Sigma Gleitkommawert. Legt fest, wie weit die Neuronen des lokalen Modells vom globalen Modell abweichen können. Ein größerer Wert ermöglicht mehr Übereinstimmung und erzeugt ein kleineres globales Modell. Der Standardwert ist 1.
sigma0 Gleitkommawert. Definiert die zulässige Abweichung der globalen Netzneuronen. Der Standardwert ist 1.
gamma Gleitkommawert. IBP-Parameter (Indian Buffet Process), der die erwartete Anzahl von Features bei jeder Beobachtung steuert. Der Standardwert ist 1.

Übergeordnetes Thema: Frameworks, Fusionsmethoden und Versionen von Python

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen