Zurück zur englischen Version der DokumentationHyperparameterdefinitionen
Hyperparameterdefinitionen
Letzte Aktualisierung: 07. Okt. 2024
Definitionen von Hyperparametern, die im Experimenttraining verwendet werden. Je nach Framework und Fusionsmethode kann mindestens eine dieser Hyperparameteroptionen verwendet werden.
Hyperparameter | Beschreibung |
---|---|
Rounds (Runden) | Ganzzahliger Wert. Die Anzahl der durchzuführenden Trainingsiterationen zwischen dem Aggregator und dem fernen System. |
Abschlussgenauigkeit (Optional) | Gleitkommawert. Nimmt model_accuracy und vergleicht es mit einem numerischen Wert. Wenn die Bedingung erfüllt ist, wird das Experiment vorzeitig beendet. Beispiel: termination_predicate: accuracy >= 0.8 beendet das Experiment, wenn der Mittelwert der Modellgenauigkeit für beteiligte Parteien größer-gleich 80% ist. Derzeit akzeptiert Federated Learning nur einen Typ von Bedingung für vorzeitige Beendigung (Modellgenauigkeit) für Klassifikationsmodelle. |
Quorum (Optional) | Gleitkommawert. Setzt das Modelltraining fort, nachdem der Aggregator ein bestimmte Quote von Parteiantworten erreicht hat. Nimmt einen Dezimalwert zwischen 0 und 1 an. Der Standardwert ist 1. Das Modelltraining beginnt erst, nachdem Parteiantworten den angegebenen Quotenwert erreicht haben. Wenn Sie diesen Wert beispielsweise auf 0.5 setzen, wird das Training gestartet, nachdem 50% der registrierten Parteien auf den Aggregatoraufruf geantwortet haben. |
Max. Zeitlimit (Optional) | Ganzzahliger Wert. Beendet das Federated Learning-Experiment, wenn die Wartezeit für Parteiantworten diesen Wert in Sekunden überschreitet. Akzeptiert einen numerischen Wert bis 43200. Wenn dieser Wert (in Sekunden) überschritten und das quorum -Verhältnis nicht erreicht wird, wird das Experiment beendet. Beispiel: max_timeout = 1000 beendet das Experiment nach 1000 Sekunden, wenn die Parteien nicht innerhalb dieser Zeit antworten. |
Skizzengenauigkeit vs. Datenschutz (Optional) | Gleitkommawert. Wird mit XGBoost-Training verwendet, um die relative Genauigkeit von skizzierten Daten zu steuern, die an den Aggregator gesendet werden. Nimmt einen Dezimalwert zwischen 0 und 1 an. Höhere Werte führen zu Modellen höherer Qualität, aber mit einer Reduzierung des Datenschutzes und einer Erhöhung der Ressourcenauslastung. |
Anzahl Klassen | Ganzzahliger Wert. Die Anzahl der Zielklassen für das Klassifikationsmodell. Erforderlich, wenn der Hyperparameter "Verlust" wie folgt lautet: - auto - binary_crossentropy - categorical_crossentropy |
Lernrate | Dezimalwert. Die Lernrate, auch bekannt als Schrumpfung. Dies wird als multiplikativer Faktor für die Verzweigungswerte verwendet. |
Loss (Verlust) | Zeichenfolgewert. Die im Boosting-Prozess zu verwendende Verlustfunktion. - binary_crossentropy (auch bekannt als logistischer Verlust) wird für die Binärklassifikation verwendet.- categorical_crossentropy wird für die Klassifikation mehrerer Klassen verwendet. - auto wählt abhängig von der Problemstellung eine der beiden Verlustfunktionen. - least_squares wird für die Regression verwendet. |
Max. Iter. | Ganzzahliger Wert. Die Gesamtzahl Durchläufe des lokalen Trainingsdatasets zum Trainieren eines Scikit-learn-Modells. |
N cluster (N Cluster) | Ganzzahliger Wert. Die Anzahl der zu bildenden Cluster und die Anzahl der zu generierenden Zentroide. |
Epoche (Optional) | Ganzzahliger Wert. Die Anzahl der lokalen Trainingsiterationen, die von jeder fernen Partei für jede Runde ausgeführt werden sollen Wenn Sie beispielsweise Runden auf 2 und Epochen auf 5 setzen, trainieren alle fernen Parteien lokal 5 Mal, bevor das Modell an den Aggregator gesendet wird. In Runde 2 wird das Aggregatormodell von allen Parteien 5 Mal lokal erneut trainiert und erneut an den Aggregator gesendet. |
Sigma | Gleitkommawert. Legt fest, wie weit die Neuronen des lokalen Modells vom globalen Modell abweichen können. Ein größerer Wert ermöglicht mehr Übereinstimmung und erzeugt ein kleineres globales Modell. Der Standardwert ist 1. |
sigma0 | Gleitkommawert. Definiert die zulässige Abweichung der globalen Netzneuronen. Der Standardwert ist 1. |
gamma | Gleitkommawert. IBP-Parameter (Indian Buffet Process), der die erwartete Anzahl von Features bei jeder Beobachtung steuert. Der Standardwert ist 1. |
Übergeordnetes Thema: Frameworks, Fusionsmethoden und Versionen von Python