Dies sind die verfügbaren Modellframeworks für maschinelles Lernen und Modellfusionsmethoden für das Modell für föderiertes Lernen. Die Softwarespezifikation und Frameworks sind auch mit bestimmten Python Versionen kompatibel.
Frameworks und Fusionsmethoden
Copy link to section
In dieser Tabelle sind die unterstützten Software-Frameworks für die Erstellung von Federated Learning-Modellen aufgelistet. Für jedes Framework werden die unterstützten Modelltypen, Fusionsmethoden und Hyperparameteroptionen angezeigt.
Gewichtet den Durchschnitt von Aktualisierungen auf der Basis der Anzahl der Beispiele jeder Partei. Verwenden Sie diesen Typ bei Trainingsdatasets, die sich hinsichtlich der Größe stark unterscheiden.
Als Baseline verwendete einfachste Aggregation, bei der die Modellaktualisierungen aller Parteien gleich gewichtet werden.
-Runden -Beendigungsvergleichselement (optional)
Gewichteter Durchschnitt
Gewichtet den Durchschnitt von Aktualisierungen auf der Basis der Anzahl der Beispiele jeder Partei. Verwenden Sie diesen Typ bei Trainingsdatasets, die sich hinsichtlich der Größe stark unterscheiden.
-Runden -Beendigungsvergleichselement (optional)
Regression
Einfacher Durchschnitt
Als Baseline verwendete einfachste Aggregation, bei der die Modellaktualisierungen aller Parteien gleich gewichtet werden.
Runden
Gewichteter Durchschnitt
Gewichtet den Durchschnitt von Aktualisierungen auf der Basis der Anzahl der Beispiele jeder Partei. Verwenden Sie diesen Typ bei Trainingsdatasets, die sich hinsichtlich der Größe stark unterscheiden.
Runden
XGBoost
XGBoost-Klassifikation
Wird zum Erstellen von Klassifikationsmodellen verwendet, die XGBoost verwenden.
- Lernrate - Verlust - Durchgänge - Anzahl der Klassen
XGBoost Regression
Wird zum Erstellen von Regressionsmodellen verwendet, die XGBoost verwenden.
-Lernrate - Durchgänge - Verlust
K-Means/SPAHM
Zum Trainieren von K-Means-Modellen (nicht überwachtes Lernen), wenn Parteien über heterogene Datasets verfügen.
-Max Iter -N Cluster
Pytorch Wird zum Trainieren von neuronalen Netzmodellen verwendet. Siehe Pytorch-Modell speichern.
Beliebig
Einfacher Durchschnitt
Als Baseline verwendete einfachste Aggregation, bei der die Modellaktualisierungen aller Parteien gleich gewichtet werden.