Go back to the English version of the documentation框架,融合方法和 Python 版本
框架,融合方法和 Python 版本
Last updated: 2024年11月21日
这些是 Federated Learning 模型的可用机器学习模型框架和模型融合方法。 该软件规范和框架也与特定 Python 版本兼容。
框架和融合方法
下表列出了用于构建 Federated Learning 模型的受支持软件框架。 对于每个框架,您可以查看受支持的模型类型,融合方法和超参数选项。
框架 | 模型类型 | 融合方法 | 描述 | 超参数 |
---|---|---|---|---|
TensorFlow 用于构建神经网络。 请参阅 保存 Tensorflow 模型。 |
任何 | 简单平均 | 最简单的聚集,用作所有参与方的模型更新同等加权的基线。 | -循环 -终止谓词 (可选) -定额 (可选) -最大超时 (可选) |
加权平均 | 基于每个相关方样本的数量对更新的平均值加权。 与大小各异的训练数据集一起使用。 | -循环 -终止谓词 (可选) -定额 (可选) -最大超时 (可选) |
||
Scikit-learn 用于预测数据分析。 请参阅 保存 Scikit-learn 模型。 |
分类 | 简单平均 | 最简单的聚集,用作所有参与方的模型更新同等加权的基线。 | -舍入 -终止谓词 (可选) |
加权平均 | 基于每个相关方样本的数量对更新的平均值加权。 与大小各异的训练数据集一起使用。 | -舍入 -终止谓词 (可选) |
||
回归 | 简单平均 | 最简单的聚集,用作所有参与方的模型更新同等加权的基线。 |
|
|
加权平均 | 基于每个相关方样本的数量对更新的平均值加权。 与大小各异的训练数据集一起使用。 |
|
||
XGBoost | XGBoost 分类 | 用于构建使用 XGBoost 的分类模型。 | -学习速率 -损失 -轮次 -类数 |
|
XGBoost 回归 | 用于构建使用 XGBoost 的回归模型。 | -学习速率 -轮次 -损失 |
||
K-Means/SPAHM | 用于在参与方具有异构数据集时训练 K 均值(无监督学习)模型。 | -Max Iter -N 集群 |
||
Pytorch ,用于训练神经网络模型。 请参阅 保存 Pytorch 模型。 |
任何 | 简单平均 | 最简单的聚集,用作所有参与方的模型更新同等加权的基线。 | -Runds -Epochs -Quorum (可选) -最大超时 (可选) |
神经网络 | 联合概率神经匹配 (PFNM) | 在参与方具有异构数据集时,用于完全连接的神经网络的高效通信方法。 | -轮次 -终止准确性 (可选) -Epochs -sigma - sigma0 -gamma -iters |
软件规范和 Python 版本 (按框架)
此表列出了可用于每个框架的软件规范和 Python 版本。
watsonx.ai工作室框架 | Python 版本 | 软件规范 | Python 客户出口 | 框架包 |
---|---|---|---|---|
scikit-learn | 3.11 | runtime-24.1-py3.11 | fl-rt23.1-py3.11 | scikit-learn 1.1.1 |
Tensorflow | 3.11 | runtime-24.1-py3.11 | fl-rt23.1-py3.11 | tensorflow 2.12.0 |
PyTorch | 3.11 | runtime-24.1-py3.11 | fl-rt23.1-py3.11 | 火炬 2.0.1 |
scikit-learn | 3.10 | runtime-23.1-py3.10 | fl-rt23.1-py3.10 | scikit-learn 1.1.1 |
Tensorflow | 3.10 | runtime-23.1-py3.10 | fl-rt23.1-py3.10 | tensorflow 2.12.0 |
PyTorch | 3.10 | runtime-23.1-py3.10 | fl-rt23.1-py3.10 | 火炬 2.0.1 |
了解更多信息
父主题: IBM 联合学习