Go back to the English version of the documentation超参数定义
超参数定义
Last updated: 2024年10月07日
实验训练中使用的超参数的定义。 根据您的框架和融合方法,可以使用其中一个或多个超参数选项。
超参数 | 描述 |
---|---|
轮数 | 整数值。 要在聚集器和远程系统之间完成的训练迭代次数。 |
终止准确性(可选) | 浮点值。 采用 model_accuracy 并将其与数字值进行比较。 如果满足条件,那么提早结束试验。 例如,当参与方的模型准确性平均值大于或等于 80% 时, termination_predicate: accuracy >= 0.8 将完成试验。 目前, Federated Learning 仅接受分类模型的一种类型的提前终止条件 (模型准确性)。 |
定额(可选) | 浮点值。 在聚集器达到一定比例的参与方响应后,继续进行模型训练。 采用介于 0-1 之间的十进制值。 缺省值为 1。 模型训练仅在参与方响应达到指示的比率值后启动。 例如,将此值设置为 0.5 将在 50% 的注册参与方响应聚集器调用后启动训练。 |
最大超时值(可选) | 整数值。 如果参与方响应的等待时间超过此值(以秒为单位),那么将终止联合学习试验。 将数值提高到 43200。 如果超出此值(以秒为单位),且未达到 quorum 比率,那么试验将终止。 例如,如果参与方在该时间内未响应,那么 max_timeout = 1000 将在 1000 秒后终止试验。 |
草图准确性与隐私 (可选) | 浮点值。 与 XGBoost 训练配合使用,以控制发送到聚集器的草图数据的相对准确性。 采用介于 0 和 1 之间的十进制值。 更高的值将导致更高质量的模型,但随着数据隐私的减少和资源消耗的增加。 |
类别数量 | 整数值。 分类模型的目标类数。 "Loss" 超参数为 - auto - binary_crossentropy - categorical_crossentropy 时必需 |
学习率 | 小数值。 学习率,也称为收缩。 这用作叶子值的乘法因子。 |
损失 | 字符串值。 要在提升过程中使用的损失函数。 - binary_crossentropy (也称为 Logistic 损失) 用于二元分类。- categorical_crossentropy 用于多类分类。 - auto 根据问题的性质选择任一损失函数。 - least_squares 用于回归。 |
Max Iter | 整数值。 用于训练 Scikit-learn 模型的本地训练数据集的通过总数。 |
N 集群 | 整数值。 要形成的聚类数和要生成的质心数。 |
戳记 (可选) | 整数值。 每个远程参与方要为每个回合预先生成的本地训练迭代数。 例如,如果将 Rounds 设置为 2 ,将 Epochs 设置为 5 ,那么在将模型发送到聚集器之前,所有远程参与方都会在本地训练 5 次。 在 2 回合中,聚集器模型由所有参与方在本地再次训练 5 次,然后重新发送到聚集器。 |
西格玛 | 浮点值。 确定局部模型神经元与全局模型之间允许的距离。 值越大,匹配数越多,产生的全局模型也越小。 缺省值为 1。 |
sigma0 | 浮点值。 定义全局网络神经元的允许偏差。 缺省值为 1。 |
伽玛 | 浮点值。 印度自助餐过程 (Indian Buffet Process) 参数,用于控制每次观察中的期望特征数。 缺省值为 1。 |
父主题: 框架,融合方法和 Python 版本