Volver a la versión inglesa de la documentaciónDefiniciones de hiperparámetros
Definiciones de hiperparámetros
Última actualización: 04 oct 2024
Definiciones de hiperparámetros utilizados en el entrenamiento del experimento. Se pueden utilizar una o más de estas opciones de hiperparámetro, en función de la infraestructura y del método de fusión.
Hiperparámetros | Descripción |
---|---|
Rondas | Valor int. Número de iteraciones de entrenamiento que se deben completar entre el agregador y los sistemas remotos. |
Precisión de terminación (Opcional) | Valor flotante. Toma model_accuracy y lo compara con un valor numérico. Si se cumple la conexión, el experimento finaliza pronto. Por ejemplo, termination_predicate: accuracy >= 0.8 finaliza el experimento cuando la media de la precisión del modelo para las partes participantes es mayor o igual al 80%. Actualmente, Federated Learning sólo acepta un tipo de condición de terminación anticipada (precisión del modelo) para los modelos de clasificación. |
Quorum (Optional) | Valor flotante. Continúa con el entrenamiento del modelo después de que el agregador haya alcanzado una determinada proporción de respuestas de la parte. Toma un valor decimal entre 0 y 1. El valor predeterminado es 1. El entrenamiento del modelo solo comienza después de que las respuestas de las partes alcancen el valor de proporción indicado. Por ejemplo, si se establece este valor en 0.5 se inicia el entrenamiento después de que el 50% de las partes registradas hayan respondido a la llamada de agregador. |
Tiempo máximo de espera (Opcional) | Valor int. Termina el experimento de aprendizaje federado si el tiempo de espera de las respuestas de la parte supera este valor en segundos. Toma un valor numérico de hasta 43200. Si este valor en segundos pasa y no se alcanza la proporción quorum , el experimento termina. Por ejemplo, max_timeout = 1000 termina el experimento después de 1000 segundos si las partes no responden en ese tiempo. |
Precisión del boceto frente a privacidad (Opcional) | Valor flotante. Se utiliza con el entrenamiento XGBoost para controlar la precisión relativa de los datos bosquejados enviados al agregador. Toma un valor decimal entre 0 y 1. Los valores más altos resultarán en modelos de mayor calidad pero con una reducción en la privacidad de los datos y un aumento en el consumo de recursos. |
Número de clases | Valor int. Número de clases de destino para el modelo de clasificación. Es necesario si el hiperparámetro "Loss" es: - auto - binary_crossentropy - categorical_crossentropy |
Tasa de aprendizaje | Valor decimal. La tasa de aprendizaje, también conocida como shrinkage. Se utiliza como factor multiplicador para los valores de hojas. |
Pérdida | Un valor de serie. La función de pérdida a utilizar en el proceso de impulso. - binary_crossentropy (también conocido como pérdida logística) se utiliza para la clasificación binaria.- categorical_crossentropy se utiliza para la clasificación multiclase. - auto elige la función de pérdida dependiendo de la naturaleza del problema. - least_squares se utiliza para la regresión. |
Número máximo de iteraciones | Valor int. El número total de pases sobre el conjunto de datos de entrenamiento local para entrenar un modelo Scikit-learn. |
N clústeres | Valor int. El número de clústeres que se van a formar y el número de centroides que se van a generar. |
Epoch (Opcional) | Valor int. El número de iteraciones de entrenamiento local que debe realizar cada parte remota para cada ronda. Por ejemplo, si establece Rondas en 2 y Épocas en 5, todas las partes remotas entrenan localmente 5 veces antes de que el modelo se envíe al agregador. En la ronda 2, todas las partes vuelven a entrenar localmente el modelo de agregador 5 veces y lo vuelven a enviar al agregador. |
sigma | Valor flotante. Determina hasta dónde se permiten las neuronas del modelo local a partir del modelo global. Un valor mayor permite una mayor coincidencia y genera un modelo global más pequeño. El valor predeterminado es 1. |
sigma0 | Valor flotante. Define la desviación permitida de las neuronas de red globales. El valor predeterminado es 1. |
gamma | Valor flotante. Parámetro de proceso de buffet hindú que controla el número previsto de características en cada observación. El valor predeterminado es 1. |
Tema padre: Infraestructuras, métodos de fusión y versiones de Python