0 / 0
Retourner à la version anglaise de la documentation
Définitions d'hyperparamètres
Dernière mise à jour : 04 oct. 2024
Définitions d'hyperparamètres

Définitions des hyperparamètres utilisés dans l'entraînement d'expérimentation. Une ou plusieurs de ces options d'hyperparamètre peuvent être utilisées, en fonction de votre infrastructure et de votre méthode de fusion.

Définitions d'hyperparamètres
Hyperparamètres Descriptif
Cycles Valeur entière. Nombre d'itérations d'entraînement à effectuer entre l'agrégateur et les systèmes distants.
Exactitude de l'arrêt (Facultatif) Valeur à virgule flottante. Prend model_accuracy et le compare à une valeur numérique. Si la condition est satisfaite, l'expérimentation se termine tôt.

Par exemple, termination_predicate: accuracy >= 0.8 termine l'expérimentation lorsque la moyenne de la précision du modèle pour les parties participantes est supérieure ou égale à 80%. Actuellement, l'apprentissage fédéré accepte un type de condition de terminaison précoce (précision du modèle) pour les modèles de classification uniquement.
Quorum (Facultatif) Valeur à virgule flottante. Passe à l'entraînement du modèle une fois que l'agrégateur a obtenu un certain ratio de réponses des parties. Prend une valeur décimale comprise entre 0 et 1. Par défaut, il s'agit de 1. L'entraînement du modèle commence seulement après que les réponses des parties atteignent la valeur du rapport indiqué.
Par exemple, la définition de cette valeur sur 0.5 démarre l'apprentissage après que 50% des parties enregistrées ont répondu à l'appel de l'agrégateur.
dépassement de délai d'attente maximal (Facultatif) Valeur entière. Met fin à l'expérimentation d'apprentissage fédéré si le quorum de réponses des parties n'a pas été reçu dans le délai spécifié par cette valeur en secondes. Prend une valeur numérique pouvant atteindre 43200. Si cette valeur en secondes passe et que le rapport quorum n'est pas atteint, l'expérimentation s'arrête.

Par exemple, max_timeout = 1000 met fin à l'expérimentation au bout de 1000 secondes si les parties ne répondent pas dans ce délai.
Croquis de précision et de confidentialité (facultatif) Valeur à virgule flottante. Utilisé avec l'entraînement XGBoost pour contrôler la précision relative des données esquissées envoyées à l'agrégateur. Prend une valeur décimale comprise entre 0 et 1. Des valeurs plus élevées se traduiront par des modèles de meilleure qualité, mais avec une réduction de la confidentialité des données et une augmentation de la consommation des ressources.
Nombre de classes Valeur entière. Nombre de classes cible pour le modèle de classification. Obligatoire si l'hyperparamètre "Loss" est :
- auto
- binary_crossentropy
- categorical_crossentropy
Taux d'apprentissage Valeur décimale. Le taux d'apprentissage, également appelé détérioration. Utilisé comme facteur multiplicatif pour les valeurs des feuilles.
Perte Valeur chaîne. La fonction de perte à utiliser dans le processus de relance.
- binary_crossentropy (également connu sous le nom de perte logistique) est utilisé pour la classification binaire.
- categorical_crossentropy est utilisé pour la classification multi-classes.
- auto choisit la fonction de perte selon la nature du problème.
- least_squares est utilisé pour la régression.
Nombre maximal d'itérations Valeur entière. Nombre total d'explorations du jeu de données d'entraînement local pour entraîner un modèle Scikit-learn.
Nombre de clusters Valeur entière. Nombre de clusters à former et nombre de centroïdes à générer.
Epoch (facultatif) Valeur entière. Nombre d'itérations d'entraînement local à préformer par chaque partie distante pour chaque cycle. Par exemple, si vous définissez Rounds sur 2 et Epochs sur 5, toutes les parties distantes s'entraînent localement 5 fois avant que le modèle ne soit envoyé à l'agrégateur. Lors de la deuxième ronde, le modèle d'agrégateur est à nouveau entraîné localement par toutes les parties 5 fois et envoyé à nouveau à l'agrégateur.
sigma Valeur à virgule flottante. Détermine la distance autorisée entre les neurones du modèle local et le modèle global. Plus sa valeur est grande, plus il y a de correspondances et plus petit sera le modèle global. La valeur par défaut est 1.
sigma0 Valeur à virgule flottante. Définit l'écart autorisé des neurones du réseau global. La valeur par défaut est 1.
Gamma Valeur à virgule flottante. Paramètre IBP (Indian Buffet Process) contrôlant le nombre attendu de caractéristiques dans chaque observation. La valeur par défaut est 1.

Rubrique parent: Structures, méthodes de fusion et versions Python

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus