Apportez des modifications à votre expérience de réglage de l'invite pour améliorer les résultats.
Un exemple de bloc-notes Python nommé Use watsonx.aito tune IBM granite-13b-instruct-v2 model with Car Rental Company customer satisfaction document est disponible. Il contient du code pour l'optimisation des modèles de base dans watsonx.ai. L'exemple de bloc-notes comporte des sections permettant d'optimiser les paramètres d'expérimentation et d'inférence du modèle ajusté. Pour plus d'informations, voir Optimisation d'un modèle de base à l'aide d'un bloc-notes Python.
Ajustement des paramètres d'optimisation
Lorsqu'une exécution d'expérimentation d'optimisation est terminée, un graphique de fonction de perte s'affiche. Une fonction de perte mesure la différence entre les résultats prévus et les résultats réels à chaque exécution d'entraînement. Une expérience d'optimisation réussie aboutit à une fonction de perte dont la courbe est inclinée vers le bas.
Lorsque la mesure des pertes diminue et diminue, elle est appelée convergence. Vous souhaitez que la courbe baisse, ou converge, et que l'extrémité de la courbe atteigne la valeur la plus proche possible de 0, car cela signifie que les résultats prévus sont aussi similaires que possible aux résultats obtenus à partir des données d'apprentissage.
Si la fonction de perte pour votre expérience ressemble à une chaîne de montagnes avec des pics multiples, la perte ne converge jamais, ou la perte converge mais reste à un nombre bien supérieur à zéro, ajustez vos paramètres d'ajustement.
Vous pouvez configurer les valeurs des paramètres dans le Tuning Studio ou utiliser le carnet d'exemples. L'exemple de bloc-notes comporte des étapes qui vous aident à trouver les meilleures valeurs à utiliser pour vos paramètres d'optimisation, parfois appelés optimisation d'hyperparamètres. Pour plus d'informations, voir Utilisation du bloc-notes pour optimiser les valeurs des paramètres d'optimisation.
Le tableau suivant décrit les résultats d'expérimentation d'optimisation courants et répertorie les actions susceptibles d'améliorer les résultats.
Graphique de la fonction de perte | Raison | Actions à essayer |
---|---|---|
La courbe des pertes est plate et ne baisse jamais. |
L'optimisation n'améliore pas beaucoup les résultats. | Augmentez le taux d'apprentissage (de 10x) afin que l'expérimentation apporte des ajustements plus drastiques au vecteur d'invite. |
La courbe des pertes s'infléchit, mais la queue s'établit à un chiffre trop élevé. |
L'optimisation n'améliore pas les résultats autant que possible. | Augmentez le taux d'apprentissage (de 5x) afin que l'expérimentation effectue des ajustements plus importants du vecteur d'invite. |
La courbe des pertes chute, puis diminue régulièrement sans jamais se stabiliser. |
L'entraînement s'est terminé avant que le modèle ne soit entièrement ajusté. | Augmentez le nombre d'époques pour donner au modèle plus de temps à apprendre. |
La courbe des pertes augmente puis diminue, mais ne descend jamais assez bas. |
L'entraînement est instable car le taux d'apprentissage élevé entraîne un changement trop important du vecteur d'invite. | - Diminuer le taux d'apprentissage (de 10x) pour effectuer des ajustements plus petits au vecteur d'invite. |
Pour plus d'informations sur la modification des paramètres d'ajustement et la réexécution d'une expérimentation d'ajustement, voir Optimisation d'un modèle de base.
Résolution des problèmes de qualité de données dans la sortie de modèle optimisée
Vous savez que vous avez terminé l'ajustement d'un modèle lorsque vous pouvez soumettre des invites zéro-shot au modèle ajusté et obtenir les sorties que vous attendez.
Le tableau suivant décrit certains problèmes courants de qualité des données d'entraînement et répertorie les actions que vous pouvez effectuer pour les résoudre.
Objectif | Raison | Actions à essayer |
---|---|---|
Les sorties de modèle ajustées ne correspondent pas au contenu et au format des exemples de sortie des données d'entraînement | Exemples de données d'apprentissage insuffisants | Augmentez la taille des données d'entraînement. |
Les sorties de modèle optimisées sont incomplètes | Le processus d'optimisation n'utilise pas les exemples que vous pensez qu'il utilise | Surveillez la longueur de vos exemples d'entrée et de sortie de données d'entraînement. Le nombre maximal de jetons d'entrée autorisé est 256 et le nombre maximal de jetons de sortie autorisé est 128. Les exemples dont la longueur est supérieure à la longueur maximale autorisée sont tronqués. |
Libellés de classification manquants dans une tâche de classification | Pas assez d'exemples de chaque type de classe pour une tâche de classification | Ajoutez d'autres exemples de chaque type de classe que le modèle doit reconnaître. |
Extractions de texte manquantes dans une tâche d'extraction | Pas assez d'exemples de chaque type d'entité pour une tâche d'extraction | Ajoutez d'autres exemples de chaque type d'entité que le modèle doit reconnaître. |
Libellés de classe inexacts ou extractions de texte de type d'entité | Contexte insuffisant pour choisir la classe ou le type d'entité approprié | Ajoutez un nombre égal d'exemples pour chaque type. Passez en revue les classes ou les entités que le modèle doit identifier ou extraire pour vous assurer qu'elles sont distinctes les unes des autres. |
Thème parent: Evaluation des résultats des expériences de réglage