0 / 0
Retourner à la version anglaise de la documentation
Méthodes d'optimisation des modèles de base
Dernière mise à jour : 13 févr. 2025
Méthodes d'optimisation des modèles de base

En savoir plus sur les différentes méthodes d'optimisation et sur leur fonctionnement.

Les modèles peuvent être optimisés de l'une des manières suivantes:

  • Réglage fin complet : en utilisant les connaissances préalables du modèle de base comme point de départ, le réglage fin complet adapte le modèle en l'ajustant avec un ensemble de données plus petit et spécifique à la tâche. La méthode de réglage fin complet modifie les poids des paramètres d'un modèle dont les poids ont été définis lors d'un apprentissage préalable afin d'optimiser le modèle pour une tâche.

    Note: Actuellement, vous ne pouvez pas affiner les modèles de fondation dans watsonx.ai, mais vous pouvez les affiner rapidement.
  • Ajustement d'invite: Ajuste le contenu de l'invite qui est transmise au modèle pour l'aider à générer une sortie qui correspond à un modèle que vous spécifiez. Le foundation model sous-jacent et les pondérations de ses paramètres ne sont pas modifiés. Seule l'entrée d'invite est modifiée.

    Bien que le résultat de l'accord rapide soit un nouveau modèle accordé, le modèle accordé ajoute simplement une couche de fonction qui s'exécute avant que l'entrée ne soit traitée par le foundation model sous-jacent. Lorsque vous ajustez un modèle, le foundation model sous-jacent n'est pas modifié, ce qui signifie qu'il peut être utilisé pour répondre à différents besoins de l'entreprise sans avoir à être reformé à chaque fois. Par conséquent, vous réduisez les besoins de calcul et les coûts d'inférence.

Pour commencer, consultez la section Mise au point d'un foundation model.

Fonctionnement de l'optimisation des invites

Les modèles de base sont sensibles à l'entrée que vous leur donnez. Votre entrée, ou la façon dont vous demandez le modèle, peut introduire un contexte que le modèle utilisera pour personnaliser sa sortie générée. L'ingénierie des invites pour trouver l'invite correcte fonctionne souvent bien. Cependant, elle peut prendre du temps, être sujette aux erreurs et son efficacité peut être limitée par la longueur de la fenêtre de contexte autorisée par le modèle sous-jacent.

L'optimisation d'invite d'un modèle dans Tuning Studio applique l'apprentissage automatique à la tâche d'ingénierie d'invite. Au lieu d'ajouter des mots à l'entrée elle-même, l'optimisation d'invite est une méthode permettant de trouver une séquence de valeurs qui, lorsqu'elle est ajoutée en tant que préfixe au texte d'entrée, améliore la capacité du modèle à générer la sortie souhaitée. Cette séquence de valeurs est appelée vecteur d'invite.

Normalement, les mots de l'invite sont vectorisés par le modèle. La vectorisation est le processus de conversion de texte en jetons, puis en nombres définis par le marqueur sémantique du modèle pour identifier les jetons. Enfin, les ID de jeton sont codés, ce qui signifie qu'ils sont convertis en une représentation vectorielle, qui est le format d'entrée attendu par la couche d'intégration du modèle. L'optimisation d'invite ignore le processus de vectorisation de texte du modèle et permet de créer un vecteur d'invite directement. Ce vecteur d'invite modifiable est concaténé au texte d'entrée vectorisé et les deux sont transmis en tant qu'entrée unique à la couche d'imbrication du modèle. Les valeurs de ce vecteur d'invite créé affectent les pondérations d'incorporation de mots définies par le modèle et influencent les mots que le modèle choisit d'ajouter à la sortie.

Pour trouver les meilleures valeurs pour le vecteur d'invite, vous exécutez une expérimentation d'optimisation. Vous pouvez illustrer le type de sortie que vous souhaitez pour une entrée correspondante en fournissant au modèle des paires d'exemples d'entrée et de sortie dans les données d'apprentissage. A chaque exécution d'entraînement de l'expérimentation, la sortie générée est comparée à la sortie des données d'entraînement. En fonction de ce qu'elle apprend des différences entre les deux, l'expérimentation ajuste les valeurs dans le vecteur d'invite. Après de nombreuses exécutions dans les données d'apprentissage, le modèle trouve le vecteur d'invite qui fonctionne le mieux.

Vous pouvez choisir de démarrer le processus d'entraînement en fournissant du texte vectorisé par l'expérimentation. Vous pouvez également laisser l'expérimentation utiliser des valeurs aléatoires dans le vecteur d'invite. Quoi qu'il en soit, à moins que les valeurs initiales ne soient exactement correctes, elles seront modifiées à plusieurs reprises dans le cadre du processus d'apprentissage. La fourniture de votre propre texte d'initialisation peut aider l'expérimentation à atteindre un bon résultat plus rapidement.

Le résultat de l'expérimentation est une version optimisée du modèle sous-jacent. Vous soumettez une entrée au modèle optimisé pour l'inférence et le modèle génère une sortie qui suit le modèle optimisé.

Pour plus d'informations sur le processus d'accord à l'invite utilisé dans Tuning Studio, voir Fonctionnement de l'accord à l'invite.

En savoir plus sur le réglage rapide

En savoir plus

Rubrique parent: Tuning Studio