Choisir un modèle de fondation dans watsonx.ai

Dernière mise à jour : 07 avr. 2025
Choisir un modèle de fondation dans watsonx.ai

De nombreux facteurs doivent être pris en compte lors du choix d'un modèle de base à utiliser pour l'inférence à partir d'un projet d'IA générative.

Par exemple, pour une solution qui résume les rapports de problèmes d'un centre d'appels, vous pourriez vouloir un modèle de base avec les caractéristiques suivantes :

  • Obtenez de bons résultats aux tests de référence pour les tâches de résumé
  • Gère de grandes quantités de texte, ce qui signifie une grande longueur de fenêtre de contexte
  • Peut interpréter des images d'articles endommagés, donc accepte les entrées sous forme de texte et d'images

Déterminez les facteurs les plus importants pour vous et votre organisation.

Après avoir dressé une liste restreinte des modèles qui répondent le mieux à vos besoins, vous pouvez les tester afin de déterminer ceux qui produisent systématiquement les résultats souhaités.

Modèles de base qui prennent en charge votre cas d'utilisation

Pour commencer, recherchez les modèles de base qui peuvent effectuer le type de tâche que vous souhaitez effectuer.

Le tableau suivant présente les types de tâches prises en charge par les modèles de fondation sur le site IBM watsonx.ai. Une coche (✓) indique que la tâche nommée dans l'en-tête de colonne est prise en charge par le modèle de base. Pour certaines tâches, vous pouvez cliquer sur un lien pour accéder à un exemple d'invite pour la tâche.

Tableau 1a. Prise en charge des tâches de modèle de base
Modèle Conversation Interaction avec l'outil
à partir de l'API Chat
Génération augmentée par récupération (RAG) Exemples
granite-7b-lab
Chat de Prompt Lab

RAG de Prompt Lab

Résumé
granite-13b-instruct-v2
Chat de Prompt Lab

RAG de Prompt Lab

Génération
granite-8b-japanese
- Q&A
- Traduction
granite-20b-multilingual
Chat de Prompt Lab

RAG de Prompt Lab

Traduction
granite-3-2-8b-instruct ✓ Échantillons d'
s :
• Depuis Prompt Lab : Échantillon
• Depuis l'API de chat : Échantillon
granite-3-2b-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Code
granite-3-8b-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple
✓*Echantillon d'appel d'

Code
granite-guardian-3-2b
Chat de Prompt Lab

RAG de Prompt Lab
granite-guardian-3-8b
Chat de Prompt Lab

RAG de Prompt Lab
granite-3b-code-instruct
Chat de Prompt Lab

Code
granite-8b-code-instruct
Chat de Prompt Lab

Code
granite-20b-code-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de l'API Chat (Multitenant) : Exemple

Code
granite-20b-code-base-schema-linking
Code
granite-20b-code-base-sql-gen
Code
granite-34b-code-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de l'API Chat (Multitenant) : Exemple

Code
granite-vision-3-2-2b
Samples :
- Chat à partir de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple
allam-1-13b-instruct
Chat de Prompt Lab

- Classification
- Traduction
codellama-34b-instruct-hf
Code
deepseek-r1-distill-llama-8b
Q&A
deepseek-r1-distill-llama-70b
Q&A
elyza-japanese-llama-2-7b-instruct
- Classification
- Traduction
eurollm-1-7b-instruct
Chat de Prompt Lab

- Q&A
- Traduction
eurollm-9b-instruct
Chat de Prompt Lab

- Q&A
- Traduction
flan-t5-xl-3b
RAG de Prompt Lab
flan-t5-xxl-11b
RAG de Prompt Lab

- Q&A
- Classification
- Résumé
flan-ul2-20b
RAG de Prompt Lab
- RAG de AutoAI (Multitenant)

- Q&A
- Classification
- Extraction
- Synthèse
jais-13b-chat
Chat de Prompt Lab Exemple de chat
llama-3-3-70b-instruct
Exemples :
- Chat à partir de Prompt Lab : Exemple de chat
- Depuis l'API Chat (Multitenant) : Exemple

Multitenant : Exemple d'appel d'outil (Multitenant )

RAG de Prompt Lab
llama-3-2-1b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab

Code
llama-3-2-3b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

RAG de Prompt Lab

Code
llama-3-2-11b-vision-instruct
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-2-90b-vision-instruct
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-1-8b
Chat de Prompt Lab Exemple de chat

Échantillons :
- RAG de Prompt Lab
llama-3-1-8b-instruct
Chat à partir de Prompt Lab : Exemple de chat
- Depuis l'API Chat (Multitenant) : Exemple
Multitenant : ✓
Exemple d'appel d'outil (Multitenant )

Échantillons :
- RAG de Prompt Lab
- RAG de AutoAI (Multitenant)
llama-3-1-70b-instruct
Exemples :
- Chat à partir de Prompt Lab : Exemple de chat
- Depuis l'API Chat (Multitenant) : Exemple
Multitenant : ✓
Exemple d'appel d'outil (Multitenant )

- RAG de Prompt Lab
- RAG de AutoAI (Multitenant)
llama-3-405b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-8b-instruct
Échantillons :
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

RAG de Prompt Lab
llama-2-13b-chat
Chat de Prompt Lab Exemple de chat

RAG de Prompt Lab
llama-guard-3-11b-vision
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple

RAG de Prompt Lab

Classification
mistral-large (Multitenant)
mistral-large -instruct-2407 (Dédié)

Exemples :
- Chat à partir de Prompt Lab
- A partir de l'API Chat (Multitenant) : Exemple

Multitenant :
Exemple d'appel d'outil (Multitenant)

- RAG de Prompt Lab
- RAG de AutoAI (Multitenant)

- Classification
- Extraction
- Résumé
- Code
- Traduction
mistral-large-instruct-2411
Échantillons :
- Chat de Prompt Lab

- RAG de Prompt Lab

- Classification
- Extraction
- Résumé
- Code
- Traduction
mistral-nemo-instruct-2407
Chat de Prompt Lab

- RAG de Prompt Lab

- Classification
- Extraction
- Génération
- Synthèse
- Code
- Traduction
mistral-small-24b-instruct-2501
Chat de Prompt Lab

- RAG de Prompt Lab

- Classification
- Extraction
- Génération
- Synthèse
- Code
- Traduction
mixtral-8x7b-base
Chat de Prompt Lab

- RAG de Prompt Lab

- Classification
- Extraction
- Génération
- Synthèse
- Code
- Traduction
mixtral-8x7b-instruct-v01
Chat de Prompt Lab

- RAG de Prompt Lab
- RAG de AutoAI (Multitenant)

- Classification
- Extraction
- Génération
- Synthèse
- Code
- Traduction
mt0-xxl-13b
RAG de Prompt Lab

- Classification
- Q&R
pixtral-12b
Chat from Prompt Lab Chat avec exemple d'image

RAG de Prompt Lab

- Classification
- Extraction
- Synthèse

 

Modèles de fondations multimodales

Les modèles de fondation multimodaux sont capables de traiter et d'intégrer des informations provenant de plusieurs modalités ou types de données. Ces modalités peuvent inclure du texte, des images, du son, de la vidéo et d'autres formes d'apports sensoriels.

Les modèles de fondation multimodaux disponibles sur watsonx.ai peuvent effectuer les types de tâches suivants :

Génération d'images en texte
Utile pour répondre à des questions visuelles, interpréter des tableaux et des graphiques, légender des images, etc.

Le tableau suivant répertorie les modèles de fondation disponibles qui prennent en charge des modalités autres que l'entrée et la sortie de texte.

Tableau 1b. Modèles de fondations multimodales soutenus
Modèle Modalités d'entrée Modalités de sortie
granite-vision-3-2-2b image, texte texte
llama-3-2-11b-vision-instruct image, texte texte
llama-3-2-90b-vision-instruct image, texte texte
llama-guard-3-11b-vision image, texte texte
pixtral-12b image, texte texte

 

Des modèles de base qui prennent en charge votre langue

De nombreux modèles de fondations ne fonctionnent bien qu'en anglais. Mais certains créateurs de modèles incluent plusieurs langues dans les jeux de données de préentraînement pour affiner leur modèle sur les tâches dans différentes langues et pour tester les performances de leur modèle dans plusieurs langues. Si vous prévoyez de créer une solution pour un public global ou une solution qui effectue des tâches de traduction, recherchez les modèles qui ont été créés avec un support multilingue à l'esprit.

Le tableau suivant répertorie les langues naturelles prises en charge en plus de l'anglais par les modèles de base dans watsonx.ai. Pour plus d'informations sur les langues prises en charge pour les modèles de base multilingues, consultez la fiche du modèle de base.

Tableau 2. Modèles de base qui prennent en charge les langues naturelles autres que l'anglais
Modèle Langues autres que l'anglais
granite-8b-japanese Japonais
granite-20b-multilingual Allemand, espagnol, français et portugais
Granite Instruct 3.2 ( granite-3-2-8b-instruct, granite-vision-3-2-2b ) Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois (simplifié)
Granite Instruct 3.1granite-3-2b-instruct, granite-3-8b-instruct ) Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois (simplifié)
Granitegranite-3-8b-base ) Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais, chinois (simplifié)
allam-1-13b-instruct Arabe
elyza-japanese-llama-2-7b-instruct Japonais
EuroLLM Instruire les modèles Bulgare, croate, tchèque, danois, néerlandais, anglais, estonien, finlandais, français, allemand, grec, hongrois, irlandais, italien, letton, lituanien, maltais, polonais, portugais, roumain, slovaque, slovène, espagnol, suédois, arabe, catalan, chinois, galicien, hindi, japonais, coréen, norvégien, russe, turc et ukrainien
flan-t5-xl-3b Multilingue(voir la carte du modèle)
flan-t5-xxl-11b Français, allemand
jais-13b-chat Arabe
Llama 4 ( llama-4-maverick-17b-128e-instruct-fp8, llama-4-scout-17b-16e-instruct ) Allemand, anglais, arabe, espagnol, français, hindi, indonésien, italien, portugais, tagalog, thaï et vietnamien.
Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
Llama 3.2 (llama-3-2-1b-instruct, llama-3-2-3b-instruct. Egalement llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, et llama-guard-3-11b-vision avec des entrées en texte seul) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
Llama 3.1 (llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
mistral-large Multilingue(voir la carte du modèle)
mistral-large-instruct-2411, mistral-nemo-instruct-2407, mistral-small-24b-instruct-2501 Plusieurs langues, notamment l'anglais, le français, l'allemand, l'espagnol, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe et l'hindi.
mixtral-8x7b-base, mixtral-8x7b-instruct-v01 Français, allemand, italien, espagnol
mt0-xxl-13b Multilingue(voir la carte du modèle)

 

Modèles de base que vous pouvez optimiser

Certains des modèles de base disponibles dans watsonx.ai peuvent être optimisés pour mieux répondre à vos besoins.

La méthode d'optimisation suivante est prise en charge:

  • Ajustement rapide : exécute des expériences d'ajustement qui ajustent le vecteur d'invite inclus dans l'entrée du modèle de base. Après plusieurs exécutions, il trouve le vecteur d'invite qui peut le mieux guider le modèle de fondation pour renvoyer une sortie qui convient à votre tâche.

Le tableau suivant présente les méthodes d'optimisation des modèles de base disponibles dans IBM watsonx.ai. Une coche (✓) indique que la méthode de réglage mentionnée dans l'en-tête de colonne est prise en charge par le modèle de la fondation.

Tableau 3. Méthodes d'optimisation disponibles
Nom du modèle Optimisation des invites
flan-t5-xl-3b
granite-13b-instruct-v2

Pour plus d'informations, voir Tuning Studio.

Types de modèles et indemnisation de la propriété intellectuelle

Passez en revue la politique d'indemnisation en matière de propriété intellectuelle pour le modèle de fondation que vous souhaitez utiliser. Certains fournisseurs de modèles de fondations tierces exigent que vous les exonériez de toute responsabilité en cas de violation de la propriété intellectuelle pouvant résulter de l'utilisation de leurs modèles d'IA.

Les modèles de fondation développés par IBM et disponibles auprès de watsonx.ai bénéficient d'une protection standard de la propriété intellectuelle, similaire à celle fournie par IBM pour les produits matériels et logiciels.

IBM étend son indemnisation standard de la propriété intellectuelle aux résultats générés par les modèles couverts. Les modèles couverts comprennent les modèles développés par IBM et certains modèles de base tiers disponibles auprès de watsonx.ai. Les modèles couverts par des tiers sont indiqués dans le tableau 4.

Le tableau suivant décrit les différents types de modèles de fondation et leurs politiques d'indemnisation. Voir les documents de référence pour plus de détails.

Tableau 4. Détails de la politique d'indemnisation
Type de modèle de fondation Politique d'indemnisation Modèles de fondation Détails Matériaux de référence
Modèle couvert IBM Indemnisation non plafonnée IBM - IBM Granite
- IBM Ardoise
IBM -développé des modèles de fondations qui sont disponibles sur watsonx.ai. Voir les ressources suivantes :
watsonx.ai Description du service d'exécution
watsonx.ai Description du service Studio
Modèle couvert par un tiers Indemnisation plafonnée IBM Mistral Large Modèles couverts par des tiers disponibles sur watsonx.ai. Voir Description du service
Produit non IBM Aucune IBM indemnisation Plusieurs Modèles de tiers disponibles sur watsonx.ai et soumis à leurs conditions de licence respectives, y compris les obligations et restrictions associées. Voir les informations sur le modèle.
Modèle personnalisé Aucune IBM indemnisation Plusieurs Les modèles de fondation que vous importez pour les utiliser dans watsonx.ai sont des contenus de clients. Le client est seul responsable de la sélection et de l'utilisation du modèle et des résultats, ainsi que du respect des conditions, obligations et restrictions liées aux licences des tiers.

 

Pour plus d'informations sur les conditions de licence des modèles tiers, voir Modèles tiers de base.

Autres considérations pour le choix d'un modèle

Tableau 5. Considérations pour le choix d'un modèle de fondation dans l' IBM watsonx.ai
Modèle, attribut Considérations
Longueur du contexte Parfois appelée longueur de fenêtre de contexte, fenêtre de contexteou longueur de séquence maximale, la longueur de contexte est la valeur maximale autorisée pour le nombre de jetons dans l'invite d'entrée plus le nombre de jetons dans la sortie générée. Lorsque vous générez une sortie avec des modèles dans watsonx.ai, le nombre de jetons dans la sortie générée est limité par le paramètre Max tokens.
Coût Le coût d'utilisation des modèles de base est mesuré en unités de ressources. Le prix d'une unité de ressource est basé sur le taux de la tranche de tarification du modèle de base.
Affiné Après avoir été pré-entraînés, de nombreux modèles de base sont affinés pour des tâches spécifiques, telles que la classification, l'extraction d'informations, la synthèse, la réponse à des instructions, la réponse à des questions ou la participation à un dialogue en ligne. Un modèle qui fait l'objet d'un réglage fin sur des tâches similaires à votre utilisation planifiée est généralement plus efficace avec des invites de mise à zéro que les modèles qui ne sont pas affinés d'une manière qui correspond à votre cas d'utilisation. Une façon d'améliorer les résultats d'un modèle affiné consiste à structurer votre invite dans le même format que les invites des jeux de données qui ont été utilisés pour affiner ce modèle.
Instruction optimisée Instruction optimisée signifie que le modèle a été affiné avec des invites qui incluent une instruction. Lorsqu'un modèle est réglé sur instruction, il répond généralement bien aux invites qui ont une instruction, même si ces invites n'ont pas d'exemples.
Indemnité de propriété intellectuelle En plus des termes de la licence, passez en revue la politique d'indemnisation en matière de propriété intellectuelle pour le modèle. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle.
Licence En général, chaque modèle de fondation est fourni avec une licence différente qui limite la manière dont le modèle peut être utilisé. Passez en revue les licences de modèle pour vous assurer que vous pouvez utiliser un modèle pour votre solution planifiée.
Architecture de modèle L'architecture du modèle influence le comportement du modèle. Un modèle basé sur un transformateur possède généralement l'une des architectures suivantes:
Encoder-only: comprend le texte d'entrée au niveau de la phrase en transformant les séquences d'entrée en vecteurs de représentation appelés incorporations. Les tâches communes pour les modèles d'encodeur uniquement incluent la classification et l'extraction d'entité.
Decoder uniquement: Génère un texte de sortie mot à mot par inférence à partir de la séquence d'entrée. Les tâches courantes pour les modèles de décodeur uniquement incluent la génération de texte et la réponse aux questions.
Encoder-decoder: Les deux comprennent le texte d'entrée et génèrent du texte de sortie en fonction du texte d'entrée. Les tâches courantes pour les modèles encodeur-décodeur comprennent la traduction et la synthèse.
Disponibilité régionale Vous pouvez utiliser des modèles disponibles dans le même centre de données régional IBM Cloud que vos services watsonx .
Langages de programmation pris en charge Tous les modèles de base ne fonctionnent pas bien pour les cas d'utilisation de la programmation. Si vous prévoyez de créer une solution qui récapitule, convertit, génère ou traite du code, vérifiez quels langages de programmation ont été inclus dans les ensembles de données de préapprentissage d'un modèle et les activités d'optimisation pour déterminer si ce modèle est adapté à votre cas d'utilisation.

En savoir plus

Rubrique parent: Modèles de base pris en charge