Choisir un modèle de fondation dans watsonx.ai
De nombreux facteurs doivent être pris en compte lors du choix d'un modèle de base à utiliser pour l'inférence à partir d'un projet d'IA générative.
Par exemple, pour une solution qui résume les rapports de problèmes d'un centre d'appels, vous pourriez vouloir un modèle de base avec les caractéristiques suivantes :
- Obtenez de bons résultats aux tests de référence pour les tâches de résumé
- Gère de grandes quantités de texte, ce qui signifie une grande longueur de fenêtre de contexte
- Peut interpréter des images d'articles endommagés, donc accepte les entrées sous forme de texte et d'images
Déterminez les facteurs les plus importants pour vous et votre organisation.
- Tâches que le modèle peut accomplir
- Modèles de fondations multimodales
- Langes prises en charge
- Options de réglage pour personnaliser le modèle
- Conditions de licence et d'indemnisation de la propriété intellectuelle
- Attributs du modèle, tels que la taille, l'architecture et la longueur de la fenêtre contextuelle
Après avoir dressé une liste restreinte des modèles qui répondent le mieux à vos besoins, vous pouvez les tester afin de déterminer ceux qui produisent systématiquement les résultats souhaités.
Modèles de base qui prennent en charge votre cas d'utilisation
Pour commencer, recherchez les modèles de base qui peuvent effectuer le type de tâche que vous souhaitez effectuer.
Le tableau suivant présente les types de tâches prises en charge par les modèles de fondation sur le site IBM watsonx.ai. Une coche (✓) indique que la tâche nommée dans l'en-tête de colonne est prise en charge par le modèle de base. Pour certaines tâches, vous pouvez cliquer sur un lien pour accéder à un exemple d'invite pour la tâche.
Modèle | Conversation | Interaction avec l'outil à partir de l'API Chat |
Génération augmentée par récupération (RAG) | Exemples |
---|---|---|---|---|
granite-3-1-8b-base | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ | |
granite-3-3-2b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ Questions et réponses |
|
granite-3-3-8b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ Questions et réponses |
|
granite-7b-lab | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ Résumé |
|
granite-13b-instruct-v2 | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ Génération |
|
granite-8b-japanese | ✓ - Q&A - Traduction |
|||
granite-20b-multilingual | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
✓ Traduction |
|
granite-3-2-8b-instruct | ✓ Échantillons d' s : • Depuis Prompt Lab : Échantillon • Depuis l'API de chat : Échantillon |
✓ | ||
granite-3-2b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Code |
||
granite-3-8b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓*Echantillon d'appel d' |
✓ Code |
|
granite-guardian-3-2b | ✓ Chat de Prompt Lab |
✓ RAG de Prompt Lab |
✓ | |
granite-guardian-3-8b | ✓ Chat de Prompt Lab |
✓ RAG de Prompt Lab |
✓ | |
granite-3b-code-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Code |
||
granite-8b-code-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Code |
||
granite-20b-code-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Code |
||
granite-20b-code-base-schema-linking | ✓ Code |
|||
granite-20b-code-base-sql-gen | ✓ Code |
|||
granite-34b-code-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Code |
||
granite-vision-3-2-2b | ✓ Samples : - Chat à partir de Prompt Lab : Chat avec exemple d'image - A partir de l'API Chat : Exemple |
✓ | ||
allam-1-13b-instruct | ✓ Chat de Prompt Lab |
✓ - Classification - Traduction |
||
codellama-34b-instruct-hf | ✓ Code |
|||
deepseek-r1-distill-llama-8b | ✓ | ✓ Q&A |
||
deepseek-r1-distill-llama-70b | ✓ | ✓ Q&A |
||
elyza-japanese-llama-2-7b-instruct | ✓ - Classification - Traduction |
|||
eurollm-1-7b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ - Q&A - Traduction |
||
eurollm-9b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ - Q&A - Traduction |
||
flan-t5-xl-3b | ✓ RAG de Prompt Lab |
✓ | ||
flan-t5-xxl-11b | ✓ RAG de Prompt Lab |
✓ - Q&A - Classification - Résumé |
||
flan-ul2-20b | ✓ RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
✓ - Q&A - Classification - Extraction - Synthèse |
||
jais-13b-chat | ✓ Chat de Prompt Lab Exemple de chat |
✓ | ||
llama-4-maverick-17b-128e-instruct-fp8 | ✓ Samples : - Chat from Prompt Lab : Exemple - A partir de l'API Chat : Exemple |
✓ RAG de Prompt Lab |
✓ Dialogue |
|
llama-3-3-70b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ RAG de Prompt Lab |
✓ |
llama-3-2-1b-instruct | ✓ - Chat de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ RAG de Prompt Lab |
✓ Code |
llama-3-2-3b-instruct | ✓ - Chat de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓ RAG de Prompt Lab |
✓ Code |
|
llama-3-2-11b-vision-instruct | ✓ Exemples : - Chat de Prompt Lab : Chat avec exemple d'image - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ RAG de Prompt Lab |
✓ |
llama-3-2-90b-vision-instruct | ✓ Exemples : - Chat de Prompt Lab : Chat avec exemple d'image - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ RAG de Prompt Lab |
|
llama-3-1-8b | ✓ Chat de Prompt Lab Exemple de chat |
✓ Échantillons : - RAG de Prompt Lab |
✓ | |
llama-3-1-8b-instruct | ✓ Chat de Prompt Lab : Exemple de chat - Depuis l'API Chat : Exemple |
✓ Exemple d'appel d'outils : |
✓ Échantillons : - RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
✓ |
llama-3-1-70b | ✓ Chat de Prompt Lab Exemple de chat |
✓ Échantillons : - RAG de Prompt Lab |
✓ | |
llama-3-1-70b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ - RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
✓ |
llama-3-405b-instruct | ✓ - Chat de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓*Echantillon d'appel d' |
✓ RAG de Prompt Lab |
✓ |
llama-3-8b-instruct | ✓ Exemples : - Chat à partir de Prompt Lab : Exemple de chat - A partir de l'API Chat : Exemple |
✓ RAG de Prompt Lab |
||
llama-2-13b-chat | ✓ Chat de Prompt Lab Exemple de chat |
✓ RAG de Prompt Lab |
✓ | |
llama-guard-3-11b-vision | ✓ Exemples : - Chat de Prompt Lab : Chat avec exemple d'image - A partir de l'API Chat : Exemple |
✓ RAG de Prompt Lab |
✓ Classification |
|
mistral-large (Multitenant) mistral-large -instruct-2407 (Dedicated) |
✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ Exemple d'appel d'outils |
✓ - RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
✓ - Classification - Extraction - Résumé - Code - Traduction |
mistral-large-instruct-2411 | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ - RAG de Prompt Lab |
✓ - Classification - Extraction - Résumé - Code - Traduction |
|
mistral-nemo-instruct-2407 | ✓ Chat de Prompt Lab |
✓ - RAG de Prompt Lab |
✓ - Classification - Extraction - Génération - Synthèse - Code - Traduction |
|
mistral-small-3-1-24b-instruct-2503 | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ - RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
||
mistral-small-24b-instruct-2501 | ✓ Chat de Prompt Lab |
✓ - RAG de Prompt Lab |
✓ - Classification - Extraction - Génération - Synthèse - Code - Traduction |
|
mixtral-8x7b-base | ✓ Chat de Prompt Lab |
✓ - RAG de Prompt Lab |
✓ - Classification - Extraction - Génération - Synthèse - Code - Traduction |
|
mixtral-8x7b-instruct-v01 | ✓ Chat de Prompt Lab |
✓ - RAG de Prompt Lab - RAG de AutoAI (Multitenant) |
✓ - Classification - Extraction - Génération - Synthèse - Code - Traduction |
|
mt0-xxl-13b | ✓ RAG de Prompt Lab |
✓ - Classification - Q&R |
||
pixtral-12b | ✓ Chat de Prompt Lab : Chat avec exemple d'image |
✓ RAG de Prompt Lab |
✓ - Classification - Extraction - Synthèse |
|
poro-34b-chat | ✓ Exemples : - Chat à partir de Prompt Lab - A partir de Chat API : Exemple |
✓ RAG de Prompt Lab |
Traduction |
- Pour consulter divers exemples d'invites regroupées par type de tâche, voir Exemples d'invites.
- Pour déterminer dans quelle mesure un modèle de base peut effectuer certaines tâches, voir les critères de référence des modèles de base.
Modèles de fondations multimodales
Les modèles de fondation multimodaux sont capables de traiter et d'intégrer des informations provenant de plusieurs modalités ou types de données. Ces modalités peuvent inclure du texte, des images, du son, de la vidéo et d'autres formes d'apports sensoriels.
Les modèles de fondation multimodaux disponibles sur watsonx.ai peuvent effectuer les types de tâches suivants :
- Génération d'images en texte
- Utile pour répondre à des questions visuelles, interpréter des tableaux et des graphiques, légender des images, etc.
Le tableau suivant répertorie les modèles de fondation disponibles qui prennent en charge des modalités autres que l'entrée et la sortie de texte.
Modèle | Modalités d'entrée | Modalités de sortie |
---|---|---|
granite-vision-3-2-2b | image, texte | texte |
llama-4-maverick-17b-128e-instruct-fp8 | image, texte | texte |
llama-4-scout-17b-16e-instruct | image, texte | texte |
llama-3-2-11b-vision-instruct | image, texte | texte |
llama-3-2-90b-vision-instruct | image, texte | texte |
llama-guard-3-11b-vision | image, texte | texte |
pixtral-12b | image, texte | texte |
Des modèles de base qui prennent en charge votre langue
De nombreux modèles de fondations ne fonctionnent bien qu'en anglais. Mais certains créateurs de modèles incluent plusieurs langues dans les jeux de données de préentraînement pour affiner leur modèle sur les tâches dans différentes langues et pour tester les performances de leur modèle dans plusieurs langues. Si vous prévoyez de créer une solution pour un public global ou une solution qui effectue des tâches de traduction, recherchez les modèles qui ont été créés avec un support multilingue à l'esprit.
Le tableau suivant répertorie les langues naturelles prises en charge en plus de l'anglais par les modèles de base dans watsonx.ai. Pour plus d'informations sur les langues prises en charge pour les modèles de base multilingues, consultez la fiche du modèle de base.
Modèle | Langues autres que l'anglais |
---|---|
Granite 3.1 (granite-3-1-8b-base) | Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois |
Granite Instruire 3.3 ( granite-3-3-2b-instruct, granite-3-3-8b-instruct ) | Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois |
granite-8b-japanese | Japonais |
granite-20b-multilingual | Allemand, espagnol, français et portugais |
Granite Instruct 3.2 ( granite-3-2-8b-instruct, granite-vision-3-2-2b ) | Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois (simplifié) |
Granite Instruct 3.1granite-3-2b-instruct, granite-3-8b-instruct ) | Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois (simplifié) |
Granitegranite-3-8b-base ) | Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais, chinois (simplifié) |
allam-1-13b-instruct | Arabe |
elyza-japanese-llama-2-7b-instruct | Japonais |
EuroLLM Instruire les modèles | Bulgare, croate, tchèque, danois, néerlandais, anglais, estonien, finlandais, français, allemand, grec, hongrois, irlandais, italien, letton, lituanien, maltais, polonais, portugais, roumain, slovaque, slovène, espagnol, suédois, arabe, catalan, chinois, galicien, hindi, japonais, coréen, norvégien, russe, turc et ukrainien |
flan-t5-xl-3b | Multilingue(voir la carte du modèle) |
flan-t5-xxl-11b | Français, allemand |
jais-13b-chat | Arabe |
Llama 4 ( llama-4-maverick-17b-128e-instruct-fp8, llama-4-scout-17b-16e-instruct ) | Allemand, arabe, espagnol, français, hindi, indonésien, italien, portugais, tagalog, thaï et vietnamien. |
Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) | Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï |
Llama 3.2 ( llama-3-2-1b-instruct, llama-3-2-3b-instruct. Egalement llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, et llama-guard-3-11b-vision avec des entrées en texte seul) | Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï |
Llama 3.1 ( llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct ) | Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï |
mistral-large | Multilingue(voir la carte du modèle) |
mistral-large-instruct-2411, mistral-nemo-instruct-2407, mistral-small-24b-instruct-2501 | Plusieurs langues, notamment l'anglais, le français, l'allemand, l'espagnol, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe et l'hindi. |
mixtral-8x7b-base, mixtral-8x7b-instruct-v01 | Français, allemand, italien, espagnol |
mt0-xxl-13b | Multilingue(voir la carte du modèle) |
Modèles de base que vous pouvez optimiser
Certains des modèles de base disponibles dans watsonx.ai peuvent être optimisés pour mieux répondre à vos besoins.
La méthode d'optimisation suivante est prise en charge:
- Ajustement rapide : exécute des expériences d'ajustement qui ajustent le vecteur d'invite inclus dans l'entrée du modèle de base. Après plusieurs exécutions, il trouve le vecteur d'invite qui peut le mieux guider le modèle de fondation pour renvoyer une sortie qui convient à votre tâche.
Le tableau suivant présente les méthodes d'optimisation des modèles de base disponibles dans IBM watsonx.ai. Une coche (✓) indique que la méthode de réglage mentionnée dans l'en-tête de colonne est prise en charge par le modèle de la fondation.
Nom du modèle | Optimisation des invites |
---|---|
flan-t5-xl-3b | ✓ |
granite-13b-instruct-v2 | ✓ |
Pour plus d'informations, voir Tuning Studio.
Types de modèles et indemnisation de la propriété intellectuelle
Passez en revue la politique d'indemnisation en matière de propriété intellectuelle pour le modèle de fondation que vous souhaitez utiliser. Certains fournisseurs de modèles de fondations tierces exigent que vous les exonériez de toute responsabilité en cas de violation de la propriété intellectuelle pouvant résulter de l'utilisation de leurs modèles d'IA.
Les modèles de fondation développés par IBM et disponibles auprès de watsonx.ai bénéficient d'une protection standard de la propriété intellectuelle, similaire à celle fournie par IBM pour les produits matériels et logiciels.
IBM étend son indemnisation standard de la propriété intellectuelle aux résultats générés par les modèles couverts. Les modèles couverts comprennent les modèles développés par IBM et certains modèles de base tiers disponibles auprès de watsonx.ai. Les modèles couverts par des tiers sont indiqués dans le tableau 4.
Le tableau suivant décrit les différents types de modèles de fondation et leurs politiques d'indemnisation. Voir les documents de référence pour plus de détails.
Type de modèle de fondation | Politique d'indemnisation | Modèles de fondation | Détails | Matériaux de référence |
---|---|---|---|---|
Modèle couvert IBM | Indemnisation non plafonnée IBM | - IBM Granite - IBM Ardoise |
IBM -développé des modèles de fondations qui sont disponibles sur watsonx.ai. | Voir les ressources suivantes : • watsonx.ai Description du service d'exécution • watsonx.ai Description du service Studio |
Modèle couvert par un tiers | Indemnisation plafonnée IBM | Mistral Large | Modèles couverts par des tiers disponibles sur watsonx.ai. | Voir Description du service |
Produit non IBM | Aucune IBM indemnisation | Plusieurs | Modèles de tiers disponibles sur watsonx.ai et soumis à leurs conditions de licence respectives, y compris les obligations et restrictions associées. | Voir les informations sur le modèle. |
Modèle personnalisé | Aucune IBM indemnisation | Plusieurs | Les modèles de fondation que vous importez pour les utiliser dans watsonx.ai sont des contenus de clients. | Le client est seul responsable de la sélection et de l'utilisation du modèle et des résultats, ainsi que du respect des conditions, obligations et restrictions liées aux licences des tiers. |
Pour plus d'informations sur les conditions de licence des modèles tiers, voir Modèles tiers de base.
Autres considérations pour le choix d'un modèle
Modèle, attribut | Considérations |
---|---|
Longueur du contexte | Parfois appelée longueur de fenêtre de contexte, fenêtre de contexteou longueur de séquence maximale, la longueur de contexte est la valeur maximale autorisée pour le nombre de jetons dans l'invite d'entrée plus le nombre de jetons dans la sortie générée. Lorsque vous générez une sortie avec des modèles dans watsonx.ai, le nombre de jetons dans la sortie générée est limité par le paramètre Max tokens. |
Coût | Le coût d'utilisation des modèles de base est mesuré en unités de ressources. Le prix d'une unité de ressource est basé sur le taux de la tranche de tarification du modèle de base. |
Affiné | Après avoir été pré-entraînés, de nombreux modèles de base sont affinés pour des tâches spécifiques, telles que la classification, l'extraction d'informations, la synthèse, la réponse à des instructions, la réponse à des questions ou la participation à un dialogue en ligne. Un modèle qui fait l'objet d'un réglage fin sur des tâches similaires à votre utilisation planifiée est généralement plus efficace avec des invites de mise à zéro que les modèles qui ne sont pas affinés d'une manière qui correspond à votre cas d'utilisation. Une façon d'améliorer les résultats d'un modèle affiné consiste à structurer votre invite dans le même format que les invites des jeux de données qui ont été utilisés pour affiner ce modèle. |
Instruction optimisée | Instruction optimisée signifie que le modèle a été affiné avec des invites qui incluent une instruction. Lorsqu'un modèle est réglé sur instruction, il répond généralement bien aux invites qui ont une instruction, même si ces invites n'ont pas d'exemples. |
Indemnité de propriété intellectuelle | En plus des termes de la licence, passez en revue la politique d'indemnisation en matière de propriété intellectuelle pour le modèle. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle. |
Licence | En général, chaque modèle de fondation est fourni avec une licence différente qui limite la manière dont le modèle peut être utilisé. Passez en revue les licences de modèle pour vous assurer que vous pouvez utiliser un modèle pour votre solution planifiée. |
Architecture de modèle | L'architecture du modèle influence le comportement du modèle. Un modèle basé sur un transformateur possède généralement l'une des architectures suivantes: Encoder-only: comprend le texte d'entrée au niveau de la phrase en transformant les séquences d'entrée en vecteurs de représentation appelés incorporations. Les tâches communes pour les modèles d'encodeur uniquement incluent la classification et l'extraction d'entité. Decoder uniquement: Génère un texte de sortie mot à mot par inférence à partir de la séquence d'entrée. Les tâches courantes pour les modèles de décodeur uniquement incluent la génération de texte et la réponse aux questions. Encoder-decoder: Les deux comprennent le texte d'entrée et génèrent du texte de sortie en fonction du texte d'entrée. Les tâches courantes pour les modèles encodeur-décodeur comprennent la traduction et la synthèse. |
Disponibilité régionale | Vous pouvez utiliser des modèles disponibles dans le même centre de données régional IBM Cloud que vos services watsonx . |
Langages de programmation pris en charge | Tous les modèles de base ne fonctionnent pas bien pour les cas d'utilisation de la programmation. Si vous prévoyez de créer une solution qui récapitule, convertit, génère ou traite du code, vérifiez quels langages de programmation ont été inclus dans les ensembles de données de préapprentissage d'un modèle et les activités d'optimisation pour déterminer si ce modèle est adapté à votre cas d'utilisation. |
En savoir plus
- Jetons et marquage sémantique
- Paramètres de modèle pour l'invite
- Modèles d'encodeurs pris en charge
- Astuces d'invite
- Détails de la facturation pour les actifs d'IA générative
- Disponibilité régionale pour les modèles de base
Rubrique parent: Modèles de base pris en charge