0 / 0
Retourner à la version anglaise de la documentation
Choix d'un foundation model dans watsonx.ai
Dernière mise à jour : 18 déc. 2024
Choix d'un foundation model dans watsonx.ai

De nombreux facteurs doivent être pris en compte lors du choix d'un foundation model à utiliser pour l'inférence dans le cadre d'un projet d'IA générative.

Déterminez les facteurs les plus importants pour vous et votre organisation.

Après avoir dressé une liste restreinte des modèles qui répondent le mieux à vos besoins, vous pouvez les tester afin de déterminer ceux qui produisent systématiquement les résultats souhaités.

Modèles de base qui prennent en charge votre cas d'utilisation

Pour commencer, recherchez les modèles de base qui peuvent effectuer le type de tâche que vous souhaitez effectuer.

Le tableau suivant présente les types de tâches prises en charge par les modèles de base d'IBM watsonx.ai Une coche (✓) indique que la tâche nommée dans l'en-tête de la colonne est prise en charge par le foundation model. Pour certaines tâches, vous pouvez cliquer sur un lien pour accéder à un exemple d'invite pour la tâche. Vous pouvez également consulter la rubrique Exemples d'invites pour examiner divers exemples d'invites regroupés par type de tâche.

Tableau 1a. Prise en charge des tâches de modèle de base
Modèle Conversation Génération et conversion de codes Interaction avec l'outil à partir de l'API Chat
(classification, extraction, questions-réponses, résumé)
Génération augmentée par récupération (RAG) Traduction
granite-13b-instruct-v2
Chat de Prompt Lab

Échantillon de génération

RAG de Prompt Lab
granite-7b-lab
Chat de Prompt Lab

Exemple de résumé

- RAG from Prompt Lab
- RAG from AutoAI
granite-8b-japanese ✓*Échantillon de

Échantillon de traduction
granite-20b-multilingual
Chat de Prompt Lab

RAG de Prompt Lab

Échantillon de traduction
granite-3-2b-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Exemple de code
granite-3-8b-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Exemple de code
✓*Echantillon d'appel d'
granite-guardian-3-2b
Chat de Prompt Lab

RAG de Prompt Lab
granite-guardian-3-8b
Chat de Prompt Lab

RAG de Prompt Lab
granite-3b-code-instruct
Chat de Prompt Lab

Exemple de code
granite-8b-code-instruct
Chat de Prompt Lab

Exemple de code
granite-20b-code-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Exemple de code
granite-20b-code-base-schema-linking
Code texte-SQL
granite-20b-code-base-sql-gen
Code texte-SQL
granite-34b-code-instruct
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Exemple de code
allam-1-13b-instruct
Chat de Prompt Lab

Échantillon de classification

Échantillon de traduction
codellama-34b-instruct-hf
Exemple de code
elyza-japanese-llama-2-7b-instruct
Échantillon de classification

Échantillon de traduction
flan-t5-xl-3b
RAG de Prompt Lab
flan-t5-xxl-11b
Exemples :
- Questions et réponses
- Classification
- Synthèse

RAG de Prompt Lab
flan-ul2-20b
Échantillons :
- Questions et réponses
- Classification
- Extraction
- Synthèse

RAG from Prompt Lab
- RAG from AutoAI
jais-13b-chat
Chat de Prompt Lab Exemple de chat
llama-3-3-70b-instruct
Échantillons :
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-2-1b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

Exemple de code
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-2-3b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

Exemple de code

RAG de Prompt Lab
llama-3-2-11b-vision-instruct
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-2-90b-vision-instruct
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-1-8b
Chat de Prompt Lab Exemple de chat

Échantillons :
- RAG de Prompt Lab
llama-3-1-8b-instruct
Chat de Prompt Lab Exemple de chat
✓*Echantillon d'appel d'

Échantillons :
- RAG de Prompt Lab
- RAG d' AutoAI
llama-3-1-70b-instruct
Échantillons :
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

- RAG from Prompt Lab
- RAG from AutoAI
llama-3-405b-instruct
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple
✓*Echantillon d'appel d'

RAG de Prompt Lab
llama-3-8b-instruct
Échantillons :
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

RAG de Prompt Lab
llama-3-70b-instruct
Échantillons :
- Chat de Prompt Lab : Exemple de chat
- A partir de l'API Chat : Exemple

- RAG from Prompt Lab
- RAG from AutoAI
llama-2-13b-chat
Chat de Prompt Lab Exemple de chat

RAG de Prompt Lab
llama-guard-3-11b-vision
Exemples :
- Chat de Prompt Lab : Chat avec exemple d'image
- A partir de l'API Chat : Exemple

Échantillon de classification

RAG de Prompt Lab
mistral-large
Exemples :
- Chat à partir de Prompt Lab
- A partir de Chat API : Exemple

Exemple de code
✓*Echantillon d'appel d'

Échantillons :
- Classification
- Extraction
- Synthèse

- RAG from Prompt Lab
- RAG from AutoAI

Traduction
mixtral-8x7b-base
Chat de Prompt Lab

Exemple de code

Échantillons :
- Classification
- Extraction
- Génération '
- Synthèse

- RAG de Prompt Lab

Échantillon de traduction
mixtral-8x7b-instruct-v01
Chat de Prompt Lab

Exemple de code

Échantillons :
- Classification
- Extraction
- Génération '
- Synthèse

- RAG from Prompt Lab
- RAG from AutoAI

Échantillon de traduction
mixtral-nemo-instruct-2407
Chat de Prompt Lab

Exemple de code

Échantillons :
- Classification
- Extraction
- Génération '
- Synthèse

- RAG de Prompt Lab

Échantillon de traduction
mt0-xxl-13b
Exemples :
- Classification
- Q&R

RAG de Prompt Lab
pixtral-12b
Chat from Prompt Lab Chat avec exemple d'image

Échantillons :
- Classification
- Extraction
- Synthèse

RAG de Prompt Lab

Modèles de fondations multimodales

Les modèles de fondation multimodaux sont capables de traiter et d'intégrer des informations provenant de plusieurs modalités ou types de données. Ces modalités peuvent inclure du texte, des images, du son, de la vidéo et d'autres formes d'apports sensoriels.

Les modèles de fondation multimodaux disponibles sur watsonx.ai peuvent effectuer les types de tâches suivants :

Génération d'images en texte
Utile pour répondre à des questions visuelles, interpréter des tableaux et des graphiques, légender des images, etc.

Le tableau suivant répertorie les modèles de fondation disponibles qui prennent en charge des modalités autres que l'entrée et la sortie de texte.

Tableau 1b. Modèles de fondations multimodales soutenus
Modèle Modalités d'entrée Modalités de sortie
llama-3-2-11b-vision-instruct image, texte texte
llama-3-2-90b-vision-instruct image, texte texte
llama-guard-3-11b-vision image, texte texte
pixtral-12b image, texte texte

 

Des modèles de base qui prennent en charge votre langue

De nombreux modèles de fondations ne fonctionnent bien qu'en anglais. Mais certains créateurs de modèles incluent plusieurs langues dans les jeux de données de préentraînement pour affiner leur modèle sur les tâches dans différentes langues et pour tester les performances de leur modèle dans plusieurs langues. Si vous prévoyez de créer une solution pour un public global ou une solution qui effectue des tâches de traduction, recherchez les modèles qui ont été créés avec un support multilingue à l'esprit.

Le tableau suivant répertorie les langues naturelles prises en charge en plus de l'anglais par les modèles de base dans watsonx.ai. Pour plus d'informations sur les langues prises en charge pour les modèles de base multilingues, voir la fiche du foundation model.

Tableau 2. Modèles de base qui prennent en charge les langues naturelles autres que l'anglais
Modèle Langues autres que l'anglais
granite-8b-japanese Japonais
granite-20b-multilingual Allemand, espagnol, français et portugais
Granite Instruct 3.1granite-3-2b-instruct, granite-3-8b-instruct ) Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois (simplifié)
Granitegranite-3-8b-base ) Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais, chinois (simplifié)
allam-1-13b-instruct Arabe
elyza-japanese-llama-2-7b-instruct Japonais
flan-t5-xl-3b Multilingue(voir la carte du modèle)
flan-t5-xxl-11b Français, allemand
jais-13b-chat Arabe
Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
Llama 3.2 (llama-3-2-1b-instruct, llama-3-2-3b-instruct. Egalement llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, et llama-guard-3-11b-vision avec des entrées en texte seul) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
Llama 3.1 (llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct) Anglais, allemand, français, italien, portugais, hindi, espagnol et thaï
mistral-large Multilingue(voir la carte du modèle)
mixtral-8x7b-base, mixtral-8x7b-instruct-v01 Français, allemand, italien, espagnol
mistral-nemo-instruct-2407 Plusieurs langues, notamment l'anglais, le français, l'allemand, l'espagnol, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe et l'hindi.
mt0-xxl-13b Multilingue(voir la carte du modèle)

 

Modèles de base que vous pouvez optimiser

Certains des modèles de base disponibles dans watsonx.ai peuvent être optimisés pour mieux répondre à vos besoins.

La méthode d'optimisation suivante est prise en charge:

  • Réglage de l'invite : Exécute des expériences de réglage qui ajustent le vecteur d'invite qui est inclus dans l'entrée du foundation model. Après plusieurs exécutions, trouve le vecteur prompt qui peut le mieux guider le foundation model pour qu'il renvoie des résultats adaptés à votre tâche.

Le tableau suivant présente les méthodes d'optimisation des modèles de base disponibles dans IBM watsonx.ai. Une coche (✓) indique que la méthode de réglage nommée dans l'en-tête de la colonne est prise en charge par le foundation model.

Tableau 3. Méthodes d'optimisation disponibles
Nom du modèle Optimisation des invites
flan-t5-xl-3b
granite-13b-instruct-v2

Pour plus d'informations, voir Tuning Studio.

Types de modèles et indemnisation de la propriété intellectuelle

Examinez la politique d'indemnisation de la propriété intellectuelle pour le foundation model que vous souhaitez utiliser. Certains fournisseurs de foundation model tiers vous demandent de les exonérer de toute responsabilité en cas d'atteinte à la propriété intellectuelle pouvant résulter de l'utilisation de leurs modèles d'IA.

Les modèles de fondation développés par IBM et disponibles auprès de watsonx.ai bénéficient d'une protection standard de la propriété intellectuelle, similaire à celle fournie par IBM pour les produits matériels et logiciels.

IBM étend son indemnisation standard de la propriété intellectuelle aux résultats générés par les modèles couverts. Les modèles couverts comprennent les modèles développés par IBM et certains modèles de base tiers disponibles auprès de watsonx.ai. Les modèles couverts par des tiers sont indiqués dans le tableau 4.

Le tableau suivant décrit les différents types de foundation model et leurs politiques d'indemnisation. Voir les documents de référence pour plus de détails.

Tableau 4. Détails de la politique d'indemnisation
Type de modèle de fondation Politique d'indemnisation Modèles de fondation Détails Matériaux de référence
IBM Modèle couvert Indemnisation non plafonnée IBM - IBM Granite
- IBM Ardoise
IBM ont développé des modèles de base qui sont disponibles sur watsonx.ai. Pour conserver la couverture d'indemnisation IBM IP pour la sortie du modèle, vous devez prendre les mesures suivantes :
- Appliquer des garde-fous AI aux demandes d'inférence '
- Utiliser watsonx.governance, qui est proposé en tant que service distinct, pour enregistrer et surveiller la sortie du foundation model
Description du service
Modèle couvert par un tiers Indemnisation plafonnée IBM Mistral Large Modèles couverts par des tiers et disponibles sur watsonx.ai. Pour conserver la couverture d'indemnisation IBM IP pour la sortie du modèle, vous devez prendre les mesures suivantes :
- Appliquer des garde-fous AI aux demandes d'inférence '
- Utiliser watsonx.governance, qui est proposé en tant que service distinct, pour enregistrer et surveiller la sortie du foundation model
Description du service
Produit non-IBM Produit Aucune IBM indemnisation Plusieurs Modèles de tiers disponibles sur watsonx.ai et soumis à leurs conditions de licence respectives, y compris les obligations et restrictions associées. Voir les informations sur le modèle.
Modèle personnalisé Aucune IBM indemnisation Plusieurs Les modèles de fondation que vous importez pour les utiliser dans watsonx.ai sont des contenus de clients. Le client est seul responsable de la sélection et de l'utilisation du modèle et des résultats, ainsi que du respect des conditions, obligations et restrictions liées aux licences des tiers.

 

Pour plus d'informations, consultez les rubriques suivantes :

Autres considérations pour le choix d'un modèle

Tableau 5. Considérations pour le choix d'un foundation model dans IBM watsonx.ai
Modèle, attribut Considérations
Longueur du contexte Parfois appelée longueur de fenêtre de contexte, fenêtre de contexteou longueur de séquence maximale, la longueur de contexte est la valeur maximale autorisée pour le nombre de jetons dans l'invite d'entrée plus le nombre de jetons dans la sortie générée. Lorsque vous générez une sortie avec des modèles dans watsonx.ai, le nombre de jetons dans la sortie générée est limité par le paramètre Max tokens.
Coût Le coût d'utilisation des modèles de base est mesuré en unités de ressources. Le prix d'une unité de ressource est basé sur le taux du palier de tarification pour le foundation model.
Affiné Après le préapprentissage d'un foundation model, de nombreux modèles de base sont affinés pour des tâches spécifiques, telles que la classification, l'extraction d'informations, le résumé, la réponse à des instructions, la réponse à des questions ou la participation à un dialogue de va-et-vient. Un modèle qui fait l'objet d'un réglage fin sur des tâches similaires à votre utilisation planifiée est généralement plus efficace avec des invites de mise à zéro que les modèles qui ne sont pas affinés d'une manière qui correspond à votre cas d'utilisation. Une façon d'améliorer les résultats d'un modèle affiné consiste à structurer votre invite dans le même format que les invites des jeux de données qui ont été utilisés pour affiner ce modèle.
Instruction optimisée Instruction optimisée signifie que le modèle a été affiné avec des invites qui incluent une instruction. Lorsqu'un modèle est réglé sur instruction, il répond généralement bien aux invites qui ont une instruction, même si ces invites n'ont pas d'exemples.
Indemnité de propriété intellectuelle En plus des termes de la licence, passez en revue la politique d'indemnisation en matière de propriété intellectuelle pour le modèle. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle.
Licence En général, chaque foundation model est accompagné d'une licence différente qui limite l'utilisation du modèle. Passez en revue les licences de modèle pour vous assurer que vous pouvez utiliser un modèle pour votre solution planifiée.
Architecture de modèle L'architecture du modèle influence le comportement du modèle. Un modèle basé sur un transformateur possède généralement l'une des architectures suivantes:
Encoder-only: comprend le texte d'entrée au niveau de la phrase en transformant les séquences d'entrée en vecteurs de représentation appelés incorporations. Les tâches communes pour les modèles d'encodeur uniquement incluent la classification et l'extraction d'entité.
Decoder uniquement: Génère un texte de sortie mot à mot par inférence à partir de la séquence d'entrée. Les tâches courantes pour les modèles de décodeur uniquement incluent la génération de texte et la réponse aux questions.
Encoder-decoder: Les deux comprennent le texte d'entrée et génèrent du texte de sortie en fonction du texte d'entrée. Les tâches courantes pour les modèles encodeur-décodeur comprennent la traduction et la synthèse.
Disponibilité régionale Vous pouvez utiliser des modèles disponibles dans le même centre de données régional IBM Cloud que vos services watsonx .
Langages de programmation pris en charge Tous les modèles de base ne fonctionnent pas bien pour les cas d'utilisation de la programmation. Si vous prévoyez de créer une solution qui récapitule, convertit, génère ou traite du code, vérifiez quels langages de programmation ont été inclus dans les ensembles de données de préapprentissage d'un modèle et les activités d'optimisation pour déterminer si ce modèle est adapté à votre cas d'utilisation.

En savoir plus

Rubrique parent: Modèles de base pris en charge

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus