0 / 0
Retourner à la version anglaise de la documentation
Modèles de base créés par IBM
Dernière mise à jour : 18 déc. 2024
Modèles de base créés par IBM

Dans IBM watsonx.ai, vous pouvez utiliser des modèles de base IBM construits avec intégrité et conçus pour l'entreprise.

Les familles suivantes de modèles de base IBM sont disponibles dans watsonx.ai:

Modèles de base Granite

La famille Granite des modèles de base IBM inclut des modèles de décodeur uniquement qui peuvent efficacement prévoir et générer du langage.

Les modèles ont été créés avec des données de confiance présentant les caractéristiques suivantes:

  • Provenant d'ensembles de données de qualité dans des domaines tels que la finance (SEC Filings), le droit (Free Law), la technologie (Stack Exchange), la science ( arXiv, DeepMind Mathématiques), littérature (Projet Gutenberg ( PG-19)), et plus.
  • Conforme aux normes de gouvernance et d'approbation des données IBM rigoureuses.
  • Épuré de la haine, des abus et des grossièretés, de la duplication des données et des URL bloquées, entre autres choses.

IBM s'engage à créer une IA ouverte, fiable, ciblée et habilitante. Pour plus d'informations sur les protections contractuelles liées à l'indemnisation d'IBM, voir le contrat de relation clientIBM et la description du serviceIBM watsonx.ai

Les modèles Granite suivants sont disponibles dans watsonx.ai:

Remarque :Les modèles granite-7b-lab et granite-13b-instruct-v2 sont obsolètes. Pour plus d'informations, voir [Foundation model lifecycle]fm-model-lifecycle.html).

Les sections suivantes fournissent une brève description et quelques ressources pour l'apprentissage de chaque modèle. Pour plus d'informations, voir Modèles de base pris en charge.

granite-7b-lab

Modèle d'utilisation générale créé à l'aide d'une nouvelle méthode d'ajustement de l'alignement d' IBM Research. L'alignement à grande échelle pour les chatBots,, ou LAB, est une méthode permettant d'ajouter de nouvelles compétences aux modèles de base existants en générant des données synthétiques pour les compétences, puis en utilisant ces données pour ajuster le foundation model.

Pour obtenir des conseils sur l'invite, voir l'invite du foundation model granite-7b-lab d'IBM.

Pour les spécifications des modèles, voir Modèles de fondations pris en charge.

Carte modèle : carte modèlegranite-7b-lab

Essayez-le:

granite-13b-chat-v2

Modèle d'utilisation général optimisé pour les cas d'utilisation de boîte de dialogue. Cette version du modèle est capable de générer des réponses plus longues et de meilleure qualité avec un ton professionnel. Le modèle peut reconnaître les mentions de personnes et détecter le ton et le sentiment.

Pour obtenir des conseils sur l'invite, voir l'invite du foundation model granite-13b-chat-v2 d'IBM.

Pour les spécifications des modèles, voir Modèles de fondations pris en charge.

Carte modèle : granite-13b-chat-v2 carte modèle

Essayez-le:

granite-13b-instruct-v2

Modèle à usage général. Cette version du modèle est optimisée pour les tâches de classification, d'extraction et de synthèse. Le modèle peut reconnaître les mentions de personnes et récapituler les entrées plus longues.

Pour les spécifications des modèles, voir Modèles de fondations pris en charge.

Carte modèle : granite-13b-instruct-v2 carte modèle

Essayez-le:

granite-8b-japanese

Modèle d'utilisation générale prenant en charge la langue japonaise. Cette version du modèle est basée sur le modèle Instruct Granite et est optimisée pour les tâches de classification, d'extraction et de réponse aux questions en japonais. Vous pouvez également utiliser le modèle pour la traduction entre l'anglais et le japonais.

Pour les spécifications des modèles, voir Modèles de fondations pris en charge.

Modèle de carte : carte modèle granite-8b-japanese

Essayez-le:

granite-20b-multilingual

Modèle d'utilisation générale qui prend en charge les langues anglaise, allemande, espagnole, française et portugaise. Cette version du modèle est basée sur le modèle Instruct Granite et est optimisée pour les tâches de classification, d'extraction et de réponse aux questions dans plusieurs langues. Vous pouvez également utiliser le modèle pour les tâches de traduction.

Pour les spécifications des modèles, voir Modèles de fondations pris en charge.

Modèle de carte : carte modèle granite-20b-multilingual

Essayez-le:

Modèles Granite Code

L'instruction affine les modèles qui prennent en charge la discussion, la génération et la conversion du code. Utilisez ces modèles de base pour les tâches de codage par programmation. Les modèles Granite Code sont affinés sur la base d'une combinaison de données d'instruction afin d'améliorer les capacités de suivi des instructions, y compris le raisonnement logique et la résolution de problèmes.

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Les modèles de base " Granite Code suivants sont des versions du foundation model granite-20b-code-base adaptées aux instructions et conçues pour les tâches de génération de texte vers SQL.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen

Essayez-les en utilisant le cahier d'exemples, Inferencing with Granite Text-to-SQL Models sample notebook.

Pour plus d'informations, consultez les rubriques suivantes :

Cartes de modèle:

Essayez-les:

Modèles Granite Instruct

Modèles de Granite troisième génération, légers et libres, qui sont affinés sur la base d'une combinaison de données d'instruction libres et propriétaires sous licence permissive. Le Granite Instruct est un modèle linguistique conçu pour exceller dans les tâches suivantes : résumé, résolution de problèmes, traduction de textes, raisonnement, tâches de codage, appel de fonctions, etc.

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Les modèles de base Granite Instruct 3.1 prennent en charge 116 langages de programmation. Pour plus d'informations, consultez les rubriques suivantes :

Cartes de modèle:

Essayez-les:

Modèles Granite Guardian

Les modèles Granite Guardian sont des modèles Granite Instruct de troisième génération perfectionnés, entraînés sur des données uniques comprenant des annotations humaines et des données synthétiques. Les modèles de base sont utiles pour les cas d'utilisation de la détection des risques qui sont applicables à un large éventail d'applications d'entreprise.

  • granite-guardian-3-2b
  • granite-guardian-3-8b

Pour plus d'informations, consultez les rubriques suivantes :

Cartes de modèle:

Essayez-les:

Modèles de séries temporelles Granite

Les modèles de base de séries temporelles IBM Granite sont des modèles compacts pré-entraînés pour la prévision de séries temporelles multivariées d'IBM Research, également connus sous le nom de Tiny Time Mixers (TTM).

Les modèles de séries temporelles de Granite ont été entraînés sur près d'un milliard d'échantillons de données de séries temporelles provenant de divers domaines, notamment l'électricité, la circulation, la fabrication, etc. Vous pouvez appliquer l'un de ces modèles pré-entraînés à vos données cibles pour obtenir une première prévision sans avoir à entraîner le modèle sur vos données. Lorsqu'ils disposent d'un ensemble d'observations de données historiques chronométrées, les modèles de base des séries temporelles de Granite peuvent appliquer leur compréhension des systèmes dynamiques pour prévoir les valeurs futures des données.

Les modèles de base de séries temporelles suivants sont disponibles pour une utilisation dans watsonx.ai:

  • granite-ttm-512-96-r2: Nécessite au moins 512 points de données par ensemble de données.
  • granite-ttm-1024-96-r2: Nécessite au moins 1 024 points de données par ensemble de données.
  • granite-ttm-1536-96-r2: Nécessite au moins 1 536 points de données par ensemble de données.

Les modèles de séries temporelles Granite fonctionnent mieux avec des points de données à intervalles de minutes ou d'heures et génèrent un ensemble de données de prévision comprenant jusqu'à 96 points de données par série temporelle, par colonne cible.

Essayez-les:

En savoir plus

Modèles Slate Foundation

La famille Slate des modèles de base IBM inclut des modèles d'encodeur uniquement qui se spécialisent dans le traitement du langage naturel et les tâches d'incorporation de texte.

Les modèles d'imbrication d'ardoise suivants sont disponibles dans watsonx.ai aujourd'hui:

slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
Modèles d'intégration à 768 dimensions qui convertissent le texte en intégration de texte.
slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
Modèles d'intégration à 384 dimensions qui convertissent le texte en intégration de texte.

Pour plus d'informations sur ces modèles, voir Modèles de fondations d'encodeurs pris en charge.

Pour plus d'informations sur l'utilisation des modèles Slate pour convertir des phrases et des passages en enchâssements de texte, voir Génération d'enchâssements de texte.

IBM Slate alimentent un ensemble de bibliothèques que vous pouvez utiliser pour les tâches de traitement du langage naturel (NLP) courantes, telles que la classification, l'extraction d'entité, l'analyse des sentiments, etc.

Pour plus d'informations sur l'utilisation des capacités NLP des modèles Slate, voir la bibliothèqueWatson NLP.

Rubrique parent: Modèles de base pris en charge

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus