Rubrique traduite automatiquement Vous pouvez passer à la version anglaiseVoir la clause de protection
Pour obtenir la version la plus précise et la plus à jour de cette documentation, voir la version anglaise (originale). IBM n'est pas responsable des dommages ou pertes résultant de l'utilisation du contenu traduit automatiquement (machine).
IBM modèles de fondations
Dernière mise à jour : 17 avr. 2025
IBM modèles de fondations
Dans IBM watsonx.ai, vous pouvez utiliser des modèles de base IBM construits avec intégrité et conçus pour l'entreprise.
La famille Granite des modèles de base IBM inclut des modèles de décodeur uniquement qui peuvent efficacement prévoir et générer du langage.
Les modèles ont été créés avec des données de confiance présentant les caractéristiques suivantes:
Provenant d'ensembles de données de qualité dans des domaines tels que la finance (SEC Filings), le droit (Free Law), la technologie (Stack Exchange), la science ( arXiv, DeepMind Mathématiques), littérature (Projet Gutenberg ( PG-19)), et plus.
Conforme aux normes de gouvernance et d'approbation des données IBM rigoureuses.
Épuré de la haine, des abus et des grossièretés, de la duplication des données et des URL bloquées, entre autres choses.
Les modèles de base d' watsonx.ai prennent en charge un large éventail de cas d'utilisation, tant pour les langages naturels que pour les langages de programmation. Pour voir les types de tâches que ces modèles peuvent effectuer, consultez et essayez les exemples de messages.
Granite Instruct 3.3 Modèles
Copy link to section
Les modèles de la fondation Granite Instruct appartiennent à la famille de modèles IBM Granite. Les modèles de fondation granite-3-3-2b-instruct et granite-3-3-8b-instruct sont des modèles de fondation Granite 3.3 Instruct. Ces modèles s'appuient sur les itérations précédentes pour améliorer les capacités de raisonnement, de mathématiques, de codage et de suivi des instructions.
Utilisation
Conçu pour exceller dans les tâches à contexte long et à suivi d'instructions telles que le résumé, la résolution de problèmes, la traduction de textes, le raisonnement, les tâches de codage, l'appel de fonctions, etc. Peut être intégré dans des assistants d'intelligence artificielle dans différents domaines.
Tailles
2 milliards de paramètres
8 milliards de paramètres
Niveau de tarification API
2b: Pour plus de détails sur les prix des modèles de déploiement à la demande, voir le tableau 4.
8b: Classe 12. Pour plus de détails sur les prix des modèles fournis, voir le tableau 2.
Disponibilité
granite-3-3-8b-instruct: Fourni par IBM déployé sur du matériel multitenant.
granite-3-3-2b-instruct: Déploiement à la demande pour une utilisation dédiée.
Longueur de la fenêtre de contexte (entrée + sortie)
2b: 131 072
8b: 131 072
Le nombre maximum de nouveaux jetons, c'est-à-dire les jetons générés par les modèles de la fondation par demande, est limité à 8 192.
Langues naturelles prises en charge
Anglais, allemand, espagnol, français, japonais, portugais, arabe, tchèque, italien, coréen, néerlandais et chinois. Toutefois, les utilisateurs peuvent affiner ces modèles Granite pour des langues autres que ces 12 langues.
Langages de programmation pris en charge
Les modèles d' Granite Instruct s sont entraînés avec du code écrit dans 116 langages de programmation.
Informations sur le réglage des instructions
Les modèles d' Granite Instruct s sont des modèles de base d' Granite Instruct s perfectionnés, entraînés sur plus de 12 000 milliards de jetons avec une combinaison de données d'instruction open source sous licence permissive et propriétaires.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Granite 3.2 Instruct est un modèle de base à long contexte qui est affiné pour des capacités de raisonnement améliorées. La capacité de réflexion est configurable, ce qui signifie que vous pouvez contrôler le moment où le raisonnement est appliqué.
Utilisation
Capable d'effectuer des tâches génératives courantes, y compris des tâches liées au code, l'appel de fonctions et les dialogues multilingues. Spécialisé dans le raisonnement et les tâches à long contexte telles que la synthèse de longs documents ou de comptes rendus de réunions et la réponse à des questions avec des réponses qui sont fondées sur le contexte fourni par de longs documents.
Size
8 milliards de paramètres
Niveau de tarification API
Classe 12 Pour les détails des prix des modèles de déploiement à la demande, voir le tableau 4.
Disponibilité
Fourni par IBM déployé sur du matériel multi-locataires.
Construit sur la base d' Granite-3.1-8B-Instruct, le modèle a été entraîné à l'aide d'un mélange d'ensembles de données open source sous licence permissive et de données synthétiques générées en interne et conçues pour des tâches de raisonnement.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Les modèles de la fondation Granite Instruct appartiennent à la famille de modèles IBM Granite. Les modèles de fondation granite-3-2b-instruct et granite-3-8b-instruct sont Granite 3.1 Former les modèles de fondation. Ces modèles s'appuient sur des itérations antérieures pour fournir un meilleur support aux tâches de codage et aux fonctions intrinsèques des agents.
Utilisation
Granite Instruct les modèles de base sont conçus pour exceller dans les tâches d'apprentissage telles que la synthèse, la résolution de problèmes, la traduction de texte, le raisonnement, les tâches de codage, l'appel de fonctions, etc.
Tailles
2 milliards de paramètres
8 milliards de paramètres
Niveau de tarification API
2b: Classe C1
8b: Classe 12
Pour plus de détails sur les prix, voir le tableau 2.
Disponibilité
Fourni par IBM déployé sur du matériel multi-locataires.
Les modèles d' Granite Instruct s sont entraînés avec du code écrit dans 116 langages de programmation.
Informations sur le réglage des instructions
Les modèles d' Granite Instruct s sont des modèles de base d' Granite Instruct s perfectionnés, entraînés sur plus de 12 000 milliards de jetons avec une combinaison de données d'instruction open source sous licence permissive et propriétaires.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Le modèle de fondation d' Granite 8b s est un modèle de base qui appartient à la famille de modèles d'architecture d'entreprise ( IBM, Granite ). Le modèle est entraîné sur 10 000 milliards de jetons provenant de divers domaines, puis entraîné sur 2 000 milliards de jetons de données de haute qualité soigneusement choisis pour améliorer les performances du modèle sur des tâches spécifiques.
Utilisation
Le modèle de base d' Granite 3.0 , que vous pouvez personnaliser, sert de modèle de référence pour créer des modèles spécialisés destinés à des scénarios d'application spécifiques.
Size
8 milliards de paramètres
Niveau de tarification API
Pour plus de détails sur les prix, voir le tableau 4.
Disponibilité
Déploiement à la demande pour un usage dédié.
Limites des jetons
Longueur de la fenêtre de contexte (entrée + sortie) : 4 096
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Le modèle de fondation de l' granite-7b-lab, est fourni par IBM. Le modèle de fondation d' granite-7b-lab s utilise une nouvelle méthode d'alignement de la recherche d' IBM. L'alignement à grande échelle pour l' chatBots,, ou LAB, est une méthode qui permet d'ajouter de nouvelles compétences aux modèles de base existants en générant des données synthétiques pour les compétences, puis en utilisant ces données pour ajuster le modèle de base.
Utilisation
Prend en charge les tâches générales, notamment l'extraction, la synthèse, la classification, etc. Suivez les instructions pour obtenir des conseils d'utilisation. Pour plus d'informations, voir Prompting granite-7b-lab.
Size
7 milliards de paramètres
Niveau de tarification API
Pour plus de détails sur les prix, voir le tableau 4.
Longueur de la fenêtre de contexte (entrée + sortie) : 8 192
Remarque : le nombre maximal de nouveaux jetons, c'est-à-dire les jetons générés par le modèle de fondation par requête, est limité à 4 096.
Langues naturelles prises en charge
Anglais
Informations sur le réglage des instructions
Le modèle de fondation d' granite-7b-lab s est entraîné de manière itérative en utilisant la méthodologie d'alignement à grande échelle pour les chatbots (LAB).
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Le modèle d' granite-8b-japanese s est fourni par IBM. Le modèle de la fondation granite-8b-japanese est une variante instruct initialisée à partir du modèle japonais pré-entraîné Granite Base 8 Billion et est entraîné pour comprendre et générer du texte japonais.
Utilisation
Utile pour les tâches générales en japonais, telles que la classification, l'extraction, les questions-réponses, et pour la traduction entre le japonais et l'anglais.
Size
8 milliards de paramètres
Niveau de tarification API
Classe 1. Pour plus de détails sur les prix, voir le tableau 2.
Disponibilité
Fourni par IBM déployé sur du matériel mutualisé dans le centre de données de Tokyo.
Déploiement à la demande pour une utilisation dédiée, sauf dans le centre de données de Francfort.
Longueur de la fenêtre de contexte (entrée + sortie) : 4 096
Langues naturelles prises en charge
anglais, japonais
Informations sur le réglage des instructions
La famille de modèles d' Granite s est entraînée sur des ensembles de données pertinents pour l'entreprise provenant de cinq domaines : Internet, universitaire, code, juridique et financier. Le modèle d' granite-8b-japanese e a été pré-entraîné sur 1 billion de jetons de texte anglais et 0.5 s de milliards de jetons de texte japonais.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Le modèle d' granite-13b-chat-v2 s est fourni par IBM. Ce modèle est optimisé pour les cas d'utilisation de dialogue et fonctionne bien avec les applications d'agent virtuel et de chat.
Utilisation : génère une sortie de dialogue comme un chatbot. Utilise un format d'invite spécifique au modèle. Inclut dans sa sortie un mot-clé qui peut être utilisé comme séquence d'arrêt pour produire des réponses succinctes. Suivez les instructions pour obtenir des conseils d'utilisation. Pour plus d'informations, voir Prompting granite-13b-chat-v2.
Longueur de la fenêtre de contexte (entrée + sortie) : 8 192
Langues naturelles prises en charge
Anglais
Informations sur le réglage des instructions
La famille de modèles d' Granite s est entraînée sur des ensembles de données pertinents pour l'entreprise provenant de cinq domaines : Internet, universitaire, code, juridique et financier. Les données utilisées pour entraîner les modèles sont d'abord soumises à des examens de gouvernance des données d' IBM, et le texte signalé comme haineux, injurieux ou blasphématoire par le filtre HAP développé par l' IBM, est filtré. IBM partage des informations sur les méthodes de formation et les ensembles de données utilisés.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Le modèle d' granite-13b-instruct-v2 s est fourni par IBM. Ce modèle a été entraîné avec des données financières de haute qualité et est l'un des plus performants pour les tâches financières. Les tâches financières évaluées comprennent : la fourniture de scores de sentiment pour les transcriptions d'appels sur les actions et les bénéfices, la classification des titres d'actualité, l'extraction des évaluations du risque de crédit, la synthèse de textes financiers longs et la réponse à des questions financières ou liées à l'assurance.
Remarque :Ce modèle de fondation peut être ajusté à l'aide de l' Tuning Studio.
Utilisation
Prend en charge les tâches d'extraction, de résumé et de classification. Génère des résultats utiles pour les tâches liées aux finances. Utilise un format d'invite spécifique au modèle. Accepte les caractères spéciaux, qui peuvent être utilisés pour générer une sortie structurée.
Longueur de la fenêtre de contexte (entrée + sortie) : 8 192
Remarque : le nombre maximal de nouveaux jetons, c'est-à-dire les jetons générés par le modèle de fondation par requête, est limité à 4 096.
Langues naturelles prises en charge
Anglais
Informations sur le réglage des instructions
La famille de modèles d' Granite s est entraînée sur des ensembles de données pertinents pour l'entreprise provenant de cinq domaines : Internet, universitaire, code, juridique et financier. Les données utilisées pour entraîner les modèles sont d'abord soumises à des examens de gouvernance des données d' IBM, et le texte signalé comme haineux, injurieux ou blasphématoire par le filtre HAP développé par l' IBM, est filtré. IBM partage des informations sur les méthodes de formation et les ensembles de données utilisés.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Un modèle de base de la famille d' IBM s Granite. Le modèle de la fondation granite-20b-multilingual est basé sur le modèle de base Granite Base 20 milliards et est entraîné à comprendre et à générer du texte en anglais, allemand, espagnol, français et portugais.
Utilisation
Réponse à des questions, résumé, génération, extraction et classification en anglais, allemand, espagnol, français et portugais dans un domaine fermé.
Remarque :Ce modèle de fondation prend en charge les compétences apportées par la communauté open source d' InstructLab.
Size
20 milliards de paramètres
Niveau de tarification API
Pour plus de détails sur les prix, voir le tableau 4.
Disponibilité
Déploiement à la demande pour une utilisation dédiée, sauf dans le centre de données de Francfort.
Longueur de la fenêtre de contexte (entrée + sortie) : 8 192
Langues naturelles prises en charge
Anglais, allemand, espagnol, français et portugais
Informations sur le réglage des instructions
La famille de modèles d' Granite s est entraînée sur des ensembles de données pertinents pour l'entreprise provenant de cinq domaines : Internet, universitaire, code, juridique et financier. Les données utilisées pour entraîner les modèles sont d'abord soumises à des examens de gouvernance des données d' IBM, et le texte signalé comme haineux, injurieux ou blasphématoire par le filtre HAP développé par l' IBM, est filtré. IBM partage des informations sur les méthodes de formation et les ensembles de données utilisés.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Modèles de base de la famille d' IBM s Granite. Les modèles de la fondation Granite Code sont des modèles qui suivent les instructions et sont affinés à l'aide d'une combinaison de commits d' Git, associés à des instructions humaines et à des ensembles de données d'instructions de code généré synthétiquement en open source.
Le modèle de fondation granite-8b-code-instruct v2.0.0 peut traiter des invites plus longues avec une fenêtre de contexte plus grande.
Remarque :Lorsque vous déduisez ce modèle de l' Prompt Lab, désactivez les garde-fous de l'IA.
Utilisation
Les modèles de base d' Granite Code s suivants sont conçus pour répondre aux instructions relatives au codage et peuvent être utilisés pour créer des assistants de codage :
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
Les modèles de base d' Granite Code s suivants sont des versions adaptées aux instructions du modèle de base d' granite-20b-code-base, conçues pour les tâches de génération de texte en SQL.
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Tailles
3 milliards de paramètres
8 milliards de paramètres
20 milliards de paramètres
34 milliards de paramètres
Niveau de tarification API
Classe 1.
Pour plus de détails sur les prix des modèles de code fournis, voir le Tableau 2.
Pour plus de détails sur les tarifs des modèles de déploiement à la demande, voir le Tableau 4.
Disponibilité
Tous les modèles de code, à l'exception des modèles de conversion de texte en SQL : Fourni par IBM déployé sur du matériel mutualisé.
Tous les modèles de code, y compris les modèles de base text-to-SQL : Déploiement à la demande pour un usage dédié.
Longueur de la fenêtre de contexte (entrée + sortie)
granite-3b-code-instruct : 128 000
Lorsque le modèle s'exécute uniquement dans l'environnement mutualisé, une limite maximale de nouveaux jetons est appliquée, ce qui signifie que les jetons générés par le modèle de base par requête sont limités à 8 192.
granite-8b-code-instruct : 128 000
Lorsque le modèle s'exécute uniquement dans l'environnement mutualisé, une limite maximale de nouveaux jetons est appliquée, ce qui signifie que les jetons générés par le modèle de base par requête sont limités à 8 192.
granite-20b-code-instruct : 8 192
Le nombre maximum de nouveaux jetons, c'est-à-dire les jetons générés par le modèle de fondation par requête, est limité à 4 096.
granite-20b-code-base-schema-linking : 8 192
granite-20b-code-base-sql-gen : 8 192
granite-34b-code-instruct : 8 192
Langues naturelles prises en charge
Anglais
Langages de programmation pris en charge
Les modèles de la fondation Granite Code prennent en charge 116 langages de programmation, dont l' Python, le Javascript, le Java, le C++, le Go et le Rust. Pour la liste complète, voir IBM modèles de fondation.
Informations sur le réglage des instructions
Ces modèles ont été perfectionnés à partir de modèles de bas Granite Code s sur une combinaison de données d'instruction sous licence permissive afin d'améliorer les capacités de suivi des instructions, y compris le raisonnement logique et les compétences en résolution de problèmes.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Les modèles de la fondation Granite Guardian appartiennent à la famille de modèles IBM Granite. Les modèles de la fondation granite-guardian-3-2b et granite-guardian-3-8b sont des modèles d' Granite Instruct s perfectionnés conçus pour détecter les risques dans les invites et les réponses. Les modèles de base aident à la détection des risques dans de nombreux domaines clés de l'Atlas des risques de l'IA.
La version d' 3.1 s de génération des modèles est entraînée sur une combinaison de données annotées par des humains et de données synthétiques supplémentaires afin d'améliorer les performances pour les risques liés à l'hallucination et au jailbreak.
Utilisation
Granite Guardian les modèles de base sont conçus pour détecter les risques liés aux dommages dans le texte ou la réponse du modèle (comme garde-fous) et peuvent être utilisés dans des cas d'utilisation de génération augmentée par récupération pour évaluer la pertinence du contexte (si le contexte récupéré est pertinent pour la requête), le fondement (si la réponse est exacte et fidèle au contexte fourni) et la pertinence de la réponse (si la réponse répond directement à la requête de l'utilisateur).
Tailles
2 milliards de paramètres
8 milliards de paramètres
Niveau de tarification API
2b: Classe C1
8b: Classe 12
Pour plus de détails sur les prix, voir le tableau 2.
Disponibilité
Fourni par IBM déployé sur du matériel multi-locataires.
Longueur de la fenêtre de contexte (entrée + sortie)
2b: 131 072
8b: 131 072
Remarque : le nombre maximal de nouveaux jetons, c'est-à-dire les jetons générés par le modèle de fondation par requête, est limité à 8 192.
Langues naturelles prises en charge
Anglais
Informations sur le réglage des instructions
Les modèles d' Granite Guardian s sont des modèles d' Granite Instruct s perfectionnés, entraînés sur une combinaison de données annotées par des humains et de données synthétiques.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Granite time series les modèles de base font partie de la famille de modèles d' IBM Granite. Ces modèles sont des modèles compacts et pré-entraînés pour la prévision de séries chronologiques multivariées d' IBM Research. Les versions suivantes sont disponibles pour la prévision des données watsonx.ai:
granite-ttm-512-96-r2
granite-ttm-1024-96-r2
granite-ttm-1536-96-r2
Utilisation
Vous pouvez appliquer l'un de ces modèles pré-entraînés à vos données cibles pour obtenir une première prévision sans avoir à entraîner le modèle sur vos données. Lorsqu'on leur fournit un ensemble d'observations de données historiques et chronométrées, les modèles de la fondation de l' Granite time series , appliquent leur compréhension des systèmes dynamiques pour prévoir les valeurs futures des données. Ces modèles fonctionnent mieux avec des points de données à des intervalles d'une minute ou d'une heure et génèrent un ensemble de données prévisionnelles avec jusqu'à 96 points de données par canal cible.
Points de données minimum requis par canal dans la requête API :
granite-ttm-512-96-r2: 512
granite-ttm-1024-96-r2: 1 024
granite-ttm-1536-96-r2: 1 536
Langues naturelles prises en charge
Anglais
Informations sur le réglage des instructions
Les modèles d' Granite time series s ont été entraînés sur près d'un milliard d'échantillons de données de séries chronologiques provenant de divers domaines, notamment l'électricité, le trafic, la fabrication, etc.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Granite Vision 3.2 2b est un modèle de base image-texte conçu pour les cas d'utilisation en entreprise. Ce modèle d' Granite s multimodales est capable d'ingérer des images et du texte pour des tâches telles que la compréhension de tableaux, de diagrammes, de graphiques, etc.
Utilisation
Le modèle de la fondation « granite-vision-3-2-2b » est conçu pour la compréhension visuelle des documents, permettant l'extraction automatisée de contenu à partir de tableaux, graphiques, infographies, tracés, diagrammes, etc.
Remarque : Il est recommandé d'utiliser le modèle d' granite-vision-3-2-2b s uniquement avec des fichiers image pour le traitement visuel et la compréhension des cas d'utilisation.
Size
2 milliards de paramètres
Niveau de tarification API
Classe C1
Disponibilité
Fourni par IBM déployé sur du matériel multi-locataires.
Limites des jetons
Longueur de la fenêtre de contexte (entrée + sortie) : 131 072
Remarque : le nombre maximal de nouveaux jetons, c'est-à-dire les jetons générés par le modèle de fondation par requête, est limité à 16 384.
Le modèle de la fondation granite-vision-3-2-2b a été entraîné sur un ensemble de données sélectionnées et suivant des instructions, comprenant divers ensembles de données publiques et des ensembles de données synthétiques conçus pour prendre en charge un large éventail de tâches de compréhension de documents et d'images en général. Il a été entraîné en affinant le modèle de base de l' granite-3-2b-instruct, avec des modalités d'image et de texte.
Architecture du modèle
décodeur
Licence
Voir les descriptions des deux services qui composent watsonx.ai:
IBM -les modèles de fond de teint développés sont considérés comme faisant partie du Service d' IBM Cloud. Lorsque vous utilisez un modèle de fondation développé par l' IBM, qui est fourni sur watsonx.ai, les protections contractuelles liées à l'indemnisation d' IBM s'appliquent. Pour plus d'informations, consultez le Contrat de relation client d' IBM, ainsi que les descriptions de services.
Tous les modèles de fondation obsolètes sont mis en évidence par une icône d'avertissement d'obsolescence . Pour plus d'informations sur la dépréciation, y compris les détails sur le retrait des modèles Foundation, consultez la page Cycle de vie des modèles Foundation.
Ressources liées au modèle Granite
Copy link to section
Pour en savoir plus sur les modèles de base IBM Granite , lisez les ressources suivantes: