Astuce: Parfois, vous devez effectuer une action spécifique après une mise à jour. Pour voir toutes les actions requises, recherchez dans cette page "Action requise".
Semaine se terminant le 11 avril 2025
Copy link to section
Travaillez avec les derniers modèles multimodaux Llama 4 de Meta en watsonx.ai
Copy link to section
7 avril 2025
Vous pouvez désormais utiliser les derniers modèles de fondation multilingues et multimodaux de Meta Llama 4 dans IBM watsonx.ai. Les modèles de fondation les plus récents de Meta utilisent une architecture de mélange d'experts ( MoE ) qui est plus efficace sur le plan du calcul et utilise moins de ressources pour la formation et l'inférence des modèles. Les modèles sont nativement multimodaux et sont spécialisés dans la compréhension de textes et d'images dans plusieurs langues.
Vous pouvez maintenant déduire les modèles suivants de la série Llama 4 :
Ajouter des réponses correctes multiples aux données d'évaluation dans un site AutoAI pour l'expérience RAG
Copy link to section
4 avril 2025
Vous pouvez désormais ajouter plusieurs réponses correctes pour chaque question dans une ressource de données d'évaluation. Pour plus d'informations, voir Création d'une expérience AutoAI RAG.
Examiner l'importance de la définition dans une expérience AutoAI for RAG
Copy link to section
4 avril 2025
Après avoir réalisé une expérience AutoAI RAG, vous pouvez maintenant examiner l'importance de chaque paramètre pour la création et le classement des motifs optimisés afin de mieux comprendre les évaluations des motifs. Pour plus d'informations, voir Création d'une expérience AutoAI RAG.
Le modèle de base codellama-34b-instruct-hf peut être déployé à la demande
Copy link to section
3 avril 2025
Vous pouvez désormais utiliser codellama-34b-instruct-hf comme modèle de base pour le déploiement à la demande. Pour plus d'informations, voir Modèles de base pris en charge.
Examiner les critères de référence en matière de codage pour comparer les modèles de base
Copy link to section
3 avril 2025
Examinez les critères de référence des modèles de fondation liés aux tâches de codage telles que la génération, la correction et l'explication du code pour connaître les capacités des différents modèles de fondation de code avant de les essayer. Comparez les performances des différents modèles de fondation pour les tâches les plus importantes dans votre cas d'utilisation.
Personnaliser les paramètres d'extraction pour une expérience AutoAI for RAG
Copy link to section
31 mars 2025
Vous pouvez maintenant contrôler les paramètres de récupération des données de l'index vectorisé. Vous pouvez choisir entre la méthode de récupération par fenêtre et la méthode de récupération simple, sélectionner le nombre de morceaux et définir la taille de la fenêtre pour la méthode de récupération par fenêtre. Pour plus d'informations, voir la rubrique Personnalisation des paramètres de AutoAI RAG.
Semaine se terminant le 21 mars 2025
Copy link to section
Travailler avec de nouveaux modèles de déploiement à la demande spécialisés pour les langues européennes dans les domaines suivants watsonx.ai
Copy link to section
21 mars 2025
Vous pouvez maintenant déduire les modèles de fondation suivants déployés à la demande à partir de IBM watsonx.ai qui sont spécialisés dans 24 langues européennes et 11 langues internationales :
Faire correspondre la langue d'entrée aux expériences AutoAI
Copy link to section
20 mars 2025
AutoAI détecte désormais automatiquement la langue utilisée dans les invites et demande aux modèles de répondre dans la même langue. Les modèles qui ne prennent pas en charge la langue d'entrée sont moins prioritaires dans la recherche du modèle RAG. Vous pouvez désactiver ce paramètre d'expérience si vous souhaitez que AutoAI prenne en compte tous les modèles disponibles et génère des réponses en anglais uniquement. Pour plus d'informations, voir la rubrique Personnalisation des paramètres de AutoAI RAG.
Semaine se terminant le 7 mars 2025
Copy link to section
Inference déploie des modèles de base à la demande et personnalisés depuis la région de Francfort
Copy link to section
6 mars 2025
Vous disposez désormais de davantage de moyens pour travailler avec les modèles de base des projets hébergés dans le centre de données de Francfort.
Télécharger et déployer des modèles de base personnalisés.
Choisissez parmi un ensemble de modèles de base populaires à déployer sur du matériel dédié à l'usage exclusif de votre organisation.
Pour en savoir plus, consultez les ressources suivantes :
Des extraits de code sont désormais disponibles dans les expériences d' Decision Optimization
Copy link to section
5 mars 2025
Lors de la construction de modèles d' Decision Optimization s dans l'interface utilisateur de l'expérience, vous pouvez désormais utiliser des extraits de code pour les modèles d' Python s DOcplex ou OPL. L'utilisation d'extraits de code peut accélérer la création de modèles, car vous pouvez ajouter et modifier du code sans avoir à saisir toutes les lignes de code depuis le début.
Déployer l' AutoAI, en tant que service d'IA, pour les expériences RAG Chroma
Copy link to section
27 février 2025
AutoAI pour les modèles RAG que vous créez à l'aide de la base de données Chroma en mémoire sont désormais déployables en tant que service d'IA. Utilisez cette méthode de déploiement pour enregistrer un modèle RAG en tant que ressource déployable, le promouvoir vers un espace et créer le déploiement en une seule opération. Vous pouvez ensuite tester le modèle RAG et accéder au point final d'inférence.
Prise en charge d' IBM Runtime 23.1 dans watsonx.ai Runtime et watsonx.ai Studio seront supprimés le 17 avril 2025. Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à IBM Runtime 24.1
Inférence l' Granite 3.2 Modèles Instruct et Vision dans la région de Dallas
Copy link to section
26 février 2025
Le modèle de fondation d' granite-3-2-8b-instruct s est un modèle de raisonnement doté de puissantes capacités telles que la citation de ses sources et la détection des hallucinations. Vous pouvez contrôler si le modèle partage son processus de réflexion dans la sortie afin d'équilibrer performance et transparence. Ce modèle est la version généralement disponible du modèle de base de l'aperçu technique d' granite-3-2-8b-instruct-preview-rc.
Le modèle de fondation d' granite-vision-3-2-2b s est le premier modèle d' Granite s multimodales conçu pour des cas d'utilisation en entreprise. Le modèle de base image-texte est capable d'ingérer des images et du texte pour des tâches telles que la compréhension de tableaux, de diagrammes, de graphiques, etc.
La bibliothèque project-lib est obsolète. À partir de Runtime 25.1, la bibliothèque ne sera plus incluse dans aucune nouvelle version de Runtime. Bien que les versions d'exécution existantes via 24.1 continueront d'inclure la bibliothèque obsolète, envisagez de réécrire votre code pour utiliser la bibliothèque ibm-watson-studio-lib.
Pour savoir comment migrer votre code, consultez :
Déployer des modèles de fondations personnalisés avec des spécifications de quincaillerie extra-petites
Copy link to section
20 février 2025
Pour économiser les ressources, vous pouvez déployer des modèles de base personnalisés avec des spécifications matérielles très réduites. Utilisez la spécification matérielle gpu_xs pour le paramètre hardware_request lorsque vous déployez votre modèle de base personnalisé avec l'API REST. Pour plus d'informations, voir Création d'un déploiement pour un modèle de base personnalisé.
Le modèle de base de paramètres de l' Granite Code , d'une valeur de 3 milliards, est disponible pour être déployé à la demande
Copy link to section
20 février 2025
Le modèle de base d' granite-3b-code-instruct, disponible sur IBM , est disponible en tant que modèle de base déployable à la demande. Pour plus d'informations, voir Modèles de fondations pris en charge.
Intégrer un déploiement hébergé existant d' IBM OpenPages avec watsonx.governance
Copy link to section
13 février 2024
En plus de l'intégration optionnelle d' watsonx.governance avec la console de gouvernance déployée avec OpenPages as a Service, vous pouvez désormais intégrer watsonx.governance avec un déploiement hébergé d' IBM OpenPages,, que ce soit sur un cloud géré ou un déploiement traditionnel sur site. L'intégration avec une version hébergée d' OpenPages nécessite le plan Essentials pour watsonx.governance.
Pour plus d'informations sur la synchronisation des données de cas d'utilisation avec l' watsonx.governance, voir Gestion des cas d'utilisation de l'IA
Déployer des modèles convertis de scikit-learn et XGBoost au format ONNX
Copy link to section
13 février 2024
Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis du format scikit-learn et XGBoost au format ONNX et utiliser le point de terminaison pour l'inférence. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.
Travailler avec de nouveaux modèles d' Granite Code s de déploiement à la demande watsonx.ai
Copy link to section
13 février 2025
Utilisez les modèles de base d' Granite Code s suivants de IBM pour les tâches de codage telles que l'écriture, la conversion et la correction de code de programmation :
Mise à jour des vidéos de formation à l' SPSS Modeler
Copy link to section
11 février 2025
Regardez et apprenez à utiliser SPSS Modeler en visionnant les vidéos mises à jour dans les tutoriels d' SPSS Modeler.
Semaine se terminant le 7 février 2025
Copy link to section
Découvrez en avant-première le dernier modèle de la fondation d' IBM Granite , dans la région de Dallas
Copy link to section
7 février 2025
Essayez dès maintenant un aperçu technique du modèle de fondation de l' granite-3-2-8b-instruct-preview-rc, disponible dans la région de Dallas. Le modèle de prévisualisation 3.2 ( Granite ) ajoute de nouvelles capacités de raisonnement d'une manière novatrice. La fonction de raisonnement est configurable, ce qui signifie que vous pouvez activer le raisonnement uniquement pour les tâches pour lesquelles des informations explicatives sont utiles dans le résultat.
La prévision des données à l'aide des modèles de base des séries temporelles de IBM Granite est maintenant généralement disponible
Copy link to section
6 février 2025
Utilisez la méthode de prévision des séries chronologiques de l'API d' watsonx.ai, pour transmettre des observations de données historiques à un modèle de base de séries chronologiques d' IBM Granite , capable de prévoir des valeurs futures avec une inférence à coup sûr.
IBM watsonx.ai est disponible dans la région de Toronto
Copy link to section
6 février 2025
Watsonx.ai est désormais disponible dans le centre de données de Toronto et cette ville peut être sélectionnée comme région préférée lors de l'inscription. Utilisez un sous-ensemble des modèles de base fournis pour l'inférence et les modèles d'intégration pour générer des intégrations de texte et reclasser des passages.
Inference déploie des modèles de fondation à la demande et sur mesure dans la région de Sydney
Copy link to section
6 février 2025
Vous disposez désormais d'un plus grand nombre de moyens pour travailler avec des modèles de fondation issus de projets hébergés dans la région de Sydney.
Télécharger et déployer des modèles de base personnalisés.
Choisissez parmi un ensemble de modèles de base populaires à déployer sur du matériel dédié à l'usage exclusif de votre organisation.
Pour en savoir plus, consultez les ressources suivantes :
Mistral Large 2 un modèle de base est disponible pour être déployé à la demande
Copy link to section
6 février 2025
Le modèle de base d' mistral-large-instruct-2407, disponible sur Mistral AI , est disponible en tant que modèle de base déployable à la demande. Un tarif horaire supplémentaire est appliqué pour l'accès à ce modèle. Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge.
Déployer et inférer de nouveaux modèles distillés DeepSeek-R1 à la demande en watsonx.ai
Copy link to section
3 février 2025
Vous pouvez désormais déployer à la demande des variantes distillées des modèles DeepSeek-R1 dans watsonx.ai sur IBM Cloud. Les variantes du modèle DeepSeek-R1 distillé sont basées sur des modèles Llama qui sont affinés en utilisant les données d'entraînement générées par le modèle DeepSeek-R1.
Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.
L'inventaire par défaut remplace le catalogue des actifs de la plate-forme dans les watsonx.governance
Copy link to section
3 février 2025
Un inventaire par défaut est désormais disponible pour stocker les artefacts watsonx.governance, y compris les cas d'utilisation de l'IA, les modèles tiers, les pièces jointes et les rapports. L'inventaire par défaut remplace toute dépendance antérieure à l'égard du catalogue d'accès à la plate-forme ou de IBM Knowledge Catalog pour le stockage des artefacts de gouvernance.
Evaluation Studio disponible au centre de données de Sydney
Copy link to section
3 février 2025
Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats afin d'identifier les meilleures solutions.
Créer et déployer des agents d'intelligence artificielle dans le nouveau laboratoire d'agents (bêta)
Copy link to section
30 janvier 2025
Vous pouvez désormais créer et déployer des agents d'intelligence artificielle pour rendre vos applications plus flexibles et dynamiques en utilisant l'interface utilisateur Agent Lab. Vous pouvez configurer l'agent pour qu'il prenne des décisions et exécute des tâches à l'aide d'une structure d'agent, d'un modèle de base et d'outils externes que vous spécifiez dans les paramètres de l'agent.
Lorsque vous utilisez l'Agent Lab pour créer vos applications d'IA agentique sur watsonx.ai, vos applications sont déployées en tant que services d'IA. Vous pouvez choisir de déployer votre solution directement à partir de l'interface utilisateur ou d'exporter votre solution dans un carnet de notes modifiable à l'adresse Python qui déploie le service d'IA.
Un nouveau modèle de base d' Mistral Large 2 s puissant est disponible pour être déployé à la demande
Copy link to section
30 janvier 2025
Déployer le modèle de base d' mistral-large-instruct-2411, disponible sur Mistral AI , sur du matériel dédié à l'usage exclusif de votre organisation. Ce dernier modèle de base améliore le modèle de base d' Mistral-Large-Instruct-2407, en ajoutant une meilleure gestion des contextes d'invites longs, le suivi des instructions d'invite du système et l'appel de fonctions.
Contrairement aux autres modèles de déploiement de la fondation à la demande, l'accès au modèle hébergé de la fondation de l' mistral-large-instruct-2411 s est soumis à des frais horaires supplémentaires. Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge.
Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.
Inférence le modèle de fondation Mistral Small 3 dans la région de Francfort
Copy link to section
30 janvier 2025
Le modèle de fondation d' mistral-small-24b-instruct-2501, disponible sur Mistral AI , est hébergé sur du matériel mutualisé et prêt à l'emploi. Le modèle de base Mistral Small 3 est un excellent choix pour les flux de travail de chat grâce à ces caractéristiques :
Capacités agentiques avec appel de fonctions natives et génération de sorties JSON.
Des capacités de conversation et de raisonnement à la pointe de la technologie.
Il respecte et soutient fermement les instructions du système.
Prend en charge des dizaines de langues, dont l'anglais, le français, l'allemand, l'espagnol, l'italien, le chinois, le japonais, le coréen, le portugais, le néerlandais et le polonais.
Déploiement et inférence DeepSeek-R1 modèles distillés avec watsonx.ai
Copy link to section
29 janvier 2025
Vous pouvez désormais utiliser les variantes distillées de DeepSeek-R1, un puissant modèle de raisonnement open-source, pour déployer et inférer en toute sécurité des modèles DeepSeek-R1 avec watsonx.ai sur IBM Cloud, ce qui permet aux développeurs d'accélérer le développement de solutions basées sur l'IA. DeepSeek-R1 peut être déployé en tant que modèle de base personnalisé avec watsonx.ai.
Prix inférieur pour l'inférence de l' Llama 3.3 70b Instruct fondation modèle
Copy link to section
29 janvier 2025
Le prix de l'inférence du modèle de fondation d' llama-3-3-70b-instruct, à partir d' Meta , est passé de 1 000 $ à 1 000 $ ( 0.0018 s à 0.00071 s de dollars) par 1 000 jetons. Le changement de prix s'applique à toutes les régions où le modèle Foundation est disponible.
Disponibilité générale de AutoAI pour les expériences RAG
Copy link to section
23 janvier 2025
AutoAI pour RAG est désormais entièrement pris en charge pour automatiser la recherche d'un modèle de génération optimisé pour vos applications. Cette mise à jour comprend les nouvelles fonctionnalités suivantes :
Explorez AutoAI pour RAG à l'aide d'échantillons de données et d'une visite guidée pour apprendre le processus.
Si vous créez une expérience à l'aide d'un magasin de vecteurs Milvus, vous pouvez désormais déployer un modèle RAG en tant que service d'IA afin d'accéder au point final à partir d'un espace de déploiement pour l'inférence.
L'exécution des expériences RAG sur le site AutoAI entraîne les frais de facturation suivants :
Les unités de capacité horaire (CUH) sont facturées pour le temps d'exécution des expériences.
Unité de ressources (UR) facturée pour tous les appels à l'intégration et à l'inférence de modèles d'IA générative effectués au cours de l'expérience. Une unité de ressources (UR) équivaut à 1 000 jetons.
Vous pouvez désormais utiliser l'interface de ligne de commande Cloud Pak for Data (CPDCTL) pour déployer vos solutions d'IA générative avec des services d'IA de manière programmatique. CPDCTL est un outil de ligne de commande permettant de déployer et de gérer des services d'IA sur la plateforme IBM Cloud Pak for Data (CPD). Il offre un moyen simple et rationalisé de déployer des services d'IA, en éliminant la nécessité d'une configuration manuelle et en réduisant le risque d'erreurs.
Lorsque vous utilisez AutoAI pour créer une solution d'IA générative qui utilise un modèle RAG, vous pouvez désormais déployer votre solution directement à partir du constructeur d'expériences AutoAI en tant que service d'IA. Pour plus d'informations, voir Déployer des services d'IA avec des outils.
Déployer des modèles convertis de CatBoost et LightGBM au format ONNX
Copy link to section
23 janvier 2024
Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative qui sont convertis de CatBoost et LightGBM au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.
Déployer à la demande des modèles de fondation populaires en watsonx.ai
Copy link to section
22 janvier 2025
Vous pouvez désormais déployer les modèles de fondation suivants sur du matériel dédié dans la région de Dallas, à l'usage exclusif de votre organisation :
Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.
Plusieurs modèles de fondations pour lamas sont désormais disponibles dans d'autres régions
Copy link to section
22 janvier 2025
Les modèles de fondations suivants de Meta sont disponibles dans d'autres régions :
llama-3-3-70b-instruct: Désormais disponible au départ de Tokyo et de Londres, en plus de Dallas et de Francfort.
llama-3-2-11b-vision-instruct: Désormais disponible au départ de Francfort et de Londres, ainsi que de Dallas, Tokyo et Sydney.
Si vous souhaitez continuer à travailler avec ces modèles de base, vous pouvez les déployer à la demande pour votre usage exclusif. Pour plus d'informations, voir Déployer des modèles de fondation à la demande.
Semaine se terminant le 17 janvier 2025
Copy link to section
Utiliser les nouveaux modèles d'intégration IBM Granite dans watsonx.ai
Copy link to section
16 janvier 2025
Vous pouvez maintenant utiliser les modèles d'intégration Granite suivants fournis par IBM dans watsonx.ai:
granite-embedding-107m-multilingual
granite-embedding-278m-multilingual
Utilisez les nouveaux modèles d'intégration pour générer des intégrations de texte de haute qualité pour une entrée sous la forme d'une requête, d'un passage ou d'un document dans plusieurs langues. Pour plus de détails, voir Modèles d'encodeurs pris en charge et Texte de vectorisation.
Une modification a été apportée aux modèles Granite Guardian
Copy link to section
16 janvier 2025
Vous pouvez désormais inférer la dernière version des modèles de fondation Granite Guardian d' IBM sur watsonx.ai dans les centres de données de Dallas et de Sydney.
Les dernières versions 3.1 des modèles prennent désormais en charge une longueur de contexte de 128 000 jetons et ont été entraînées avec des données synthétiques supplémentaires afin d'améliorer les performances pour les risques liés à l'hallucination et au jailbreak. Pour plus de détails, voir Modèles de fondation pris en charge .
Les modèles de fondation granite-20b-multilingual et codellama-34b-instruct-hf sont obsolètes
Copy link to section
15 janvier 2025
Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.
Fin de la bêta pour les expériences AutoAI RAG le 23 janvier 2025
Copy link to section
13 janvier 2025
Après la conclusion de la phase bêta, l'exécution d'expériences AutoAI RAG entraînera des frais de facturation comme suit :
Les unités de capacité horaire (CUH) sont facturées pour le temps d'exécution des expériences.
Unité de ressources (UR) chargée d'intégrer le document de base et d'inférer les modèles génératifs d'IA. Une unité de ressource (UR) équivaut à 1 000 jetons.
Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.
Déployer des flux SPSS Modeler multi-sources
Copy link to section
20 décembre 2024
Vous pouvez désormais créer des déploiements pour les flux de SPSS Modeler qui utilisent plusieurs flux d'entrée pour fournir des données au modèle. Pour plus d'informations, voir Déployer des flux SPSS Modeler multi-sources.
Semaine se terminant le 13 décembre 2024
Copy link to section
Les modifications apportées aux modèles de fondation Granite 3 Instruct sont introduites
Copy link to section
13 décembre 2024
Des modifications ont été apportées aux modèles IBM suivants :
granite-3-2b-instruct
granite-3-8b-instruct
Avec les dernières modifications, les modèles de fondation Granite 3.1 Instruct offrent désormais un meilleur support pour les tâches de codage et les fonctions intrinsèques des agents. La longueur de la fenêtre contextuelle prise en charge pour ces modèles de fondation est passée de 4 096 tokens à 131 072 tokens. Bien que les identifiants des modèles Granite Instruct restent les mêmes, les poids des modèles sont mis à jour.
Solution sans code pour la recherche d'un motif RAG avec AutoAI (beta)
Copy link to section
12 décembre 2024
Vous pouvez désormais automatiser la recherche du modèle RAG optimal pour votre cas d'utilisation à partir de l'interface utilisateur de l AutoAI. Chargez la collection de documents et les questions du test, choisissez une base de données vectorielle et lancez l'expérience pour une approche rapide de la recherche d'un motif RAG. Vous pouvez également revoir et modifier les paramètres de configuration de l'expérience. Comparez les modèles générés par l'expérience et enregistrez le meilleur modèle en tant que carnet généré automatiquement ou en tant que carnet enregistré dans votre projet.
Vous pouvez déployer vos services d'IA en utilisant des modèles prédéfinis. Les modèles de services d'IA constituent un moyen normalisé de déployer des services d'IA en offrant une structure et une configuration prédéfinies pour le déploiement de modèles d'IA. Ces modèles sont des unités de code préconstruites et déployables qui encapsulent la logique de programmation des applications d'IA générative.
Les modèles de services d'IA automatisent des tâches telles que la création de déploiements, la génération de métadonnées et la construction d'extensions, ce qui permet aux développeurs de se concentrer sur la logique de base de leur application. Ils offrent un moyen flexible de déployer des services d'IA, en prenant en charge des entrées multiples et la personnalisation.
Le dernier modèle de la fondation Llama est disponible pour être déployé à la demande
Copy link to section
12 décembre 2024
Vous pouvez déployer l' Meta Llama 3.3 70B Installez le modèle de base multilingue sur un matériel dédié à l'usage exclusif de votre organisation. Le tout nouveau modèle de base d' Meta , dont les capacités sont similaires à celles du modèle plus grand d' llama-3-405b-instruct, est plus petit et est particulièrement performant en matière de codage, de raisonnement pas à pas et d'appel d'outils. Vous pouvez déployer le modèle complet ( llama-3-3-70b-instruct-hf ) ou une version quantifiée ( llama-3-3-70b-instruct ) qui nécessite moins de ressources pour l'hébergement.
Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.
Déployer des modèles de fondation à la demande avec la bibliothèque client Python
Copy link to section
12 décembre 2024
Vous pouvez désormais déployer vos modèles de fondation à la demande en utilisant la bibliothèque client Python watsonx.ai En utilisant cette approche, vous pouvez accéder aux capacités de ces puissants modèles de fondations sans avoir besoin de ressources informatiques importantes. Les modèles de fondation que vous déployez à la demande sont hébergés dans un espace de déploiement dédié où vous pouvez utiliser ces modèles pour l'inférence.
Obtenez une expérience pratique avec SPSS Modeler en essayant les 15 tutoriels SPSS Modeler mis à jour.
Comparaison des ressources d'IA avec Evaluation Studio
Copy link to section
12 décembre 2024
Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats afin d'identifier les meilleures solutions.
Améliorations de la solution watsonx.governance Model Risk Governance
Cette version comprend les améliorations suivantes :
Le nouveau modèle de questionnaire d'identification des risques liés à l'intégration d'un modèle d'IA est utilisé au cours du processus d'intégration d'un modèle pour aider à identifier les risques associés à un modèle. Ce modèle de questionnaire est utilisé dans le processus d'intégration du modèle de la fondation.
Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation de l'IA est utilisé pour aider à identifier les risques associés aux cas d'utilisation de l'IA. Ce modèle de questionnaire est utilisé dans le processus de révision des cas d'utilisation. Ce nouveau questionnaire est destiné à remplacer le questionnaire d'identification des risques de l'IA
Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation et aux modèles d'IA permet d'identifier les risques associés à la combinaison d'un cas d'utilisation et d'un modèle d'IA. Ce modèle de questionnaire est utilisé dans le processus de développement et de documentation des cas d'utilisation.
Le processus d'évaluation de l'IA est désormais désactivé par défaut. Il est remplacé par le workflow d'évaluation des questionnaires. Vous pouvez désormais définir des modèles de questionnaire directement dans le flux de travail des cas d'utilisation.
Les flux de travail, les vues et les tableaux de bord ont été mis à jour.
IBM watsonx.governance est disponible dans la région de Sydney
Copy link to section
9 décembre 2024
IBM watsonx.governance est désormais disponible dans le centre de données de Sydney. Vous pouvez sélectionner Sydney comme région préférée lors de l'inscription.
Déployer des modèles de fondation à la demande dans la région de Dallas
Copy link to section
6 décembre 2024
Choisissez parmi une collection de modèles de fondation que vous pouvez déployer sur du matériel dédié à l'usage exclusif de votre organisation. Un déploiement dédié signifie des interactions plus réactives lorsque vous inférez des modèles de fondation. Les modèles de fondation déployés à la demande sont facturés à l'heure. Pour plus d'informations, voir Modèles de fondation pris en charge et Détails de la facturation pour les ressources génératives d'IA.
Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.
Inférence le dernier modèle de fondation Llama d' Meta , dans les régions de Dallas et de Francfort
Copy link to section
6 décembre 2024
L' Meta Llama 3.3 70B Le modèle de fondation multilingue est disponible pour l'interprétariat dans les régions de Dallas et de Francfort. Le modèle de la fondation llama-3-3-70b-instruct est compétent en matière de codage, de raisonnement pas à pas et d'appel d'outils. Avec des performances qui rivalisent avec celles du modèle d' 405b, la mise à jour du modèle de base d' Llama 3.3 est un excellent choix pour les développeurs. Voir l'annonce sur IBM.
Examiner les points de référence pour comparer les modèles de fondation
Copy link to section
5 décembre 2024
Passez en revue les modèles de base de référence pour connaître les capacités des modèles de base disponibles avant de les essayer. Comparez les performances des différents modèles de fondation pour les tâches les plus importantes dans votre cas d'utilisation. Pour plus d'informations, voir les critères de référence des modèles de fondation.
Les fichiers Microsoft Excel sont obsolètes pour les modèles OPL dans Decision Optimization
Copy link to section
5 décembre 2024
Les fichiers Microsoft Excel (.xls et .xlsx) ne sont plus utilisés pour l'entrée et la sortie directes dans les modèles OPL de Decision Optimization. Pour se connecter à des fichiers Excel, utilisez plutôt un connecteur de données. Le connecteur de données transforme votre fichier Excel en fichier .csv. Pour plus d'informations, voir Données référencées.
Nouveaux carnets d'exemples pour le déploiement de modèles convertis au format ONNX
Copy link to section
3 décembre 2024
Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Voir les exemples de carnets suivants :
Amélioration de la documentation sur les options d'écriture pour Data Refinery
Copy link to section
28 novembre 2024
Les options d'écriture et de tableau pour l'exportation des flux de données dépendent de votre connexion. Ces options sont maintenant expliquées afin que vous soyez mieux guidé dans le choix de vos options de table cible. Pour plus d'informations, voir Options de connexion cible pour Data Refinery.
Semaine se terminant le 22 novembre 2024
Copy link to section
Le nouveau watsonx Developer Hub pour commencer à coder rapidement
Copy link to section
21 octobre 2024
Consultez le nouveau Developer Hub pour trouver tout ce dont vous avez besoin pour coder votre solution d'IA générative :
Effectuez votre première requête API pour inférer un modèle de base dans watsonx.ai.
Trouvez les modèles de base et les bibliothèques de code appropriés pour vos applications d'IA.
Comprendre les capacités de watsonx.ai et copier des extraits de code en Curl, Node.js ou Python.
Apprenez à créer des applications et des solutions d'IA générative grâce à des guides détaillés.
Rejoignez des communautés pour trouver des ressources, des réponses et vous engager avec d'autres utilisateurs.
Watson Studio s'appelle désormais watsonx.ai Studio
Certaines vidéos, certains carnets de notes et certains exemples de code peuvent continuer à faire référence à ces services sous leur ancien nom.
IBM watsonx.ai est disponible dans la région de Sydney
Copy link to section
21 novembre 2024
Watsonx.ai est maintenant généralement disponible dans le centre de données de Sydney et Sydney peut être sélectionné comme région préférée lors de l'inscription.
Utiliser les modèles de base de séries temporelles de IBM Granite et l'API de watsonx.ai pour prévoir les valeurs futures (beta)
Copy link to section
21 novembre 2024
Utilisez l'API de séries chronologiques pour transmettre des observations de données historiques à un modèle de base de séries chronologiques d' IBM Granite s capable de prévoir des valeurs futures avec une inférence à coup sûr. La méthode de prévision des séries chronologiques de l'API d' watsonx.ai s est disponible en version bêta. Pour plus d'informations, voir Prévision des valeurs futures des données.
Utiliser les modèles d'intégration de texte watsonx.ai à partir de l'API d'inférence Elasticsearch
Copy link to section
21 novembre 2024
La version 8.16.0 de l' Elasticsearch, a ajouté la prise en charge de la création d'un point d'extrémité d'inférence qui utilise un modèle de base d' watsonx.ai s pour les tâches d'intégration de texte.
Promouvoir les flux de SPSS Modeler dans les espaces de déploiement
Copy link to section
19 novembre 2024
Vous pouvez désormais promouvoir directement les flux SPSS Modeler des projets vers les espaces de déploiement sans avoir à exporter le projet et à l'importer ensuite dans l'espace de déploiement. Pour plus d'informations, voir Promouvoir les flux et les modèles SPSS Modeler.
Semaine se terminant le 15 novembre 2024
Copy link to section
Utiliser l'application de chat de démonstration IBM watsonx.ai sans restriction d'essai en reliant les comptes
Copy link to section
15 novembre 2024
Vous pouvez désormais utiliser votre compte de démonstration IBM watsonx.ai sans restriction d'utilisation de jetons ou de limite de temps en reliant votre compte de démonstration à votre compte IBM Cloud watsonx.ai payant. Pour plus d'informations, reportez-vous à la section Relier les comptes IBM watsonx.ai demo et watsonx.ai
Le paquetage Node.js watsonx.ai est disponible auprès de LangChain
Copy link to section
11 novembre 2024
Le paquetage Node.js s watsonx.ai peut être utilisé à partir de la bibliothèque communautaire JavaScript LangChain. L'intégration prend en charge les fonctions de watsonx.ai telles que l'inférence de modèles de fondation, la génération d'incrustations de texte et la gestion des échanges par chat qui incluent des capacités de conversion d'images en texte et d'appel d'outils. Avec l'intégration LangChain, vous pouvez faire appel à ces fonctionnalités de watsonx.ai en utilisant des interfaces cohérentes qui facilitent le passage d'un fournisseur à l'autre pour comparer les offres et trouver la meilleure solution pour vos besoins.
Les informations d'identification des tâches sont désormais requises pour déployer des ressources et exécuter des tâches à partir d'un espace de déploiement
Copy link to section
11 novembre 2024
Pour améliorer la sécurité des tâches de déploiement en cours d'exécution, vous devez saisir vos informations d'identification pour déployer les ressources suivantes à partir d'un espace de déploiement :
Modèles d'invite
Services d’IA
Modèles
Fonctions Python
Scripts
En outre, vous devez saisir vos informations d'identification pour créer les déploiements suivants à partir de votre espace de déploiement :
En ligne
Lot
Vous devez également utiliser vos identifiants de tâches pour créer et gérer des tâches de déploiement à partir de votre espace de déploiement.
Déployer des applications d'IA générative avec des services d'IA
Copy link to section
7 novembre 2024
Vous pouvez désormais utiliser les services d'IA dans watsonx.ai pour déployer vos applications. Un service d'IA est une unité de code déployable que vous pouvez utiliser pour capturer la logique de vos cas d'utilisation d'IA générative. Alors que les fonctions Python constituent le moyen traditionnel de déployer des ressources d'apprentissage automatique, les services d'IA offrent une option plus souple pour déployer du code pour des applications d'IA générative, telles que la diffusion en continu. Lorsque vos services d'IA sont déployés avec succès, vous pouvez utiliser le point de terminaison pour l'inférence à partir de votre application.
Le nouveau modèle d'intégration de tiers all-minilm-l6-v2 est disponible dans watsonx.ai
Copy link to section
29 octobre 2024
Le modèle d'intégration de texte all-minilm-l6-v2 de la communauté open source du traitement du langage naturel (NLP) et de la vision par ordinateur (CV) est désormais disponible pour une utilisation à partir de la méthode d'intégration de texte de l'API watsonx.ai Utiliser le modèle pour convertir le texte en vecteurs d'intégration de texte qui peuvent être utilisés dans les tâches de recherche et d'extraction de texte. Pour plus de détails sur les modèles, voir les rubriques suivantes :
Prix inférieur pour l'inférence du modèle de base de l' Mistral Large
Copy link to section
29 octobre 2024
Le prix des intrants que vous soumettez au modèle de la fondation de l' Mistral Large, est passé de 0.01 s de dollars à 0.003 s de dollars par 1 000 jetons. Le prix de la production générée par le modèle de fondation n'a pas changé; le prix des jetons de production reste de 1 $ ( 0.01 ) pour les jetons d' USD/1,000. Le changement de prix s'applique à toutes les régions où le modèle de base d' mistral-large.
IBM Runtime 23.1 est obsolète. À partir du 21 novembre 2024, vous ne pourrez plus créer de nouveaux carnets ou environnements personnalisés en utilisant les runtimes 23.1 Vous ne pouvez pas non plus créer de nouveaux déploiements avec des spécifications logicielles basées sur le runtime 23.1 Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à IBM Runtime 24.1
Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte
Copy link to section
28 octobre 2024
La méthode d'extraction de texte est désormais disponible dans l'API REST de watsonx.ai Tirez parti de la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte permet d'extraire du texte à partir de structures documentaires telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. Pour plus d'informations, voir Extraire du texte de documents.
Comparer les tableaux dans les expériences d'Decision Optimization pour voir les différences entre les scénarios
Copy link to section
23 octobre 2024
Vous pouvez désormais comparer les tableaux d'une expérience d'Decision Optimization dans la vue Préparer les données ou Explorer la solution. Cette comparaison peut être utile pour voir les différences de valeur des données entre les scénarios affichés l'un à côté de l'autre. Pour plus d'informations, voir Comparer les tables de scénarios.
Les nouveaux modèles Granite 3.0 sont disponibles dans watsonx.ai
Copy link to section
21 octobre 2024
Vous pouvez maintenant inférer les modèles de la génération 3.0 Granite Foundation fournis par IBM à partir de watsonx.ai:
Modèles Granite Instruct dans toutes les régions : Utilisez les nouveaux modèles linguistiques légers et open-source pour des tâches telles que le résumé, la résolution de problèmes, la traduction de textes, le raisonnement, le codage et les tâches d'appel de fonctions. Fonctionne avec les variantes de modèles suivantes :
granite-3-2b-instruct
granite-3-8b-instruct
Les modèles Granite Guardian dans la région de Dallas : Utiliser les nouveaux modèles Granite Guardian, qui sont des modèles Granite Instruct affinés, conçus pour détecter les risques dans les invites et les réponses. Fonctionne avec les variantes de modèles suivantes :
Améliorer les tâches de recherche et d'extraction grâce à l'API de classement des textes
Copy link to section
21 octobre 2024
La méthode de classement du texte est généralement disponible dans l'API REST de watsonx.ai Utilisez cette nouvelle méthode de l'API, ainsi que les modèles de base du reranker, tels que le modèle ms-marco-minilm-l-12-v2 nouvellement pris en charge, pour réorganiser un ensemble de passages de documents en fonction de leur similarité avec une requête spécifiée. Le reclassement est un moyen utile d'ajouter de la précision à vos processus de recherche de réponses. Pour plus d'informations, voir Reranking des passages de documents.
Le nouveau modèle Pixtral 12B est disponible dans les régions de Francfort et de Londres
Copy link to section
21 octobre 2024
Vous pouvez désormais utiliser le modèle de fondation Pixtral- 12B, de Mistral AI, sur watsonx.ai dans les centres de données de Francfort et de Londres.
Pixtral 12B est un modèle nativement multimodal avec des capacités image-texte et texte-texte qui a été entraîné avec des données d'images et de textes entrelacées. Le modèle de base prend en charge des tailles d'image variables et excelle dans les tâches de suivi d'instructions. Pour plus de détails, voir Modèles de fondation pris en charge .
Semaine se terminant le 18 octobre 2024
Copy link to section
La délimitation des ressources du compte est activée par défaut
Copy link to section
17 octobre 2024
Le paramètre " Resource scope de votre compte est désormais défini par défaut sur " ON Toutefois, si vous avez précédemment défini la valeur de l'étendue des ressources sur " ON ou " OFF, le paramètre actuel n'est pas modifié.
Lorsque la délimitation des ressources est activée, vous ne pouvez pas accéder aux projets qui ne font pas partie de votre compte IBM Cloud actuellement sélectionné. Si vous appartenez à plusieurs comptes IBM Cloud, il se peut que vous ne voyiez pas tous vos projets listés ensemble. Par exemple, il se peut que vous ne voyiez pas tous vos projets sur la page Tous les projets. Vous devez changer de compte pour voir les projets dans les autres comptes.
Un modèle de fondation Code de l' Granite e est disponible dans la région de Francfort
Copy link to section
15 octobre 2024
Le modèle de fondation d' granite-20b-code-instruct, issu de l' IBM, est conçu pour répondre aux instructions liées au codage. Vous pouvez utiliser le modèle de base dans les projets hébergés dans le centre de données de Francfort pour vous aider dans les tâches de codage et pour créer des assistants de codage. Pour plus d'informations sur le modèle, voir Modèles de fondation pris en charge.
Semaine se terminant le 11 octobre 2024
Copy link to section
Nouvel avantage lié à l'obtention d'une licence
Copy link to section
10 octobre 2024
Vous pouvez désormais apporter votre propre licence (BYOL) pour appliquer les avantages des licences sur site à IBM watsonx.ai et IBM watsonx.governance.
Analysez les données textuelles japonaises dans SPSS Modeler avec Text Analytics
Copy link to section
9 octobre 2024
Vous pouvez désormais utiliser les nœuds d'analyse de texte dans SPSS Modeler, tels que le nœud d'analyse des liens de texte et le nœud d'exploration de texte, pour analyser les données textuelles écrites en japonais.
Créer des flux de travail conversationnels avec l'API de chat watsonx.ai
Copy link to section
8 octobre 2024
Utilisez l'API de chat watsonx.ai pour ajouter à vos applications des capacités d'IA générative, notamment des appels d'agents vers des outils et services tiers.
Pour plus d'informations, consultez les rubriques suivantes :
Nouvelle spécification logicielle pour les modèles de fondation personnalisés
Copy link to section
7 octobre 2024
Vous pouvez désormais utiliser une nouvelle spécification logicielle watsonx-cfm-caikit-1.1 avec vos déploiements de modèles de fondations personnalisés. La spécification est basée sur la bibliothèque d' vLLM s et est mieux adaptée aux derniers modèles de grands langages uniquement décodeurs. Pour plus d'informations sur la bibliothèque d' vLLM, voir vLLM Pour plus d'informations sur l'utilisation de la spécification avec un modèle de fondation personnalisé, voir Planification du déploiement d'un modèle de fondation personnalisé.
Les modèles de fondation granite-7b-lab et llama3-llava-next-8b-hf sont obsolètes
Copy link to section
7 octobre 2024
Le modèle de fondation de l' granite-7b-lab, obsolète, sera supprimé le 7 janvier 2025. Réviser toutes les invites qui utilisent ce modèle de base.
Date de déchéance : 7 octobre 2024
Date de retrait : 7 janvier 2025
Modèle alternatif : granite-3-8b-instruct
Le modèle de fondation multimodal d' llama3-llava-next-8b-hf, lui aussi obsolète, sera retiré le 7 novembre 2024. Vous pouvez désormais utiliser l'un des nouveaux modèles de vision Llama 3.2 pour les tâches de génération d'images en texte.
Mise à jour des environnements et des spécifications logicielles
Copy link to section
3 octobre 2024
Les bibliothèques Tensorflow et Keras incluses dans IBM Runtime 23.1 sont désormais mises à jour vers leurs nouvelles versions. Cela peut avoir un impact sur la façon dont le code est exécuté dans vos carnets. Pour plus de détails, voir Paquets de bibliothèques inclus dans les programmes d'exécution de 'watsonx.ai Studio (anciennement 'Watson Studio).
Le Runtime 23.1 sera abandonné au profit du Runtime 24.1 d'IBM dans le courant de l'année. Pour éviter des perturbations répétées, nous vous recommandons de passer dès maintenant à IBM Runtime 24.1 et d'utiliser les spécifications logicielles correspondantes pour les déploiements.
Disponibilité du plan watsonx.governance dans la région de Francfort et suppression du plan OpenScale legacy
Copy link to section
3 octobre 2024
L'ancien plan watsonx.governance pour provisionner Watson OpenScale dans la région de Francfort est obsolète. IBM Watson OpenScale ne sera plus disponible pour un nouvel abonnement ou pour provisionner de nouvelles instances. Pour les capacités OpenScale, souscrivez au plan Essentials de watsonx.governance, qui est désormais disponible à Francfort et à Dallas.
Pour afficher les détails d'un plan, voir les plans watsonx.governance .
Les instances de plan existantes continueront à fonctionner et seront prises en charge jusqu'à la date de fin de prise en charge, qui reste à déterminer.
Les clients existants sur IBM Watson OpenScale peuvent continuer à ouvrir des tickets de support en utilisant IBM Watson OpenScale.
Nouveaux termes de menu pour ouvrir la page des connexions de la plate-forme
Copy link to section
3 octobre 2024
Auparavant, le chemin d'accès à la page Connexions de la plate-forme dans le menu de navigation était Données > Connexions de la plate-forme. Le nouveau chemin est Données > Connectivité. La page Connectivité comporte un onglet pour les connexions à la plate-forme.
Semaine se terminant le 27 septembre 2024
Copy link to section
Llama 3.2 modèles de fondation, y compris les modèles multimodaux 11B et 90B, sont disponibles
Copy link to section
25 septembre 2024
Les modèles de fondation suivants de Meta AI sont désormais disponibles dans la région de Dallas :
Llama 3.2 modèles d'instruction
Des modèles linguistiques polyvalents de grande taille qui prennent en charge de grandes entrées (128 000 tokens de longueur de fenêtre contextuelle) et qui sont suffisamment légers et efficaces, avec des paramètres de taille 1B et 3B, pour être intégrés dans un appareil mobile. Vous pouvez utiliser ces modèles pour créer des agents hautement personnalisés sur l'appareil.
Llama 3.2 modèles de vision
Des modèles affinés, conçus pour des cas d'utilisation avec entrée d'image et sortie de texte, tels que la compréhension au niveau du document, l'interprétation de tableaux et de graphiques, et le sous-titrage d'images.
Modèle de vision du garde-lama
Modèle de garde-corps puissant conçu pour filtrer les contenus nuisibles.
Cette version comprend des améliorations et des corrections de bugs.
Onglets personnalisés sur le tableau de bord
Le tableau de bord peut désormais contenir jusqu'à trois onglets personnalisés.
Graphiques à barres empilées
Vous pouvez désormais configurer un diagramme à barres empilées sur le tableau de bord et dans le View Designer.
Utilisation d'expressions pour définir les valeurs d'un champ en fonction des réponses d'un répondant à un questionnaire
Vous pouvez maintenant saisir une expression pour la valeur d'un champ. Par exemple, vous pouvez saisir [$TODAY$] pour la date du jour, [$END_USER$] pour le nom de l'utilisateur connecté, ou [$System Fields:Description$] pour définir le champ sur la valeur du champ Description de l'objet.
Améliorations de la solution watsonx.governance Model Risk Governance
Cette version comprend les améliorations suivantes :
Le nouveau type d'objet Groupe de modèles permet de regrouper des modèles similaires. Par exemple, les versions d'un modèle qui utilisent une approche similaire pour résoudre un problème commercial peuvent faire partie d'un groupe de modèles.
Le nouveau calcul de notation du risque des cas d'utilisation regroupe les mesures par état de violation en notes de risque pour donner une vue d'ensemble de la performance des modèles sous-jacents d'un cas d'utilisation.
La nouvelle entité commerciale Bibliothèque d'IA découverte fournit un emplacement par défaut pour stocker tous les déploiements d'IA qui ne suivent pas les pratiques de gouvernance sanctionnées au sein d'une organisation (également connue sous le nom d'"IA fantôme").
Les flux de travail, les vues et les tableaux de bord ont été mis à jour.
Automatiser les modèles RAG avec AutoAI SDK (beta)
Copy link to section
23 septembre 2024
Utilisez le AutoAI Python SDK pour automatiser et accélérer la conception et le déploiement d'un modèle RAG (Retrieval-augmented generation) optimisé, basé sur vos données et votre cas d'utilisation. RAG comporte de nombreux paramètres de configuration, notamment le choix d'un grand modèle linguistique, la manière de découper les documents de base et le nombre de documents à extraire. AutoAI automatise l'exploration et l'évaluation complètes d'un ensemble contraint d'options de configuration et produit un ensemble de pipelines de modèles classés en fonction de leur performance par rapport à la métrique d'optimisation.
Note: Bien que cette fonctionnalité soit en version bêta, l'expérience est gratuite et aucun jeton n'est consommé. Toutefois, les appels aux modèles RAG et à leurs dérivés effectués après la fin de l'expérience consomment des ressources et entraînent des frais de facturation aux taux standard.
La prise en charge du runtime Spark 3.3 dans IBM Analytics Engine sera supprimée d'ici le 29 octobre 2024 et la version par défaut sera remplacée par le runtime Spark 3.4. Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à Spark 3.4.
À partir du 29 octobre 2024, vous ne pourrez plus créer ou exécuter des notebooks ou des environnements personnalisés en utilisant des runtimes Spark 3.3. De plus, vous ne pouvez pas créer ou exécuter des déploiements avec des spécifications logicielles basées sur le runtime Spark 3.3.
Inférence d'un modèle de base multimodal à partir de la Prompt Lab
Copy link to section
19 septembre 2024
Vous pouvez désormais ajouter une image dans l Prompt Lab, puis discuter de cette image en activant un modèle de base multimodal en mode chat. En plus des documents de référence, vous pouvez désormais télécharger des images et demander à un modèle de base prenant en charge les tâches de conversion d'images en texte de vous fournir des informations sur le contenu visuel de l'image. Pour plus d'informations, voir Chatter avec des documents et des images.
Le nouveau modèle llama3-llava-next-8b-hf est disponible dans la région de Dallas
Copy link to section
19 septembre 2024
Vous pouvez désormais utiliser le nouveau modèle de base multimodal d' llama3-llava-next-8b-hf, disponible sur IBM watsonx.ai, pour faciliter les tâches de conversion d'images en texte.
Large Language and Vision Assistant (LLaVa) associe un modèle de langage large pré-entraîné à un encodeur de vision pré-entraîné pour les cas d'utilisation des chatbots multimodaux. LLaVA NeXT Llama3 est entraîné sur des données d'images et de textes plus diversifiées et de haute qualité. Pour plus de détails, voir Modèles de fondation pris en charge .
Utilisez le watsonx.ai Node.js SDK pour coder des applications d'IA générative
Copy link to section
18 septembre 2024
Inférence et réglage des modèles de fondation dans IBM watsonx as a Service de manière programmatique en utilisant le package watsonx.ai Node.js. Pour plus d'informations, voir Node.js SDK.
Comprendre les politiques d'indemnisation de la propriété intellectuelle pour les modèles de fondation
Copy link to section
18 septembre 2024
Vous pouvez maintenant mieux comprendre la politique d'indemnisation de la propriété intellectuelle d'IBM et voir quels modèles de fondation ont une couverture d'indemnisation de la propriété intellectuelle dans watsonx.ai. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle.
Semaine se terminant le 13 septembre 2024
Copy link to section
Créer des jobs batch pour les flux d' SPSS Modeler s dans l'espace de déploiement
Copy link to section
10 septembre 2024
Vous pouvez désormais créer des travaux par lots pour les flux SPSS Modeler dans les espaces de déploiement. Les flux vous permettent de décider des nœuds terminaux à exécuter chaque fois que vous créez un travail par lots à partir d'un flux. Lorsque vous planifiez des travaux par lots pour des flux, le travail par lots utilise les sources de données et les cibles de sortie que vous avez spécifiées dans votre flux. Le mappage de ces sources de données et de ces sorties est automatique si les sources de données et les cibles se trouvent également dans votre espace de déploiement. Pour plus d'informations sur la création de travaux par lots à partir de flux, voir Création de travaux de déploiement pour les flux SPSS Modeler.
Apportez votre propre modèle de base pour l'inférence de watsonx.ai dans la région de Dallas
Copy link to section
3 septembre 2024
En plus de travailler avec des modèles de base créés par IBM, vous pouvez maintenant télécharger et déployer vos propres modèles de base. Une fois les modèles déployés et enregistrés auprès de watsonx.ai, créez des invites qui infèrent les modèles personnalisés de manière programmatique ou à partir du Prompt Lab Cette fonction n'est disponible que dans la région de Dallas.
Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte des documents
Copy link to section
3 septembre 2024
Appliquez la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte de document permet d'extraire du texte à partir de structures de document telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. La méthode d'extraction de texte de l'API REST watsonx.ai est une fonctionnalité bêta.
Granite Les modifications et mises à jour du modèle de base du code sont disponibles
Copy link to section
3 septembre 2024
Le modèle de fondation de l' granite-20b-code-instruct, a été modifié en version 1.1.0. La dernière modification est entraînée sur un mélange de données de haute qualité provenant des domaines du code et du langage naturel afin d'améliorer les capacités de raisonnement et de suivi des instructions du modèle.
Les modèles de fondation suivants ont été mis à jour afin d'augmenter la taille de la fenêtre contextuelle prise en charge (entrée + sortie) pour les invites de 8192 à 128 000 :
Les modèles llama-2-13b-chat et llama-2-70b-chat sont obsolètes
Copy link to section
26 août 2024
Les modèles de fondation llama-2-13b-chat et llama-2-70b-chat sont obsolètes et seront retirés le 25 septembre 2024. Révisez tous les messages-guides qui utilisent ces modèles de base.
llama-2-13b-chat
Date de déchéance : 26 août 2024
Date de retrait : 25 septembre 2024
Modèle alternatif : llama-3.1-8b-instruct
llama-2-70b-chat
Date de déchéance : 26 août 2024
Date de retrait : 25 septembre 2024
Modèle alternatif : llama-3.1-70b-instruct
Les demandes d'inférence soumises aux modèles llama-2-13b-chat et llama-2-70b-chat à l'aide de l'API continuent de générer des résultats, mais incluent un message d'avertissement concernant le retrait prochain du modèle. À partir du 25 septembre 2024, les demandes d'API pour l'inférence des modèles ne produiront pas de résultats.
Ajouter des groupes d'utilisateurs comme collaborateurs dans les projets et les espaces
Copy link to section
22 août 2024
Vous pouvez désormais ajouter des groupes d'utilisateurs dans les projets et les espaces si votre compte IBM Cloud contient des groupes d'accès IAM. Votre IBM Cloud peut créer des groupes d'accès, qui sont ensuite disponibles en tant que groupes d'utilisateurs dans les projets. Pour plus d'informations, voir Travail avec les groupes d'accès IAM.
Fin de la prise en charge de la fonction de prédiction des anomalies pour les expériences de séries temporelles de AutoAI
Copy link to section
19 août 2024
La fonction de prédiction des anomalies (outliers) dans les prédictions des modèles de séries temporelles de AutoAI, actuellement en version bêta, est obsolète et sera supprimée le 23 septembre 2024.... Les expériences de séries temporelles standard AutoAI sont toujours entièrement prises en charge. Pour plus de détails, voir Construction d'une expérience de série temporelle.
Semaine se terminant le 16 août 2024
Copy link to section
Les nouveaux modèles d'intégration de l'ardoise de IBM sont disponibles dans toutes les régions
Copy link to section
15 août 2024
IBM Les modèles d'intégration d'ardoises permettent aux entreprises de générer des intégrations pour diverses entrées telles que des requêtes, des passages ou des documents. Les nouveaux modèles slate-125m-english-rtrvr-v2 et slate-30m-english-rtrvr-v2 présentent des améliorations significatives par rapport à leurs homologues v1. Si vous utilisez aujourd'hui les modèles slate-125m-english-rtrvr et slate-30m-english-rtrvr, passez aux nouveaux modèles v2 Slate pour profiter des améliorations apportées au modèle.
Configurer les garde-fous de l'IA pour la saisie utilisateur et la sortie du modèle de base séparément dans Prompt Lab
Copy link to section
15 août 2024
Ajustez la sensibilité des garde-fous de l'IA qui détectent et suppriment les contenus préjudiciables lorsque vous expérimentez avec les invites du modèle de base dans Prompt Lab. Vous pouvez définir différents niveaux de sensibilité du filtre pour le texte d'entrée de l'utilisateur et le texte de sortie du modèle, et enregistrer les paramètres efficaces des garde-fous AI dans des modèles d'invite.
Sélectionner les données de test des projets pour l'évaluation des modèles d'invite
Copy link to section
8 août 2024
Lorsque vous évaluez des modèles d'invite dans des projets, vous pouvez désormais choisir des ressources de projet pour sélectionner des données de test pour les évaluations. Pour plus d'informations, voir Évaluation des modèles d'invite dans les projets.
Le nouveau modèle llama-3-1-70b-instruct est maintenant disponible sur IBM watsonx.ai
Copy link to section
7 août 2024
Vous pouvez maintenant utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 70 milliards de paramètres sur IBM watsonx.ai.
Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .
Questions et réponses actualisées avec l'accélérateur RAG
Copy link to section
6 août 2024
L'exemple de projet Q&A avec l'accélérateur RAG 1.2 comprend les améliorations suivantes :
Obtenez de l'aide pour la phase suivante de votre mise en œuvre de la génération augmentée par récupération (RAG) : recueillir les commentaires des utilisateurs et analyser la qualité des réponses. Comprend des analyses avec détection non supervisée des sujets pour montrer les sujets populaires, la satisfaction de l'utilisateur par rapport aux réponses générées par sujet, et les scores de recherche par sujet.
Nouveaux modèles d'invite optimisés pour les modèles de fondation IBM granite-7b-lab et Meta Llama 3.1.
Code simplifié qui utilise les utilitaires RAG de la bibliothèque watsonx.ai Python et des filtres de recherche vectorielle ciblés pour effectuer des recherches par produit, par zone, etc.
Note: Si vous ne pouvez pas créer l'exemple de projet, essayez de remplacer le texte du champ de description.
Semaine se terminant le 2 août 2024
Copy link to section
Le nouveau modèle llama-3-1-8b-instruct est maintenant disponible sur IBM watsonx.ai
Copy link to section
1er août 2024
Vous pouvez maintenant utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 8 milliards de paramètres sur IBM watsonx.ai.
Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .
Associer les espaces de travail aux cas d'utilisation de l'IA
Copy link to section
1er août 2024
Le processus de création d'un cas d'utilisation de l'IA est modifié pour mieux correspondre au cycle de vie de l'IA. Après avoir défini les éléments essentiels d'un cas d'utilisation de l'IA, associez des espaces de travail pour organiser les actifs de manière à ce qu'ils s'alignent sur les phases d'une solution d'IA. Par exemple, associer un projet ou un espace aux biens en phase de développement ou de validation, et associer un espace aux biens en phase d'exploitation.
Annonce du soutien à Python 3.11 et R4.3 frameworks et spécifications logicielles sur le runtime 24.1
Copy link to section
25 juillet 2024
Vous pouvez désormais utiliser IBM Runtime 24.1, qui inclut les derniers cadres de science des données basés sur Python 3.11 et R 4.3, pour exécuter des carnets Jupyter et des scripts R, et former des modèles. À partir du 29 juillet, vous pourrez également effectuer des déploiements. Mettez à jour vos ressources et vos déploiements pour utiliser les frameworks et les spécifications logicielles IBM Runtime 24.1
Pour des informations sur le IBM Durée 24.1 version et les environnements inclus pour Python 3.10 et R 4.2, voir Environnements de bloc-notes.
Version améliorée de Jupyter Notebook l'éditeur est maintenant disponible
Copy link to section
25 juillet 2024
Si vous exécutez votre ordinateur portable dans des environnements basés sur Runtime 24.1, vous pouvez utiliser ces améliorations pour travailler avec votre code :
Déboguer automatiquement votre code
Générez automatiquement une table des matières pour votre bloc-notes
Basculer les numéros de ligne à côté de votre code
Réduisez le contenu des cellules et utilisez la vue côte à côte pour le code et la sortie, pour une productivité améliorée
Modèles d'intégration de transformateur de processeur de langage naturel pris en charge avec Runtime 24.1
Copy link to section
25 juillet 2024
Dans le nouveau Runtime 24.1 environnement, vous pouvez désormais utiliser des modèles d'intégration de transformateur de traitement du langage naturel (NLP) pour créer des intégrations de texte qui capturent le sens d'une phrase ou d'un passage afin de faciliter les tâches de génération augmentée par récupération. Pour plus d'informations, voir Intégrations.
De nouveaux modèles PNL spécialisés sont disponibles dans Runtime 24.1
Copy link to section
25 juillet 2024
Les nouveaux modèles PNL spécialisés suivants sont désormais inclus dans le Runtime 24.1 environnement:
Un modèle capable de détecter et d'identifier le contenu haineux, abusif ou grossier (HAP) dans le contenu textuel. Pour plus d'informations, voir Détection des PAD.
Extrayez des informations détaillées à partir de grandes collections de textes à l'aide de la synthèse des points clés
Copy link to section
25 juillet 2024
Vous pouvez désormais utiliser la synthèse de points clés dans les carnets de notes pour extraire des informations détaillées et exploitables à partir de vastes collections de textes représentant les opinions des personnes (telles que des évaluations de produits, des réponses à des enquêtes ou des commentaires sur les médias sociaux). Le résultat est livré de manière organisée, hiérarchique et facile à traiter. Pour plus d'informations, voir Résumé des points clés
Mise à jour de la version de RStudio
Copy link to section
25 juillet 2024
Afin d'offrir une expérience utilisateur cohérente dans les clouds privés et publics, l'IDE RStudio pour IBM watsonx sera mis à jour vers RStudio Server 2024.04.1 et R 4.3.1 le 29 juillet 2024. La nouvelle version de RStudio apporte un certain nombre d'améliorations et de correctifs de sécurité. Voir les notes de mise à jour de RStudio Server 2024.04.1 pour plus d'informations. Bien qu'aucun problème de compatibilité majeur ne soit prévu, les utilisateurs doivent être conscients des changements de version de certains packages décrits dans le tableau ci-dessous.
Lorsque vous lancez l'IDE RStudio à partir d'un projet après la mise à jour, réinitialisez l'espace de travail RStudio pour vous assurer que le chemin de la bibliothèque pour les paquets R 4.3.1 est pris en compte par le serveur RStudio.
Une nouvelle version du modèle Mistral Large est désormais disponible sur IBM watsonx.ai dans les régions de Dallas, Francfort et Londres
Copy link to section
24 juillet 2024
Vous pouvez désormais utiliser le modèle de fondation d' Mistral Large 2, de Mistral AI, sur IBM watsonx.ai, dans les centres de données de Dallas, Francfort et Londres.
Le modèle Mistral Large 2 prend en charge 11 langues et est performant en matière de compréhension de texte, de génération de code et de raisonnement avancé. Pour plus de détails, voir Modèles de fondation pris en charge .
Nouveau llama-3-405b-instruct le modèle est disponible dans la région de Dallas
Copy link to section
23 juillet 2024
Vous pouvez désormais utiliser le modèle de base d' llama-3-405b-instruct, disponible sur Meta , sur IBM watsonx.ai, dans le centre de données de Dallas.
Le modèle llama-3-405B-instruct (v3.1) fournit aux entreprises un modèle de langage étendu très performant avec des capacités de raisonnement de premier plan, et il s'agit du plus grand modèle à source ouverte jamais publié à ce jour. Ce modèle de base peut être utilisé pour des tâches de raisonnement multilingues complexes, notamment la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .
Le merlinite-7b le modèle est obsolète
Copy link to section
22 juillet 2024
Le modèle de fondation de l' merlinite-7b, obsolète, sera retiré le 22 août 2024. Réviser toutes les invites qui utilisent ce modèle de base.
Date de dépréciation : 22 juillet 2024
Date de retrait : 22 août 2024
Modèle alternatif: mixtral-8x7b-instruct-v01
Les demandes d'inférence soumises au merlinite-7b Le modèle à l'aide de l'API continue de générer une sortie, mais inclut un message d'avertissement concernant le retrait prochain du modèle. À partir du 22 août 2024, les demandes d'API pour l'inférence du modèle ne produiront pas de résultats.
Le nouveau modèle Mistral Large est disponible dans les régions de Francfort et de Dallas
Copy link to section
9 juillet 2024
Vous pouvez désormais utiliser le modèle de fondation d' Mistral Large, développé par Mistral AI, sur IBM watsonx.ai, dans les centres de données de Francfort et de Dallas.
Mistral Large fournit aux entreprises un modèle de langage large très performant avec des capacités de raisonnement de premier plan. Ce modèle de base peut être utilisé pour des tâches de raisonnement multilingues complexes, notamment la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .
Semaine se terminant le 5 juillet 2024
Copy link to section
Connecteurs regroupés par type de source de données
Copy link to section
5 juillet 2024
Lorsque vous créez une connexion, les connecteurs sont désormais regroupés par type de source de données afin de faciliter leur recherche et leur sélection. Par exemple, le type de source de données MongoDB inclut les connecteurs IBM Cloud Databases for MongoDB et MongoDB.
De plus, un nouveau Récents La catégorie affiche les six derniers connecteurs que vous avez utilisés pour créer une connexion.
Ajouter des informations contextuelles aux invites du modèle de base dans Prompt Lab
Copy link to section
4 juillet 2024
Aidez un modèle de fondation à générer des réponses factuelles et actualisées dans des cas d'utilisation de génération augmentée par recherche (RAG) en ajoutant des informations contextuelles pertinentes à votre invite en tant que données de base. Vous pouvez rapidement télécharger des documents pertinents ou vous connecter à un magasin de vecteurs tiers contenant des données pertinentes. Lorsqu'une nouvelle question est soumise, la question est utilisée pour interroger les données de base sur les faits pertinents. Les meilleurs résultats de recherche ainsi que la question initiale sont soumis comme entrée de modèle pour aider le modèle de la fondation à intégrer des faits pertinents dans sa sortie.
À compter du 1er juillet 2024, leCloud Object Storage Plan Lite qui est automatiquement provisionné lorsque vous vous inscrivez pour un essai de 30 jours dewatsonx.ai etwatsonx.governance expire après la fin de l’essai. Vous pouvez mettre à niveau votreCloud Object Storage Lite au forfait Standard avec l'option Free Tier à tout moment pendant la période d'essai de 30 jours.
ExistantCloud Object Storage les instances de service avec des forfaits Lite que vous avez provisionnés avant le 1er juillet 2024 seront conservées jusqu'au 15 décembre 2024. Vous devez mettre à niveau votreCloud Object Storage service à un forfait Standard avant le 15 décembre 2024.
Créer des déploiements détachés pour la gouvernance des invites pour les modèles de langage de grande taille (LLM) externes
Copy link to section
21 juin 2024
Un modèle d'invite détaché est un nouvel atout pour évaluer un modèle d'invite pour un LLM hébergé par un fournisseur tiers, tel queGoogle Sommet AI,AzureOpenAI, ouAWS Substrat rocheux. L'inférence qui génère la sortie pour le modèle d'invite est effectuée sur le modèle distant, mais vous pouvez évaluer la sortie du modèle d'invite à l'aide des métriques watsonx.governance . Vous pouvez également suivre le déploiement détaché et le modèle d'invite détaché dans un cas d'utilisation d'IA dans le cadre de votre solution de gouvernance.
Les données d'identification de tâche seront requises pour les demandes de travail de déploiement
Copy link to section
19 juin 2024
Pour améliorer la sécurité de l'exécution des travaux de déploiement, l'utilisateur qui demande le travail doit fournir des données d'identification de tâche sous la forme d'une clé d'API. L'exigence sera appliquée à compter du 15 août 2024. Voir Ajout de données d'identification de tâche pour plus de détails sur la génération de la clé d'API.
Evaluer les cas d'utilisation pour l'applicabilité de la loi européenne sur l'intelligence artificielle
Copy link to section
19 juin 2024
En utilisant la nouvelle évaluation de l'applicabilité de la loi sur l'intelligence artificielle de l'UE, vous pouvez remplir un questionnaire simple pour évaluer vos cas d'utilisation de l'intelligence artificielle et déterminer s'ils entrent dans le champ d'application de la loi sur l'intelligence artificielle de l'UE. L'évaluation peut également vous aider à identifier la catégorie de risque à laquelle vos cas d'utilisation s'alignent: interdite, élevée, limitée ou minimale. Pour plus d'informations, voir Évaluation de l'applicabilité dans Composants de la solution dans la console de gouvernance.
Semaine se terminant le 7 juin 2024
Copy link to section
Gérez les activités de risque et de conformité avec la console de gouvernance ( IBM OpenPages)
Copy link to section
7 juin 2024
Watsonx.governance prend désormais en charge l'intégration facultative avec la console de gouvernance. Si vous avez installé le module Model Risk Governance de IBM OpenPages, vous pouvez configurer des cas d'utilisation de l'IA pour synchroniser les faits de gouvernance avec la console de gouvernance. À partir de la console de gouvernance, vous pouvez créer des cas d'utilisation, afficher les activités de gouvernance, gérer des tâches et mettre en œuvre des flux de travail dans le cadre de vos processus de gouvernance et de conformité. Pour plus d'informations, voir :
IBM Watson Pipelines est désormais IBM Orchestration Pipelines
Copy link to section
30 mai 2024
Le nouveau nom de service reflète les capacités d'orchestration de parties du cycle de vie de l'intelligence artificielle en flux reproductibles.
Etiquetez les projets pour les extraire facilement
Copy link to section
31 mai 2024
Vous pouvez désormais affecter des étiquettes à des projets afin de faciliter leur regroupement ou leur extraction. Affectez des balises lorsque vous créez un nouveau projet ou à partir de la liste de tous les projets. Filtrez la liste des projets par étiquette pour extraire un ensemble de projets associé. Pour plus d'informations, voir Création d'un projet.
Se connecter à une nouvelle source de données : Milvus
Copy link to section
31 mai 2024
Utilisez la connexion Milvus pour stocker et confirmer l'exactitude de vos identifiants et détails de connexion pour accéder à un magasin de vecteurs Milvus. Pour plus d'informations, voir la connexion Milvus.
Semaine se terminant le 24 mai 2024
Copy link to section
Nouveau tutoriel et vidéo
Copy link to section
23 mai 2024
Essayez le nouveau tutoriel pour voir comment évaluer un déploiement de modèle à l'aide de la fonctionnalité de Watson OpenScale dans un espace de déploiement.
Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle dans un espace de déploiement.
Configurez les moniteurs et évaluez un modèle dans un espace de déploiement. DébutantPas de code
Le modèle de fondation d' allam-1-13b-instruct, disponible dans la région de Francfort
Copy link to section
21 mai 2024
Le modèle de fondation arabe allam-1-13b-instruct de l'Autorité saoudienne pour les données et l'intelligence artificielle et fourni par IBM est disponible sur watsonx.ai dans le centre de données de Francfort. Vous pouvez utiliser le modèle de base d' allam-1-13b-instruct, qui est destiné à des tâches d'usage général, notamment les questions-réponses, la synthèse, la classification, la génération, l'extraction et la traduction en arabe. Pour plus d'informations, voir Modèles de base pris en charge.
Déployez des actifs d'IA traditionnels et génératifs avec la bibliothèque client watsonx.ai Python
Copy link to section
21 mai 2024
La bibliothèque client Watson Machine Learning Python fait désormais partie d'une bibliothèque étendue, la bibliothèque client watsonx.ai Python . Utilisez la bibliothèque watsonx.ai Python pour utiliser l'apprentissage automatique traditionnel et les actifs d'IA générative. La bibliothèque Watson Machine Learning sera conservée mais ne sera pas mise à jour avec les nouvelles fonctions. Pour plus d'informations, voir BibliothèquePython.
Semaine se terminant le 17 mai 2024
Copy link to section
Les modèles d'intégration de texte tiers sont disponibles dans watsonx.ai
Copy link to section
16 mai 2024
Les modèles d'intégration de texte tiers suivants sont désormais disponibles en plus des modèles IBM Slate pour la mise en correspondance et l'extraction de texte améliorées:
all-minilm-l12-v2
multilingual-e5-large
Soumettez des phrases ou des passages à l'un des modèles d'imbrication pris en charge à l'aide de la bibliothèque watsonx.ai Python ou de l'API REST pour convertir le texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.
De nouveaux modèles de fondations Granite Code sont disponibles dans la région de Dallas
Copy link to section
9 mai 2024
Vous pouvez maintenant déduire les modèles suivants de Granite Code Foundation fournis par IBM à partir de watsonx.ai:
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
Utiliser les nouveaux modèles de base du code Granite pour les tâches de codage programmatique. Les modèles de base sont affinés sur une combinaison de données d'instruction pour améliorer les capacités de suivi d'instruction, y compris le raisonnement logique et la résolution de problèmes.
Les modèles de base InstructLab sont disponibles dans watsonx.ai
Copy link to section
7 mai 2024
InstructLab est une initiative open source d' Red Hat, et d' IBM, qui fournit une plateforme pour augmenter les capacités d'un modèle de fondation. Les modèles de base suivants soutiennent les connaissances et les compétences qui sont apportées par InstructLab:
granite-7b-lab
granite-13-chat-v2
granite-20b-multilingual
merlinite-7b
Vous pouvez explorer les contributions de la communauté open source à partir de la page de taxonomie du modèle de fondation.
Vous pouvez maintenant créer des dossiers dans vos projets pour organiser les actifs. Un administrateur du projet doit activer les dossiers, et les administrateurs et les éditeurs peuvent les créer et les gérer. Les dossiers sont en version bêta et ne sont pas encore pris en charge pour une utilisation dans les environnements de production. Pour plus d'informations, voir Organisation des actifs avec des dossiers (bêta).
Semaine se terminant le 26 avril 2024
Copy link to section
IBM watsonx.ai est disponible dans la région de Londres
Copy link to section
25 avril 2023
Watsonx.ai est désormais disponible dans le centre de données de Londres et ce dernier peut être sélectionné comme région préférée lors de l'inscription.
Les modèles de fondation qui sont entièrement pris en charge à Dallas sont également disponibles pour l'inférence dans le centre de données de Londres à partir du Prompt Lab ou en utilisant l'API. Les exceptions sont le modèle de fondation de l' mt0-xxl-13b, et le modèle de fondation de l' llama-2-70b-chat, qui est remplacé par le modèle de fondation de l' llama-3-70b-instruct, désormais disponible.
Optimisez les trois modèles de base optimisables à partir de Tuning Studio ou à l'aide de l'API.
Les deux modèles d'imbrication IBM et l'API d'imbrication sont pris en charge.
Démarrer un chat dans Prompt Lab directement à partir de la page d'accueil
Copy link to section
25 avril 2023
Vous pouvez désormais engager une conversation avec un modèle de fondation depuis la page d'accueil de l' IBM watsonx.ai. Saisissez une question à envoyer à un modèle de base en mode conversation ou cliquez sur Ouvrir l' Prompt Lab pour choisir un modèle de base et des paramètres de modèle avant de soumettre l'entrée du modèle.
Semaine se terminant le 19 avril 2024
Copy link to section
Les nouveaux modèles de fondations Meta Llama 3 sont maintenant disponibles
Copy link to section
18 avril 2024
Les modèles de fondation Llama 3 suivants, fournis par Meta, sont disponibles pour l'inférence à partir de watsonx.ai:
llama-3-8b-instruct
llama-3-70b-instruct
Les nouveaux modèles de base Llama 3 sont des modèles de langage affinés d'instructions qui peuvent prendre en charge divers cas d'utilisation.
Cette dernière version de Llama est entraînée avec plus de jetons et applique de nouvelles procédures post-entraînement. Il en résulte des modèles de base avec de meilleures capacités de compréhension du langage, de raisonnement, de génération de code et de suivi d'instruction.
Présentation de la prise en charge de l'intégration d' IBM pour la mise en correspondance et l'extraction de texte améliorées
Copy link to section
18 avril 2024
Vous pouvez désormais utiliser l'API d'imbrication IBM et les modèles d'imbrication IBM pour transformer du texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.
Les modèles d'imbrication IBM Slate suivants sont disponibles:
IBM watsonx.governance est inclus lorsque vous vous inscrivez à IBM watsonx.ai
Copy link to section
18 avril 2024
Si vous vous inscrivez à watsonx.ai dans la région de Dallas, watsonx.governance est désormais inclus automatiquement. Voir Inscription à IBM watsonx as a Service.
Evaluer les déploiements d'apprentissage automatique dans les espaces
Copy link to section
18 avril 2024
Configurez les évaluations watsonx.governance dans vos espaces de déploiement pour obtenir des informations sur les performances de votre modèle d'apprentissage automatique. Par exemple, évaluez un déploiement pour le biais ou surveillez un déploiement pour la dérive. Lorsque vous configurez des évaluations, vous pouvez analyser les résultats d'évaluation et modéliser les enregistrements de transaction directement dans vos espaces.
Un modèle de base en coréen est disponible dans la région de Tokyo
Copy link to section
18 avril 2024
Le modèle de fondation d'entreprise ( llama2-13b-dpo-v7 ) fourni par Minds & Company et basé sur le modèle de fondation d'entreprise ( Llama 2 ) de Meta est disponible dans la région de Tokyo.
Le modèle de la fondation « llama2-13b-dpo-v7 » est spécialisé dans les tâches conversationnelles en coréen et en anglais. Vous pouvez également utiliser le modèle de base llama2-13b-dpo-v7 pour les tâches générales en langue coréenne.
Un modèle de base d' mixtral-8x7b-instruct-v01 s est disponible pour l'inférence
Copy link to section
18 avril 2024
Le modèle de fondation d' mixtral-8x7b-instruct-v01 s de Mistral AI est disponible pour l'inférence sur watsonx.ai. Le modèle de la fondation mixtral-8x7b-instruct-v01 est un modèle génératif pré-entraîné qui utilise un réseau de mélange d'experts épars pour générer du texte plus efficacement.
Vous pouvez utiliser le modèle mixtral-8x7b-instruct-v01 pour les tâches générales, y compris la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.
Le modèle de fondation de l' mixtral-8x7b-instruct-v01-q, obsolète, sera retiré le 20 juin 2024. Réviser toutes les invites qui utilisent ce modèle de base.
Date d'obsolescence: 19 avril 2024
Date de retrait: 20 juin 2024
Modèle alternatif: mixtral-8x7b-instruct-v01
Les demandes d'inférence soumises au modèle mixtral-8x7b-instruct-v01-q à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 20 juin 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.
Une modification du modèle de fondation de l' granite-20b-multilingual
Copy link to section
18 avril 2024
La dernière version de granite-20b-multilingual est 1.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 1.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible.
granite-13b-instruct-v2, un modèle de fondation à l'écoute
Copy link to section
11 avril 2024
L' Tuning Studio prend désormais en charge le réglage du modèle de fondation d' granite-13b-instruct-v2, en plus des modèles de fondation d' flan-t5-xl-3b et d' llama-2-13b-chat. Pour plus d'informations, voir Réglage d'un modèle de fondation.
Les paramètres de configuration de l'expérience pour le réglage du modèle de base d' granite-13b-instruct-v2 s changent pour appliquer les meilleures valeurs par défaut en fonction de votre tâche. Les instructions d'évaluation de l'optimisation vous aident à analyser les résultats de l'expérimentation et à ajuster les paramètres de configuration de l'expérimentation en fonction de vos résultats. Pour plus d'informations, voir Evaluation des résultats d'une expérimentation d'optimisation.
Un modèle de fondation en langue arabe est disponible dans la région de Francfort
Copy link to section
11 avril 2024
Le modèle de fondation d' jais-13b-chat, fourni par Inception, l'Université Mohamed bin Zayed d'intelligence artificielle et Cerebras Systems, est disponible dans la région de Francfort.
Le modèle de la fondation « jais-13b-chat » est spécialisé dans les tâches conversationnelles en arabe et en anglais. Vous pouvez également utiliser le modèle de base jais-13b-chat pour des tâches générales en langue arabe, y compris la traduction entre l'arabe et l'anglais.
Afficher le texte intégral d'une invite dans Prompt Lab
Copy link to section
11 avril 2024
Vous pouvez désormais consulter le texte complet de l'invite qui sera soumis au modèle de fondation, ce qui est utile lorsque votre invite inclut des variables d'invite ou lorsque vous travaillez en mode structuré ou en mode conversationnel.
Les modèles Granite version 1 obsolètes sont retirés
Copy link to section
11 avril 2024
Les modèles de base suivants sont désormais retirés:
granite-13b-chat-v1
granite-13b-instruct-v1
Modifiez toutes les invites qui utilisent ces modèles de base pour utiliser les modèles de base IBM Granite v2. Pour plus d'informations sur la dépréciation et le retrait des modèles Foundation, voir Cycle de vie des modèles Foundation.
Semaine se terminant le 5 avril 2024
Copy link to section
Utiliser des tableaux croisés dynamiques pour afficher les données agrégées dans les expérimentations Decision Optimization
Copy link to section
5 avril 2024
Vous pouvez désormais utiliser des tableaux croisés dynamiques pour afficher à la fois les données d'entrée et de sortie agrégées dans la vue Visualisation des expérimentations Decision Optimization . Pour plus d'informations, voir Widgets de visualisation dans les expérimentations Decision Optimization.
Nouveau tutoriel et vidéo sur watsonx.ai
Copy link to section
04 avril 2024
Essayez le nouveau tutoriel pour voir comment utiliser watsonx.ai dans un cas d'utilisation de bout en bout, depuis la préparation des données jusqu'à l'ingénierie des messages.
Suivre un cas d'utilisation depuis la préparation des données jusqu'à l'ingénierie rapide.
Utiliser divers outils, tels que des carnets de notes et Prompt Lab. IntermédiaireTous les codes
Semaine se terminant le 15 mars 2024
Copy link to section
L'API watsonx.ai est disponible
Copy link to section
14 mars 2024
L'API watsonx.ai est disponible en version GA. Utilisez l'API watsonx.ai pour utiliser des modèles de base à l'aide d'un programme. Pour plus d'informations, voir la référence de l'API.
La version de l'API est 2024-03-14.
Vous pouvez continuer à utiliser la bibliothèque Python disponible pour utiliser des modèles de base à partir d'un bloc-notes. Pour plus d'informations, voir BibliothèquePython.
De nouveaux modèles de base sont disponibles à Dallas, Francfort et Tokyo
Copy link to section
14 mars 2024
Les modèles de base suivants sont désormais disponibles pour l'inférence à partir de watsonx.ai:
granite-20b-multilingual: Un modèle de base de la famille d' IBM Granite s que vous pouvez utiliser pour diverses tâches génératives en anglais, allemand, espagnol, français et portugais.
codellama-34b-instruct-hf: Un modèle de génération de code programmatique à partir de Code Llama qui est basé sur Llama 2 à partir de Meta. Vous pouvez utiliser codellama-34b-instruct-hf pour créer des invites afin de générer du code basé sur des entrées en langage naturel, et pour compléter et déboguer le code.
Tuning Studio est désormais disponible pour les utilisateurs de plans payants dans la région de Francfort. Tuning Studio vous aide à guider un modèle de fondation pour qu'il renvoie une sortie utile. Vous pouvez accorder les modèles de base de l' flan-t5-xl-3b, ainsi que de l' llama-2-70b-chat, lorsque vous utilisez l' Tuning Studio, à Francfort.
llama-2-13b-chat, modèle de base, ajustement rapide dans la région de Tokyo
Copy link to section
7 mars 2024
L' Tuning Studio, qui soutient désormais l'ajustement du modèle de base de l' llama-2-13b-chat, dans la région de Tokyo. Tout d'abord, l'ingénieur demande le modèle d' llama-2-70b-chat s plus grand dans l' Prompt Lab, afin de trouver des entrées de message efficaces pour votre cas d'utilisation. Puis, réglez la version plus petite du modèle d' Llama 2, afin de générer des résultats comparables, voire meilleurs, avec des invites de type « zéro coup ».
Le modèle de base mixtral-8x7b-instruct-v01-q est reclassé de la classe 2 : Unité d' $0.0018/Resource, à la classe 1 : Unité d' $0.0006/Resource, ce qui rend plus rentable l'exécution de tâches d'inférence sur ce modèle. Le reclassement s'applique à toutes les régions où l' mixtral-8x7b-instruct-v01-q est disponible.
Les cas d'utilisation watsonx sont disponibles pour vous aider à voir comment vous pouvez utiliser nos produits, services et outils:
Cas d'utilisation watsonx.ai : Ce cas d'utilisation décrit comment vous pouvez transformer vos processus métier avec des solutions basées sur l'intelligence artificielle en intégrant l'apprentissage automatique et l'intelligence artificielle générative dans votre infrastructure opérationnelle.
Cas d'utilisation watsonx.governance : Ce cas d'utilisation décrit comment vous pouvez créer des flux de travaux d'intelligence artificielle responsables, transparents et explicables avec un système intégré pour le suivi, la surveillance et le recyclage des modèles d'intelligence artificielle.
Le mode Chat de Prompt Lab est une interface de chat simple qui facilite l'expérimentation des modèles de fondation. Le mode de discussion permet d'augmenter les modes structurés et à structure libre déjà disponibles qui sont utiles lors de la génération d'invites pour des tâches telles que l'extraction, la synthèse et la classification. Utilisez le mode Discussion pour simuler des réponses aux questions ou des interactions conversationnelles pour les cas d'utilisation de l'agent conversationnel et de l'assistant virtuel.
Un modèle Granite en japonais est disponible dans la région de Tokyo
Copy link to section
29 février 2024
Le modèle de fondation d' granite-8b-japanese, fourni par IBM, est disponible sur watsonx.ai dans la région de Tokyo. Le modèle de la fondation « granite-8b-japanese » est basé sur le modèle « IBM Granite » et est entraîné à comprendre et à générer du texte japonais.
Vous pouvez utiliser le modèle de base d' granite-8b-japanese, pour des tâches générales en japonais, telles que la classification, l'extraction, la réponse à des questions, et pour la traduction entre le japonais et l'anglais.
Les modèles Granite-13b sont reclassés de la classe 2: $0.0018/Resource à la classe 1: $0.0006/Resource , ce qui rend plus rentable l'exécution de tâches d'inférence sur ces modèles. Le reclassement s'applique aux modèles suivants dans toutes les régions où ils sont disponibles:
Nouveau raccourci pour commencer à travailler sur des tâches communes
Copy link to section
15 février 2024
Vous pouvez maintenant démarrer une tâche commune dans votre projet en cliquant sur une vignette dans la section Commencer à travailler de l'onglet Présentation . Utilisez ces raccourcis pour commencer à ajouter des collaborateurs et des données, et pour expérimenter et créer des modèles. Cliquez sur Afficher tout pour accéder à une sélection d'outils.
Nouveau modèle de base d' mixtral-8x7b-instruct-v01-q, pour les tâches générales
Copy link to section
15 février 2024
Le modèle de fondation d' mixtral-8x7b-instruct-v01-q s fourni par Mistral AI et quantifié par IBM est disponible sur watsonx.ai. Le modèle de fondation d' mixtral-8x7b-instruct-v01-q s est une version quantifiée du modèle de fondation d' Mixtral 8x7B Instruct s de Mistral AI.
Vous pouvez utiliser ce nouveau modèle pour les tâches générales, notamment la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.
Les modèles suivants sont obsolètes et seront bientôt retirés. Modifier les invites qui utilisent ces modèles de base pour utiliser un autre modèle de base, tel que mixtral-8x7b-instruct-v01-q.
Modèles de base obsolètes
Modèle obsolète
Date d'obsolescence
Date de retrait
Modèle alternatif
gpt-neox-20b
15 février 2024
21 mars 2024
mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2
15 février 2024
21 mars 2024
mixtral-8x7b-instruct-v01-q
starcoder-15.5b
15 février 2024
11 avril 2024
mixtral-8x7b-instruct-v01-q
Les demandes d'inférence qui sont soumises à ces modèles à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. Lorsque la date de retrait est atteinte, les demandes d'API pour l'inférence des modèles ne génèrent pas de sortie.
Une modification du modèle de fondation de l' granite-13b-chat-v2
Copy link to section
15 février 2024
La dernière version de granite-13b-chat-v2 est 2.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 2.0.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible. Pour plus d'informations, voir la section Qu'est-ce que l'alignement de l'IA ? article de blogue d' IBM Research.
Nouveau tutoriel et vidéo watsonx
Copy link to section
15 février 2024
Essayez le nouveau tutoriel watsonx.governance pour apprendre à évaluer un modèle d'apprentissage automatique pour l'équité, l'exactitude, la dérive et l'explicabilité avec Watson OpenScale.
La connexion IBM Cloud Data Engine est obsolète et sera supprimée dans une prochaine version. Pour connaître les dates importantes et les détails, consultez la rubrique " Déclassement du moteur de données".
Nouvel environnement Spark 3.4 pour l'exécution de travaux de flux Data Refinery
Copy link to section
9 février 2024
Lorsque vous sélectionnez un environnement pour un travail de flux Data Refinery , vous pouvez maintenant sélectionner Default Spark 3.4 & R 4.2, qui inclut des améliorations de Spark.
L'environnement Default Spark 3.3 & R 4.2 est obsolète et sera supprimé lors d'une mise à jour ultérieure.
Collection d'exemples renommée en concentrateur de ressources
Copy link to section
2 février 2024
La collection d'exemples est renommée en concentrateur de ressources pour mieux refléter le contenu. Le concentrateur de ressources contient des modèles de base et des exemples de projets, des ensembles de données et des blocs-notes. Voir concentrateur de ressources.
IBM Cloud Databases for DataStax la connexion est interrompue
Copy link to section
2 février 2024
La connexion IBM Cloud Databases for DataStax a été supprimée de IBM watsonx.ai.
La connexion Dremio requiert des mises à jour
Copy link to section
2 février 2024
Auparavant, la connexion Dremio utilisait un pilote JDBC . La connexion utilise désormais un pilote basé sur Arrow Flight.
Action requiseImportant: mettez à jour les propriétés de connexion. Différentes modifications s'appliquent à une connexion pour une instance Dremio Software (sur site) ou une instance Dremio Cloud.
Logiciel Dremio : mettez à jour le numéro de port.
Copy link to section
Le nouveau numéro de port par défaut utilisé par Flight est 32010. Vous pouvez confirmer le numéro de port dans le fichier dremio.conf . Voir Configuration via dremio.conf pour plus d'informations.
En outre, Dremio ne prend plus en charge les connexions avec IBM Cloud Satellite.
Dremio Cloud: mettez à jour la méthode d'authentification et le nom d'hôte.
Copy link to section
Connectez-vous à Dremio et générez un jeton d'accès personnel. Pour plus d'informations, voir les jetons d'accès personnels.
Dans IBM watsonx dans le formulaire Create connection: Dremio , remplacez le type d'authentification par Personal Access Token et ajoutez les informations de jeton. (L'authentification Nom d'utilisateur et mot de passe ne peut plus être utilisée pour se connecter à une instance cloud Dremio .)
Sélectionnez Le port est activé pour SSL.
Si vous utilisez le nom d'hôte par défaut pour une instance Dremio Cloud, vous devez le modifier:
Remplacez sql.dremio.cloud par data.dremio.cloud
Remplacez sql.eu.dremio.cloud par data.eu.dremio.cloud
llama-2-13b-chat, un modèle de fondation à l'écoute
Copy link to section
1er février 2024
L' Tuning Studio, qui permet désormais de régler le modèle de base de l' llama-2-13b-chat. Tout d'abord, l'ingénieur demande le modèle d' llama-2-70b-chat s plus grand dans l' Prompt Lab, afin de trouver des entrées de message efficaces pour votre cas d'utilisation. Puis, réglez la version plus petite du modèle d' Llama 2, afin de générer des résultats comparables, voire meilleurs, avec des invites de type « zéro coup ». L' llama-2-13b-model, qui permet un réglage rapide, est disponible dans la région de Dallas. Pour plus d'informations, voir Tuning Studio.
Semaine se terminant le 26 janvier 2024
Copy link to section
AutoAI prend en charge les données ordonnées pour toutes les expérimentations
Copy link to section
25 janvier 2024
Vous pouvez désormais spécifier des données ordonnées pour toutes les expérimentations AutoAI plutôt que des expérimentations de séries temporelles. Indiquez si vos données d'apprentissage sont classées de manière séquentielle, en fonction d'un index de ligne. Lorsque les données d'entrée sont séquentielles, les performances du modèle sont évaluées sur les enregistrements les plus récents au lieu d'un échantillonnage aléatoire, et les données restantes utilisent les n derniers enregistrements de l'ensemble au lieu de n enregistrements aléatoires. Des données séquentielles sont requises pour les expériences de séries temporelles, mais facultatives pour les expériences de classification et de régression.
Questions & réponses avec accélérateur RAG
Copy link to section
26 janvier 2024
Vous pouvez maintenant implémenter une solution de questions et réponses qui utilise la génération étendue d'extraction en important un exemple de projet. L'exemple de projet contient des blocs-notes et d'autres actifs qui convertissent des documents HTML ou PDF en texte en clair, importent des segments de document dans un index de vecteurs Elasticsearch , déploient une fonction Python qui interroge l'index de vecteurs, extraient les N premiers résultats, exécutent l'inférence LLM pour générer une réponse à la question et recherchent les hallucinations.
Vous pouvez maintenant définir votre interface utilisateur watsonx sur le thème foncé. Cliquez sur votre avatar et sélectionnez Profil et paramètres pour ouvrir votre profil de compte. Ensuite, définissez le bouton de thème foncé sur on. Le thème sombre n'est pas pris en charge dans RStudio et les carnets Jupyter. Pour plus d'informations sur la gestion de votre profil, voir Gestion de vos paramètres.
IBM watsonx.ai est disponible dans la région de Tokyo
Copy link to section
25 janvier 2024
Watsonx.ai est désormais disponible dans le centre de données de Tokyo et peut être sélectionné comme région préférée lors de l'inscription. L'inférence de modèles d' Prompt Lab s et de fondations est prise en charge dans la région de Tokyo pour ces modèles :
elyza-japanese-llama-2-7b-instruct
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
granite-13b-chat-v2
granite-13b-instruct-v2
llama-2-70b-chat
llama-2-13b-chat
Egalement disponible dans la région de Tokyo:
Ajustement rapide du modèle de base de l' flan-t5-xl-3b avec le Tuning Studio
Génération de données tabulaires à l'aide du Synthetic Data Generator à utiliser pour l'entraînement des modèles
Un modèle en japonais Llama 2 est disponible dans la région de Tokyo
Copy link to section
25 janvier 2024
Le modèle de fondation d' elyza-japanese-llama-2-7b-instruct s fourni par ELYZA, Inc est disponible à partir d'instances watsonx.ai dans le centre de données de Tokyo. Le modèle d' elyza-japanese-llama-2-7b-instruct, issu du modèle d' Llama 2, est un modèle de traduction automatique de l' Meta , entraîné pour comprendre et générer du texte japonais.
Vous pouvez utiliser ce nouveau modèle pour des tâches générales. Il fonctionne bien pour la classification et l'extraction en japonais et pour la traduction entre le japonais et l'anglais.
Semaine se terminant le 12 janvier 2024
Copy link to section
La prise en charge du Runtime IBM 22.2 est obsolète dans le Runtime watsonx.ai (anciennement Watson Machine Learning)
Copy link to section
11 janvier 2024
IBM Runtime 22.2 est obsolète et sera supprimé le 11 avril 2024. A partir du 7 mars 2024, vous ne pouvez pas créer de blocs-notes ou d'environnements personnalisés à l'aide des environnements d'exécution 22.2 . En outre, vous ne pouvez pas entraîner de nouveaux modèles avec des spécifications logicielles basées sur l'environnement d'exécution 22.2 . Action requise Mettez à jour vos actifs et vos déploiements pour utiliser IBM Runtime 23.1 avant le 7 mars 2024.
IBM Granite v1 les modèles de fondation sont obsolètes
Copy link to section
11 janvier 2024
Les modèles de fondation IBM Granite 13 milliards de paramètres v1 sont obsolètes et seront retirés le 11 avril 2024. Si vous utilisez la version 1 des modèles, passez à la version 2 des modèles.
Modèles de base IBM obsolètes
Modèle obsolète
Date d'obsolescence
Date de retrait
Modèle alternatif
granite-13b-chat-v1
11 janvier 2024
11 avril 2024
granite-13b-chat-v2
granite-13b-instruct-v1
11 janvier 2024
11 avril 2024
granite-13b-instruct-v2
Les demandes d'inférence qui sont soumises aux modèles version 1 à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 11 avril 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.