Quoi de neuf pour watsonx as a Service sur IBM Cloud?

Dernière mise à jour : 10 avr. 2025
Quoi de neuf pour watsonx as a Service sur IBM Cloud?

Revenez chaque semaine pour découvrir les nouvelles fonctionnalités et les mises à jour de IBM watsonx.ai et IBM watsonx.governance sur IBM Cloud.

Pour plus d'informations sur IBM watsonx.governance sur AWS, voir Qu'y a-t-il de nouveau pour IBM watsonx.governance sur AWS.

Astuce: Parfois, vous devez effectuer une action spécifique après une mise à jour. Pour voir toutes les actions requises, recherchez dans cette page "Action requise".

Semaine se terminant le 11 avril 2025

Travaillez avec les derniers modèles multimodaux Llama 4 de Meta en watsonx.ai

7 avril 2025

Vous pouvez désormais utiliser les derniers modèles de fondation multilingues et multimodaux de Meta Llama 4 dans IBM watsonx.ai. Les modèles de fondation les plus récents de Meta utilisent une architecture de mélange d'experts ( MoE ) qui est plus efficace sur le plan du calcul et utilise moins de ressources pour la formation et l'inférence des modèles. Les modèles sont nativement multimodaux et sont spécialisés dans la compréhension de textes et d'images dans plusieurs langues.

Vous pouvez maintenant déduire les modèles suivants de la série Llama 4 :

  • llama-4-maverick-17b-128e-instruct-fp8
  • llama-4-scout-17b-16e-instruct

Pour plus d'informations sur les nouveaux modèles de lama 4, voir Modèles de fondations pris en charge. Pour plus de détails sur la disponibilité régionale des modèles, voir la disponibilité régionale des services et des caractéristiques sur IBM Cloud.

Semaine se terminant le 04 avril 2025

Ajouter des réponses correctes multiples aux données d'évaluation dans un site AutoAI pour l'expérience RAG

4 avril 2025

Vous pouvez désormais ajouter plusieurs réponses correctes pour chaque question dans une ressource de données d'évaluation. Pour plus d'informations, voir Création d'une expérience AutoAI RAG.

Examiner l'importance de la définition dans une expérience AutoAI for RAG

4 avril 2025

Après avoir réalisé une expérience AutoAI RAG, vous pouvez maintenant examiner l'importance de chaque paramètre pour la création et le classement des motifs optimisés afin de mieux comprendre les évaluations des motifs. Pour plus d'informations, voir Création d'une expérience AutoAI RAG.

Le modèle de base codellama-34b-instruct-hf peut être déployé à la demande

3 avril 2025

Vous pouvez désormais utiliser codellama-34b-instruct-hf comme modèle de base pour le déploiement à la demande. Pour plus d'informations, voir Modèles de base pris en charge.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Personnaliser les paramètres d'extraction pour une expérience AutoAI for RAG

31 mars 2025

Vous pouvez maintenant contrôler les paramètres de récupération des données de l'index vectorisé. Vous pouvez choisir entre la méthode de récupération par fenêtre et la méthode de récupération simple, sélectionner le nombre de morceaux et définir la taille de la fenêtre pour la méthode de récupération par fenêtre. Pour plus d'informations, voir la rubrique Personnalisation des paramètres de AutoAI RAG.

Semaine se terminant le 21 mars 2025

Travailler avec de nouveaux modèles de déploiement à la demande spécialisés pour les langues européennes dans les domaines suivants watsonx.ai

21 mars 2025

Vous pouvez maintenant déduire les modèles de fondation suivants déployés à la demande à partir de IBM watsonx.ai qui sont spécialisés dans 24 langues européennes et 11 langues internationales :

  • eurollm-1-7b-instruct
  • eurollm-9b-instruct

Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge. Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Le modèle de fondation llama-3-2-90b-vision-instruct est désormais disponible dans la région de Francfort

21 mars 2025

Le modèle de fondation llama-3-2-90b-vision-instruct de Meta est disponible dans la région de Francfort.

Pour plus de détails sur la disponibilité régionale des modèles de fondation, voir la disponibilité régionale sur IBM Cloud. Pour plus d'informations sur les modèles de fondations disponibles sur watsonx.ai, voir Modèles de fondations pris en charge.

Faire correspondre la langue d'entrée aux expériences AutoAI

20 mars 2025

AutoAI détecte désormais automatiquement la langue utilisée dans les invites et demande aux modèles de répondre dans la même langue. Les modèles qui ne prennent pas en charge la langue d'entrée sont moins prioritaires dans la recherche du modèle RAG. Vous pouvez désactiver ce paramètre d'expérience si vous souhaitez que AutoAI prenne en compte tous les modèles disponibles et génère des réponses en anglais uniquement. Pour plus d'informations, voir la rubrique Personnalisation des paramètres de AutoAI RAG.

Semaine se terminant le 7 mars 2025

Inference déploie des modèles de base à la demande et personnalisés depuis la région de Francfort

6 mars 2025

Vous disposez désormais de davantage de moyens pour travailler avec les modèles de base des projets hébergés dans le centre de données de Francfort.

  • Télécharger et déployer des modèles de base personnalisés.
  • Choisissez parmi un ensemble de modèles de base populaires à déployer sur du matériel dédié à l'usage exclusif de votre organisation.

Pour en savoir plus, consultez les ressources suivantes :

Travailler avec de nouveaux modèles de déploiement à la demande watsonx.ai

5 mars 2025

Vous pouvez maintenant déduire les modèles de base de déploiement à la demande suivants à partir de IBM watsonx.ai:

  • granite-8b-japanese
  • granite-20b-multilingual
  • allam-1-13b-instruct

Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge. Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Des extraits de code sont désormais disponibles dans les expériences d' Decision Optimization

5 mars 2025

Lors de la construction de modèles d' Decision Optimization s dans l'interface utilisateur de l'expérience, vous pouvez désormais utiliser des extraits de code pour les modèles d' Python s DOcplex ou OPL. L'utilisation d'extraits de code peut accélérer la création de modèles, car vous pouvez ajouter et modifier du code sans avoir à saisir toutes les lignes de code depuis le début.

Pour plus d'informations, voir Extraits de code pour la création de modèles.

Semaine se terminant le 28 février 2025

Déployer l' AutoAI, en tant que service d'IA, pour les expériences RAG Chroma

27 février 2025

AutoAI pour les modèles RAG que vous créez à l'aide de la base de données Chroma en mémoire sont désormais déployables en tant que service d'IA. Utilisez cette méthode de déploiement pour enregistrer un modèle RAG en tant que ressource déployable, le promouvoir vers un espace et créer le déploiement en une seule opération. Vous pouvez ensuite tester le modèle RAG et accéder au point final d'inférence.

Pour plus de détails, voir Automatiser un modèle RAG avec AutoAI.

Suppression de Runtime 23.1

27 février 2025

Prise en charge d' IBM Runtime 23.1 dans watsonx.ai Runtime et watsonx.ai Studio seront supprimés le 17 avril 2025. Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à IBM Runtime 24.1

Inférence l' Granite 3.2 Modèles Instruct et Vision dans la région de Dallas

26 février 2025

Le modèle de fondation d' granite-3-2-8b-instruct s est un modèle de raisonnement doté de puissantes capacités telles que la citation de ses sources et la détection des hallucinations. Vous pouvez contrôler si le modèle partage son processus de réflexion dans la sortie afin d'équilibrer performance et transparence. Ce modèle est la version généralement disponible du modèle de base de l'aperçu technique d' granite-3-2-8b-instruct-preview-rc.

Le modèle de fondation d' granite-vision-3-2-2b s est le premier modèle d' Granite s multimodales conçu pour des cas d'utilisation en entreprise. Le modèle de base image-texte est capable d'ingérer des images et du texte pour des tâches telles que la compréhension de tableaux, de diagrammes, de graphiques, etc.

Pour plus d'informations, voir Modèles de base pris en charge.

Dépréciation de la bibliothèque project-lib

24 février 2025

La bibliothèque project-lib est obsolète. À partir de Runtime 25.1, la bibliothèque ne sera plus incluse dans aucune nouvelle version de Runtime. Bien que les versions d'exécution existantes via 24.1 continueront d'inclure la bibliothèque obsolète, envisagez de réécrire votre code pour utiliser la bibliothèque ibm-watson-studio-lib.

Pour savoir comment migrer votre code, consultez :

Semaine se terminant le 21 février 2025

Déployer des modèles de fondations personnalisés avec des spécifications de quincaillerie extra-petites

20 février 2025

Pour économiser les ressources, vous pouvez déployer des modèles de base personnalisés avec des spécifications matérielles très réduites. Utilisez la spécification matérielle gpu_xs pour le paramètre hardware_request lorsque vous déployez votre modèle de base personnalisé avec l'API REST. Pour plus d'informations, voir Création d'un déploiement pour un modèle de base personnalisé.

Le modèle de base de paramètres de l' Granite Code , d'une valeur de 3 milliards, est disponible pour être déployé à la demande

20 février 2025

Le modèle de base d' granite-3b-code-instruct, disponible sur IBM , est disponible en tant que modèle de base déployable à la demande. Pour plus d'informations, voir Modèles de fondations pris en charge.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Semaine se terminant le 14 février 2025

Inference déploie des modèles de base à la demande et personnalisés depuis la région de Toronto

13 février 2025

Vous disposez désormais de davantage de moyens pour travailler avec des modèles de base à partir de projets hébergés dans la région de Toronto.

  • Télécharger et déployer des modèles de base personnalisés.
  • Choisissez parmi un ensemble de modèles de base populaires à déployer sur du matériel dédié à l'usage exclusif de votre organisation.

Pour en savoir plus, consultez les ressources suivantes :

Intégrer un déploiement hébergé existant d' IBM OpenPages avec watsonx.governance

13 février 2024

En plus de l'intégration optionnelle d' watsonx.governance avec la console de gouvernance déployée avec OpenPages as a Service, vous pouvez désormais intégrer watsonx.governance avec un déploiement hébergé d' IBM OpenPages,, que ce soit sur un cloud géré ou un déploiement traditionnel sur site. L'intégration avec une version hébergée d' OpenPages nécessite le plan Essentials pour watsonx.governance.

Déployer des modèles convertis de scikit-learn et XGBoost au format ONNX

13 février 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis du format scikit-learn et XGBoost au format ONNX et utiliser le point de terminaison pour l'inférence. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.

Travailler avec de nouveaux modèles d' Granite Code s de déploiement à la demande watsonx.ai

13 février 2025

Utilisez les modèles de base d' Granite Code s suivants de IBM pour les tâches de codage telles que l'écriture, la conversion et la correction de code de programmation :

  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge. Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Mise à jour des vidéos de formation à l' SPSS Modeler

11 février 2025

Regardez et apprenez à utiliser SPSS Modeler en visionnant les vidéos mises à jour dans les tutoriels d' SPSS Modeler.

Semaine se terminant le 7 février 2025

Découvrez en avant-première le dernier modèle de la fondation d' IBM Granite , dans la région de Dallas

7 février 2025

Essayez dès maintenant un aperçu technique du modèle de fondation de l' granite-3-2-8b-instruct-preview-rc, disponible dans la région de Dallas. Le modèle de prévisualisation 3.2 ( Granite ) ajoute de nouvelles capacités de raisonnement d'une manière novatrice. La fonction de raisonnement est configurable, ce qui signifie que vous pouvez activer le raisonnement uniquement pour les tâches pour lesquelles des informations explicatives sont utiles dans le résultat.

La prévision des données à l'aide des modèles de base des séries temporelles de IBM Granite est maintenant généralement disponible

6 février 2025

Utilisez la méthode de prévision des séries chronologiques de l'API d' watsonx.ai, pour transmettre des observations de données historiques à un modèle de base de séries chronologiques d' IBM Granite , capable de prévoir des valeurs futures avec une inférence à coup sûr.

IBM watsonx.ai est disponible dans la région de Toronto

6 février 2025

Watsonx.ai est désormais disponible dans le centre de données de Toronto et cette ville peut être sélectionnée comme région préférée lors de l'inscription. Utilisez un sous-ensemble des modèles de base fournis pour l'inférence et les modèles d'intégration pour générer des intégrations de texte et reclasser des passages.

Pour plus d'informations sur les modèles de fondation et les caractéristiques des produits disponibles dans la région de Toronto, voir Disponibilité régionale des services et des caractéristiques.

Inference déploie des modèles de fondation à la demande et sur mesure dans la région de Sydney

6 février 2025

Vous disposez désormais d'un plus grand nombre de moyens pour travailler avec des modèles de fondation issus de projets hébergés dans la région de Sydney.

  • Télécharger et déployer des modèles de base personnalisés.
  • Choisissez parmi un ensemble de modèles de base populaires à déployer sur du matériel dédié à l'usage exclusif de votre organisation.

Pour en savoir plus, consultez les ressources suivantes :

Mistral Large 2 un modèle de base est disponible pour être déployé à la demande

6 février 2025

Le modèle de base d' mistral-large-instruct-2407, disponible sur Mistral AI , est disponible en tant que modèle de base déployable à la demande. Un tarif horaire supplémentaire est appliqué pour l'accès à ce modèle. Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande, consultez Déploiement de modèles de base à la demande.

Déployer et inférer de nouveaux modèles distillés DeepSeek-R1 à la demande en watsonx.ai

3 février 2025

Vous pouvez désormais déployer à la demande des variantes distillées des modèles DeepSeek-R1 dans watsonx.ai sur IBM Cloud. Les variantes du modèle DeepSeek-R1 distillé sont basées sur des modèles Llama qui sont affinés en utilisant les données d'entraînement générées par le modèle DeepSeek-R1.

Pour plus de détails, voir Modèles de fondation pris en charge .

Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.

L'inventaire par défaut remplace le catalogue des actifs de la plate-forme dans les watsonx.governance

3 février 2025

Un inventaire par défaut est désormais disponible pour stocker les artefacts watsonx.governance, y compris les cas d'utilisation de l'IA, les modèles tiers, les pièces jointes et les rapports. L'inventaire par défaut remplace toute dépendance antérieure à l'égard du catalogue d'accès à la plate-forme ou de IBM Knowledge Catalog pour le stockage des artefacts de gouvernance.

Pour plus d'informations, voir Configuration de l'inventaire par défaut.

Evaluation Studio disponible au centre de données de Sydney

3 février 2025

Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats afin d'identifier les meilleures solutions.

Pour plus d'informations, voir Comparaison des ressources d'IA avec Evaluation Studio.

Semaine se terminant le 31 janvier 2025

Créer et déployer des agents d'intelligence artificielle dans le nouveau laboratoire d'agents (bêta)

30 janvier 2025

Vous pouvez désormais créer et déployer des agents d'intelligence artificielle pour rendre vos applications plus flexibles et dynamiques en utilisant l'interface utilisateur Agent Lab. Vous pouvez configurer l'agent pour qu'il prenne des décisions et exécute des tâches à l'aide d'une structure d'agent, d'un modèle de base et d'outils externes que vous spécifiez dans les paramètres de l'agent.

Pour plus d'informations, voir Agent Lab.

Lorsque vous utilisez l'Agent Lab pour créer vos applications d'IA agentique sur watsonx.ai, vos applications sont déployées en tant que services d'IA. Vous pouvez choisir de déployer votre solution directement à partir de l'interface utilisateur ou d'exporter votre solution dans un carnet de notes modifiable à l'adresse Python qui déploie le service d'IA.

Pour plus d'informations, voir Déploiement des services AI.

Un nouveau modèle de base d' Mistral Large 2 s puissant est disponible pour être déployé à la demande

30 janvier 2025

Déployer le modèle de base d' mistral-large-instruct-2411, disponible sur Mistral AI , sur du matériel dédié à l'usage exclusif de votre organisation. Ce dernier modèle de base améliore le modèle de base d' Mistral-Large-Instruct-2407, en ajoutant une meilleure gestion des contextes d'invites longs, le suivi des instructions d'invite du système et l'appel de fonctions.

Contrairement aux autres modèles de déploiement de la fondation à la demande, l'accès au modèle hébergé de la fondation de l' mistral-large-instruct-2411 s est soumis à des frais horaires supplémentaires. Pour plus d'informations sur la tarification, voir Modèles de fondation pris en charge.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.

Inférence le modèle de fondation Mistral Small 3 dans la région de Francfort

30 janvier 2025

Le modèle de fondation d' mistral-small-24b-instruct-2501, disponible sur Mistral AI , est hébergé sur du matériel mutualisé et prêt à l'emploi. Le modèle de base Mistral Small 3 est un excellent choix pour les flux de travail de chat grâce à ces caractéristiques :

  • Capacités agentiques avec appel de fonctions natives et génération de sorties JSON.
  • Des capacités de conversation et de raisonnement à la pointe de la technologie.
  • Il respecte et soutient fermement les instructions du système.
  • Prend en charge des dizaines de langues, dont l'anglais, le français, l'allemand, l'espagnol, l'italien, le chinois, le japonais, le coréen, le portugais, le néerlandais et le polonais.

Pour plus d'informations, voir Modèles de base pris en charge.

Déploiement et inférence DeepSeek-R1 modèles distillés avec watsonx.ai

29 janvier 2025

Vous pouvez désormais utiliser les variantes distillées de DeepSeek-R1, un puissant modèle de raisonnement open-source, pour déployer et inférer en toute sécurité des modèles DeepSeek-R1 avec watsonx.ai sur IBM Cloud, ce qui permet aux développeurs d'accélérer le développement de solutions basées sur l'IA. DeepSeek-R1 peut être déployé en tant que modèle de base personnalisé avec watsonx.ai.

Pour plus d'informations, voir Déploiement de modèles de fondation personnalisés.

Prix inférieur pour l'inférence de l' Llama 3.3 70b Instruct fondation modèle

29 janvier 2025

Le prix de l'inférence du modèle de fondation d' llama-3-3-70b-instruct, à partir d' Meta , est passé de 1 000 $ à 1 000 $ ( 0.0018 s à 0.00071 s de dollars) par 1 000 jetons. Le changement de prix s'applique à toutes les régions où le modèle Foundation est disponible.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 24 janvier 2025

Disponibilité générale de AutoAI pour les expériences RAG

23 janvier 2025

AutoAI pour RAG est désormais entièrement pris en charge pour automatiser la recherche d'un modèle de génération optimisé pour vos applications. Cette mise à jour comprend les nouvelles fonctionnalités suivantes :

  • Explorez AutoAI pour RAG à l'aide d'échantillons de données et d'une visite guidée pour apprendre le processus.
  • Si vous créez une expérience à l'aide d'un magasin de vecteurs Milvus, vous pouvez désormais déployer un modèle RAG en tant que service d'IA afin d'accéder au point final à partir d'un espace de déploiement pour l'inférence.

Pour plus de détails, voir Automatiser un modèle RAG avec AutoAI.

L'exécution des expériences RAG sur le site AutoAI entraîne les frais de facturation suivants :

  • Les unités de capacité horaire (CUH) sont facturées pour le temps d'exécution des expériences.
  • Unité de ressources (UR) facturée pour tous les appels à l'intégration et à l'inférence de modèles d'IA générative effectués au cours de l'expérience. Une unité de ressources (UR) équivaut à 1 000 jetons.

Pour plus d'informations sur les plans et la facturation, voir watsonx.ai Runtime plans.

Déployer des services d'IA avec CPDCTL

23 janvier 2024

Vous pouvez désormais utiliser l'interface de ligne de commande Cloud Pak for Data (CPDCTL) pour déployer vos solutions d'IA générative avec des services d'IA de manière programmatique. CPDCTL est un outil de ligne de commande permettant de déployer et de gérer des services d'IA sur la plateforme IBM Cloud Pak for Data (CPD). Il offre un moyen simple et rationalisé de déployer des services d'IA, en éliminant la nécessité d'une configuration manuelle et en réduisant le risque d'erreurs.

Pour plus d'informations, voir Déploiement des services AI avec l'interface de ligne de commande Cloud Pak for Data (CPDCTL).

Déployer des services d'IA avec AutoAI pour RAG

23 janvier 2024

Lorsque vous utilisez AutoAI pour créer une solution d'IA générative qui utilise un modèle RAG, vous pouvez désormais déployer votre solution directement à partir du constructeur d'expériences AutoAI en tant que service d'IA. Pour plus d'informations, voir Déployer des services d'IA avec des outils.

Déployer des modèles convertis de CatBoost et LightGBM au format ONNX

23 janvier 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative qui sont convertis de CatBoost et LightGBM au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.

Plusieurs modèles de fondations pour lamas sont désormais disponibles dans d'autres régions

22 janvier 2025

Les modèles de fondations suivants de Meta sont disponibles dans d'autres régions :

  • llama-3-3-70b-instruct: Désormais disponible au départ de Tokyo et de Londres, en plus de Dallas et de Francfort.
  • llama-3-2-11b-vision-instruct: Désormais disponible au départ de Francfort et de Londres, ainsi que de Dallas, Tokyo et Sydney.

Pour plus d'informations sur la disponibilité régionale des modèles de fondation, voir Disponibilité régionale sur IBM Cloud.

Les modèles de fondation Llama 3.1 Instruct 70b et 8b sont obsolètes

22 janvier 2025

Les modèles de base suivants de Meta sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

  • llama-3-1-70b-instruct

    • Date d'obsolescence : 22 janvier 2025
    • Date de retrait : 30 mai 2025
    • Modèle alternatif : llama-3-3-70b-instruct ou llama-3-2-90b-vision-instruct
  • llama-3-1-8b-instruct

    • Date d'obsolescence : 22 janvier 2025
    • Date de retrait : 30 mai 2025
    • Modèle alternatif : llama-3-2-11b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Si vous souhaitez continuer à travailler avec ces modèles de base, vous pouvez les déployer à la demande pour votre usage exclusif. Pour plus d'informations, voir Déployer des modèles de fondation à la demande.

Semaine se terminant le 17 janvier 2025

Utiliser les nouveaux modèles d'intégration IBM Granite dans watsonx.ai

16 janvier 2025

Vous pouvez maintenant utiliser les modèles d'intégration Granite suivants fournis par IBM dans watsonx.ai:

  • granite-embedding-107m-multilingual
  • granite-embedding-278m-multilingual

Utilisez les nouveaux modèles d'intégration pour générer des intégrations de texte de haute qualité pour une entrée sous la forme d'une requête, d'un passage ou d'un document dans plusieurs langues. Pour plus de détails, voir Modèles d'encodeurs pris en charge et Texte de vectorisation.

Une modification a été apportée aux modèles Granite Guardian

16 janvier 2025

Vous pouvez désormais inférer la dernière version des modèles de fondation Granite Guardian d' IBM sur watsonx.ai dans les centres de données de Dallas et de Sydney.

Les dernières versions 3.1 des modèles prennent désormais en charge une longueur de contexte de 128 000 jetons et ont été entraînées avec des données synthétiques supplémentaires afin d'améliorer les performances pour les risques liés à l'hallucination et au jailbreak. Pour plus de détails, voir Modèles de fondation pris en charge .

Les modèles de fondation granite-20b-multilingual et codellama-34b-instruct-hf sont obsolètes

15 janvier 2025

Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

  • granite-20b-multilingual

    • Date de déchéance : 15 janvier 2025
    • Date de retrait : 16 avril 2025
    • Modèle alternatif : granite-3-8b-instruct
  • codellama-34b-instruct-hf

    • Date de déchéance : 15 janvier 2025
    • Date de retrait : 31 mars 2025
    • Modèle alternatif : llama-3-3-70b-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

De nouvelles architectures de modèles sont disponibles pour déployer des modèles de fondation personnalisés

15 janvier 2024

Vous pouvez maintenant déployer des modèles de fondation personnalisés avec les architectures suivantes dans watsonx.ai:

  • exaone
  • gemma
  • gemma2
  • granite
  • mt5
  • nemotron
  • olmo
  • persimmon
  • phi
  • phi3
  • qwen
  • qwen2

Pour plus d'informations, voir Planification du déploiement d'un modèle de base personnalisé.

Fin de la bêta pour les expériences AutoAI RAG le 23 janvier 2025

13 janvier 2025

Après la conclusion de la phase bêta, l'exécution d'expériences AutoAI RAG entraînera des frais de facturation comme suit :

  • Les unités de capacité horaire (CUH) sont facturées pour le temps d'exécution des expériences.
  • Unité de ressources (UR) chargée d'intégrer le document de base et d'inférer les modèles génératifs d'IA. Une unité de ressource (UR) équivaut à 1 000 jetons.

Pour plus d'informations sur les plans et la facturation, voir watsonx.ai Runtime plans.

Semaine se terminant le 20 décembre 2024

Déployer des modèles convertis au format ONNX

20 décembre 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.

Déployer des flux SPSS Modeler multi-sources

20 décembre 2024

Vous pouvez désormais créer des déploiements pour les flux de SPSS Modeler qui utilisent plusieurs flux d'entrée pour fournir des données au modèle. Pour plus d'informations, voir Déployer des flux SPSS Modeler multi-sources.

Semaine se terminant le 13 décembre 2024

Les modifications apportées aux modèles de fondation Granite 3 Instruct sont introduites

13 décembre 2024

Des modifications ont été apportées aux modèles IBM suivants :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Avec les dernières modifications, les modèles de fondation Granite 3.1 Instruct offrent désormais un meilleur support pour les tâches de codage et les fonctions intrinsèques des agents. La longueur de la fenêtre contextuelle prise en charge pour ces modèles de fondation est passée de 4 096 tokens à 131 072 tokens. Bien que les identifiants des modèles Granite Instruct restent les mêmes, les poids des modèles sont mis à jour.

Pour plus d'informations, voir Modèles de base pris en charge.

Solution sans code pour la recherche d'un motif RAG avec AutoAI (beta)

12 décembre 2024

Vous pouvez désormais automatiser la recherche du modèle RAG optimal pour votre cas d'utilisation à partir de l'interface utilisateur de l AutoAI. Chargez la collection de documents et les questions du test, choisissez une base de données vectorielle et lancez l'expérience pour une approche rapide de la recherche d'un motif RAG. Vous pouvez également revoir et modifier les paramètres de configuration de l'expérience. Comparez les modèles générés par l'expérience et enregistrez le meilleur modèle en tant que carnet généré automatiquement ou en tant que carnet enregistré dans votre projet.

Pour plus de détails, voir Automatiser un modèle RAG avec AutoAI.

Déployer des services d'IA avec des modèles

12 décembre 2024

Vous pouvez déployer vos services d'IA en utilisant des modèles prédéfinis. Les modèles de services d'IA constituent un moyen normalisé de déployer des services d'IA en offrant une structure et une configuration prédéfinies pour le déploiement de modèles d'IA. Ces modèles sont des unités de code préconstruites et déployables qui encapsulent la logique de programmation des applications d'IA générative.

Les modèles de services d'IA automatisent des tâches telles que la création de déploiements, la génération de métadonnées et la construction d'extensions, ce qui permet aux développeurs de se concentrer sur la logique de base de leur application. Ils offrent un moyen flexible de déployer des services d'IA, en prenant en charge des entrées multiples et la personnalisation.

Pour plus d'informations, voir Déploiement de services AI à l'aide de modèles.

Le dernier modèle de la fondation Llama est disponible pour être déployé à la demande

12 décembre 2024

Vous pouvez déployer l' Meta Llama 3.3 70B Installez le modèle de base multilingue sur un matériel dédié à l'usage exclusif de votre organisation. Le tout nouveau modèle de base d' Meta , dont les capacités sont similaires à celles du modèle plus grand d' llama-3-405b-instruct, est plus petit et est particulièrement performant en matière de codage, de raisonnement pas à pas et d'appel d'outils. Vous pouvez déployer le modèle complet ( llama-3-3-70b-instruct-hf ) ou une version quantifiée ( llama-3-3-70b-instruct ) qui nécessite moins de ressources pour l'hébergement.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.

Déployer des modèles de fondation à la demande avec la bibliothèque client Python

12 décembre 2024

Vous pouvez désormais déployer vos modèles de fondation à la demande en utilisant la bibliothèque client Python watsonx.ai En utilisant cette approche, vous pouvez accéder aux capacités de ces puissants modèles de fondations sans avoir besoin de ressources informatiques importantes. Les modèles de fondation que vous déployez à la demande sont hébergés dans un espace de déploiement dédié où vous pouvez utiliser ces modèles pour l'inférence.

Pour plus d'informations, voir Déploiement de modèles de fondation à la demande.

Mise à jour des didacticiels de SPSS Modeler

11 décembre 2024

Obtenez une expérience pratique avec SPSS Modeler en essayant les 15 tutoriels SPSS Modeler mis à jour.

Comparaison des ressources d'IA avec Evaluation Studio

12 décembre 2024

Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats afin d'identifier les meilleures solutions.

Pour plus d'informations, voir Comparaison des ressources d'IA avec Evaluation Studio.

Amélioration de la console de gouvernance

12 décembre 2024

Améliorations de la solution watsonx.governance Model Risk Governance

Cette version comprend les améliorations suivantes :

  • Le nouveau modèle de questionnaire d'identification des risques liés à l'intégration d'un modèle d'IA est utilisé au cours du processus d'intégration d'un modèle pour aider à identifier les risques associés à un modèle. Ce modèle de questionnaire est utilisé dans le processus d'intégration du modèle de la fondation.
  • Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation de l'IA est utilisé pour aider à identifier les risques associés aux cas d'utilisation de l'IA. Ce modèle de questionnaire est utilisé dans le processus de révision des cas d'utilisation. Ce nouveau questionnaire est destiné à remplacer le questionnaire d'identification des risques de l'IA
  • Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation et aux modèles d'IA permet d'identifier les risques associés à la combinaison d'un cas d'utilisation et d'un modèle d'IA. Ce modèle de questionnaire est utilisé dans le processus de développement et de documentation des cas d'utilisation.
  • Le processus d'évaluation de l'IA est désormais désactivé par défaut. Il est remplacé par le workflow d'évaluation des questionnaires. Vous pouvez désormais définir des modèles de questionnaire directement dans le flux de travail des cas d'utilisation.
  • Les flux de travail, les vues et les tableaux de bord ont été mis à jour.

Pour plus d'informations, voir Composants de la solution dans la console de gouvernance.

Corrections de bogues et de sécurité

Des corrections de bogues et de sécurité ont été appliquées.

Pour plus d'informations, voir Nouveautés de la version 9.0.0.5

IBM watsonx.governance est disponible dans la région de Sydney

9 décembre 2024

IBM watsonx.governance est désormais disponible dans le centre de données de Sydney. Vous pouvez sélectionner Sydney comme région préférée lors de l'inscription.

Pour plus d'informations sur les caractéristiques des produits disponibles dans la région de Sydney, voir Disponibilité régionale des services et des caractéristiques.

Semaine se terminant le 6 décembre 2024

Déployer des modèles de fondation à la demande dans la région de Dallas

6 décembre 2024

Choisissez parmi une collection de modèles de fondation que vous pouvez déployer sur du matériel dédié à l'usage exclusif de votre organisation. Un déploiement dédié signifie des interactions plus réactives lorsque vous inférez des modèles de fondation. Les modèles de fondation déployés à la demande sont facturés à l'heure. Pour plus d'informations, voir Modèles de fondation pris en charge et Détails de la facturation pour les ressources génératives d'IA.

Pour en savoir plus sur le déploiement d'un modèle de base à la demande à partir du hub de ressources ou de l'API REST, consultez la rubrique Déploiement de modèles de base à la demande.

Inférence le dernier modèle de fondation Llama d' Meta , dans les régions de Dallas et de Francfort

6 décembre 2024

L' Meta Llama 3.3 70B Le modèle de fondation multilingue est disponible pour l'interprétariat dans les régions de Dallas et de Francfort. Le modèle de la fondation llama-3-3-70b-instruct est compétent en matière de codage, de raisonnement pas à pas et d'appel d'outils. Avec des performances qui rivalisent avec celles du modèle d' 405b, la mise à jour du modèle de base d' Llama 3.3 est un excellent choix pour les développeurs. Voir l'annonce sur IBM.

Pour plus d'informations, voir Modèles de base pris en charge.

Examiner les points de référence pour comparer les modèles de fondation

5 décembre 2024

Passez en revue les modèles de base de référence pour connaître les capacités des modèles de base disponibles avant de les essayer. Comparez les performances des différents modèles de fondation pour les tâches les plus importantes dans votre cas d'utilisation. Pour plus d'informations, voir les critères de référence des modèles de fondation.

Les fichiers Microsoft Excel sont obsolètes pour les modèles OPL dans Decision Optimization

5 décembre 2024

Les fichiers Microsoft Excel (.xls et .xlsx) ne sont plus utilisés pour l'entrée et la sortie directes dans les modèles OPL de Decision Optimization. Pour se connecter à des fichiers Excel, utilisez plutôt un connecteur de données. Le connecteur de données transforme votre fichier Excel en fichier .csv. Pour plus d'informations, voir Données référencées.

Nouveaux carnets d'exemples pour le déploiement de modèles convertis au format ONNX

3 décembre 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Voir les exemples de carnets suivants :

Pour plus d'informations, voir les échantillons et les exemples de clients Python dewatsonx.ai Runtime.

Les modèles de fondation llama-3-8b-instruct et llama-3-70b-instruct sont obsolètes

2 décembre 2024

Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

  • llama-3-8b-instruct

    • Date de déchéance : 2 décembre 2024
    • Date de retrait : 3 février 2025
    • Modèle alternatif : llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
  • llama-3-70b-instruct

    • Date de déchéance : 2 décembre 2024
    • Date de retrait : 3 février 2025 (31 mars 2025 à Sydney)
    • Modèle alternatif : llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 29 novembre 2024

Amélioration de la documentation sur les options d'écriture pour Data Refinery

28 novembre 2024

Les options d'écriture et de tableau pour l'exportation des flux de données dépendent de votre connexion. Ces options sont maintenant expliquées afin que vous soyez mieux guidé dans le choix de vos options de table cible. Pour plus d'informations, voir Options de connexion cible pour Data Refinery.

Semaine se terminant le 22 novembre 2024

Le nouveau watsonx Developer Hub pour commencer à coder rapidement

21 octobre 2024

Consultez le nouveau Developer Hub pour trouver tout ce dont vous avez besoin pour coder votre solution d'IA générative :

  • Effectuez votre première requête API pour inférer un modèle de base dans watsonx.ai.
  • Trouvez les modèles de base et les bibliothèques de code appropriés pour vos applications d'IA.
  • Comprendre les capacités de watsonx.ai et copier des extraits de code en Curl, Node.js ou Python.
  • Apprenez à créer des applications et des solutions d'IA générative grâce à des guides détaillés.
  • Rejoignez des communautés pour trouver des ressources, des réponses et vous engager avec d'autres utilisateurs.

Allez au Developer Hub dewatsonx.

Les services composants d'IBM watsonx.ai ont été renommés

21 novembre 2024

Les services suivants ont été renommés :

  • Watson Machine Learning s'appelle désormais watsonx.ai Runtime
  • Watson Studio s'appelle désormais watsonx.ai Studio

Certaines vidéos, certains carnets de notes et certains exemples de code peuvent continuer à faire référence à ces services sous leur ancien nom.

IBM watsonx.ai est disponible dans la région de Sydney

21 novembre 2024

Watsonx.ai est maintenant généralement disponible dans le centre de données de Sydney et Sydney peut être sélectionné comme région préférée lors de l'inscription.

Pour plus d'informations sur les modèles de fondations et les caractéristiques des produits disponibles dans la région de Sydney, voir Disponibilité régionale des services et des caractéristiques.

Utiliser les modèles de base de séries temporelles de IBM Granite et l'API de watsonx.ai pour prévoir les valeurs futures (beta)

21 novembre 2024

Utilisez l'API de séries chronologiques pour transmettre des observations de données historiques à un modèle de base de séries chronologiques d' IBM Granite s capable de prévoir des valeurs futures avec une inférence à coup sûr. La méthode de prévision des séries chronologiques de l'API d' watsonx.ai s est disponible en version bêta. Pour plus d'informations, voir Prévision des valeurs futures des données.

Utiliser les modèles d'intégration de texte watsonx.ai à partir de l'API d'inférence Elasticsearch

21 novembre 2024

La version 8.16.0 de l' Elasticsearch, a ajouté la prise en charge de la création d'un point d'extrémité d'inférence qui utilise un modèle de base d' watsonx.ai s pour les tâches d'intégration de texte.

Pour plus d'informations, voir Vectorisation de texte à l'aide de l'API.

Promouvoir les flux de SPSS Modeler dans les espaces de déploiement

19 novembre 2024

Vous pouvez désormais promouvoir directement les flux SPSS Modeler des projets vers les espaces de déploiement sans avoir à exporter le projet et à l'importer ensuite dans l'espace de déploiement. Pour plus d'informations, voir Promouvoir les flux et les modèles SPSS Modeler.

Semaine se terminant le 15 novembre 2024

Utiliser l'application de chat de démonstration IBM watsonx.ai sans restriction d'essai en reliant les comptes

15 novembre 2024

Vous pouvez désormais utiliser votre compte de démonstration IBM watsonx.ai sans restriction d'utilisation de jetons ou de limite de temps en reliant votre compte de démonstration à votre compte IBM Cloud watsonx.ai payant. Pour plus d'informations, reportez-vous à la section Relier les comptes IBM watsonx.ai demo et watsonx.ai

Le paquetage Node.js watsonx.ai est disponible auprès de LangChain

11 novembre 2024

Le paquetage Node.js s watsonx.ai peut être utilisé à partir de la bibliothèque communautaire JavaScript LangChain. L'intégration prend en charge les fonctions de watsonx.ai telles que l'inférence de modèles de fondation, la génération d'incrustations de texte et la gestion des échanges par chat qui incluent des capacités de conversion d'images en texte et d'appel d'outils. Avec l'intégration LangChain, vous pouvez faire appel à ces fonctionnalités de watsonx.ai en utilisant des interfaces cohérentes qui facilitent le passage d'un fournisseur à l'autre pour comparer les offres et trouver la meilleure solution pour vos besoins.

Pour plus d'informations, voir Node.js SDK.

Les informations d'identification des tâches sont désormais requises pour déployer des ressources et exécuter des tâches à partir d'un espace de déploiement

11 novembre 2024

Pour améliorer la sécurité des tâches de déploiement en cours d'exécution, vous devez saisir vos informations d'identification pour déployer les ressources suivantes à partir d'un espace de déploiement :

  • Modèles d'invite
  • Services d’IA
  • Modèles
  • Fonctions Python
  • Scripts

En outre, vous devez saisir vos informations d'identification pour créer les déploiements suivants à partir de votre espace de déploiement :

  • En ligne
  • Lot

Vous devez également utiliser vos identifiants de tâches pour créer et gérer des tâches de déploiement à partir de votre espace de déploiement.

Pour savoir comment configurer les informations d'identification de votre tâche et générer une clé API, voir Ajout d'informations d'identification de la tâche.

Semaine se terminant le 8 novembre 2024

Déployer des applications d'IA générative avec des services d'IA

7 novembre 2024

Vous pouvez désormais utiliser les services d'IA dans watsonx.ai pour déployer vos applications. Un service d'IA est une unité de code déployable que vous pouvez utiliser pour capturer la logique de vos cas d'utilisation d'IA générative. Alors que les fonctions Python constituent le moyen traditionnel de déployer des ressources d'apprentissage automatique, les services d'IA offrent une option plus souple pour déployer du code pour des applications d'IA générative, telles que la diffusion en continu. Lorsque vos services d'IA sont déployés avec succès, vous pouvez utiliser le point de terminaison pour l'inférence à partir de votre application.

Pour plus d'informations, voir Déploiement des services AI.

Les modèles de fondation granite-13b-chat-v2, llama2-13b-dpo-v7 et mt0-xxl-13b sont obsolètes

4 novembre 2024

Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

granite-13b-chat-v2

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 3 février 2025
  • Modèle alternatif : granite-3-8b-instruct

llama2-13b-dpo-v7

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 4 décembre 2024
  • Modèle alternatif : llama-3-1-8b-instruct

mt0-xxl-13b

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 4 décembre 2024
  • Modèles alternatifs : llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 1er novembre 2024

Le nouveau modèle d'intégration de tiers all-minilm-l6-v2 est disponible dans watsonx.ai

29 octobre 2024

Le modèle d'intégration de texte all-minilm-l6-v2 de la communauté open source du traitement du langage naturel (NLP) et de la vision par ordinateur (CV) est désormais disponible pour une utilisation à partir de la méthode d'intégration de texte de l'API watsonx.ai Utiliser le modèle pour convertir le texte en vecteurs d'intégration de texte qui peuvent être utilisés dans les tâches de recherche et d'extraction de texte. Pour plus de détails sur les modèles, voir les rubriques suivantes :

Prix inférieur pour l'inférence du modèle de base de l' Mistral Large

29 octobre 2024

Le prix des intrants que vous soumettez au modèle de la fondation de l' Mistral Large, est passé de 0.01 s de dollars à 0.003 s de dollars par 1 000 jetons. Le prix de la production générée par le modèle de fondation n'a pas changé; le prix des jetons de production reste de 1 $ ( 0.01 ) pour les jetons d' USD/1,000. Le changement de prix s'applique à toutes les régions où le modèle de base d' mistral-large.

Pour plus d'informations, voir Modèles de base pris en charge.

Déclassement d'IBM Runtime 23.1

28 octobre 2024

IBM Runtime 23.1 est obsolète. À partir du 21 novembre 2024, vous ne pourrez plus créer de nouveaux carnets ou environnements personnalisés en utilisant les runtimes 23.1 Vous ne pouvez pas non plus créer de nouveaux déploiements avec des spécifications logicielles basées sur le runtime 23.1 Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à IBM Runtime 24.1

Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte

28 octobre 2024

La méthode d'extraction de texte est désormais disponible dans l'API REST de watsonx.ai Tirez parti de la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte permet d'extraire du texte à partir de structures documentaires telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. Pour plus d'informations, voir Extraire du texte de documents.

L'API est disponible dans toutes les régions pour les utilisateurs de plans payants. Pour plus de détails sur les tarifs, voir le tableau des tarifs d'extraction du texte du document.

Semaine se terminant le 25 octobre 2024

Comparer les tableaux dans les expériences d'Decision Optimization pour voir les différences entre les scénarios

23 octobre 2024

Vous pouvez désormais comparer les tableaux d'une expérience d'Decision Optimization dans la vue Préparer les données ou Explorer la solution. Cette comparaison peut être utile pour voir les différences de valeur des données entre les scénarios affichés l'un à côté de l'autre. Capture d'écran montrant la comparaison de tableaux dans l'Decision Optimization
Pour plus d'informations, voir Comparer les tables de scénarios.

Les nouveaux modèles Granite 3.0 sont disponibles dans watsonx.ai

21 octobre 2024

Vous pouvez maintenant inférer les modèles de la génération 3.0 Granite Foundation fournis par IBM à partir de watsonx.ai:

  • Modèles Granite Instruct dans toutes les régions : Utilisez les nouveaux modèles linguistiques légers et open-source pour des tâches telles que le résumé, la résolution de problèmes, la traduction de textes, le raisonnement, le codage et les tâches d'appel de fonctions. Fonctionne avec les variantes de modèles suivantes :
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • Les modèles Granite Guardian dans la région de Dallas : Utiliser les nouveaux modèles Granite Guardian, qui sont des modèles Granite Instruct affinés, conçus pour détecter les risques dans les invites et les réponses. Fonctionne avec les variantes de modèles suivantes :
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Pour plus de détails, voir Modèles de fondation pris en charge .

Améliorer les tâches de recherche et d'extraction grâce à l'API de classement des textes

21 octobre 2024

La méthode de classement du texte est généralement disponible dans l'API REST de watsonx.ai Utilisez cette nouvelle méthode de l'API, ainsi que les modèles de base du reranker, tels que le modèle ms-marco-minilm-l-12-v2 nouvellement pris en charge, pour réorganiser un ensemble de passages de documents en fonction de leur similarité avec une requête spécifiée. Le reclassement est un moyen utile d'ajouter de la précision à vos processus de recherche de réponses. Pour plus d'informations, voir Reranking des passages de documents.

Le nouveau modèle Pixtral 12B est disponible dans les régions de Francfort et de Londres

21 octobre 2024

Vous pouvez désormais utiliser le modèle de fondation Pixtral- 12B, de Mistral AI, sur watsonx.ai dans les centres de données de Francfort et de Londres.

Pixtral 12B est un modèle nativement multimodal avec des capacités image-texte et texte-texte qui a été entraîné avec des données d'images et de textes entrelacées. Le modèle de base prend en charge des tailles d'image variables et excelle dans les tâches de suivi d'instructions. Pour plus de détails, voir Modèles de fondation pris en charge .

Semaine se terminant le 18 octobre 2024

La délimitation des ressources du compte est activée par défaut

17 octobre 2024

Le paramètre " Resource scope de votre compte est désormais défini par défaut sur " ON Toutefois, si vous avez précédemment défini la valeur de l'étendue des ressources sur " ON ou " OFF, le paramètre actuel n'est pas modifié.

Lorsque la délimitation des ressources est activée, vous ne pouvez pas accéder aux projets qui ne font pas partie de votre compte IBM Cloud actuellement sélectionné. Si vous appartenez à plusieurs comptes IBM Cloud, il se peut que vous ne voyiez pas tous vos projets listés ensemble. Par exemple, il se peut que vous ne voyiez pas tous vos projets sur la page Tous les projets. Vous devez changer de compte pour voir les projets dans les autres comptes.

Un modèle de fondation Code de l' Granite e est disponible dans la région de Francfort

15 octobre 2024

Le modèle de fondation d' granite-20b-code-instruct, issu de l' IBM, est conçu pour répondre aux instructions liées au codage. Vous pouvez utiliser le modèle de base dans les projets hébergés dans le centre de données de Francfort pour vous aider dans les tâches de codage et pour créer des assistants de codage. Pour plus d'informations sur le modèle, voir Modèles de fondation pris en charge.

Semaine se terminant le 11 octobre 2024

Nouvel avantage lié à l'obtention d'une licence

10 octobre 2024

Vous pouvez désormais apporter votre propre licence (BYOL) pour appliquer les avantages des licences sur site à IBM watsonx.ai et IBM watsonx.governance.

Pour plus d'informations, voir Activation de la licence BYOL (Bring Your Own License) pour SaaS.

Analysez les données textuelles japonaises dans SPSS Modeler avec Text Analytics

9 octobre 2024

Vous pouvez désormais utiliser les nœuds d'analyse de texte dans SPSS Modeler, tels que le nœud d'analyse des liens de texte et le nœud d'exploration de texte, pour analyser les données textuelles écrites en japonais.

Créer des flux de travail conversationnels avec l'API de chat watsonx.ai

8 octobre 2024

Utilisez l'API de chat watsonx.ai pour ajouter à vos applications des capacités d'IA générative, notamment des appels d'agents vers des outils et services tiers.

Pour plus d'informations, consultez les rubriques suivantes :

Nouvelle spécification logicielle pour les modèles de fondation personnalisés

7 octobre 2024

Vous pouvez désormais utiliser une nouvelle spécification logicielle watsonx-cfm-caikit-1.1 avec vos déploiements de modèles de fondations personnalisés. La spécification est basée sur la bibliothèque d' vLLM s et est mieux adaptée aux derniers modèles de grands langages uniquement décodeurs. Pour plus d'informations sur la bibliothèque d' vLLM, voir vLLM Pour plus d'informations sur l'utilisation de la spécification avec un modèle de fondation personnalisé, voir Planification du déploiement d'un modèle de fondation personnalisé.

Les modèles de fondation granite-7b-lab et llama3-llava-next-8b-hf sont obsolètes

7 octobre 2024

Le modèle de fondation de l' granite-7b-lab, obsolète, sera supprimé le 7 janvier 2025. Réviser toutes les invites qui utilisent ce modèle de base.

  • Date de déchéance : 7 octobre 2024
  • Date de retrait : 7 janvier 2025
  • Modèle alternatif : granite-3-8b-instruct

Le modèle de fondation multimodal d' llama3-llava-next-8b-hf, lui aussi obsolète, sera retiré le 7 novembre 2024. Vous pouvez désormais utiliser l'un des nouveaux modèles de vision Llama 3.2 pour les tâches de génération d'images en texte.

  • Date de déchéance : 7 octobre 2024
  • Date de retrait : 7 novembre 2024
  • Modèle alternatif : llama-3-2-11b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 4 octobre 2024

Mise à jour des environnements et des spécifications logicielles

3 octobre 2024

Les bibliothèques Tensorflow et Keras incluses dans IBM Runtime 23.1 sont désormais mises à jour vers leurs nouvelles versions. Cela peut avoir un impact sur la façon dont le code est exécuté dans vos carnets. Pour plus de détails, voir Paquets de bibliothèques inclus dans les programmes d'exécution de 'watsonx.ai Studio (anciennement 'Watson Studio).

Le Runtime 23.1 sera abandonné au profit du Runtime 24.1 d'IBM dans le courant de l'année. Pour éviter des perturbations répétées, nous vous recommandons de passer dès maintenant à IBM Runtime 24.1 et d'utiliser les spécifications logicielles correspondantes pour les déploiements.

Disponibilité du plan watsonx.governance dans la région de Francfort et suppression du plan OpenScale legacy

3 octobre 2024

L'ancien plan watsonx.governance pour provisionner Watson OpenScale dans la région de Francfort est obsolète. IBM Watson OpenScale ne sera plus disponible pour un nouvel abonnement ou pour provisionner de nouvelles instances. Pour les capacités OpenScale, souscrivez au plan Essentials de watsonx.governance, qui est désormais disponible à Francfort et à Dallas.

Remarques :

  • Les instances de plan existantes continueront à fonctionner et seront prises en charge jusqu'à la date de fin de prise en charge, qui reste à déterminer.
  • Les clients existants sur IBM Watson OpenScale peuvent continuer à ouvrir des tickets de support en utilisant IBM Watson OpenScale.

Nouveaux termes de menu pour ouvrir la page des connexions de la plate-forme

3 octobre 2024

Auparavant, le chemin d'accès à la page Connexions de la plate-forme dans le menu de navigation était Données > Connexions de la plate-forme. Le nouveau chemin est Données > Connectivité. La page Connectivité comporte un onglet pour les connexions à la plate-forme.

Semaine se terminant le 27 septembre 2024

Llama 3.2 modèles de fondation, y compris les modèles multimodaux 11B et 90B, sont disponibles

25 septembre 2024

Les modèles de fondation suivants de Meta AI sont désormais disponibles dans la région de Dallas :

Llama 3.2 modèles d'instruction
Des modèles linguistiques polyvalents de grande taille qui prennent en charge de grandes entrées (128 000 tokens de longueur de fenêtre contextuelle) et qui sont suffisamment légers et efficaces, avec des paramètres de taille 1B et 3B, pour être intégrés dans un appareil mobile. Vous pouvez utiliser ces modèles pour créer des agents hautement personnalisés sur l'appareil.
Llama 3.2 modèles de vision
Des modèles affinés, conçus pour des cas d'utilisation avec entrée d'image et sortie de texte, tels que la compréhension au niveau du document, l'interprétation de tableaux et de graphiques, et le sous-titrage d'images.
Modèle de vision du garde-lama
Modèle de garde-corps puissant conçu pour filtrer les contenus nuisibles.

Pour plus d'informations, voir Modèles de base pris en charge.

Amélioration de la console de gouvernance

25 septembre 2024

Cette version comprend des améliorations et des corrections de bugs.

Onglets personnalisés sur le tableau de bord

Le tableau de bord peut désormais contenir jusqu'à trois onglets personnalisés.

Graphiques à barres empilées

Vous pouvez désormais configurer un diagramme à barres empilées sur le tableau de bord et dans le View Designer.

Utilisation d'expressions pour définir les valeurs d'un champ en fonction des réponses d'un répondant à un questionnaire

Vous pouvez maintenant saisir une expression pour la valeur d'un champ. Par exemple, vous pouvez saisir [$TODAY$] pour la date du jour, [$END_USER$] pour le nom de l'utilisateur connecté, ou [$System Fields:Description$] pour définir le champ sur la valeur du champ Description de l'objet.

Améliorations de la solution watsonx.governance Model Risk Governance

Cette version comprend les améliorations suivantes :

  • Le nouveau type d'objet Groupe de modèles permet de regrouper des modèles similaires. Par exemple, les versions d'un modèle qui utilisent une approche similaire pour résoudre un problème commercial peuvent faire partie d'un groupe de modèles.
  • Le nouveau calcul de notation du risque des cas d'utilisation regroupe les mesures par état de violation en notes de risque pour donner une vue d'ensemble de la performance des modèles sous-jacents d'un cas d'utilisation.
  • La nouvelle entité commerciale Bibliothèque d'IA découverte fournit un emplacement par défaut pour stocker tous les déploiements d'IA qui ne suivent pas les pratiques de gouvernance sanctionnées au sein d'une organisation (également connue sous le nom d'"IA fantôme").
  • Les flux de travail, les vues et les tableaux de bord ont été mis à jour.

Pour plus d'informations, voir Composants de la solution dans la console de gouvernance.

Corrections de bogues et de sécurité

Des corrections de bogues et de sécurité ont été appliquées.

Pour plus d'informations, voir Nouvelles fonctionnalités dans 9.0.0.4.

Automatiser les modèles RAG avec AutoAI SDK (beta)

23 septembre 2024

Utilisez le AutoAI Python SDK pour automatiser et accélérer la conception et le déploiement d'un modèle RAG (Retrieval-augmented generation) optimisé, basé sur vos données et votre cas d'utilisation. RAG comporte de nombreux paramètres de configuration, notamment le choix d'un grand modèle linguistique, la manière de découper les documents de base et le nombre de documents à extraire. AutoAI automatise l'exploration et l'évaluation complètes d'un ensemble contraint d'options de configuration et produit un ensemble de pipelines de modèles classés en fonction de leur performance par rapport à la métrique d'optimisation.

Note: Bien que cette fonctionnalité soit en version bêta, l'expérience est gratuite et aucun jeton n'est consommé. Toutefois, les appels aux modèles RAG et à leurs dérivés effectués après la fin de l'expérience consomment des ressources et entraînent des frais de facturation aux taux standard.

Voir Automatisation d'un modèle RAG avec le AutoAI SDK(Beta) pour plus de détails sur la fonctionnalité et les notes d'utilisation pour coder une expérience RAG AutoAI.

Suppression de la durée d'exécution de Spark 3.3

23 septembre 2024

La prise en charge du runtime Spark 3.3 dans IBM Analytics Engine sera supprimée d'ici le 29 octobre 2024 et la version par défaut sera remplacée par le runtime Spark 3.4. Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à Spark 3.4.

À partir du 29 octobre 2024, vous ne pourrez plus créer ou exécuter des notebooks ou des environnements personnalisés en utilisant des runtimes Spark 3.3. De plus, vous ne pouvez pas créer ou exécuter des déploiements avec des spécifications logicielles basées sur le runtime Spark 3.3.

Semaine se terminant le 20 septembre 2024

Inférence d'un modèle de base multimodal à partir de la Prompt Lab

19 septembre 2024

Vous pouvez désormais ajouter une image dans l Prompt Lab, puis discuter de cette image en activant un modèle de base multimodal en mode chat. En plus des documents de référence, vous pouvez désormais télécharger des images et demander à un modèle de base prenant en charge les tâches de conversion d'images en texte de vous fournir des informations sur le contenu visuel de l'image. Pour plus d'informations, voir Chatter avec des documents et des images.

Le nouveau modèle llama3-llava-next-8b-hf est disponible dans la région de Dallas

19 septembre 2024

Vous pouvez désormais utiliser le nouveau modèle de base multimodal d' llama3-llava-next-8b-hf, disponible sur IBM watsonx.ai, pour faciliter les tâches de conversion d'images en texte.

Large Language and Vision Assistant (LLaVa) associe un modèle de langage large pré-entraîné à un encodeur de vision pré-entraîné pour les cas d'utilisation des chatbots multimodaux. LLaVA NeXT Llama3 est entraîné sur des données d'images et de textes plus diversifiées et de haute qualité. Pour plus de détails, voir Modèles de fondation pris en charge .

Utilisez le watsonx.ai Node.js SDK pour coder des applications d'IA générative

18 septembre 2024

Inférence et réglage des modèles de fondation dans IBM watsonx as a Service de manière programmatique en utilisant le package watsonx.ai Node.js. Pour plus d'informations, voir Node.js SDK.

Comprendre les politiques d'indemnisation de la propriété intellectuelle pour les modèles de fondation

18 septembre 2024

Vous pouvez maintenant mieux comprendre la politique d'indemnisation de la propriété intellectuelle d'IBM et voir quels modèles de fondation ont une couverture d'indemnisation de la propriété intellectuelle dans watsonx.ai. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle.

Semaine se terminant le 13 septembre 2024

Créer des jobs batch pour les flux d' SPSS Modeler s dans l'espace de déploiement

10 septembre 2024

Vous pouvez désormais créer des travaux par lots pour les flux SPSS Modeler dans les espaces de déploiement. Les flux vous permettent de décider des nœuds terminaux à exécuter chaque fois que vous créez un travail par lots à partir d'un flux. Lorsque vous planifiez des travaux par lots pour des flux, le travail par lots utilise les sources de données et les cibles de sortie que vous avez spécifiées dans votre flux. Le mappage de ces sources de données et de ces sorties est automatique si les sources de données et les cibles se trouvent également dans votre espace de déploiement. Pour plus d'informations sur la création de travaux par lots à partir de flux, voir Création de travaux de déploiement pour les flux SPSS Modeler.

Pour plus d'informations sur les flux et les modèles dans les espaces de déploiement, voir Déploiement des flux et des modèles SPSS Modeler.

Semaine se terminant le 6 septembre 2024

Apportez votre propre modèle de base pour l'inférence de watsonx.ai dans la région de Dallas

3 septembre 2024

En plus de travailler avec des modèles de base créés par IBM, vous pouvez maintenant télécharger et déployer vos propres modèles de base. Une fois les modèles déployés et enregistrés auprès de watsonx.ai, créez des invites qui infèrent les modèles personnalisés de manière programmatique ou à partir du Prompt Lab Cette fonction n'est disponible que dans la région de Dallas.

Pour en savoir plus sur le téléchargement de modèles de base personnalisés, voir Déploiement de modèles de base personnalisés. Pour obtenir des informations sur les plans et les détails de facturation pour les modèles de fondation personnalisés, voir les plans d'exécutionwatsonx.ai

Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte des documents

3 septembre 2024

Appliquez la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte de document permet d'extraire du texte à partir de structures de document telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. La méthode d'extraction de texte de l'API REST watsonx.ai est une fonctionnalité bêta.

Pour plus d'informations, voir Extraire du texte de documents.

Granite Les modifications et mises à jour du modèle de base du code sont disponibles

3 septembre 2024

Le modèle de fondation de l' granite-20b-code-instruct, a été modifié en version 1.1.0. La dernière modification est entraînée sur un mélange de données de haute qualité provenant des domaines du code et du langage naturel afin d'améliorer les capacités de raisonnement et de suivi des instructions du modèle.

Les modèles de fondation suivants ont été mis à jour afin d'augmenter la taille de la fenêtre contextuelle prise en charge (entrée + sortie) pour les invites de 8192 à 128 000 :

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 30 août 2024

Les modèles llama-2-13b-chat et llama-2-70b-chat sont obsolètes

26 août 2024

Les modèles de fondation llama-2-13b-chat et llama-2-70b-chat sont obsolètes et seront retirés le 25 septembre 2024. Révisez tous les messages-guides qui utilisent ces modèles de base.

llama-2-13b-chat
  • Date de déchéance : 26 août 2024
  • Date de retrait : 25 septembre 2024
  • Modèle alternatif : llama-3.1-8b-instruct
llama-2-70b-chat
  • Date de déchéance : 26 août 2024
  • Date de retrait : 25 septembre 2024
  • Modèle alternatif : llama-3.1-70b-instruct

Les demandes d'inférence soumises aux modèles llama-2-13b-chat et llama-2-70b-chat à l'aide de l'API continuent de générer des résultats, mais incluent un message d'avertissement concernant le retrait prochain du modèle. À partir du 25 septembre 2024, les demandes d'API pour l'inférence des modèles ne produiront pas de résultats.

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation.

Semaine se terminant le 23 août 2024

Ajouter des groupes d'utilisateurs comme collaborateurs dans les projets et les espaces

22 août 2024

Vous pouvez désormais ajouter des groupes d'utilisateurs dans les projets et les espaces si votre compte IBM Cloud contient des groupes d'accès IAM. Votre IBM Cloud peut créer des groupes d'accès, qui sont ensuite disponibles en tant que groupes d'utilisateurs dans les projets. Pour plus d'informations, voir Travail avec les groupes d'accès IAM.

Fin de la prise en charge de la fonction de prédiction des anomalies pour les expériences de séries temporelles de AutoAI

19 août 2024

La fonction de prédiction des anomalies (outliers) dans les prédictions des modèles de séries temporelles de AutoAI, actuellement en version bêta, est obsolète et sera supprimée le 23 septembre 2024.... Les expériences de séries temporelles standard AutoAI sont toujours entièrement prises en charge. Pour plus de détails, voir Construction d'une expérience de série temporelle.

Semaine se terminant le 16 août 2024

Les nouveaux modèles d'intégration de l'ardoise de IBM sont disponibles dans toutes les régions

15 août 2024

IBM Les modèles d'intégration d'ardoises permettent aux entreprises de générer des intégrations pour diverses entrées telles que des requêtes, des passages ou des documents. Les nouveaux modèles slate-125m-english-rtrvr-v2 et slate-30m-english-rtrvr-v2 présentent des améliorations significatives par rapport à leurs homologues v1. Si vous utilisez aujourd'hui les modèles slate-125m-english-rtrvr et slate-30m-english-rtrvr, passez aux nouveaux modèles v2 Slate pour profiter des améliorations apportées au modèle.

Pour plus d'informations, voir Modèles de fondations d'encodeurs pris en charge.

Configurer les garde-fous de l'IA pour la saisie utilisateur et la sortie du modèle de base séparément dans Prompt Lab

15 août 2024

Ajustez la sensibilité des garde-fous de l'IA qui détectent et suppriment les contenus préjudiciables lorsque vous expérimentez avec les invites du modèle de base dans Prompt Lab. Vous pouvez définir différents niveaux de sensibilité du filtre pour le texte d'entrée de l'utilisateur et le texte de sortie du modèle, et enregistrer les paramètres efficaces des garde-fous AI dans des modèles d'invite.

Pour plus d'informations, voir Suppression des contenus nuisibles.

Semaine se terminant le 9 août 2024

Sélectionner les données de test des projets pour l'évaluation des modèles d'invite

8 août 2024

Lorsque vous évaluez des modèles d'invite dans des projets, vous pouvez désormais choisir des ressources de projet pour sélectionner des données de test pour les évaluations. Pour plus d'informations, voir Évaluation des modèles d'invite dans les projets.

Le nouveau modèle llama-3-1-70b-instruct est maintenant disponible sur IBM watsonx.ai

7 août 2024

Vous pouvez maintenant utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 70 milliards de paramètres sur IBM watsonx.ai.

Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .

Questions et réponses actualisées avec l'accélérateur RAG

6 août 2024

L'exemple de projet Q&A avec l'accélérateur RAG 1.2 comprend les améliorations suivantes :

  • Obtenez de l'aide pour la phase suivante de votre mise en œuvre de la génération augmentée par récupération (RAG) : recueillir les commentaires des utilisateurs et analyser la qualité des réponses. Comprend des analyses avec détection non supervisée des sujets pour montrer les sujets populaires, la satisfaction de l'utilisateur par rapport aux réponses générées par sujet, et les scores de recherche par sujet.

  • Nouveaux modèles d'invite optimisés pour les modèles de fondation IBM granite-7b-lab et Meta Llama 3.1.

  • Code simplifié qui utilise les utilitaires RAG de la bibliothèque watsonx.ai Python et des filtres de recherche vectorielle ciblés pour effectuer des recherches par produit, par zone, etc.

Voir Q&A avec l'accélérateur RAG.

Note: Si vous ne pouvez pas créer l'exemple de projet, essayez de remplacer le texte du champ de description.

Semaine se terminant le 2 août 2024

Le nouveau modèle llama-3-1-8b-instruct est maintenant disponible sur IBM watsonx.ai

1er août 2024

Vous pouvez maintenant utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 8 milliards de paramètres sur IBM watsonx.ai.

Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .

Associer les espaces de travail aux cas d'utilisation de l'IA

1er août 2024

Le processus de création d'un cas d'utilisation de l'IA est modifié pour mieux correspondre au cycle de vie de l'IA. Après avoir défini les éléments essentiels d'un cas d'utilisation de l'IA, associez des espaces de travail pour organiser les actifs de manière à ce qu'ils s'alignent sur les phases d'une solution d'IA. Par exemple, associer un projet ou un espace aux biens en phase de développement ou de validation, et associer un espace aux biens en phase d'exploitation.

Pour plus de détails, voir Associer des espaces de travail à un cas d'utilisation de l'IA.

Semaine se terminant le 26 juillet 2024

Annonce du soutien à Python 3.11 et R4.3 frameworks et spécifications logicielles sur le runtime 24.1

25 juillet 2024

Vous pouvez désormais utiliser IBM Runtime 24.1, qui inclut les derniers cadres de science des données basés sur Python 3.11 et R 4.3, pour exécuter des carnets Jupyter et des scripts R, et former des modèles. À partir du 29 juillet, vous pourrez également effectuer des déploiements. Mettez à jour vos ressources et vos déploiements pour utiliser les frameworks et les spécifications logicielles IBM Runtime 24.1

Version améliorée de Jupyter Notebook l'éditeur est maintenant disponible

25 juillet 2024

Si vous exécutez votre ordinateur portable dans des environnements basés sur Runtime 24.1, vous pouvez utiliser ces améliorations pour travailler avec votre code :

  • Déboguer automatiquement votre code
  • Générez automatiquement une table des matières pour votre bloc-notes
  • Basculer les numéros de ligne à côté de votre code
  • Réduisez le contenu des cellules et utilisez la vue côte à côte pour le code et la sortie, pour une productivité améliorée

Pour plus d'informations, voir Éditeur de bloc-notes Jupyter.

Modèles d'intégration de transformateur de processeur de langage naturel pris en charge avec Runtime 24.1

25 juillet 2024

Dans le nouveau Runtime 24.1 environnement, vous pouvez désormais utiliser des modèles d'intégration de transformateur de traitement du langage naturel (NLP) pour créer des intégrations de texte qui capturent le sens d'une phrase ou d'un passage afin de faciliter les tâches de génération augmentée par récupération. Pour plus d'informations, voir Intégrations.

De nouveaux modèles PNL spécialisés sont disponibles dans Runtime 24.1

25 juillet 2024

Les nouveaux modèles PNL spécialisés suivants sont désormais inclus dans le Runtime 24.1 environnement:

Extrayez des informations détaillées à partir de grandes collections de textes à l'aide de la synthèse des points clés

25 juillet 2024

Vous pouvez désormais utiliser la synthèse de points clés dans les carnets de notes pour extraire des informations détaillées et exploitables à partir de vastes collections de textes représentant les opinions des personnes (telles que des évaluations de produits, des réponses à des enquêtes ou des commentaires sur les médias sociaux). Le résultat est livré de manière organisée, hiérarchique et facile à traiter. Pour plus d'informations, voir Résumé des points clés

Mise à jour de la version de RStudio

25 juillet 2024

Afin d'offrir une expérience utilisateur cohérente dans les clouds privés et publics, l'IDE RStudio pour IBM watsonx sera mis à jour vers RStudio Server 2024.04.1 et R 4.3.1 le 29 juillet 2024. La nouvelle version de RStudio apporte un certain nombre d'améliorations et de correctifs de sécurité. Voir les notes de mise à jour de RStudio Server 2024.04.1 pour plus d'informations. Bien qu'aucun problème de compatibilité majeur ne soit prévu, les utilisateurs doivent être conscients des changements de version de certains packages décrits dans le tableau ci-dessous.

Lorsque vous lancez l'IDE RStudio à partir d'un projet après la mise à jour, réinitialisez l'espace de travail RStudio pour vous assurer que le chemin de la bibliothèque pour les paquets R 4.3.1 est pris en compte par le serveur RStudio.

Une nouvelle version du modèle Mistral Large est désormais disponible sur IBM watsonx.ai dans les régions de Dallas, Francfort et Londres

24 juillet 2024

Vous pouvez désormais utiliser le modèle de fondation d' Mistral Large 2, de Mistral AI, sur IBM watsonx.ai, dans les centres de données de Dallas, Francfort et Londres.

Le modèle Mistral Large 2 prend en charge 11 langues et est performant en matière de compréhension de texte, de génération de code et de raisonnement avancé. Pour plus de détails, voir Modèles de fondation pris en charge .

Nouveau llama-3-405b-instruct le modèle est disponible dans la région de Dallas

23 juillet 2024

Vous pouvez désormais utiliser le modèle de base d' llama-3-405b-instruct, disponible sur Meta , sur IBM watsonx.ai, dans le centre de données de Dallas.

Le modèle llama-3-405B-instruct (v3.1) fournit aux entreprises un modèle de langage étendu très performant avec des capacités de raisonnement de premier plan, et il s'agit du plus grand modèle à source ouverte jamais publié à ce jour. Ce modèle de base peut être utilisé pour des tâches de raisonnement multilingues complexes, notamment la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .

Le merlinite-7b le modèle est obsolète

22 juillet 2024

Le modèle de fondation de l' merlinite-7b, obsolète, sera retiré le 22 août 2024. Réviser toutes les invites qui utilisent ce modèle de base.

  • Date de dépréciation : 22 juillet 2024
  • Date de retrait : 22 août 2024
  • Modèle alternatif: mixtral-8x7b-instruct-v01

Les demandes d'inférence soumises au merlinite-7b Le modèle à l'aide de l'API continue de générer une sortie, mais inclut un message d'avertissement concernant le retrait prochain du modèle. À partir du 22 août 2024, les demandes d'API pour l'inférence du modèle ne produiront pas de résultats.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Semaine se terminant le 12 juillet 2024

Le nouveau modèle Mistral Large est disponible dans les régions de Francfort et de Dallas

9 juillet 2024

Vous pouvez désormais utiliser le modèle de fondation d' Mistral Large, développé par Mistral AI, sur IBM watsonx.ai, dans les centres de données de Francfort et de Dallas.

Mistral Large fournit aux entreprises un modèle de langage large très performant avec des capacités de raisonnement de premier plan. Ce modèle de base peut être utilisé pour des tâches de raisonnement multilingues complexes, notamment la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .

Semaine se terminant le 5 juillet 2024

Connecteurs regroupés par type de source de données

5 juillet 2024

Lorsque vous créez une connexion, les connecteurs sont désormais regroupés par type de source de données afin de faciliter leur recherche et leur sélection. Par exemple, le type de source de données MongoDB inclut les connecteurs IBM Cloud Databases for MongoDB et MongoDB.

De plus, un nouveau Récents La catégorie affiche les six derniers connecteurs que vous avez utilisés pour créer une connexion.

Pour les instructions, voir Ajout de connexions aux sources de données dans un projet .

Ajouter des informations contextuelles aux invites du modèle de base dans Prompt Lab

4 juillet 2024

Aidez un modèle de fondation à générer des réponses factuelles et actualisées dans des cas d'utilisation de génération augmentée par recherche (RAG) en ajoutant des informations contextuelles pertinentes à votre invite en tant que données de base. Vous pouvez rapidement télécharger des documents pertinents ou vous connecter à un magasin de vecteurs tiers contenant des données pertinentes. Lorsqu'une nouvelle question est soumise, la question est utilisée pour interroger les données de base sur les faits pertinents. Les meilleurs résultats de recherche ainsi que la question initiale sont soumis comme entrée de modèle pour aider le modèle de la fondation à intégrer des faits pertinents dans sa sortie.

Pour plus d'informations, voir les messages d'invite de la base de référence dans les informations contextuelles.

Modifications àCloud Object Storage Forfaits allégés

1 juillet 2024

À compter du 1er juillet 2024, leCloud Object Storage Plan Lite qui est automatiquement provisionné lorsque vous vous inscrivez pour un essai de 30 jours dewatsonx.ai etwatsonx.governance expire après la fin de l’essai. Vous pouvez mettre à niveau votreCloud Object Storage Lite au forfait Standard avec l'option Free Tier à tout moment pendant la période d'essai de 30 jours.

ExistantCloud Object Storage les instances de service avec des forfaits Lite que vous avez provisionnés avant le 1er juillet 2024 seront conservées jusqu'au 15 décembre 2024. Vous devez mettre à niveau votreCloud Object Storage service à un forfait Standard avant le 15 décembre 2024.

VoirCloud Object Storage plans de services .

Semaine se terminant le 21 juin 2024

Créer des déploiements détachés pour la gouvernance des invites pour les modèles de langage de grande taille (LLM) externes

21 juin 2024

Un modèle d'invite détaché est un nouvel atout pour évaluer un modèle d'invite pour un LLM hébergé par un fournisseur tiers, tel queGoogle Sommet AI,AzureOpenAI, ouAWS Substrat rocheux. L'inférence qui génère la sortie pour le modèle d'invite est effectuée sur le modèle distant, mais vous pouvez évaluer la sortie du modèle d'invite à l'aide des métriques watsonx.governance . Vous pouvez également suivre le déploiement détaché et le modèle d'invite détaché dans un cas d'utilisation d'IA dans le cadre de votre solution de gouvernance.

Pour plus d'informations, voir :

Les données d'identification de tâche seront requises pour les demandes de travail de déploiement

19 juin 2024

Pour améliorer la sécurité de l'exécution des travaux de déploiement, l'utilisateur qui demande le travail doit fournir des données d'identification de tâche sous la forme d'une clé d'API. L'exigence sera appliquée à compter du 15 août 2024. Voir Ajout de données d'identification de tâche pour plus de détails sur la génération de la clé d'API.

Capture d'écran montrant comment créer des données d'identification de tâche à partir du profil et des paramètres

Evaluer les cas d'utilisation pour l'applicabilité de la loi européenne sur l'intelligence artificielle

19 juin 2024

En utilisant la nouvelle évaluation de l'applicabilité de la loi sur l'intelligence artificielle de l'UE, vous pouvez remplir un questionnaire simple pour évaluer vos cas d'utilisation de l'intelligence artificielle et déterminer s'ils entrent dans le champ d'application de la loi sur l'intelligence artificielle de l'UE. L'évaluation peut également vous aider à identifier la catégorie de risque à laquelle vos cas d'utilisation s'alignent: interdite, élevée, limitée ou minimale. Pour plus d'informations, voir Évaluation de l'applicabilité dans Composants de la solution dans la console de gouvernance.

Semaine se terminant le 7 juin 2024

Gérez les activités de risque et de conformité avec la console de gouvernance ( IBM OpenPages)

7 juin 2024

Watsonx.governance prend désormais en charge l'intégration facultative avec la console de gouvernance. Si vous avez installé le module Model Risk Governance de IBM OpenPages, vous pouvez configurer des cas d'utilisation de l'IA pour synchroniser les faits de gouvernance avec la console de gouvernance. À partir de la console de gouvernance, vous pouvez créer des cas d'utilisation, afficher les activités de gouvernance, gérer des tâches et mettre en œuvre des flux de travail dans le cadre de vos processus de gouvernance et de conformité. Pour plus d'informations, voir :

Semaine se terminant le 31 mai 2024

IBM Watson Pipelines est désormais IBM Orchestration Pipelines

30 mai 2024

Le nouveau nom de service reflète les capacités d'orchestration de parties du cycle de vie de l'intelligence artificielle en flux reproductibles.

Etiquetez les projets pour les extraire facilement

31 mai 2024

Vous pouvez désormais affecter des étiquettes à des projets afin de faciliter leur regroupement ou leur extraction. Affectez des balises lorsque vous créez un nouveau projet ou à partir de la liste de tous les projets. Filtrez la liste des projets par étiquette pour extraire un ensemble de projets associé. Pour plus d'informations, voir Création d'un projet.

Se connecter à une nouvelle source de données : Milvus

31 mai 2024

Utilisez la connexion Milvus pour stocker et confirmer l'exactitude de vos identifiants et détails de connexion pour accéder à un magasin de vecteurs Milvus. Pour plus d'informations, voir la connexion Milvus.

Semaine se terminant le 24 mai 2024

Nouveau tutoriel et vidéo

23 mai 2024

Essayez le nouveau tutoriel pour voir comment évaluer un déploiement de modèle à l'aide de la fonctionnalité de Watson OpenScale dans un espace de déploiement.

Tutoriel Descriptif Expertise pour le tutoriel
Evaluer un déploiement dans les espaces Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle dans un espace de déploiement. Configurez les moniteurs et évaluez un modèle dans un espace de déploiement.

Le modèle de fondation d' allam-1-13b-instruct, disponible dans la région de Francfort

21 mai 2024

Le modèle de fondation arabe allam-1-13b-instruct de l'Autorité saoudienne pour les données et l'intelligence artificielle et fourni par IBM est disponible sur watsonx.ai dans le centre de données de Francfort. Vous pouvez utiliser le modèle de base d' allam-1-13b-instruct, qui est destiné à des tâches d'usage général, notamment les questions-réponses, la synthèse, la classification, la génération, l'extraction et la traduction en arabe. Pour plus d'informations, voir Modèles de base pris en charge.

Déployez des actifs d'IA traditionnels et génératifs avec la bibliothèque client watsonx.ai Python

21 mai 2024

La bibliothèque client Watson Machine Learning Python fait désormais partie d'une bibliothèque étendue, la bibliothèque client watsonx.ai Python . Utilisez la bibliothèque watsonx.ai Python pour utiliser l'apprentissage automatique traditionnel et les actifs d'IA générative. La bibliothèque Watson Machine Learning sera conservée mais ne sera pas mise à jour avec les nouvelles fonctions. Pour plus d'informations, voir BibliothèquePython.

Semaine se terminant le 17 mai 2024

Les modèles d'intégration de texte tiers sont disponibles dans watsonx.ai

16 mai 2024

Les modèles d'intégration de texte tiers suivants sont désormais disponibles en plus des modèles IBM Slate pour la mise en correspondance et l'extraction de texte améliorées:

  • all-minilm-l12-v2
  • multilingual-e5-large

Soumettez des phrases ou des passages à l'un des modèles d'imbrication pris en charge à l'aide de la bibliothèque watsonx.ai Python ou de l'API REST pour convertir le texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Pour plus d'informations sur ces modèles, voir Modèles de fondations d'encodeurs pris en charge.

Pour plus d'informations sur la conversion de texte, voir Génération d'imbrication de texte.

Semaine se terminant le 10 mai 2024

De nouveaux modèles de fondations Granite Code sont disponibles dans la région de Dallas

9 mai 2024

Vous pouvez maintenant déduire les modèles suivants de Granite Code Foundation fournis par IBM à partir de watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utiliser les nouveaux modèles de base du code Granite pour les tâches de codage programmatique. Les modèles de base sont affinés sur une combinaison de données d'instruction pour améliorer les capacités de suivi d'instruction, y compris le raisonnement logique et la résolution de problèmes.

Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles de base InstructLab sont disponibles dans watsonx.ai

7 mai 2024

InstructLab est une initiative open source d' Red Hat, et d' IBM, qui fournit une plateforme pour augmenter les capacités d'un modèle de fondation. Les modèles de base suivants soutiennent les connaissances et les compétences qui sont apportées par InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Vous pouvez explorer les contributions de la communauté open source à partir de la page de taxonomie du modèle de fondation.

Pour plus d'informations, voirInstructLab-compatible modèles de fondation .

Semaine se terminant le 3 mai 2024

Organiser les actifs de projet dans des dossiers

2 mai 2024

Vous pouvez maintenant créer des dossiers dans vos projets pour organiser les actifs. Un administrateur du projet doit activer les dossiers, et les administrateurs et les éditeurs peuvent les créer et les gérer. Les dossiers sont en version bêta et ne sont pas encore pris en charge pour une utilisation dans les environnements de production. Pour plus d'informations, voir Organisation des actifs avec des dossiers (bêta).

L'onglet Actifs avec les dossiers

Semaine se terminant le 26 avril 2024

IBM watsonx.ai est disponible dans la région de Londres

25 avril 2023

Watsonx.ai est désormais disponible dans le centre de données de Londres et ce dernier peut être sélectionné comme région préférée lors de l'inscription.

  • Les modèles de fondation qui sont entièrement pris en charge à Dallas sont également disponibles pour l'inférence dans le centre de données de Londres à partir du Prompt Lab ou en utilisant l'API. Les exceptions sont le modèle de fondation de l' mt0-xxl-13b, et le modèle de fondation de l' llama-2-70b-chat, qui est remplacé par le modèle de fondation de l' llama-3-70b-instruct, désormais disponible.
  • Optimisez les trois modèles de base optimisables à partir de Tuning Studio ou à l'aide de l'API.
  • Les deux modèles d'imbrication IBM et l'API d'imbrication sont pris en charge.

Pour plus d'informations, voir Disponibilité régionale des services et des fonctions.

Démarrer un chat dans Prompt Lab directement à partir de la page d'accueil

25 avril 2023

Vous pouvez désormais engager une conversation avec un modèle de fondation depuis la page d'accueil de l' IBM watsonx.ai. Saisissez une question à envoyer à un modèle de base en mode conversation ou cliquez sur Ouvrir l' Prompt Lab pour choisir un modèle de base et des paramètres de modèle avant de soumettre l'entrée du modèle.

Semaine se terminant le 19 avril 2024

Les nouveaux modèles de fondations Meta Llama 3 sont maintenant disponibles

18 avril 2024

Les modèles de fondation Llama 3 suivants, fournis par Meta, sont disponibles pour l'inférence à partir de watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Les nouveaux modèles de base Llama 3 sont des modèles de langage affinés d'instructions qui peuvent prendre en charge divers cas d'utilisation.

Cette dernière version de Llama est entraînée avec plus de jetons et applique de nouvelles procédures post-entraînement. Il en résulte des modèles de base avec de meilleures capacités de compréhension du langage, de raisonnement, de génération de code et de suivi d'instruction.

Pour plus d'informations, voir Modèles de base pris en charge.

Présentation de la prise en charge de l'intégration d' IBM pour la mise en correspondance et l'extraction de texte améliorées

18 avril 2024

Vous pouvez désormais utiliser l'API d'imbrication IBM et les modèles d'imbrication IBM pour transformer du texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Les modèles d'imbrication IBM Slate suivants sont disponibles:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Pour plus d'informations, voir Génération d'imbrication de texte.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

IBM watsonx.governance est inclus lorsque vous vous inscrivez à IBM watsonx.ai

18 avril 2024

Si vous vous inscrivez à watsonx.ai dans la région de Dallas, watsonx.governance est désormais inclus automatiquement. Voir Inscription à IBM watsonx as a Service.

Evaluer les déploiements d'apprentissage automatique dans les espaces

18 avril 2024

Configurez les évaluations watsonx.governance dans vos espaces de déploiement pour obtenir des informations sur les performances de votre modèle d'apprentissage automatique. Par exemple, évaluez un déploiement pour le biais ou surveillez un déploiement pour la dérive. Lorsque vous configurez des évaluations, vous pouvez analyser les résultats d'évaluation et modéliser les enregistrements de transaction directement dans vos espaces.

Pour plus d'informations, voir Evaluation des déploiements dans les espaces.

Un modèle de base en coréen est disponible dans la région de Tokyo

18 avril 2024

Le modèle de fondation d'entreprise ( llama2-13b-dpo-v7 ) fourni par Minds & Company et basé sur le modèle de fondation d'entreprise ( Llama 2 ) de Meta est disponible dans la région de Tokyo.

Le modèle de la fondation « llama2-13b-dpo-v7 » est spécialisé dans les tâches conversationnelles en coréen et en anglais. Vous pouvez également utiliser le modèle de base llama2-13b-dpo-v7 pour les tâches générales en langue coréenne.

Pour plus d'informations, voir Modèles de base pris en charge.

Un modèle de base d' mixtral-8x7b-instruct-v01 s est disponible pour l'inférence

18 avril 2024

Le modèle de fondation d' mixtral-8x7b-instruct-v01 s de Mistral AI est disponible pour l'inférence sur watsonx.ai. Le modèle de la fondation mixtral-8x7b-instruct-v01 est un modèle génératif pré-entraîné qui utilise un réseau de mélange d'experts épars pour générer du texte plus efficacement.

Vous pouvez utiliser le modèle mixtral-8x7b-instruct-v01 pour les tâches générales, y compris la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Le modèle de fondation de l' mixtral-8x7b-instruct-v01-q, obsolète, sera retiré le 20 juin 2024. Réviser toutes les invites qui utilisent ce modèle de base.

  • Date d'obsolescence: 19 avril 2024
  • Date de retrait: 20 juin 2024
  • Modèle alternatif: mixtral-8x7b-instruct-v01

Les demandes d'inférence soumises au modèle mixtral-8x7b-instruct-v01-q à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 20 juin 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du modèle de fondation de l' granite-20b-multilingual

18 avril 2024

La dernière version de granite-20b-multilingual est 1.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 1.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible.

Pour plus d'informations sur ce modèle de fondation, voir Modèles de fondation pris en charge.

Semaine se terminant le 12 avril 2024

granite-13b-instruct-v2, un modèle de fondation à l'écoute

11 avril 2024

L' Tuning Studio prend désormais en charge le réglage du modèle de fondation d' granite-13b-instruct-v2, en plus des modèles de fondation d' flan-t5-xl-3b et d' llama-2-13b-chat. Pour plus d'informations, voir Réglage d'un modèle de fondation.

Les paramètres de configuration de l'expérience pour le réglage du modèle de base d' granite-13b-instruct-v2 s changent pour appliquer les meilleures valeurs par défaut en fonction de votre tâche. Les instructions d'évaluation de l'optimisation vous aident à analyser les résultats de l'expérimentation et à ajuster les paramètres de configuration de l'expérimentation en fonction de vos résultats. Pour plus d'informations, voir Evaluation des résultats d'une expérimentation d'optimisation.

Un modèle de fondation en langue arabe est disponible dans la région de Francfort

11 avril 2024

Le modèle de fondation d' jais-13b-chat, fourni par Inception, l'Université Mohamed bin Zayed d'intelligence artificielle et Cerebras Systems, est disponible dans la région de Francfort.

Le modèle de la fondation « jais-13b-chat » est spécialisé dans les tâches conversationnelles en arabe et en anglais. Vous pouvez également utiliser le modèle de base jais-13b-chat pour des tâches générales en langue arabe, y compris la traduction entre l'arabe et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Afficher le texte intégral d'une invite dans Prompt Lab

11 avril 2024

Vous pouvez désormais consulter le texte complet de l'invite qui sera soumis au modèle de fondation, ce qui est utile lorsque votre invite inclut des variables d'invite ou lorsque vous travaillez en mode structuré ou en mode conversationnel.

Pour plus d'informations, voir Prompt Lab

Les modèles Granite version 1 obsolètes sont retirés

11 avril 2024

Les modèles de base suivants sont désormais retirés:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Modifiez toutes les invites qui utilisent ces modèles de base pour utiliser les modèles de base IBM Granite v2. Pour plus d'informations sur la dépréciation et le retrait des modèles Foundation, voir Cycle de vie des modèles Foundation.

Semaine se terminant le 5 avril 2024

Utiliser des tableaux croisés dynamiques pour afficher les données agrégées dans les expérimentations Decision Optimization

5 avril 2024

Vous pouvez désormais utiliser des tableaux croisés dynamiques pour afficher à la fois les données d'entrée et de sortie agrégées dans la vue Visualisation des expérimentations Decision Optimization . Pour plus d'informations, voir Widgets de visualisation dans les expérimentations Decision Optimization.

Nouveau tutoriel et vidéo sur watsonx.ai

04 avril 2024

Essayez le nouveau tutoriel pour voir comment utiliser watsonx.ai dans un cas d'utilisation de bout en bout, depuis la préparation des données jusqu'à l'ingénierie des messages.

Tutoriel Descriptif Expertise pour le tutoriel
Essayez le cas d'utilisation de bout en bout watsonx.ai Suivre un cas d'utilisation depuis la préparation des données jusqu'à l'ingénierie rapide. Utiliser divers outils, tels que des carnets de notes et Prompt Lab.

Semaine se terminant le 15 mars 2024

L'API watsonx.ai est disponible

14 mars 2024

L'API watsonx.ai est disponible en version GA. Utilisez l'API watsonx.ai pour utiliser des modèles de base à l'aide d'un programme. Pour plus d'informations, voir la référence de l'API.

La version de l'API est 2024-03-14.

Vous pouvez continuer à utiliser la bibliothèque Python disponible pour utiliser des modèles de base à partir d'un bloc-notes. Pour plus d'informations, voir BibliothèquePython.

De nouveaux modèles de base sont disponibles à Dallas, Francfort et Tokyo

14 mars 2024

Les modèles de base suivants sont désormais disponibles pour l'inférence à partir de watsonx.ai:

  • granite-20b-multilingual: Un modèle de base de la famille d' IBM Granite s que vous pouvez utiliser pour diverses tâches génératives en anglais, allemand, espagnol, français et portugais.

  • codellama-34b-instruct-hf: Un modèle de génération de code programmatique à partir de Code Llama qui est basé sur Llama 2 à partir de Meta. Vous pouvez utiliser codellama-34b-instruct-hf pour créer des invites afin de générer du code basé sur des entrées en langage naturel, et pour compléter et déboguer le code.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 8 mars 2024

Tuning Studio est disponible à Francfort

7 mars 2024

Tuning Studio est désormais disponible pour les utilisateurs de plans payants dans la région de Francfort. Tuning Studio vous aide à guider un modèle de fondation pour qu'il renvoie une sortie utile. Vous pouvez accorder les modèles de base de l' flan-t5-xl-3b, ainsi que de l' llama-2-70b-chat, lorsque vous utilisez l' Tuning Studio, à Francfort.

Pour plus d'informations, voir Tuning Studio.

llama-2-13b-chat, modèle de base, ajustement rapide dans la région de Tokyo

7 mars 2024

L' Tuning Studio, qui soutient désormais l'ajustement du modèle de base de l' llama-2-13b-chat, dans la région de Tokyo. Tout d'abord, l'ingénieur demande le modèle d' llama-2-70b-chat s plus grand dans l' Prompt Lab, afin de trouver des entrées de message efficaces pour votre cas d'utilisation. Puis, réglez la version plus petite du modèle d' Llama 2, afin de générer des résultats comparables, voire meilleurs, avec des invites de type « zéro coup ».

Pour plus d'informations, voir Tuning Studio.

Prix inférieur pour le modèle Mixtral8x7b

5 mars 2024

Le modèle de base mixtral-8x7b-instruct-v01-q est reclassé de la classe 2 : Unité d' $0.0018/Resource, à la classe 1 : Unité d' $0.0006/Resource, ce qui rend plus rentable l'exécution de tâches d'inférence sur ce modèle. Le reclassement s'applique à toutes les régions où l' mixtral-8x7b-instruct-v01-q est disponible.

Pour plus d'informations, voir Modèles de base pris en charge.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

L'atlas des risques de l'IA est mis à jour et amélioré

5 mars 2024

Vous pouvez maintenant trouver le contenu nouveau et amélioré suivant dans l'atlas des risques de l'IA:

  • Une nouvelle catégorie de risques non techniques couvrant la gouvernance, la conformité juridique et les risques d'impact sociétal
  • Nouveaux exemples de risques
  • Des définitions plus claires des risques

Voir AI risk atlas.

Nouveaux cas d'utilisation pour watsonx

5 mars 2024

Les cas d'utilisation watsonx sont disponibles pour vous aider à voir comment vous pouvez utiliser nos produits, services et outils:

  • Cas d'utilisation watsonx.ai : Ce cas d'utilisation décrit comment vous pouvez transformer vos processus métier avec des solutions basées sur l'intelligence artificielle en intégrant l'apprentissage automatique et l'intelligence artificielle générative dans votre infrastructure opérationnelle.
  • Cas d'utilisation watsonx.governance : Ce cas d'utilisation décrit comment vous pouvez créer des flux de travaux d'intelligence artificielle responsables, transparents et explicables avec un système intégré pour le suivi, la surveillance et le recyclage des modèles d'intelligence artificielle.

Voir Cas d'utilisation dewatsonx.

Semaine se terminant le 1er mars 2024

Le mode chat est disponible dans Prompt Lab

29 février 2024

Le mode Chat de Prompt Lab est une interface de chat simple qui facilite l'expérimentation des modèles de fondation. Le mode de discussion permet d'augmenter les modes structurés et à structure libre déjà disponibles qui sont utiles lors de la génération d'invites pour des tâches telles que l'extraction, la synthèse et la classification. Utilisez le mode Discussion pour simuler des réponses aux questions ou des interactions conversationnelles pour les cas d'utilisation de l'agent conversationnel et de l'assistant virtuel.

Pour plus d'informations, voir Prompt Lab

Un modèle Granite en japonais est disponible dans la région de Tokyo

29 février 2024

Le modèle de fondation d' granite-8b-japanese, fourni par IBM, est disponible sur watsonx.ai dans la région de Tokyo. Le modèle de la fondation « granite-8b-japanese » est basé sur le modèle « IBM Granite » et est entraîné à comprendre et à générer du texte japonais.

Vous pouvez utiliser le modèle de base d' granite-8b-japanese, pour des tâches générales en japonais, telles que la classification, l'extraction, la réponse à des questions, et pour la traduction entre le japonais et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 23 février 2024

Prix inférieur pour les modèles Granite-13b

21 février 2024

Les modèles Granite-13b sont reclassés de la classe 2: $0.0018/Resource à la classe 1: $0.0006/Resource , ce qui rend plus rentable l'exécution de tâches d'inférence sur ces modèles. Le reclassement s'applique aux modèles suivants dans toutes les régions où ils sont disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Pour plus d'informations sur ces modèles, voir Modèles de base pris en charge.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

Semaine se terminant le 16 février 2024

Nouveau raccourci pour commencer à travailler sur des tâches communes

15 février 2024

Vous pouvez maintenant démarrer une tâche commune dans votre projet en cliquant sur une vignette dans la section Commencer à travailler de l'onglet Présentation . Utilisez ces raccourcis pour commencer à ajouter des collaborateurs et des données, et pour expérimenter et créer des modèles. Cliquez sur Afficher tout pour accéder à une sélection d'outils.

Nouveau modèle de base d' mixtral-8x7b-instruct-v01-q, pour les tâches générales

15 février 2024

Le modèle de fondation d' mixtral-8x7b-instruct-v01-q s fourni par Mistral AI et quantifié par IBM est disponible sur watsonx.ai. Le modèle de fondation d' mixtral-8x7b-instruct-v01-q s est une version quantifiée du modèle de fondation d' Mixtral 8x7B Instruct s de Mistral AI.

Vous pouvez utiliser ce nouveau modèle pour les tâches générales, notamment la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles suivants sont obsolètes et seront bientôt retirés. Modifier les invites qui utilisent ces modèles de base pour utiliser un autre modèle de base, tel que mixtral-8x7b-instruct-v01-q.

Modèles de base obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
gpt-neox-20b 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 février 2024 11 avril 2024 mixtral-8x7b-instruct-v01-q

Les demandes d'inférence qui sont soumises à ces modèles à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. Lorsque la date de retrait est atteinte, les demandes d'API pour l'inférence des modèles ne génèrent pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du modèle de fondation de l' granite-13b-chat-v2

15 février 2024

La dernière version de granite-13b-chat-v2 est 2.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 2.0.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible. Pour plus d'informations, voir la section Qu'est-ce que l'alignement de l'IA ? article de blogue d' IBM Research.

Nouveau tutoriel et vidéo watsonx

15 février 2024

Essayez le nouveau tutoriel watsonx.governance pour apprendre à évaluer un modèle d'apprentissage automatique pour l'équité, l'exactitude, la dérive et l'explicabilité avec Watson OpenScale.

Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Evaluer un modèle d'apprentissage automatique Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle. Exécutez un bloc-notes pour configurer les modèles et utilisez Watson OpenScale pour évaluer.

Semaine se terminant le 09 février 2024

Documentation Decision Optimization plus centrée sur les tâches

9 février 2024

Vous pouvez désormais trouver plus facilement les informations appropriées pour créer et configurer des expérimentations Decision Optimization . Voir ExpériencesDecision Optimization et ses sous-sections.

IBM Cloud Data Engine la connexion est obsolète

8 février 2022

La connexion IBM Cloud Data Engine est obsolète et sera supprimée dans une prochaine version. Pour connaître les dates importantes et les détails, consultez la rubrique " Déclassement du moteur de données".

Nouvel environnement Spark 3.4 pour l'exécution de travaux de flux Data Refinery

9 février 2024

Lorsque vous sélectionnez un environnement pour un travail de flux Data Refinery , vous pouvez maintenant sélectionner Default Spark 3.4 & R 4.2, qui inclut des améliorations de Spark.

Environnements Spark Data Refinery

L'environnement Default Spark 3.3 & R 4.2 est obsolète et sera supprimé lors d'une mise à jour ultérieure.

Mettez à jour vos travaux de flux Data Refinery pour utiliser le nouvel environnement Default Spark 3.4 & R 4.2 . Pour plus de détails, voir Options de ressource de calcul pour Data Refinery dans les projets.

Semaine se terminant le 2 février 2024

Collection d'exemples renommée en concentrateur de ressources

2 février 2024

La collection d'exemples est renommée en concentrateur de ressources pour mieux refléter le contenu. Le concentrateur de ressources contient des modèles de base et des exemples de projets, des ensembles de données et des blocs-notes. Voir concentrateur de ressources.

IBM Cloud Databases for DataStax la connexion est interrompue

2 février 2024

La connexion IBM Cloud Databases for DataStax a été supprimée de IBM watsonx.ai.

La connexion Dremio requiert des mises à jour

2 février 2024

Auparavant, la connexion Dremio utilisait un pilote JDBC . La connexion utilise désormais un pilote basé sur Arrow Flight.

Important: mettez à jour les propriétés de connexion. Différentes modifications s'appliquent à une connexion pour une instance Dremio Software (sur site) ou une instance Dremio Cloud.

Logiciel Dremio : mettez à jour le numéro de port.

Le nouveau numéro de port par défaut utilisé par Flight est 32010. Vous pouvez confirmer le numéro de port dans le fichier dremio.conf . Voir Configuration via dremio.conf pour plus d'informations.

En outre, Dremio ne prend plus en charge les connexions avec IBM Cloud Satellite.

Dremio Cloud: mettez à jour la méthode d'authentification et le nom d'hôte.

  1. Connectez-vous à Dremio et générez un jeton d'accès personnel. Pour plus d'informations, voir les jetons d'accès personnels.
  2. Dans IBM watsonx dans le formulaire Create connection: Dremio , remplacez le type d'authentification par Personal Access Token et ajoutez les informations de jeton. (L'authentification Nom d'utilisateur et mot de passe ne peut plus être utilisée pour se connecter à une instance cloud Dremio .)
  3. Sélectionnez Le port est activé pour SSL.

Si vous utilisez le nom d'hôte par défaut pour une instance Dremio Cloud, vous devez le modifier:

  • Remplacez sql.dremio.cloud par data.dremio.cloud
  • Remplacez sql.eu.dremio.cloud par data.eu.dremio.cloud

llama-2-13b-chat, un modèle de fondation à l'écoute

1er février 2024

L' Tuning Studio, qui permet désormais de régler le modèle de base de l' llama-2-13b-chat. Tout d'abord, l'ingénieur demande le modèle d' llama-2-70b-chat s plus grand dans l' Prompt Lab, afin de trouver des entrées de message efficaces pour votre cas d'utilisation. Puis, réglez la version plus petite du modèle d' Llama 2, afin de générer des résultats comparables, voire meilleurs, avec des invites de type « zéro coup ». L' llama-2-13b-model, qui permet un réglage rapide, est disponible dans la région de Dallas. Pour plus d'informations, voir Tuning Studio.

Semaine se terminant le 26 janvier 2024

AutoAI prend en charge les données ordonnées pour toutes les expérimentations

25 janvier 2024

Vous pouvez désormais spécifier des données ordonnées pour toutes les expérimentations AutoAI plutôt que des expérimentations de séries temporelles. Indiquez si vos données d'apprentissage sont classées de manière séquentielle, en fonction d'un index de ligne. Lorsque les données d'entrée sont séquentielles, les performances du modèle sont évaluées sur les enregistrements les plus récents au lieu d'un échantillonnage aléatoire, et les données restantes utilisent les n derniers enregistrements de l'ensemble au lieu de n enregistrements aléatoires. Des données séquentielles sont requises pour les expériences de séries temporelles, mais facultatives pour les expériences de classification et de régression.

Questions & réponses avec accélérateur RAG

26 janvier 2024

Vous pouvez maintenant implémenter une solution de questions et réponses qui utilise la génération étendue d'extraction en important un exemple de projet. L'exemple de projet contient des blocs-notes et d'autres actifs qui convertissent des documents HTML ou PDF en texte en clair, importent des segments de document dans un index de vecteurs Elasticsearch , déploient une fonction Python qui interroge l'index de vecteurs, extraient les N premiers résultats, exécutent l'inférence LLM pour générer une réponse à la question et recherchent les hallucinations.

Essayez Q & R avec l'accélérateur RAG.

Définir sur le thème foncé

25 janvier 2024

Vous pouvez maintenant définir votre interface utilisateur watsonx sur le thème foncé. Cliquez sur votre avatar et sélectionnez Profil et paramètres pour ouvrir votre profil de compte. Ensuite, définissez le bouton de thème foncé sur on. Le thème sombre n'est pas pris en charge dans RStudio et les carnets Jupyter. Pour plus d'informations sur la gestion de votre profil, voir Gestion de vos paramètres.

IBM watsonx.ai est disponible dans la région de Tokyo

25 janvier 2024

Watsonx.ai est désormais disponible dans le centre de données de Tokyo et peut être sélectionné comme région préférée lors de l'inscription. L'inférence de modèles d' Prompt Lab s et de fondations est prise en charge dans la région de Tokyo pour ces modèles :

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Egalement disponible dans la région de Tokyo:

  • Ajustement rapide du modèle de base de l' flan-t5-xl-3b avec le Tuning Studio
  • Génération de données tabulaires à l'aide du Synthetic Data Generator à utiliser pour l'entraînement des modèles

Pour plus d'informations sur les modèles pris en charge, voir Supported foundation models available with watsonx.ai.

Un modèle en japonais Llama 2 est disponible dans la région de Tokyo

25 janvier 2024

Le modèle de fondation d' elyza-japanese-llama-2-7b-instruct s fourni par ELYZA, Inc est disponible à partir d'instances watsonx.ai dans le centre de données de Tokyo. Le modèle d' elyza-japanese-llama-2-7b-instruct, issu du modèle d' Llama 2, est un modèle de traduction automatique de l' Meta , entraîné pour comprendre et générer du texte japonais.

Vous pouvez utiliser ce nouveau modèle pour des tâches générales. Il fonctionne bien pour la classification et l'extraction en japonais et pour la traduction entre le japonais et l'anglais.

Semaine se terminant le 12 janvier 2024

La prise en charge du Runtime IBM 22.2 est obsolète dans le Runtime watsonx.ai (anciennement Watson Machine Learning)

11 janvier 2024

IBM Runtime 22.2 est obsolète et sera supprimé le 11 avril 2024. A partir du 7 mars 2024, vous ne pouvez pas créer de blocs-notes ou d'environnements personnalisés à l'aide des environnements d'exécution 22.2 . En outre, vous ne pouvez pas entraîner de nouveaux modèles avec des spécifications logicielles basées sur l'environnement d'exécution 22.2 . Mettez à jour vos actifs et vos déploiements pour utiliser IBM Runtime 23.1 avant le 7 mars 2024.

IBM Granite v1 les modèles de fondation sont obsolètes

11 janvier 2024

Les modèles de fondation IBM Granite 13 milliards de paramètres v1 sont obsolètes et seront retirés le 11 avril 2024. Si vous utilisez la version 1 des modèles, passez à la version 2 des modèles.

Modèles de base IBM obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
granite-13b-chat-v1 11 janvier 2024 11 avril 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 janvier 2024 11 avril 2024 granite-13b-instruct-v2

Les demandes d'inférence qui sont soumises aux modèles version 1 à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 11 avril 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur les modèles de fondation IBM Granite, voir les modèles de fondation construits par IBM. Pour plus d'informations sur la dépréciation et le retrait, voir le cycle de vie du modèle Foundation.