0 / 0
Retourner à la version anglaise de la documentation
Nouveautés
Dernière mise à jour : 23 déc. 2024
Nouveautés

Revenez chaque semaine pour découvrir les nouvelles fonctionnalités et les mises à jour de IBM watsonx.ai et IBM watsonx.governance sur IBM Cloud.

Pour plus d'informations sur IBM watsonx.governance sur AWS, voir Qu'y a-t-il de nouveau pour IBM watsonx.governance sur AWS.

Astuce: Parfois, vous devez effectuer une action spécifique après une mise à jour. Pour voir toutes les actions requises, recherchez dans cette page "Action requise".

Semaine se terminant le 20 décembre 2024

Déployer des modèles convertis au format ONNX

20 décembre 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Pour plus d'informations, voir Déployer des modèles convertis au format ONNX.

Déployer des flux SPSS Modeler multi-sources

20 décembre 2024

Vous pouvez désormais créer des déploiements pour les flux de SPSS Modeler qui utilisent plusieurs flux d'entrée pour fournir des données au modèle. Pour plus d'informations, voir Déployer des flux SPSS Modeler multi-sources.

Les modifications apportées aux modèles de fondation Granite 3 Instruct sont introduites

18 décembre 2024

Des modifications ont été apportées aux modèles IBM suivants :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Avec les dernières modifications, les modèles de fondation Granite 3.1 Instruct offrent désormais un meilleur support pour les tâches de codage et les fonctions intrinsèques des agents. La longueur de la fenêtre contextuelle prise en charge pour ces modèles de fondation est passée de 4 096 tokens à 131 072 tokens. Bien que les identifiants des modèles Granite Instruct restent les mêmes, les poids des modèles sont mis à jour.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 13 décembre 2024

Solution sans code pour la recherche d'un motif RAG avec AutoAI (beta)

12 décembre 2024

Vous pouvez désormais automatiser la recherche du modèle RAG optimal pour votre cas d'utilisation à partir de l'interface utilisateur de l AutoAI. Chargez la collection de documents et les questions du test, choisissez une base de données vectorielle et lancez l'expérience pour une approche rapide de la recherche d'un motif RAG. Vous pouvez également revoir et modifier les paramètres de configuration de l'expérience. Comparez les modèles générés par l'expérience et enregistrez le meilleur modèle en tant que carnet généré automatiquement ou en tant que carnet enregistré dans votre projet.

Pour plus de détails, voir Automatiser un modèle RAG avec AutoAI.

Déployer des services d'IA avec des modèles

12 décembre 2024

Vous pouvez déployer vos services d'IA en utilisant des modèles prédéfinis. Les modèles de services d'IA constituent un moyen normalisé de déployer des services d'IA en offrant une structure et une configuration prédéfinies pour le déploiement de modèles d'IA. Ces modèles sont des unités de code préconstruites et déployables qui encapsulent la logique de programmation des applications d'IA générative.

Les modèles de services d'IA automatisent des tâches telles que la création de déploiements, la génération de métadonnées et la construction d'extensions, ce qui permet aux développeurs de se concentrer sur la logique de base de leur application. Ils offrent un moyen flexible de déployer des services d'IA, en prenant en charge des entrées multiples et la personnalisation.

Pour plus d'informations, voir Déploiement de services AI à l'aide de modèles.

Le dernier foundation model Llama est disponible et peut être déployé à la demande

12 décembre 2024

Vous pouvez déployer le foundation model multilingue Meta Llama 3.3 70B Instruct sur du matériel dédié à l'usage exclusif de votre organisation. Le dernier foundation model de Meta possède des capacités similaires à celles du modèle plus grand llama-3-405b-instruct, mais il est plus petit et il est capable de coder, de raisonner étape par étape et d'appeler des outils en particulier. Vous pouvez déployer le modèle complet llama-3-3-70b-instruct-hf ) ou une version quantifiée llama-3-3-70b-instruct ) qui nécessite moins de ressources à héberger.

Pour en savoir plus sur le déploiement d'un foundation model à la demande dans la région de Dallas à partir du concentrateur de ressources ou de l'API REST, voir Déploiement de modèles de fondation à la demande.

Déployer des modèles de fondation à la demande avec la bibliothèque client Python

12 décembre 2024

Vous pouvez désormais déployer vos modèles de fondation à la demande en utilisant la bibliothèque client Python watsonx.ai En utilisant cette approche, vous pouvez accéder aux capacités de ces puissants modèles de fondations sans avoir besoin de ressources informatiques importantes. Les modèles de fondation que vous déployez à la demande sont hébergés dans un espace de déploiement dédié où vous pouvez utiliser ces modèles pour l'inférence.

Pour plus d'informations, voir Déploiement de modèles de fondation à la demande.

Mise à jour des didacticiels de SPSS Modeler

11 décembre 2024

Obtenez une expérience pratique avec SPSS Modeler en essayant les 15 tutoriels SPSS Modeler mis à jour.

Comparaison des ressources d'IA avec Evaluation Studio

12 décembre 2024

Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats afin d'identifier les meilleures solutions.

Pour plus d'informations, voir Comparaison des ressources d'IA avec Evaluation Studio.

Amélioration de la console de gouvernance

12 décembre 2024

Améliorations de la solution watsonx.governance Model Risk Governance

Cette version comprend les améliorations suivantes :

  • Le nouveau modèle de questionnaire d'identification des risques liés à l'intégration d'un modèle d'IA est utilisé au cours du processus d'intégration d'un modèle pour aider à identifier les risques associés à un modèle. Ce modèle de questionnaire est utilisé dans le processus d'intégration du modèle de la fondation.
  • Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation de l'IA est utilisé pour aider à identifier les risques associés aux cas d'utilisation de l'IA. Ce modèle de questionnaire est utilisé dans le processus de révision des cas d'utilisation. Ce nouveau questionnaire est destiné à remplacer le questionnaire d'identification des risques de l'IA
  • Le nouveau modèle de questionnaire d'identification des risques liés aux cas d'utilisation et aux modèles d'IA permet d'identifier les risques associés à la combinaison d'un cas d'utilisation et d'un modèle d'IA. Ce modèle de questionnaire est utilisé dans le processus de développement et de documentation des cas d'utilisation.
  • Le processus d'évaluation de l'IA est désormais désactivé par défaut. Il est remplacé par le workflow d'évaluation des questionnaires. Vous pouvez désormais définir des modèles de questionnaire directement dans le flux de travail des cas d'utilisation.
  • Les flux de travail, les vues et les tableaux de bord ont été mis à jour.

Pour plus d'informations, voir Composants de la solution dans la console de gouvernance.

Corrections de bogues et de sécurité

Des corrections de bogues et de sécurité ont été appliquées.

Pour plus d'informations, voir Nouveautés de la version 9.0.0.5

IBM watsonx.governance est disponible dans la région de Sydney

9 décembre 2024

IBM watsonx.governance est désormais disponible dans le centre de données de Sydney. Vous pouvez sélectionner Sydney comme région préférée lors de l'inscription.

Pour plus d'informations sur les caractéristiques des produits disponibles dans la région de Sydney, voir Disponibilité régionale des services et des caractéristiques.

Semaine se terminant le 6 décembre 2024

Déployer des modèles de fondation à la demande dans la région de Dallas

6 décembre 2024

Choisissez parmi une collection de modèles de fondation que vous pouvez déployer sur du matériel dédié à l'usage exclusif de votre organisation. Un déploiement dédié signifie des interactions plus réactives lorsque vous inférez des modèles de fondation. Les modèles de fondation déployés à la demande sont facturés à l'heure. Pour plus d'informations, voir Modèles de fondation pris en charge et Détails de la facturation pour les ressources génératives d'IA.

Pour en savoir plus sur le déploiement d'un foundation model à la demande à partir du concentrateur de ressources ou de l'API REST, voir Déploiement de modèles de fondation à la demande.

Inférence du dernier foundation model Llama à partir de " Meta dans les régions de Dallas et de Francfort

6 décembre 2024

Le foundation model multilingue " Meta Llama 3.3 70B Instruct est disponible pour l'interférence dans les régions de Dallas et de Francfort. Le foundation model llama-3-3-70b-instruct est compétent en matière de codage, de raisonnement étape par étape et d'appel d'outils. Avec des performances qui rivalisent avec celles du modèle 405b, la mise à jour du foundation model Llama 3.3 est un excellent choix pour les développeurs. Voir l'annonce d' IBM

Pour plus d'informations, voir Modèles de base pris en charge.

Examiner les points de référence pour comparer les modèles de fondation

5 décembre 2024

Examinez les références des modèles foundation model pour connaître les capacités des modèles de fondation disponibles avant de les essayer. Comparez les performances des différents modèles de fondation pour les tâches les plus importantes dans votre cas d'utilisation. Pour plus d'informations, voir les critères de référence des modèles de fondation.

Les fichiers Microsoft Excel sont obsolètes pour les modèles OPL dans Decision Optimization

5 décembre 2024

Les fichiers Microsoft Excel (.xls et .xlsx) ne sont plus utilisés pour l'entrée et la sortie directes dans les modèles OPL de Decision Optimization. Pour se connecter à des fichiers Excel, utilisez plutôt un connecteur de données. Le connecteur de données transforme votre fichier Excel en fichier .csv. Pour plus d'informations, voir Données référencées.

Nouveaux carnets d'exemples pour le déploiement de modèles convertis au format ONNX

3 décembre 2024

Vous pouvez désormais déployer des modèles d'apprentissage automatique et d'IA générative convertis au format ONNX et utiliser le point final pour l'inférence. Ces modèles peuvent également être adaptés à des axes dynamiques. Voir les exemples de carnets suivants :

Pour plus d'informations, voir les échantillons et les exemples de clients Python dewatsonx.ai Runtime.

Les modèles de fondation llama-3-8b-instruct et llama-3-70b-instruct sont obsolètes

2 décembre 2024

Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

llama-3-8b-instruct

  • Date de déchéance : 2 décembre 2024
  • Date de retrait : 3 février 2025
  • Modèle alternatif : llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

llama-3-70b-instruct

  • Date de déchéance : 2 décembre 2024
  • Date de retrait : 3 février 2025 (31 mars à Sydney)
  • Modèle alternatif : llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 29 novembre 2024

Amélioration de la documentation sur les options d'écriture pour Data Refinery

28 novembre 2024

Les options d'écriture et de tableau pour l'exportation des flux de données dépendent de votre connexion. Ces options sont maintenant expliquées afin que vous soyez mieux guidé dans le choix de vos options de table cible. Pour plus d'informations, voir Options de connexion cible pour Data Refinery.

Semaine se terminant le 22 novembre 2024

Le nouveau watsonx Developer Hub pour commencer à coder rapidement

21 octobre 2024

Consultez le nouveau Developer Hub pour trouver tout ce dont vous avez besoin pour coder votre solution d'IA générative :

  • Effectuez votre première requête API pour inférer un foundation model dans watsonx.ai
  • Trouvez les modèles de base et les bibliothèques de code appropriés pour vos applications d'IA.
  • Comprendre les capacités de watsonx.ai et copier des extraits de code en Curl, Node.js ou Python.
  • Apprenez à créer des applications et des solutions d'IA générative grâce à des guides détaillés.
  • Rejoignez des communautés pour trouver des ressources, des réponses et vous engager avec d'autres utilisateurs.

Allez au Developer Hub dewatsonx.

Les services composants d'IBM watsonx.ai ont été renommés

21 novembre 2024

Les services suivants ont été renommés :

  • Watson Machine Learning s'appelle désormais watsonx.ai Runtime
  • Watson Studio s'appelle désormais watsonx.ai Studio

Certaines vidéos, certains carnets de notes et certains exemples de code peuvent continuer à faire référence à ces services sous leur ancien nom.

IBM watsonx.ai est disponible dans la région de Sydney

21 novembre 2024

Watsonx.ai est maintenant généralement disponible dans le centre de données de Sydney et Sydney peut être sélectionné comme région préférée lors de l'inscription.

Pour plus d'informations sur les modèles de fondations et les caractéristiques des produits disponibles dans la région de Sydney, voir Disponibilité régionale des services et des caractéristiques.

Utiliser les modèles de base de séries temporelles IBM Granite et l'API watsonx.ai pour prévoir les valeurs futures (beta)

21 novembre 2024

Utilisez l'API des séries temporelles pour transmettre des observations de données historiques à un foundation model séries temporelles IBM Granite qui peut prévoir des valeurs futures avec une inférence zéro. La méthode de prévision des séries temporelles de l'API watsonx.ai est disponible en version bêta. Pour plus d'informations, voir Prévision des valeurs futures des données.

Utiliser les modèles d'intégration de texte watsonx.ai à partir de l'API d'inférence Elasticsearch

21 novembre 2024

La version 8.16.0 d'Elasticsearch a ajouté la prise en charge de la création d'un point de terminaison d'inférence qui utilise un foundation model watsonx.ai pour les tâches d'intégration de texte.

Pour plus d'informations, voir Vectorisation de texte à l'aide de l'API.

Promouvoir les flux de SPSS Modeler dans les espaces de déploiement

19 novembre 2024

Vous pouvez désormais promouvoir directement les flux SPSS Modeler des projets vers les espaces de déploiement sans avoir à exporter le projet et à l'importer ensuite dans l'espace de déploiement. Pour plus d'informations, voir Promouvoir les flux et les modèles SPSS Modeler.

Semaine se terminant le 15 novembre 2024

Utiliser l'application de chat de démonstration IBM watsonx.ai sans restriction d'essai en reliant les comptes

15 novembre 2024

Vous pouvez désormais utiliser votre compte de démonstration IBM watsonx.ai sans restriction d'utilisation de jetons ou de limite de temps en reliant votre compte de démonstration à votre compte IBM Cloud watsonx.ai payant. Pour plus d'informations, reportez-vous à la section Relier les comptes IBM watsonx.ai demo et watsonx.ai

Le paquetage Node.js watsonx.ai est disponible auprès de LangChain

11 novembre 2024

Le paquetage Node.js s watsonx.ai peut être utilisé à partir de la bibliothèque communautaire JavaScript LangChain. L'intégration prend en charge les fonctions de watsonx.ai telles que l'inférence de modèles de fondation, la génération d'incrustations de texte et la gestion des échanges par chat qui incluent des capacités de conversion d'images en texte et d'appel d'outils. Avec l'intégration LangChain, vous pouvez faire appel à ces fonctionnalités de watsonx.ai en utilisant des interfaces cohérentes qui facilitent le passage d'un fournisseur à l'autre pour comparer les offres et trouver la meilleure solution pour vos besoins.

Pour plus d'informations, voir Node.js SDK.

Les informations d'identification des tâches sont désormais requises pour déployer des ressources et exécuter des tâches à partir d'un espace de déploiement

11 novembre 2024

Pour améliorer la sécurité des tâches de déploiement en cours d'exécution, vous devez saisir vos informations d'identification pour déployer les ressources suivantes à partir d'un espace de déploiement :

  • Modèles d'invite
  • Services d’IA
  • Modèles
  • Fonctions Python
  • Scripts

En outre, vous devez saisir vos informations d'identification pour créer les déploiements suivants à partir de votre espace de déploiement :

  • En ligne
  • Lot

Vous devez également utiliser vos identifiants de tâches pour créer et gérer des tâches de déploiement à partir de votre espace de déploiement.

Pour savoir comment configurer les informations d'identification de votre tâche et générer une clé API, voir Ajout d'informations d'identification de la tâche.

Semaine se terminant le 8 novembre 2024

Déployer des applications d'IA générative avec des services d'IA

7 novembre 2024

Vous pouvez désormais utiliser les services d'IA dans watsonx.ai pour déployer vos applications. Un service d'IA est une unité de code déployable que vous pouvez utiliser pour capturer la logique de vos cas d'utilisation d'IA générative. Alors que les fonctions Python constituent le moyen traditionnel de déployer des ressources d'apprentissage automatique, les services d'IA offrent une option plus souple pour déployer du code pour des applications d'IA générative, telles que la diffusion en continu. Lorsque vos services d'IA sont déployés avec succès, vous pouvez utiliser le point de terminaison pour l'inférence à partir de votre application.

Pour plus d'informations, voir Déploiement des services AI.

Les modèles de fondation granite-13b-chat-v2, llama2-13b-dpo-v7 et mt0-xxl-13b sont obsolètes

4 novembre 2024

Les modèles de fondation suivants sont obsolètes. Révisez tous les messages-guides qui utilisent ces modèles de base.

granite-13b-chat-v2

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 3 février 2025
  • Modèle alternatif : granite-3-8b-instruct

llama2-13b-dpo-v7

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 4 décembre 2024
  • Modèle alternatif : llama-3-1-8b-instruct

mt0-xxl-13b

  • Date de déchéance : 4 novembre 2024
  • Date de retrait : 4 décembre 2024
  • Modèles alternatifs : llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 1er novembre 2024

Le nouveau modèle d'intégration de tiers all-minilm-l6-v2 est disponible dans watsonx.ai

29 octobre 2024

Le modèle d'intégration de texte all-minilm-l6-v2 de la communauté open source du traitement du langage naturel (NLP) et de la vision par ordinateur (CV) est désormais disponible pour une utilisation à partir de la méthode d'intégration de texte de l'API watsonx.ai Utiliser le modèle pour convertir le texte en vecteurs d'intégration de texte qui peuvent être utilisés dans les tâches de recherche et d'extraction de texte. Pour plus de détails sur les modèles, voir les rubriques suivantes :

Prix inférieur pour l'inférence du foundation model Mistral Large

29 octobre 2024

Le prix des données que vous soumettez au foundation model Mistral Large est passé de0.01 à0.003 USD pour 1 000 jetons. Le prix des résultats générés par le foundation model n'a pas changé ; le prix des jetons de résultats reste de0.01 USD/1,000 jetons. Le changement de prix s'applique à toutes les régions où le " mistral-large " foundation model est disponible.

Pour plus d'informations, voir Modèles de base pris en charge.

Déclassement d'IBM Runtime 23.1

28 octobre 2024

IBM Runtime 23.1 est obsolète. À partir du 21 novembre 2024, vous ne pourrez plus créer de nouveaux carnets ou environnements personnalisés en utilisant les runtimes 23.1 Vous ne pouvez pas non plus créer de nouveaux déploiements avec des spécifications logicielles basées sur le runtime 23.1 Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à IBM Runtime 24.1

Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte

28 octobre 2024

La méthode d'extraction de texte est désormais disponible dans l'API REST de watsonx.ai Tirez parti de la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte permet d'extraire du texte à partir de structures documentaires telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. Pour plus d'informations, voir Extraire du texte de documents.

L'API est disponible dans toutes les régions pour les utilisateurs de plans payants. Pour plus de détails sur les tarifs, voir le tableau des tarifs d'extraction du texte du document.

Semaine se terminant le 25 octobre 2024

Comparer les tableaux dans les expériences d'Decision Optimization pour voir les différences entre les scénarios

23 octobre 2024

Vous pouvez désormais comparer les tableaux d'une expérience d'Decision Optimization dans la vue Préparer les données ou Explorer la solution. Cette comparaison peut être utile pour voir les différences de valeur des données entre les scénarios affichés l'un à côté de l'autre. Capture d'écran montrant la comparaison de tableaux dans l'Decision Optimization
Pour plus d'informations, voir Comparer les tables de scénarios.

Les nouveaux modèles Granite 3.0 sont disponibles dans watsonx.ai

21 octobre 2024

Vous pouvez maintenant inférer les modèles de la génération 3.0 Granite Foundation fournis par IBM à partir de watsonx.ai:

  • Modèles Granite Instruct dans toutes les régions : Utilisez les nouveaux modèles linguistiques légers et open-source pour des tâches telles que le résumé, la résolution de problèmes, la traduction de textes, le raisonnement, le codage et les tâches d'appel de fonctions. Fonctionne avec les variantes de modèles suivantes :
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • Les modèles Granite Guardian dans la région de Dallas : Utiliser les nouveaux modèles Granite Guardian, qui sont des modèles Granite Instruct affinés, conçus pour détecter les risques dans les invites et les réponses. Fonctionne avec les variantes de modèles suivantes :
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Pour plus de détails, voir Modèles de fondation pris en charge .

Améliorer les tâches de recherche et d'extraction grâce à l'API de classement des textes

21 octobre 2024

La méthode de classement du texte est généralement disponible dans l'API REST de watsonx.ai Utilisez cette nouvelle méthode de l'API, ainsi que les modèles de base du reranker, tels que le modèle ms-marco-minilm-l-12-v2 nouvellement pris en charge, pour réorganiser un ensemble de passages de documents en fonction de leur similarité avec une requête spécifiée. Le reclassement est un moyen utile d'ajouter de la précision à vos processus de recherche de réponses. Pour plus d'informations, voir Reranking des passages de documents.

Le nouveau modèle Pixtral 12B est disponible dans les régions de Francfort et de Londres

21 octobre 2024

Vous pouvez désormais utiliser le foundation model Pixtral 12B de Mistral AI sur watsonx.ai dans les centres de données de Francfort et de Londres.

Pixtral 12B est un modèle nativement multimodal avec des capacités image-texte et texte-texte qui a été entraîné avec des données d'images et de textes entrelacées. Le foundation model prend en charge des tailles d'image variables et excelle dans les tâches de suivi des instructions. Pour plus de détails, voir Modèles de fondation pris en charge .

Utiliser les modèles llama-3-2-11b-vision-instruct et llama-guard-11b-vision dans les régions de Francfort et de Londres

21 octobre 2024

Vous pouvez désormais travailler avec les modèles llama-3-2-11b-vision-instruct et llama-guard-11b-vision dans les centres de données de Francfort et de Londres, en plus du centre de données de Dallas. Pour plus de détails, voir Disponibilité régionale des services et fonctionnalités sur IBM Cloud et Chatting with images.

Semaine se terminant le 18 octobre 2024

La délimitation des ressources du compte est activée par défaut

17 octobre 2024

Le paramètre " Resource scope de votre compte est désormais défini par défaut sur " ON Toutefois, si vous avez précédemment défini la valeur de l'étendue des ressources sur " ON ou " OFF, le paramètre actuel n'est pas modifié.

Lorsque la délimitation des ressources est activée, vous ne pouvez pas accéder aux projets qui ne font pas partie de votre compte IBM Cloud actuellement sélectionné. Si vous appartenez à plusieurs comptes IBM Cloud, il se peut que vous ne voyiez pas tous vos projets listés ensemble. Par exemple, il se peut que vous ne voyiez pas tous vos projets sur la page Tous les projets. Vous devez changer de compte pour voir les projets dans les autres comptes.

Un foundation model en code Granite est disponible dans la région de Francfort

15 octobre 2024

Le foundation model granite-20b-code-instruct IBM est conçu pour répondre aux instructions liées au codage. Vous pouvez utiliser le foundation model dans les projets hébergés dans le centre de données de Francfort pour vous aider dans les tâches de codage et pour créer des assistants de codage. Pour plus d'informations sur le modèle, voir Modèles de fondation pris en charge.

Semaine se terminant le 11 octobre 2024

Nouvel avantage lié à l'obtention d'une licence

10 octobre 2024

Vous pouvez désormais apporter votre propre licence (BYOL) pour appliquer les avantages des licences sur site à IBM watsonx.ai et IBM watsonx.governance.

Pour plus d'informations, voir Activation de la licence BYOL (Bring Your Own License) pour SaaS.

Analysez les données textuelles japonaises dans SPSS Modeler avec Text Analytics

9 octobre 2024

Vous pouvez désormais utiliser les nœuds d'analyse de texte dans SPSS Modeler, tels que le nœud d'analyse des liens de texte et le nœud d'exploration de texte, pour analyser les données textuelles écrites en japonais.

Créer des flux de travail conversationnels avec l'API de chat watsonx.ai

8 octobre 2024

Utilisez l'API de chat watsonx.ai pour ajouter à vos applications des capacités d'IA générative, notamment des appels d'agents vers des outils et services tiers.

Pour plus d'informations, consultez les rubriques suivantes :

Nouvelle spécification logicielle pour les modèles de fondation personnalisés

7 octobre 2024

Vous pouvez désormais utiliser une nouvelle spécification logicielle " watsonx-cfm-caikit-1.1 avec vos déploiements de foundation model personnalisés. La spécification est basée sur la bibliothèque vLLM et est mieux adaptée aux derniers modèles de langues larges à décodeur seul. Pour plus d'informations sur la bibliothèque vLLM, voir vLLM Pour plus d'informations sur l'utilisation de la spécification avec un foundation model personnalisé, voir Planifier le déploiement d'un foundation model personnalisé.

Les modèles de fondation granite-7b-lab et llama3-llava-next-8b-hf sont obsolètes

7 octobre 2024

Le foundation model granite-7b-lab est obsolète et sera retiré le 7 janvier 2025. Révisez tous les messages-guides qui utilisent ce foundation model.

  • Date de déchéance : 7 octobre 2024
  • Date de retrait : 7 janvier 2025
  • Modèle alternatif : granite-3-8b-instruct

Le foundation model multimodale llama3-llava-next-8b-hf est également obsolète et sera retiré le 7 novembre 2024. Vous pouvez désormais utiliser l'un des nouveaux modèles de vision Llama 3.2 pour les tâches de génération d'images en texte.

  • Date de déchéance : 7 octobre 2024
  • Date de retrait : 7 novembre 2024
  • Modèle alternatif : llama-3-2-11b-vision-instruct

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation. Pour plus d'informations sur les modèles alternatifs, voir Modèles de fondations pris en charge.

Semaine se terminant le 4 octobre 2024

Mise à jour des environnements et des spécifications logicielles

3 octobre 2024

Les bibliothèques Tensorflow et Keras incluses dans IBM Runtime 23.1 sont désormais mises à jour vers leurs nouvelles versions. Cela peut avoir un impact sur la façon dont le code est exécuté dans vos carnets. Pour plus de détails, voir Paquets de bibliothèques inclus dans les programmes d'exécution de 'watsonx.ai Studio (anciennement 'Watson Studio).

Le Runtime 23.1 sera abandonné au profit du Runtime 24.1 d'IBM dans le courant de l'année. Pour éviter des perturbations répétées, nous vous recommandons de passer dès maintenant à IBM Runtime 24.1 et d'utiliser les spécifications logicielles correspondantes pour les déploiements.

Disponibilité du plan watsonx.governance dans la région de Francfort et suppression du plan OpenScale legacy

3 octobre 2024

L'ancien plan watsonx.governance pour provisionner Watson OpenScale dans la région de Francfort est obsolète. IBM Watson OpenScale ne sera plus disponible pour un nouvel abonnement ou pour provisionner de nouvelles instances. Pour les capacités OpenScale, souscrivez au plan Essentials de watsonx.governance, qui est désormais disponible à Francfort et à Dallas.

Remarques :

  • Les instances de plan existantes continueront à fonctionner et seront prises en charge jusqu'à la date de fin de prise en charge, qui reste à déterminer.
  • Les clients existants sur IBM Watson OpenScale peuvent continuer à ouvrir des tickets de support en utilisant IBM Watson OpenScale.

Nouveaux termes de menu pour ouvrir la page des connexions de la plate-forme

3 octobre 2024

Auparavant, le chemin d'accès à la page Connexions de la plate-forme dans le menu de navigation était Données > Connexions de la plate-forme. Le nouveau chemin est Données > Connectivité. La page Connectivité comporte un onglet pour les connexions à la plate-forme.

Semaine se terminant le 27 septembre 2024

Llama 3.2 modèles de fondation, y compris les modèles multimodaux 11B et 90B, sont disponibles

25 septembre 2024

Les modèles de fondation suivants de Meta AI sont désormais disponibles dans la région de Dallas :

Llama 3.2 modèles d'instruction
Des modèles linguistiques polyvalents de grande taille qui prennent en charge de grandes entrées (128 000 tokens de longueur de fenêtre contextuelle) et qui sont suffisamment légers et efficaces, avec des paramètres de taille 1B et 3B, pour être intégrés dans un appareil mobile. Vous pouvez utiliser ces modèles pour créer des agents hautement personnalisés sur l'appareil.
Llama 3.2 modèles de vision
Des modèles affinés, conçus pour des cas d'utilisation avec entrée d'image et sortie de texte, tels que la compréhension au niveau du document, l'interprétation de tableaux et de graphiques, et le sous-titrage d'images.
Modèle de vision du garde-lama
Modèle de garde-corps puissant conçu pour filtrer les contenus nuisibles.

Pour plus d'informations, voir Modèles de base pris en charge.

Amélioration de la console de gouvernance

25 septembre 2024

Cette version comprend des améliorations et des corrections de bugs.

Onglets personnalisés sur le tableau de bord

Le tableau de bord peut désormais contenir jusqu'à trois onglets personnalisés.

Graphiques à barres empilées

Vous pouvez désormais configurer un diagramme à barres empilées sur le tableau de bord et dans le View Designer.

Utilisation d'expressions pour définir les valeurs d'un champ en fonction des réponses d'un répondant à un questionnaire

Vous pouvez maintenant saisir une expression pour la valeur d'un champ. Par exemple, vous pouvez saisir [$TODAY$] pour la date du jour, [$END_USER$] pour le nom de l'utilisateur connecté, ou [$System Fields:Description$] pour définir le champ sur la valeur du champ Description de l'objet.

Améliorations de la solution watsonx.governance Model Risk Governance

Cette version comprend les améliorations suivantes :

  • Le nouveau type d'objet Groupe de modèles permet de regrouper des modèles similaires. Par exemple, les versions d'un modèle qui utilisent une approche similaire pour résoudre un problème commercial peuvent faire partie d'un groupe de modèles.
  • Le nouveau calcul de notation du risque des cas d'utilisation regroupe les mesures par état de violation en notes de risque pour donner une vue d'ensemble de la performance des modèles sous-jacents d'un cas d'utilisation.
  • La nouvelle entité commerciale Bibliothèque d'IA découverte fournit un emplacement par défaut pour stocker tous les déploiements d'IA qui ne suivent pas les pratiques de gouvernance sanctionnées au sein d'une organisation (également connue sous le nom d'"IA fantôme").
  • Les flux de travail, les vues et les tableaux de bord ont été mis à jour.

Pour plus d'informations, voir Composants de la solution dans la console de gouvernance.

Corrections de bogues et de sécurité

Des corrections de bogues et de sécurité ont été appliquées.

Pour plus d'informations, voir Nouvelles fonctionnalités dans 9.0.0.4.

Automatiser les modèles RAG avec AutoAI SDK (beta)

23 septembre 2024

Utilisez le AutoAI Python SDK pour automatiser et accélérer la conception et le déploiement d'un modèle RAG (Retrieval-augmented generation) optimisé, basé sur vos données et votre cas d'utilisation. RAG comporte de nombreux paramètres de configuration, notamment le choix d'un grand modèle linguistique, la manière de découper les documents de base et le nombre de documents à extraire. AutoAI automatise l'exploration et l'évaluation complètes d'un ensemble contraint d'options de configuration et produit un ensemble de pipelines de modèles classés en fonction de leur performance par rapport à la métrique d'optimisation.

Note: Bien que cette fonctionnalité soit en version bêta, l'expérience est gratuite et aucun jeton n'est consommé. Toutefois, les appels aux modèles RAG et à leurs dérivés effectués après la fin de l'expérience consomment des ressources et entraînent des frais de facturation aux taux standard.

Voir Automatisation d'un modèle RAG avec le AutoAI SDK(Beta) pour plus de détails sur la fonctionnalité et les notes d'utilisation pour coder une expérience RAG AutoAI.

Suppression de la durée d'exécution de Spark 3.3

23 septembre 2024

La prise en charge du runtime Spark 3.3 dans IBM Analytics Engine sera supprimée d'ici le 29 octobre 2024 et la version par défaut sera remplacée par le runtime Spark 3.4. Pour garantir une expérience transparente et tirer parti des dernières fonctionnalités et améliorations, passez à Spark 3.4.

À partir du 29 octobre 2024, vous ne pourrez plus créer ou exécuter des notebooks ou des environnements personnalisés en utilisant des runtimes Spark 3.3. De plus, vous ne pouvez pas créer ou exécuter des déploiements avec des spécifications logicielles basées sur le runtime Spark 3.3.

Semaine se terminant le 20 septembre 2024

Inférence d'un foundation model multimodal à partir du Prompt Lab

19 septembre 2024

Vous pouvez désormais ajouter une image dans Prompt Lab et discuter de l'image en invitant un foundation model multimodal en mode conversation. Outre les documents de base, vous pouvez désormais télécharger des images et demander à un foundation model qui prend en charge les tâches de conversion d'image en texte de préciser le contenu visuel de l'image. Pour plus d'informations, voir Chatter avec des documents et des images.

Le nouveau modèle llama3-llava-next-8b-hf est disponible dans la région de Dallas

19 septembre 2024

Vous pouvez désormais utiliser le nouveau foundation model multimodale llama3-llava-next-8b-hf sur IBM watsonx.ai pour faciliter les tâches de conversion d'images en texte.

Large Language and Vision Assistant (LLaVa) associe un modèle de langage large pré-entraîné à un encodeur de vision pré-entraîné pour les cas d'utilisation des chatbots multimodaux. LLaVA NeXT Llama3 est entraîné sur des données d'images et de textes plus diversifiées et de haute qualité. Pour plus de détails, voir Modèles de fondation pris en charge .

Utilisez le watsonx.ai Node.js SDK pour coder des applications d'IA générative

18 septembre 2024

Inférence et réglage des modèles de fondation dans IBM watsonx as a Service de manière programmatique en utilisant le package watsonx.ai Node.js. Pour plus d'informations, voir Node.js SDK.

Comprendre les politiques d'indemnisation de la propriété intellectuelle pour les modèles de fondation

18 septembre 2024

Vous pouvez maintenant mieux comprendre la politique d'indemnisation de la propriété intellectuelle d'IBM et voir quels modèles de fondation ont une couverture d'indemnisation de la propriété intellectuelle dans watsonx.ai. Pour plus d'informations, voir Types de modèles et indemnisation de la propriété intellectuelle.

Semaine se terminant le 13 septembre 2024

Créer des jobs batch pour les flux SPSS Modeler dans les espaces de déploiement

10 septembre 2024

Vous pouvez désormais créer des travaux par lots pour les flux SPSS Modeler dans les espaces de déploiement. Les flux vous permettent de décider des nœuds terminaux à exécuter chaque fois que vous créez un travail par lots à partir d'un flux. Lorsque vous planifiez des travaux par lots pour des flux, le travail par lots utilise les sources de données et les cibles de sortie que vous avez spécifiées dans votre flux. Le mappage de ces sources de données et de ces sorties est automatique si les sources de données et les cibles se trouvent également dans votre espace de déploiement. Pour plus d'informations sur la création de travaux par lots à partir de flux, voir Création de travaux de déploiement pour les flux SPSS Modeler.

Pour plus d'informations sur les flux et les modèles dans les espaces de déploiement, voir Déploiement des flux et des modèles SPSS Modeler.

Semaine se terminant le 6 septembre 2024

Apportez votre propre foundation model à l'inférence de watsonx.ai dans la région de Dallas

3 septembre 2024

En plus de travailler avec des modèles de base créés par IBM, vous pouvez maintenant télécharger et déployer vos propres modèles de base. Une fois les modèles déployés et enregistrés auprès de watsonx.ai, créez des invites qui infèrent les modèles personnalisés de manière programmatique ou à partir du Prompt Lab Cette fonction n'est disponible que dans la région de Dallas.

Pour en savoir plus sur le téléchargement de modèles de base personnalisés, voir Déploiement de modèles de base personnalisés. Pour obtenir des informations sur les plans et les détails de facturation pour les modèles de fondation personnalisés, voir les plans d'exécutionwatsonx.ai

Simplifier les documents commerciaux complexes grâce à l'API d'extraction de texte des documents

3 septembre 2024

Appliquez la technologie de compréhension des documents développée par IBM pour simplifier vos documents commerciaux complexes afin qu'ils puissent être traités par des modèles de base dans le cadre d'un flux de travail d'IA générative. L'API d'extraction de texte de document permet d'extraire du texte à partir de structures de document telles que des images, des diagrammes et des tableaux que les modèles de base ne peuvent souvent pas interpréter correctement. La méthode d'extraction de texte de l'API REST watsonx.ai est une fonctionnalité bêta.

Pour plus d'informations, voir Extraire du texte de documents.

Les modifications et les mises à jour du foundation model code Granite sont disponibles

3 septembre 2024

Le foundation model granite-20b-code-instruct a été modifié à la version 1.1.0 La dernière modification est entraînée sur un mélange de données de haute qualité provenant des domaines du code et du langage naturel afin d'améliorer les capacités de raisonnement et de suivi des instructions du modèle.

Les modèles de fondation suivants ont été mis à jour afin d'augmenter la taille de la fenêtre contextuelle prise en charge (entrée + sortie) pour les invites de 8192 à 128 000 :

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 30 août 2024

Les modèles llama-2-13b-chat et llama-2-70b-chat sont obsolètes

26 août 2024

Les modèles de fondation llama-2-13b-chat et llama-2-70b-chat sont obsolètes et seront retirés le 25 septembre 2024. Révisez tous les messages-guides qui utilisent ces modèles de base.

llama-2-13b-chat
  • Date de déchéance : 26 août 2024
  • Date de retrait : 25 septembre 2024
  • Modèle alternatif : llama-3.1-8b-instruct
llama-2-70b-chat
  • Date de déchéance : 26 août 2024
  • Date de retrait : 25 septembre 2024
  • Modèle alternatif : llama-3.1-70b-instruct

Les demandes d'inférence soumises aux modèles llama-2-13b-chat et llama-2-70b-chat à l'aide de l'API continuent de générer des résultats, mais incluent un message d'avertissement concernant le retrait prochain du modèle. À partir du 25 septembre 2024, les demandes d'API pour l'inférence des modèles ne produiront pas de résultats.

Pour plus de détails sur la dépréciation et le retrait, voir Cycle de vie du modèle de fondation.

Semaine se terminant le 23 août 2024

Ajouter des groupes d'utilisateurs comme collaborateurs dans les projets et les espaces

22 août 2024

Vous pouvez désormais ajouter des groupes d'utilisateurs dans les projets et les espaces si votre compte IBM Cloud contient des groupes d'accès IAM. Votre IBM Cloud peut créer des groupes d'accès, qui sont ensuite disponibles en tant que groupes d'utilisateurs dans les projets. Pour plus d'informations, voir Travail avec les groupes d'accès IAM.

Fin de la prise en charge de la fonction de prédiction des anomalies pour les expériences de séries temporelles de AutoAI

19 août 2024

La fonction de prédiction des anomalies (outliers) dans les prédictions des modèles de séries temporelles de AutoAI, actuellement en version bêta, est obsolète et sera supprimée le 23 septembre 2024.... Les expériences de séries temporelles standard AutoAI sont toujours entièrement prises en charge. Pour plus de détails, voir Construction d'une expérience de série temporelle.

Semaine se terminant le 16 août 2024

Les nouveaux modèles d'intégration de l'ardoise de IBM sont disponibles dans toutes les régions

15 août 2024

IBM Les modèles d'intégration d'ardoises permettent aux entreprises de générer des intégrations pour diverses entrées telles que des requêtes, des passages ou des documents. Les nouveaux modèles slate-125m-english-rtrvr-v2 et slate-30m-english-rtrvr-v2 présentent des améliorations significatives par rapport à leurs homologues v1. Si vous utilisez aujourd'hui les modèles slate-125m-english-rtrvr et slate-30m-english-rtrvr, passez aux nouveaux modèles v2 Slate pour profiter des améliorations apportées au modèle.

Pour plus d'informations, voir Modèles de fondations d'encodeurs pris en charge.

Configurer les garde-fous AI pour l'entrée utilisateur et la sortie du foundation model séparément dans Prompt Lab

15 août 2024

Ajustez la sensibilité des garde-fous de l'IA qui détectent et suppriment les contenus préjudiciables lorsque vous expérimentez les invites du foundation model dans Prompt Lab Vous pouvez définir différents niveaux de sensibilité du filtre pour le texte d'entrée de l'utilisateur et le texte de sortie du modèle, et enregistrer les paramètres efficaces des garde-fous AI dans des modèles d'invite.

Pour plus d'informations, voir Suppression des contenus nuisibles.

Semaine se terminant le 9 août 2024

Sélectionner les données de test des projets pour l'évaluation des modèles d'invite

8 août 2024

Lorsque vous évaluez des modèles d'invite dans des projets, vous pouvez désormais choisir des ressources de projet pour sélectionner des données de test pour les évaluations. Pour plus d'informations, voir Évaluation des modèles d'invite dans les projets.

Le nouveau modèle llama-3-1-70b-instruct est maintenant disponible sur IBM watsonx.ai

7 août 2024

Vous pouvez désormais utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 70 milliards de paramètres sur IBM watsonx.ai.

Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .

Questions et réponses actualisées avec l'accélérateur RAG

6 août 2024

L'exemple de projet Q&A avec l'accélérateur RAG 1.2 comprend les améliorations suivantes :

  • Obtenez de l'aide pour la phase suivante de votre mise en œuvre de la génération augmentée par récupération (RAG) : recueillir les commentaires des utilisateurs et analyser la qualité des réponses. Comprend des analyses avec détection non supervisée des sujets pour montrer les sujets populaires, la satisfaction de l'utilisateur par rapport aux réponses générées par sujet, et les scores de recherche par sujet.

  • Nouveaux modèles d'invite optimisés pour les modèles de fondation IBM granite-7b-lab et Meta Llama 3.1.

  • Code simplifié qui utilise les utilitaires RAG de la bibliothèque watsonx.ai Python et des filtres de recherche vectorielle ciblés pour effectuer des recherches par produit, par zone, etc.

Voir Q&A avec l'accélérateur RAG.

Note: Si vous ne pouvez pas créer l'exemple de projet, essayez de remplacer le texte du champ de description.

Semaine se terminant le 2 août 2024

Le nouveau modèle llama-3-1-8b-instruct est maintenant disponible sur IBM watsonx.ai

1er août 2024

Vous pouvez désormais utiliser les derniers modèles de fondation Llama 3.1 de Meta dans la taille de 8 milliards de paramètres sur IBM watsonx.ai.

Les modèles de base de la série Llama 3.1 sont de grands modèles linguistiques très performants dotés de capacités de raisonnement de premier plan. Les modèles peuvent être utilisés pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Ils prennent en charge l'anglais, l'allemand, le français, l'italien, le portugais, l'hindi, l'espagnol et le thaï. Pour plus de détails, voir Modèles de fondation pris en charge .

Associer les espaces de travail aux cas d'utilisation de l'IA

1er août 2024

Le processus de création d'un cas d'utilisation de l'IA est modifié pour mieux correspondre au cycle de vie de l'IA. Après avoir défini les éléments essentiels d'un cas d'utilisation de l'IA, associez des espaces de travail pour organiser les actifs de manière à ce qu'ils s'alignent sur les phases d'une solution d'IA. Par exemple, associer un projet ou un espace aux biens en phase de développement ou de validation, et associer un espace aux biens en phase d'exploitation.

Pour plus de détails, voir Associer des espaces de travail à un cas d'utilisation de l'IA.

Semaine se terminant le 26 juillet 2024

Annonce du soutien à Python 3.11 et R4.3 frameworks et spécifications logicielles sur le runtime 24.1

25 juillet 2024

Vous pouvez désormais utiliser IBM Runtime 24.1, qui inclut les derniers cadres de science des données basés sur Python 3.11 et R 4.3, pour exécuter des carnets Jupyter et des scripts R, et former des modèles. À partir du 29 juillet, vous pourrez également effectuer des déploiements. Mettez à jour vos ressources et vos déploiements pour utiliser les frameworks et les spécifications logicielles IBM Runtime 24.1

Version améliorée de Jupyter Notebook l'éditeur est maintenant disponible

25 juillet 2024

Si vous exécutez votre ordinateur portable dans des environnements basés sur Runtime 24.1, vous pouvez utiliser ces améliorations pour travailler avec votre code :

  • Déboguer automatiquement votre code
  • Générez automatiquement une table des matières pour votre bloc-notes
  • Basculer les numéros de ligne à côté de votre code
  • Réduisez le contenu des cellules et utilisez la vue côte à côte pour le code et la sortie, pour une productivité améliorée

Pour plus d'informations, voir Éditeur de bloc-notes Jupyter.

Modèles d'intégration de transformateur de processeur de langage naturel pris en charge avec Runtime 24.1

25 juillet 2024

Dans le nouveau Runtime 24.1 environnement, vous pouvez désormais utiliser des modèles d'intégration de transformateur de traitement du langage naturel (NLP) pour créer des intégrations de texte qui capturent le sens d'une phrase ou d'un passage afin de faciliter les tâches de génération augmentée par récupération. Pour plus d'informations, voir Intégrations.

De nouveaux modèles PNL spécialisés sont disponibles dans Runtime 24.1

25 juillet 2024

Les nouveaux modèles PNL spécialisés suivants sont désormais inclus dans le Runtime 24.1 environnement:

Extrayez des informations détaillées à partir de grandes collections de textes à l'aide de la synthèse des points clés

25 juillet 2024

Vous pouvez désormais utiliser la synthèse de points clés dans les carnets de notes pour extraire des informations détaillées et exploitables à partir de vastes collections de textes représentant les opinions des personnes (telles que des évaluations de produits, des réponses à des enquêtes ou des commentaires sur les médias sociaux). Le résultat est livré de manière organisée, hiérarchique et facile à traiter. Pour plus d'informations, voir Résumé des points clés

Mise à jour de la version de RStudio

25 juillet 2024

Afin d'offrir une expérience utilisateur cohérente dans les clouds privés et publics, l'IDE RStudio pour IBM watsonx sera mis à jour vers RStudio Server 2024.04.1 et R 4.3.1 le 29 juillet 2024. La nouvelle version de RStudio apporte un certain nombre d'améliorations et de correctifs de sécurité. Voir les notes de mise à jour de RStudio Server 2024.04.1 pour plus d'informations. Bien qu'aucun problème de compatibilité majeur ne soit prévu, les utilisateurs doivent être conscients des changements de version de certains packages décrits dans le tableau ci-dessous.

Lorsque vous lancez l'IDE RStudio à partir d'un projet après la mise à jour, réinitialisez l'espace de travail RStudio pour vous assurer que le chemin de la bibliothèque pour les paquets R 4.3.1 est pris en compte par le serveur RStudio.

Une nouvelle version du modèle Mistral Large est désormais disponible sur IBM watsonx.ai dans les régions de Dallas, Francfort et Londres

24 juillet 2024

Vous pouvez désormais utiliser le foundation model Mistral Large 2 de Mistral AI sur IBM watsonx.ai dans les centres de données de Dallas, Francfort et Londres.

Le modèle Mistral Large 2 prend en charge 11 langues et est performant en matière de compréhension de texte, de génération de code et de raisonnement avancé. Pour plus de détails, voir Modèles de fondation pris en charge .

Nouveau llama-3-405b-instruct le modèle est disponible dans la région de Dallas

23 juillet 2024

Vous pouvez désormais utiliser le foundation model llama-3-405b-instruct de Meta sur IBM watsonx.ai dans le centre de données de Dallas.

Le modèle llama-3-405B-instruct (v3.1) fournit aux entreprises un modèle de langage étendu très performant avec des capacités de raisonnement de premier plan, et il s'agit du plus grand modèle à source ouverte jamais publié à ce jour. Ce foundation model peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .

Le merlinite-7b le modèle est obsolète

22 juillet 2024

Le foundation model merlinite-7b est obsolète et sera retiré le 22 août 2024. Révisez tous les messages-guides qui utilisent ce foundation model.

  • Date de dépréciation : 22 juillet 2024
  • Date de retrait : 22 août 2024
  • Modèle alternatif: mixtral-8x7b-instruct-v01

Les demandes d'inférence soumises au merlinite-7b Le modèle à l'aide de l'API continue de générer une sortie, mais inclut un message d'avertissement concernant le retrait prochain du modèle. À partir du 22 août 2024, les demandes d'API pour l'inférence du modèle ne produiront pas de résultats.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Semaine se terminant le 12 juillet 2024

Le nouveau modèle Mistral Large est disponible dans les régions de Francfort et de Dallas

9 juillet 2024

Vous pouvez désormais utiliser le foundation model Mistral Large de Mistral AI sur IBM watsonx.ai dans les centres de données de Francfort et de Dallas.

Mistral Large fournit aux entreprises un modèle de langage large très performant avec des capacités de raisonnement de premier plan. Ce foundation model peut être utilisé pour des tâches complexes de raisonnement multilingue, y compris la compréhension de texte, la transformation et la génération de code. Pour plus de détails, voir Modèles de fondation pris en charge .

Semaine se terminant le 5 juillet 2024

Connecteurs regroupés par type de source de données

05 juillet 2024

Lorsque vous créez une connexion, les connecteurs sont désormais regroupés par type de source de données afin de faciliter leur recherche et leur sélection. Par exemple, le type de source de données MongoDB inclut les connecteurs IBM Cloud Databases for MongoDB et MongoDB.

De plus, un nouveau Récents La catégorie affiche les six derniers connecteurs que vous avez utilisés pour créer une connexion.

Pour les instructions, voir Ajout de connexions aux sources de données dans un projet .

Ajouter des informations contextuelles aux messages-guides du foundation model dans Prompt Lab

4 juillet 2024

Aidez un foundation model générer des réponses factuelles et actualisées dans les cas d'utilisation de la génération augmentée par récupération (RAG) en ajoutant des informations contextuelles pertinentes à votre invite en tant que données de base. Vous pouvez rapidement télécharger des documents pertinents ou vous connecter à un magasin de vecteurs tiers contenant des données pertinentes. Lorsqu'une nouvelle question est soumise, la question est utilisée pour interroger les données de base sur les faits pertinents. Les premiers résultats de la recherche et la question initiale sont soumis en tant qu'entrée du modèle pour aider le foundation model à incorporer des faits pertinents dans ses résultats.

Pour plus d'informations, voir Ancrer les invites du foundation model dans des informations contextuelles.

Modifications àCloud Object Storage Forfaits allégés

1 juillet 2024

À compter du 1er juillet 2024, leCloud Object Storage Plan Lite qui est automatiquement provisionné lorsque vous vous inscrivez pour un essai de 30 jours dewatsonx.ai etwatsonx.governance expire après la fin de l’essai. Vous pouvez mettre à niveau votreCloud Object Storage Lite au forfait Standard avec l'option Free Tier à tout moment pendant la période d'essai de 30 jours.

ExistantCloud Object Storage les instances de service avec des forfaits Lite que vous avez provisionnés avant le 1er juillet 2024 seront conservées jusqu'au 15 décembre 2024. Vous devez mettre à niveau votreCloud Object Storage service à un forfait Standard avant le 15 décembre 2024.

VoirCloud Object Storage plans de services .

Semaine se terminant le 21 juin 2024

Créer des déploiements détachés pour la gouvernance des invites pour les modèles de langage de grande taille (LLM) externes

21 juin 2024

Un modèle d'invite détaché est un nouvel atout pour évaluer un modèle d'invite pour un LLM hébergé par un fournisseur tiers, tel queGoogle Sommet AI,AzureOpenAI, ouAWS Substrat rocheux. L'inférence qui génère la sortie pour le modèle d'invite est effectuée sur le modèle distant, mais vous pouvez évaluer la sortie du modèle d'invite à l'aide des métriques watsonx.governance . Vous pouvez également suivre le déploiement détaché et le modèle d'invite détaché dans un cas d'utilisation d'IA dans le cadre de votre solution de gouvernance.

Pour plus d'informations, voir :

Les données d'identification de tâche seront requises pour les demandes de travail de déploiement

19 juin 2024

Pour améliorer la sécurité de l'exécution des travaux de déploiement, l'utilisateur qui demande le travail doit fournir des données d'identification de tâche sous la forme d'une clé d'API. L'exigence sera appliquée à compter du 15 août 2024. Voir Ajout de données d'identification de tâche pour plus de détails sur la génération de la clé d'API.

Capture d'écran montrant comment créer des données d'identification de tâche à partir du profil et des paramètres

Evaluer les cas d'utilisation pour l'applicabilité de la loi européenne sur l'intelligence artificielle

19 juin 2024

En utilisant la nouvelle évaluation de l'applicabilité de la loi sur l'intelligence artificielle de l'UE, vous pouvez remplir un questionnaire simple pour évaluer vos cas d'utilisation de l'intelligence artificielle et déterminer s'ils entrent dans le champ d'application de la loi sur l'intelligence artificielle de l'UE. L'évaluation peut également vous aider à identifier la catégorie de risque à laquelle vos cas d'utilisation s'alignent: interdite, élevée, limitée ou minimale. Pour plus d'informations, voir Évaluation de l'applicabilité dans Composants de la solution dans la console de gouvernance.

Semaine se terminant le 7 juin 2024

Gérez les activités de risque et de conformité avec la console de gouvernance ( IBM OpenPages)

7 juin 2024

Watsonx.governance prend désormais en charge l'intégration facultative avec la console de gouvernance. Si vous avez installé le module Model Risk Governance de IBM OpenPages, vous pouvez configurer des cas d'utilisation de l'IA pour synchroniser les faits de gouvernance avec la console de gouvernance. À partir de la console de gouvernance, vous pouvez créer des cas d'utilisation, afficher les activités de gouvernance, gérer des tâches et mettre en œuvre des flux de travail dans le cadre de vos processus de gouvernance et de conformité. Pour plus d'informations, voir :

Semaine se terminant le 31 mai 2024

IBM Watson Pipelines est désormais IBM Orchestration Pipelines

30 mai 2024

Le nouveau nom de service reflète les capacités d'orchestration de parties du cycle de vie de l'intelligence artificielle en flux reproductibles.

Etiquetez les projets pour les extraire facilement

31 mai 2024

Vous pouvez désormais affecter des étiquettes à des projets afin de faciliter leur regroupement ou leur extraction. Affectez des balises lorsque vous créez un nouveau projet ou à partir de la liste de tous les projets. Filtrez la liste des projets par étiquette pour extraire un ensemble de projets associé. Pour plus d'informations, voir Création d'un projet.

Se connecter à une nouvelle source de données : Milvus

31 mai 2024

Utilisez la connexion Milvus pour stocker et confirmer l'exactitude de vos identifiants et détails de connexion pour accéder à un magasin de vecteurs Milvus. Pour plus d'informations, voir la connexion Milvus.

Semaine se terminant le 24 mai 2024

Nouveau tutoriel et vidéo

23 mai 2024

Essayez le nouveau tutoriel pour voir comment évaluer un déploiement de modèle à l'aide de la fonctionnalité de Watson OpenScale dans un espace de déploiement.

Tutoriel Descriptif Expertise pour le tutoriel
Evaluer un déploiement dans les espaces Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle dans un espace de déploiement. Configurez les moniteurs et évaluez un modèle dans un espace de déploiement.

Le foundation model allam-1-13b-instruct est disponible dans la région de Francfort

21 mai 2024

Le foundation model arabe allam-1-13b-instruct de l'Autorité saoudienne pour les données et l'intelligence artificielle, fourni par IBM, est disponible sur watsonx.ai dans le centre de données de Francfort. Vous pouvez utiliser le foundation model allam-1-13b-instruct pour des tâches générales, y compris les questions-réponses, le résumé, la classification, la génération, l'extraction et la traduction en arabe. Pour plus d'informations, voir Modèles de base pris en charge.

Déployez des actifs d'IA traditionnels et génératifs avec la bibliothèque client watsonx.ai Python

21 mai 2024

La bibliothèque client Watson Machine Learning Python fait désormais partie d'une bibliothèque étendue, la bibliothèque client watsonx.ai Python . Utilisez la bibliothèque watsonx.ai Python pour utiliser l'apprentissage automatique traditionnel et les actifs d'IA générative. La bibliothèque Watson Machine Learning sera conservée mais ne sera pas mise à jour avec les nouvelles fonctions. Pour plus d'informations, voir BibliothèquePython.

Semaine se terminant le 17 mai 2024

Les modèles d'intégration de texte tiers sont disponibles dans watsonx.ai

16 mai 2024

Les modèles d'intégration de texte tiers suivants sont désormais disponibles en plus des modèles IBM Slate pour la mise en correspondance et l'extraction de texte améliorées:

  • all-minilm-l12-v2
  • multilingual-e5-large

Soumettez des phrases ou des passages à l'un des modèles d'imbrication pris en charge à l'aide de la bibliothèque watsonx.ai Python ou de l'API REST pour convertir le texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Pour plus d'informations sur ces modèles, voir Modèles de fondations d'encodeurs pris en charge.

Pour plus d'informations sur la conversion de texte, voir Génération d'imbrication de texte.

Semaine se terminant le 10 mai 2024

De nouveaux modèles de fondations Granite Code sont disponibles dans la région de Dallas

9 mai 2024

Vous pouvez maintenant déduire les modèles suivants de Granite Code Foundation fournis par IBM à partir de watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utiliser les nouveaux modèles de base du code Granite pour les tâches de codage programmatique. Les modèles de base sont affinés sur une combinaison de données d'instruction pour améliorer les capacités de suivi d'instruction, y compris le raisonnement logique et la résolution de problèmes.

Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles de base InstructLab sont disponibles dans watsonx.ai

7 mai 2024

InstructLab est une initiative open source de Red Hat et IBM qui fournit une plateforme permettant d'augmenter les capacités d'un foundation model Les modèles de base suivants soutiennent les connaissances et les compétences apportées par InstructLab::

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Vous pouvez explorer les contributions de la communauté open source à partir de la page de taxonomie du foundation model.

Pour plus d'informations, voirInstructLab-compatible modèles de fondation .

Semaine se terminant le 3 mai 2024

Organiser les actifs de projet dans des dossiers

2 mai 2024

Vous pouvez maintenant créer des dossiers dans vos projets pour organiser les actifs. Un administrateur du projet doit activer les dossiers, et les administrateurs et les éditeurs peuvent les créer et les gérer. Les dossiers sont en version bêta et ne sont pas encore pris en charge pour une utilisation dans les environnements de production. Pour plus d'informations, voir Organisation des actifs avec des dossiers (bêta).

L'onglet Actifs avec les dossiers

Semaine se terminant le 26 avril 2024

IBM watsonx.ai est disponible dans la région de Londres

25 avril 2023

Watsonx.ai est désormais disponible dans le centre de données de Londres et ce dernier peut être sélectionné comme région préférée lors de l'inscription.

  • Les modèles de fondation qui sont entièrement pris en charge à Dallas sont également disponibles pour l'inférence dans le centre de données de Londres à partir du Prompt Lab ou en utilisant l'API. Les exceptions sont le mt0-xxl-13b et le foundation model llama-2-70b-chat, qui est remplacé par le foundation model llama-3-70b-instruct, désormais disponible.
  • Optimisez les trois modèles de base optimisables à partir de Tuning Studio ou à l'aide de l'API.
  • Les deux modèles d'imbrication IBM et l'API d'imbrication sont pris en charge.

Pour plus d'informations, voir Disponibilité régionale des services et des fonctions.

Démarrer un chat dans Prompt Lab directement à partir de la page d'accueil

25 avril 2023

Vous pouvez désormais entamer une conversation avec un foundation model à partir de la page d'accueil IBM watsonx.ai Saisissez une question à envoyer à un foundation model en mode chat ou cliquez sur Open Prompt Lab pour choisir un foundation model et des paramètres de modèle avant de soumettre les données du modèle.

Semaine se terminant le 19 avril 2024

De nouveaux modèles de base Meta Llama 3 sont désormais disponibles

18 avril 2024

Les modèles de base Llama 3 suivants fournis par Meta sont disponibles pour l'inférence à partir de watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Les nouveaux modèles de base Llama 3 sont des modèles de langage affinés d'instructions qui peuvent prendre en charge divers cas d'utilisation.

Cette dernière version de Llama est entraînée avec plus de jetons et applique de nouvelles procédures post-entraînement. Il en résulte des modèles de base avec de meilleures capacités de compréhension du langage, de raisonnement, de génération de code et de suivi d'instruction.

Pour plus d'informations, voir Modèles de base pris en charge.

Présentation de la prise en charge de l'intégration d' IBM pour la mise en correspondance et l'extraction de texte améliorées

18 avril 2024

Vous pouvez désormais utiliser l'API d'imbrication IBM et les modèles d'imbrication IBM pour transformer du texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Les modèles d'imbrication IBM Slate suivants sont disponibles:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Pour plus d'informations, voir Génération d'imbrication de texte.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

IBM watsonx.governance est inclus lorsque vous vous inscrivez à IBM watsonx.ai

18 avril 2024

Si vous vous inscrivez à watsonx.ai dans la région de Dallas, watsonx.governance est désormais inclus automatiquement. Voir Inscription à IBM watsonx as a Service.

Evaluer les déploiements d'apprentissage automatique dans les espaces

18 avril 2024

Configurez les évaluations watsonx.governance dans vos espaces de déploiement pour obtenir des informations sur les performances de votre modèle d'apprentissage automatique. Par exemple, évaluez un déploiement pour le biais ou surveillez un déploiement pour la dérive. Lorsque vous configurez des évaluations, vous pouvez analyser les résultats d'évaluation et modéliser les enregistrements de transaction directement dans vos espaces.

Pour plus d'informations, voir Evaluation des déploiements dans les espaces.

Un foundation model en langue coréenne est disponible dans la région de Tokyo

18 avril 2024

Le foundation model llama2-13b-dpo-v7 fourni par Minds & Company et basé sur le foundation model Llama 2 de Meta est disponible dans la région de Tokyo.

Le foundation model llama2-13b-dpo-v7 est spécialisé dans les tâches conversationnelles en coréen et en anglais. Vous pouvez également utiliser le foundation model llama2-13b-dpo-v7 pour des tâches générales en langue coréenne.

Pour plus d'informations, voir Modèles de base pris en charge.

Un foundation model mixtral-8x7b-instruct-v01 est disponible pour l'inférence

18 avril 2024

Le foundation model mixtral-8x7b-instruct-v01 de Mistral AI est disponible pour l'inférence à partir de watsonx.ai Le foundation model mixtral-8x7b-instruct-v01 est un modèle génératif pré-entraîné qui utilise un réseau de mélange d'experts peu dense pour générer du texte plus efficacement.

Vous pouvez utiliser le modèle mixtral-8x7b-instruct-v01 pour les tâches générales, y compris la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Le foundation model mixtral-8x7b-instruct-v01-q est obsolète et sera retiré le 20 juin 2024. Révisez tous les messages-guides qui utilisent ce foundation model.

  • Date d'obsolescence: 19 avril 2024
  • Date de retrait: 20 juin 2024
  • Modèle alternatif: mixtral-8x7b-instruct-v01

Les demandes d'inférence soumises au modèle mixtral-8x7b-instruct-v01-q à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 20 juin 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du foundation model granite-20b-multilingual est introduite

18 avril 2024

La dernière version de granite-20b-multilingual est 1.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 1.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible.

Pour plus d'informations sur ce foundation model, voir Modèles de fondation pris en charge.

Semaine se terminant le 12 avril 2024

Prompte mise au point du foundation model granite-13b-instruct-v2

11 avril 2024

Le Tuning Studio permet désormais d'accorder le foundation model granite-13b-instruct-v2 en plus des modèles de fondation flan-t5-xl-3b et llama-2-13b-chat. Pour plus d'informations, voir Optimisation d'un foundation model.

Les paramètres de configuration de l'expérience pour l'ajustement du foundation model granite-13b-instruct-v2 changent pour appliquer les meilleures valeurs par défaut en fonction de votre tâche. Les instructions d'évaluation de l'optimisation vous aident à analyser les résultats de l'expérimentation et à ajuster les paramètres de configuration de l'expérimentation en fonction de vos résultats. Pour plus d'informations, voir Evaluation des résultats d'une expérimentation d'optimisation.

Un foundation model en langue arabe est disponible dans la région de Francfort

11 avril 2024

Le foundation model jais-13b-chat fourni par Inception, l'université Mohamed bin Zayed d'intelligence artificielle et Cerebras Systems est disponible dans la région de Francfort.

Le foundation model jais-13b-chat est spécialisé dans les tâches conversationnelles en arabe et en anglais. Vous pouvez également utiliser le foundation model jais-13b-chat pour des tâches générales en langue arabe, y compris la traduction entre l'arabe et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Afficher le texte intégral d'une invite dans Prompt Lab

11 avril 2024

Vous pouvez désormais consulter le texte complet de l'invite qui sera soumis au foundation model, ce qui est utile lorsque votre invite comprend des variables d'invite ou lorsque vous travaillez en mode structuré ou en mode chat.

Pour plus d'informations, voir Prompt Lab

Les modèles Granite version 1 obsolètes sont retirés

11 avril 2024

Les modèles de base suivants sont désormais retirés:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Révisez les invites qui utilisent ces modèles de base pour utiliser les modèles de base IBM Granite v2 . Pour plus d'informations sur la dépréciation et le retrait des foundation model, voir Cycle de vie des modèles de fondation.

Semaine se terminant le 5 avril 2024

Utiliser des tableaux croisés dynamiques pour afficher les données agrégées dans les expérimentations Decision Optimization

5 avril 2024

Vous pouvez désormais utiliser des tableaux croisés dynamiques pour afficher à la fois les données d'entrée et de sortie agrégées dans la vue Visualisation des expérimentations Decision Optimization . Pour plus d'informations, voir Widgets de visualisation dans les expérimentations Decision Optimization.

Semaine se terminant le 15 mars 2024

L'API watsonx.ai est disponible

14 mars 2024

L'API watsonx.ai est disponible en version GA. Utilisez l'API watsonx.ai pour utiliser des modèles de base à l'aide d'un programme. Pour plus d'informations, voir la référence de l'API.

La version de l'API est 2024-03-14.

Vous pouvez continuer à utiliser la bibliothèque Python disponible pour utiliser des modèles de base à partir d'un bloc-notes. Pour plus d'informations, voir BibliothèquePython.

De nouveaux modèles de base sont disponibles à Dallas, Francfort et Tokyo

14 mars 2024

Les modèles de base suivants sont désormais disponibles pour l'inférence à partir de watsonx.ai:

  • granite-20b-multilingual: un foundation model la famille IBM Granite que vous pouvez utiliser pour diverses tâches génératives en anglais, allemand, espagnol, français et portugais.

  • codellama-34b-instruct-hf: Modèle de génération de code par programmation à partir de Code Llama basé sur Llama 2 de Meta. Vous pouvez utiliser codellama-34b-instruct-hf pour créer des invites afin de générer du code basé sur des entrées en langage naturel et pour compléter et déboguer du code.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 8 mars 2024

Tuning Studio est disponible à Francfort

7 mars 2024

Tuning Studio est désormais disponible pour les utilisateurs de plans payants dans la région de Francfort. Tuning Tuning Studio vous aide à guider un foundation model pour qu'il produise des résultats utiles. Vous pouvez accorder les modèles de fondation flan-t5-xl-3b et llama-2-70b-chat lorsque vous utilisez le Tuning Studio à Francfort.

Pour plus d'informations, voir Tuning Studio.

Prompte mise au point du foundation model llama-2-13b-chat dans la région de Tokyo

7 mars 2024

Le Tuning Studio permet désormais d'accorder le foundation model llama-2-13b-chat dans la région de Tokyo. Tout d'abord, élaborez des messages-guides pour le grand modèle llama-2-70b-chat dans le Prompt Lab -guides afin de trouver des entrées de messages-guides efficaces pour votre cas d'utilisation. Optimisez ensuite la version plus petite du modèle Llama 2 pour générer des sorties comparables, voire meilleures, avec des invites zéro.

Pour plus d'informations, voir Tuning Studio.

Prix inférieur pour le modèle Mixtral8x7b

5 mars 2024

Le " foundation model " mixtral-8x7b-instruct-v01-q est reclassé de la classe 2 : unité " $0.0018/Resource à la classe 1 : unité " $0.0006/Resource, ce qui rend plus rentable l'exécution des tâches d'inférence par rapport à ce modèle. La reclassification s'applique à toutes les régions où mixtral-8x7b-instruct-v01-q est disponible.

Pour plus d'informations, voir Modèles de base pris en charge.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

L'atlas des risques de l'IA est mis à jour et amélioré

5 mars 2024

Vous pouvez maintenant trouver le contenu nouveau et amélioré suivant dans l'atlas des risques de l'IA:

  • Une nouvelle catégorie de risques non techniques couvrant la gouvernance, la conformité juridique et les risques d'impact sociétal
  • Nouveaux exemples de risques
  • Des définitions plus claires des risques

Voir AI risk atlas.

Nouveaux cas d'utilisation pour watsonx

5 mars 2024

Les cas d'utilisation watsonx sont disponibles pour vous aider à voir comment vous pouvez utiliser nos produits, services et outils:

  • Cas d'utilisation watsonx.ai : Ce cas d'utilisation décrit comment vous pouvez transformer vos processus métier avec des solutions basées sur l'intelligence artificielle en intégrant l'apprentissage automatique et l'intelligence artificielle générative dans votre infrastructure opérationnelle.
  • Cas d'utilisation watsonx.governance : Ce cas d'utilisation décrit comment vous pouvez créer des flux de travaux d'intelligence artificielle responsables, transparents et explicables avec un système intégré pour le suivi, la surveillance et le recyclage des modèles d'intelligence artificielle.

Voir Cas d'utilisation dewatsonx.

Semaine se terminant le 1er mars 2024

Le mode chat est disponible dans Prompt Lab

29 février 2024

Le mode Chat de Prompt Lab est une interface de chat simple qui facilite l'expérimentation des modèles de fondation. Le mode de discussion permet d'augmenter les modes structurés et à structure libre déjà disponibles qui sont utiles lors de la génération d'invites pour des tâches telles que l'extraction, la synthèse et la classification. Utilisez le mode Discussion pour simuler des réponses aux questions ou des interactions conversationnelles pour les cas d'utilisation de l'agent conversationnel et de l'assistant virtuel.

Pour plus d'informations, voir Prompt Lab

Un modèle Granite en japonais est disponible dans la région de Tokyo

29 février 2024

Le foundation model granite-8b-japanese fourni par IBM est disponible sur watsonx.ai dans la région de Tokyo. Le " granite-8b-japanese " foundation model est basé sur le modèle d'instruction " IBM " Granite et est formé pour comprendre et générer du texte japonais.

Vous pouvez utiliser le foundation model granite-8b-japanese pour des tâches générales en langue japonaise, telles que la classification, l'extraction, la réponse aux questions et la traduction entre le japonais et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 23 février 2024

Prix inférieur pour les modèles Granite-13b

21 février 2024

Les modèles Granite-13b sont reclassés de la classe 2: $0.0018/Resource à la classe 1: $0.0006/Resource , ce qui rend plus rentable l'exécution de tâches d'inférence sur ces modèles. Le reclassement s'applique aux modèles suivants dans toutes les régions où ils sont disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Pour plus d'informations sur ces modèles, voir Modèles de base pris en charge.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

Semaine se terminant le 16 février 2024

Nouveau raccourci pour commencer à travailler sur des tâches communes

15 février 2024

Vous pouvez maintenant démarrer une tâche commune dans votre projet en cliquant sur une vignette dans la section Commencer à travailler de l'onglet Présentation . Utilisez ces raccourcis pour commencer à ajouter des collaborateurs et des données, et pour expérimenter et créer des modèles. Cliquez sur Afficher tout pour accéder à une sélection d'outils.

Nouveau foundation model mixtral-8x7b-instruct-v01-q pour les tâches générales

15 février 2024

Le foundation model mixtral-8x7b-instruct-v01-q fourni par Mistral AI et quantifié par IBM est disponible sur watsonx.ai Le foundation model mixtral-8x7b-instruct-v01-q est une version quantifiée du foundation model Mixtral 8x7B Instruct de Mistral AI.

Vous pouvez utiliser ce nouveau modèle pour les tâches générales, notamment la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles suivants sont obsolètes et seront bientôt retirés. Modifiez toutes les invites qui utilisent ces modèles de base pour utiliser un autre foundation model, tel que mixtral-8x7b-instruct-v01-q.

Modèles de base obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
gpt-neox-20b 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 février 2024 11 avril 2024 mixtral-8x7b-instruct-v01-q

Les demandes d'inférence qui sont soumises à ces modèles à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. Lorsque la date de retrait est atteinte, les demandes d'API pour l'inférence des modèles ne génèrent pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du foundation model granite-13b-chat-v2 est disponible

15 février 2024

La dernière version de granite-13b-chat-v2 est 2.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 2.0.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible. Pour plus d'informations, voir la section Qu'est-ce que l'alignement de l'IA ? article de blogue d' IBM Research.

Nouveau tutoriel et vidéo watsonx

15 février 2024

Essayez le nouveau tutoriel watsonx.governance pour apprendre à évaluer un modèle d'apprentissage automatique pour l'équité, l'exactitude, la dérive et l'explicabilité avec Watson OpenScale.

Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Evaluer un modèle d'apprentissage automatique Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle. Exécutez un bloc-notes pour configurer les modèles et utilisez Watson OpenScale pour évaluer.

Semaine se terminant le 09 février 2024

Documentation Decision Optimization plus centrée sur les tâches

9 février 2024

Vous pouvez désormais trouver plus facilement les informations appropriées pour créer et configurer des expérimentations Decision Optimization . Voir ExpériencesDecision Optimization et ses sous-sections.

IBM Cloud Data Engine la connexion est obsolète

8 février 2022

La connexion IBM Cloud Data Engine est obsolète et sera supprimée dans une prochaine version. Pour connaître les dates importantes et les détails, consultez la rubrique " Déclassement du moteur de données".

Nouvel environnement Spark 3.4 pour l'exécution de travaux de flux Data Refinery

9 février 2024

Lorsque vous sélectionnez un environnement pour un travail de flux Data Refinery , vous pouvez maintenant sélectionner Default Spark 3.4 & R 4.2, qui inclut des améliorations de Spark.

Environnements Spark Data Refinery

L'environnement Default Spark 3.3 & R 4.2 est obsolète et sera supprimé lors d'une mise à jour ultérieure.

Mettez à jour vos travaux de flux Data Refinery pour utiliser le nouvel environnement Default Spark 3.4 & R 4.2 . Pour plus de détails, voir Options de ressource de calcul pour Data Refinery dans les projets.

Semaine se terminant le 2 février 2024

Collection d'exemples renommée en concentrateur de ressources

2 février 2024

La collection d'exemples est renommée en concentrateur de ressources pour mieux refléter le contenu. Le concentrateur de ressources contient des modèles de base et des exemples de projets, des ensembles de données et des blocs-notes. Voir concentrateur de ressources.

IBM Cloud Databases for DataStax la connexion est interrompue

2 février 2024

La connexion IBM Cloud Databases for DataStax a été supprimée de IBM watsonx.ai.

La connexion Dremio requiert des mises à jour

2 février 2024

Auparavant, la connexion Dremio utilisait un pilote JDBC . Maintenant, la connexion utilise un pilote basé sur Arrow Flight.

Important: mettez à jour les propriétés de connexion. Différentes modifications s'appliquent à une connexion pour une instance Dremio Software (sur site) ou une instance Dremio Cloud.

Logiciel Dremio : mettez à jour le numéro de port.

Le nouveau numéro de port par défaut utilisé par Flight est 32010. Vous pouvez confirmer le numéro de port dans le fichier dremio.conf . Voir Configuration via dremio.conf pour plus d'informations.

En outre, Dremio ne prend plus en charge les connexions avec IBM Cloud Satellite.

Dremio Cloud: mettez à jour la méthode d'authentification et le nom d'hôte.

  1. Connectez-vous à Dremio et générez un jeton d'accès personnel. Pour plus d'informations, voir les jetons d'accès personnels.
  2. Dans IBM watsonx dans le formulaire Create connection: Dremio , remplacez le type d'authentification par Personal Access Token et ajoutez les informations de jeton. (L'authentification Nom d'utilisateur et mot de passe ne peut plus être utilisée pour se connecter à une instance cloud Dremio .)
  3. Sélectionnez Le port est activé pour SSL.

Si vous utilisez le nom d'hôte par défaut pour une instance Dremio Cloud, vous devez le modifier:

  • Remplacez sql.dremio.cloud par data.dremio.cloud
  • Remplacez sql.eu.dremio.cloud par data.eu.dremio.cloud

Invitation à mettre au point le foundation model llama-2-13b-chat

1er février 2024

Le Tuning Tuning Studio permet désormais d'accorder le foundation model llama-2-13b-chat. Tout d'abord, élaborez des messages-guides pour le grand modèle llama-2-70b-chat dans le Prompt Lab -guides afin de trouver des entrées de messages-guides efficaces pour votre cas d'utilisation. Optimisez ensuite la version plus petite du modèle Llama 2 pour générer des sorties comparables, voire meilleures, avec des invites zéro. Le llama-2-13b-model est disponible pour une mise au point rapide dans la région de Dallas. Pour plus d'informations, voir Tuning Studio.

Semaine se terminant le 26 janvier 2024

AutoAI prend en charge les données ordonnées pour toutes les expérimentations

25 janvier 2024

Vous pouvez désormais spécifier des données ordonnées pour toutes les expérimentations AutoAI plutôt que des expérimentations de séries temporelles. Indiquez si vos données d'apprentissage sont classées de manière séquentielle, en fonction d'un index de ligne. Lorsque les données d'entrée sont séquentielles, les performances du modèle sont évaluées sur les enregistrements les plus récents au lieu d'un échantillonnage aléatoire, et les données restantes utilisent les n derniers enregistrements de l'ensemble au lieu de n enregistrements aléatoires. Des données séquentielles sont requises pour les expériences de séries temporelles, mais facultatives pour les expériences de classification et de régression.

Questions & réponses avec accélérateur RAG

26 janvier 2024

Vous pouvez maintenant implémenter une solution de questions et réponses qui utilise la génération étendue d'extraction en important un exemple de projet. L'exemple de projet contient des blocs-notes et d'autres actifs qui convertissent des documents HTML ou PDF en texte en clair, importent des segments de document dans un index de vecteurs Elasticsearch , déploient une fonction Python qui interroge l'index de vecteurs, extraient les N premiers résultats, exécutent l'inférence LLM pour générer une réponse à la question et recherchent les hallucinations.

Essayez Q & R avec l'accélérateur RAG.

Définir sur le thème foncé

25 janvier 2024

Vous pouvez maintenant définir votre interface utilisateur watsonx sur le thème foncé. Cliquez sur votre avatar et sélectionnez Profil et paramètres pour ouvrir votre profil de compte. Ensuite, définissez le bouton de thème foncé sur on. Le thème sombre n'est pas pris en charge dans RStudio et les carnets Jupyter. Pour plus d'informations sur la gestion de votre profil, voir Gestion de vos paramètres.

IBM watsonx.ai est disponible dans la région de Tokyo

25 janvier 2024

Watsonx.ai est désormais disponible dans le centre de données de Tokyo et peut être sélectionné comme région préférée lors de l'inscription. Le Prompt Lab et l'inférence du foundation model sont pris en charge dans la région de Tokyo pour ces modèles :

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Egalement disponible dans la région de Tokyo:

  • Prompt tuning du foundation model flan-t5-xl-3b avec le Tuning Studio
  • Génération de données tabulaires à l'aide du Synthetic Data Generator à utiliser pour l'entraînement des modèles

Pour plus d'informations sur les modèles pris en charge, voir Supported foundation models available with watsonx.ai.

Un modèle en japonais Llama 2 est disponible dans la région de Tokyo

25 janvier 2024

Le foundation model elyza-japanese-llama-2-7b-instruct fourni par ELYZA, Inc. est disponible dans les instances watsonx.ai du centre de données de Tokyo. Le modèle elyza-japanese-llama-2-7b-instruct est une version du modèle Llama 2 de Meta qui a été entraînée à comprendre et à générer du texte japonais.

Vous pouvez utiliser ce nouveau modèle pour des tâches générales. Il fonctionne bien pour la classification et l'extraction en japonais et pour la traduction entre le japonais et l'anglais.

Semaine se terminant le 12 janvier 2024

La prise en charge du Runtime IBM 22.2 est obsolète dans le Runtime watsonx.ai (anciennement Watson Machine Learning)

11 janvier 2024

IBM Runtime 22.2 est obsolète et sera supprimé le 11 avril 2024. A partir du 7 mars 2024, vous ne pouvez pas créer de blocs-notes ou d'environnements personnalisés à l'aide des environnements d'exécution 22.2 . En outre, vous ne pouvez pas entraîner de nouveaux modèles avec des spécifications logicielles basées sur l'environnement d'exécution 22.2 . Mettez à jour vos actifs et vos déploiements pour utiliser IBM Runtime 23.1 avant le 7 mars 2024.

Les modèles de base IBM Granite v1 sont obsolètes

11 janvier 2024

Les modèles de base IBM Granite 13 milliards de paramètres v1 sont obsolètes et seront retirés le 11 avril 2024. Si vous utilisez la version 1 des modèles, passez à la version 2 des modèles.

Modèles de base IBM obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
granite-13b-chat-v1 11 janvier 2024 11 avril 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 janvier 2024 11 avril 2024 granite-13b-instruct-v2

Les demandes d'inférence qui sont soumises aux modèles version 1 à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 11 avril 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur les modèles de base IBM Granite , voir Modèles de base créés par IBM. Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Semaine se terminant le 15 décembre 2023

Créer des clés d'API utilisateur pour des travaux et d'autres opérations

15 décembre 2023

Certaines opérations d'exécution dans IBM watsonx, telles que les travaux et l'entraînement de modèle, nécessitent une clé d'API comme données d'identification pour une autorisation sécurisée. Avec les clés d'API utilisateur, vous pouvez désormais générer et faire pivoter une clé d'API directement dans IBM watsonx , si nécessaire, afin de garantir le bon déroulement de vos opérations. Les clés d'API sont gérées dans IBM Cloud, mais vous pouvez facilement les créer et les faire pivoter dans IBM watsonx.

La clé d'API utilisateur est spécifique au compte et est créée à partir de Profil et paramètres sous votre profil de compte.

Pour plus d'informations, voir Gestion de la clé d'API utilisateur.

Nouveaux tutoriels et vidéos watsonx

15 décembre 2023

Essayez les nouveaux tutoriels watsonx watsonx.governance et watsonx.ai pour apprendre à mettre au point un modèle de foundation model et à évaluer et suivre un modèle d'invite.

Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Mise au point d'un foundation model Ajuster un foundation model pour en améliorer les performances. Utilisez Tuning Studio pour optimiser un modèle sans codage.
Evaluer et suivre un modèle d'invite Évaluer un modèle d'invite pour mesurer les performances du foundation model et suivre le modèle d'invite tout au long de son cycle de vie. Utilisez l'outil d'évaluation et un cas d'utilisation d'IA pour suivre le modèle d'invite.

Regarder une vidéo Retrouvez d'autres vidéos sur watsonx.governance et watsonx.ai dans la bibliothèque de vidéos.

Expiration et déconnexion de la nouvelle session de connexion en raison d'une inactivité

15 décembre 2023

Vous êtes maintenant déconnecté d' IBM Cloud en raison de l'expiration de la session. Votre session peut expirer en raison de l'expiration de la session de connexion (24 heures par défaut) ou de l'inactivité (2 heures par défaut). Vous pouvez modifier les durées par défaut dans les paramètres d'accès (IAM) dans IBM Cloud. Pour plus d'informations, voir Définition de l'expiration de la session de connexion.

IBM Cloud Databases for DataStax connecteur est obsolète

15 décembre 2023

Le connecteur IBM Cloud Databases for DataStax est obsolète et sera supprimé dans une prochaine version.

Semaine se terminant le 08 décembre 2023

Tuning Studio est disponible

7 décembre 2023

Le Tuning Studio vous aide à guider un foundation model pour qu'il produise des résultats utiles. Avec le Tuning Studio, vous pouvez régler rapidement le foundation model afin d'améliorer ses performances dans les tâches de traitement du langage naturel telles que la classification, le résumé et la génération. L'ajustement rapide aide les modèles de base plus petits et plus efficaces sur le plan informatique à obtenir des résultats comparables à ceux des modèles plus grands de la même famille de modèles. En optimisant et en déployant une version optimisée d'un modèle plus petit, vous pouvez réduire les coûts d'inférence à long terme. Le Tuning Studio est disponible pour les utilisateurs de plans payants dans la région de Dallas.

Nouvelles propriétés client dans les connexions Db2 pour la gestion de charge de travail

8 décembre 2023

Vous pouvez désormais spécifier des propriétés dans les zones suivantes à des fins de surveillance: Nom de l'application, Informations comptables du client, Nom d'hôte du clientet Utilisateur du client. Ces zones sont facultatives et sont disponibles pour les connexions suivantes:

Semaine se terminant le 1er décembre 2023

Watsonx.governance est disponible !

1 déc 2023

Watsonx.governance étend les capacités de gouvernance de Watson OpenScale pour évaluer les actifs des foundation model ainsi que les actifs d'apprentissage automatique. Par exemple, évaluer les modèles d'invite du foundation model pour des dimensions telles que la précision ou pour détecter la présence de discours haineux et abusifs. Vous pouvez également définir des cas d'utilisation de l'intelligence artificielle pour résoudre des problèmes métier, puis suivre les modèles d'invite ou les données de modèle dans des fiches d'information afin de prendre en charge les objectifs de conformité et de gouvernance. Les plans et fonctionnalités de Watsonx.governance ne sont disponibles que dans la région de Dallas.

Explorer avec l'atlas des risques de l'IA

1 déc 2023

Vous pouvez maintenant explorer certains des risques liés à l'utilisation de l'IA générative, des modèles de base et des modèles d'apprentissage automatique. Découvrez les risques pour la confidentialité, l'équité, l'explicabilité, l'alignement de la valeur et d'autres domaines. Voir AI risk atlas.

De nouvelles versions des modèles IBM Granite sont disponibles

30 novembre 2023

Les dernières versions des modèles Granite incluent les modifications suivantes:

granite-13b-chat-v2: Réglée pour être mieux à même de répondre aux questions, de récapituler et de réaliser des tâches génératives. Avec un contexte suffisant, génère des réponses avec les améliorations suivantes par rapport à la version précédente:

  • Génère des réponses plus longues et de meilleure qualité avec un ton professionnel
  • Prend en charge les réponses de la chaîne de pensée
  • Reconnaît les mentions de personnes et peut mieux détecter le ton et le sentiment
  • Gère les espaces blancs dans les entrées de manière plus appropriée

En raison de modifications importantes, testez et révisez les invites qui ont été conçues pour v1 avant de passer à la version la plus récente.

granite-13b-instruire-v2: Réglée spécifiquement pour les tâches de classification, d'extraction et de récapitulation. La version la plus récente diffère de la version précédente de la manière suivante:

  • Renvoie des réponses plus cohérentes de longueurs variées et avec un vocabulaire diversifié
  • Reconnaît les mentions de personnes et peut résumer les entrées plus longues
  • Gère les espaces blancs dans les entrées de manière plus appropriée

Les invites techniques qui fonctionnent bien avec v1 sont susceptibles de bien fonctionner avec v2 également, mais veillez à les tester avant de changer de modèle.

Les dernières versions des modèles Granite sont catégorisées en tant que modèles de classe 2.

Certains modèles de base sont désormais disponibles à moindre coût

30 novembre 2023

Certains modèles de fondations populaires ont été recatégorisés dans des classes de facturation à moindre coût.

Les modèles de base suivants sont passés de la classe 3 à la classe 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Le foundation model suivant est passé de la classe 2 à la classe 1 :

  • llama-2-13b

Pour plus d'informations sur les classes de facturation, voir watsonx.ai Runtime plans.

Un nouvel exemple de bloc-notes est disponible: Introduction à RAG avec Discovery

30 novembre 2023

Utilisez le bloc-notes Introduction to RAG with Discovery pour apprendre à appliquer le modèle de génération d'extension d'extraction dans IBM watsonx.ai avec IBM Watson Discovery comme composant de recherche. Pour plus d'informations, voir Introduction à RAG avec Discovery.

Comprendre les différences de fonction entre watsonx en tant que service et les déploiements de logiciels

30 novembre 2023

Vous pouvez désormais comparer les fonctions et l'implémentation d' IBM watsonx as a Service et watsonx sur le logiciel Cloud Pak for Data version 4.8. Voir Différences de fonction entre les déploiements watsonx.

Modification du mode de traitement des séquences d'arrêt

30 novembre 2023

Lorsqu'une séquence d'arrêt, telle qu'un caractère de retour à la ligne, est spécifiée dans l'Prompt Lab, le texte de sortie du modèle se termine après la première occurrence de la séquence d'arrêt. La sortie du modèle s'arrête même si l'occurrence se trouve au début de la sortie. Auparavant, la séquence d'arrêt était ignorée si elle était spécifiée au début de la sortie du modèle.

Semaine se terminant le 10 novembre 2023

Une version plus petite du modèle de discussion Llama-2 est disponible

9 novembre 2023

Vous pouvez désormais choisir d'utiliser les versions 13b ou 70b du modèle de discussion Llama-2 . Tenez compte des facteurs suivants lorsque vous faites votre choix:

  • Coût
  • lente

La version 13b est un modèle de classe 2, ce qui signifie qu'il est moins cher à utiliser que la version 70b . Pour comparer les références et d'autres facteurs, tels que les émissions de carbone pour chaque taille de modèle, voir la carte des modèles.

Utiliser des variables d'invite pour générer des invites réutilisables

Ajoutez de la flexibilité à vos invites avec des variables d'invite. Les variables d'invite fonctionnent comme des marques de réservation dans le texte statique de votre entrée d'invite que vous pouvez remplacer par du texte dynamiquement au moment de l'inférence. Vous pouvez sauvegarder les noms de variable d'invite et les valeurs par défaut dans un actif de modèle d'invite pour vous réutiliser ou partager avec des collaborateurs dans votre projet. Pour plus d'informations, voir Génération d'invites réutilisables.

Annonce de la prise en charge des infrastructures et des spécifications logicielles Python 3.10 et R4.2 sur l'environnement d'exécution 23.1

9 novembre 2023

Vous pouvez désormais utiliser IBM Runtime 23.1, qui inclut les derniers frameworks de science des données basés sur Python 3.10 et R 4.2, pour exécuter des blocs-notes Jupyter et des scripts R, former des modèles et exécuter des déploiements. Mettez à jour vos ressources et vos déploiements pour utiliser les frameworks et les spécifications logicielles IBM Runtime 23.1

Utilisez Apache Spark 3.4 pour exécuter des blocs-notes et des scripts

Spark 3.4 avec Python 3.10 et R 4.2 est maintenant supporté comme runtime pour les notebooks et les scripts RStudio dans les projets. Pour plus d'informations sur les environnements de bloc-notes disponibles, voir Calculer les options de ressources pour l'éditeur de bloc-notes dans les projets et Calculer les options de ressources pour RStudio dans les projets.

Semaine se terminant le 27 octobre 2023

Utilisez un connecteur Satellite pour vous connecter à une base de données sur site

26 octobre 2023

Utilisez le nouveau connecteur Satellite pour vous connecter à une base de données qui n'est pas accessible via Internet (par exemple, derrière un pare-feu). Le connecteur Satellite utilise une communication Dockerlégère qui crée des communications sécurisées et auditables depuis votre environnement sur site vers IBM Cloud. Pour obtenir des instructions, voir Connexion à des données derrière un pare-feu.

Secure Gateway est obsolète

26 octobre 2023

IBM Cloud a annoncé la dépréciation de Secure Gateway. Pour plus d'informations, voir la vue d'ensemble et le calendrier.

Si vous disposez actuellement de connexions configurées avec Secure Gateway, prévoyez d'utiliser une autre méthode de communication. Dans IBM watsonx, vous pouvez utiliser le connecteur Satellite pour remplacer Secure Gateway. Voir Connexion à des données derrière un pare-feu.

Semaine se terminant le 20 octobre 2023

Augmentation de la taille maximale des jetons

16 octobre 2023

Les limites précédemment appliquées au nombre maximal de jetons autorisés dans la sortie des modèles de base sont supprimées des plans payants. Vous pouvez utiliser des valeurs maximales plus élevées pour les jetons lors de l'ingénierie des invites à partir du Prompt Lab et de la bibliothèque Python. Le nombre exact de jetons autorisés varie en fonction du modèle. Pour plus d'informations sur les limites de jeton pour les plans payants et Lite, voir Modèles de base pris en charge.

Semaine se terminant le 13 octobre 2023

Nouveaux blocs-notes dans les exemples

12 octobre 2023

Deux nouveaux blocs-notes sont disponibles qui utilisent une base de données vectorielle à partir de Elasticsearch lors de la phase d'extraction du modèle de génération d'extension d'extraction. Les blocs-notes montrent comment trouver des correspondances en fonction de la similarité sémantique entre les documents indexés et le texte de requête soumis par un utilisateur.

Solutions intermédiaires dans Decision Optimization

12 octobre 2023

Vous pouvez maintenant choisir d'afficher un échantillon de solutions intermédiaires alors qu'une expérimentation Decision Optimization est en cours d'exécution. Cela peut être utile pour le débogage ou pour voir la progression du solveur. Pour les grands modèles qui prennent plus de temps à résoudre, avec des solutions intermédiaires, vous pouvez maintenant identifier rapidement et facilement les problèmes potentiels avec la résolution, sans avoir à attendre la fin de la résolution. Affichage graphique illustrant les statistiques d'exécution avec des solutions intermédiaires. Vous pouvez configurer le paramètre de livraison de solutions intermédiaires dans la configuration de l'exécution et sélectionner une fréquence pour ces solutions. Pour plus d'informations, voir Solutions intermédiaires et Paramètres de configuration d'exécution.

Nouvelle boîte de dialogue du modèle enregistré Decision Optimization

Lorsque vous sauvegardez un modèle pour le déploiement à partir de l'interface utilisateur Decision Optimization , vous pouvez désormais examiner le schéma d'entrée et de sortie et sélectionner plus facilement les tables que vous souhaitez inclure. Vous pouvez également ajouter, modifier ou supprimer des paramètres de configuration d'exécution, examiner l'environnement et les fichiers de modèle utilisés. Tous ces éléments sont affichés dans la même boîte de dialogue Sauvegarder en tant que modèle pour le déploiement . Pour plus d'informations, voir Déploiement d'un modèle Decision Optimization à l'aide de l'interface utilisateur.

Semaine se terminant le 6 octobre 2023

Modèles de base supplémentaires à Francfort

5 octobre 2023

Tous les modèles de base disponibles dans le centre de données de Dallas sont désormais également disponibles dans le centre de données de Francfort. Le Prompt Lab watsonx.ai et l'inférence du foundation model sont désormais pris en charge dans la région de Francfort pour ces modèles :

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Pour plus d'informations sur ces modèles, voir Supported foundation models available with watsonx.ai.

Pour plus de détails sur les prix, voir les plans d'exécution dewatsonx.ai

Contrôle le placement d'une nouvelle colonne dans l'opération de concaténation (Data Refinery)

6 octobre 2023

Vous disposez maintenant de deux options pour spécifier la position de la nouvelle colonne qui résulte de l'opération Concaténer : en tant que colonne la plus à droite dans le jeu de données ou en regard de la colonne d'origine.

Concaténer la position de la colonne d'opération

Auparavant, la nouvelle colonne était placée au début du jeu de données.

Important :

Editez l'opération Concaténer dans l'un de vos flux Data Refinery existants pour spécifier la nouvelle position de colonne. Sinon, le flux risque d'échouer.

Pour plus d'informations sur les opérations Data Refinery , voir Opérations de l'interface graphique dans Data Refinery.

Semaine se terminant le 29 septembre 2023

Modèles de base IBM Granite pour la génération du langage naturel

28 septembre 2023

Les deux premiers modèles de la famille Granite des modèles de base IBM sont désormais disponibles dans la région de Dallas:

  • granite-13b-chat-v1: modèle d'utilisation générale optimisé pour les cas d'utilisation de dialogue
  • granite-13b-instruire-v1: modèle d'utilisation générale optimisé pour la réponse aux questions

Les deux modèles sont des modèles de décodeur 13B-parameter qui peuvent prédire et générer efficacement la langue en anglais. Comme tous les modèles de la famille Granite , ils sont conçus pour l'entreprise. Les modèles Granite sont pré-entraînés sur plusieurs téraoctets de données provenant à la fois de sources en langage général, telles que l'Internet public, et de sources de données spécifiques à l'industrie dans les domaines académique, scientifique, juridique et financier.

Essayez-les dès aujourd'hui dans le Prompt Lab ou exécutez un exemple de carnet de notes qui utilise le modèle granite-13b-instruct-v1 pour l'analyse des sentiments.

Pour en savoir plus, lisez l'article de blog Building AI for business : IBMs Granite foundation models pour en savoir plus.

Semaine se terminant le 22 septembre 2023

Modèles Java Decision Optimization

20 septembre 2023

Les modèles Java d'Decision Optimization peuvent désormais être déployés dans watsonx.ai Runtime (anciennement Watson Machine Learning. En utilisant l'API d'agent Java, vous pouvez créer des modèles d'optimisation avec les API Java OPL, CPLEX et CP Optimizer. You can now easily create your models locally, package them and deploy them on watsonx.ai Runtime by using the boilerplate that is provided in the public Travailleur Java " GitHub. Pour plus d'informations, voir Déploiement de modèles Java pour l'Decision Optimization

Nouveaux blocs-notes dans le concentrateur de ressources

21 septembre 2023

Vous pouvez utiliser les nouveaux blocs-notes suivants dans le concentrateur de ressources:

Semaine se terminant le 15 septembre 2023

Tutoriels d'ingénierie d'invite et de démarrage rapide des données synthétiques

14 septembre 2023

Essayez les nouveaux tutoriels pour apprendre à:

  • Inviter les modèles de fondation : Il existe généralement plusieurs façons d'inviter un foundation model à donner un résultat positif. Dans le Prompt Lab, vous pouvez expérimenter les messages-guides de différents modèles de fondation, explorer des exemples de messages-guides, ainsi qu'enregistrer et partager vos meilleurs messages-guides. Une façon d'améliorer la précision de la sortie générée consiste à fournir les faits nécessaires en tant que contexte dans votre texte d'invite à l'aide du modèle de génération d'extension d'extraction.
  • Générer des données synthétiques: vous pouvez générer des données tabulaires synthétiques dans watsonx.ai. L'avantage des données synthétiques est que vous pouvez vous procurer les données à la demande, puis les personnaliser en fonction de votre cas d'utilisation et les produire en grandes quantités.
Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Promouvoir un foundation model à l'aide de Prompt Lab Testez les différents modèles de base d'invite, explorez les exemples d'invite et sauvegardez et partagez vos meilleures invites. Demander un modèle à l'aide de Prompt Lab sans coder.
Promouvoir un foundation model à l'aide du modèle de génération augmentée par la recherche Promouvoir un foundation model en exploitant les informations contenues dans une base de connaissances. Utilisez le modèle de génération d'extension d'extraction dans un bloc-notes Jupyter qui utilise le code Python .
Générer des données tabulaires synthétiques Générez des données tabulaires synthétiques à l'aide d'un éditeur de flux graphique. Sélectionnez des opérations pour générer des données.

Communauté Watsonx.ai

14 septembre 2023

Vous pouvez maintenant rejoindre la communautéwatsonx.ai pour les architectes et les constructeurs d'IA afin d'apprendre, de partager des idées et de se connecter avec d'autres.

Semaine se terminant le 8 septembre 2023

Génération de données tabulaires synthétiques avec Synthetic Data Generator

7 septembre 2023

Désormais disponible dans les régions de Dallas et de Francfort, Synthetic Data Generator est un nouvel outil d'éditeur graphique sur watsonx.ai que vous pouvez utiliser pour générer des données tabulaires à utiliser pour les modèles d'apprentissage. A l'aide de flux visuels et d'un modèle statistique, vous pouvez créer des données synthétiques en fonction de vos données existantes ou d'un schéma de données personnalisé. Vous pouvez choisir de masquer vos données d'origine et d'exporter vos données synthétiques dans une base de données ou sous forme de fichier.

Pour commencer, voir Données synthétiques.

Llama-2 Foundation Model pour la génération et la discussion en langage naturel

7 septembre 2023

Le modèle Llama-2 Foundation de Meta est désormais disponible dans la région de Dallas. Llama-2 Le modèle de discussion est un modèle de langage autorégressif qui utilise une architecture de transformateur optimisée. Le modèle est pré-entraîné avec des données en ligne accessibles au public, puis affiné à l'aide de l'apprentissage de renforcement à partir des commentaires humains. Le modèle est destiné à être utilisé à des fins commerciales et de recherche dans des scénarios de discussion de type assistant de langue anglaise.

Extension LangChain pour la bibliothèque Python des modèles de base

7 septembre 2023

Vous pouvez désormais utiliser l'infrastructure LangChain avec des modèles de base dans watsonx.ai avec la nouvelle extension LangChain pour la bibliothèque Python des modèles de base.

Cet exemple de carnet de notes montre comment utiliser la nouvelle extension : Exemple de carnet de notes

Exemple d'introduction pour le modèle de génération étendue à l'extraction

7 septembre 2023

La génération augmentée par extraction est une technique simple et puissante qui permet de tirer parti d'une base de connaissances pour obtenir des résultats factuellement précis à partir de modèles de base.

Voir: Introduction à l'extraction-génération augmentée

Semaine se terminant le 1er septembre 2023

Obsolescence des commentaires dans les blocs-notes

31 août 2023

A ce jour, il n'est pas possible d'ajouter des commentaires à un bloc-notes à partir de la barre d'actions du bloc-notes. Tous les commentaires existants ont été supprimés.

Icône Commentaires dans la barre d'actions du bloc-notes

Modèle StarCoder Foundation pour la génération de code et la traduction de code

31 août 2023

Le modèle StarCoder de Hugging Face est désormais disponible dans la région de Dallas. Utilisez StarCoder pour créer des invites de génération de code ou de transformation de code d'un langage de programmation à un autre. Un exemple d'invite montre comment utiliser StarCoder pour générer du code Python à partir d'un ensemble d'instructions. Un deuxième exemple d'invite montre comment utiliser StarCoder pour transformer du code écrit en C++ en code Python.

IBM watsonx.ai est disponible dans la région de Francfort

31 août 2023

Watsonx.ai est désormais généralement disponible dans le centre de données de Francfort et peut être sélectionnée comme région préférée lors de l'inscription. La région de Francfort prend en charge le Prompt Lab et l'inférence du foundation model pour ces modèles :

Semaine se terminant le 25 août 2023

Améliorations de cache supplémentaires disponibles pour Watson Pipelines

21 août 2023

D'autres options sont disponibles pour personnaliser vos paramètres de flux de pipeline. Vous pouvez désormais exercer un contrôle plus important sur le moment où le cache est utilisé pour les exécutions de pipeline. Pour plus de détails, voir Gestion des paramètres par défaut.

Semaine se terminant le 18 août 2023

Planifier les mises à jour de noms pour le service watsonx.ai Runtime (anciennement Watson Machine Learning)

18 août 2023

Dès à présent, les noms des plans sont mis à jour pour le service IBM watsonx.ai Runtime, comme suit :

  • Le plan v2 Standard est désormais le plan Essentials . Le plan est conçu pour fournir à votre organisation les ressources nécessaires pour commencer à utiliser des modèles de base et des actifs d'apprentissage automatique.

  • Le plan v2 Professional est désormais le plan Standard . Ce plan fournit des ressources conçues pour aider la plupart des organisations via la création d'actifs à une utilisation productive.

Les modifications apportées aux noms de plan ne modifient pas vos conditions de service. Autrement dit, si vous êtes enregistré pour utiliser le plan v2 Standard, il sera désormais nommé Essentials, mais tous les détails du plan resteront les mêmes. De même, si vous êtes enregistré pour utiliser le plan Professionnel v2 , il n'y a pas d'autres changements que le changement de nom du plan en Standard.

Pour plus de détails sur ce qui est inclus dans chaque plan, voir les plans d'exécutionwatsonx.ai Pour obtenir des informations sur les prix, trouvez votre plan sur la page du planwatsonx.ai Runtime dans le catalogue IBM Cloud

Semaine se terminant le 11 août 2023

Obsolescence des commentaires dans les blocs-notes

7 août 2023

Le 31 août 2023, vous ne pourrez plus ajouter de commentaires à un bloc-notes à partir de la barre d'actions du bloc-notes. Tous les commentaires existants qui ont été ajoutés de cette manière seront supprimés.

Icône Commentaires dans la barre d'actions du bloc-notes

Semaine se terminant le 4 août 2023

Augmentation de la limite de jeton pour le plan Lite

4 août 2023

Si vous utilisez le plan Lite pour tester les modèles de base, la limite de jeton pour l'entrée et la sortie d'invite passe désormais de 25 000 à 50 000 par compte et par mois. Vous bénéficiez ainsi d'une plus grande souplesse pour explorer les modèles de base et expérimenter avec les invites.

Modèle d'analyse de texte personnalisé (SPSS Modeler)

4 août 2023

Pour SPSS Modeler, vous pouvez désormais télécharger un modèle d'analyse de texte personnalisé dans un projet. Vous bénéficiez ainsi d'une plus grande souplesse pour capturer et extraire les concepts clés d'une manière unique à votre contexte.

Semaine se terminant le 28 juillet 2023

Bibliothèque Python des modèles de base disponible

27 juillet 2023

Vous pouvez désormais demander des modèles de base dans watsonx.ai à l'aide d'un programme à l'aide d'une bibliothèque Python .

Voir: Foundation models Python library

Semaine se terminant le 14 juillet 2023

Contrôle des glissières de sécurité d'IA

14 juillet 2023

Vous pouvez désormais contrôler l'activation ou la désactivation des garde-corps de l'IA dans le Prompt Lab Les glissières de sécurité d'IA suppriment le texte potentiellement dangereux des zones d'entrée et de sortie. Les textes préjudiciables peuvent inclure des discours de haine, des abus et des grossièretés. Pour empêcher la suppression de texte potentiellement dangereux, désactivez l'option IA guardrails . Voir Hate speech, abuse, and profanity.

Le Prompt Lab avec les garde-fous de l'IA mis en place

La connexion Microsoft Azure SQL Database prend en charge l'authentification Azure Active Directory (Azure AD)

14 juillet 2023

Vous pouvez désormais sélectionner Active Directory pour la connexion Microsoft Azure SQL Database . L'authentification Active Directory est une alternative à l'authentification SQL Server . Grâce à cette amélioration, les administrateurs peuvent gérer de manière centralisée les droits utilisateur sur Azure. Pour plus d'informations, voir Connexion àMicrosoft Azure SQL Database.

Semaine se terminant le 7 juillet 2023

Bienvenue dans IBM watsonx.ai!

7 juillet 2023

IBM watsonx.ai fournit tous les outils dont vous avez besoin pour utiliser l'apprentissage automatique et les modèles de base.

Mise en route:

Essayez la recherche d'IA générative et répondez dans cette documentation

7 juillet 2023

Vous pouvez voir l'IA générative en action en essayant la nouvelle option de recherche et de réponse de l'IA générative dans la documentation watsonx.ai . Les réponses sont générées par un modèle de langue de grande taille exécuté dans watsonx.ai et basé sur le contenu de la documentation. Cette fonction est disponible uniquement lorsque vous visualisez la documentation lorsque vous êtes connecté à watsonx.ai.

Saisissez une question dans le champ de recherche de la documentation et cliquez sur l'icône Essayer la recherche et la réponse de l'IA générative alt="". Le Recherche et réponse génératives par IA Le volet s'ouvre et répond à votre question.

Affiche le panneau de recherche et de réponse de l'IA générative

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus