0 / 0
Retourner à la version anglaise de la documentation
Nouveautés

Nouveautés

Revenez chaque semaine pour découvrir les nouvelles fonctions et mises à jour d' IBM watsonx.ai et d' IBM watsonx.governance.

Astuce: Parfois, vous devez effectuer une action spécifique après une mise à jour. Pour voir toutes les actions requises, recherchez dans cette page "Action requise".

Semaine se terminant le 17 mai 2024

Les modèles d'intégration de texte tiers sont disponibles dans watsonx.ai

16 mai 2024

Les modèles d'intégration de texte tiers suivants sont désormais disponibles en plus des modèles IBM Slate pour la mise en correspondance et l'extraction de texte améliorées:

  • all-minilm-l12-v2
  • bge-large-en-v1.5
  • multilingual-e5-large

Soumettez des phrases ou des passages à l'un des modèles d'imbrication pris en charge à l'aide de la bibliothèque watsonx.ai Python ou de l'API REST pour convertir le texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Pour plus d'informations sur ces modèles, voir Modèles d'intégration pris en charge.

Pour plus d'informations sur la conversion de texte, voir Génération d'imbrication de texte.

Semaine se terminant le 10 mai 2024

De nouveaux modèles Granite Code Instruct sont disponibles dans la région de Dallas

9 mai 2024

Vous pouvez désormais inférence les modèles de base Granite Code Instruct suivants fournis par IBM à partir de watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilisez les nouveaux modèles Granite Code Instruct Foundation pour les tâches de codage par programmation. Les modèles de base sont affinés sur une combinaison de données d'instruction pour améliorer les capacités de suivi d'instruction, y compris le raisonnement logique et la résolution de problèmes.

Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles de base InstructLab sont disponibles dans watsonx.ai

7 mai 2024

InstructLab est une initiative open source de Red Hat et IBM qui fournit une plateforme permettant d'étendre les capacités d'un modèle de base. Les modèles de base suivants prennent en charge les connaissances et les compétences fournies par InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

Vous pouvez explorer les contributions de la communauté open source à partir de la page de taxonomie du modèle de base.

Pour plus d'informations, voir Modèles de base compatibles avecInstructLab.

Semaine se terminant le 3 mai 2024

Organiser les actifs de projet dans des dossiers

2 mai 2024

Vous pouvez maintenant créer des dossiers dans vos projets pour organiser les actifs. Un administrateur du projet doit activer les dossiers, et les administrateurs et les éditeurs peuvent les créer et les gérer. Les dossiers sont en version bêta et ne sont pas encore pris en charge pour une utilisation dans les environnements de production. Pour plus d'informations, voir Organisation des actifs avec des dossiers (bêta).

L'onglet Actifs avec les dossiers

Semaine se terminant le 26 avril 2024

IBM watsonx.ai est disponible dans la région de Londres

25 avril 2023

Watsonx.ai est désormais disponible dans le centre de données de Londres et ce dernier peut être sélectionné comme région préférée lors de l'inscription.

  • Les modèles de base entièrement pris en charge à Dallas sont également disponibles pour l'inférence dans le centre de données de Londres à partir du laboratoire d'invite ou à l'aide de l'API. Les exceptions sont mt0-xxl-13b et le modèle de base llama-2-70b-chat , qui est remplacé par le modèle de base llama-3-70b-instruct qui est désormais disponible.
  • Optimisez les trois modèles de base optimisables à partir de Tuning Studio ou à l'aide de l'API.
  • Les deux modèles d'imbrication IBM et l'API d'imbrication sont pris en charge.

Pour plus d'informations, voir Disponibilité régionale des services et des fonctions.

Démarrer une discussion dans Prompt Lab directement à partir de la page d'accueil

25 avril 2023

Vous pouvez maintenant démarrer une conversation avec un modèle de base à partir de la page d'accueil IBM watsonx.ai . Entrez une question à envoyer à un modèle de base en mode de discussion ou cliquez sur Ouvrir Prompt Lab pour choisir un modèle de base et des paramètres de modèle avant de soumettre une entrée de modèle.

Semaine se terminant le 19 avril 2024

De nouveaux modèles de base Meta Llama 3 sont désormais disponibles

18 avril 2024

Les modèles de base Llama 3 suivants fournis par Meta sont disponibles pour l'inférence à partir de watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

Les nouveaux modèles de base Llama 3 sont des modèles de langage affinés d'instructions qui peuvent prendre en charge divers cas d'utilisation.

Cette dernière version de Llama est entraînée avec plus de jetons et applique de nouvelles procédures post-entraînement. Il en résulte des modèles de base avec de meilleures capacités de compréhension du langage, de raisonnement, de génération de code et de suivi d'instruction.

Pour plus d'informations, voir Modèles de base pris en charge.

Présentation de la prise en charge de l'intégration d' IBM pour la mise en correspondance et l'extraction de texte améliorées

18 avril 2024

Vous pouvez désormais utiliser l'API d'imbrication IBM et les modèles d'imbrication IBM pour transformer du texte d'entrée en vecteurs afin de comparer et d'extraire plus précisément du texte similaire.

Les modèles d'imbrication IBM Slate suivants sont disponibles:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Pour plus d'informations, voir Génération d'imbrication de texte.

Pour plus de détails sur la tarification, voir PlansWatson Machine Learning.

IBM watsonx.governance est inclus lorsque vous vous inscrivez à IBM watsonx.ai

18 avril 2024

Si vous vous inscrivez à watsonx.ai dans la région de Dallas, watsonx.governance est désormais inclus automatiquement. Voir Inscription à IBM watsonx as a Service.

Evaluer les déploiements d'apprentissage automatique dans les espaces

18 avril 2024

Configurez les évaluations watsonx.governance dans vos espaces de déploiement pour obtenir des informations sur les performances de votre modèle d'apprentissage automatique. Par exemple, évaluez un déploiement pour le biais ou surveillez un déploiement pour la dérive. Lorsque vous configurez des évaluations, vous pouvez analyser les résultats d'évaluation et modéliser les enregistrements de transaction directement dans vos espaces.

Pour plus d'informations, voir Evaluation des déploiements dans les espaces.

Un modèle de base en langue coréenne est disponible dans la région de Tokyo

18 avril 2024

Le modèle de base llama2-13b-dpo-v7 fourni par Minds & Company et basé sur le modèle de base Llama 2 de Meta est disponible dans la région de Tokyo.

Le modèle de base llama2-13b-dpo-v7 est spécialisé dans les tâches conversationnelles en coréen et en anglais. Vous pouvez également utiliser le modèle de base llama2-13b-dpo-v7 pour des tâches générales en coréen.

Pour plus d'informations, voir Modèles de base pris en charge.

Un modèle de base mixtral-8x7b-instruct-v01 est disponible pour l'inférence

18 avril 2024

Le modèle de base mixtral-8x7b-instruct-v01 de Mistral AI est disponible pour l'inférence à partir de watsonx.ai. Le modèle de base mixtral-8x7b-instruct-v01 est un modèle génératif préformé qui utilise un réseau mixte d'experts épars pour générer du texte de manière plus efficace.

Vous pouvez utiliser le modèle mixtral-8x7b-instruct-v01 pour les tâches générales, y compris la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Le modèle de base mixtral-8x7b-instruct-v01-q est obsolète et sera retiré le 23 mai 2024. Révisez les invites qui utilisent ce modèle de base.

  • Date d'obsolescence: 19 avril 2024
  • Date de retrait: 20 juin 2024
  • Modèle alternatif: mixtral-8x7b-instruct-v01

Les demandes d'inférence soumises au modèle mixtral-8x7b-instruct-v01-q à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 20 juin 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du modèle de base granite-20b-multilingual a été introduite

18 avril 2024

La dernière version de granite-20b-multilingual est 1.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 1.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible.

Pour plus d'informations sur ce modèle de base, voir Modèles de base pris en charge.

Semaine se terminant le 12 avril 2024

Prompt-optimiser le modèle de base granite-13b-instruct-v2

11 avril 2024

Tuning Studio prend désormais en charge l'optimisation du modèle de base granite-13b-instruct-v2 en plus des modèles de base flan-t5-xl-3b et llama-2-13b-chat . Pour plus d'informations, voir Optimisation d'un modèle de base.

Les paramètres de configuration d'expérimentation pour l'optimisation du changement de modèle de base granite-13b-instruct-v2 afin d'appliquer les meilleures valeurs par défaut en fonction de votre tâche. Les instructions d'évaluation de l'optimisation vous aident à analyser les résultats de l'expérimentation et à ajuster les paramètres de configuration de l'expérimentation en fonction de vos résultats. Pour plus d'informations, voir Evaluation des résultats d'une expérimentation d'optimisation.

Un modèle de base en langue arabe est disponible dans la région de Francfort

11 avril 2024

Le modèle de base jais-13b-chat fourni par Inception, Mohamed bin Zayed University of Artificial Intelligence et Cerebras Systems est disponible dans la région de Francfort.

Le modèle de base jais-13b-chat est spécialisé dans les tâches conversationnelles en arabe et en anglais. Vous pouvez également utiliser le modèle de base jais-13b-chat pour des tâches générales en langue arabe, y compris la traduction de la langue entre l'arabe et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Afficher le texte complet d'une invite dans Prompt Lab

11 avril 2024

Vous pouvez maintenant consulter le texte d'invite complet qui sera soumis au modèle de base, ce qui est utile lorsque votre invite inclut des variables d'invite ou lorsque vous travaillez en mode structuré ou en mode de discussion.

Pour plus d'informations, voir Prompt Lab.

Les modèles Granite version 1 obsolètes sont retirés

11 avril 2024

Les modèles de base suivants sont désormais retirés:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Révisez les invites qui utilisent ces modèles de base pour utiliser les modèles de base IBM Granite v2 . Pour plus d'informations sur la dépréciation et le retrait du modèle de base, voir Cycle de vie du modèle de base.

Semaine se terminant le 5 avril 2024

Utiliser des tableaux croisés dynamiques pour afficher les données agrégées dans les expérimentations Decision Optimization

5 avril 2024

Vous pouvez désormais utiliser des tableaux croisés dynamiques pour afficher à la fois les données d'entrée et de sortie agrégées dans la vue Visualisation des expérimentations Decision Optimization . Pour plus d'informations, voir Widgets de visualisation dans les expérimentations Decision Optimization.

Nouveau tutoriel et vidéo watsonx.ai

04 avril 2024

Essayez le nouveau tutoriel pour voir comment utiliser watsonx.ai dans un cas d'utilisation de bout en bout, de la préparation des données à l'ingénierie des invites.

Tutoriel Descriptif Expertise pour le tutoriel
Essayez le cas d'utilisation de bout en bout watsonx.ai Suivez un cas d'utilisation à partir de la préparation des données via l'ingénierie des invites. Utilisez divers outils, tels que des blocs-notes et Prompt Lab.

Semaine se terminant le 15 mars 2024

L'API watsonx.ai est disponible

14 mars 2024

L'API watsonx.ai est disponible en version GA. Utilisez l'API watsonx.ai pour utiliser des modèles de base à l'aide d'un programme. Pour plus d'informations, voir la référence d'API.

La version de l'API est 2024-03-14.

Vous pouvez continuer à utiliser la bibliothèque Python disponible pour utiliser des modèles de base à partir d'un bloc-notes. Pour plus d'informations, voir BibliothèquePython.

De nouveaux modèles de base sont disponibles à Dallas, Francfort et Tokyo

14 mars 2024

Les modèles de base suivants sont désormais disponibles pour l'inférence à partir de watsonx.ai:

  • granite-20b-multilingual: modèle de base de la famille IBM Granite que vous pouvez utiliser pour diverses tâches génératives en anglais, allemand, espagnol, français et portugais.

  • codellama-34b-instruct-hf: Modèle de génération de code par programmation à partir de Code Llama basé sur Llama 2 de Meta. Vous pouvez utiliser codellama-34b-instruct-hf pour créer des invites afin de générer du code basé sur des entrées en langage naturel et pour compléter et déboguer du code.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 8 mars 2024

Le Tuning Studio est disponible à Francfort

7 mars 2024

Le Tuning Studio est désormais disponible pour les utilisateurs de forfaits payants dans la région de Francfort. Tuning Studio vous aide à guider un modèle de base pour renvoyer une sortie utile. Vous pouvez optimiser les modèles de base flan-t5-xl-3b et llama-2-70b-chat lorsque vous utilisez Tuning Studio à Francfort.

Pour plus d'informations, voir Tuning Studio.

Optimisez le modèle de base llama-2-13b-chat dans la région de Tokyo

7 mars 2024

Tuning Studio prend désormais en charge l'optimisation du modèle de base llama-2-13b-chat dans la région de Tokyo. Tout d'abord, l'ingénieur vous invite à utiliser le modèle llama-2-70b-chat plus grand dans le laboratoire d'invite afin de trouver des entrées d'invite efficaces pour votre cas d'utilisation. Ensuite, optimisez la version plus petite du modèle Llama 2 pour générer des sorties comparables, voire meilleures, avec des invites zéro.

Pour plus d'informations, voir Tuning Studio.

Prix inférieur pour le modèle Mixtral8x7b

5 mars 2024

Le modèle de base mixtral-8x7b-instruct-v01-q est reclassé de la classe 2: $0.0018/Resource à la classe 1: $0.0006/Resource , ce qui rend plus rentable l'exécution de tâches d'inférence sur ce modèle. La reclassification s'applique à toutes les régions où mixtral-8x7b-instruct-v01-q est disponible.

Pour plus d'informations, voir Modèles de base pris en charge.

Pour plus de détails sur la tarification, voir PlansWatson Machine Learning.

L'atlas des risques de l'IA est mis à jour et amélioré

5 mars 2024

Vous pouvez maintenant trouver le contenu nouveau et amélioré suivant dans l'atlas des risques de l'IA:

  • Une nouvelle catégorie de risques non techniques couvrant la gouvernance, la conformité juridique et les risques d'impact sociétal
  • Nouveaux exemples de risques
  • Des définitions plus claires des risques

Voir AI risk atlas.

Nouveaux cas d'utilisation pour watsonx

5 mars 2024

Les cas d'utilisation watsonx sont disponibles pour vous aider à voir comment vous pouvez utiliser nos produits, services et outils:

  • Cas d'utilisation watsonx.ai : Ce cas d'utilisation décrit comment vous pouvez transformer vos processus métier avec des solutions basées sur l'intelligence artificielle en intégrant l'apprentissage automatique et l'intelligence artificielle générative dans votre infrastructure opérationnelle.
  • Cas d'utilisation watsonx.governance : Ce cas d'utilisation décrit comment vous pouvez créer des flux de travaux d'intelligence artificielle responsables, transparents et explicables avec un système intégré pour le suivi, la surveillance et le recyclage des modèles d'intelligence artificielle.

Voir Cas d'utilisation dewatsonx.

Semaine se terminant le 1er mars 2024

Le mode de discussion est disponible dans Prompt Lab

29 février 2024

Le mode de discussion dans Prompt Lab est une interface de discussion simple qui facilite l'expérimentation de modèles de base. Le mode de discussion permet d'augmenter les modes structurés et à structure libre déjà disponibles qui sont utiles lors de la génération d'invites pour des tâches telles que l'extraction, la synthèse et la classification. Utilisez le mode Discussion pour simuler des réponses aux questions ou des interactions conversationnelles pour les cas d'utilisation de l'agent conversationnel et de l'assistant virtuel.

Pour plus d'informations, voir Prompt Lab.

Un modèle Granite en japonais est disponible dans la région de Tokyo

29 février 2024

Le modèle de base granite-8b-japanese fourni par IBM est disponible à l'adresse watsonx.ai dans la région de Tokyo. Le modèle de base granite-8b-japanese est basé sur le modèle IBM Granite Instruct et est entraîné à comprendre et à générer du texte en japonais.

Vous pouvez utiliser le modèle de base granite-8b-japanese pour des tâches générales en japonais, telles que la classification, l'extraction, la réponse aux questions et la traduction entre le japonais et l'anglais.

Pour plus d'informations, voir Modèles de base pris en charge.

Semaine se terminant le 23 février 2024

Prix inférieur pour les modèles Granite-13b

21 février 2024

Les modèles Granite-13b sont reclassés de la classe 2: $0.0018/Resource à la classe 1: $0.0006/Resource , ce qui rend plus rentable l'exécution de tâches d'inférence sur ces modèles. Le reclassement s'applique aux modèles suivants dans toutes les régions où ils sont disponibles:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Pour plus d'informations sur ces modèles, voir Modèles de base pris en charge.

Pour plus de détails sur la tarification, voir PlansWatson Machine Learning.

Semaine se terminant le 16 février 2024

Nouveau raccourci pour commencer à travailler sur des tâches communes

15 février 2024

Vous pouvez maintenant démarrer une tâche commune dans votre projet en cliquant sur une vignette dans la section Commencer à travailler de l'onglet Présentation . Utilisez ces raccourcis pour commencer à ajouter des collaborateurs et des données, et pour expérimenter et créer des modèles. Cliquez sur Afficher tout pour accéder à une sélection d'outils.

Nouveau modèle de base mixtral-8x7b-instruct-v01-q pour les tâches à usage général

15 février 2024

Le modèle de base mixtral-8x7b-instruct-v01-q fourni par Mistral AI et quantifié par IBM est disponible à partir de watsonx.ai. Le modèle de base mixtral-8x7b-instruct-v01-q est une version quantifiée du modèle de base Mixtral 8x7B Instruct de Mistral AI.

Vous pouvez utiliser ce nouveau modèle pour les tâches générales, notamment la classification, la synthèse, la génération de code, la traduction de langue, etc. Pour plus d'informations, voir Modèles de base pris en charge.

Les modèles suivants sont obsolètes et seront bientôt retirés. Révisez les invites qui utilisent ces modèles de base pour utiliser un autre modèle de base, tel que mixtral-8x7b-instruct-v01-q.

Modèles de base obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
gpt-neox-20b 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 février 2024 21 mars 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 février 2024 11 avril 2024 mixtral-8x7b-instruct-v01-q

Les demandes d'inférence qui sont soumises à ces modèles à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. Lorsque la date de retrait est atteinte, les demandes d'API pour l'inférence des modèles ne génèrent pas de sortie.

Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Une modification du modèle de base granite-13b-chat-v2 est disponible

15 février 2024

La dernière version de granite-13b-chat-v2 est 2.1.0. La modification inclut des améliorations qui ont été apportées par l'application d'une nouvelle technique d'alignement de l'intelligence artificielle au modèle de version 2.0.0 . L'alignement de l'IA implique l'utilisation de techniques d'ajustement et d'apprentissage de renforcement pour guider le modèle afin de renvoyer des résultats qui sont aussi utiles, véridiques et transparents que possible. Pour plus d'informations, voir Qu'est-ce que l'alignement de l'IA? article de blogue d' IBM Research.

Nouveau tutoriel et vidéo watsonx

15 février 2024

Essayez le nouveau tutoriel watsonx.governance pour apprendre à évaluer un modèle d'apprentissage automatique pour l'équité, l'exactitude, la dérive et l'explicabilité avec Watson OpenScale.

Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Evaluer un modèle d'apprentissage automatique Déployez un modèle, configurez les moniteurs pour le modèle déployé et évaluez le modèle. Exécutez un bloc-notes pour configurer les modèles et utilisez Watson OpenScale pour évaluer.

Semaine se terminant le 09 février 2024

Documentation Decision Optimization plus centrée sur les tâches

9 février 2024

Vous pouvez désormais trouver plus facilement les informations appropriées pour créer et configurer des expérimentations Decision Optimization . Voir ExpériencesDecision Optimization et ses sous-sections.

La connexion à IBM Cloud Data Engine est obsolète

8 février 2022

La connexion IBM Cloud Data Engine est obsolète et sera abandonnée dans une édition ultérieure. Pour connaître les dates et les détails importants, voir Dépréciation du moteur de données .

Nouvel environnement Spark 3.4 pour l'exécution de travaux de flux Data Refinery

9 février 2024

Lorsque vous sélectionnez un environnement pour un travail de flux Data Refinery , vous pouvez maintenant sélectionner Default Spark 3.4 & R 4.2, qui inclut des améliorations de Spark.

Environnements Spark Data Refinery

L'environnement Default Spark 3.3 & R 4.2 est obsolète et sera supprimé lors d'une mise à jour ultérieure.

Mettez à jour vos travaux de flux Data Refinery pour utiliser le nouvel environnement Default Spark 3.4 & R 4.2 . Pour plus de détails, voir Options de ressource de calcul pour Data Refinery dans les projets.

Semaine se terminant le 2 février 2024

Collection d'exemples renommée en concentrateur de ressources

2 février 2024

La collection d'exemples est renommée en concentrateur de ressources pour mieux refléter le contenu. Le concentrateur de ressources contient des modèles de base et des exemples de projets, des ensembles de données et des blocs-notes. Voir concentrateur de ressources.

La connexion à IBM Cloud Databases for DataStax n'est plus disponible

2 février 2024

La connexion IBM Cloud Databases for DataStax a été retirée d' IBM watsonx.ai.

La connexion Dremio requiert des mises à jour

2 février 2024

Auparavant, la connexion Dremio utilisait un pilote JDBC . Maintenant, la connexion utilise un pilote basé sur Arrow Flight.

Important: mettez à jour les propriétés de connexion. Différentes modifications s'appliquent à une connexion pour une instance Dremio Software (sur site) ou une instance Dremio Cloud.

Logiciel Dremio : mettez à jour le numéro de port.

Le nouveau numéro de port par défaut utilisé par Flight est 32010. Vous pouvez confirmer le numéro de port dans le fichier dremio.conf . Pour plus d'informations, voir Configuration via dremio.conf .

De plus, Dremio ne prend plus en charge les connexions avec IBM Cloud Satellite.

Dremio Cloud: mettez à jour la méthode d'authentification et le nom d'hôte.

  1. Connectez-vous à Dremio et générez un jeton d'accès personnel. Pour obtenir des instructions, voir Personal Access Tokens.
  2. Dans IBM watsonx dans le formulaire Create connection: Dremio , remplacez le type d'authentification par Personal Access Token et ajoutez les informations de jeton. (L'authentification Nom d'utilisateur et mot de passe ne peut plus être utilisée pour se connecter à une instance cloud Dremio .)
  3. Sélectionnez Le port est activé pour SSL.

Si vous utilisez le nom d'hôte par défaut pour une instance Dremio Cloud, vous devez le modifier:

  • Remplacez sql.dremio.cloud par data.dremio.cloud
  • Remplacez sql.eu.dremio.cloud par data.eu.dremio.cloud

Optimisez le modèle de base llama-2-13b-chat

1er février 2024

Tuning Studio prend désormais en charge l'optimisation du modèle de base llama-2-13b-chat . Tout d'abord, l'ingénieur vous invite à utiliser le modèle llama-2-70b-chat plus grand dans le laboratoire d'invite afin de trouver des entrées d'invite efficaces pour votre cas d'utilisation. Ensuite, optimisez la version plus petite du modèle Llama 2 pour générer des sorties comparables, voire meilleures, avec des invites zéro. Le modèle llama-2-13b-model est disponible pour l'ajustement des invites dans la région de Dallas. Pour plus d'informations, voir Tuning Studio.

Semaine se terminant le 26 janvier 2024

AutoAI prend en charge les données ordonnées pour toutes les expérimentations

25 janvier 2024

Vous pouvez désormais spécifier des données ordonnées pour toutes les expérimentations AutoAI plutôt que des expérimentations de séries temporelles. Indiquez si vos données d'apprentissage sont classées de manière séquentielle, en fonction d'un index de ligne. Lorsque les données d'entrée sont séquentielles, les performances du modèle sont évaluées sur les enregistrements les plus récents au lieu d'un échantillonnage aléatoire, et les données restantes utilisent les n derniers enregistrements de l'ensemble au lieu de n enregistrements aléatoires. Des données séquentielles sont requises pour les expériences de séries temporelles, mais facultatives pour les expériences de classification et de régression.

Questions & réponses avec accélérateur RAG

26 janvier 2024

Vous pouvez maintenant implémenter une solution de questions et réponses qui utilise la génération étendue d'extraction en important un exemple de projet. L'exemple de projet contient des blocs-notes et d'autres actifs qui convertissent des documents HTML ou PDF en texte en clair, importent des segments de document dans un index de vecteurs Elasticsearch , déploient une fonction Python qui interroge l'index de vecteurs, extraient les N premiers résultats, exécutent l'inférence LLM pour générer une réponse à la question et recherchent les hallucinations.

Essayez Q & R avec l'accélérateur RAG.

Définir sur le thème foncé

25 janvier 2024

Vous pouvez maintenant définir votre interface utilisateur watsonx sur le thème foncé. Cliquez sur votre avatar et sélectionnez Profil et paramètres pour ouvrir votre profil de compte. Ensuite, définissez le bouton de thème foncé sur on. Le thème foncé n'est pas pris en charge dans les blocs-notes RStudio et Jupyter. Pour plus d'informations sur la gestion de votre profil, voir Gestion de vos paramètres.

IBM watsonx.ai est disponible dans la région de Tokyo

25 janvier 2024

Watsonx.ai est désormais disponible dans le centre de données de Tokyo et peut être sélectionné comme région préférée lors de l'inscription. Le lab d'invite et l'inférence de modèle de base sont pris en charge dans la région de Tokyo pour les modèles suivants:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Egalement disponible dans la région de Tokyo:

  • Invite au réglage du modèle de base flan-t5-xl-3b avec Tuning Studio
  • Génération de données tabulaires à l'aide du Synthetic Data Generator à utiliser pour l'entraînement des modèles

Pour plus d'informations sur les modèles pris en charge, voir Supported foundation models available with watsonx.ai.

Un modèle en japonais Llama 2 est disponible dans la région de Tokyo

25 janvier 2024

Le modèle de base elyza-japanese-llama-2-7b-instruct fourni par ELYZA, Inc est disponible dans les instances watsonx.ai du centre de données de Tokyo. Le modèle elyza-japanese-llama-2-7b-instruct est une version du modèle Llama 2 de Meta qui a été entraîné pour comprendre et générer du texte en japonais.

Vous pouvez utiliser ce nouveau modèle pour des tâches générales. Il fonctionne bien pour la classification et l'extraction en japonais et pour la traduction entre le japonais et l'anglais.

Semaine se terminant le 12 janvier 2024

Prise en charge d' IBM Runtime 22.2 obsolète dans Watson Machine Learning

11 janvier 2024

IBM Runtime 22.2 est obsolète et sera supprimé le 11 avril 2024. A partir du 7 mars 2024, vous ne pouvez pas créer de blocs-notes ou d'environnements personnalisés à l'aide des environnements d'exécution 22.2 . En outre, vous ne pouvez pas entraîner de nouveaux modèles avec des spécifications logicielles basées sur l'environnement d'exécution 22.2 . Mettez à jour vos actifs et vos déploiements pour utiliser IBM Runtime 23.1 avant le 7 mars 2024.

Les modèles de base IBM Granite v1 sont obsolètes

11 janvier 2024

Les modèles de base IBM Granite 13 milliards de paramètres v1 sont obsolètes et seront retirés le 11 avril 2024. Si vous utilisez la version 1 des modèles, passez à la version 2 des modèles.

Modèles de base IBM obsolètes
Modèle obsolète Date d'obsolescence Date de retrait Modèle alternatif
granite-13b-chat-v1 11 janvier 2024 11 avril 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 janvier 2024 11 avril 2024 granite-13b-instruct-v2

Les demandes d'inférence qui sont soumises aux modèles version 1 à l'aide de l'API continuent de générer une sortie, mais incluent un message d'avertissement concernant le retrait du modèle à venir. A partir du 11 avril 2024, les demandes d'API pour l'inférence des modèles ne généreront pas de sortie.

Pour plus d'informations sur les modèles de base IBM Granite , voir Modèles de base créés par IBM. Pour plus d'informations sur l'obsolescence et le retrait, voir Cycle de vie du modèle Foundation.

Semaine se terminant le 15 décembre 2023

Créer des clés d'API utilisateur pour des travaux et d'autres opérations

15 décembre 2023

Certaines opérations d'exécution dans IBM watsonx, telles que les travaux et l'entraînement de modèle, nécessitent une clé d'API comme données d'identification pour une autorisation sécurisée. Avec les clés d'API utilisateur, vous pouvez désormais générer et faire pivoter une clé d'API directement dans IBM watsonx , si nécessaire, afin de garantir le bon déroulement de vos opérations. Les clés d'API sont gérées dans IBM Cloud, mais vous pouvez facilement les créer et les faire pivoter dans IBM watsonx.

La clé d'API utilisateur est spécifique au compte et est créée à partir de Profil et paramètres sous votre profil de compte.

Pour plus d'informations, voir Gestion de la clé d'API utilisateur.

Nouveaux tutoriels et vidéos watsonx

15 décembre 2023

Essayez les nouveaux tutoriels watsonx.governance et watsonx.ai pour apprendre à optimiser un modèle de base, à évaluer et à suivre un modèle d'invite.

Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Optimiser un modèle de base Optimisez un modèle de base pour améliorer les performances du modèle. Utilisez Tuning Studio pour optimiser un modèle sans codage.
Evaluer et suivre un modèle d'invite Evaluer un modèle d'invite pour mesurer les performances du modèle de base et suivre le modèle d'invite tout au long de son cycle de vie. Utilisez l'outil d'évaluation et un cas d'utilisation d'IA pour suivre le modèle d'invite.

Regarder une vidéo Vous trouverez d'autres vidéos watsonx.governance et watsonx.ai dans la bibliothèque vidéo.

Expiration et déconnexion de la nouvelle session de connexion en raison d'une inactivité

15 décembre 2023

Vous êtes maintenant déconnecté d' IBM Cloud en raison de l'expiration de la session. Votre session peut expirer en raison de l'expiration de la session de connexion (24 heures par défaut) ou de l'inactivité (2 heures par défaut). Vous pouvez modifier les durées par défaut dans les paramètres d'accès (IAM) dans IBM Cloud. Pour plus d'informations, voir Définition de l'expiration de la session de connexion.

Le connecteur IBM Cloud Databases for DataStax est obsolète

15 décembre 2023

Le connecteur IBM Cloud Databases for DataStax est obsolète et sera abandonné dans une édition ultérieure.

Semaine se terminant le 08 décembre 2023

Le Tuning Studio est disponible

7 décembre 2023

Tuning Studio vous aide à guider un modèle de base pour renvoyer une sortie utile. Avec Tuning Studio, vous pouvez optimiser le modèle de base flan-t5-xl-3b afin d'améliorer ses performances sur les tâches de traitement du langage naturel telles que la classification, la synthèse et la génération. L'ajustement rapide aide les modèles de base plus petits et plus efficaces sur le plan informatique à obtenir des résultats comparables à ceux des modèles plus grands de la même famille de modèles. En optimisant et en déployant une version optimisée d'un modèle plus petit, vous pouvez réduire les coûts d'inférence à long terme. Tuning Studio est disponible pour les utilisateurs de plans payants dans la région de Dallas.

Nouvelles propriétés client dans les connexions Db2 pour la gestion de charge de travail

8 décembre 2023

Vous pouvez désormais spécifier des propriétés dans les zones suivantes à des fins de surveillance: Nom de l'application, Informations comptables du client, Nom d'hôte du clientet Utilisateur du client. Ces zones sont facultatives et sont disponibles pour les connexions suivantes:

Semaine se terminant le 1er décembre 2023

Watsonx.governance est disponible !

1 déc 2023

Watsonx.governance étend les capacités de gouvernance de Watson OpenScale pour évaluer les actifs de modèle de base ainsi que les actifs d'apprentissage automatique. Par exemple, évaluez les modèles d'invite de modèle de base pour des dimensions telles que la précision ou pour détecter la présence de discours haineux et abusifs. Vous pouvez également définir des cas d'utilisation de l'intelligence artificielle pour résoudre des problèmes métier, puis suivre les modèles d'invite ou les données de modèle dans des fiches d'information afin de prendre en charge les objectifs de conformité et de gouvernance. Les plans et fonctions Watsonx.governance ne sont disponibles que dans la région de Dallas.

Explorer avec l'atlas des risques de l'IA

1 déc 2023

Vous pouvez maintenant explorer certains des risques liés à l'utilisation de l'IA générative, des modèles de base et des modèles d'apprentissage automatique. Découvrez les risques pour la confidentialité, l'équité, l'explicabilité, l'alignement de la valeur et d'autres domaines. Voir AI risk atlas.

De nouvelles versions des modèles IBM Granite sont disponibles

30 novembre 2023

Les dernières versions des modèles Granite incluent les modifications suivantes:

granite-13b-chat-v2: Réglée pour être mieux à même de répondre aux questions, de récapituler et de réaliser des tâches génératives. Avec un contexte suffisant, génère des réponses avec les améliorations suivantes par rapport à la version précédente:

  • Génère des réponses plus longues et de meilleure qualité avec un ton professionnel
  • Prend en charge les réponses de la chaîne de pensée
  • Reconnaît les mentions de personnes et peut mieux détecter le ton et le sentiment
  • Gère les espaces blancs dans les entrées de manière plus appropriée

En raison de modifications importantes, testez et révisez les invites qui ont été conçues pour v1 avant de passer à la version la plus récente.

granite-13b-instruire-v2: Réglée spécifiquement pour les tâches de classification, d'extraction et de récapitulation. La version la plus récente diffère de la version précédente de la manière suivante:

  • Renvoie des réponses plus cohérentes de longueurs variées et avec un vocabulaire diversifié
  • Reconnaît les mentions de personnes et peut résumer les entrées plus longues
  • Gère les espaces blancs dans les entrées de manière plus appropriée

Les invites techniques qui fonctionnent bien avec v1 sont susceptibles de bien fonctionner avec v2 également, mais veillez à les tester avant de changer de modèle.

Les dernières versions des modèles Granite sont catégorisées en tant que modèles de classe 2.

Certains modèles de base sont désormais disponibles à moindre coût

30 novembre 2023

Certains modèles de fondations populaires ont été recatégorisés dans des classes de facturation à moindre coût.

Les modèles de base suivants sont passés de la classe 3 à la classe 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Le modèle de base suivant est passé de la classe 2 à la classe 1:

  • llama-2-13b

Pour plus d'informations sur les classes de facturation, voir PlansWatson Machine Learning.

Un nouvel exemple de bloc-notes est disponible: Introduction à RAG avec Discovery

30 novembre 2023

Utilisez le bloc-notes Introduction to RAG with Discovery pour apprendre à appliquer le modèle de génération d'extension d'extraction dans IBM watsonx.ai avec IBM Watson Discovery comme composant de recherche. Pour plus d'informations, voir Introduction à RAG avec Discovery.

Comprendre les différences de fonction entre watsonx en tant que service et les déploiements de logiciels

30 novembre 2023

Vous pouvez désormais comparer les fonctions et l'implémentation d' IBM watsonx as a Service et watsonx sur le logiciel Cloud Pak for Data version 4.8. Voir Différences de fonction entre les déploiements watsonx.

Modification du mode de traitement des séquences d'arrêt

30 novembre 2023

Lorsqu'une séquence d'arrêt, telle qu'un caractère de retour à la ligne, est spécifiée dans le laboratoire d'invite, le texte de sortie du modèle se termine après la première occurrence de la séquence d'arrêt. La sortie du modèle s'arrête même si l'occurrence se trouve au début de la sortie. Auparavant, la séquence d'arrêt était ignorée si elle était spécifiée au début de la sortie du modèle.

Semaine se terminant le 10 novembre 2023

Une version plus petite du modèle de discussion Llama-2 est disponible

9 novembre 2023

Vous pouvez désormais choisir d'utiliser les versions 13b ou 70b du modèle de discussion Llama-2 . Tenez compte des facteurs suivants lorsque vous faites votre choix:

  • Coût
  • lente

La version 13b est un modèle de classe 2, ce qui signifie qu'il est moins cher à utiliser que la version 70b . Pour comparer les tests de performances et d'autres facteurs, tels que les émissions de carbone pour chaque taille de modèle, voir la Carte de modèle.

Utiliser des variables d'invite pour générer des invites réutilisables

Ajoutez de la flexibilité à vos invites avec des variables d'invite. Les variables d'invite fonctionnent comme des marques de réservation dans le texte statique de votre entrée d'invite que vous pouvez remplacer par du texte dynamiquement au moment de l'inférence. Vous pouvez sauvegarder les noms de variable d'invite et les valeurs par défaut dans un actif de modèle d'invite pour vous réutiliser ou partager avec des collaborateurs dans votre projet. Pour plus d'informations, voir Génération d'invites réutilisables.

Annonce de la prise en charge des infrastructures et des spécifications logicielles Python 3.10 et R4.2 sur l'environnement d'exécution 23.1

9 novembre 2023

Vous pouvez désormais utiliser IBM Runtime 23.1, qui inclut les infrastructures de science des données les plus récentes basées sur Python 3.10 et R 4.2, pour exécuter des blocs-notes et des scripts Watson Studio Jupyter, entraîner des modèles et exécuter des déploiements Watson Machine Learning . Mettez à jour vos actifs et vos déploiements pour utiliser les infrastructures et les spécifications logicielles d' IBM Runtime 23.1 .

Utilisez Apache Spark 3.4 pour exécuter des blocs-notes et des scripts

Spark 3.4 avec Python 3.10 et R 4.2 est désormais pris en charge en tant qu'environnement d'exécution pour les blocs-notes et les scripts RStudio dans les projets. Pour plus de détails sur les environnements de bloc-notes disponibles, voir Options de ressource de calcul pour l'éditeur de bloc-notes dans les projets et Options de ressource de calcul pour RStudio dans les projets.

Semaine se terminant le 27 octobre 2023

Utilisez un connecteur Satellite pour vous connecter à une base de données sur site

26 octobre 2023

Utilisez le nouveau connecteur Satellite pour vous connecter à une base de données qui n'est pas accessible via Internet (par exemple, derrière un pare-feu). Le connecteur Satellite utilise une communication Dockerlégère qui crée des communications sécurisées et auditables depuis votre environnement sur site vers IBM Cloud. Pour obtenir des instructions, voir Connexion à des données derrière un pare-feu.

Secure Gateway est obsolète

26 octobre 2023

IBM Cloud a annoncé la dépréciation de Secure Gateway. Pour plus d'informations, voir Présentation et calendrier.

Si vous disposez actuellement de connexions configurées avec Secure Gateway, prévoyez d'utiliser une autre méthode de communication. Dans IBM watsonx, vous pouvez utiliser le connecteur Satellite pour remplacer Secure Gateway. Voir Connexion à des données derrière un pare-feu.

Semaine se terminant le 20 octobre 2023

Augmentation de la taille maximale des jetons

16 octobre 2023

Les limites précédemment appliquées au nombre maximal de jetons autorisés dans la sortie des modèles de base sont supprimées des plans payants. Vous pouvez utiliser des valeurs de jeton maximales plus élevées lors de l'ingénierie d'invite à partir du laboratoire d'invite et de la bibliothèque Python . Le nombre exact de jetons autorisés varie en fonction du modèle. Pour plus d'informations sur les limites de jeton pour les plans payants et Lite, voir Modèles de base pris en charge.

Semaine se terminant le 13 octobre 2023

Nouveaux blocs-notes dans les exemples

12 octobre 2023

Deux nouveaux blocs-notes sont disponibles qui utilisent une base de données vectorielle à partir de Elasticsearch lors de la phase d'extraction du modèle de génération d'extension d'extraction. Les blocs-notes montrent comment trouver des correspondances en fonction de la similarité sémantique entre les documents indexés et le texte de requête soumis par un utilisateur.

Solutions intermédiaires dans Decision Optimization

12 octobre 2023

Vous pouvez maintenant choisir d'afficher un échantillon de solutions intermédiaires alors qu'une expérimentation Decision Optimization est en cours d'exécution. Cela peut être utile pour le débogage ou pour voir la progression du solveur. Pour les grands modèles qui prennent plus de temps à résoudre, avec des solutions intermédiaires, vous pouvez maintenant identifier rapidement et facilement les problèmes potentiels avec la résolution, sans avoir à attendre la fin de la résolution. Affichage graphique illustrant les statistiques d'exécution avec des solutions intermédiaires. Vous pouvez configurer le paramètre de distribution de solution intermédiaire dans la configuration d'exécution et sélectionner une fréquence pour ces solutions. Pour plus d'informations, voir Solutions intermédiaires et Paramètres de configuration d'exécution.

Nouvelle boîte de dialogue du modèle enregistré Decision Optimization

Lorsque vous sauvegardez un modèle pour le déploiement à partir de l'interface utilisateur Decision Optimization , vous pouvez désormais examiner le schéma d'entrée et de sortie et sélectionner plus facilement les tables que vous souhaitez inclure. Vous pouvez également ajouter, modifier ou supprimer des paramètres de configuration d'exécution, examiner l'environnement et les fichiers de modèle utilisés. Tous ces éléments sont affichés dans la même boîte de dialogue Sauvegarder en tant que modèle pour le déploiement . Pour plus d'informations, voir Déploiement d'un modèle Decision Optimization à l'aide de l'interface utilisateur.

Semaine se terminant le 6 octobre 2023

Modèles de base supplémentaires à Francfort

5 octobre 2023

Tous les modèles de base disponibles dans le centre de données de Dallas sont désormais également disponibles dans le centre de données de Francfort. Le laboratoire d'invite watsonx.ai et l'inférence de modèle de base sont désormais pris en charge dans la région de Francfort pour les modèles suivants:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Pour plus d'informations sur ces modèles, voir Supported foundation models available with watsonx.ai.

Pour plus de détails sur la tarification, voir PlansWatson Machine Learning.

Contrôle le placement d'une nouvelle colonne dans l'opération de concaténation (Data Refinery)

6 octobre 2023

Vous disposez maintenant de deux options pour spécifier la position de la nouvelle colonne qui résulte de l'opération Concaténer : en tant que colonne la plus à droite dans le jeu de données ou en regard de la colonne d'origine.

Concaténer la position de la colonne d'opération

Auparavant, la nouvelle colonne était placée au début du jeu de données.

Important :

Editez l'opération Concaténer dans l'un de vos flux Data Refinery existants pour spécifier la nouvelle position de colonne. Sinon, le flux risque d'échouer.

Pour plus d'informations sur les opérations Data Refinery , voir Opérations de l'interface graphique dans Data Refinery.

Semaine se terminant le 29 septembre 2023

Modèles de base IBM Granite pour la génération du langage naturel

28 septembre 2023

Les deux premiers modèles de la famille Granite des modèles de base IBM sont désormais disponibles dans la région de Dallas:

  • granite-13b-chat-v1: modèle d'utilisation générale optimisé pour les cas d'utilisation de dialogue
  • granite-13b-instruire-v1: modèle d'utilisation générale optimisé pour la réponse aux questions

Les deux modèles sont des modèles de décodeur 13B-parameter qui peuvent prédire et générer efficacement la langue en anglais. Comme tous les modèles de la famille Granite , ils sont conçus pour l'entreprise. Les modèles Granite sont pré-entraînés sur plusieurs téraoctets de données provenant à la fois de sources en langage général, telles que l'Internet public, et de sources de données spécifiques à l'industrie dans les domaines académique, scientifique, juridique et financier.

Essayez-les dès aujourd'hui dans Prompt Lab ou exécutez un exemple de bloc-notes qui utilise le modèle granite-13b-instruct-v1 pour l'analyse des sentiments.

Lisez l'article de blogue Building AI for business: IBM's Granite foundation models pour en savoir plus.

Semaine se terminant le 22 septembre 2023

Modèles Java Decision Optimization

20 septembre 2023

Les modèles Java Decision Optimization peuvent désormais être déployés dans Watson Machine Learning. En utilisant l'API d'agent Java, vous pouvez créer des modèles d'optimisation avec les API Java OPL, CPLEX et CP Optimizer. Vous pouvez désormais créer facilement vos modèles en local, les conditionner et les déployer sur Watson Machine Learning à l'aide du conteneur boilerplate fourni dans le GitHub d'agent Java GitHub. Pour plus d'informations, voir Déploiement de modèles Java pour Decision Optimization.

Nouveaux blocs-notes dans le concentrateur de ressources

21 septembre 2023

Vous pouvez utiliser les nouveaux blocs-notes suivants dans le concentrateur de ressources:

Semaine se terminant le 15 septembre 2023

Tutoriels d'ingénierie d'invite et de démarrage rapide des données synthétiques

14 septembre 2023

Essayez les nouveaux tutoriels pour apprendre à:

  • Modèles de base d'invite: Il existe généralement plusieurs façons d'inviter un modèle de base à un résultat réussi. Dans le laboratoire d'invite, vous pouvez tester différents modèles de base d'invite, explorer des exemples d'invite, ainsi que sauvegarder et partager vos meilleures invites. Une façon d'améliorer la précision de la sortie générée consiste à fournir les faits nécessaires en tant que contexte dans votre texte d'invite à l'aide du modèle de génération d'extension d'extraction.
  • Générer des données synthétiques: vous pouvez générer des données tabulaires synthétiques dans watsonx.ai. L'avantage des données synthétiques est que vous pouvez vous procurer les données à la demande, puis les personnaliser en fonction de votre cas d'utilisation et les produire en grandes quantités.
Nouveaux tutoriels
Tutoriel Descriptif Expertise pour le tutoriel
Demander un modèle de base à l'aide de Prompt Lab Testez les différents modèles de base d'invite, explorez les exemples d'invite et sauvegardez et partagez vos meilleures invites. Invite un modèle à l'aide de Prompt Lab sans codage.
Demander un modèle de base avec le modèle de génération d'extension d'extraction Invitez un modèle de base en tirant parti des informations d'une base de connaissances. Utilisez le modèle de génération d'extension d'extraction dans un bloc-notes Jupyter qui utilise le code Python .
Générer des données tabulaires synthétiques Générez des données tabulaires synthétiques à l'aide d'un éditeur de flux graphique. Sélectionnez des opérations pour générer des données.

Communauté Watsonx.ai

14 septembre 2023

Vous pouvez désormais rejoindre la communautéwatsonx.ai pour que les architectes et les générateurs d'IA puissent apprendre, partager des idées et se connecter avec d'autres.

Semaine se terminant le 8 septembre 2023

Génération de données tabulaires synthétiques avec Synthetic Data Generator

7 septembre 2023

Désormais disponible dans les régions de Dallas et de Francfort, Synthetic Data Generator est un nouvel outil d'éditeur graphique sur watsonx.ai que vous pouvez utiliser pour générer des données tabulaires à utiliser pour les modèles d'apprentissage. A l'aide de flux visuels et d'un modèle statistique, vous pouvez créer des données synthétiques en fonction de vos données existantes ou d'un schéma de données personnalisé. Vous pouvez choisir de masquer vos données d'origine et d'exporter vos données synthétiques dans une base de données ou sous forme de fichier.

Pour commencer, voir Données synthétiques.

Llama-2 Foundation Model pour la génération et la discussion en langage naturel

7 septembre 2023

Le modèle Llama-2 Foundation de Meta est désormais disponible dans la région de Dallas. Llama-2 Le modèle de discussion est un modèle de langage autorégressif qui utilise une architecture de transformateur optimisée. Le modèle est pré-entraîné avec des données en ligne accessibles au public, puis affiné à l'aide de l'apprentissage de renforcement à partir des commentaires humains. Le modèle est destiné à être utilisé à des fins commerciales et de recherche dans des scénarios de discussion de type assistant de langue anglaise.

Extension LangChain pour la bibliothèque Python des modèles de base

7 septembre 2023

Vous pouvez désormais utiliser l'infrastructure LangChain avec des modèles de base dans watsonx.ai avec la nouvelle extension LangChain pour la bibliothèque Python des modèles de base.

Cet exemple de bloc-notes montre comment utiliser la nouvelle extension: Exemple de bloc-notes

Exemple d'introduction pour le modèle de génération étendue à l'extraction

7 septembre 2023

La génération augmentée par extraction est une technique simple et puissante qui permet de tirer parti d'une base de connaissances pour obtenir des résultats factuellement précis à partir de modèles de base.

Voir: Introduction à l'extraction-génération augmentée

Semaine se terminant le 1er septembre 2023

Obsolescence des commentaires dans les blocs-notes

31 août 2023

A ce jour, il n'est pas possible d'ajouter des commentaires à un bloc-notes à partir de la barre d'actions du bloc-notes. Tous les commentaires existants ont été supprimés.

Icône Commentaires dans la barre d'actions du bloc-notes

Modèle StarCoder Foundation pour la génération de code et la traduction de code

31 août 2023

Le modèle StarCoder de Hugging Face est désormais disponible dans la région de Dallas. Utilisez StarCoder pour créer des invites de génération de code ou de transformation de code d'un langage de programmation à un autre. Un exemple d'invite montre comment utiliser StarCoder pour générer du code Python à partir d'un ensemble d'instructions. Un deuxième exemple d'invite montre comment utiliser StarCoder pour transformer du code écrit en C++ en code Python .

IBM watsonx.ai est disponible dans la région de Francfort

31 août 2023

Watsonx.ai est désormais généralement disponible dans le centre de données de Francfort et peut être sélectionnée comme région préférée lors de l'inscription. Le lab d'invite et l'inférence de modèle de base sont pris en charge dans la région de Francfort pour les modèles suivants:

Semaine se terminant le 25 août 2023

Améliorations de cache supplémentaires disponibles pour Watson Pipelines

21 août 2023

D'autres options sont disponibles pour personnaliser vos paramètres de flux de pipeline. Vous pouvez désormais exercer un contrôle plus important sur le moment où le cache est utilisé pour les exécutions de pipeline. Pour plus de détails, voir Gestion des paramètres par défaut.

Semaine se terminant le 18 août 2023

Mises à jour des noms de plan pour le service Watson Machine Learning

18 août 2023

A partir de maintenant, les noms de plan sont mis à jour pour le service IBM Watson Machine Learning , comme suit:

  • Le plan v2 Standard est désormais le plan Essentials . Le plan est conçu pour fournir à votre organisation les ressources nécessaires pour commencer à utiliser des modèles de base et des actifs d'apprentissage automatique.

  • Le plan v2 Professional est désormais le plan Standard . Ce plan fournit des ressources conçues pour aider la plupart des organisations via la création d'actifs à une utilisation productive.

Les modifications apportées aux noms de plan ne modifient pas vos conditions de service. Autrement dit, si vous êtes enregistré pour utiliser le plan v2 Standard, il sera désormais nommé Essentials, mais tous les détails du plan resteront les mêmes. De même, si vous êtes enregistré pour utiliser le plan Professionnel v2 , il n'y a pas d'autres changements que le changement de nom du plan en Standard.

Pour plus de détails sur les éléments inclus avec chaque plan, voir PlansWatson Machine Learning. Pour obtenir des informations de tarification, recherchez votre plan sur la page de planWatson Machine Learning dans le catalogue IBM Cloud .

Semaine se terminant le 11 août 2023

Obsolescence des commentaires dans les blocs-notes

7 août 2023

Le 31 août 2023, vous ne pourrez plus ajouter de commentaires à un bloc-notes à partir de la barre d'actions du bloc-notes. Tous les commentaires existants qui ont été ajoutés de cette manière seront supprimés.

Icône Commentaires dans la barre d'actions du bloc-notes

Semaine se terminant le 4 août 2023

Augmentation de la limite de jeton pour le plan Lite

4 août 2023

Si vous utilisez le plan Lite pour tester les modèles de base, la limite de jeton pour l'entrée et la sortie d'invite passe désormais de 25 000 à 50 000 par compte et par mois. Vous bénéficiez ainsi d'une plus grande souplesse pour explorer les modèles de base et expérimenter avec les invites.

Modèle d'analyse de texte personnalisé (SPSS Modeler)

4 août 2023

Pour SPSS Modeler, vous pouvez désormais télécharger un modèle d'analyse de texte personnalisé dans un projet. Vous bénéficiez ainsi d'une plus grande souplesse pour capturer et extraire les concepts clés d'une manière unique à votre contexte.

Semaine se terminant le 28 juillet 2023

Bibliothèque Python des modèles de base disponible

27 juillet 2023

Vous pouvez désormais demander des modèles de base dans watsonx.ai à l'aide d'un programme à l'aide d'une bibliothèque Python .

Voir: Foundation models Python library

Semaine se terminant le 14 juillet 2023

Contrôle des glissières de sécurité d'IA

14 juillet 2023

Vous pouvez désormais contrôler si les glissières de sécurité de l'intelligence artificielle sont en fonction ou hors fonction dans le laboratoire d'invite. Les glissières de sécurité d'IA suppriment le texte potentiellement dangereux des zones d'entrée et de sortie. Les textes préjudiciables peuvent inclure des discours de haine, des abus et des grossièretés. Pour empêcher la suppression de texte potentiellement dangereux, désactivez l'option IA guardrails . Voir Hate speech, abuse, and profanity.

Le lab d'invite avec des glissières de sécurité d'IA défini sur

La connexion Microsoft Azure SQL Database prend en charge l'authentification Azure Active Directory (Azure AD)

14 juillet 2023

Vous pouvez désormais sélectionner Active Directory pour la connexion Microsoft Azure SQL Database . L'authentification Active Directory est une alternative à l'authentification SQL Server . Grâce à cette amélioration, les administrateurs peuvent gérer de manière centralisée les droits utilisateur sur Azure. Pour plus d'informations, voir Connexion àMicrosoft Azure SQL Database.

Semaine se terminant le 7 juillet 2023

Bienvenue dans IBM watsonx.ai!

7 juillet 2023

IBM watsonx.ai fournit tous les outils dont vous avez besoin pour utiliser l'apprentissage automatique et les modèles de base.

Mise en route:

Essayez la recherche d'IA générative et répondez dans cette documentation

7 juillet 2023

Vous pouvez voir l'IA générative en action en essayant la nouvelle option de recherche et de réponse de l'IA générative dans la documentation watsonx.ai . Les réponses sont générées par un modèle de langue de grande taille exécuté dans watsonx.ai et basé sur le contenu de la documentation. Cette fonction est disponible uniquement lorsque vous visualisez la documentation lorsque vous êtes connecté à watsonx.ai.

Entrez une question dans la zone de recherche de la documentation et cliquez sur l'icône Try generative AI search and answer (Essayez l'icône de recherche et de réponse de l'IA générative). Le panneau Generative AI search and answer s'ouvre et répond à votre question.

Affiche le panneau de recherche et de réponse de l'IA générative

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus