0 / 0
Retourner à la version anglaise de la documentation
Problèmes connus et limitations
Dernière mise à jour : 09 déc. 2024
Problèmes connus et limitations

Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.

Liste des problèmes liés à IBM Knowledge Catalog

Liste des problèmes de flux de masquage

Liste des problèmes liés à la Data Virtualization

Liste des problèmes rencontrés par watsonx.ai Studio

Liste des limitations de watsonx.ai Studio

Liste des problèmes connus de Data Refinery

Liste des limitations de Data Refinery

Liste des problèmes de visualisation

Liste des problèmes d'apprentissage automatique

Liste des limitations de l'apprentissage automatique

Liste des problèmes Watson OpenScale

Liste des problèmes SPSS Modeler

Liste des limitations de SPSS Modeler

Liste des problèmes de connexion

Problèmes liés à Cloud Object Storage

  • Liste des problèmes d'apprentissage automatique
    • Erreur avec les actifs utilisant watsonx.ai Runtime dans les projets spécifiant Cloud Object Storage avec Key Protect activé.
    • AI automatique
    • Apprentissage fédéré
    • Pipelines
  • Liste des problèmes SPSS Modeler
    • Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
  • Liste des problèmes liés aux blocs-notes
    • Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.

IBM Knowledge Catalog

Si vous utilisez IBM Knowledge Catalog, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous utilisez les catalogues.

Le type de connexion n'est pas supprimé de façon permanente après la suppression

Le type d'actif Connection n'est pas supprimé immédiatement après le retrait, même si la configuration de retrait des actifs est réglée sur Purger les actifs automatiquement lors du retrait dans l'interface utilisateur du catalogue, et s'affiche dans la corbeille.

La recherche d'actifs dans le catalogue ne prend pas en charge les caractères spéciaux

Si les mots-clés de recherche contiennent l'un des caractères spéciaux suivants, le filtre de recherche ne renvoie pas les résultats les plus précis.

Mots clés de recherche :

. + - && || ! ( ) { } [ ] ^ " ~ * ? : \

Solution de contournement : Pour obtenir les résultats les plus précis, recherchez uniquement le mot-clé après le caractère spécial. Par exemple, au lieu de AUTO_DV1.SF_CUSTOMER, recherchez SF_CUSTOMER.

Les données masquées ne sont pas prises en charge dans les visualisations de données

Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Les données ne sont pas masquées dans certains outils de projet

Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.

Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles

Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Ajout de collaborateurs avec des adresses électroniques en minuscules

Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.

Restrictions liées à la connexion Object Storage

Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.

Risque d'échec de plusieurs opérations de connexion simultanées

Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.

Impossible d'activer l'application des règles de protection des données après la création du catalogue

Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.

Les actifs sont bloqués si l'évaluation échoue

Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.

Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.

Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse

Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.

Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement

Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.

Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées

Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.

Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur

Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.

Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.

Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement

Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.

Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .

Ecriture de la sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0

Si vous souhaitez écrire une sortie de qualité de données générée par l'enrichissement de métadonnées dans une base de données Apache Hive à une version de logiciel antérieure à 3.0.0, définissez les paramètres de configuration suivants sur votre serveur Apache Hive :

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Pour plus d'informations, voir Hive Transactions.

Le filtre de termes métier dans les résultats d'enrichissement peut ne pas refléter immédiatement les changements d'affectation

Lorsque vous affectez ou désaffectez des termes métier manuellement, il se peut que le filtre de termes métier ne reflète pas immédiatement ces modifications.

Solution de contournement : Actualisez la page en cliquant sur l'icône d'actualisation " Icône Actualiser.

Pour les biens provenant de sources SAP OData, les résultats de l'enrichissement des métadonnées n'indiquent pas le type de tableau

En général, les résultats de l'enrichissement des métadonnées indiquent pour chaque donnée enrichie s'il s'agit d'une table ou d'une vue. Cette information ne peut pas être récupérée pour les ressources de données provenant de sources de données SAP OData et n'apparaît donc pas dans les résultats de l'enrichissement.

Problèmes avec le complément Microsoft Excel

Les problèmes suivants sont connus pour le complément de métadonnées Review pour Microsoft Excel :

  • Lorsque vous ouvrez la liste déroulante pour attribuer un terme de gestion ou une classe de données, l'entrée Nom distinctif s'affiche comme première entrée. Si vous sélectionnez cette entrée, elle apparaît dans la colonne mais n'a aucun effet.

  • La mise à jour ou l'écrasement de données existantes dans une feuille de calcul n'est actuellement pas possible. Vous devez utiliser un fichier modèle vide chaque fois que vous récupérez des données.

  • Si un autre utilisateur travaille sur les résultats de l'enrichissement des métadonnées pendant que vous modifiez la feuille de calcul, les modifications de l'autre utilisateur peuvent être perdues lorsque vous téléchargez les modifications que vous avez apportées à la feuille de calcul.

  • Seuls les classes de données et les termes commerciaux attribués sont copiés des colonnes du tableur Classes de données attribuées / suggérées et Termes commerciaux attribués / suggérés vers les colonnes d'entrée correspondantes. Si plusieurs termes commerciaux sont attribués, chacun d'entre eux est copié dans une colonne distincte.

Flux de masquage

Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.

Risque d'échec des travaux de masquage de flux

Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.

studio watsonx.ai

Vous pouvez rencontrer certains de ces problèmes lorsque vous commencez à utiliser des ordinateurs portables :

La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets

Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.

Impossible de créer des actifs dans des comptes plus anciens

Si vous travaillez dans une instance de watsonx.ai Studio qui a été activée avant novembre 2017, il se peut que vous ne puissiez pas créer des actifs opérationnels, comme des carnets de notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service watsonx.ai Studio à votre compte depuis le catalogue des services.

500 internal server error received when launching watsonx.ai Studio

Dans de rares cas, vous pouvez recevoir une erreur de serveur interne HTTP (500) lors du lancement de watsonx.ai Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer watsonx.ai Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :

  1. Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez watsonx.ai Studio pour réinitialiser le cookie de session.
  2. Effacez les cookies IBM des données de navigation et lancez watsonx.ai Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.

Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez la page d'état des incidents IBM Cloud affectant watsonx.ai Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.

Erreur lors de la connexion

Il se peut que vous obteniez ce message d'erreur lorsque vous essayez de vous connecter à watsonx.ai Studio : "Le gestionnaire d'accès WebSEAL n'a pas pu répondre à votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.

Echec de l'exportation d'un bloc-notes au format HTML dans l'éditeur Jupyter Notebook

Lorsque vous travaillez avec un Jupyter Notebook créé dans un outil autre que watsonx.ai Studio, il se peut que vous ne puissiez pas exporter le carnet au format HTML. Ce problème se produit lorsque la sortie de la cellule est exposée.

Solution de contournement

  1. Dans l'interface utilisateur Jupyter Notebook , accédez à Editer et cliquez sur Editer les métadonnées de bloc-notes.

  2. Supprimez les métadonnées suivantes:

    "widgets": {
       "state": {},
       "version": "1.1.2"
    }
    
  3. Cliquez sur le bouton Editer.

  4. Sauvegardez le bloc-notes.

L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge

Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.

La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code

Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.

L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur

Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.

Message signalant que la connexion a échoué

Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.

Impossible de se connecter au noyau du bloc-notes

Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel, suivi de Connection failed. Reconnecting et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.

Si watsonx.ai Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket 'wss://dataplatform.cloud.ibm.com aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.

Erreur de ressources disponibles insuffisantes lors de l'ouverture ou de l'édition d'un bloc-notes

Si le message suivant s'affiche lors de l'ouverture ou de l'édition d'un bloc-notes, l'environnement d'exécution associé à votre bloc-notes présente des problèmes de ressources:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Pour trouver la cause, essayez de vérifier la page d'état des incidents IBM Cloud affectant watsonx.ai Studio. De plus, vous pouvez ouvrir un cas de support sur le portail de support IBM Cloud .

Limitations lors de l'utilisation de watsonx.ai Studio :

Les fichiers téléchargés via l'interface utilisateur de watsonx.ai Studio ne sont pas validés ou analysés pour détecter tout contenu potentiellement malveillant

Les fichiers que vous téléchargez via l'interface utilisateur de watsonx.ai Studio ne sont pas validés ou analysés pour détecter des contenus potentiellement malveillants. Il est fortement recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin de garantir la sécurité de votre contenu.

Problèmes connus de Data Refinery

Perte de table cible et échec du travail lorsque vous utilisez l'option Update dans un flux Data Refinery

L'utilisation de l'option Update pour la propriété Write mode target pour les sources de données relationnelles (par exemple Db2) remplace la table cible originale et le job Data Refinery peut échouer.

Solution : Utilisez l'option Fusion comme mode **Écriture ** et l'option Append comme action de table.

Data Refinery limitations

Les en-têtes de colonnes de données ne peuvent pas contenir de caractères spéciaux

Les données dont les en-têtes de colonne contiennent des caractères spéciaux peuvent entraîner l'échec des tâches Data Refinery et provoquer l'erreur Supplied values don't match positional vars to interpolate.

Modèle de contournement: Supprimez les caractères spéciaux des en-têtes de colonne.

Data Refinery ne prend pas en charge le connecteur Satellite

Vous ne pouvez pas utiliser un connecteur Satellite pour vous connecter à une base de données avec Data Refinery

Erreur lors de l'ouverture d'un flux Data Refinery avec une connexion avec des informations d'identification personnelles

Lorsque vous ouvrez un flux Data Refinery qui utilise une ressource de données basée sur une connexion avec des informations d'identification personnelles, il se peut qu'une erreur s'affiche.

Fonctionnement : Pour ouvrir un flux Data Refinery dont les actifs utilisent des connexions avec des identifiants personnels, vous devez déverrouiller la connexion. Vous pouvez déverrouiller la connexion soit en modifiant la connexion et en saisissant vos informations d'identification personnelles, soit en prévisualisant la ressource dans le projet, où vous êtes invité à saisir vos informations d'identification personnelles. Une fois la connexion déverrouillée, vous pouvez ouvrir le flux Data Refinery.

Problèmes de visualisation

Vous pouvez rencontrer certains de ces problèmes lorsque vous travaillez avec l'onglet Visualisation d'une ressource de données dans un projet.

Les informations de profil au niveau de la colonne pour un actif de données connecté avec une colonne de type DATE n'affichent pas de lignes

Dans les informations de profil au niveau des colonnes pour un actif de données connecté avec une colonne de type DATE, aucune ligne n'est affichée lorsque vous cliquez sur afficher les lignes dans les onglets Classes de données, Format ou Types.

watsonx.ai Problèmes d'exécution

Vous pouvez rencontrer certains de ces problèmes lorsque vous travaillez avec watsonx.ai Runtime.

Configuration requise des régions

Vous ne pouvez associer une instance de service Runtime 'watsonx.ai à votre projet que si l'instance de service Runtime 'watsonx.ai et l'instance Studio 'watsonx.ai sont situées dans la même région.

Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet

Lorsque vous associez un service watsonx.ai Runtime à un projet, vous avez la possibilité de créer une nouvelle instance de service. Si vous choisissez de créer un nouveau service, les liens de la page de service risquent de ne pas fonctionner. Pour accéder aux termes de service, aux API et à la documentation, cliquez avec le bouton droit de la souris sur les liens pour les ouvrir dans de nouvelles fenêtres.

Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets

Vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.

Solution palliative: Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil.

Problèmes de déploiement

  • Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
  • Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si cette erreur se produit, soumettez à nouveau la demande ; les demandes suivantes aboutissent.

La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *

La prévisualisation d'une ressource de données peut échouer avec ce message : This asset contains masked data and is not supported for preview in the Deployment Space

Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.

Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état starting ou running

Si vous fournissez un contenu asynchrone volumineux pour votre déploiement par lots en ligne, le processus du gestionnaire d'exécution peut sortir du segment de mémoire.

Dans l'exemple suivant, 92 Mo de contenu ont été transmis en ligne au déploiement par lots, ce qui a entraîné une saturation du segment de mémoire.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

Cela peut avoir pour conséquence que des travaux simultanés restent bloqués dans l'état " starting ou " running L'état " starting ne peut être supprimé que lorsque le déploiement est supprimé et qu'un nouveau déploiement est créé. L'état running peut être effacé sans supprimer le déploiement.

Comme solution palliative, utilisez des références de données au lieu de les utiliser en ligne pour les charges de travail volumineuses qui sont fournies aux déploiements par lots.

limitations de l'exécution de watsonx.ai

Limitations connues d'AutoAI

  • A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. LAutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.

  • Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. Les API du client Python nécessaires à la prise en charge de l AutoAI ne sont pas généralement disponibles actuellement.

Module de données non trouvé dans IBM Federated Learning

Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Révisez et mettez à jour votre DataHandler pour qu'il soit conforme à la dernière spécification. Voici le lien vers le gestionnaire de données MNIST le plus récent ou assurez-vous que vos versions d'échantillons sont à jour.

La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements

La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements. Cela signifie que vous ne pouvez pas remplacer les variables d'environnement existantes, par exemple 'LD_LIBRARY_PATH, lorsque vous déployez des actifs dans watsonx.ai Runtime.

Comme solution palliative, si vous utilisez une fonction Python , envisagez de définir des paramètres par défaut. Pour plus de détails, voir Déploiement de fonctions Python.

Les fichiers téléchargés via l'interface utilisateur de l'espace de déploiement ne sont pas validés ou analysés pour détecter tout contenu potentiellement malveillant

Les fichiers que vous téléchargez via l'interface utilisateur de l'espace de déploiement ne sont pas validés ni analysés pour détecter tout contenu potentiellement malveillant. Il est recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin de garantir la sécurité de votre contenu.

Problèmes liés à Watson OpenScale

Vous pouvez rencontrer les problèmes suivants dans Watson OpenScale:

La configuration de la dérive démarre mais ne se termine jamais

La configuration de la dérive démarre mais ne se termine jamais et continue d'afficher le pointeur de travail en cours. Si la boucle de progression est exécutée pendant plus de 10 minutes, cela peut vouloir dire que le système est dans un état incohérent. Une solution de contournement est possible : éditez la configuration de la dérive. puis sauvegardez-le. Le système peut sortir de cet état et terminer la configuration. Si la reconfiguration de la dérive ne corrige pas la situation, contactez le support IBM.

Problèmes liés à SPSS Modeler

Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.

Restrictions d'exécution de SPSS Modeler

watsonx.ai Studio n'inclut pas la fonctionnalité SPSS au Pérou, en Équateur, en Colombie et au Venezuela.

Données d'horodatage mesurées en microsecondes

Si vous disposez de données d'horodatage mesurées en microsecondes, vous pouvez utiliser les données plus précises de votre flux. Toutefois, vous pouvez importer des données mesurées en microsecondes uniquement à partir de connecteurs prenant en charge le refoulement SQL. Pour plus d'informations sur les connecteurs qui prennent en charge les conversions SQL, voir Sources de données prises en charge pour SPSS Modeler.

Limites de SPSS Modeler

Langues prises en charge par l'analyse de texte

La fonction d'analyse de texte de SPSS Modeler prend en charge les langues suivantes :

  • Néerlandais
  • Anglais
  • Français
  • Allemand
  • Italien
  • Japonais
  • Portugais
  • Espagnol

SPSS Modeler ne prend pas en charge Satellite Connector

Vous ne pouvez pas utiliser un connecteur Satellite pour vous connecter à une base de données avec SPSS Modeler.

Fusionner les nœuds et les caractères Unicode

Le nœud Merge traite les caractères japonais similaires suivants comme un seul et même caractère.
'caractères japonais

Problèmes de connexion

Vous pouvez rencontrer ce problème lorsque vous utilisez des connexions.

Apache Impala ne fonctionne pas avec l'authentification LDAP

Si vous créez une connexion à une source de données Apache Impala et que le serveur Apache Impala est configuré pour l'authentification LDAP, la méthode d'authentification par nom d'utilisateur et mot de passe dans Cloud Pak for Data as a Service ne fonctionnera pas.

Solution palliative: désactivez l'option Activer l'authentification LDAP sur le serveur Impala . Voir Configuration de l'authentification LDAP dans la documentation Cloudera.

Problèmes connus liés aux pipelines d'orchestration

Les problèmes concernent les pipelines d'orchestration.

Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs

Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes.

Impossible de supprimer des versions de pipeline

Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité. Toutes les versions sont supprimées lorsque le pipeline est supprimé.

La suppression d'une expérimentation AutoAI échoue dans certaines conditions

L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.

Le cache apparaît activé mais n'est pas activé

Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite, le cache est affiché comme étant activé mais reste désactivé.

Les pipelines ne peuvent pas sauvegarder certaines instructions SQL

Les pipelines ne peuvent pas être sauvegardés lorsque des instructions SQL avec des parenthèses sont transmises dans un script ou une variable utilisateur.

Pour résoudre ce problème, remplacez toutes les instances de parenthèses par leur code ASCII respectif (( avec #40 et ) avec #41) et remplacez le code lorsque vous le définissez en tant que variable utilisateur.

Par exemple, l'instruction " select CAST(col1 as VARCHAR(30)) from dbo.table dans un nœud de script Run Bash provoque une erreur. A la place, utilisez l'instruction select CAST#40col1 as VARCHAR#4030#41#41 from dbo.table et remplacez les instances lors de sa définition en tant que variable utilisateur.

Les pipelines d'orchestration s'arrêtent lorsque la limite des annotations est atteinte

Les expressions de pipeline nécessitent des annotations, qui ont une limite en raison de la limite des annotations dans Kubernetes. Si vous atteignez cette limite, votre pipeline s'arrêtera sans afficher les journaux.

Limitations des pipelines d'orchestration

Ces limitations s'appliquent aux pipelines d'orchestration.

Limites de pipeline unique

Ces limitations s'appliquent à un seul pipeline, quelle que soit sa configuration.

  • Un pipeline ne peut pas contenir plus de 120 noeuds standard
  • Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)

Limites de taille d'entrée et de sortie

Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.

Entrée par lot limitée aux actifs de données

Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.

Les scripts Bash génèrent des erreurs avec les commandes curl

Les scripts Bash dans vos pipelines peuvent provoquer des erreurs si vous y implémentez des commandes curl. Pour éviter ce problème, définissez vos commandes curl comme paramètres. Pour enregistrer un pipeline qui provoque une erreur lors de l'enregistrement, essayez d'exporter le fichier isx et de l'importer dans un nouveau projet.

Problèmes liés à Cloud Object Storage

Ces questions s'appliquent à l'utilisation du Cloud Object Storage.

Problèmes liés à Cloud Object Storage lorsque Key Protect est activé

La Key Protect avec le Cloud Object Storage n'est pas prise en charge pour travailler avec les actifs du moteur d'exécution watsonx.ai Si vous utilisez Key Protect, vous pouvez rencontrer ces problèmes lorsque vous travaillez avec des actifs dans watsonx.ai Studio.

  • La formation ou l'enregistrement de ces ressources d'exécution watsonx.ai risque d'échouer :
    • AI automatique
    • Apprentissage fédéré
    • Pipelines
  • Il se peut que vous ne puissiez pas sauvegarder un modèle SPSS ou un modèle de bloc-notes dans un projet

Problèmes liés à watsonx.governance

Le bouton Action n'est pas affiché dans l'évaluation d'un questionnaire

Applique à : Console de gouvernance 9.0.0.3
Réglé dans : Instances créées dans 9.0.0.4 ou plus tard

Que se passe-t-il ?

Lorsque vous ajoutez un modèle de question et que vous le liez à un questionnaire d'évaluation, le bouton Action ne s'affiche pas.

Pour vérifier la cause du problème, procédez comme suit :

  1. Ouvrez le menu Administration, puis cliquez sur Workflow > Questionnaire Assessment Workflow.
  2. Cliquez sur la flèche qui relie Début et Évaluation de l'applicabilité.
  3. Expand Conditions Remarquez que deux conditions sont définies.

Motifs

La valeur par défaut du champ Type d'évaluation de l'IA dans l'évaluation du questionnaire est Non déterminé. Mais la valeur de ce champ devrait être vide.

Résolution du problème

Pour résoudre ce problème, vous devez apporter une modification afin que l'évaluation du questionnaire réponde aux critères de l'étape du flux de travail relative à l'évaluation de l'applicabilité.

  1. Ouvrez l'évaluation du questionnaire et cliquez sur l'onglet Tâche.
  2. Effacer la valeur du champ Type d'évaluationAI.

Limitation de l'intégration avec OpenPages

Lorsque les AI Factsheets sont intégrées aux OpenPages, les champs créés dans les groupes de champs MRG-UserFacts-Model ou MRG-UserFact-Model et MRG-UserFacts-ModelEntry ou MRG-UserFact-ModelUseCase sont synchronisés avec les définitions des types d'actifs modelfacts_user_op et model_entry_user_op. Toutefois, lorsque les champs sont créés à partir de l'application OpenPages, évitez de spécifier que les champs sont obligatoires et ne spécifiez pas de plage de valeurs. Si vous les marquez comme obligatoires ou si vous leur attribuez une fourchette de valeurs, la synchronisation échouera.

Délai d'affichage des données de déploiement de modèle d'invite dans une fiche d'information

Lorsqu'un déploiement est créé pour un modèle d'invite, les faits du déploiement ne sont pas ajoutés immédiatement à la fiche technique. Vous devez d'abord évaluer le déploiement ou afficher la page de suivi du cycle de vie pour ajouter les faits à la fiche d'information.

Liens de pièces jointes redondantes dans la fiche d'information

Une fiche factsheet assure le suivi de tous les événements d'un actif pendant toutes les phases du cycle de vie. Les pièces jointes apparaissent dans chaque étape, créant une redondance dans la feuille d'informations.

Les pièces jointes des modèles d'invite ne sont pas enregistrées lors de l'importation ou de l'exportation

Si votre cas d'utilisation d'IA contient des pièces jointes pour un modèle d'invite, les pièces jointes ne sont pas conservées lorsque l'actif de modèle d'invite est exporté à partir d'un projet ou importé dans un projet ou un espace. Vous devez rattacher tous les fichiers après l'opération d'importation.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus