0 / 0
Retourner à la version anglaise de la documentation
Problèmes connus et limitations

Problèmes connus et limitations

Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.

Liste des problèmes liés à IBM Knowledge Catalog

Liste des problèmes de flux de masquage

Liste des problèmes de requête Watson

Liste des problèmes liés aux blocs-notes

Liste des problèmes d'apprentissage automatique

Liste des limitations de l'apprentissage automatique

Liste des problèmes Cognos Dashboard Embedded

Liste des problèmes Watson OpenScale

Liste des problèmes SPSS Modeler

Liste des problèmes de connexion

Problèmes liés à Cloud Object Storage

  • Liste des problèmes d'apprentissage automatique
    • Erreur avec des actifs utilisant Watson Machine Learning dans des projets spécifiant Cloud Object Storage avec Key Protect activé.
    • AI automatique
    • Fédérer l'apprentissage
    • Watson Pipelines
  • Liste des problèmes SPSS Modeler
    • Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
  • Liste des problèmes liés aux blocs-notes
    • Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.

IBM Knowledge Catalog

Si vous utilisez IBM Knowledge Catalog, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous utilisez des catalogues.

Impossible d'utiliser des actifs masqués dans Data Refinery

Pour les actifs masqués, les travaux Data Refinery échouent. Si vous avez accès aux actifs de données initiaux avant le masquage, la solution consiste à utiliser Data Refinery avec des actifs non masqués.

Les données masquées ne sont pas prises en charge dans les visualisations de données

Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Les données ne sont pas masquées dans certains outils de projet

Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.

Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles

Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Ajout de collaborateurs avec des adresses électroniques en minuscules

Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.

Restrictions liées à la connexion Object Storage

Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.

Risque d'échec de plusieurs opérations de connexion simultanées

Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.

Impossible d'activer l'application des règles de protection des données après la création du catalogue

Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.

Les actifs sont bloqués si l'évaluation échoue

Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.

Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.

Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse

Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.

Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement

Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.

Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées

Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.

Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur

Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.

Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.

Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement

Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.

Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .

Les règles exécutées sur les colonnes de type heure dans les actifs de données à partir de la source de données Amazon Redshift ne renvoient pas de résultats corrects

Pour les actifs de données provenant de sources de données Amazon Redshift , les colonnes de type heure sont importées avec le type horodatage. Vous ne pouvez pas appliquer de règles de qualité de données spécifiques au temps à de telles colonnes.

Ecriture de la sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0

Si vous souhaitez écrire une sortie de qualité de données générée par l'enrichissement de métadonnées dans une base de données Apache Hive à une version de logiciel antérieure à 3.0.0, définissez les paramètres de configuration suivants sur votre serveur Apache Hive :

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Pour plus d'informations, voir Hive Transactions.

Impossible de créer des contrôles de qualité de données à partir d'un enrichissement de métadonnées

Vous ne pouvez pas créer de définitions de qualité de données ou de règles de qualité de données à partir de la page de qualité de données d'un actif dans un enrichissement de métadonnées.

Solution palliative: créez une définition de qualité de données ou une règle de qualité de données de l'une des manières suivantes:

  • Accédez à l'actif dans le projet. Sur la page Qualité de données , cliquez sur Créer un contrôle de qualité de données et sélectionnez Créer une définition de qualité de données ou Créer une règle de qualité de données.
  • Dans la page Actifs du projet, cliquez sur Nouvel actif , puis sélectionnez Définition de qualité de données ou Règle de qualité de données.

Flux de masquage

Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.

Impossible d'utiliser des actifs masqués dans Data Refinery

Pour plus d'informations, voir Impossible d'utiliser des actifs masqués dans Data Refinery.

Risque d'échec des travaux de masquage de flux

Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.

Problèmes de bloc-notes

Vous pouvez rencontrer certains de ces problèmes lors de la mise en route et de l'utilisation de blocs-notes.

La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets

Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.

Impossible de créer des actifs dans des comptes plus anciens

Si vous travaillez dans une instance de Watson Studio qui a été activée avant novembre 2017, vous risquez de ne pas être en mesure de créer des actifs opérationnels, tels que des blocs-notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service Watson Studio à votre compte à partir du catalogue Services.

Erreur de serveur interne 500 reçue lors du lancement de Watson Studio

Vous pouvez rarement recevoir une erreur de serveur HTTP interne (500) lors du lancement de Watson Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer Watson Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :

  1. Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez Watson Studio pour réinitialiser le cookie de session.
  2. Effacez les cookies IBM des données de navigation, puis lancez Watson Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.

Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez les incidents Page d'état pour IBM Cloud affectant Watson Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.

Erreur lors de la connexion

Vous pouvez obtenir ce message d'erreur en essayant de vous connecter à Watson Studio : "Access Manager WebSEAL n'a pas pu terminer votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.

Echec de l'exportation d'un bloc-notes au format HTML dans l'éditeur Jupyter Notebook

Lorsque vous utilisez un Jupyter Notebook créé dans un outil autre que Watson Studio, vous risquez de ne pas pouvoir exporter le bloc-notes au format HTML. Ce problème se produit lorsque la sortie de la cellule est exposée.

Solution de contournement

  1. Dans l'interface utilisateur Jupyter Notebook , accédez à Editer et cliquez sur Editer les métadonnées de bloc-notes.

  2. Supprimez les métadonnées suivantes:

    "widgets": {
       "state": {},
       "version": "1.1.2"
    }
    
  3. Cliquez sur le bouton Editer.

  4. Sauvegardez le bloc-notes.

L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge

Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.

La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code

Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.

L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur

Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.

Message signalant que la connexion a échoué

Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.

Impossible de se connecter au noyau du bloc-notes

Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel, suivi de Connection failed. Reconnecting et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.

Si Watson Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket wss://dataplatform.cloud.ibm.com aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.

Erreur de ressources disponibles insuffisantes lors de l'ouverture ou de l'édition d'un bloc-notes

Si le message suivant s'affiche lors de l'ouverture ou de l'édition d'un bloc-notes, l'environnement d'exécution associé à votre bloc-notes présente des problèmes de ressources:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Pour trouver la cause, essayez de vérifier la page de statut des incidents IBM Cloud affectant Watson Studio. De plus, vous pouvez ouvrir un cas de support sur le portail de support IBM Cloud .

Problèmes d'apprentissage automatique

Vous pouvez rencontrer certains de ces problèmes lorsque vous utilisez des outils d'apprentissage automatique.

Configuration requise des régions

Vous ne pouvez associer une instance de service Watson Machine Learning à votre projet que si l'instance de service Watson Machine Learning et l'instance Watson Studio se trouvent dans la même région.

Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet

Lorsque vous associez un service Watson Machine Learning à un projet, vous avez la possibilité de créer une nouvelle instance de service. Si vous choisissez de créer un nouveau service, les liens de la page de service risquent de ne pas fonctionner. Pour accéder aux termes de service, aux API et à la documentation, cliquez avec le bouton droit de la souris sur les liens pour les ouvrir dans de nouvelles fenêtres.

Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets

Vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.

Solution palliative: Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil.

Problèmes de déploiement

  • Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
  • Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si ce problème se produit, soumettez à nouveau la demande ; les demandes suivantes doivent aboutir.

La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *

Un aperçu d'actif de données peut échouer avec le message suivant: This asset contains masked data and is not supported for preview in the Deployment Space

Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.

Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état starting ou running

Si vous fournissez un contenu asynchrone volumineux pour votre déploiement par lots en ligne, le processus du gestionnaire d'exécution peut sortir du segment de mémoire.

Dans l'exemple suivant, 92 Mo de contenu ont été transmis en ligne au déploiement par lots, ce qui a entraîné une saturation du segment de mémoire.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

Cela peut entraîner des travaux simultanés bloqués à l'état starting ou running . L'état starting ne peut être effacé qu'une fois que le déploiement a été supprimé et qu'un nouveau déploiement a été créé. L'état running peut être effacé sans supprimer le déploiement.

Comme solution palliative, utilisez des références de données au lieu de les utiliser en ligne pour les charges de travail volumineuses qui sont fournies aux déploiements par lots.

Limitations de Watson Machine Learning

Limitations connues d'AutoAI

  • A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. AutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.

  • Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. A l'heure actuelle, les API du client Python requises pour prendre en charge AutoAI ne sont pas disponibles.

Module de données non trouvé dans IBM Federated Learning

Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Vérifiez et mettez à jour votre gestionnaire de données pour qu'il soit conforme à la dernière spécification. Voici le lien vers le gestionnaire de données MNIST le plus récent ou vérifiez que vos exemples de version sont à jour.

La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements

La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements. Cela signifie que vous ne pouvez pas remplacer les variables d'environnement existantes, par exemple LD_LIBRARY_PATH, lors du déploiement d'actifs dans Watson Machine Learning.

Comme solution palliative, si vous utilisez une fonction Python , envisagez de définir des paramètres par défaut. Pour plus de détails, voir Déploiement de fonctions Python.

Problèmes de Cognos Dashboard Embedded

Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation d'un service Cognos Dashboard Embedded.

Les fichiers CSV contenant des noms de colonne en double ne sont pas pris en charge

Cognos Dashboard Embedded ne prend pas en charge les fichiers CSV qui contiennent des noms de colonne en double. Les doublons sont insensibles à la casse. Par exemple, BRANCH_NAME, branch_nameet Branch_Name sont considérés comme des noms de colonne en double.

Les tableaux de bord Cognos ne peuvent utiliser que les connexions de données créées avec des données d'identification par nom d'utilisateur et mot de passe

Cognos Dashboard Embedded requiert que les connexions de base de données et les actifs de données connectés ajoutés en tant que sources de données à un tableau de bord incluent les données d'identification par nom d'utilisateur et mot de passe.

Si ces données d'identification ne sont pas spécifiées dans la connexion et qu'un jeton ou une clé d'API est utilisé à la place, Cognos Dashboard Embedded ne peut pas utiliser cette connexion ou cet actif de données connecté comme source de données.

Type de données incorrect affiché pour des actifs de données affinés

Après avoir importé un fichier CSV, si vous cliquez sur le fichier importé dans la page Présentation de l'actif de données, les types de certaines colonnes peuvent ne pas s'afficher correctement. Par exemple, un jeu de données d'un rapport de société avec une colonne appelée Recettes qui contient les revenus de l'entreprise peut apparaître sous la forme Chaîne, au lieu d'un type de données orienté numéro qui est plus logique.

Caractères spéciaux non pris en charge dans les fichiers CSV

Le nom de fichier source CSV peut contenir des caractères qui ne sont pas alphanumériques. Toutefois, le nom de fichier CSV ne peut pas contenir les caractères spéciaux / : & < . \ ". Si le nom de fichier contient ces caractères, ils sont retirés du nom de table.

Important: Les noms de colonne de table dans le fichier CSV source ne peuvent pas contenir de caractères spéciaux non pris en charge. Ces caractères ne peuvent pas être supprimés car le nom du module de données doit correspondre au nom de la colonne du fichier source. Dans ce cas, supprimez les caractères spéciaux de vos noms de colonne pour pouvoir utiliser vos données dans un tableau de bord.

Les valeurs de chaîne dans les fichiers CSV sont limitées à 128 caractères

Les valeurs de chaîne contenues dans une colonne de votre fichier CSV source ne peuvent contenir que 128 caractères. Si votre fichier CSV contient des colonnes de chaîne dont les valeurs sont plus longues, un message d'erreur s'affiche.

Limitations du format de date dans des fichiers CSV

Il existe des limitations de format de date pour les fichiers CSV utilisés dans les visualisations. Pour plus d'informations, consultez Resolving problems when using data from CSV files in Cognos Dashboard Embedded.

Impossible de remplacer une table de données dans une visualisation

Lorsque vous ajoutez une visualisation à un tableau de bord, vous ne pouvez pas ajouter une table de données à la visualisation si vous avez précédemment ajouté (puis retiré) les zones de données d'une autre table de données. Cette restriction s'applique aux tables Db2, CSV et à d'autres sources de données.

Fonctions Cognos Analytics non prises en charge

La fonctionnalité suivante d'IBM Cognos Analytics n'est pas prise en charge dans les tableaux de bord :

  • Regroupement des données
  • Palettes de couleurs personnalisée
  • Visualisations personnalisées
  • Assistant
  • Prévision
  • Informations dans la visualisation
  • Visualisation de bloc-notes Jupyter
  • Analyse avancée des données

Problèmes liés à Watson OpenScale

Vous pouvez rencontrer les problèmes suivants dans Watson OpenScale:

La configuration de la dérive démarre mais ne se termine jamais

La configuration de la dérive démarre mais ne se termine jamais et continue d'afficher le pointeur de travail en cours. Si la boucle de progression est exécutée pendant plus de 10 minutes, cela peut vouloir dire que le système est dans un état incohérent. Une solution de contournement est possible : éditez la configuration de la dérive. puis sauvegardez-le. Le système peut sortir de cet état et terminer la configuration. Si la reconfiguration de la dérive ne corrige pas la situation, contactez le support IBM.

Problèmes liés à SPSS Modeler

Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.

Restrictions d'exécution de SPSS Modeler

Watson Studio n'inclut pas la fonction SPSS au Pérou, en Equateur, en Colombie et au Venezuela.

Noeud de fusion et caractères Unicode

Le noeud Fusionner traite les caractères japonais très similaires suivants comme le même caractère.
caractères japonais

problèmes de connexion

Vous pouvez rencontrer ce problème lorsque vous utilisez des connexions.

La connexion Cloudera Impala ne fonctionne pas avec l'authentification LDAP

Si vous créez une connexion à une source de données Cloudera Impala et que le serveur Cloudera Impala est configuré pour l'authentification LDAP, la méthode d'authentification par nom d'utilisateur et mot de passe dans Cloud Pak for Data as a Service ne fonctionnera pas.

Solution palliative: désactivez l'option Activer l'authentification LDAP sur le serveur Impala . Voir Configuration de l'authentification LDAP dans la documentation Cloudera .

Problèmes connus liés à Watson Pipelines

Les problèmes concernent Watson Pipelines.

Des boucles d'imbrication de plus de 2 niveaux peuvent entraîner une erreur de pipeline

L'imbrication de boucles de plus de 2 niveaux peut entraîner une erreur lors de l'exécution du pipeline, telle qu'une erreur lors de l'extraction de l'exécution. La consultation des journaux peut afficher une erreur telle que text in text not resolved: neither pipeline_input nor node_output. Si vous effectuez une boucle avec la sortie d'un script Bash, le journal peut répertorier une erreur telle que la suivante: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Pour résoudre le problème, n'imbriquez pas de boucles de plus de 2 niveaux.

Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs

Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes. Il s'agit d'une limitation actuelle.

Impossible de supprimer des versions de pipeline

Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité.

La suppression d'une expérimentation AutoAI échoue dans certaines conditions

L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.

Le cache apparaît activé mais n'est pas activé

Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite, le cache est affiché comme étant activé mais reste désactivé.

Limitations de Watson Pipelines

Ces limitations s'appliquent à Watson Pipelines.

Limites de pipeline unique

Ces limitations s'appliquent à un seul pipeline, quelle que soit la configuration.

  • Un pipeline ne peut pas contenir plus de 120 noeuds standard
  • Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)

Limitations par taille de configuration

Configuration minimale

Une configuration SMALL prend en charge 600 noeuds standard (sur tous les pipelines actifs) ou 300 noeuds exécutés en boucle. Par exemple :

  • 30 pipelines standard avec 20 noeuds exécutés en parallèle = 600 noeuds standard
  • 3 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 300 noeuds dans une boucle

Configuration moyenne

Une configuration MEDIUM prend en charge 1200 noeuds standard (sur tous les pipelines actifs) ou 600 noeuds exécutés en boucle. Par exemple :

  • 30 pipelines standard avec 40 noeuds exécutés en parallèle = 1200 noeuds standard
  • 6 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 600 noeuds dans une boucle

Configuration maximale

Une configuration LARGE prend en charge 4800 noeuds standard (sur tous les pipelines actifs) ou 2400 noeuds exécutés en boucle. Par exemple :

  • 80 pipelines standard avec 60 noeuds exécutés en parallèle = 4800 noeuds standard
  • 24 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 2400 noeuds dans une boucle

Limites de taille d'entrée et de sortie

Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.

Entrée par lot limitée aux actifs de données

Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.

Problèmes liés à Cloud Object Storage

Ces problèmes s'appliquent à l'utilisation de Cloud Object Storage.

Problèmes liés à Cloud Object Storage lorsque Key Protect est activé

Key Protect associé à Cloud Object Storage n'est pas pris en charge pour l'utilisation d'actifs Watson Machine Learning . Si vous utilisez Key Protect, vous pouvez rencontrer ces problèmes lorsque vous utilisez des actifs dans Watson Studio.

  • La formation ou la sauvegarde de ces actifs Watson Machine Learning peut échouer:
    • AI automatique
    • Apprentissage fédéré
    • Watson Pipelines
  • Il se peut que vous ne puissiez pas sauvegarder un modèle SPSS ou un modèle de bloc-notes dans un projet

Problèmes liés à watsonx.governance

Délai d'affichage des données de déploiement de modèle d'invite dans une fiche d'information

Lorsqu'un déploiement est créé pour un modèle d'invite, les faits du déploiement ne sont pas ajoutés immédiatement à la fiche technique. Vous devez d'abord évaluer le déploiement ou afficher la page de suivi du cycle de vie pour ajouter les faits à la fiche d'information.

Liens de pièces jointes redondantes dans la fiche d'information

Une fiche factsheet assure le suivi de tous les événements d'un actif pendant toutes les phases du cycle de vie. Les pièces jointes apparaissent dans chaque étape, créant une redondance dans la feuille d'informations.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus