Problèmes connus et limitations
Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.
- Limites régionales
- IBM Knowledge Catalog
- Flux de masquage
- Watson Query
- Watson Studio
- Watson Machine Learning
- Cognos Dashboard Embedded
- Watson OpenScale
- SPSS Modeler
- Connexions
- Watson Pipelines
- Problèmes liés àCloud Object Storage
Liste des problèmes liés à IBM Knowledge Catalog
- Les données masquées ne sont pas prises en charge dans les visualisations de données
- Les données ne sont pas masquées dans certains outils de projet
- Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
- Ajout de collaborateurs avec des adresses électroniques en minuscules
- Restrictions liées à la connexion Object Storage
- Risque d'échec de plusieurs opérations de connexion simultanées
- Impossible d'activer les règles après la création du catalogue
- Les actifs sont bloqués si l'évaluation échoue
- Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
- Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement
- Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
- Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
- Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
- Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
- Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
- Les règles exécutées sur les colonnes de type temps dans les actifs de données de la source de données Amazon Redshift ne renvoient pas de résultats corrects
- Ecriture d'une sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0
Liste des problèmes de flux de masquage
Liste des problèmes de requête Watson
Liste des problèmes liés aux blocs-notes
- La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
- Impossible de créer des actifs dans des comptes plus anciens
- Erreur lors de la connexion
- Erreur de serveur interne 500 reçue lors du lancement de Watson Studio
- L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
- La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
- L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
- Message signalant que la connexion a échoué
- Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
- Impossible de se connecter au noyau du bloc-notes
- Erreur de ressources disponibles insuffisantes lors de l'ouverture ou de l'édition d'un bloc-notes
Liste des problèmes d'apprentissage automatique
- Configuration requise des régions
- Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet
- Problèmes de déploiement
- Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
- Module de données non trouvé dans IBM Federated Learning
- La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement
- Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état
starting
ourunning
Liste des limitations de l'apprentissage automatique
Liste des problèmes Cognos Dashboard Embedded
- Les fichiers CSV contenant des noms de colonne en double ne sont pas pris en charge
- Les tableaux de bord Cognos ne peuvent utiliser que les connexions de données créées avec des données d'identification par nom d'utilisateur et mot de passe
- Type de données incorrect affiché pour des actifs de données affinés
- Caractères spéciaux non pris en charge dans des fichiers CSV
- Les valeurs de chaîne dans les fichiers CSV sont limitées à 128 caractères
- Limitations du format de date pour les fichiers CSV
- Impossible de remplacer une table de données dans une visualisation
- Fonctions Cognos Analytics qui ne sont pas prises en charge
Liste des problèmes Watson OpenScale
Liste des problèmes SPSS Modeler
Liste des problèmes de connexion
Problèmes liés à Cloud Object Storage
- Liste des problèmes d'apprentissage automatique
- Erreur avec des actifs utilisant Watson Machine Learning dans des projets spécifiant Cloud Object Storage avec Key Protect activé.
- AI automatique
- Fédérer l'apprentissage
- Watson Pipelines
- Liste des problèmes SPSS Modeler
- Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
- Liste des problèmes liés aux blocs-notes
- Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
IBM Knowledge Catalog
Si vous utilisez IBM Knowledge Catalog, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous utilisez des catalogues.
Les données masquées ne sont pas prises en charge dans les visualisations de données
Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported
.
Les données ne sont pas masquées dans certains outils de projet
Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.
Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Ajout de collaborateurs avec des adresses électroniques en minuscules
Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.
Restrictions liées à la connexion Object Storage
Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.
Risque d'échec de plusieurs opérations de connexion simultanées
Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.
Impossible d'activer l'application des règles de protection des données après la création du catalogue
Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.
Les actifs sont bloqués si l'évaluation échoue
Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.
Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.
Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.
Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement
Lorsque vous ajoutez des actifs, affectez de nouvelles classes de données ou des termes métier ou supprimez des termes métier, les filtres respectifs ne sont pas immédiatement mis à jour. En tant que solution palliative, actualisez votre navigateur pour afficher les listes de filtres mises à jour.
Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.
Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.
Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.
Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.
Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.
Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .
Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
Lorsque vous recherchez un actif dans l'onglet Actifs d'un actif d'enrichissement de métadonnées, aucun résultat ne peut être renvoyé. Tenez compte des limitations suivantes:
- La recherche est sensible à la casse.
- Le résultat contient uniquement les enregistrements qui correspondent à la phrase de recherche exacte ou qui commencent par la phrase.
Les règles exécutées sur les colonnes de type heure dans les actifs de données à partir de la source de données Amazon Redshift ne renvoient pas de résultats corrects
Pour les actifs de données provenant de sources de données Amazon Redshift , les colonnes de type heure sont importées avec le type horodatage. Vous ne pouvez pas appliquer de règles de qualité de données spécifiques au temps à de telles colonnes.
Ecriture de la sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0
Si vous souhaitez écrire une sortie de qualité de données générée par l'enrichissement de métadonnées dans une base de données Apache Hive à une version de logiciel antérieure à 3.0.0, définissez les paramètres de configuration suivants sur votre serveur Apache Hive :
set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true; # (not required for version 2)
set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true; # might not be available depending on the version
set hive.compactor.worker.threads=1;
Pour plus d'informations, voir Hive Transactions.
Flux de masquage
Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.
Risque d'échec des travaux de masquage de flux
Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.
Problèmes de bloc-notes
Vous pouvez rencontrer certains de ces problèmes lors de la mise en route et de l'utilisation de blocs-notes.
La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.
Impossible de créer des actifs dans des comptes plus anciens
Si vous travaillez dans une instance de Watson Studio qui a été activée avant novembre 2017, vous risquez de ne pas être en mesure de créer des actifs opérationnels, tels que des blocs-notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service Watson Studio à votre compte à partir du catalogue Services.
Erreur de serveur interne 500 reçue lors du lancement de Watson Studio
Vous pouvez rarement recevoir une erreur de serveur HTTP interne (500) lors du lancement de Watson Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer Watson Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :
- Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez Watson Studio pour réinitialiser le cookie de session.
- Effacez les cookies IBM des données de navigation, puis lancez Watson Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.
Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez les incidents Page d'état pour IBM Cloud affectant Watson Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.
Erreur lors de la connexion
Vous pouvez obtenir ce message d'erreur en essayant de vous connecter à Watson Studio : "Access Manager WebSEAL n'a pas pu terminer votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.
L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.
La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.
L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.
Message signalant que la connexion a échoué
Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.
Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
Si votre bloc-notes contient des sections auxquelles vous avez établi des liens (partant d'une section d'introduction au début du bloc-notes, par exemple), ces liens ne fonctionneront pas si vous ouvrez le bloc-notes en mode aperçu dans Firefox. Ils fonctionneront en revanche si vous ouvrez le bloc-notes en mode édition.
Impossible de se connecter au noyau du bloc-notes
Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel
, suivi de Connection failed. Reconnecting
et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.
Si Watson Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket wss://dataplatform.cloud.ibm.com
aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.
Problèmes d'apprentissage automatique
Vous pouvez rencontrer certains de ces problèmes lorsque vous utilisez des outils d'apprentissage automatique.
Configuration requise des régions
Vous ne pouvez associer une instance de service Watson Machine Learning à votre projet que si l'instance de service Watson Machine Learning et l'instance Watson Studio se trouvent dans la même région.
Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet
Lorsque vous associez un service Watson Machine Learning à un projet, vous avez la possibilité de créer une nouvelle instance de service. Si vous choisissez de créer un nouveau service, les liens de la page de service risquent de ne pas fonctionner. Pour accéder aux termes de service, aux API et à la documentation, cliquez avec le bouton droit de la souris sur les liens pour les ouvrir dans de nouvelles fenêtres.
Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
Vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.
Solution palliative: Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil.
Problèmes de déploiement
- Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
- Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si ce problème se produit, soumettez à nouveau la demande ; les demandes suivantes doivent aboutir.
La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *
Un aperçu d'actif de données peut échouer avec le message suivant: This asset contains masked data and is not supported for preview in the Deployment Space
Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.
Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état starting
ou running
Si vous fournissez un contenu asynchrone volumineux pour votre déploiement par lots en ligne, le processus du gestionnaire d'exécution peut sortir du segment de mémoire.
Dans l'exemple suivant, 92 Mo de contenu ont été transmis en ligne au déploiement par lots, ce qui a entraîné une saturation du segment de mémoire.
Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
...
Cela peut entraîner des travaux simultanés bloqués à l'état starting
ou running
. L'état starting
ne peut être effacé qu'une fois que le déploiement a été supprimé et qu'un nouveau déploiement a été créé. L'état running
peut être effacé sans supprimer le déploiement.
Comme solution palliative, utilisez des références de données au lieu de les utiliser en ligne pour les charges de travail volumineuses qui sont fournies aux déploiements par lots.
Limitations de Watson Machine Learning
Limitations connues d'AutoAI
A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. AutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.
Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. A l'heure actuelle, les API du client Python requises pour prendre en charge AutoAI ne sont pas disponibles.
Module de données non trouvé dans IBM Federated Learning
Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Vérifiez et mettez à jour votre gestionnaire de données pour qu'il soit conforme à la dernière spécification. Voici le lien vers le gestionnaire de données MNIST le plus récent ou vérifiez que vos exemples de version sont à jour.
La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements
La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements. Cela signifie que vous ne pouvez pas remplacer les variables d'environnement existantes, par exemple LD_LIBRARY_PATH
, lors du déploiement d'actifs dans Watson Machine Learning.
Comme solution palliative, si vous utilisez une fonction Python , envisagez de définir des paramètres par défaut. Pour plus de détails, voir Déploiement de fonctions Python.
Problèmes de Cognos Dashboard Embedded
Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation d'un service Cognos Dashboard Embedded.
Les fichiers CSV contenant des noms de colonne en double ne sont pas pris en charge
Cognos Dashboard Embedded ne prend pas en charge les fichiers CSV qui contiennent des noms de colonne en double. Les doublons sont insensibles à la casse. Par exemple, BRANCH_NAME
, branch_name
et Branch_Name
sont considérés comme des noms de colonne en double.
Les tableaux de bord Cognos ne peuvent utiliser que les connexions de données créées avec des données d'identification par nom d'utilisateur et mot de passe
Cognos Dashboard Embedded requiert que les connexions de base de données et les actifs de données connectés ajoutés en tant que sources de données à un tableau de bord incluent les données d'identification par nom d'utilisateur et mot de passe.
Si ces données d'identification ne sont pas spécifiées dans la connexion et qu'un jeton ou une clé d'API est utilisé à la place, Cognos Dashboard Embedded ne peut pas utiliser cette connexion ou cet actif de données connecté comme source de données.
Type de données incorrect affiché pour des actifs de données affinés
Après avoir importé un fichier CSV, si vous cliquez sur le fichier importé dans la page Présentation de l'actif de données, les types de certaines colonnes peuvent ne pas s'afficher correctement. Par exemple, un jeu de données d'un rapport de société avec une colonne appelée Recettes qui contient les revenus de l'entreprise peut apparaître sous la forme Chaîne, au lieu d'un type de données orienté numéro qui est plus logique.
Caractères spéciaux non pris en charge dans les fichiers CSV
Le nom de fichier source CSV peut contenir des caractères qui ne sont pas alphanumériques. Toutefois, le nom de fichier CSV ne peut pas contenir les caractères spéciaux / : & < . \ "
. Si le nom de fichier contient ces caractères, ils sont retirés du nom de table.
Les valeurs de chaîne dans les fichiers CSV sont limitées à 128 caractères
Les valeurs de chaîne contenues dans une colonne de votre fichier CSV source ne peuvent contenir que 128 caractères. Si votre fichier CSV contient des colonnes de chaîne dont les valeurs sont plus longues, un message d'erreur s'affiche.
Limitations du format de date dans des fichiers CSV
Il existe des limitations de format de date pour les fichiers CSV utilisés dans les visualisations. Pour plus d'informations, consultez Resolving problems when using data from CSV files in Cognos Dashboard Embedded.
Impossible de remplacer une table de données dans une visualisation
Lorsque vous ajoutez une visualisation à un tableau de bord, vous ne pouvez pas ajouter une table de données à la visualisation si vous avez précédemment ajouté (puis retiré) les zones de données d'une autre table de données. Cette restriction s'applique aux tables Db2, CSV et à d'autres sources de données.
Fonctions Cognos Analytics non prises en charge
La fonctionnalité suivante d'IBM Cognos Analytics n'est pas prise en charge dans les tableaux de bord :
- Regroupement des données
- Palettes de couleurs personnalisée
- Visualisations personnalisées
- Assistant
- Prévision
- Informations dans la visualisation
- Visualisation de bloc-notes Jupyter
- Analyse avancée des données
Problèmes liés à Watson OpenScale
Vous pouvez rencontrer les problèmes suivants dans Watson OpenScale:
La configuration de la dérive démarre mais ne se termine jamais
La configuration de la dérive démarre mais ne se termine jamais et continue d'afficher le pointeur de travail en cours. Si la boucle de progression est exécutée pendant plus de 10 minutes, cela peut vouloir dire que le système est dans un état incohérent. Une solution de contournement est possible : éditez la configuration de la dérive. puis sauvegardez-le. Le système peut sortir de cet état et terminer la configuration. Si la reconfiguration de la dérive ne corrige pas la situation, contactez le support IBM.
Problèmes liés à SPSS Modeler
Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.
Restrictions d'exécution de SPSS Modeler
Watson Studio n'inclut pas la fonction SPSS au Pérou, en Equateur, en Colombie et au Venezuela.
Noeud de fusion et caractères Unicode
Le noeud Fusionner traite les caractères japonais très similaires suivants comme le même caractère.
problèmes de connexion
Vous pouvez rencontrer ce problème lorsque vous utilisez des connexions.
La connexion Cloudera Impala ne fonctionne pas avec l'authentification LDAP
Si vous créez une connexion à une source de données Cloudera Impala et que le serveur Cloudera Impala est configuré pour l'authentification LDAP, la méthode d'authentification par nom d'utilisateur et mot de passe dans Cloud Pak for Data as a Service ne fonctionnera pas.
Solution palliative: désactivez l'option Activer l'authentification LDAP sur le serveur Impala . Voir Configuration de l'authentification LDAP dans la documentation Cloudera .
Problèmes connus liés à Watson Pipelines
Les problèmes concernent Watson Pipelines.
Des boucles d'imbrication de plus de 2 niveaux peuvent entraîner une erreur de pipeline
L'imbrication de boucles de plus de 2 niveaux peut entraîner une erreur lors de l'exécution du pipeline, telle qu'une erreur lors de l'extraction de l'exécution. La consultation des journaux peut afficher une erreur telle que text in text not resolved: neither pipeline_input nor node_output
. Si vous effectuez une boucle avec la sortie d'un script Bash, le journal peut répertorier une erreur telle que la suivante: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
. Pour résoudre le problème, n'imbriquez pas de boucles de plus de 2 niveaux.
Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs
Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes. Il s'agit d'une limitation actuelle.
Impossible de supprimer des versions de pipeline
Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité.
La suppression d'une expérimentation AutoAI échoue dans certaines conditions
L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.
Le cache apparaît activé mais n'est pas activé
Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite
, le cache est affiché comme étant activé mais reste désactivé.
Limitations de Watson Pipelines
Ces limitations s'appliquent à Watson Pipelines.
- Limites de pipeline unique
- Limitations par taille de configuration
- Limites de taille d'entrée et de sortie
- Entrée par lot limitée aux actifs de données
Limites de pipeline unique
Ces limitations s'appliquent à un seul pipeline, quelle que soit la configuration.
- Un pipeline ne peut pas contenir plus de 120 noeuds standard
- Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)
Limitations par taille de configuration
Configuration minimale
Une configuration SMALL prend en charge 600 noeuds standard (sur tous les pipelines actifs) ou 300 noeuds exécutés en boucle. Par exemple :
- 30 pipelines standard avec 20 noeuds exécutés en parallèle = 600 noeuds standard
- 3 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 300 noeuds dans une boucle
Configuration moyenne
Une configuration MEDIUM prend en charge 1200 noeuds standard (sur tous les pipelines actifs) ou 600 noeuds exécutés en boucle. Par exemple :
- 30 pipelines standard avec 40 noeuds exécutés en parallèle = 1200 noeuds standard
- 6 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 600 noeuds dans une boucle
Configuration maximale
Une configuration LARGE prend en charge 4800 noeuds standard (sur tous les pipelines actifs) ou 2400 noeuds exécutés en boucle. Par exemple :
- 80 pipelines standard avec 60 noeuds exécutés en parallèle = 4800 noeuds standard
- 24 pipelines contenant une boucle avec 10 itérations et 10 noeuds dans chaque itération = 2400 noeuds dans une boucle
Limites de taille d'entrée et de sortie
Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.
Entrée par lot limitée aux actifs de données
Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.
Problèmes liés à Cloud Object Storage
Ces problèmes s'appliquent à l'utilisation de Cloud Object Storage.
Problèmes liés à Cloud Object Storage lorsque Key Protect est activé
Key Protect associé à Cloud Object Storage n'est pas pris en charge pour l'utilisation d'actifs Watson Machine Learning . Si vous utilisez Key Protect, vous pouvez rencontrer ces problèmes lorsque vous utilisez des actifs dans Watson Studio.
- La formation ou la sauvegarde de ces actifs Watson Machine Learning peut échouer:
- AI automatique
- Apprentissage fédéré
- Watson Pipelines
- Il se peut que vous ne puissiez pas sauvegarder un modèle SPSS ou un modèle de bloc-notes dans un projet
Problèmes liés à watsonx.governance
Délai d'affichage des données de déploiement de modèle d'invite dans une fiche d'information
Lorsqu'un déploiement est créé pour un modèle d'invite, les faits du déploiement ne sont pas ajoutés immédiatement à la fiche technique. Vous devez d'abord évaluer le déploiement ou afficher la page de suivi du cycle de vie pour ajouter les faits à la fiche d'information.
Liens de pièces jointes redondantes dans la fiche d'information
Une fiche factsheet assure le suivi de tous les événements d'un actif pendant toutes les phases du cycle de vie. Les pièces jointes apparaissent dans chaque étape, créant une redondance dans la feuille d'informations.