0 / 0
Retourner à la version anglaise de la documentation
Problèmes connus et limitations
Problèmes connus et limitations

Problèmes connus et limitations

Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.

Liste des problèmes Watson Knowledge Catalog

Liste des problèmes de confidentialité des données

Liste des problèmes de raffinement des données

Liste des problèmes de requête Watson

Liste des problèmes Watson Studio

Liste des problèmes Watson Machine Learning

Liste des problèmes Cognos Dashboard Embedded

Liste des problèmes Watson OpenScale

Liste des problèmes SPSS Modeler

Watson Knowledge Catalog

Si vous utilisez Watson Knowledge Catalog, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lors de l'utilisation de catalogues.

Les données ne sont pas masquées dans certains outils de projet

Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.

Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles

Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Ajout de collaborateurs avec des adresses électroniques en minuscules

Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.

Restrictions liées à la connexion Object Storage

Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.

Risque d'échec de plusieurs opérations de connexion simultanées

Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.

Impossible d'activer l'application des règles de protection des données après la création du catalogue

Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.

Les actifs sont bloqués si l'évaluation échoue

Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.

Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.

Seul le bouton de retour du navigateur vous ramène à l'actif d'enrichissement des métadonnées à partir de la page des paramètres par défaut

Lorsque vous ouvrez la page Paramètres par défaut à partir d'un actif d'enrichissement de métadonnées, vous ne pouvez pas revenir à l'actif à l'aide d'un bouton dans l'interface utilisateur du produit ou dans les éléments de navigation. Utilisez le bouton de retour du navigateur pour revenir à l'actif.

Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse

Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.

Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement

Lorsque vous ajoutez des actifs, affectez de nouvelles classes de données ou des termes métier ou supprimez des termes métier, les filtres respectifs ne sont pas immédiatement mis à jour. En tant que solution palliative, actualisez votre navigateur pour afficher les listes de filtres mises à jour.

Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement

Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.

Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées

Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.

Détails incomplets pour une classe de données affectée dans les résultats d'enrichissement d'une colonne

Lorsque vous cliquez sur la classe de données affectée dans l'onglet Gouvernance des détails de colonne dans les résultats d'enrichissement des métadonnées, un aperçu des détails de la classe de données s'affiche. Toutefois, les détails sont incomplets.

Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur

Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.

Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.

Des informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement

Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma risquent de ne pas être disponibles.

Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .

Lorsque vous recherchez un actif dans l'onglet Actifs d'un actif d'enrichissement de métadonnées, aucun résultat ne peut être renvoyé. Tenez compte des limitations suivantes:

  • La recherche est sensible à la casse.
  • Le résultat contient uniquement les enregistrements qui correspondent à la phrase de recherche exacte ou qui commencent par la phrase.

Data Privacy

Si vous utilisez la fonctionnalité de confidentialité de données, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lorsque vous privatisez des données.

Risque d'échec des travaux de masquage de flux

Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.

Data Refinery

Si vous utilisez Data Refinery, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lorsque vous affinez des données.

Les données d'identification personnelles ne sont pas prises en charge pour les actifs de données connectés dans Data Refinery

Si vous créez un actif de données connecté avec des données d'identification, les autres utilisateurs doivent appliquer la solution de contournement ci-après pour utiliser l'actif de données connecté dans Data Refinery.

Solution de contournement :

  1. Accédez à la page du projet et cliquez sur le lien de l'actif de données connecté pour ouvrir l'aperçu.
  2. Indiquez vos données d'identification.
  3. Ouvrez Data Refinery et utilisez l'actif de données connecté authentifié pour une source ou une cible.

Impossible d'afficher les travaux dans les flux de l'affinerie de données dans l'interface utilisateur des nouveaux projets

Si vous travaillez dans l'interface utilisateur des nouveaux projets, vous n'avez pas la possibilité d'afficher les travaux à partir du menu d'options dans les flux Data Refinery.

Solution palliative: Pour afficher les travaux dans des flux Data Refinery, ouvrez un flux Data Refinery , Cliquez sur l'icône Travaux l'icône d'exécution ou de planification d'un travailet sélectionnez Sauvegarder et afficher les travaux. Vous pouvez afficher la liste de tous les travaux de votre projet dans l'onglet Tâches.

Problèmes de Watson Studio

Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation de Watson Studio.

Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets

Si vous travaillez dans l'interface utilisateur des nouveaux projets, vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.

Solution : Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil ou revenir à des projets existants afin de continuer à utiliser la version entièrement intégrée de l'apprentissage fédéré dans votre projet.

La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets

Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.

Impossible de créer des actifs dans des comptes plus anciens

Si vous travaillez dans une instance de Watson Studio qui a été activée avant novembre 2017, vous risquez de ne pas être en mesure de créer des actifs opérationnels, tels que des blocs-notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service Watson Studio à votre compte à partir du catalogue Services.

Erreur de serveur interne 500 reçue lors du lancement de Watson Studio

Vous pouvez rarement recevoir une erreur de serveur HTTP interne (500) lors du lancement de Watson Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer Watson Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :

  1. Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez Watson Studio pour réinitialiser le cookie de session.
  2. Effacez les cookies IBM des données de navigation, puis lancez Watson Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.

Si l'erreur 500 persiste après la réalisation d'une de ces résolutions, consultez la page d'état des incidents IBM Cloud ayant une incidence sur Watson Studio. En outre, vous pouvez ouvrir un ticket de support sur le portail de support IBM Cloud.

Erreur lors de la connexion

Vous pouvez obtenir ce message d'erreur en essayant de vous connecter à Watson Studio : "Access Manager WebSEAL n'a pas pu terminer votre demande en raison d'une erreur inattendue." Revenez à dataplatform.cloud.ibm.com et reconnectez-vous. En général, la seconde tentative de connexion aboutit.

L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge

Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.

La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code

Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.

L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur

Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.

Les tâches Spark peuvent échouer en raison d'une erreur liée à des clés AWS manquantes

La régénération d'un exécuteur qui a échoué au cours d'un travail de lecture ou d'écriture de Parquet sur S3 entraîne l'échec des tâches suivantes en raison de clés AWS manquantes

Le noyau de bloc-notes n'est pas démarré lors de l'ouverture d'un bloc-notes Scala

Vous pouvez observer que le noyau de bloc-notes n'est pas en cours d'exécution lorsque vous ouvrez un bloc-notes Scala qui utilise des bibliothèques Spark et Scala personnalisées. Cette situation se produit lorsque vous utilisez des bibliothèques Scala qui ne sont pas compatibles avec la version Spark que vous utilisez, par exemple, si vous utilisez un fichier jar Scala 2.10 dans un bloc-notes avec Spark 2.1.

Pour éviter cette situation :

  1. Vérifiez que vous utilisez les bibliothèques Scala 2.11 avec Spark 2.1.
  2. Exécutez le code suivant dans un bloc-notes Python pour supprimer les bibliothèques Scala existantes :

    !rm -rvf ~/data/libs/*
    
  3. Rechargez les bibliothèques dont vous avez besoin.

Message signalant que la connexion a échoué

Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.

Echec de la connexion au noyau de bloc-notes sur Amazon EMR

Si la langue du bloc-notes, par exemple Python 3.7 with Spark , n'est pas affichée pour le bloc-notes, le noyau du bloc-notes n'a pas pu être démarré.

Pour vérifier que Kernel Gateway pour Amazon Elastic Map Reduce est démarré et que ses nœuds finaux sont accessibles via Internet, exécutez : curl https://<KG_EMR_URL>:<PORT>/api/kernelspecs -H "Authorization: token <Personal_access_token>"

La passerelle Kernel Gateway est accessible si une liste JSON des noyaux disponibles est renvoyée. Dans le cas contraire, vous devez réinstaller Jupyter Kernel Gateway sur Amazon EMR. Pour plus d'informations, consultez la rubrique décrivant l'ajout d'un service Amazon EMR Spark.

La connexion au noyau de bloc-notes sur Amazon EMR prend plus de temps que prévu

Si le noyau de bloc-notes ne démarre pas, il est possible que le service Amazon Elastic Map Reduce ne dispose pas de ressources Spark suffisantes. Vous pouvez libérer les ressources de Spark en arrêquant les noyaux des cahiers que vous n'utilisez pas. Vous pouvez également arrêter tous les noyaux en redémarrant la passerelle Kernel Gateway vers le cluster EMR :

  1. Ouvrez la console Amazon EMR et connectez-vous au noeud principal du cluster.
  2. Entrez wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh pour télécharger la configuration de Kernel Gateway.
  3. Entrez chmod +x install_kg_emr_bootstrap_script.sh pour exécuter le script.
  4. Entrez ./install_kg_emr_bootstrap_script.sh --restart pour redémarrer Kernel Gateway. Vous serez invité à indiquer le numéro de port.

La connexion à Amazon EMR n'est pas disponible

Si vous continuez à rencontrer des problèmes de connexion à Amazon Elastic Map Reduce, il est recommandé de désinstaller et de réinstaller Kernel Gateway :

  1. Ouvrez la console Amazon EMR et connectez-vous au noeud principal du cluster.
  2. Entrez wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh pour télécharger la configuration de Kernel Gateway.
  3. Entrez chmod +x install_kg_emr_bootstrap_script.sh pour exécuter le script.
  4. Entrez ./install_kg_emr_bootstrap_script.sh --uninstall pour supprimer Kernel Gateway.
  5. Entrez ./install_kg_emr_bootstrap_script.sh pour réinstaller Kernel Gateway.

La connexion au service IBM Analytics n'est pas disponible

L'instance de service IBM Analytics Engine que vous avez sélectionnée pour une utilisation avec votre bloc-notes dans Watson Studio a peut-être été supprimée ou n'est pas en cours d'exécution. Vérifiez que l'instance de service existe et qu'elle est mise à disposition dans le tableau de bord IBM Cloud en cliquant sur le menu de navigation dans Watson Studio et en sélectionnant Tableau de bord.

Ajoutez un nouveau service IBM Analytics Engine à partir de la section Services IBM de la page Services et intégrations.

Pas de support de la fonction Insérer dans le code pour les blocs-notes exécutés dans des environnements Spark 3.0 et Scala 2.12

Vous ne pouvez pas accéder aux données des actifs de projet dans les blocs-notes Scala qui s'exécutent dans les environnements Spark 3.0 & Scala 2.12. Une erreur est renvoyée lorsque vous cliquez sur le lien Insérer dans le code situé sous le nom de l'actif et que vous choisissez de charger les données dans une base de données SparkSession. La solution consiste à revenir à l'utilisation d'un environnement Spark 2.4 ou Scala 2.11.

Si votre bloc-notes contient des sections auxquelles vous avez établi des liens (partant d'une section d'introduction au début du bloc-notes, par exemple), ces liens ne fonctionneront pas si vous ouvrez le bloc-notes en mode aperçu dans Firefox. Ils fonctionneront en revanche si vous ouvrez le bloc-notes en mode édition.

Impossible de se connecter au noyau du bloc-notes

Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel, suivi de Connection failed. Reconnecting et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.

Si Watson Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket wss://dataplatform.cloud.ibm.com aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.

ERROR_RESOURCES_UNAVAILABLE lors de l'ouverture ou de l'édition d'un bloc-notes

Si le message ERROR_RESOURCES_UNAVAILABLE s'affiche lors de l'ouverture ou de l'édition d'un bloc-notes, l'environnement d'exécution associé à votre bloc-notes présente des problèmes de ressources.

Pour trouver la cause, essayez de vérifier la page de statut des incidents IBM Cloud affectant Watson Studio. En outre, vous pouvez ouvrir un cas de support sur le portail de support IBM Cloud .

Problèmes de Watson Machine Learning

Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez des composants IBM Watson Machine Learning, y compris le générateur de modèle et l'éditeur de flux.

Configuration requise des régions

Vous pouvez uniquement associer une instance de service Watson Machine Learning à votre projet Watson Studio lorsque l'instance de service Watson Machine Learning et l'instance Watson Studio se trouvent dans la même région.

Restrictions d'exécution de l'éditeur de flux

Watson Studio n'inclut pas la fonction SPSS au Pérou, en Equateur, en Colombie et au Venezuela.

Problèmes de déploiement

  • Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
  • Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si ce problème se produit, soumettez à nouveau la demande ; les demandes suivantes doivent aboutir.

Limitations connues d'AutoAI

  • A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. AutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir les caractères non ASCII dans le nom ou le contenu du fichier et fournir les données d'entrée sous forme de fichier CSV, comme défini dans cette norme CSV.

  • Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. A l'heure actuelle, les API du client Python requises pour prendre en charge AutoAI ne sont pas disponibles.

Module de données non trouvé dans IBM Federated Learning

Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Vérifiez et mettez à jour votre gestionnaire de données pour qu'il soit conforme à la dernière spécification. Voici le lien vers le plus récent Gestionnaire de données MNIST ou vérifiez que les exemples de versions de votre galerie sont à jour.

Echec de la création de pod lors de la réexécution d'une expérimentation IBM Federated Learning

Le message d'erreur suivant peut s'afficher :

Pod creation failed because of insufficient resources that prevented scheduling.

Le problème peut provenir de l'utilisation d'un modèle plus ancien sur une spécification de logiciel plus récente. Veuillez passer en revue et mettre à jour votre modèle pour vous conformer à la dernière spécification. Voici le lien vers les Frameworks et la Python les plus récents.

Problèmes de Cognos Dashboard Embedded

Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation d'un service Cognos Dashboard Embedded.

Les tableaux de bord Cognos ne peuvent utiliser que les connexions de données créées avec des données d'identification par nom d'utilisateur et mot de passe

Cognos Dashboard Embedded requiert que les connexions de base de données et les actifs de données connectés ajoutés en tant que sources de données à un tableau de bord incluent les données d'identification par nom d'utilisateur et mot de passe.

Si ces données d'identification ne sont pas spécifiées dans la connexion et qu'un jeton ou une clé d'API est utilisé à la place, Cognos Dashboard Embedded ne peut pas utiliser cette connexion ou cet actif de données connecté comme source de données.

Type de données incorrect affiché pour des actifs de données affinés

Après avoir importé un fichier CSV, si vous cliquez sur le fichier importé dans la page Présentation de l'actif de données, les types de certaines colonnes peuvent ne pas s'afficher correctement. Par exemple, un jeu de données d'un rapport de société avec une colonne appelée Recettes qui contient les revenus de l'entreprise peut apparaître sous la forme Chaîne, au lieu d'un type de données orienté numéro qui est plus logique.

Caractères spéciaux non pris en charge dans les fichiers CSV

Le nom de fichier source CSV peut contenir des caractères qui ne sont pas alphanumériques. Toutefois, le nom de fichier CSV ne peut pas contenir les caractères spéciaux / : & < . \ ". Si le nom de fichier contient ces caractères, ils sont retirés du nom de table.

Important : les noms de colonne de table dans le fichier CSV source ne peuvent contenir aucun des caractères spéciaux non pris en charge. Ces caractères ne peuvent pas être supprimés car le nom du module de données doit correspondre au nom de la colonne du fichier source. Dans ce cas, supprimez les caractères spéciaux de vos noms de colonne pour pouvoir utiliser vos données dans un tableau de bord.

Les valeurs de chaîne dans les fichiers CSV sont limitées à 128 caractères

Les valeurs de chaîne contenues dans une colonne de votre fichier CSV source ne peuvent contenir que 128 caractères. Si votre fichier CSV contient des colonnes de chaîne dont les valeurs sont plus longues, un message d'erreur s'affiche.

Limitations du format de date dans des fichiers CSV

Il existe des limitations de format de date pour les fichiers CSV utilisés dans les visualisations. Pour plus d'informations, consultez Resolving problems when using data from CSV files in Cognos Dashboard Embedded.

Impossible de remplacer une table de données dans une visualisation

Lorsque vous ajoutez une visualisation à un tableau de bord, vous ne pouvez pas ajouter une table de données à la visualisation si vous avez précédemment ajouté (puis retiré) les zones de données d'une autre table de données. Cette restriction s'applique aux tables Db2, CSV et à d'autres sources de données.

Fonctions Cognos Analytics non prises en charge

La fonctionnalité suivante d'IBM Cognos Analytics n'est pas prise en charge dans les tableaux de bord :

  • Regroupement des données
  • Palettes de couleurs personnalisée
  • Visualisations personnalisées
  • Assistant
  • Prévision
  • Informations dans la visualisation
  • Visualisation de bloc-notes Jupyter
  • Analyse avancée des données

Problèmes liés à SPSS Modeler

Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.

Erreur lors de la tentative d'arrêt d'un flux actif

Lors de l'exécution d'un flux SPSS Modeler, vous pouvez rencontrer une erreur si vous tentez d'arrêter le flux à partir de la page Environnements sous l'onglet Gérer de votre projet. Pour arrêter complètement la consommation de CHU et l'exécution de SPSS Modeler, fermez le ou les onglets du navigateur où le flux a été ouvert.

L'exécution des nœuds d'actif de données importées échoue parfois

Lorsque vous créez un flux en important un flux SPSS Modeler (fichier .str), que vous faites migrer le noeud d'exportation et que vous exécutez le noeud d'exportation d'actif de données qui en résulte, l'exécution peut échouer. Pour contourner ce problème : relancez le nœud, changez le nom de la sortie et modifiez l'option Si l'ensemble de données existe déjà dans les propriétés du nœud, puis relancez le nœud.

La prévisualisation des données risque d'échouer si des métadonnées de table ont été modifiées

Dans certains cas, lorsque vous utilisez le noeud d'importation d'actif de données pour importer des données provenant d'une connexion, la prévualisation des données peut renvoyer une erreur si les métadonnées de table sous-jacentes (modèle de données) ont été modifiées. Recréez le noeud Actif de données pour résoudre le problème.

Impossible d'afficher la sortie après l'exécution d'un nœud de sortie d'extension

Lors de l'exécution d'un noeud de sortie d'extension avec l'option Sortie dans le fichier sélectionnée, le fichier de sortie résultant renvoie une erreur lorsque vous tentez de l'ouvrir à partir du panneau Sorties.

Impossible de prévisualiser les données Excel provenant de connexions COS

Actuellement, vous ne pouvez pas prévisualiser les données .xls ou .xlsx à partir d'une connexion COS.

Les nombres sont interprétés comme une chaîne

Tout nombre avec une précision supérieure ou égale à 32 et une échelle de 0 sera interprété comme une chaîne. Si vous devez modifier ce comportement, vous pouvez utiliser un noeud Remplacer pour convertir la zone en nombre réel plutôt que l'expression to_real(@FIELD).

Super nœud contenant des nœuds d'importation

Si votre flux possède un super noeud qui contient un noeud d'importation, le schéma d'entrée peut ne pas être défini correctement lorsque vous enregistrez le modèle avec l'option Branche de scoring. Comme solution de contournement pour ce problème, développez le super nœud avant d'enregistrer.

Nœuds KDE avec une version Python non prise en charge

Si votre flux contient un ancien noeud KDE, vous pouvez recevoir une erreur lorsque vous l'exécutez à propos du modèle à l'aide d'un package Python qui n'est plus pris en charge. Dans ce cas, supprimez l'ancien nœud KDE et ajoutez-en un nouveau.

Exportation vers un fichier SAV

Lorsque vous utilisez le noeud Exportation d'actifs de données pour exporter vers un fichier SPSS Statistics SAV (.sav), l'option Remplacer l'actif de données ne fonctionne pas si le schéma d'entrée ne correspond pas au schéma de sortie. Le schéma du fichier existant que vous voulez remplacer doit correspondre.

Options de délimiteur et de décimale

Le choix du délimiteur de champ et du séparateur décimal n'est possible que pour les noeuds Actif de données (.csv). Ces options ne sont actuellement pas disponibles pour les connexions.

Exécution de flux sur un serveur Watson Machine Learning

Lorsque vous exécutez des flux sur un serveur Watson Machine Learning, vous pouvez rencontrer les problèmes suivants :

  • Si un flux fait référence à une connexion, celle-ci doit être accessible à la fois sur la machine locale (pour configurer la connexion elle-même) et sur le serveur Watson Machine Learning distant (pour exécuter le flux).
  • Si un flux contient des nœuds d'analyse de texte, vous ne pouvez pas l'exécuter sur un serveur Watson Machine Learning Server. Vous devez exécuter le flux en local.
  • N'importez pas de fichier STREc (.str) qui nécessite une migration vers un flux qui s'exécute sur Watson Machine Learning Server.

Migration de nœuds d'importation

Si vous importez un flux (.str) dans votre flux qui a été créé dans le bureau SPSS Modeler et contient un ou plusieurs nœuds d'importation non pris en charge, vous êtes invité à migrer les nœuds d'importation vers les ressources de données. Si le flux inclut plusieurs nœuds d'importation utilisant le même fichier de données, vous devez ajouter ce fichier à votre projet en tant qu'actif de données avant la migration, car celle-ci ne peut pas télécharger le même fichier dans plusieurs nœuds d'importation. Une fois l'actif de données ajouté à votre projet, rouvrez le flux et procédez à la migration à l'aide du nouvel actif de données.

Analyse de texte

Les noeuds Text Analytics comportent les problèmes suivants :

  • Lorsque vous générez un nouveau modèle à partir de Text Analytics Workbench, le nouveau modèle n'est connecté à aucun noeud. Par exemple, si vous cliquez dix fois sur Générer un nouveau modèle, vous obtenez dix nouveaux nœuds de modélisation.
  • L'édition des ressources linguistiques n'est pas disponible actuellement.
  • Si un flux contient des nœuds d'analyse de texte, vous ne pouvez pas l'exécuter sur un serveur Watson Machine Learning Server.
  • Dans Text Analytics Workbench, lorsque vous cliquez sur Générer un nouveau modèle, un nouveau nugget de modèle est créé dans votre flux. Si vous générez plusieurs modèles, ils portent tous le même nom et donc être difficiles à distinguer. Une recommandation consiste à utiliser des annotations pour les identifier (cliquez deux fois sur un nugget de modèle pour ouvrir ses propriétés, puis accédez à Annotations).
  • Après la fermeture de Text Analytics Workbench, les paramètres de filtre ou de génération de catégorie que vous avez modifiés ne sont pas sauvegardés sur le noeud comme ils devraient l'être.

Rubrique parent : Cloud Pak for Data en tant que service