Problèmes connus et limitations
Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.
- Limites régionales
- Watson Knowledge Catalog
- Flux de masquage
- Data Refinery
- Watson Query
- Watson Studio
- Watson Machine Learning
- Cognos Dashboard Embedded
- Watson OpenScale
- SPSS Modeler
- Watson Pipelines
Liste des problèmes Watson Knowledge Catalog
- Synchronisation des caches de catégorie du service de stratégie de données (DPS)
- Les données masquées ne sont pas prises en charge dans les visualisations de données
- Les données ne sont pas masquées dans certains outils de projet
- Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
- Ajout de collaborateurs avec des adresses électroniques en minuscules
- Restrictions liées à la connexion Object Storage
- Risque d'échec de plusieurs opérations de connexion simultanées
- Impossible d'activer les règles après la création du catalogue
- Les actifs sont bloqués si l'évaluation échoue
- Seul le bouton de retour du navigateur vous ramène à l'actif d'enrichissement des métadonnées à partir de la page des paramètres par défaut
- Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
- Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement
- Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
- Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
- Détails incomplets pour une classe de données affectée dans les résultats d'enrichissement d'une colonne
- Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
- Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
- Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
Liste des problèmes de flux de masquage
Liste des problèmes de raffinement des données
Liste des problèmes de requête Watson
Liste des problèmes Watson Studio
- Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
- La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
- Impossible de créer des actifs dans des comptes plus anciens
- Erreur lors de la connexion
- Erreur de serveur interne 500 reçue lors du lancement de Watson Studio
- L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
- La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
- L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
- Message signalant que la connexion a échoué
- Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
- Impossible de se connecter au noyau du bloc-notes
- ERROR_RESOURCES_UNAVAILABLE lors de l'ouverture ou de l'édition d'un bloc-notes
Liste des problèmes Watson Machine Learning
Liste des problèmes Cognos Dashboard Embedded
- Les fichiers CSV contenant des noms de colonne en double ne sont pas pris en charge
- Les tableaux de bord Cognos ne peuvent utiliser que les connexions de données créées avec des données d'identification par nom d'utilisateur et mot de passe
- Type de données incorrect affiché pour des actifs de données affinés
- Caractères spéciaux non pris en charge dans des fichiers CSV
- Les valeurs de chaîne dans les fichiers CSV sont limitées à 128 caractères
- Limitations du format de date pour les fichiers CSV
- Impossible de remplacer une table de données dans une visualisation
- Fonctions Cognos Analytics qui ne sont pas prises en charge
Liste des problèmes Watson OpenScale
Liste des problèmes SPSS Modeler
- Erreur lors de la tentative d'arrêt d'un flux actif
- L'exécution des noeuds d'exportation d'actifs de données importés risque parfois d'échouer
- L'aperçu des données peut échouer lorsque les métadonnées de la table sont modifiées
- Impossible d'afficher la sortie après l'exécution d'un noeud Sortie d'extension
- Impossible de prévisualiser les données Excel provenant de connexions COS
- Nombres interprétés sous forme de chaîne
- Supernoeud contenant des noeuds d'importation
- Exportation vers un fichier SAV
- Exécution de flux sur un serveur Watson Machine Learning
- Migration des noeuds d'importation
- Les paramètres Text Analytics ne sont pas sauvegardés
- Fusionner les caractères Unicode du noeud
Watson Knowledge Catalog
Si vous utilisez Watson Knowledge Catalog, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lors de l'utilisation de catalogues.
Synchronisation des caches de catégorie du service de stratégie de données (DPS)
A des fins de performances, le service de stratégie de données (DPS) conserve une copie des catégories de glossaire dans les caches. Lorsque des catégories sont créées, mises à jour ou supprimées, le service de glossaire publie des événements RabbitMQ pour refléter ces modifications. Le serveur DPS écoute ces événements et met à jour les caches. Toutefois, dans de rares cas, le message peut être perdu lorsque le service RabbitMQ est arrêté ou trop occupé. DPS fournit un utilitaire d'API REST pour mettre à jour le cache.
Vous pouvez exécuter l'utilitaire d'API REST suivant pendant les temps d'indisponibilité qui ne comporte pas de modification de catégorie pour éviter des résultats de mise en application inattendus lors de l'exécution, ainsi que des mises à jour de cache inexactes:
curl -v -k -X GET --header "Content-Type: application/json"
--header "Accept: application/json"
--header "Authorization: Bearer ${token}"
"${uri}/v3/enforcement/governed_items/sync/category"
Cette API REST est disponible dans le service Watson Knowledge Catalog .
Les données masquées ne sont pas prises en charge dans les visualisations de données
Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported
.
Les données ne sont pas masquées dans certains outils de projet
Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.
Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Ajout de collaborateurs avec des adresses électroniques en minuscules
Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.
Restrictions liées à la connexion Object Storage
Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.
Risque d'échec de plusieurs opérations de connexion simultanées
Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.
Impossible d'activer l'application des règles de protection des données après la création du catalogue
Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.
Les actifs sont bloqués si l'évaluation échoue
Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.
Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.
Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.
Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement
Lorsque vous ajoutez des actifs, affectez de nouvelles classes de données ou des termes métier ou supprimez des termes métier, les filtres respectifs ne sont pas immédiatement mis à jour. En tant que solution palliative, actualisez votre navigateur pour afficher les listes de filtres mises à jour.
Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.
Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.
Détails incomplets pour une classe de données affectée dans les résultats d'enrichissement d'une colonne
Lorsque vous cliquez sur la classe de données affectée dans l'onglet Gouvernance des détails de colonne dans les résultats d'enrichissement des métadonnées, un aperçu des détails de la classe de données s'affiche. Toutefois, les détails sont incomplets.
Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.
Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.
Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.
Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .
Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
Lorsque vous recherchez un actif dans l'onglet Actifs d'un actif d'enrichissement de métadonnées, aucun résultat ne peut être renvoyé. Tenez compte des limitations suivantes:
- La recherche est sensible à la casse.
- Le résultat contient uniquement les enregistrements qui correspondent à la phrase de recherche exacte ou qui commencent par la phrase.
Les règles exécutées sur les colonnes de type heure dans les actifs de données à partir de la source de données Amazon Redshift ne renvoient pas de résultats corrects
Pour les actifs de données provenant de sources de données Amazon Redshift , les colonnes de type heure sont importées avec le type horodatage. Vous ne pouvez pas appliquer de règles de qualité de données spécifiques au temps à de telles colonnes.
Flux de masquage
Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.
Risque d'échec des travaux de masquage de flux
Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.
Data Refinery
Si vous utilisez Data Refinery, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lorsque vous affinez des données.
Les données d'identification personnelles ne sont pas prises en charge pour les actifs de données connectés dans Data Refinery
Si vous créez un actif de données connecté avec des données d'identification, les autres utilisateurs doivent appliquer la solution de contournement ci-après pour utiliser l'actif de données connecté dans Data Refinery.
Solution de contournement :
- Accédez à la page du projet et cliquez sur le lien de l'actif de données connecté pour ouvrir l'aperçu.
- Indiquez vos données d'identification.
- Ouvrez Data Refinery et utilisez l'actif de données connecté authentifié pour une source ou une cible.
Impossible d'afficher les travaux dans les flux de l'affinerie de données dans l'interface utilisateur des nouveaux projets
Si vous travaillez dans l'interface utilisateur des nouveaux projets, vous n'avez pas la possibilité d'afficher les travaux à partir du menu d'options dans les flux Data Refinery.
Solution palliative: Pour afficher les travaux dans des flux Data Refinery, ouvrez un flux Data Refinery , cliquez sur l'icône Travaux et sélectionnez Sauvegarder et afficher les travaux . Vous pouvez afficher la liste de tous les travaux de votre projet dans l'onglet Tâches.
Problèmes de Watson Studio
Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation de Watson Studio.
Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
Si vous travaillez dans la nouvelle interface utilisateur des projets, vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.
Solution : Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil ou revenir à des projets existants afin de continuer à utiliser la version entièrement intégrée de l'apprentissage fédéré dans votre projet.
La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.
Impossible de créer des actifs dans des comptes plus anciens
Si vous travaillez dans une instance de Watson Studio qui a été activée avant novembre 2017, vous risquez de ne pas être en mesure de créer des actifs opérationnels, tels que des blocs-notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service Watson Studio à votre compte à partir du catalogue Services.
Erreur de serveur interne 500 reçue lors du lancement de Watson Studio
Vous pouvez rarement recevoir une erreur de serveur HTTP interne (500) lors du lancement de Watson Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer Watson Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :
- Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez Watson Studio pour réinitialiser le cookie de session.
- Effacez les cookies IBM des données de navigation, puis lancez Watson Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.
Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez les incidents Page d'état pour IBM Cloud affectant Watson Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.
Erreur lors de la connexion
Vous pouvez obtenir ce message d'erreur en essayant de vous connecter à Watson Studio : "Access Manager WebSEAL n'a pas pu terminer votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.
L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.
La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.
L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.
Message signalant que la connexion a échoué
Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.
Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
Si votre bloc-notes contient des sections auxquelles vous avez établi des liens (partant d'une section d'introduction au début du bloc-notes, par exemple), ces liens ne fonctionneront pas si vous ouvrez le bloc-notes en mode aperçu dans Firefox. Ils fonctionneront en revanche si vous ouvrez le bloc-notes en mode édition.
Impossible de se connecter au noyau du bloc-notes
Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel
, suivi de Connection failed. Reconnecting
et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.
Si Watson Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket wss://dataplatform.cloud.ibm.com
aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.
Problèmes de Watson Machine Learning
Vous pouvez rencontrer certains de ces problèmes lorsque vous utilisez des composants Watson Machine Learning , notamment le générateur de modèle et l'éditeur de flux.
Configuration requise des régions
Vous ne pouvez associer une instance de service Watson Machine Learning à votre projet que si l'instance de service Watson Machine Learning et l'instance Watson Studio se trouvent dans la même région.
Restrictions d'exécution de l'éditeur de flux
Watson Studio n'inclut pas la fonction SPSS au Pérou, en Equateur, en Colombie et au Venezuela.
Problèmes de déploiement
- Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
- Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si ce problème se produit, soumettez à nouveau la demande ; les demandes suivantes doivent aboutir.
Limitations connues d'AutoAI
A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. AutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.
Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. A l'heure actuelle, les API du client Python requises pour prendre en charge AutoAI ne sont pas disponibles.
Module de données non trouvé dans IBM Federated Learning
Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Vérifiez et mettez à jour votre gestionnaire de données pour qu'il soit conforme à la dernière spécification. Voici le lien vers le plus récent Gestionnaire de données MNIST ou vérifiez que les exemples de versions de votre galerie sont à jour.
La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *
Un aperçu d'actif de données peut échouer avec le message suivant: This asset contains masked data and is not supported for preview in the Deployment Space
Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.
Problèmes liés à SPSS Modeler
Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.
Erreur lors de la tentative d'arrêt d'un flux actif
Lors de l'exécution d'un flux SPSS Modeler, vous pouvez rencontrer une erreur si vous tentez d'arrêter le flux à partir de la page Environnements sous l'onglet Gérer de votre projet. Pour arrêter complètement la consommation de CHU et l'exécution de SPSS Modeler, fermez le ou les onglets du navigateur où le flux a été ouvert.
L'exécution des nœuds d'actif de données importées échoue parfois
Lorsque vous créez un flux en important un flux SPSS Modeler (fichier .str), que vous faites migrer le noeud d'exportation et que vous exécutez le noeud d'exportation d'actif de données qui en résulte, l'exécution peut échouer. Pour contourner ce problème : relancez le nœud, changez le nom de la sortie et modifiez l'option Si l'ensemble de données existe déjà dans les propriétés du nœud, puis relancez le nœud.
La prévisualisation des données risque d'échouer si des métadonnées de table ont été modifiées
Dans certains cas, lorsque vous utilisez le noeud d'importation d'actif de données pour importer des données provenant d'une connexion, la prévualisation des données peut renvoyer une erreur si les métadonnées de table sous-jacentes (modèle de données) ont été modifiées. Recréez le noeud Actif de données pour résoudre le problème.
Impossible d'afficher la sortie après l'exécution d'un nœud de sortie d'extension
Lors de l'exécution d'un noeud de sortie d'extension avec l'option Sortie dans le fichier sélectionnée, le fichier de sortie résultant renvoie une erreur lorsque vous tentez de l'ouvrir à partir du panneau Sorties.
Impossible de prévisualiser les données Excel provenant de connexions COS
Actuellement, vous ne pouvez pas prévisualiser les données .xls ou .xlsx à partir d'une connexion COS.
Les nombres sont interprétés comme une chaîne
Tout nombre avec une précision supérieure ou égale à 32 et une échelle de 0 sera interprété comme une chaîne. Si vous devez modifier ce comportement, vous pouvez utiliser un noeud Remplacer pour convertir la zone en nombre réel plutôt que l'expression to_real(@FIELD).
Super nœud contenant des nœuds d'importation
Si votre flux possède un super noeud qui contient un noeud d'importation, le schéma d'entrée peut ne pas être défini correctement lorsque vous enregistrez le modèle avec l'option Branche de scoring. Comme solution de contournement pour ce problème, développez le super nœud avant d'enregistrer.
Exportation vers un fichier SAV
Lorsque vous utilisez le noeud Exportation d'actifs de données pour exporter vers un fichier SPSS Statistics SAV (.sav), l'option Remplacer l'actif de données ne fonctionne pas si le schéma d'entrée ne correspond pas au schéma de sortie. Le schéma du fichier existant que vous voulez remplacer doit correspondre.
Exécution de flux sur un serveur Watson Machine Learning
Lorsque vous exécutez des flux sur un serveur Watson Machine Learning, vous pouvez rencontrer les problèmes suivants :
- Si un flux fait référence à une connexion, celle-ci doit être accessible à la fois sur la machine locale (pour configurer la connexion elle-même) et sur le serveur Watson Machine Learning distant (pour exécuter le flux).
- Si un flux contient des nœuds d'analyse de texte, vous ne pouvez pas l'exécuter sur un serveur Watson Machine Learning Server. Vous devez exécuter le flux en local.
- N'importez pas de fichier STREc (.str) qui nécessite une migration vers un flux qui s'exécute sur Watson Machine Learning Server.
Migration de nœuds d'importation
Si vous importez un flux (.str) dans votre flux qui a été créé dans le bureau SPSS Modeler et contient un ou plusieurs nœuds d'importation non pris en charge, vous êtes invité à migrer les nœuds d'importation vers les ressources de données. Si le flux inclut plusieurs nœuds d'importation utilisant le même fichier de données, vous devez ajouter ce fichier à votre projet en tant qu'actif de données avant la migration, car celle-ci ne peut pas télécharger le même fichier dans plusieurs nœuds d'importation. Une fois l'actif de données ajouté à votre projet, rouvrez le flux et procédez à la migration à l'aide du nouvel actif de données.
Les paramètres d'analyse de texte ne sont pas sauvegardés
Après la fermeture de Text Analytics Workbench, les paramètres de filtre ou les paramètres de création de catégorie que vous avez modifiés ne sont pas sauvegardés sur le noeud comme ils devraient l'être.
Noeud de fusion et caractères Unicode
Le noeud Fusionner traite les caractères japonais très similaires suivants comme le même caractère.
Problèmes connus liés à Watson Pipelines
Les problèmes concernent Watson Pipelines.
Des boucles d'imbrication de plus de 2 niveaux peuvent entraîner une erreur de pipeline
L'imbrication de boucles de plus de 2 niveaux peut entraîner une erreur lors de l'exécution du pipeline, telle qu'une erreur lors de l'extraction de l'exécution. La consultation des journaux peut afficher une erreur telle que text in text not resolved: neither pipeline_input nor node_output
. Si vous effectuez une boucle avec la sortie d'un script Bash, le journal peut répertorier une erreur telle que la suivante: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
. Pour résoudre le problème, n'imbriquez pas de boucles de plus de 2 niveaux.
Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs
Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes. Il s'agit d'une limitation actuelle.
Impossible de supprimer des versions de pipeline
Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité.
La suppression d'une expérimentation AutoAI échoue dans certaines conditions
L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.
Le cache apparaît activé mais n'est pas activé
Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite
, le cache est affiché comme étant activé mais reste désactivé.
Limitations de Watson Pipelines
Ces limitations s'appliquent à Watson Pipelines.
- Limites de pipeline unique
- Limitations par taille de configuration
- Limites de taille d'entrée et de sortie
- Entrée par lot limitée aux actifs de données
Limites de pipeline unique
Ces limitations s'appliquent à un seul pipeline, quelle que soit la configuration.
- Un pipeline ne peut pas contenir plus de 120 noeuds standard
- Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)
Limitations par taille de configuration
Configuration minimale
Une configuration SMALL prend en charge 600 noeuds standard (sur tous les pipelines actifs) ou 300 noeuds exécutés en boucle. Par exemple :
- 30 pipelines standard avec 20 noeuds exécutés en parallèle = 600 noeuds standard
- un pipeline unique contenant une boucle avec 30 itérations et 10 noeuds dans chaque itération = 300 noeuds dans une boucle
Configuration moyenne
Une configuration MEDIUM prend en charge 1200 noeuds standard (sur tous les pipelines actifs) ou 600 noeuds exécutés en boucle. Par exemple :
- 30 pipelines standard avec 40 noeuds exécutés en parallèle = 1200 noeuds standard
- un pipeline unique contenant une boucle avec 60 itérations et 10 noeuds à chaque itération = 600 noeuds dans une boucle
Configuration maximale
Une configuration LARGE prend en charge 4800 noeuds standard (sur tous les pipelines actifs) ou 2400 noeuds exécutés en boucle. Par exemple :
- 80 pipelines standard avec 60 noeuds exécutés en parallèle = 4800 noeuds standard
- 4 pipelines contenant une boucle avec 60 itérations et 10 noeuds dans chaque itération = 2400 noeuds dans une boucle
Limites de taille d'entrée et de sortie
Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.
Entrée par lot limitée aux actifs de données
Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.