0 / 0
Retourner à la version anglaise de la documentation
Problèmes connus et limitations

Problèmes connus et limitations

Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.

Liste des problèmes Watson Knowledge Catalog

Liste des problèmes de flux de masquage

Liste des problèmes de raffinement des données

Liste des problèmes de requête Watson

Liste des problèmes Watson Studio

Liste des problèmes Watson Machine Learning

Liste des problèmes Cognos Dashboard Embedded

Liste des problèmes Watson OpenScale

Liste des problèmes SPSS Modeler

Watson Knowledge Catalog

Si vous utilisez Watson Knowledge Catalog, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lors de l'utilisation de catalogues.

Synchronisation des caches de catégorie du service de stratégie de données (DPS)

A des fins de performances, le service de stratégie de données (DPS) conserve une copie des catégories de glossaire dans les caches. Lorsque des catégories sont créées, mises à jour ou supprimées, le service de glossaire publie des événements RabbitMQ pour refléter ces modifications. Le serveur DPS écoute ces événements et met à jour les caches. Toutefois, dans de rares cas, le message peut être perdu lorsque le service RabbitMQ est arrêté ou trop occupé. DPS fournit un utilitaire d'API REST pour mettre à jour le cache.

Vous pouvez exécuter l'utilitaire d'API REST suivant pendant les temps d'indisponibilité qui ne comporte pas de modification de catégorie pour éviter des résultats de mise en application inattendus lors de l'exécution, ainsi que des mises à jour de cache inexactes:

curl -v -k -X GET --header "Content-Type: application/json"
  --header "Accept: application/json"
  --header "Authorization: Bearer ${token}"
    "${uri}/v3/enforcement/governed_items/sync/category"

Cette API REST est disponible dans le service Watson Knowledge Catalog .

Les données masquées ne sont pas prises en charge dans les visualisations de données

Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Les données ne sont pas masquées dans certains outils de projet

Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.

Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles

Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Ajout de collaborateurs avec des adresses électroniques en minuscules

Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.

Restrictions liées à la connexion Object Storage

Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.

Risque d'échec de plusieurs opérations de connexion simultanées

Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.

Impossible d'activer l'application des règles de protection des données après la création du catalogue

Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.

Les actifs sont bloqués si l'évaluation échoue

Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.

Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.

Seul le bouton de retour du navigateur vous ramène à l'actif d'enrichissement des métadonnées à partir de la page des paramètres par défaut

Lorsque vous ouvrez la page Paramètres par défaut à partir d'un actif d'enrichissement de métadonnées, vous ne pouvez pas revenir à l'actif à l'aide d'un bouton dans l'interface utilisateur du produit ou dans les éléments de navigation. Utilisez le bouton de retour du navigateur pour revenir à l'actif.

Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse

Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.

Les options de filtre dans les résultats d'enrichissement des métadonnées peuvent ne pas être mises à jour immédiatement

Lorsque vous ajoutez des actifs, affectez de nouvelles classes de données ou des termes métier ou supprimez des termes métier, les filtres respectifs ne sont pas immédiatement mis à jour. En tant que solution palliative, actualisez votre navigateur pour afficher les listes de filtres mises à jour.

Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement

Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.

Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées

Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.

Détails incomplets pour une classe de données affectée dans les résultats d'enrichissement d'une colonne

Lorsque vous cliquez sur la classe de données affectée dans l'onglet Gouvernance des détails de colonne dans les résultats d'enrichissement des métadonnées, un aperçu des détails de la classe de données s'affiche. Toutefois, les détails sont incomplets.

Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur

Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.

Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.

Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement

Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.

Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .

Les règles exécutées sur les colonnes de type heure dans les actifs de données à partir de la source de données Amazon Redshift ne renvoient pas de résultats corrects

Pour les actifs de données provenant de sources de données Amazon Redshift , les colonnes de type heure sont importées avec le type horodatage. Vous ne pouvez pas appliquer de règles de qualité de données spécifiques au temps à de telles colonnes.

Flux de masquage

Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.

Risque d'échec des travaux de masquage de flux

Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.

Data Refinery

Si vous utilisez Data Refinery, vous pouvez rencontrer les problèmes connus et les restrictions ci-dessous lorsque vous affinez des données.

Les données d'identification personnelles ne sont pas prises en charge pour les actifs de données connectés dans Data Refinery

Si vous créez un actif de données connecté avec des données d'identification, les autres utilisateurs doivent appliquer la solution de contournement ci-après pour utiliser l'actif de données connecté dans Data Refinery.

Solution de contournement :

  1. Accédez à la page du projet et cliquez sur le lien de l'actif de données connecté pour ouvrir l'aperçu.
  2. Indiquez vos données d'identification.
  3. Ouvrez Data Refinery et utilisez l'actif de données connecté authentifié pour une source ou une cible.

Impossible d'afficher les travaux dans les flux de l'affinerie de données dans l'interface utilisateur des nouveaux projets

Si vous travaillez dans l'interface utilisateur des nouveaux projets, vous n'avez pas la possibilité d'afficher les travaux à partir du menu d'options dans les flux Data Refinery.

Solution palliative: Pour afficher les travaux dans des flux Data Refinery, ouvrez un flux Data Refinery , cliquez sur l'icône Travaux l'icône d'exécution ou de planification d'un travailet sélectionnez Sauvegarder et afficher les travaux . Vous pouvez afficher la liste de tous les travaux de votre projet dans l'onglet Tâches.

Problèmes de Watson Studio

Vous pouvez rencontrer certains des problèmes suivants lors de l'utilisation de Watson Studio.

Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets

Si vous travaillez dans la nouvelle interface utilisateur des projets, vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.

Solution : Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil ou revenir à des projets existants afin de continuer à utiliser la version entièrement intégrée de l'apprentissage fédéré dans votre projet.

La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets

Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.

Impossible de créer des actifs dans des comptes plus anciens

Si vous travaillez dans une instance de Watson Studio qui a été activée avant novembre 2017, vous risquez de ne pas être en mesure de créer des actifs opérationnels, tels que des blocs-notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service Watson Studio à votre compte à partir du catalogue Services.

Erreur de serveur interne 500 reçue lors du lancement de Watson Studio

Vous pouvez rarement recevoir une erreur de serveur HTTP interne (500) lors du lancement de Watson Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer Watson Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :

  1. Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez Watson Studio pour réinitialiser le cookie de session.
  2. Effacez les cookies IBM des données de navigation, puis lancez Watson Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.

Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez les incidents Page d'état pour IBM Cloud affectant Watson Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.

Erreur lors de la connexion

Vous pouvez obtenir ce message d'erreur en essayant de vous connecter à Watson Studio : "Access Manager WebSEAL n'a pas pu terminer votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.

L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge

Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.

La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code

Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.

L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur

Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.

Message signalant que la connexion a échoué

Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.

Impossible de se connecter au noyau du bloc-notes

Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel, suivi de Connection failed. Reconnecting et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.

Si Watson Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket wss://dataplatform.cloud.ibm.com aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.

ERROR_RESOURCES_UNAVAILABLE lors de l'ouverture ou de l'édition d'un bloc-notes

Si le message ERROR_RESOURCES_UNAVAILABLE s'affiche lors de l'ouverture ou de l'édition d'un bloc-notes, l'environnement d'exécution associé à votre bloc-notes présente des problèmes de ressources.

Pour trouver la cause, essayez de vérifier la page de statut des incidents IBM Cloud affectant Watson Studio. De plus, vous pouvez ouvrir un cas de support sur le portail de support IBM Cloud .

Problèmes de Watson Machine Learning

Vous pouvez rencontrer certains de ces problèmes lorsque vous utilisez des composants Watson Machine Learning , notamment le générateur de modèle et l'éditeur de flux.

Configuration requise des régions

Vous ne pouvez associer une instance de service Watson Machine Learning à votre projet que si l'instance de service Watson Machine Learning et l'instance Watson Studio se trouvent dans la même région.

Restrictions d'exécution de l'éditeur de flux

Watson Studio n'inclut pas la fonction SPSS au Pérou, en Equateur, en Colombie et au Venezuela.

Problèmes de déploiement

  • Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
  • Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si ce problème se produit, soumettez à nouveau la demande ; les demandes suivantes doivent aboutir.

Limitations connues d'AutoAI

  • A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. AutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.

  • Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. A l'heure actuelle, les API du client Python requises pour prendre en charge AutoAI ne sont pas disponibles.

Module de données non trouvé dans IBM Federated Learning

Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Vérifiez et mettez à jour votre gestionnaire de données pour qu'il soit conforme à la dernière spécification. Voici le lien vers le plus récent Gestionnaire de données MNIST ou vérifiez que les exemples de versions de votre galerie sont à jour.

La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *

Un aperçu d'actif de données peut échouer avec le message suivant: This asset contains masked data and is not supported for preview in the Deployment Space

Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.

Problèmes liés à SPSS Modeler

Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.

Erreur lors de la tentative d'arrêt d'un flux actif

Lors de l'exécution d'un flux SPSS Modeler, vous pouvez rencontrer une erreur si vous tentez d'arrêter le flux à partir de la page Environnements sous l'onglet Gérer de votre projet. Pour arrêter complètement la consommation de CHU et l'exécution de SPSS Modeler, fermez le ou les onglets du navigateur où le flux a été ouvert.

L'exécution des nœuds d'actif de données importées échoue parfois

Lorsque vous créez un flux en important un flux SPSS Modeler (fichier .str), que vous faites migrer le noeud d'exportation et que vous exécutez le noeud d'exportation d'actif de données qui en résulte, l'exécution peut échouer. Pour contourner ce problème : relancez le nœud, changez le nom de la sortie et modifiez l'option Si l'ensemble de données existe déjà dans les propriétés du nœud, puis relancez le nœud.

La prévisualisation des données risque d'échouer si des métadonnées de table ont été modifiées

Dans certains cas, lorsque vous utilisez le noeud d'importation d'actif de données pour importer des données provenant d'une connexion, la prévualisation des données peut renvoyer une erreur si les métadonnées de table sous-jacentes (modèle de données) ont été modifiées. Recréez le noeud Actif de données pour résoudre le problème.

Impossible d'afficher la sortie après l'exécution d'un nœud de sortie d'extension

Lors de l'exécution d'un noeud de sortie d'extension avec l'option Sortie dans le fichier sélectionnée, le fichier de sortie résultant renvoie une erreur lorsque vous tentez de l'ouvrir à partir du panneau Sorties.

Impossible de prévisualiser les données Excel provenant de connexions COS

Actuellement, vous ne pouvez pas prévisualiser les données .xls ou .xlsx à partir d'une connexion COS.

Les nombres sont interprétés comme une chaîne

Tout nombre avec une précision supérieure ou égale à 32 et une échelle de 0 sera interprété comme une chaîne. Si vous devez modifier ce comportement, vous pouvez utiliser un noeud Remplacer pour convertir la zone en nombre réel plutôt que l'expression to_real(@FIELD).

Super nœud contenant des nœuds d'importation

Si votre flux possède un super noeud qui contient un noeud d'importation, le schéma d'entrée peut ne pas être défini correctement lorsque vous enregistrez le modèle avec l'option Branche de scoring. Comme solution de contournement pour ce problème, développez le super nœud avant d'enregistrer.

Exportation vers un fichier SAV

Lorsque vous utilisez le noeud Exportation d'actifs de données pour exporter vers un fichier SPSS Statistics SAV (.sav), l'option Remplacer l'actif de données ne fonctionne pas si le schéma d'entrée ne correspond pas au schéma de sortie. Le schéma du fichier existant que vous voulez remplacer doit correspondre.

Exécution de flux sur un serveur Watson Machine Learning

Lorsque vous exécutez des flux sur un serveur Watson Machine Learning, vous pouvez rencontrer les problèmes suivants :

  • Si un flux fait référence à une connexion, celle-ci doit être accessible à la fois sur la machine locale (pour configurer la connexion elle-même) et sur le serveur Watson Machine Learning distant (pour exécuter le flux).
  • Si un flux contient des nœuds d'analyse de texte, vous ne pouvez pas l'exécuter sur un serveur Watson Machine Learning Server. Vous devez exécuter le flux en local.
  • N'importez pas de fichier STREc (.str) qui nécessite une migration vers un flux qui s'exécute sur Watson Machine Learning Server.

Migration de nœuds d'importation

Si vous importez un flux (.str) dans votre flux qui a été créé dans le bureau SPSS Modeler et contient un ou plusieurs nœuds d'importation non pris en charge, vous êtes invité à migrer les nœuds d'importation vers les ressources de données. Si le flux inclut plusieurs nœuds d'importation utilisant le même fichier de données, vous devez ajouter ce fichier à votre projet en tant qu'actif de données avant la migration, car celle-ci ne peut pas télécharger le même fichier dans plusieurs nœuds d'importation. Une fois l'actif de données ajouté à votre projet, rouvrez le flux et procédez à la migration à l'aide du nouvel actif de données.

Les paramètres d'analyse de texte ne sont pas sauvegardés

Après la fermeture de Text Analytics Workbench, les paramètres de filtre ou les paramètres de création de catégorie que vous avez modifiés ne sont pas sauvegardés sur le noeud comme ils devraient l'être.

Noeud de fusion et caractères Unicode

Le noeud Fusionner traite les caractères japonais très similaires suivants comme le même caractère.
caractères japonais

Problèmes connus liés à Watson Pipelines

Les problèmes concernent Watson Pipelines.

Des boucles d'imbrication de plus de 2 niveaux peuvent entraîner une erreur de pipeline

L'imbrication de boucles de plus de 2 niveaux peut entraîner une erreur lors de l'exécution du pipeline, telle qu'une erreur lors de l'extraction de l'exécution. La consultation des journaux peut afficher une erreur telle que text in text not resolved: neither pipeline_input nor node_output. Si vous effectuez une boucle avec la sortie d'un script Bash, le journal peut répertorier une erreur telle que la suivante: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Pour résoudre le problème, n'imbriquez pas de boucles de plus de 2 niveaux.

Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs

Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes. Il s'agit d'une limitation actuelle.

Impossible de supprimer des versions de pipeline

Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité.

La suppression d'une expérimentation AutoAI échoue dans certaines conditions

L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.

Le cache apparaît activé mais n'est pas activé

Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite, le cache est affiché comme étant activé mais reste désactivé.

Limitations de Watson Pipelines

Ces limitations s'appliquent à Watson Pipelines.

Limites de pipeline unique

Ces limitations s'appliquent à un seul pipeline, quelle que soit la configuration.

  • Un pipeline ne peut pas contenir plus de 120 noeuds standard
  • Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)

Limitations par taille de configuration

Configuration minimale

Une configuration SMALL prend en charge 600 noeuds standard (sur tous les pipelines actifs) ou 300 noeuds exécutés en boucle. Par exemple :

  • 30 pipelines standard avec 20 noeuds exécutés en parallèle = 600 noeuds standard
  • un pipeline unique contenant une boucle avec 30 itérations et 10 noeuds dans chaque itération = 300 noeuds dans une boucle

Configuration moyenne

Une configuration MEDIUM prend en charge 1200 noeuds standard (sur tous les pipelines actifs) ou 600 noeuds exécutés en boucle. Par exemple :

  • 30 pipelines standard avec 40 noeuds exécutés en parallèle = 1200 noeuds standard
  • un pipeline unique contenant une boucle avec 60 itérations et 10 noeuds à chaque itération = 600 noeuds dans une boucle

Configuration maximale

Une configuration LARGE prend en charge 4800 noeuds standard (sur tous les pipelines actifs) ou 2400 noeuds exécutés en boucle. Par exemple :

  • 80 pipelines standard avec 60 noeuds exécutés en parallèle = 4800 noeuds standard
  • 4 pipelines contenant une boucle avec 60 itérations et 10 noeuds dans chaque itération = 2400 noeuds dans une boucle

Limites de taille d'entrée et de sortie

Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.

Entrée par lot limitée aux actifs de données

Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.

WatsonX Search