Les limitations et problèmes connus suivants s'appliquent à Cloud Pak for Data en tant que service.
- Limites régionales
- IBM Knowledge Catalog
- Flux de masquage
- Data Virtualization
- studiowatsonx.ai
- Data Refinery
- Visualisations
- watsonx.ai Runtime
- Watson OpenScale
- SPSS Modeler
- Connexions
- Pipelines d'orchestration
- Problèmes liés àCloud Object Storage
Liste des problèmes liés à IBM Knowledge Catalog
- Les données masquées ne sont pas prises en charge dans les visualisations de données
- Les données ne sont pas masquées dans certains outils de projet
- Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
- Ajout de collaborateurs avec des adresses électroniques en minuscules
- Restrictions liées à la connexion Object Storage
- Risque d'échec de plusieurs opérations de connexion simultanées
- Impossible d'activer les règles après la création du catalogue
- Les actifs sont bloqués si l'évaluation échoue
- Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
- Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
- Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
- Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
- Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
- Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
- Ecriture d'une sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0
- Le filtre de termes métier dans les résultats d'enrichissement peut ne pas refléter immédiatement les changements d'affectation
- Pour les biens provenant de sources SAP OData, les résultats de l'enrichissement des métadonnées n'indiquent pas le type de table
- Le type de connexion n'est pas supprimé de façon permanente après la suppression
- Problèmes avec le complément Microsoft Excel
Liste des problèmes de flux de masquage
Liste des problèmes liés à la Data Virtualization
Liste des problèmes rencontrés par watsonx.ai Studio
- La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
- Impossible de créer des actifs dans des comptes plus anciens
- Erreur lors de la connexion
- 500 internal server error received when launching watsonx.ai Studio
- Echec de l'exportation d'un bloc-notes au format HTML dans l'éditeur Jupyter Notebook
- L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
- La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
- L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
- Message signalant que la connexion a échoué
- Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
- Impossible de se connecter au noyau du bloc-notes
- Erreur de ressources disponibles insuffisantes lors de l'ouverture ou de l'édition d'un bloc-notes
Liste des limitations de watsonx.ai Studio
Liste des problèmes connus de Data Refinery
Liste des limitations de Data Refinery
Liste des problèmes de visualisation
Liste des problèmes d'apprentissage automatique
- Configuration requise des régions
- Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet
- Problèmes de déploiement
- Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
- Module de données non trouvé dans IBM Federated Learning
- La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement
- Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état
starting
ourunning
Liste des limitations de l'apprentissage automatique
- Limitations connues d'AutoAI
- La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements
- Les fichiers téléchargés via l'interface utilisateur de l'espace de déploiement ne sont pas validés ou analysés pour détecter tout contenu potentiellement malveillant
Liste des problèmes Watson OpenScale
Liste des problèmes SPSS Modeler
Liste des limitations de SPSS Modeler
Liste des problèmes de connexion
Problèmes liés à Cloud Object Storage
- Liste des problèmes d'apprentissage automatique
- Erreur avec les actifs utilisant watsonx.ai Runtime dans les projets spécifiant Cloud Object Storage avec Key Protect activé.
- AI automatique
- Apprentissage fédéré
- Pipelines
- Liste des problèmes SPSS Modeler
- Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
- Liste des problèmes liés aux blocs-notes
- Impossible de sauvegarder le modèle dans le projet en spécifiant Cloud Object Storage avec Key Protect activé.
IBM Knowledge Catalog
Si vous utilisez IBM Knowledge Catalog, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous utilisez les catalogues.
Le type de connexion n'est pas supprimé de façon permanente après la suppression
Le type d'actif Connection
n'est pas supprimé immédiatement après le retrait, même si la configuration de retrait des actifs est réglée sur Purger les actifs automatiquement lors du retrait dans l'interface utilisateur du catalogue, et s'affiche dans la corbeille.
La recherche d'actifs dans le catalogue ne prend pas en charge les caractères spéciaux
Si les mots-clés de recherche contiennent l'un des caractères spéciaux suivants, le filtre de recherche ne renvoie pas les résultats les plus précis.
Mots clés de recherche :
. + - && || ! ( ) { } [ ] ^ " ~ * ? : \
Solution de contournement : Pour obtenir les résultats les plus précis, recherchez uniquement le mot-clé après le caractère spécial. Par exemple, au lieu de AUTO_DV1.SF_CUSTOMER, recherchez SF_CUSTOMER.
Les données masquées ne sont pas prises en charge dans les visualisations de données
Les données masquées ne sont pas prises en charge dans les visualisations de données. Si vous tentez d'utiliser des données masquées lors de la génération d'un graphique dans l'onglet Visualisations d'un actif de données dans un projet, le message d'erreur suivant est reçu: Bad Request: Failed to retrieve data from server. Masked data is not supported
.
Les données ne sont pas masquées dans certains outils de projet
Lorsque vous ajoutez à un projet un actif de données connecté qui comporte des colonnes masquées provenant d'un catalogue, les colonnes restent masquées lorsque vous affichez les données et lorsque vous affinez les données dans l'outil Data Refinery. Toutefois, d'autres outils dans les projets ne préservent pas le masquage lorsqu'ils accèdent aux données via une connexion. Par exemple, lorsque vous chargez des données connectées dans un bloc-notes, un flux DataStage , un tableau de bord ou d'autres outils de projet, vous accédez aux données via une connexion directe et vous ignorez le masquage.
Les artefacts de gouvernance prédéfinis risquent de ne pas être disponibles
Si vous ne voyez pas de classifications ou de classes de données prédéfinies, réinitialisez votre titulaire à l'aide de l'appel d'API suivant :
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Ajout de collaborateurs avec des adresses électroniques en minuscules
Lorsque vous ajoutez des collaborateurs au catalogue, entrez les adresses électroniques tout en minuscules. La casse mixte n'est pas prise en charge pour les adresses électroniques.
Restrictions liées à la connexion Object Storage
Lorsque vous observez une connexion Cloud Object Storage (API S3) ou Cloudant, le dossier lui-même est listé en tant qu'actif enfant.
Risque d'échec de plusieurs opérations de connexion simultanées
Une erreur peut se produire lorsque plusieurs utilisateurs exécutent simultanément des opérations de connexion. Le message d'erreur peut être différent.
Impossible d'activer l'application des règles de protection des données après la création du catalogue
Vous ne pouvez pas activer l'application de règles de protection des données après avoir créé un catalogue. Pour appliquer des règles de protection des données aux actifs d'un catalogue, vous devez activer l'application lors de la création du catalogue.
Les actifs sont bloqués si l'évaluation échoue
Les restrictions suivantes s'appliquent aux actifs de données d'un catalogue avec des règles appliquées : les actifs de données basés sur un fichier qui ont un en-tête ne peuvent pas avoir de noms de colonne en double, une période (.) ou un guillemet simple (') dans un nom de colonne.
Si l'évaluation échoue, l'actif est bloqué pour tous les utilisateurs à l'exception du propriétaire de l'actif. Les autres utilisateurs reçoivent un message d'erreur indiquant que l'actif de données ne peut pas être affiché car l'évaluation a échoué et que l'actif est bloqué.
Seul le filtre de classe de données dans les résultats d'enrichissement des métadonnées est sensible à la casse
Lorsque vous filtrez les résultats d'enrichissement des métadonnées dans l'onglet Colonne, seules les entrées Classe de données sont sensibles à la casse. Les entrées des filtres Terses métier, Schémaset Actifs sont toutes en minuscules, quel que soit le boîtier réel de la valeur.
Les détails d'enrichissement d'un actif peuvent ne pas refléter les paramètres appliqués lors de la dernière exécution d'enrichissement
Une fois que vous avez modifié les options d'enrichissement pour un enrichissement de métadonnées qui a été exécuté au moins une fois, les détails de l'actif peuvent afficher les options mises à jour au lieu des options appliquées lors de la dernière exécution d'enrichissement.
Impossible d'accéder directement aux pages d'un actif d'enrichissement de métadonnées
Si le nombre d'actifs ou de colonnes d'un actif d'enrichissement de métadonnées s'étend sur plusieurs pages, vous ne pouvez pas accéder directement à une page spécifique. La liste déroulante des numéros de page est désactivée. Utilisez les boutons Page suivante et Page précédente à la place.
Dans certains cas, vous risquez de ne pas voir le journal complet d'un travail d'enrichissement de métadonnées exécuté dans l'interface utilisateur
Si la liste des erreurs d'une exécution d'enrichissement de métadonnées est exceptionnellement longue, seule une partie du journal de travail peut être affichée dans l'interface utilisateur.
Solution palliative: Téléchargez l'intégralité du journal et analysez-le dans un éditeur externe.
Les informations de schéma peuvent être manquantes lorsque vous filtrez les résultats d'enrichissement
Lorsque vous filtrez des actifs ou des colonnes dans les résultats d'enrichissement sur les informations source, les informations de schéma peuvent ne pas être disponibles.
Solution palliative: Réexécutez le travail d'enrichissement et appliquez à nouveau le filtre Source .
Problèmes liés à la recherche dans l'onglet Actifs d'un actif d'enrichissement de métadonnées
Lorsque vous recherchez un actif dans l'onglet Actifs d'un actif d'enrichissement de métadonnées, aucun résultat ne peut être renvoyé. Tenez compte des limitations suivantes:
- La recherche est sensible à la casse.
- Le résultat contient uniquement les enregistrements qui correspondent à la phrase de recherche exacte ou qui commencent par la phrase.
Ecriture de la sortie d'enrichissement de métadonnées dans une version antérieure d' Apache Hive que 3.0.0
Si vous souhaitez écrire une sortie de qualité de données générée par l'enrichissement de métadonnées dans une base de données Apache Hive à une version de logiciel antérieure à 3.0.0, définissez les paramètres de configuration suivants sur votre serveur Apache Hive :
set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true; # (not required for version 2)
set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true; # might not be available depending on the version
set hive.compactor.worker.threads=1;
Pour plus d'informations, voir Hive Transactions.
Le filtre de termes métier dans les résultats d'enrichissement peut ne pas refléter immédiatement les changements d'affectation
Lorsque vous affectez ou désaffectez des termes métier manuellement, il se peut que le filtre de termes métier ne reflète pas immédiatement ces modifications.
Solution de contournement : Actualisez la page en cliquant sur l'icône d'actualisation " .
Pour les biens provenant de sources SAP OData, les résultats de l'enrichissement des métadonnées n'indiquent pas le type de tableau
En général, les résultats de l'enrichissement des métadonnées indiquent pour chaque donnée enrichie s'il s'agit d'une table ou d'une vue. Cette information ne peut pas être récupérée pour les ressources de données provenant de sources de données SAP OData et n'apparaît donc pas dans les résultats de l'enrichissement.
Problèmes avec le complément Microsoft Excel
Les problèmes suivants sont connus pour le complément de métadonnées Review pour Microsoft Excel :
Lorsque vous ouvrez la liste déroulante pour attribuer un terme de gestion ou une classe de données, l'entrée Nom distinctif s'affiche comme première entrée. Si vous sélectionnez cette entrée, elle apparaît dans la colonne mais n'a aucun effet.
La mise à jour ou l'écrasement de données existantes dans une feuille de calcul n'est actuellement pas possible. Vous devez utiliser un fichier modèle vide chaque fois que vous récupérez des données.
Si un autre utilisateur travaille sur les résultats de l'enrichissement des métadonnées pendant que vous modifiez la feuille de calcul, les modifications de l'autre utilisateur peuvent être perdues lorsque vous téléchargez les modifications que vous avez apportées à la feuille de calcul.
Seuls les classes de données et les termes commerciaux attribués sont copiés des colonnes du tableur Classes de données attribuées / suggérées et Termes commerciaux attribués / suggérés vers les colonnes d'entrée correspondantes. Si plusieurs termes commerciaux sont attribués, chacun d'entre eux est copié dans une colonne distincte.
Flux de masquage
Si vous utilisez le flux de masquage, vous pouvez rencontrer ces problèmes et restrictions connus lorsque vous privatisez des données.
Risque d'échec des travaux de masquage de flux
Lors d'un travail de masquage de flux, Spark peut tenter de lire la totalité d'une source de données en mémoire. Des erreurs peuvent se produire lorsqu'il n'y a pas assez de mémoire pour prendre en charge le travail. Le plus grand volume de données pouvant tenir dans le plus grand noeud de traitement Spark déployé est d'environ 12 Go.
studio watsonx.ai
Vous pouvez rencontrer certains de ces problèmes lorsque vous commencez à utiliser des ordinateurs portables :
La duplication d'un bloc-notes ne crée pas de nom unique dans l'interface utilisateur des nouveaux projets
Lorsque vous dupliquez un bloc-notes dans la nouvelle interface utilisateur des projets, le bloc-notes en double n'est pas créé avec un nom unique.
Impossible de créer des actifs dans des comptes plus anciens
Si vous travaillez dans une instance de watsonx.ai Studio qui a été activée avant novembre 2017, il se peut que vous ne puissiez pas créer des actifs opérationnels, comme des carnets de notes. Si le bouton Créer reste gris et désactivé, vous devez ajouter le service watsonx.ai Studio à votre compte depuis le catalogue des services.
500 internal server error received when launching watsonx.ai Studio
Dans de rares cas, vous pouvez recevoir une erreur de serveur interne HTTP (500) lors du lancement de watsonx.ai Studio. Cela peut être dû à un cookie expiré stocké pour le navigateur. Pour confirmer que l'erreur a été causée par un cookie périmé, essayez de lancer watsonx.ai Studio dans une session de navigation privée (incognito) ou en utilisant un autre navigateur. Si le lancement aboutit dans le nouveau navigateur, l'erreur est due à un cookie expiré. Pour résoudre l'erreur, vous avez plusieurs possibilités :
- Quittez complètement l'application du navigateur pour réinitialiser le cookie. Vous devez fermer l'application puis la redémarrer, et pas seulement fermer la fenêtre du navigateur. Redémarrez l'application du navigateur et lancez watsonx.ai Studio pour réinitialiser le cookie de session.
- Effacez les cookies IBM des données de navigation et lancez watsonx.ai Studio. Consultez les données de navigation ou les options de sécurité dans le navigateur pour effacer les cookies. Il est à noter que la suppression de tous les cookies IBM peut avoir une incidence sur d'autres applications IBM.
Si l'erreur 500 persiste après avoir effectué l'une de ces résolutions, vérifiez la page d'état des incidents IBM Cloud affectant watsonx.ai Studio. En outre, vous pouvez ouvrir un dossier de support sur IBM Cloud Portail de support.
Erreur lors de la connexion
Il se peut que vous obteniez ce message d'erreur lorsque vous essayez de vous connecter à watsonx.ai Studio : "Le gestionnaire d'accès WebSEAL n'a pas pu répondre à votre demande en raison d'une erreur inattendue." Tentez de vous connecter à nouveau. En général, la seconde tentative de connexion aboutit.
Echec de l'exportation d'un bloc-notes au format HTML dans l'éditeur Jupyter Notebook
Lorsque vous travaillez avec un Jupyter Notebook créé dans un outil autre que watsonx.ai Studio, il se peut que vous ne puissiez pas exporter le carnet au format HTML. Ce problème se produit lorsque la sortie de la cellule est exposée.
Solution de contournement
Dans l'interface utilisateur Jupyter Notebook , accédez à Editer et cliquez sur Editer les métadonnées de bloc-notes.
Supprimez les métadonnées suivantes:
"widgets": { "state": {}, "version": "1.1.2" }
Cliquez sur le bouton Editer.
Sauvegardez le bloc-notes.
L'installation manuelle de certaines bibliothèques tensorielles n'est pas prise en charge
Certaines bibliothèques de flux tensorielles sont préinstallées, mais si vous essayez d'installer des bibliothèques de flux tensorielles supplémentaires, un message d'erreur s'affiche.
La connexion au noyau de bloc-notes prend plus de temps que prévu après l'exécution d'une cellule de code
Si vous essayez de vous reconnecter au noyau et d'exécuter immédiatement une cellule de code (ou si la reconnexion du noyau s'est produite lors de l'exécution du code), le bloc-notes ne se reconnecte pas au noyau et aucune sortie n'est affichée pour la cellule de code. Vous devez vous reconnecter manuellement au noyau en cliquant sur Noyau > Reconnecter. Lorsque le noyau est prêt, vous pouvez essayer de réexécuter la cellule de code.
L'utilisation de l'objet sqlContext prédéfini dans plusieurs blocs-notes génère une erreur
Vous pouvez recevoir un message d'erreur Apache Spark si vous utilisez l'objet sqlContext prédéfini dans plusieurs blocs-notes. Créez un objet sqlContext pour chaque bloc-notes. Consultez cette explication de Stack Overflow.
Message signalant que la connexion a échoué
Si le noyau s'arrête, le bloc-notes n'est plus automatiquement sauvegardé. Pour l'enregistrer, cliquez sur Fichier > Sauvegarder manuellement, et vous devez obtenir un message Bloc-notes enregistré dans la zone d'information du noyau, qui apparaît avant la version de Spark. Si vous recevez un message indiquant que le noyau a échoué, pour reconnecter votre bloc-notes au noyau, cliquez sur Noyau > Reconnecter. Si rien ne vous permet de redémarrer le noyau et que vous ne pouvez pas enregistrer le bloc-notes, vous pouvez le télécharger pour enregistrer vos modifications en cliquant sur Fichier > Télécharger en tant que > Bloc-notes (.ipynb). Vous devez ensuite créer un bloc-notes basé sur le fichier de bloc-notes téléchargé.
Les hyperliens vers les sections du bloc-notes ne fonctionnent pas en mode Aperçu
Si votre bloc-notes contient des sections auxquelles vous avez établi des liens (partant d'une section d'introduction au début du bloc-notes, par exemple), ces liens ne fonctionneront pas si vous ouvrez le bloc-notes en mode aperçu dans Firefox. Ils fonctionneront en revanche si vous ouvrez le bloc-notes en mode édition.
Impossible de se connecter au noyau du bloc-notes
Si vous tentez d'exécuter un bloc-notes et que vous voyez le message Connecting to Kernel
, suivi de Connection failed. Reconnecting
et, enfin, d'un message d'erreur de connexion, la raison peut être que votre pare-feu bloque l'exécution du bloc-notes.
Si watsonx.ai Studio est installé derrière un pare-feu, vous devez ajouter la connexion WebSocket 'wss://dataplatform.cloud.ibm.com
aux paramètres du pare-feu. L'activation de cette connexion WebSocket est requise lorsque vous utilisez des blocs-notes et RStudio.
Les fichiers téléchargés via l'interface utilisateur de watsonx.ai Studio ne sont pas validés ou analysés pour détecter tout contenu potentiellement malveillant
Les fichiers que vous téléchargez via l'interface utilisateur de watsonx.ai Studio ne sont pas validés ou analysés pour détecter des contenus potentiellement malveillants. Il est fortement recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin de garantir la sécurité de votre contenu.
Problèmes connus de Data Refinery
Perte de table cible et échec du travail lorsque vous utilisez l'option Update dans un flux Data Refinery
L'utilisation de l'option Update pour la propriété Write mode target pour les sources de données relationnelles (par exemple Db2) remplace la table cible originale et le job Data Refinery peut échouer.
Solution : Utilisez l'option Fusion comme mode **Écriture ** et l'option Append comme action de table.
Data Refinery limitations
Les en-têtes de colonnes de données ne peuvent pas contenir de caractères spéciaux
Les données dont les en-têtes de colonne contiennent des caractères spéciaux peuvent entraîner l'échec des tâches Data Refinery et provoquer l'erreur Supplied values don't match positional vars to interpolate
.
Modèle de contournement: Supprimez les caractères spéciaux des en-têtes de colonne.
Data Refinery ne prend pas en charge le connecteur Satellite
Vous ne pouvez pas utiliser un connecteur Satellite pour vous connecter à une base de données avec Data Refinery
Erreur lors de l'ouverture d'un flux Data Refinery avec une connexion avec des informations d'identification personnelles
Lorsque vous ouvrez un flux Data Refinery qui utilise une ressource de données basée sur une connexion avec des informations d'identification personnelles, il se peut qu'une erreur s'affiche.
Fonctionnement : Pour ouvrir un flux Data Refinery dont les actifs utilisent des connexions avec des identifiants personnels, vous devez déverrouiller la connexion. Vous pouvez déverrouiller la connexion soit en modifiant la connexion et en saisissant vos informations d'identification personnelles, soit en prévisualisant la ressource dans le projet, où vous êtes invité à saisir vos informations d'identification personnelles. Une fois la connexion déverrouillée, vous pouvez ouvrir le flux Data Refinery.
Problèmes de visualisation
Vous pouvez rencontrer certains de ces problèmes lorsque vous travaillez avec l'onglet Visualisation d'une ressource de données dans un projet.
Les informations de profil au niveau de la colonne pour un actif de données connecté avec une colonne de type DATE n'affichent pas de lignes
Dans les informations de profil au niveau des colonnes pour un actif de données connecté avec une colonne de type DATE, aucune ligne n'est affichée lorsque vous cliquez sur afficher les lignes dans les onglets Classes de données, Format ou Types.
watsonx.ai Problèmes d'exécution
Vous pouvez rencontrer certains de ces problèmes lorsque vous travaillez avec watsonx.ai Runtime.
Configuration requise des régions
Vous ne pouvez associer une instance de service Runtime 'watsonx.ai à votre projet que si l'instance de service Runtime 'watsonx.ai et l'instance Studio 'watsonx.ai sont situées dans la même région.
Accès aux liens si vous créez une instance de service lors de l'association d'un service à un projet
Lorsque vous associez un service watsonx.ai Runtime à un projet, vous avez la possibilité de créer une nouvelle instance de service. Si vous choisissez de créer un nouveau service, les liens de la page de service risquent de ne pas fonctionner. Pour accéder aux termes de service, aux API et à la documentation, cliquez avec le bouton droit de la souris sur les liens pour les ouvrir dans de nouvelles fenêtres.
Les actifs de l'apprentissage fédéré ne peuvent pas être recherchés dans Tous les actifs, les résultats de la recherche ou les résultats de filtre dans l'interface utilisateur des nouveaux projets
Vous ne pouvez pas rechercher des actifs d'apprentissage fédéré à partir de la vue Tous les actifs , des résultats de recherche ou des résultats de filtre de votre projet.
Solution palliative: Cliquez sur l'actif d'apprentissage fédéré pour ouvrir l'outil.
Problèmes de déploiement
- Un déploiement qui est inactif (pas de scores) pendant une période définie (24 heures pour le plan gratuit ou 120 heures pour un plan payant) est automatiquement mis en veille. Lorsqu'une nouvelle demande de score est soumise, le déploiement est réactivé et la demande de score est traitée. Prévoyez un court délai de 1 à 60 secondes pour la première demande de score après l'activation, en fonction de l'infrastructure de modèle.
- Pour certaines infrastructures, comme le modélisateur SPSS, la première demande de score d'un modèle déployé après une mise en veille risque de générer une erreur 504. Si cette erreur se produit, soumettez à nouveau la demande ; les demandes suivantes aboutissent.
La prévisualisation des actifs de données masqués est bloquée dans l'espace de déploiement * *
La prévisualisation d'une ressource de données peut échouer avec ce message : This asset contains masked data and is not supported for preview in the Deployment Space
Actuellement, les espaces de déploiement ne prennent pas en charge le masquage des données. Par conséquent, l'aperçu des actifs masqués a été bloqué pour empêcher les fuites de données.
Les travaux de déploiement par lots qui utilisent un contenu en ligne volumineux peuvent être bloqués à l'état starting
ou running
Si vous fournissez un contenu asynchrone volumineux pour votre déploiement par lots en ligne, le processus du gestionnaire d'exécution peut sortir du segment de mémoire.
Dans l'exemple suivant, 92 Mo de contenu ont été transmis en ligne au déploiement par lots, ce qui a entraîné une saturation du segment de mémoire.
Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
...
Cela peut avoir pour conséquence que des travaux simultanés restent bloqués dans l'état " starting
ou " running
L'état " starting
ne peut être supprimé que lorsque le déploiement est supprimé et qu'un nouveau déploiement est créé. L'état running
peut être effacé sans supprimer le déploiement.
Comme solution palliative, utilisez des références de données au lieu de les utiliser en ligne pour les charges de travail volumineuses qui sont fournies aux déploiements par lots.
limitations de l'exécution de watsonx.ai
Limitations connues d'AutoAI
A l'heure actuelle, les expérimentations AutoAI ne prennent pas en charge les jeux de caractères codés sur deux octets. LAutoAI ne prend en charge que les fichiers CSV contenant des caractères ASCII. Les utilisateurs doivent convertir tous les caractères non-ASCII dans le nom ou le contenu du fichier et fournir des données d'entrée en tant que CSV, comme défini dans Cette norme CSV.
Pour interagir avec un modèle AutoAI à l'aide d'un programme, utilisez l'API REST au lieu du client Python. Les API du client Python nécessaires à la prise en charge de l AutoAI ne sont pas généralement disponibles actuellement.
Module de données non trouvé dans IBM Federated Learning
Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
La question peut être issue de l'utilisation d'un gestionnaire de données obsolète. Révisez et mettez à jour votre DataHandler pour qu'il soit conforme à la dernière spécification. Voici le lien vers le gestionnaire de données MNIST le plus récent ou assurez-vous que vos versions d'échantillons sont à jour.
La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements
La définition de variables d'environnement dans un fichier yaml conda ne fonctionne pas pour les déploiements. Cela signifie que vous ne pouvez pas remplacer les variables d'environnement existantes, par exemple 'LD_LIBRARY_PATH
, lorsque vous déployez des actifs dans watsonx.ai Runtime.
Comme solution palliative, si vous utilisez une fonction Python , envisagez de définir des paramètres par défaut. Pour plus de détails, voir Déploiement de fonctions Python.
Les fichiers téléchargés via l'interface utilisateur de l'espace de déploiement ne sont pas validés ou analysés pour détecter tout contenu potentiellement malveillant
Les fichiers que vous téléchargez via l'interface utilisateur de l'espace de déploiement ne sont pas validés ni analysés pour détecter tout contenu potentiellement malveillant. Il est recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin de garantir la sécurité de votre contenu.
Problèmes liés à Watson OpenScale
Vous pouvez rencontrer les problèmes suivants dans Watson OpenScale:
La configuration de la dérive démarre mais ne se termine jamais
La configuration de la dérive démarre mais ne se termine jamais et continue d'afficher le pointeur de travail en cours. Si la boucle de progression est exécutée pendant plus de 10 minutes, cela peut vouloir dire que le système est dans un état incohérent. Une solution de contournement est possible : éditez la configuration de la dérive. puis sauvegardez-le. Le système peut sortir de cet état et terminer la configuration. Si la reconfiguration de la dérive ne corrige pas la situation, contactez le support IBM.
Problèmes liés à SPSS Modeler
Vous pouvez rencontrer certains des problèmes ci-dessous lorsque vous utilisez SPSS Modeler.
Restrictions d'exécution de SPSS Modeler
watsonx.ai Studio n'inclut pas la fonctionnalité SPSS au Pérou, en Équateur, en Colombie et au Venezuela.
Données d'horodatage mesurées en microsecondes
Si vous disposez de données d'horodatage mesurées en microsecondes, vous pouvez utiliser les données plus précises de votre flux. Toutefois, vous pouvez importer des données mesurées en microsecondes uniquement à partir de connecteurs prenant en charge le refoulement SQL. Pour plus d'informations sur les connecteurs qui prennent en charge les conversions SQL, voir Sources de données prises en charge pour SPSS Modeler.
Limites de SPSS Modeler
Langues prises en charge par l'analyse de texte
La fonction d'analyse de texte de SPSS Modeler prend en charge les langues suivantes :
- Néerlandais
- Anglais
- Français
- Allemand
- Italien
- Japonais
- Portugais
- Espagnol
SPSS Modeler ne prend pas en charge Satellite Connector
Vous ne pouvez pas utiliser un connecteur Satellite pour vous connecter à une base de données avec SPSS Modeler.
Fusionner les nœuds et les caractères Unicode
Le nœud Merge traite les caractères japonais similaires suivants comme un seul et même caractère.
'
Problèmes de connexion
Vous pouvez rencontrer ce problème lorsque vous utilisez des connexions.
Apache Impala ne fonctionne pas avec l'authentification LDAP
Si vous créez une connexion à une source de données Apache Impala et que le serveur Apache Impala est configuré pour l'authentification LDAP, la méthode d'authentification par nom d'utilisateur et mot de passe dans Cloud Pak for Data as a Service ne fonctionnera pas.
Solution palliative: désactivez l'option Activer l'authentification LDAP sur le serveur Impala . Voir Configuration de l'authentification LDAP dans la documentation Cloudera.
Problèmes connus liés aux pipelines d'orchestration
Les problèmes concernent les pipelines d'orchestration.
Le navigateur d'actifs ne reflète pas toujours le nombre total de types d'actifs
Lorsque vous sélectionnez un actif dans le navigateur d'actifs, par exemple en choisissant une source pour un noeud Copier, vous voyez que certains actifs répertorient le nombre total de ce type d'actif disponible, mais pas les blocs-notes.
Impossible de supprimer des versions de pipeline
Pour le moment, il n'est pas possible de supprimer les versions sauvegardées des pipelines dont vous n'avez plus l'utilité. Toutes les versions sont supprimées lorsque le pipeline est supprimé.
La suppression d'une expérimentation AutoAI échoue dans certaines conditions
L'utilisation d'un noeud Supprimer l'expérimentation AutoAI pour supprimer une expérimentation AutoAI créée à partir de l'interface utilisateur des projets ne supprime pas l'actif AutoAI. Le reste du flux peut toutefois se terminer avec succès.
Le cache apparaît activé mais n'est pas activé
Si le Mode de copie du noeud Copier les actifs est défini sur Overwrite
, le cache est affiché comme étant activé mais reste désactivé.
Les pipelines ne peuvent pas sauvegarder certaines instructions SQL
Les pipelines ne peuvent pas être sauvegardés lorsque des instructions SQL avec des parenthèses sont transmises dans un script ou une variable utilisateur.
Pour résoudre ce problème, remplacez toutes les instances de parenthèses par leur code ASCII respectif ((
avec #40
et )
avec #41
) et remplacez le code lorsque vous le définissez en tant que variable utilisateur.
Par exemple, l'instruction " select CAST(col1 as VARCHAR(30)) from dbo.table
dans un nœud de script Run Bash provoque une erreur. A la place, utilisez l'instruction select CAST#40col1 as VARCHAR#4030#41#41 from dbo.table
et remplacez les instances lors de sa définition en tant que variable utilisateur.
Les pipelines d'orchestration s'arrêtent lorsque la limite des annotations est atteinte
Les expressions de pipeline nécessitent des annotations, qui ont une limite en raison de la limite des annotations dans Kubernetes. Si vous atteignez cette limite, votre pipeline s'arrêtera sans afficher les journaux.
Limitations des pipelines d'orchestration
Ces limitations s'appliquent aux pipelines d'orchestration.
- Limites de pipeline unique
- Limites de taille d'entrée et de sortie
- Entrée par lot limitée aux actifs de données
- Le script Bash génère des erreurs avec les commandes curl
Limites de pipeline unique
Ces limitations s'appliquent à un seul pipeline, quelle que soit sa configuration.
- Un pipeline ne peut pas contenir plus de 120 noeuds standard
- Tout pipeline avec une boucle ne peut pas contenir plus de 600 noeuds dans toutes les itérations (par exemple, 60 itérations-10 noeuds chacun)
Limites de taille d'entrée et de sortie
Les valeurs d'entrée et de sortie, qui incluent les paramètres de pipeline, les variables utilisateur et les entrées et sorties de noeud générique, ne peuvent pas dépasser 10 Ko de données.
Entrée par lot limitée aux actifs de données
Actuellement, l'entrée pour les travaux de déploiement par lot est limitée aux actifs de données. Cela signifie que certains types de déploiement, qui nécessitent une entrée JSON ou plusieurs fichiers comme entrée, ne sont pas pris en charge. Par exemple, les modèles SPSS et les solutions Decision Optimization nécessitant plusieurs fichiers en entrée ne sont pas pris en charge.
Les scripts Bash génèrent des erreurs avec les commandes curl
Les scripts Bash dans vos pipelines peuvent provoquer des erreurs si vous y implémentez des commandes curl. Pour éviter ce problème, définissez vos commandes curl comme paramètres. Pour enregistrer un pipeline qui provoque une erreur lors de l'enregistrement, essayez d'exporter le fichier isx et de l'importer dans un nouveau projet.
Problèmes liés à Cloud Object Storage
Ces questions s'appliquent à l'utilisation du Cloud Object Storage.
Problèmes liés à Cloud Object Storage lorsque Key Protect est activé
La Key Protect avec le Cloud Object Storage n'est pas prise en charge pour travailler avec les actifs du moteur d'exécution watsonx.ai Si vous utilisez Key Protect, vous pouvez rencontrer ces problèmes lorsque vous travaillez avec des actifs dans watsonx.ai Studio.
- La formation ou l'enregistrement de ces ressources d'exécution watsonx.ai risque d'échouer :
- AI automatique
- Apprentissage fédéré
- Pipelines
- Il se peut que vous ne puissiez pas sauvegarder un modèle SPSS ou un modèle de bloc-notes dans un projet
Problèmes liés à watsonx.governance
Limitation de l'intégration avec OpenPages
Lorsque les AI Factsheets sont intégrées aux OpenPages, les champs créés dans les groupes de champs MRG-UserFacts-Model
ou MRG-UserFact-Model
et MRG-UserFacts-ModelEntry
ou MRG-UserFact-ModelUseCase
sont synchronisés avec les définitions des types d'actifs modelfacts_user_op
et model_entry_user_op
. Toutefois, lorsque les champs sont créés à partir de l'application OpenPages, évitez de spécifier que les champs sont obligatoires et ne spécifiez pas de plage de valeurs. Si vous les marquez comme obligatoires ou si vous leur attribuez une fourchette de valeurs, la synchronisation échouera.
Délai d'affichage des données de déploiement de modèle d'invite dans une fiche d'information
Lorsqu'un déploiement est créé pour un modèle d'invite, les faits du déploiement ne sont pas ajoutés immédiatement à la fiche technique. Vous devez d'abord évaluer le déploiement ou afficher la page de suivi du cycle de vie pour ajouter les faits à la fiche d'information.
Liens de pièces jointes redondantes dans la fiche d'information
Une fiche factsheet assure le suivi de tous les événements d'un actif pendant toutes les phases du cycle de vie. Les pièces jointes apparaissent dans chaque étape, créant une redondance dans la feuille d'informations.
Les pièces jointes des modèles d'invite ne sont pas enregistrées lors de l'importation ou de l'exportation
Si votre cas d'utilisation d'IA contient des pièces jointes pour un modèle d'invite, les pièces jointes ne sont pas conservées lorsque l'actif de modèle d'invite est exporté à partir d'un projet ou importé dans un projet ou un espace. Vous devez rattacher tous les fichiers après l'opération d'importation.