Vous trouverez ci-après les réponses aux questions courantes sur le traitement des incidents liés à l'utilisation d' IBM Watson Machine Learning.
Obtention de l'aide et de la prise en charge de Watson Machine Learning
Si vous avez des problèmes ou des questions lors de l'utilisation de Watson Machine Learning, vous pouvez obtenir de l'aide en recherchant des informations ou en posant des questions via un forum. Vous pouvez également ouvrir un ticket de support.
Lorsque vous utilisez les forums pour poser une question, balisez votre question de sorte qu'elle soit vue par les équipes de développement Watson Machine Learning .
Si vous avez des questions techniques sur Watson Machine Learning, postez votre question sur Stack Overflow et balisez votre question avec ibm-bluemix et machine-learning.
Pour des questions relatives au service et aux instructions de mise en route, utilisez le forum IBM developerWorks dW Answers . Vous devez inclure les balises machine-learning et bluemix .
Contenu
- L'entraînement d'une expérience AutoAI échoue avec les identifiants de service
- La création d'un job pour un flux SPSS Modeler dans un espace de déploiement échoue
- Instance Watson Machine Learning inactive
- Le jeton d'autorisation n'est pas fourni
- Jeton d'autorisation non valide
- Le jeton d'autorisation et l'ID d'instance utilisés dans la demande ne sont pas identiques
- Le jeton d'autorisation est arrivé à expiration
- La clé publique requise pour l'authentification n'est pas disponible
- L'opération a expiré après {{timeout}}
- Exception non gérée de type {{type}} avec {{status}}
- Exception non gérée de type {{type}} avec {{response}}
- Exception non gérée de type {{type}} avec {{json}}
- Exception non gérée de type {{type}} avec {{message}}
- L'objet demandé est peut-être introuvable
- La base de données sous-jacente a signalé un trop grand nombre de demandes
- La définition de l'évaluation n'est définie ni dans le artifactModelVersion ni dans le déploiement. Elle doit être spécifiée " +\n "à au moins l'un des emplacements
- Module de données non trouvé dans IBM Federated Learning
- L'évaluation requiert une configuration d'apprentissage spécifiée pour le modèle
- L'évaluation nécessite que l'instance d'étincelle soit fournie dans l'en-tête
X-Spark-Service-Instance
- Le modèle ne contient aucune version
- Les opérations de correctif ne peuvent modifier que la configuration d'apprentissage existante
- L'opération de correction attend exactement une opération de remplacement
- Le contenu ne comporte pas les zones obligatoires: FIELD ou les valeurs des zones sont endommagées
- Méthode d'évaluation fournie : METHOD n'est pas prise en charge. Valeurs prises en charge : VALEURS
- Vous ne pouvez avoir qu'une seule évaluation active par modèle. La demande peut ne pas aboutir en raison d'une évaluation active existante: {{url}}
- Le type de déploiement {{type}} n'est pas pris en charge
- Entrée incorrecte : ({{message}})
- Données insuffisantes-il se peut que la métrique {{name}} ne soit pas calculée
- Pour le type {{type}}, l'instance d'étincelle doit être fournie dans l'en-tête
X-Spark-Service-Instance
- L'action {{action}} a échoué avec le message {{message}}
- Le chemin
{{path}}
n'est pas autorisé. Le seul chemin autorisé pour le flux de correctifs est/status
- Opération de correctif non autorisée, par exemple, de type
{{$type}}
- La connexion de données
{{data}}
n'est pas valide pour feedback_data_ref - Le chemin d'accès {{path}} n'est pas autorisé. Le seul chemin autorisé pour le modèle de correctif est
/deployed_version/url
ou/deployed_version/href
pour V2 - Echec de l'analyse : {{msg}}
- L'environnement d'exécution du modèle sélectionné : {{env}} n'est pas pris en charge pour
learning configuration
. Environnements pris en charge : - [{{supported_envs}}] - Le plan en cours'{{plan}}'autorise {{limit}} déploiements uniquement
- La définition de connexion à la base de données n'est pas valide ({{code}})
- Problèmes de connexion sous-jacente {{system}}
- Erreur lors de l'extraction de l'en-tête X-Spark-Service-Instance : ({{message}})
- Cette fonction est interdite aux utilisateurs non bêta
- {{code}} {{message}}
- Limite de taux dépassée
- Valeur
{{paramName}}
du paramètre de requête non valide: {{value}} - Type de jeton non valide : {{type}}
- Format de jeton non valide. Vous devez utiliser le format de jeton bearer.
- Le fichier JSON d'entrée est manquant ou non valide : 400
- Le jeton d'autorisation a expiré: 401
- Identification de déploiement inconnue: 404
- Erreur de serveur interne: 500
- Type non valide pour ml_artifact : Pipeline
- ValueError : le nom et la connexion Training_data_ref ne peuvent pas avoir la valeur None, si l'artefact Pipeline n'est pas fourni.
Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec Watson Machine Learning.
La formation d'une expérience AutoAI échoue avec les informations d'identification du service
Si vous formez une expérience AutoAI en utilisant la clé API pour le serviceID, la formation peut échouer avec cette erreur :
User specified in query parameters does not match user from token.
Une façon de résoudre ce problème est d'exécuter l'expérience avec vos identifiants d'utilisateur. Si vous souhaitez exécuter l'expérience avec des informations d'identification pour le service, suivez ces étapes pour mettre à jour les rôles et les stratégies pour l'identifiant du service.
Ouvrez votre serviceID sur IBM Cloud.
Créez un nouveau serviceID ou mettez à jour l'ID existant avec la politique d'accès suivante :
- Tous les services de gestion de compte IAM avec les rôles suivants : réviseur de clé API, créateur de clé API d'utilisateur, visualiseur, opérateur et éditeur. L'idéal est de créer un nouvel apikey pour ce ServiceId.
La politique mise à jour se présentera comme suit :
Exécutez à nouveau la formation avec les informations d'identification pour le serviceID mis à jour.
La création d'un job pour un flux SPSS Modeler dans un espace de déploiement échoue
Au cours du processus de configuration d'un travail par lots pour votre flux SPSS Modeler dans un espace de déploiement, le mappage automatique des ressources de données avec leur connexion respective peut échouer.
Pour corriger l'erreur de mappage automatique des ressources de données et des connexions, procédez comme suit :
Cliquez sur Créer et enregistrer pour enregistrer votre progression et quitter la boîte de dialogue de configuration Nouveau travail.
Dans votre espace de déploiement, cliquez sur l'onglet Jobs et sélectionnez votre SPSS Modeler pour examiner les détails de votre travail.
Dans la page des détails du travail, cliquez sur l'icône Editer pour mettre à jour manuellement le mappage de vos ressources de données et de vos connexions.
Après avoir mis à jour le mappage des ressources de données et des connexions, vous pouvez reprendre le processus de configuration des paramètres de votre travail dans la boîte de dialogue Nouveau travail. Pour plus d'informations, voir Création de tâches de déploiement pour les flux SPSS Modeler
Instance Watson Machine Learning inactive
Symptômes
Une fois que vous avez tenté de soumettre une demande d'inférence à un modèle de base en cliquant sur le bouton Générer dans le lab d'invite, le message d'erreur suivant s'affiche:
'code': 'no_associated_service_instance_error',
'message': 'WML instance {instance_id} status is not active, current status: Inactive'
Causes possibles
L'association entre votre projet watsonx.ai et l'instance de service Watson Machine Learning associée a été perdue.
Solutions possibles
Recréez ou actualisez l'association entre votre projet watsonx.ai et l'instance de service Watson Machine Learning associée. Pour cela, procédez comme suit :
- Dans le menu principal, développez Projets, puis cliquez sur Afficher tous les projets.
- Cliquez sur votre projet watsonx.ai .
- Dans l'onglet Gérer , cliquez sur Services & intégrations.
- Si l'instance de service Watson Machine Learning appropriée est répertoriée, dissociez-la temporairement en sélectionnant l'instance, puis en cliquant sur Supprimer. Confirmez le retrait.
- Cliquez sur Associer un service.
- Choisissez l'instance de service Watson Machine Learning appropriée dans la liste, puis cliquez sur Associer.
La clé publique requise pour l'authentification n'est pas disponible.
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison de problèmes de service interne.
Résolution du problème
Contactez l'équipe de support.
L'opération a expiré après {{timeout}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Le délai d'attente a été dépassé lors de l'exécution de l'opération demandée.
Résolution du problème
Essayez d'appeler à nouveau l'opération.
Exception non gérée de type {{type}} avec {{status}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison de problèmes de service interne.
Résolution du problème
Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.
Exception non gérée de type {{type}} avec {{response}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison de problèmes de service interne.
Résolution du problème
Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.
Exception non gérée de type {{type}} avec {{json}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison de problèmes de service interne.
Résolution du problème
Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.
Exception non gérée de type {{type}} avec {{message}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison de problèmes de service interne.
Résolution du problème
Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.
L'objet demandé est introuvable.
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
La ressource de demande est introuvable.
Résolution du problème
Assurez-vous de faire référence à la ressource existante.
La base de données sous-jacente a signalé un trop grand nombre de demandes.
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
L'utilisateur a envoyé un trop grand nombre de demandes à une heure spécifique.
Résolution du problème
Essayez d'appeler à nouveau l'opération.
La définition de l'évaluation n'est pas définie dans le artifactModelVersion ou le déploiement. Il doit être spécifié " + \n "au moins à l'un des emplacements.
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
La configuration d'apprentissage ne contient pas toutes les informations requises
Résolution du problème
Spécifiez definition
dans learning configuration
L'évaluation requiert une configuration d'apprentissage spécifiée pour le modèle.
Que se passe-t-il ?
Il n'est pas possible de créer learning iteration
.
Motifs
learning configuration
n'est pas défini pour le modèle.
Résolution du problème
Créez learning configuration
et essayez à nouveau de créer learning iteration
.
L'évaluation nécessite qu'une instance Spark soit fournie dans l'en-tête X-Spark-Service-Instance
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
learning configuration
ne dispose pas des informations requises.
Résolution du problème
Indiquez spark_service
dans Learning Configuration ou dans l'en-tête X-Spark-Service-Instance
.
Le modèle ne contient aucune version.
Que se passe-t-il ?
Il n'est pas possible de créer un déploiement ou de définir le learning configuration
.
Motifs
Ce problème peut se produire en raison d'une incohérence liée à la persistance du modèle.
Résolution du problème
Essayez de conserver le modèle à nouveau et réessayez d'exécuter l'action.
Module de données introuvable dans IBM Federated Learning.
Que se passe-t-il ?
Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Motifs
Probablement un gestionnaire de données obsolète.
Résolution du problème
Passez en revue et mettez à jour votre gestionnaire de données DataHandler pour qu'il soit conforme au gestionnaire de données MNIST le plus récent ou assurez-vous que vos versions d'exemple sont à jour.
L'opération de correctif ne peut modifier que la configuration d'apprentissage existante.
Que se passe-t-il ?
Il n'est pas possible d'appeler la méthode d'API REST de correctif pour corriger la configuration d'apprentissage.
Motifs
learning configuration
n'est pas défini pour ce modèle ou le modèle n'existe pas.
Résolution du problème
Assurez-vous que le modèle existe et que la configuration d'apprentissage est déjà définie.
L'opération de correction attend une seule opération de remplacement.
Que se passe-t-il ?
Le déploiement ne peut pas être corrigé.
Motifs
Le contenu de correction contient plus d'une opération ou l'opération de correction est différente de replace
.
Résolution du problème
N'utilisez qu'une seule opération dans le contenu du correctif, à savoir l'opération replace
.
Le contenu ne contient pas les zones obligatoires: FIELD ou les valeurs des zones sont endommagées.
Que se passe-t-il ?
Il n'est pas possible de traiter l'action liée à l'accès au fichier sous-jacent.
Motifs
L'accès au jeu de données n'est pas correctement défini.
Résolution du problème
Corrigez la définition d'accès pour le jeu de données.
Méthode d'évaluation fournie : METHOD n'est pas prise en charge. Valeurs prises en charge : VALUE.
Que se passe-t-il ?
Il n'est pas possible de créer une configuration d'apprentissage.
Motifs
La méthode d'évaluation utilisée pour créer la configuration d'apprentissage est incorrecte.
Résolution du problème
Utilisez une méthode d'évaluation prise en charge, qui est l'une des suivantes: regression
, binary
, multiclass
.
Vous ne pouvez avoir qu'une seule évaluation active par modèle. La demande ne peut pas aboutir en raison d'une évaluation active existante: {{url}}
Que se passe-t-il ?
Il n'est pas possible de créer une autre itération d'apprentissage.
Motifs
Vous ne pouvez avoir qu'une seule évaluation en cours d'exécution pour le modèle.
Résolution du problème
Consultez l'évaluation déjà en cours d'exécution ou attendez que l'évaluation se termine et démarrez-le.
Le type de déploiement {{type}} n'est pas pris en charge.
Que se passe-t-il ?
Il n'est pas possible de créer le déploiement.
Motifs
Un type de déploiement non pris en charge a été utilisé.
Résolution du problème
Un type de déploiement pris en charge doit être utilisé.
Entrée incorrecte : ({{message}})
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème se produit en raison d'un problème lié à l'analyse syntaxique JSON.
Résolution du problème
Assurez-vous que le JSON correct est transmis dans la demande.
Données insuffisantes-la métrique {{name}} ne peut pas être calculée
Que se passe-t-il ?
L'itération d'apprentissage a échoué.
Motifs
La valeur de l'indicateur avec un seuil défini ne peut pas être calculée en raison de données de retour insuffisantes.
Résolution du problème
Vérifiez et améliorez les données dans la source de données feedback_data_ref
dans learning configuration
Pour le type {{type}} l'instance spark doit être fournie dans l'en-tête X-Spark-Service-Instance
Que se passe-t-il ?
Le déploiement ne peut pas être créé.
Motifs
Les déploiements batch
et streaming
nécessitent que l'instance Spark soit fournie.
Résolution du problème
Fournissez une instance Spark dans l'en-tête X-Spark-Service-Instance
.
L'action {{action}} a échoué avec le message {{message}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème se produit en raison d'un problème lié à l'appel du service sous-jacent.
Résolution du problème
Si le message fournit une suggestion pour résoudre le problème, suivez la suggestion. Sinon, contactez l'équipe de support.
Le chemin d'accès {{path}}
n'est pas autorisé. Le seul chemin autorisé pour le flux de correctifs est /status
Que se passe-t-il ?
Le déploiement de flux ne peut pas être corrigé.
Motifs
Le chemin d'accès utilisé pour corriger le déploiement stream
est incorrect.
Résolution du problème
Corrigez le déploiement stream
avec l'option de chemin prise en charge, qui est /status
(elle permet de démarrer / arrêter le traitement du flux).
L'opération de correctif n'est pas autorisée, par exemple, de type {{$type}}
Que se passe-t-il ?
Le déploiement ne peut pas être corrigé.
Motifs
Le type de déploiement en cours de correction est incorrect.
Résolution du problème
Corrigez le type de déploiement stream
.
La connexion de données {{data}}
n'est pas valide pour feedback_data_ref
Que se passe-t-il ?
learning configuration
ne peut pas être créé pour le modèle.
Motifs
La source de données prise en charge n'a pas été utilisée lorsque feedback_data_ref
a été défini.
Résolution du problème
Utilisez uniquement le type de source de données pris en charge dashdb
.
Le chemin d'accès {{path}} n'est pas autorisé. Le seul chemin autorisé pour le modèle de correctif est /deployed_version/url
ou /deployed_version/href
pour V2
Que se passe-t-il ?
Aucune option pour appliquer des correctifs au modèle.
Motifs
Le chemin d'accès utilisé lors de la correction du modèle est incorrect.
Résolution du problème
Appliquez un modèle de correctif avec un chemin pris en charge que vous pouvez utiliser pour mettre à jour la version du modèle déployé.
Echec de l'analyse : {{msg}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Le contenu demandé ne peut pas être analysé correctement.
Résolution du problème
Vérifiez que le contenu de votre demande est correct et qu'il peut être analysé correctement.
L'environnement d'exécution du modèle sélectionné : {{env}} n'est pas pris en charge pour learning configuration
. Environnements pris en charge : [{{supported_envs}}].
Que se passe-t-il ?
Aucune option pour créer learning configuration
.
Motifs
Le modèle pour lequel la création de learning_configuration
a été tentée, n'est pas pris en charge.
Résolution du problème
Créez learning configuration
pour le modèle, qui possède l'environnement d'exécution pris en charge.
Le plan en cours'{{plan}}'autorise uniquement les déploiements {{limit}}
Que se passe-t-il ?
Il n'est pas possible de créer le déploiement.
Motifs
Le nombre de déploiements limite a été atteint pour le plan en cours.
Résolution du problème
Effectuez une mise à niveau vers le plan qui ne présente pas cette limitation.
La définition de connexion à la base de données n'est pas valide ({{code}})
Que se passe-t-il ?
Il n'est pas possible d'utiliser la fonction learning configuration
.
Motifs
La définition de connexion à la base de données n'est pas valide.
Résolution du problème
Essayez de corriger le problème décrit par code
renvoyé par la base de données sous-jacente.
Problèmes lors de la connexion du {{system}} sous-jacent
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison d'un problème lors de la connexion au système sous-jacent. Il peut s'agir d'un problème réseau temporaire.
Résolution du problème
Essayez d'appeler à nouveau l'opération. Si une erreur se produit à nouveau, contactez l'équipe de support.
Erreur lors de l'extraction de l'en-tête X-Spark-Service-Instance : ({{message}})
Que se passe-t-il ?
Ce problème peut se produire si l'API REST qui requiert des données d'identification Spark ne peut pas être appelée.
Motifs
Ce problème peut se produire en raison d'un problème lié au décodage base-64 ou à l'analyse syntaxique des données d'identification Spark.
Résolution du problème
Assurez-vous que les données d'identification Spark correctes ont été correctement codées en base-64 . Pour plus d'informations, reportez-vous à la documentation.
Cette fonction est interdite pour les utilisateurs non bêta.
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
L'API REST qui a été appelée est en version bêta.
Résolution du problème
Si vous souhaitez participer, inscrivez-vous sur la liste d'attente. Les détails sont disponibles dans la documentation.
{{code}} {{message}}
Que se passe-t-il ?
L'appel de l'API REST échoue.
Motifs
Ce problème peut se produire en raison d'un problème lié à l'appel du service sous-jacent.
Résolution du problème
Si le message fournit une suggestion pour résoudre le problème, suivez la suggestion. Sinon, contactez l'équipe de support.
La limite de débit a été dépassée.
Que se passe-t-il ?
La limite de débit a été dépassée.
Motifs
La limite de débit du plan en cours est dépassée.
Résolution du problème
Pour résoudre ce problème, faites l'acquisition d'un nouveau plan avec une limite de débit supérieure
Valeur du paramètre de requête {{paramName}}
non valide : {{value}}
Que se passe-t-il ?
Erreur de validation en raison de la transmission d'une valeur incorrecte pour le paramètre de requête.
Motifs
Erreur lors de l'obtention d'un résultat pour la requête.
Résolution du problème
Corrigez la valeur de paramètre de requête. Les détails sont disponibles dans la documentation.
Type de jeton non valide : {{type}}
Que se passe-t-il ?
Erreur relative au type de jeton.
Motifs
Erreur d'autorisation.
Résolution du problème
Le jeton doit être démarré avec le préfixe Bearer
.
Format de jeton non valide. Vous devez utiliser le format de jeton bearer.
Que se passe-t-il ?
Erreur relative au format du jeton.
Motifs
Erreur d'autorisation.
Résolution du problème
Le jeton doit être un jeton bearer et doit commencer par le préfixe Bearer
.
Le fichier JSON d'entrée est manquant ou non valide : 400
Que se passe-t-il ?
Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Le fichier JSON d'entrée est manquant ou non valide.
Motifs
Ce message s'affiche lorsque le contenu d'entrée d'évaluation ne correspond pas au type d'entrée attendu requis pour l'évaluation du modèle. En particulier, les raisons suivantes peuvent s'appliquer:
- Le contenu d'entrée est vide.
- Le schéma de la charge utile d'entrée n'est pas valide.
- Les types de données d'entrée ne correspondent pas aux types de données attendus.
Résolution du problème
Corrigez la charge d'entrée. Assurez-vous que le contenu a la syntaxe correcte, un schéma valide et des types de données adéquats. Après avoir effectué vos corrections, tentez à
nouveau l'évaluation en ligne. En cas de problème de syntaxe, vérifiez le fichier JSON à l'aide de la commande jsonlint
.
Identification de déploiement inconnue: 404
Que se passe-t-il ?
Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Identification de déploiement inconnue.
Motifs
Ce message s'affiche lorsque l'ID de déploiement utilisé pour l'évaluation n'existe pas.
Résolution du problème
Assurez-vous de fournir l'ID de déploiement correct. Dans le cas contraire, déployez le modèle avec l'ID de déploiement puis essayez de l'évaluer à nouveau.
Erreur de serveur interne: 500
Que se passe-t-il ?
Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Erreur de serveur interne
Motifs
Ce message s'affiche si le flux de données en aval dont dépend l'évaluation en ligne est défaillant.
Résolution du problème
Attendez un certain temps et essayez de marquer à nouveau en ligne. Si elle échoue à nouveau, contactez le support IBM .
Type non valide pour ml_artifact : Pipeline
Que se passe-t-il ?
Le message suivant s'affiche lorsque vous tentez de publier un modèle Spark à l'aide de la bibliothèque client d'API commune sur votre poste de travail.
Motifs
Ce message s'affiche si vous avez configuré un pyspark non valide dans le système d'exploitation.
Résolution du problème
Configurez les chemins d'accès de l'environnement système en vous conformant à l'instruction suivante :
SPARK_HOME={installed_spark_path}
JAVA_HOME={installed_java_path}
PYTHONPATH=$SPARK_HOME/python/
ValueError : le nom et la connexion Training_data_ref ne peuvent pas avoir la valeur None, si l'artefact Pipeline n'est pas fourni.
Que se passe-t-il ?
Le jeu de données d'entraînement est manquant ou n'est pas référencé correctement.
Motifs
L'artefacts Pipeline est un jeu de données d'entraînement dans cette instance.
Résolution du problème
Vous devez fournir un jeu de données d'entraînement lorsque vous conservez un PipelineModelSpark. Dans le cas contraire, le client indique qu'il ne prend pas en charge les PipelineModels, au lieu de dire qu'un PipelineModel doit être accompagné de l'ensemble d'apprentissage.