0 / 0
Retourner à la version anglaise de la documentation
Identification et résolution des incidents Watson Machine Learning
Dernière mise à jour : 27 sept. 2024
Identification et résolution des incidents Watson Machine Learning

Vous trouverez ci-après les réponses aux questions courantes sur le traitement des incidents liés à l'utilisation d' IBM Watson Machine Learning.

Obtention de l'aide et de la prise en charge de Watson Machine Learning

Si vous avez des problèmes ou des questions lors de l'utilisation de Watson Machine Learning, vous pouvez obtenir de l'aide en recherchant des informations ou en posant des questions via un forum. Vous pouvez également ouvrir un ticket de support.

Lorsque vous utilisez les forums pour poser une question, balisez votre question de sorte qu'elle soit vue par les équipes de développement Watson Machine Learning .

Si vous avez des questions techniques sur Watson Machine Learning, postez votre question sur Stack Overflow Icône de lien externe et balisez votre question avec ibm-bluemix et machine-learning.

Pour des questions relatives au service et aux instructions de mise en route, utilisez le forum IBM developerWorks dW Answers Icône de lien externe. Vous devez inclure les balises machine-learning et bluemix .

Contenu

Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec Watson Machine Learning.

La formation d'une expérience AutoAI échoue avec les informations d'identification du service

Si vous formez une expérience AutoAI en utilisant la clé API pour le serviceID, la formation peut échouer avec cette erreur :

User specified in query parameters does not match user from token.

Une façon de résoudre ce problème est d'exécuter l'expérience avec vos identifiants d'utilisateur. Si vous souhaitez exécuter l'expérience avec des informations d'identification pour le service, suivez ces étapes pour mettre à jour les rôles et les stratégies pour l'identifiant du service.

  1. Ouvrez votre serviceID sur IBM Cloud.

    Recherche de la page de politique serviceID

  2. Créez un nouveau serviceID ou mettez à jour l'ID existant avec la politique d'accès suivante :

    • Tous les services de gestion de compte IAM avec les rôles suivants : réviseur de clé API, créateur de clé API d'utilisateur, visualiseur, opérateur et éditeur. L'idéal est de créer un nouvel apikey pour ce ServiceId. Mise à jour de la politique et des rôles pour un serviceID
  3. La politique mise à jour se présentera comme suit : Mise à jour de la politique de serviceID

  4. Exécutez à nouveau la formation avec les informations d'identification pour le serviceID mis à jour.

Le déploiement d'un modèle de fondation personnalisé à partir d'un espace de déploiement échoue

Lorsque vous créez un déploiement pour un modèle de fondation personnalisé à partir de votre espace de déploiement, votre déploiement peut échouer pour de nombreuses raisons. Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous déployez vos modèles de fondation personnalisés à partir d'un espace de déploiement.

Cas 1 : La valeur du paramètre est hors plage

Lorsque vous créez un déploiement pour un modèle de fondation personnalisé à partir de votre espace de déploiement, vous devez vous assurer que les valeurs des paramètres de votre modèle de base se situent dans la plage spécifiée. Pour plus d'informations, voir Propriétés et paramètres des modèles de fondation personnalisés. Si vous entrez une valeur qui se situe en dehors de la plage spécifiée, vous risquez de rencontrer une erreur.

Par exemple, la valeur du paramètre max_new_tokens doit être inférieure à max_sequence_length. Lorsque vous mettez à jour les valeurs des paramètres du modèle de base, si vous entrez une valeur pour max_new_tokens supérieure ou égale à la valeur de max_sequence_length (2048), vous risquez de rencontrer une erreur.

L'image suivante montre un exemple de message d'erreur : Value must be an integer between 20 and 1000000000000000 and be greater than 'Max New Tokens'.

Exemple de message d'erreur

Si les valeurs par défaut des paramètres de votre modèle entraînent une erreur, contactez votre administrateur pour modifier le registre du modèle dans le CR watsonxaiifm.

Cas 2 : Type de données non pris en charge

Vous devez vous assurer que vous sélectionnez un type de données pris en charge par votre modèle de base personnalisé. Lorsque vous mettez à jour les valeurs des paramètres du modèle de base, si vous mettez à jour le type de données de votre modèle déployé avec un type de données non pris en charge, votre déploiement risque d'échouer.

Par exemple, le modèle LLaMA-Pro-8B-Instruct-GPTQ ne prend en charge que le type de données float16. Si vous déployez le modèle LLaMA-Pro-8B-Instruct-GPTQ avec float16 Enum, puis mettez à jour le paramètre Enum de float16 à bfloat16, votre déploiement échoue.

Si le type de données que vous avez sélectionné pour votre modèle de base personnalisé entraîne une erreur, vous pouvez remplacer le type de données pour le modèle de base personnalisé lors de la création du déploiement ou contacter votre administrateur pour modifier le registre du modèle dans le CR watsonxaiifm.

Cas 3 : La valeur du paramètre est trop importante

Si vous saisissez une valeur très élevée pour les paramètres max_sequence_length et max_new_token, vous risquez de rencontrer une erreur. Par exemple, si vous définissez la valeur de max_sequence_length comme 1000000000000000, vous obtenez le message d'erreur suivant :

Échec du déploiement du modèle de fondation personnalisé. L'opération a échoué à cause de 'max_batch_weight (19596417433) not large enough for (prefill) max_sequence_length (1000000000000000)'. Renouvelez l'opération. Contactez le support IBM si le problème persiste.

Vous devez vous assurer que la valeur du paramètre est inférieure à la valeur définie dans le fichier de configuration du modèle (config.json).

Cas 4 : Le fichier model.safetensors est enregistré avec des bibliothèques non prises en charge

Si le fichier model.safetensors de votre modèle de fondation personnalisé utilise un format de données non pris en charge dans l'en-tête des métadonnées, votre déploiement risque d'échouer.

Par exemple, si vous importez le modèle de fondation personnalisé OccamRazor/mpt-7b-storywriter-4bit-128g de Hugging Face dans votre espace de déploiement et que vous créez un déploiement en ligne, celui-ci risque d'échouer. Cela est dû au fait que le fichier model.safetensors pour le modèle OccamRazor/mpt-7b-storywriter-4bit-128g est enregistré avec la bibliothèque save_pretrained, qui n'est pas prise en charge. Le message d'erreur suivant risque d'apparaître :

L'opération a échoué car l'objet 'NoneType' n'a pas d'attribut 'get'.

Vous devez vous assurer que votre modèle de fondation personnalisé est sauvegardé avec la bibliothèque transformers prise en charge.

Cas 5 : Le déploiement d'un modèle Llama 3.1 échoue

Si le déploiement de votre modèle Llama 3.1 échoue, essayez de modifier le contenu du fichier config.json de votre modèle :

  1. Trouvez l'entrée eos_token_id.
  2. Changer la valeur de l'entrée d'un tableau en un entier.

Essayez ensuite de redéployer votre modèle.

La création d'un job pour un flux SPSS Modeler dans un espace de déploiement échoue

Au cours du processus de configuration d'un travail par lots pour votre flux SPSS Modeler dans un espace de déploiement, le mappage automatique des ressources de données avec leur connexion respective peut échouer.

L'image montre que la cartographie automatique des actifs de données et des connexions échoue

Pour corriger l'erreur de mappage automatique des ressources de données et des connexions, procédez comme suit :

  1. Cliquez sur Créer et enregistrer pour enregistrer votre progression et quitter la boîte de dialogue de configuration Nouveau travail.

  2. Dans votre espace de déploiement, cliquez sur l'onglet Jobs et sélectionnez votre SPSS Modeler pour examiner les détails de votre travail.

  3. Dans la page des détails du travail, cliquez sur l'icône Editer Image de l'icône d'édition pour mettre à jour manuellement le mappage de vos ressources de données et de vos connexions.

  4. Après avoir mis à jour le mappage des ressources de données et des connexions, vous pouvez reprendre le processus de configuration des paramètres de votre travail dans la boîte de dialogue Nouveau travail. Pour plus d'informations, voir Création de tâches de déploiement pour les flux SPSS Modeler

    L'image montre que la cartographie automatique des données et des connexions est réussie

Instance Watson Machine Learning inactive

Symptômes

Une fois que vous avez tenté de soumettre une demande d'inférence à un modèle de base en cliquant sur le bouton Générer dans le lab d'invite, le message d'erreur suivant s'affiche:

'code': 'no_associated_service_instance_error',
'message': 'WML instance {instance_id} status is not active, current status: Inactive'

Causes possibles

L'association entre votre projet watsonx.ai et l'instance de service Watson Machine Learning associée a été perdue.

Solutions possibles

Recréez ou actualisez l'association entre votre projet watsonx.ai et l'instance de service Watson Machine Learning associée. Pour cela, procédez comme suit :

  1. Dans le menu principal, développez Projets, puis cliquez sur Afficher tous les projets.
  2. Cliquez sur votre projet watsonx.ai .
  3. Dans l'onglet Gérer , cliquez sur Services & intégrations.
  4. Si l'instance de service Watson Machine Learning appropriée est répertoriée, dissociez-la temporairement en sélectionnant l'instance, puis en cliquant sur Supprimer. Confirmez le retrait.
  5. Cliquez sur Associer un service.
  6. Choisissez l'instance de service Watson Machine Learning appropriée dans la liste, puis cliquez sur Associer.

Le jeton d'autorisation n'est pas fourni.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le jeton d'autorisation n'est pas fourni dans l'en-tête Authorization .

Procédure de résolution du problème

Transmettez le jeton d'autorisation dans l'en-tête Authorization .

Jeton d'autorisation non valide.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le jeton d'autorisation fourni ne peut pas être décodé ou analysé.

Procédure de résolution du problème

Transmettez le jeton d'autorisation correct dans l'en-tête Authorization .

Le jeton d'autorisation et l'instance_id utilisés dans la demande ne sont pas identiques.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le jeton d'autorisation utilisé n'est pas généré pour l'instance de service pour laquelle il a été utilisé.

Procédure de résolution du problème

Transmettez un jeton d'autorisation dans l'en-tête Authorization , qui correspond à l'instance de service utilisée.

Le jeton d'autorisation est arrivé à expiration.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le jeton d'autorisation est arrivé à expiration.

Procédure de résolution du problème

Transférez un jeton d'autorisation n'ayant pas expiré dans l'en-tête Authorization.

La clé publique requise pour l'authentification n'est pas disponible.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison de problèmes de service interne.

Procédure de résolution du problème

Contactez l'équipe de support.

L'opération a expiré après {{timeout}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le délai d'attente a été dépassé lors de l'exécution de l'opération demandée.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération.

Exception non gérée de type {{type}} avec {{status}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison de problèmes de service interne.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.

Exception non gérée de type {{type}} avec {{response}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison de problèmes de service interne.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.

Exception non gérée de type {{type}} avec {{json}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison de problèmes de service interne.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.

Exception non gérée de type {{type}} avec {{message}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison de problèmes de service interne.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération. Si cela se produit à nouveau, contactez l'équipe de support.

L'objet demandé est introuvable.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

La ressource de demande est introuvable.

Procédure de résolution du problème

Assurez-vous de faire référence à la ressource existante.

La base de données sous-jacente a signalé un trop grand nombre de demandes.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

L'utilisateur a envoyé un trop grand nombre de demandes à une heure spécifique.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération.

La définition de l'évaluation n'est pas définie dans le artifactModelVersion ou le déploiement. Il doit être spécifié " + \n "au moins à l'un des emplacements.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

La configuration d'apprentissage ne contient pas toutes les informations requises

Procédure de résolution du problème

Spécifiez definition dans learning configuration

L'évaluation requiert une configuration d'apprentissage spécifiée pour le modèle.

Que se passe-t-il ?

Il n'est pas possible de créer learning iteration.

Motifs

learning configuration n'est pas défini pour le modèle.

Procédure de résolution du problème

Créez learning configuration et essayez à nouveau de créer learning iteration.

L'évaluation nécessite qu'une instance Spark soit fournie dans l'en-tête X-Spark-Service-Instance

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

learning configuration ne dispose pas des informations requises.

Procédure de résolution du problème

Indiquez spark_service dans Learning Configuration ou dans l'en-tête X-Spark-Service-Instance .

Le modèle ne contient aucune version.

Que se passe-t-il ?

Il n'est pas possible de créer un déploiement ou de définir le learning configuration.

Motifs

Ce problème peut se produire en raison d'une incohérence liée à la persistance du modèle.

Procédure de résolution du problème

Essayez de conserver le modèle à nouveau et réessayez d'exécuter l'action.

Module de données introuvable dans IBM Federated Learning.

Que se passe-t-il ?

Le gestionnaire de données pour IBM Federated Learning tente d'extraire un module de données de la bibliothèque FL, mais il est incapable de le trouver. Le message d'erreur suivant peut s'afficher :

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Motifs

Probablement un gestionnaire de données obsolète.

Procédure de résolution du problème

Passez en revue et mettez à jour votre gestionnaire de données DataHandler pour qu'il soit conforme au gestionnaire de données MNIST le plus récent ou assurez-vous que vos versions d'exemple sont à jour.

L'opération de correctif ne peut modifier que la configuration d'apprentissage existante.

Que se passe-t-il ?

Il n'est pas possible d'appeler la méthode d'API REST de correctif pour corriger la configuration d'apprentissage.

Motifs

learning configuration n'est pas défini pour ce modèle ou le modèle n'existe pas.

Procédure de résolution du problème

Assurez-vous que le modèle existe et que la configuration d'apprentissage est déjà définie.

L'opération de correction attend une seule opération de remplacement.

Que se passe-t-il ?

Le déploiement ne peut pas être corrigé.

Motifs

Le contenu de correction contient plus d'une opération ou l'opération de correction est différente de replace.

Procédure de résolution du problème

N'utilisez qu'une seule opération dans le contenu du correctif, à savoir l'opération replace .

Le contenu ne contient pas les zones obligatoires: FIELD ou les valeurs des zones sont endommagées.

Que se passe-t-il ?

Il n'est pas possible de traiter l'action liée à l'accès au fichier sous-jacent.

Motifs

L'accès au jeu de données n'est pas correctement défini.

Procédure de résolution du problème

Corrigez la définition d'accès pour le jeu de données.

Méthode d'évaluation fournie : METHOD n'est pas prise en charge. Valeurs prises en charge : VALUE.

Que se passe-t-il ?

Il n'est pas possible de créer une configuration d'apprentissage.

Motifs

La méthode d'évaluation utilisée pour créer la configuration d'apprentissage est incorrecte.

Procédure de résolution du problème

Utilisez une méthode d'évaluation prise en charge, qui est l'une des suivantes: regression, binary, multiclass.

Vous ne pouvez avoir qu'une seule évaluation active par modèle. La demande ne peut pas aboutir en raison d'une évaluation active existante: {{url}}

Que se passe-t-il ?

Il n'est pas possible de créer une autre itération d'apprentissage.

Motifs

Vous ne pouvez avoir qu'une seule évaluation en cours d'exécution pour le modèle.

Procédure de résolution du problème

Consultez l'évaluation déjà en cours d'exécution ou attendez que l'évaluation se termine et démarrez-le.

Le type de déploiement {{type}} n'est pas pris en charge.

Que se passe-t-il ?

Il n'est pas possible de créer le déploiement.

Motifs

Un type de déploiement non pris en charge a été utilisé.

Procédure de résolution du problème

Un type de déploiement pris en charge doit être utilisé.

Entrée incorrecte : ({{message}})

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème se produit en raison d'un problème lié à l'analyse syntaxique JSON.

Procédure de résolution du problème

Assurez-vous que le JSON correct est transmis dans la demande.

Données insuffisantes-la métrique {{name}} ne peut pas être calculée

Que se passe-t-il ?

L'itération d'apprentissage a échoué.

Motifs

La valeur de l'indicateur avec un seuil défini ne peut pas être calculée en raison de données de retour insuffisantes.

Procédure de résolution du problème

Vérifiez et améliorez les données dans la source de données feedback_data_ref dans learning configuration

Pour le type {{type}} l'instance spark doit être fournie dans l'en-tête X-Spark-Service-Instance

Que se passe-t-il ?

Le déploiement ne peut pas être créé.

Motifs

Les déploiements batch et streaming nécessitent que l'instance Spark soit fournie.

Procédure de résolution du problème

Fournissez une instance Spark dans l'en-tête X-Spark-Service-Instance.

L'action {{action}} a échoué avec le message {{message}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème se produit en raison d'un problème lié à l'appel du service sous-jacent.

Procédure de résolution du problème

Si le message fournit une suggestion pour résoudre le problème, suivez la suggestion. Sinon, contactez l'équipe de support.

Le chemin d'accès {{path}} n'est pas autorisé. Le seul chemin autorisé pour le flux de correctifs est /status

Que se passe-t-il ?

Le déploiement de flux ne peut pas être corrigé.

Motifs

Le chemin d'accès utilisé pour corriger le déploiement stream est incorrect.

Procédure de résolution du problème

Corrigez le déploiement stream avec l'option de chemin prise en charge, qui est /status (elle permet de démarrer / arrêter le traitement du flux).

L'opération de correctif n'est pas autorisée, par exemple, de type {{$type}}

Que se passe-t-il ?

Le déploiement ne peut pas être corrigé.

Motifs

Le type de déploiement en cours de correction est incorrect.

Procédure de résolution du problème

Corrigez le type de déploiement stream.

La connexion de données {{data}} n'est pas valide pour feedback_data_ref

Que se passe-t-il ?

learning configuration ne peut pas être créé pour le modèle.

Motifs

La source de données prise en charge n'a pas été utilisée lorsque feedback_data_ref a été défini.

Procédure de résolution du problème

Utilisez uniquement le type de source de données pris en charge dashdb.

Le chemin d'accès {{path}} n'est pas autorisé. Le seul chemin autorisé pour le modèle de correctif est /deployed_version/url ou /deployed_version/href pour V2

Que se passe-t-il ?

Aucune option pour appliquer des correctifs au modèle.

Motifs

Le chemin d'accès utilisé lors de la correction du modèle est incorrect.

Procédure de résolution du problème

Appliquez un modèle de correctif avec un chemin pris en charge que vous pouvez utiliser pour mettre à jour la version du modèle déployé.

Echec de l'analyse : {{msg}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Le contenu demandé ne peut pas être analysé correctement.

Procédure de résolution du problème

Vérifiez que le contenu de votre demande est correct et qu'il peut être analysé correctement.

L'environnement d'exécution du modèle sélectionné : {{env}} n'est pas pris en charge pour learning configuration. Environnements pris en charge : [{{supported_envs}}].

Que se passe-t-il ?

Aucune option pour créer learning configuration.

Motifs

Le modèle pour lequel la création de learning_configuration a été tentée, n'est pas pris en charge.

Procédure de résolution du problème

Créez learning configuration pour le modèle, qui possède l'environnement d'exécution pris en charge.

Le plan en cours'{{plan}}'autorise uniquement les déploiements {{limit}}

Que se passe-t-il ?

Il n'est pas possible de créer le déploiement.

Motifs

Le nombre de déploiements limite a été atteint pour le plan en cours.

Procédure de résolution du problème

Effectuez une mise à niveau vers le plan qui ne présente pas cette limitation.

La définition de connexion à la base de données n'est pas valide ({{code}})

Que se passe-t-il ?

Il n'est pas possible d'utiliser la fonction learning configuration .

Motifs

La définition de connexion à la base de données n'est pas valide.

Procédure de résolution du problème

Essayez de corriger le problème décrit par code renvoyé par la base de données sous-jacente.

Problèmes lors de la connexion du {{system}} sous-jacent

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison d'un problème lors de la connexion au système sous-jacent. Il peut s'agir d'un problème réseau temporaire.

Procédure de résolution du problème

Essayez d'appeler à nouveau l'opération. Si une erreur se produit à nouveau, contactez l'équipe de support.

Erreur lors de l'extraction de l'en-tête X-Spark-Service-Instance : ({{message}})

Que se passe-t-il ?

Ce problème peut se produire si l'API REST qui requiert des données d'identification Spark ne peut pas être appelée.

Motifs

Ce problème peut se produire en raison d'un problème lié au décodage base-64 ou à l'analyse syntaxique des données d'identification Spark.

Procédure de résolution du problème

Assurez-vous que les données d'identification Spark correctes ont été correctement codées en base-64 . Pour plus d'informations, reportez-vous à la documentation.

Cette fonction est interdite pour les utilisateurs non bêta.

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

L'API REST qui a été appelée est en version bêta.

Procédure de résolution du problème

Si vous souhaitez participer, inscrivez-vous sur la liste d'attente. Les détails sont disponibles dans la documentation.

{{code}} {{message}}

Que se passe-t-il ?

L'appel de l'API REST échoue.

Motifs

Ce problème peut se produire en raison d'un problème lié à l'appel du service sous-jacent.

Procédure de résolution du problème

Si le message fournit une suggestion pour résoudre le problème, suivez la suggestion. Sinon, contactez l'équipe de support.

La limite de débit a été dépassée.

Que se passe-t-il ?

La limite de débit a été dépassée.

Motifs

La limite de débit du plan en cours est dépassée.

Procédure de résolution du problème

Pour résoudre ce problème, faites l'acquisition d'un nouveau plan avec une limite de débit supérieure

Valeur du paramètre de requête {{paramName}} non valide : {{value}}

Que se passe-t-il ?

Erreur de validation en raison de la transmission d'une valeur incorrecte pour le paramètre de requête.

Motifs

Erreur lors de l'obtention d'un résultat pour la requête.

Procédure de résolution du problème

Corrigez la valeur de paramètre de requête. Les détails sont disponibles dans la documentation.

Type de jeton non valide : {{type}}

Que se passe-t-il ?

Erreur relative au type de jeton.

Motifs

Erreur d'autorisation.

Procédure de résolution du problème

Le jeton doit être démarré avec le préfixe Bearer .

Format de jeton non valide. Vous devez utiliser le format de jeton bearer.

Que se passe-t-il ?

Erreur relative au format du jeton.

Motifs

Erreur d'autorisation.

Procédure de résolution du problème

Le jeton doit être un jeton bearer et doit commencer par le préfixe Bearer .

Le fichier JSON d'entrée est manquant ou non valide : 400

Que se passe-t-il ?

Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Le fichier JSON d'entrée est manquant ou non valide.

Motifs

Ce message s'affiche lorsque le contenu d'entrée d'évaluation ne correspond pas au type d'entrée attendu requis pour l'évaluation du modèle. En particulier, les raisons suivantes peuvent s'appliquer:

  • Le contenu d'entrée est vide.
  • Le schéma de la charge utile d'entrée n'est pas valide.
  • Les types de données d'entrée ne correspondent pas aux types de données attendus.

Procédure de résolution du problème

Corrigez la charge d'entrée. Assurez-vous que le contenu a la syntaxe correcte, un schéma valide et des types de données adéquats. Après avoir effectué vos corrections, tentez à nouveau l'évaluation en ligne. En cas de problème de syntaxe, vérifiez le fichier JSON à l'aide de la commande jsonlint.

Le jeton d'autorisation est arrivé à expiration: 401

Que se passe-t-il ?

Le message suivant s'affiche lorsque vous tentez d'effectuer une évaluation en ligne : Echec d'autorisation.

Motifs

Ce message s'affiche lorsque le jeton utilisé pour l'évaluation est arrivé à expiration.

Procédure de résolution du problème

Régénérez le jeton pour cette instance IBM Watson Machine Learning , puis réessayez. Si le problème persiste, contactez le support IBM.

Identification de déploiement inconnue: 404

Que se passe-t-il ?

Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Identification de déploiement inconnue.

Motifs

Ce message s'affiche lorsque l'ID de déploiement utilisé pour l'évaluation n'existe pas.

Procédure de résolution du problème

Assurez-vous de fournir l'ID de déploiement correct. Dans le cas contraire, déployez le modèle avec l'ID de déploiement puis essayez de l'évaluer à nouveau.

Erreur de serveur interne: 500

Que se passe-t-il ?

Le message suivant s'affiche lorsque vous tentez une évaluation en ligne : Erreur de serveur interne

Motifs

Ce message s'affiche si le flux de données en aval dont dépend l'évaluation en ligne est défaillant.

Procédure de résolution du problème

Attendez un certain temps et essayez de marquer à nouveau en ligne. Si elle échoue à nouveau, contactez le support IBM .

Type non valide pour ml_artifact : Pipeline

Que se passe-t-il ?

Le message suivant s'affiche lorsque vous tentez de publier un modèle Spark à l'aide de la bibliothèque client d'API commune sur votre poste de travail.

Motifs

Ce message s'affiche si vous avez configuré un pyspark non valide dans le système d'exploitation.

Procédure de résolution du problème

Configurez les chemins d'accès de l'environnement système en vous conformant à l'instruction suivante :

SPARK_HOME={installed_spark_path}
JAVA_HOME={installed_java_path}
PYTHONPATH=$SPARK_HOME/python/

ValueError : le nom et la connexion Training_data_ref ne peuvent pas avoir la valeur None, si l'artefact Pipeline n'est pas fourni.

Que se passe-t-il ?

Le jeu de données d'entraînement est manquant ou n'est pas référencé correctement.

Motifs

L'artefacts Pipeline est un jeu de données d'entraînement dans cette instance.

Procédure de résolution du problème

Vous devez fournir un jeu de données d'entraînement lorsque vous conservez un PipelineModelSpark. Dans le cas contraire, le client indique qu'il ne prend pas en charge les PipelineModels, au lieu de dire qu'un PipelineModel doit être accompagné de l'ensemble d'apprentissage.