0 / 0
Retourner à la version anglaise de la documentation
Dépannage de l'exécution de watsonx.ai
Dernière mise à jour : 13 déc. 2024
Dépannage de l'exécution de watsonx.ai

Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec le Runtime watsonx.ai

Dépannage de AutoAI

Dépannage des déploiements

Dépannage de AutoAI

Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec l'AutoAI.

L'exécution d'une expérience de série temporelle AutoAI avec prédiction d'anomalie échoue

La fonction permettant de prédire les anomalies dans les résultats d'une expérience de série temporelle n'est plus prise en charge. La tentative d'exécution d'une expérience existante entraîne des erreurs dues à l'absence de bibliothèques d'exécution. Par exemple, vous pouvez voir cette erreur :

The selected environment seems to be invalid: Could not retrieve environment. CAMS error: Missing or invalid asset id

Ce comportement est normal car les durées d'exécution pour la prédiction des anomalies ne sont pas prises en charge. Il n'existe pas de solution à ce problème.

Le cahier d'inférence de lAutoAI pour une expérience RAG dépasse les limites du modèle

Parfois, lors de l'exécution d'un cahier d'inférence généré pour une expérience AutoAI RAG, vous pouvez obtenir cette erreur :

MissingValue: No "model_limits" provided. Reason: Model <model-nam> limits cannot be found in the model details.

L'erreur indique que les limites des jetons pour déduire le modèle de base utilisé pour l'expérience sont manquantes. Pour résoudre le problème, recherchez la fonction " default_inference_function et remplacez " get_max_input_tokens par le nombre maximal de jetons pour le modèle. Par exemple :

model = ModelInference(api_client=client, **params['model"])
# model_max_input_tokens = get+max_input_tokens(model=model, params=params)
model_max_input_tokens = 4096

Vous pouvez trouver la valeur maximale du jeton pour le modèle dans le tableau des modèles de fondation pris en charge disponibles avec watsonx.ai

L'entraînement d'une expérience AutoAI échoue avec les informations d'identification du service

Si vous formez une expérience AutoAI en utilisant la clé API pour le serviceID, formation peut échouer avec cette erreur :

User specified in query parameters does not match user from token.

Une façon de résoudre ce problème est d'exécuter l'expérience avec vos identifiants d'utilisateur. Si vous souhaitez exécuter l'expérience avec des informations d'identification pour le service, suivez ces étapes pour mettre à jour les rôles et les stratégies pour l'identifiant du service.

  1. Ouvrez votre serviceID sur IBM Cloud. Recherche de la page de politique de serviceID
  2. Créez un nouvel serviceID ou mettez à jour l'identifiant existant avec la politique d'accès suivante :
    • Tous les services de gestion de compte IAM avec les rôles suivants : réviseur de clé API, créateur de clé API d'utilisateur, visualiseur, opérateur et éditeur. L'idéal est de créer un nouvel apikey pour ce ServiceId. 'Mise à jour de la politique et des rôles pour un serviceID
  3. La politique mise à jour se présente comme suit : Mise à jour de la politique d'serviceID
  4. Exécutez à nouveau la formation avec les informations d'serviceID mis à jour.

La demande de prédiction pour le modèle de séries temporelles de l AutoAI peut être interrompue si le nombre de nouvelles observations est trop élevé

Une demande de prédiction peut être interrompue pour un modèle de série temporelle AutoAI déployé si le nombre de nouvelles observations transmises est trop élevé. Pour résoudre ce problème, procédez de l'une des manières suivantes :

  • Réduire le nombre de nouvelles observations.
  • Étendre les données de formation utilisées pour l'expérience en ajoutant de nouvelles observations. Ensuite, relancez l'expérience AutoAI sur les séries temporelles avec les données de formation mises à jour.

Membres de classe insuffisants dans les données d'entraînement pour l'expérimentation AutoAI

Les données d'entraînement d'une expérimentation AutoAI doivent comporter au moins 4 membres pour chaque classe. Si vos données d'entraînement ne contiennent pas un nombre suffisant de membres dans une classe, vous rencontrerez l'erreur suivante:

ERROR: ingesting data Message id: AC10011E. Message: Each class must have at least 4 members. The following classes have too few members: ['T'].

Pour résoudre le problème, mettez à jour les données d'entraînement afin de supprimer la classe ou d'ajouter d'autres membres.

Impossible d'ouvrir les actifs de Cloud Pak for Data qui nécessitent watsonx.ai

Si vous travaillez dans le contexte Cloud Pak for Data, vous ne pouvez pas ouvrir les actifs qui nécessitent un contexte de produit différent, comme watsonx.ai Par exemple, si vous créez une expérience AutoAI pour un modèle RAG à l'aide de watsonx.ai, vous ne pouvez pas ouvrir cette ressource lorsque vous êtes dans le contexte Cloud Pak for Data. Dans le cas des expériences AutoAI, vous pouvez visualiser le type de formation dans la liste des actifs. Vous pouvez ouvrir des expériences avec un type d'apprentissage automatique, mais pas avec un type de génération augmentée par récupération.

Dépannage des déploiements

Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec les déploiements de watsonx.ai Runtime.

Les déploiements par lots qui utilisent des volumes de données volumineux en tant qu'entrée risquent d'échouer

Si vous évaluez un travail par lots qui utilise de grands volumes de données comme source d'entrée, le travail risque d'échouer en raison de paramètres de délai d'attente internes. Un symptôme de cet incident peut être un message d'erreur similaire à l'exemple suivant:

Incorrect input data: Flight returned internal error, with message: CDICO9999E: Internal error occurred: Snowflake sQL logged error: JDBC driver internal error: Timeout waiting for the download of #chunk49(Total chunks: 186) retry=0.

Si le délai d'attente se produit lorsque vous évaluez votre déploiement par lots, vous devez configurer la limitation du délai d'attente au niveau de la requête de la source de données pour gérer les travaux à exécution longue.

Les informations de délai d'attente de niveau requête pour les sources de données sont les suivantes:

Informations sur la limitation du temps au niveau de la requête pour les sources de données
Source de données Limitation du temps au niveau de la requête Limite de temps par défaut Modifier la limite de temps par défaut
Apache Cassandra Oui 10 secondes Définissez les paramètres 'read_timeout_in_ms et 'write_timeout_in_ms dans le fichier de configuration 'Apache Cassandra ou dans la connexion 'Apache Cassandra 'URL ' pour modifier la limite de temps par défaut.
Cloud Object Storage Non N/A N/A
Db2 Oui N/A Définissez le paramètre QueryTimeout pour indiquer la durée (en secondes) pendant laquelle un client attend la fin de l'exécution d'une requête avant de tenter d'annuler l'exécution et de renvoyer le contrôle à l'application.
Hive via Execution Engine for Hadoop Oui 60 minutes (3600 secondes) Définissez la propriété " hive.session.query.timeout dans l'URL connexion pour modifier la limite de temps par défaut.
Microsoft SQL Server Oui 30 secondes Définissez l'option de configuration du serveur QUERY_TIMEOUT pour modifier la limite de temps par défaut.
MongoDB Oui 30 secondes Définissez le paramètre maxTimeMS dans les options de requête pour modifier la limite de temps par défaut.
MySQL Oui 0 secondes (pas de limite de temps par défaut) Définissez la propriété " timeout dans l'URL connexion ou dans les propriétés du pilote JDBC pour spécifier une limite de temps pour votre requête.
Oracle Oui 30 secondes Définissez le paramètre QUERY_TIMEOUT dans le pilote Oracle JDBC pour spécifier la durée maximale d'exécution d'une requête avant qu'elle ne soit automatiquement annulée.
PostgreSQL Non N/A Définissez la propriété queryTimeout pour spécifier la durée maximale d'exécution d'une requête. La valeur par défaut de la propriété queryTimeout est 0.
Snowflake Oui 6 heures Définissez le paramètre queryTimeout pour modifier la limite de temps par défaut.

Pour éviter que vos déploiements par lots échouent, partitionnez votre fichier ou réduisez sa taille.

Sécurité pour les téléchargements de fichiers

Les fichiers que vous téléchargez via l'interface utilisateur de watsonx.ai Studio ou watsonx.ai Runtime ne sont pas validés ou analysés pour détecter des contenus potentiellement malveillants. Il est recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin d'assurer la sécurité de votre contenu.

Les déploiements avec des spécifications logicielles restreintes échouent après une mise à niveau

Si vous mettez à niveau vers une version plus récente d'IBM Cloud Pak for Data et déployez une ressource applicative R Shiny qui a été créée en utilisant des spécifications logicielles restreintes en mode FIPS, votre déploiement échoue.

Par exemple, les déploiements qui utilisent les spécifications logicielles 'shiny-r3.6 et 'shiny-r4.2 échouent après la mise à niveau d'IBM Cloud Pak for Data version 4.7.0 vers 4.8.4 ou ultérieure. Vous pourriez recevoir le message d'erreurError 502 - Bad Gateway .

Pour éviter l'échec de votre déploiement, mettez à jour la spécification restreinte de votre actif déployé afin d'utiliser la dernière spécification logicielle. Pour plus d’informations, consultez Gestion des spécifications ou des frameworks logiciels obsolètes. Vous pouvez également supprimer le déploiement de votre application si vous n'en avez plus besoin.

La création d'une tâche pour un flux SPSS Modeler dans un espace de déploiement échoue

Au cours du processus de configuration d'un job batch pour votre flux SPSS Modeler dans un espace de déploiement, le mappage automatique des ressources de données avec leur connexion respective peut échouer.

L'image montre que la cartographie automatique des actifs de données et des connexions échoue

Pour corriger l'erreur de mappage automatique des ressources de données et des connexions, procédez comme suit :

  1. Cliquez sur Créer pour enregistrer votre progression et quitter la boîte de dialogue Configuration d'un nouveau travail.

  2. Dans votre espace de déploiement, cliquez sur l'onglet Jobs et sélectionnez votre job de flux SPSS Modeler pour consulter les détails de votre job.

  3. Dans la page des détails du travail, cliquez sur l'icône " Editer " Image de l'icône d'édition pour mettre à jour manuellement le mappage de vos ressources de données et de vos connexions.

  4. Après avoir mis à jour le mappage des ressources de données et des connexions, vous pouvez reprendre le processus de configuration des paramètres de votre travail dans la boîte de dialogue Nouveau travail. Pour plus d'informations, voir Création de tâches de déploiement pour les flux de SPSS Modeler

    L'image montre que la cartographie automatique des données et des connexions est réussie

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus