Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec le Runtime watsonx.ai
Dépannage de AutoAI
- Le cahier d'inférence deAutoAI pour une expérience RAG dépasse les limites du modèle
- L'entraînement d'une expérience AutoAI échoue avec les informations d'identification du service
- La demande de prédiction pour le modèle de séries temporelles de l AutoAI peut être interrompue si le nombre de nouvelles observations est trop élevé
- Insuffisance de membres de classes dans les données d'entraînement pour l'expérience AutoAI
- Impossible d'ouvrir les actifs de Cloud Pak for Data qui nécessitent watsonx.ai
Dépannage des déploiements
- Les déploiements par lots qui utilisent de grands volumes de données en entrée risquent d'échouer
- Sécurité pour les téléchargements de fichiers
- Les déploiements avec des spécifications logicielles restreintes échouent après une mise à niveau
- La création d'un job pour un flux SPSS Modeler dans un espace de déploiement échoue
Dépannage de AutoAI
Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec l'AutoAI.
L'exécution d'une expérience de série temporelle AutoAI avec prédiction d'anomalie échoue
La fonction permettant de prédire les anomalies dans les résultats d'une expérience de série temporelle n'est plus prise en charge. La tentative d'exécution d'une expérience existante entraîne des erreurs dues à l'absence de bibliothèques d'exécution. Par exemple, vous pouvez voir cette erreur :
The selected environment seems to be invalid: Could not retrieve environment. CAMS error: Missing or invalid asset id
Ce comportement est normal car les durées d'exécution pour la prédiction des anomalies ne sont pas prises en charge. Il n'existe pas de solution à ce problème.
Le cahier d'inférence de lAutoAI pour une expérience RAG dépasse les limites du modèle
Parfois, lors de l'exécution d'un cahier d'inférence généré pour une expérience AutoAI RAG, vous pouvez obtenir cette erreur :
MissingValue: No "model_limits" provided. Reason: Model <model-nam> limits cannot be found in the model details.
L'erreur indique que les limites des jetons pour déduire le modèle de base utilisé pour l'expérience sont manquantes. Pour résoudre le problème, recherchez la fonction " default_inference_function
et remplacez " get_max_input_tokens
par le nombre maximal de jetons pour le modèle. Par exemple :
model = ModelInference(api_client=client, **params['model"])
# model_max_input_tokens = get+max_input_tokens(model=model, params=params)
model_max_input_tokens = 4096
Vous pouvez trouver la valeur maximale du jeton pour le modèle dans le tableau des modèles de fondation pris en charge disponibles avec watsonx.ai
L'entraînement d'une expérience AutoAI échoue avec les informations d'identification du service
Si vous formez une expérience AutoAI en utilisant la clé API pour le serviceID, formation peut échouer avec cette erreur :
User specified in query parameters does not match user from token.
Une façon de résoudre ce problème est d'exécuter l'expérience avec vos identifiants d'utilisateur. Si vous souhaitez exécuter l'expérience avec des informations d'identification pour le service, suivez ces étapes pour mettre à jour les rôles et les stratégies pour l'identifiant du service.
- Ouvrez votre serviceID sur IBM Cloud.
- Créez un nouvel serviceID ou mettez à jour l'identifiant existant avec la politique d'accès suivante :
- Tous les services de gestion de compte IAM avec les rôles suivants : réviseur de clé API, créateur de clé API d'utilisateur, visualiseur, opérateur et éditeur. L'idéal est de créer un nouvel apikey pour ce ServiceId. '
- La politique mise à jour se présente comme suit :
- Exécutez à nouveau la formation avec les informations d'serviceID mis à jour.
La demande de prédiction pour le modèle de séries temporelles de l AutoAI peut être interrompue si le nombre de nouvelles observations est trop élevé
Une demande de prédiction peut être interrompue pour un modèle de série temporelle AutoAI déployé si le nombre de nouvelles observations transmises est trop élevé. Pour résoudre ce problème, procédez de l'une des manières suivantes :
- Réduire le nombre de nouvelles observations.
- Étendre les données de formation utilisées pour l'expérience en ajoutant de nouvelles observations. Ensuite, relancez l'expérience AutoAI sur les séries temporelles avec les données de formation mises à jour.
Membres de classe insuffisants dans les données d'entraînement pour l'expérimentation AutoAI
Les données d'entraînement d'une expérimentation AutoAI doivent comporter au moins 4 membres pour chaque classe. Si vos données d'entraînement ne contiennent pas un nombre suffisant de membres dans une classe, vous rencontrerez l'erreur suivante:
ERROR: ingesting data Message id: AC10011E. Message: Each class must have at least 4 members. The following classes have too few members: ['T'].
Pour résoudre le problème, mettez à jour les données d'entraînement afin de supprimer la classe ou d'ajouter d'autres membres.
Impossible d'ouvrir les actifs de Cloud Pak for Data qui nécessitent watsonx.ai
Si vous travaillez dans le contexte Cloud Pak for Data, vous ne pouvez pas ouvrir les actifs qui nécessitent un contexte de produit différent, comme watsonx.ai Par exemple, si vous créez une expérience AutoAI pour un modèle RAG à l'aide de watsonx.ai, vous ne pouvez pas ouvrir cette ressource lorsque vous êtes dans le contexte Cloud Pak for Data. Dans le cas des expériences AutoAI, vous pouvez visualiser le type de formation dans la liste des actifs. Vous pouvez ouvrir des expériences avec un type d'apprentissage automatique, mais pas avec un type de génération augmentée par récupération.
Dépannage des déploiements
Suivez ces conseils pour résoudre les problèmes courants que vous pouvez rencontrer lorsque vous travaillez avec les déploiements de watsonx.ai Runtime.
Les déploiements par lots qui utilisent des volumes de données volumineux en tant qu'entrée risquent d'échouer
Si vous évaluez un travail par lots qui utilise de grands volumes de données comme source d'entrée, le travail risque d'échouer en raison de paramètres de délai d'attente internes. Un symptôme de cet incident peut être un message d'erreur similaire à l'exemple suivant:
Incorrect input data: Flight returned internal error, with message: CDICO9999E: Internal error occurred: Snowflake sQL logged error: JDBC driver internal error: Timeout waiting for the download of #chunk49(Total chunks: 186) retry=0.
Si le délai d'attente se produit lorsque vous évaluez votre déploiement par lots, vous devez configurer la limitation du délai d'attente au niveau de la requête de la source de données pour gérer les travaux à exécution longue.
Les informations de délai d'attente de niveau requête pour les sources de données sont les suivantes:
Source de données | Limitation du temps au niveau de la requête | Limite de temps par défaut | Modifier la limite de temps par défaut |
---|---|---|---|
Apache Cassandra | Oui | 10 secondes | Définissez les paramètres 'read_timeout_in_ms et 'write_timeout_in_ms dans le fichier de configuration 'Apache Cassandra ou dans la connexion 'Apache Cassandra 'URL ' pour modifier la limite de temps par défaut. |
Cloud Object Storage | Non | N/A | N/A |
Db2 | Oui | N/A | Définissez le paramètre QueryTimeout pour indiquer la durée (en secondes) pendant laquelle un client attend la fin de l'exécution d'une requête avant de tenter d'annuler l'exécution et de renvoyer le contrôle à l'application. |
Hive via Execution Engine for Hadoop | Oui | 60 minutes (3600 secondes) | Définissez la propriété " hive.session.query.timeout dans l'URL connexion pour modifier la limite de temps par défaut. |
Microsoft SQL Server | Oui | 30 secondes | Définissez l'option de configuration du serveur QUERY_TIMEOUT pour modifier la limite de temps par défaut. |
MongoDB | Oui | 30 secondes | Définissez le paramètre maxTimeMS dans les options de requête pour modifier la limite de temps par défaut. |
MySQL | Oui | 0 secondes (pas de limite de temps par défaut) | Définissez la propriété " timeout dans l'URL connexion ou dans les propriétés du pilote JDBC pour spécifier une limite de temps pour votre requête. |
Oracle | Oui | 30 secondes | Définissez le paramètre QUERY_TIMEOUT dans le pilote Oracle JDBC pour spécifier la durée maximale d'exécution d'une requête avant qu'elle ne soit automatiquement annulée. |
PostgreSQL | Non | N/A | Définissez la propriété queryTimeout pour spécifier la durée maximale d'exécution d'une requête. La valeur par défaut de la propriété queryTimeout est 0 . |
Snowflake | Oui | 6 heures | Définissez le paramètre queryTimeout pour modifier la limite de temps par défaut. |
Pour éviter que vos déploiements par lots échouent, partitionnez votre fichier ou réduisez sa taille.
Sécurité pour les téléchargements de fichiers
Les fichiers que vous téléchargez via l'interface utilisateur de watsonx.ai Studio ou watsonx.ai Runtime ne sont pas validés ou analysés pour détecter des contenus potentiellement malveillants. Il est recommandé d'exécuter un logiciel de sécurité, tel qu'une application antivirus, sur tous les fichiers avant de les télécharger afin d'assurer la sécurité de votre contenu.
Les déploiements avec des spécifications logicielles restreintes échouent après une mise à niveau
Si vous mettez à niveau vers une version plus récente d'IBM Cloud Pak for Data et déployez une ressource applicative R Shiny qui a été créée en utilisant des spécifications logicielles restreintes en mode FIPS, votre déploiement échoue.
Par exemple, les déploiements qui utilisent les spécifications logicielles 'shiny-r3.6
et 'shiny-r4.2
échouent après la mise à niveau d'IBM Cloud Pak for Data version 4.7.0 vers 4.8.4 ou ultérieure. Vous pourriez recevoir le message d'erreurError 502 - Bad Gateway
.
Pour éviter l'échec de votre déploiement, mettez à jour la spécification restreinte de votre actif déployé afin d'utiliser la dernière spécification logicielle. Pour plus d’informations, consultez Gestion des spécifications ou des frameworks logiciels obsolètes. Vous pouvez également supprimer le déploiement de votre application si vous n'en avez plus besoin.
La création d'une tâche pour un flux SPSS Modeler dans un espace de déploiement échoue
Au cours du processus de configuration d'un job batch pour votre flux SPSS Modeler dans un espace de déploiement, le mappage automatique des ressources de données avec leur connexion respective peut échouer.
Pour corriger l'erreur de mappage automatique des ressources de données et des connexions, procédez comme suit :
Cliquez sur Créer pour enregistrer votre progression et quitter la boîte de dialogue Configuration d'un nouveau travail.
Dans votre espace de déploiement, cliquez sur l'onglet Jobs et sélectionnez votre job de flux SPSS Modeler pour consulter les détails de votre job.
Dans la page des détails du travail, cliquez sur l'icône " Editer " pour mettre à jour manuellement le mappage de vos ressources de données et de vos connexions.
Après avoir mis à jour le mappage des ressources de données et des connexions, vous pouvez reprendre le processus de configuration des paramètres de votre travail dans la boîte de dialogue Nouveau travail. Pour plus d'informations, voir Création de tâches de déploiement pour les flux de SPSS Modeler