Traduction non à jour
Planifier le processus de mise en œuvre de votre solution d'apprentissage automatique
créé : "2025-03-26 10:21:08 -0700" title : "Planification du flux de travail pour une solution d'apprentissage automatique" fname : " getting-started\plan-workflow-ml.liquid.md "
Lorsque vous avez une stratégie pour votre solution d'apprentissage automatique, vous pouvez planifier un flux de travail qui contient les tâches que vous devez accomplir.
Le tableau suivant répertorie les tâches de haut niveau que vous pouvez inclure dans votre plan et indique si chaque tâche est obligatoire, recommandée, facultative ou parfois obligatoire, en fonction de vos besoins. Certaines tâches ne sont requises que dans certaines situations, mais sont recommandées dans toutes les situations.
Tâche | Obligatoire ? |
---|---|
Définir un cas d'utilisation de l'IA | Parfois, Recommandé |
Développer des flux de travail de gouvernance | Parfois |
Configurer un projet | Obligatoire |
Préparer les données | Parfois |
Entraînez votre modèle d'apprentissage automatique | Obligatoire |
Évaluer votre modèle d'apprentissage automatique | Parfois, Recommandé |
Déployer votre solution | Obligatoire |
Automatiser les pipelines | Parfois |
Suivi et maintenance de votre solution | Parfois, Recommandé |
Définir un cas d'utilisation de l'IA
Un cas d'utilisation de l'IA consiste en un ensemble de fiches d'information qui contiennent la lignée, l'historique et d'autres informations pertinentes sur le cycle de vie d'un actif de l'IA tel qu'un modèle.
Votre organisation peut exiger que vous suiviez et documentiez votre solution d'IA à des fins de transparence ou de conformité réglementaire. Cependant, les cas d'utilisation de l'IA sont utiles même s'ils ne sont pas nécessaires, car ils fournissent un moyen intégré de suivre les progrès, les décisions et les mesures concernant votre solution.
Pour créer un cas d'utilisation de l'IA, il faut d'abord créer un inventaire, puis un cas d'utilisation. Ajoutez des data scientists, des ingénieurs de données et d'autres utilisateurs impliqués dans la création, le test ou la gestion de votre solution en tant que collaborateurs de cas d'utilisation.
En savoir plus sur la définition d'un cas d'utilisation de l'IA
Développer des flux de travail de gouvernance
Un flux de travail de gouvernance met en œuvre un processus d'examen et d'approbation des cas d'utilisation de l'IA et de l'utilisation des modèles.
Votre organisation peut avoir besoin d'un ou de plusieurs des types de flux de travail de gouvernance suivants :
- Workflows de gouvernance du risque de modèle pour approuver les cas d'utilisation de l'IA, approuver les événements du cycle de vie du modèle de base, exécuter des évaluations du risque ou automatiser le contrôle des performances des modèles.
- Des flux de travail de gestion de la conformité réglementaire pour traiter les alertes publiées par les organismes de réglementation.
- Des flux de travail pour la gestion du risque opérationnel afin de suivre le risque de modèle ainsi que d'autres risques opérationnels dans toute l'entreprise.
Pour mettre en place un flux de travail de gouvernance, vous le configurez dans la console de gouvernance.
En savoir plus sur l'élaboration de flux de travail en matière de gouvernance
Mise en place d'un projet
Un projet est un espace de travail collaboratif où des personnes travaillent avec des modèles et des données pour atteindre un objectif commun.
Vous avez besoin d'un projet pour préparer les données, mener des expériences et construire des modèles d'apprentissage automatique.
Un projet de solution d'apprentissage automatique contient généralement les types d'éléments suivants, qui sont soit explicitement ajoutés par les scientifiques des données ou les ingénieurs en IA, soit créés à l'issue d'un processus :
- Les actifs de connexion aux sources de données, comme l'endroit où vous stockez les données de formation.
- Actifs de données qui représentent des ensembles de données pour la formation de modèles.
- Carnets de notes que vous créez ou qui sont générés par des processus tels que l'exécution d'une expérience sur le site AutoAI.
- Expérimentez et diffusez les ressources que vous créez à partir d'outils en cours d'exécution, tels que AutoAI, SPSS Modeler, ou Decision Optimization.
- Emplois créés par l'exécution d'actifs dans des outils.
Vous disposez d'un projet sandbox créé automatiquement. Cependant, vous pourriez vouloir créer un projet dont le nom reflète votre objectif. Vous pouvez créer un projet à partir de la page d'accueil ou du menu de navigation. Ajoutez toutes les personnes que vous souhaitez voir travailler sur la solution. Vous attribuez un rôle à chaque collaborateur pour contrôler ses autorisations dans le projet.
En savoir plus sur la création de projets
Préparation de vos données
La préparation des données consiste à fournir un accès aux données requises dans le format et au niveau de qualité dont votre solution a besoin.
Vous devez fournir les données d'entraînement pour votre modèle d'apprentissage automatique. Vos données d'apprentissage doivent comprendre des données étiquetées pour que la colonne puisse prédire ou classer avec un algorithme d'apprentissage automatique. Vous pouvez également fournir des ensembles de données non étiquetés ou des ensembles de données de backtest. Il se peut que vous deviez nettoyer ou façonner vos données pour les préparer à l'analyse et à l'apprentissage de modèles.
Vous pouvez fournir des données de formation de la manière suivante :
- Télécharger un fichier à partir de votre système local
- Connexion à la source de données qui contient l'ensemble de données
Vous pouvez préparer vos données à l'aide d'outils de préparation des données, puis les utiliser dans d'autres outils tels que AutoAI ou des carnets de notes :
- Téléchargez vos fichiers de données ou connectez-vous aux tables de vos sources de données.
- Nettoyez, mettez en forme et visualisez vos données avec Data Refinery.
- Générer des données tabulaires synthétiques basées sur des données de production ou un schéma de données personnalisé avec Synthetic Data Generator.
Vous pouvez préparer vos données à l'aide du même outil que celui utilisé pour former le modèle d'apprentissage automatique :
- Nettoyez, transformez, réduisez, intégrez et validez vos données sur SPSS Modeler.
- Appeler des bibliothèques open source et IBM préinstallées ou installer et appeler des bibliothèques personnalisées dans les carnets.
En savoir plus sur la préparation des données
Entraînez votre modèle d'apprentissage automatique
Un modèle d'apprentissage automatique est formé sur un ensemble de données afin de développer des algorithmes qu'il peut utiliser pour analyser et apprendre à partir de nouvelles données.
Vous pouvez expérimenter l'entraînement de votre modèle d'apprentissage automatique en modifiant les conditions de la manière suivante :
- Tester différents algorithmes pour les adapter au mieux à vos données
- Sélection et mise à l'échelle des caractéristiques pour représenter au mieux le problème
- Ajuster les paramètres de l'hyperparamètre pour optimiser les performances et la précision
Pour construire un modèle d'apprentissage automatique, vous pouvez expérimenter le code Python dans des carnets de notes. Pour automatiser la recherche des algorithmes, des transformations et des paramètres permettant de créer le meilleur modèle prédictif, lancez une expérience Auto AI pour l'apprentissage automatique. Pour explorer vos données, modéliser les résultats, essayer différents modèles et étudier les relations afin de trouver des informations utiles, construisez un flux SPSS Modeler. Pour résoudre un problème d'optimisation, il faut construire un modèle Decision Optimization.
En savoir plus sur la formation de modèles d'apprentissage automatique
Évaluer vos actifs d'apprentissage automatique
L'évaluation d'un modèle d'apprentissage automatique permet de tester la qualité des résultats du modèle pour l'ensemble des paramètres choisis. Certaines mesures sont basées sur la comparaison des résultats du modèle avec les résultats appropriés que vous fournissez dans l'ensemble de données de test. L'efficacité avec laquelle votre modèle génère des réponses est également évaluée.
Votre organisation peut avoir besoin d'évaluations pour des raisons de conformité réglementaire ou de politiques internes. Cependant, les évaluations sont utiles même lorsqu'elles ne sont pas requises, car les scores des métriques peuvent indiquer la qualité de votre solution et peuvent prédire une baisse de la satisfaction de l'utilisateur lorsque les scores chutent.
Lorsque vous évaluez un actif d'IA, vous pouvez configurer les facteurs suivants :
- La taille de l'échantillon à tester
- Quels sont les indicateurs à inclure?
- La valeur seuil pour chaque métrique
Les métriques générales fournissent les types d'informations suivants sur le modèle d'apprentissage automatique :
- Les performances du modèle par rapport à un ensemble de tests étiquetés.
- Si le modèle produit des résultats biaisés.
- Changements dans la précision et les données.
- L'efficacité avec laquelle le modèle traite les transactions.
Vous visualisez les résultats actuels et les résultats dans le temps. Les résultats de chaque évaluation sont ajoutés au cas d'utilisation de l'invite.
Pour évaluer un modèle d'apprentissage automatique, ouvrez le tableau de bord Insights à partir de Watson OpenScale. Si vous exécutez une expérience d'apprentissage automatique sur AutoAI, les modèles candidats sont évalués et classés automatiquement.
En savoir plus sur l'évaluation des actifs d'apprentissage automatique
Déployer votre solution
Le déploiement d'un actif le rend disponible pour des tests ou pour une utilisation productive par un point d'extrémité. Après avoir créé des déploiements, vous pouvez les tester et les gérer, et préparer vos ressources à être déployées dans des environnements de pré-production et de production.
Vous créez des déploiements dans des espaces de déploiement, qui sont des espaces de travail distincts des projets et auxquels vous pouvez ajouter un ensemble différent de collaborateurs.
Pour déployer des ressources de modèle d'apprentissage automatique, vous devez promouvoir la ressource dans un espace de déploiement et créer un déploiement contenant un point d'extrémité. Vous pouvez ensuite appeler le point de terminaison à partir de votre application. Vous pouvez créer des espaces de déploiement distincts pour les tests, la mise en place et les déploiements de production afin de prendre en charge votre flux de travail ModelOps.
En savoir plus sur le déploiement d'actifs d'IA
Automatiser les pipelines d'apprentissage automatique
Après avoir formé et déployé votre modèle d'apprentissage automatique, vous pouvez automatiser le processus de formation, de déploiement et d'évaluation du modèle. Vous pouvez comparer les résultats de plusieurs modèles d'apprentissage automatique pour déterminer le meilleur. Vous pouvez configurer la notation automatisée par lots à l'échelle.
Vous pouvez configurer un pipeline pour qu'il effectue les tâches suivantes :
- Ajouter des actifs à votre pipeline ou exporter des actifs du pipeline
- Créer ou supprimer des biens, des déploiements ou des espaces de déploiement
- Ajouter la gestion des erreurs et la logique, comme les boucles
- Définir des variables utilisateur
- Remplacer ou mettre à jour les actifs pour améliorer les performances
- Exécuter une tâche pour former une expérience, exécuter un script ou un flux de données
- Spécifier les conditions d'exécution du flux
- Exécuter un script que vous avez écrit
Pour concevoir une canalisation, faites glisser des nœuds dans le canevas de l'éditeur de canalisations, spécifiez des objets et des paramètres, puis exécutez et contrôlez la canalisation.
En savoir plus sur les pipelines d'apprentissage automatique
Suivi et maintenance de votre solution
Après avoir intégré votre solution dans votre application et l'avoir mise en production, vous devez assurer la maintenance de votre solution. Vous pouvez également contrôler les performances du modèle. La maintenance de votre solution peut inclure le recyclage de votre modèle d'apprentissage automatique avec des données récentes. Le suivi de votre solution permet d'évaluer les performances du modèle dans votre environnement de production.
Votre organisation peut vous demander de surveiller votre solution et de veiller à ce que les performances ne tombent pas en dessous des seuils spécifiés.
Pour surveiller votre solution, ouvrez le déploiement de votre solution dans l'espace de déploiement et activez les évaluations. Vous pouvez utiliser le point de terminaison de journalisation des données utiles pour envoyer des demandes de notation pour les évaluations de l'équité et de la dérive et utiliser le point de terminaison de journalisation du retour d'information pour fournir des données de retour d'information pour les évaluations de la qualité.
En savoir plus sur le suivi et la maintenance de votre solution
Sujet parent : Planifier une solution d'IA générative