Réduire la longueur de la chaîne de données d'entrée
Dernière mise à jour : 11 févr. 2025
Réduire la longueur de la chaîne de données d'entrée
Ce tutoriel donne un exemple de cas où il peut être nécessaire de réduire la longueur de la chaîne de données d'entrée. Pour les modèles de régression logistique et de Discriminant automatique qui incluent un modèle de régression logistique binomiale, les champs de type chaîne sont limités à 8 caractères maximum. Lorsque les chaînes comportent plus de huit caractères, vous pouvez les recoder à l'aide d'un nœud Reclassification.
Cet exemple se concentre sur une petite partie d'un flux pour montrer le type d'erreurs qui peuvent être générées avec des chaînes trop longues, et explique comment utiliser le nœud Reclassify pour modifier les détails de la chaîne à une longueur acceptable. Bien que l'exemple utilise un nœud de régression logistique binomiale, vous pouvez également utiliser le nœud Auto Classifier pour générer un modèle de régression logistique binomiale.
Aperçu du tutoriel
Regardez cette vidéo pour prévisualiser les étapes de ce tutoriel. Il peut y avoir de légères différences dans l'interface utilisateur présentée dans la vidéo. La vidéo est destinée à accompagner le tutoriel écrit. Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Essayez le tutoriel
Dans ce tutoriel, vous exécutez les tâches suivantes :
Exemple de flux de modélisateurs et d'ensembles de données
Ce tutoriel utilise le flux de réduction de la longueur de la chaîne des données d'entrée dans le projet d'exemple. Le fichier de données utilisé est drug_long_name.csv L'image suivante montre un exemple de flux de modélisation.
Figure 1 : Flux du modeleur d'échantillon
L'image suivante montre l'échantillon de données.Figure 2. Exemple de données
Tâche 1 : Ouvrir le projet d'exemple
L'exemple de projet contient plusieurs ensembles de données et des exemples de flux de modélisation. Si vous n'avez pas encore le projet exemple, reportez-vous à la rubrique Tutoriels pour créer le projet exemple. Suivez ensuite les étapes suivantes pour ouvrir l'exemple de projet :
Dans le menu de navigation , choisissez Projets > Afficher tous les projets Cloud Pak for Data dans le menu de navigation, choisissez Projets > Voir tous les projets.
Cliquez sur SPSS Modeler Project.
Cliquez sur l'onglet Actifs pour voir les ensembles de données et les flux du modélisateur.
Vérifiez vos progrès
L'image suivante montre l'onglet Actifs du projet. Vous êtes maintenant prêt à travailler avec l'exemple de flux du modeleur associé à ce tutoriel.
Tâche 2 : Examiner le nœud Actif et Type de données
Réduire les données d'entrée La longueur de la chaîne de caractères comprend plusieurs nœuds. Suivez les étapes suivantes pour examiner le nœud Data Asset and Type:
Dans l'onglet Actifs, ouvrez le flux du modeleur Réduire la longueur de la chaîne de données d'entrée et attendez que le canevas se charge.
Double-cliquez sur le nœud drug_long_name.csv. Ce nœud est un nœud de ressources de données qui pointe vers le fichier drug_long_name.csv du projet.
Examinez les propriétés du format de fichier.
Facultatif : cliquez sur "Aperçu des données" pour voir l'ensemble des données : Cliquez sur Aperçu des données pour voir l'ensemble des données.
Double-cliquez sur le nœud Type après le nœud Data Asset. Ce nœud spécifie les propriétés des champs, telles que le niveau de mesure (le type de données que le champ contient), et le rôle de chaque champ en tant que cible ou entrée dans la modélisation. Le niveau de mesure est une catégorie qui indique le type de données du champ. Le fichier de données source utilise trois niveaux de mesure différents :
Un champ continu (tel que le champ " Age ) contient des valeurs numériques continues.
Un champ nominal (tel que le champ " Drug ) a deux ou plusieurs valeurs distinctes ; dans ce cas, " drugA ou " drugB.
Un champ indicateur (tel que le champ " Sex ) décrit des données comportant plusieurs valeurs distinctes ayant un ordre inhérent ; dans ce cas, " F et " M.
Figure 3 Propriétés du noeud type
Pour chaque champ, le nœud Type spécifie également un rôle pour indiquer le rôle que joue chaque champ dans la modélisation. Le rôle est défini sur Cible pour le champ " Cholesterol_long, qui indique si un client a un taux de cholestérol normal ou élevé. La cible est le champ pour lequel vous souhaitez prédire la valeur.
Pour les autres champs, le rôle est défini sur Entrée. Les champs d'entrée sont quelquefois désignés sous le nom de prédicteurs, ou champs dont les valeurs sont utilisées par l'algorithme de modélisation pour prédire la valeur du champ cible.
Facultatif : Cliquez sur Aperçu des données pour voir l'ensemble des données filtrées.
Vérifiez vos progrès
L'image suivante montre le nœud Type. Vous êtes maintenant prêt à visualiser le nœud logistique.
Dans cette tâche, vous exécutez le modèle et découvrez une erreur. Suivez ces étapes pour reclasser les valeurs afin d'éviter l'erreur :
Dans la section Modélisation de la palette, faites glisser le nœud Logistique sur le canevas et reliez-le au nœud Type existant après le nœud Data Asset.
Double-cliquez sur le nœud Cholesterol_long pour afficher ses propriétés.
Sélectionnez la procédure binomiale (au lieu de la procédure multinomiale par défaut).
Un modèle binomial est utilisé lorsque le champ cible est un drapeau ou un champ nominal avec deux valeurs discrètes.
Un modèle multinomial est utilisé lorsque le champ cible est un champ nominal comportant plus de deux valeurs.
Cliquez sur Sauvegarder.
Survolez le nœud Cholesterol_long et cliquez sur l'icône Run (Exécuter). Un message d'erreur vous avertit que les valeurs (chaînes) du champ Cholesterol_long sont trop longues. Vous pouvez utiliser un nœud Reclassifier pour transformer les valeurs afin de résoudre ce problème. Le nœud Reclassifier est utile pour regrouper des catégories ou des données à des fins d'analyse.
Figure 4 Notifications
Double-cliquez sur le nœud Cholestérol (Reclassification) pour afficher ses propriétés. Remarquez que le champ Reclassification est défini sur " Cholesterol_long et que le nom du nouveau champ est " Cholesterol.
Cliquez sur Obtenir des valeurs, puis développez la section Reclasser automatiquement. Ajoutez les valeurs " Cholesterol_long à la colonne des valeurs d'origine.
Dans la colonne des nouvelles valeurs, pour la valeur originale du taux élevé de cholestérol, tapez " High et pour la valeur originale du taux normal de cholestérol, tapez " Normal". Ces paramètres raccourcissent les valeurs pour éviter le message d'erreur.
Vérifiez vos progrès
L'image suivante montre le nœud Reclassifier. Vous êtes maintenant prêt à vérifier le nœud Filtre.
Vous pouvez spécifier les propriétés d'un champ dans un nœud de type. Suivez les étapes suivantes pour définir la cible dans le nœud Type :
Double-cliquez sur le nœud Type après le nœud Filtre pour afficher ses propriétés.
Cliquez sur Lire les valeurs pour lire les valeurs de votre source de données et définir les types de mesure des champs. Le rôle indique aux nœuds de modélisation si les champs sont des entrées (champs prédicteurs) ou des cibles (champs prédits) pour un processus d'apprentissage automatique. Les rôles Both et None sont également disponibles, ainsi que Partition, qui indique un champ utilisé pour diviser les enregistrements en échantillons distincts à des fins de formation, de test et de validation. La valeur Split spécifie que des modèles distincts sont construits pour chaque valeur possible du champ.
Pour le champ Cholestérol, définissez le rôle sur Cible.
Cliquez sur Sauvegarder.
Vérifiez vos progrès
L'image suivante montre le nœud Type. Vous êtes maintenant prêt à générer le modèle.
Cet exemple vous a montré le type d'erreurs qui peuvent être générées avec des chaînes trop longues, et explique comment utiliser le nœud Reclassify pour modifier les détails de la chaîne à une longueur acceptable. Bien que l'exemple utilise un nœud de régression logistique binomiale, il s'applique également à l'utilisation du nœud Auto Classifier pour générer un modèle de régression logistique binomiale.
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Tasks you'll do
Some tasks have a choice of tools and services.
Tools you'll use
Some tools perform the same tasks but have different features and levels of automation.
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Automate the model lifecycle, including preparing data, training models, and creating deployments.
Work with R notebooks and scripts in an integrated development environment.
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deploy and run your data science and AI solutions in a test or production environment.
Find and share your data and other assets.
Import asset metadata from a connection into a project or a catalog.
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Measure and monitor the quality of your data.
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Create your business vocabulary to enrich assets and rules to protect data.
Track data movement and usage for transparency and determining data accuracy.
Track AI models from request to production.
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Create a virtual table to segment or combine data from one or more tables.
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
Discover, profile, catalog, and share trusted data in your organization.
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
View, access, manipulate, and analyze your data without moving it.
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Where you work with data.
> Projects > View all projects
Where you find and share assets.
> Catalogs > View all catalogs
Where you deploy and run assets that are ready for testing or production.
> Deployments
Where you manage governance artifacts.
> Governance > Categories
Where you virtualize data.
> Data > Data virtualization
Where you consolidate data into a 360 degree view.
À propos des cookies sur ce sitePour fonctionner correctement, nos sites Internet nécessitent certains cookies (requis). En outre, d'autres cookies peuvent être utilisés avec votre consentement pour analyser l'utilisation d'un site, améliorer l'expérience des utilisateurs et à des fins publicitaires.Pour plus informations, passez en revue vos options de préférences en. En visitant notre site Web, vous acceptez que nous traitions les informations comme décrit dans ladéclaration de confidentialité d’IBM.Pour faciliter la navigation, vos préférences en matière de cookie seront partagées dans les domaines Web d'IBM énumérés ici.