Ridurre la lunghezza della stringa di dati di ingresso
Ultimo aggiornamento: 11 feb 2025
Ridurre la lunghezza della stringa di dati di ingresso
Questa esercitazione fornisce un esempio di quando potrebbe essere necessario ridurre la lunghezza della stringa dei dati di input. Per i modelli di regressione logistica binomiale e classificatore
automatico che includono un modello di regressione logistica binomiale, i campi
stringa sono limitati a un numero massimo di otto caratteri. Quando le stringhe superano gli otto caratteri, è possibile ricodificarle utilizzando il nodo Riclassifica.
Questo esempio si concentra su una piccola parte di un flusso per mostrare il tipo di errori che potrebbero essere generati con stringhe troppo lunghe e spiega come utilizzare il nodo Riclassifica per modificare i dettagli della stringa in una lunghezza accettabile. Sebbene l'esempio utilizzi un nodo di regressione logistica binomiale, è possibile utilizzare anche il nodo Auto Classifier per generare un modello di regressione logistica binomiale.
Anteprima del tutorial
Guardate questo video per vedere in anteprima i passaggi di questa esercitazione. L'interfaccia utente mostrata nel video potrebbe presentare lievi differenze. Il video è destinato ad accompagnare l'esercitazione scritta. Questo video fornisce un metodo visivo per apprendere i concetti e le attività di questa documentazione.
Prova il tutorial
In questa esercitazione, completerete questi compiti:
Questa esercitazione utilizza il flusso Riduzione della lunghezza della stringa dei dati di input nel progetto di esempio. Il file di dati utilizzato è drug_long_name.csv. L'immagine seguente mostra il flusso del modellatore di esempio.
Figura 1. Flusso del modellatore di campioni
L'immagine seguente mostra il set di dati di esempio.Figura 2. Dataset di esempio
Compito 1: Aprire il progetto di esempio
Il progetto campione contiene diversi set di dati e flussi di modellazione di esempio. Se non si dispone già del progetto di esempio, consultare l'argomento Tutorial per creare il progetto di esempio. Seguite quindi i passaggi seguenti per aprire il progetto campione:
In Cloud Pak for Data, dal menu di navigazione, scegliere Progetti > Visualizza tutti i progetti.
Fare clic su ProgettoSPSS Modeler.
Fare clic sulla scheda Assets per visualizzare i set di dati e i flussi del modellatore.
Controllare i propri progressi
L'immagine seguente mostra la scheda Assets del progetto. Ora si è pronti a lavorare con il flusso del modellatore di esempio associato a questa esercitazione.
La riduzione della lunghezza della stringa di dati di ingresso comprende diversi nodi. Seguire i seguenti passaggi per esaminare i nodi 'Asset di dati e 'Tipo:
Dalla scheda Assets, aprire il flusso del modellatore Reducing Input Data String Length e attendere il caricamento dell'area di disegno.
Fare doppio clic sul nodo drug_long_name.csv. Questo nodo è una risorsa dati che punta al file drug_long_name.csv nel progetto.
Esaminare il 'Proprietà del formato del file.
Facoltativo: Fare clic su Anteprima dati per visualizzare l'intero set di dati.
Fare doppio clic sul nodo Tipo dopo il nodo Asset di dati. Questo nodo specifica le proprietà dei campi, come il livello di misurazione (il tipo di dati che il campo contiene) e il ruolo di ciascun campo come target o input nella modellazione. Il livello di
misurazione è una categoria che indica il tipo di dati all'interno del campo. Il file di dati di origine utilizza tre diversi livelli di misurazione:
Un campo continuo (come il campo " Age ) contiene valori numerici continui.
Un campo nominale (come il campo " Drug ) ha due o più valori distinti; in questo caso, " drugA o " drugB.
Un campo Flag (come il campo " Sex ) descrive dati con più valori distinti che hanno un ordine intrinseco; in questo caso, " F e " M.
Figura 3. Proprietà del nodo tipo
Per ogni campo, il nodo Tipo specifica anche un ruolo per indicare il ruolo che ogni campo svolge nella modellazione. Il ruolo è impostato su Target per il campo 'Cholesterol_long, che indica se un cliente ha un livello di colesterolo normale o alto. Il target è il campo per il quale si vuole prevedere il valore.
Il ruolo è impostato su Input per gli altri campi. In alcuni casi, i campi di input sono noti come
predittori, o campi i cui valori sono utilizzati
dall'algoritmo di modellazione per prevedere il valore del campo obiettivo.
Facoltativo: Fare clic su Anteprima dati per visualizzare il set di dati filtrati.
Controllare i propri progressi
L'immagine seguente mostra il nodo Tipo. Ora si è pronti a visualizzare il nodo Logistica.
In questa attività, si esegue il modello e si scopre un errore:
Dalla sezione Modellazione della palette, trascinare il nodo Logistica sull'area di disegno e collegarlo al nodo Tipo esistente dopo il nodo Asset di dati.
Fare doppio clic sul nodo Colesterolo_lungo per visualizzarne le proprietà.
Selezionare la procedura binomiale (invece della procedura multinomiale predefinita).
Si utilizza un modello binomiale quando il campo target è un campo flag o nominale con due valori discreti.
Un modello multinomiale viene utilizzato quando il campo target è un campo nominale con più di due valori.
Fare clic su Salva.
Passare il mouse sul nodo Colesterolo_lungo e fare clic sull'icona Esegui. Viene visualizzato un messaggio di errore che indica che i valori della stringa
Cholesterol_long sono troppo lunghi. È possibile utilizzare un nodo Reclassify per trasformare i valori e risolvere il problema. Il nodo Riclassifica è utile per il collasso delle categorie o il raggruppamento dei dati per l'analisi.
Figura 4. Notifiche
Fare doppio clic sul nodo Colesterolo (riclassificazione) per visualizzarne le proprietà. Si noti che il campo Riclassifica è impostato su 'Cholesterol_long e il nome del nuovo campo è 'Cholesterol.
Fare clic su Ottieni valori ed espandere la sezione Riclassificazione automatica. Aggiungere i valori di 'Cholesterol_long alla colonna dei valori originali.
Nella colonna dei nuovi valori, per il valore originale del livello alto di colesterolo, digitare " High e per il valore originale del livello normale di colesterolo, digitare " Normal. Queste impostazioni abbreviano i valori per evitare il messaggio di errore.
Controllare i propri progressi
L'immagine seguente mostra il nodo Riclassifica. Ora si è pronti a controllare il nodo Filtro.
È possibile specificare le proprietà dei campi in un nodo Tipo. Procedere come segue per definire la destinazione nel nodo Tipo:
Fare doppio clic sul nodo Tipo dopo il nodo Filtro per visualizzarne le proprietà.
Fare clic su Leggi valori per leggere i valori dall'origine dati e impostare i tipi di misurazione del campo. Il Ruolo indica ai nodi di modellazione se i campi sono Input (campi predittivi) o Target (campi predetti) per un processo di apprendimento automatico. Sono disponibili anche i ruoli Entrambi e Nessuno, oltre a Partizione, che indica un campo utilizzato per suddividere i record in campioni separati per la formazione, il test e la convalida. Il valore Split specifica che vengono costruiti modelli separati per ogni possibile valore del campo.
Per il campo Colesterolo, impostare il ruolo su Target.
Fare clic su Salva.
Controllare i propri progressi
L'immagine seguente mostra il nodo Tipo. Ora si è pronti a generare il modello.
Questo esempio ha mostrato il tipo di errori che possono essere generati con stringhe troppo lunghe e spiega come utilizzare il nodo Riclassifica per modificare i dettagli della stringa in una lunghezza accettabile. Sebbene l'esempio utilizzi un nodo di regressione logistica binomiale, è ugualmente applicabile quando si utilizza il nodo Auto Classifier per generare un modello di regressione logistica binomiale.
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Tasks you'll do
Some tasks have a choice of tools and services.
Tools you'll use
Some tools perform the same tasks but have different features and levels of automation.
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Automate the model lifecycle, including preparing data, training models, and creating deployments.
Work with R notebooks and scripts in an integrated development environment.
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deploy and run your data science and AI solutions in a test or production environment.
Find and share your data and other assets.
Import asset metadata from a connection into a project or a catalog.
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Measure and monitor the quality of your data.
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Create your business vocabulary to enrich assets and rules to protect data.
Track data movement and usage for transparency and determining data accuracy.
Track AI models from request to production.
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Create a virtual table to segment or combine data from one or more tables.
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
Discover, profile, catalog, and share trusted data in your organization.
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
View, access, manipulate, and analyze your data without moving it.
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Where you work with data.
> Projects > View all projects
Where you find and share assets.
> Catalogs > View all catalogs
Where you deploy and run assets that are ready for testing or production.
> Deployments
Where you manage governance artifacts.
> Governance > Categories
Where you virtualize data.
> Data > Data virtualization
Where you consolidate data into a 360 degree view.
Informazioni sui cookie del presente sitoPer il corretto funzionamento, i nostri siti Web richiedono alcuni cookie (richiesto). Inoltre, con il suo consenso, potrebbero essere utilizzati altri cookie per l'analisi dell'utilizzo del sito, per migliorare l'esperienza utente e per scopi pubblicitari.Per ulteriori informazioni, consultare le. Visitando il nostro sito web, accettate il trattamento delle informazioni da parte nostra come descritto nelladichiarazione sulla privacy di IBM.Per consentire una corretta navigazione, le preferenze per i cookie dell'utente verranno condivise sui domini Web IBM qui elencati.