Sie können den Datenassetknoten verwenden, um Daten aus fernen Datenquellen zu extrahieren, die Verbindungen verwenden, oder von Ihrem lokalen Computer. Zuerst müssen Sie die Verbindung erstellen.
Hinweis: Für Verbindungen zu einer Planning Analytics-Datenbank müssen Sie eine Ansicht (und keinen Cube) auswählen.
Sie können auch Daten aus einer lokalen Datendatei extrahieren (.csv, .txt, .json, .xls, .xlsx, .savund .saswerden unterstützt). Aus Arbeitsblättern wird nur das erste Blatt importiert. Wählen Sie in den Eigenschaften des Knotens unter DATEN eine oder mehrere Datendateien für den Upload aus. Sie können die Datendatei auch aus Ihrem lokalen Dateisystem in Ihren Erstellungsbereich ziehen und dort ablegen.
Hinweis: Sie können einen Stream (.str) in " watsonx.ai Studio importieren, der in SPSS Modeler Subscription oder SPSS Modeler Client erstellt wurde. Wenn der importierte Stream mindestens einen Import-bzw. Exportknoten enthält, werden Sie aufgefordert, die Knoten zu konvertieren. Siehe Importieren eines SPSS Modeler.
Datenformatoptionen festlegen
In verschiedenen Ländern werden unterschiedliche Symbole verwendet, um den ganzzahligen Teil einer Zahl vom gebrochenen Teil zu trennen. Einige Länder verwenden zum Beispiel ein Komma (4,5) anstelle eines Punktes (4.5). Und die Länder verwenden manchmal unterschiedliche Symbole, um Felder in Daten zu trennen. Sie können zum Beispiel Doppelpunkte oder Tabulatoren verwenden, anstatt die Felder durch Kommas zu trennen. Sie können angeben, welche dieser Symbole verwendet werden sollen. Doppelklicken Sie auf den Knoten, um seine Eigenschaften zu öffnen und Datenformate anzugeben.Abb. 1. Optionen für Feldtrennzeichen und Dezimalzeichen
Datenstruktur ableiten
SPSS Modeler verarbeitet eine Stichprobe der Datensätze in den Daten, um die Struktur der Daten und die Datentypen abzuleiten. Passen Sie die Anzahl für Infer record count an, wenn die ersten 1000 Datensätze keine gute Stichprobe für die Anzahl der Datensätze sind, die Sie haben. Manchmal kann SPSS Modeler falsche Schlussfolgerungen zur Struktur der Daten ziehen. Weitere Informationen finden Sie unter Fehlerbehebung für SPSS Modeler.
Daten aus einer SPSS Statistics-Datei importieren
Wenn Sie Daten aus einer SPSS Statistics-Datei (.sav) importieren, sind die folgenden Optionen verfügbar:
Variablennamen. Wählen Sie eine Methode für die Handhabung von Variablennamen und -beschriftungen beim Import aus einer SPSS Statistics .sav-Datei aus. Metadaten, die Sie hier aufnehmen möchten, bleiben während Ihrer gesamten Arbeit inSPSS Modeler erhalten und können zur Verwendung in IBM SPSS Statisticserneut exportiert werden.
Namen und Beschriftungen lesen. Wählen Sie diese Option aus, um sowohl Variablennamen als auch Beschriftungen in SPSS Modelereinzulesen. Diese Option ist standardmäßig aktiviert und Variablennamen werden im Typknoten angezeigt. Bezeichnungen werden in Diagrammen, Modellbrowsern und anderen Ausgabetypen angezeigt. Standardmäßig ist die Anzeige von Beschriftungen in der Ausgabe inaktiviert.
Beschriftungen als Namen lesen. Wählen Sie diese Option aus, um die beschreibenden Variablenbeschriftungen aus der Datei SPSS Statistics .sav anstelle der kurzen Feldnamen zu lesen, und verwenden Sie diese Beschriftungen als Variablennamen in SPSS Modeler.
Werte. Wählen Sie eine Methode für die Handhabung von Werten und Beschriftungen beim Import aus einer SPSS Statistics .sav-Datei aus. Metadaten, die Sie hier einschließen, bleiben während Ihrer gesamten Arbeit in SPSS Modeler erhalten und können zur Verwendung in SPSS Statisticserneut exportiert werden.
Daten und Beschriftungen lesen. Wählen Sie diese Option aus, um sowohl tatsächliche Werte als auch Wertbeschriftungen in SPSS Modelereinzulesen. Diese Option ist standardmäßig aktiviert und die Werte selbst werden im Typknoten angezeigt. Wertbeschriftungen werden in Expression Builder, Diagrammen, Modellbrowsern und anderen Ausgabetypen angezeigt.
Beschriftungen als Daten lesen. Wählen Sie diese Option aus, wenn Sie anstelle der numerischen oder symbolischen Codes, die zur Darstellung der Werte verwendet werden, die Wertbeschriftungen aus der Datei .sav verwenden möchten. Wenn Sie diese Option beispielsweise für Daten mit einem Geschlechtsfeld auswählen, dessen Werte 1 und 2männlich und weiblichdarstellen, wird das Feld in eine Zeichenfolge konvertiert und male und female werden als tatsächliche Werte importiert.
Es ist wichtig, fehlende Werte in Ihren SPSS Statistics -Daten zu berücksichtigen, bevor Sie diese Option auswählen. Wenn ein numerisches Feld beispielsweise Beschriftungen nur für fehlende Werte verwendet (0 = Keine Antwort, –99 = Unbekannt), werden bei Auswahl der Option Beschriftungen als Daten lesen nur die Wertbeschriftungen Keine Antwort und Unbekannt importiert und in eine Zeichenfolge konvertiert. In diesem Fall sollten Sie die Werte selbst importieren und fehlende Werte in einem Typknoten festlegen.
Speichertyp anhand Feldformatinformationen bestimmen. Wenn Sie diese Option abwählen, werden Feldwerte, die in der Datei .sav als ganze Zahlen formatiert sind (z. B. Felder, die als Fn.0 in der Variablenansicht in IBM SPSS Statisticsangegeben sind), mithilfe eines Ganzzahlspeichers importiert. Alle übrigen Feldwerte mit Ausnahme von Zeichenfolgen werden als reelle Zahlen importiert.
Wenn Sie diese Option auswählen (Standardeinstellung), werden alle Feldwerte außer Zeichenfolgen als reelle Zahlen importiert, unabhängig davon, ob sie in der Datei .savals ganze Zahlen formatiert sind oder nicht.
Zeitmarke als Datum lesen. Standardmäßig werden alle Zeitmarkenwerte als Datumsangaben angezeigt. Nehmen Sie die Auswahl dieser Option zurück, um dieses Verhalten zu überschreiben.
Daten mit SQL aufnehmen
In den Eigenschaften des Data Asset-Importknotens können Sie unter Modus die Option SQL-Abfrage auswählen, wenn Sie Daten unter Verwendung einer angepassten SQL-Abfrage aus einer Datenbank importieren wollen. Verwenden Sie eine SQL-Anweisung SELECT , um Zeilen oder Spalten von Daten aus einer Datenbank zu extrahieren. Das Feld Quellenpfad gilt nicht, wenn Sie den Modus SQL Query verwenden.Abbildung 2: Angepasste SQL-Abfrage
Das folgende Beispiel nimmt bestimmte Datenzeilen aus einer Datenbanktabelle auf:
select * from GOSALES.ORDER_DETAILS
where UNIT_COST > 40,000 LIMIT 4
Das nächste Beispiel nimmt bestimmte Datenspalten aus einer Datenbanktabelle auf:
select QUANTITY, UNIT_COST, UNIT_PRICE from GOSALES.ORDER_DETAILS
Die SQL-Syntax, die Sie verwenden, kann je nach Datenbankplattform variieren. Wenn Sie beispielsweise Daten aus einer Informix -Datenbank extrahieren, müssen Feldnamen in Informix in Anführungszeichen eingeschlossen werden. Beispiel:
select "Age", "Sex" from testuser.canvas_drug
Diese SQL-Funktion sollte nur zum Aufnehmen von Daten verwendet werden. Gehen Sie umsichtig vor, damit die Daten nicht in Ihrer Datenbank bearbeitet werden.
Diese Funktion für angepasste SQL-Abfragen wird gegenwärtig von den folgenden Datenbanken unterstützt:
Amazon Redshift
Apache Hive
Apache Impala
Compose for PostgreSQL
Db2 on Cloud
Db2 Warehouse
Google BigQuery
Informix
Microsoft SQL Server
MySQL
Netezza
Oracle
Pivotal Greenplum
Salesforce.com
Snowflake
SAP ASE
SAP IQ
Teradata
War das Thema hilfreich?
0/1000
Focus sentinel
Focus sentinel
Focus sentinel
Focus sentinel
Focus sentinel
Cloud Pak for Data relationship map
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Tasks you'll do
Some tasks have a choice of tools and services.
Tools you'll use
Some tools perform the same tasks but have different features and levels of automation.
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Automate the model lifecycle, including preparing data, training models, and creating deployments.
Work with R notebooks and scripts in an integrated development environment.
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deploy and run your data science and AI solutions in a test or production environment.
Find and share your data and other assets.
Import asset metadata from a connection into a project or a catalog.
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Measure and monitor the quality of your data.
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Create your business vocabulary to enrich assets and rules to protect data.
Track data movement and usage for transparency and determining data accuracy.
Track AI models from request to production.
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Create a virtual table to segment or combine data from one or more tables.
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
Discover, profile, catalog, and share trusted data in your organization.
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
View, access, manipulate, and analyze your data without moving it.
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Where you work with data.
> Projects > View all projects
Where you find and share assets.
> Catalogs > View all catalogs
Where you deploy and run assets that are ready for testing or production.
> Deployments
Where you manage governance artifacts.
> Governance > Categories
Where you virtualize data.
> Data > Data virtualization
Where you consolidate data into a 360 degree view.
Über den Einsatz von Cookies auf dieser WebsiteUnsere Websites benötigen einige Cookies, um ordnungsgemäß zu funktionieren (erforderlich). Darüber hinaus können mit Ihrer Zustimmung weitere Cookies verwendet werden, um die Nutzung der Website zu analysieren, die Benutzerfreundlichkeit zu verbessern und Werbung zu schalten.Weitere Informationen finden Sie in Ihren. Durch den Besuch unserer Website erklären Sie sich mit der Verarbeitung von Informationen einverstanden, wie in der IBMDatenschutzbestimmung beschrieben.Um eine reibungslose Navigation zu ermöglichen, werden Ihre Cookie-Präferenzen über die hier aufgeführten IBM Web-Domains hinweg gemeinsam genutzt.