IBM
Cloud Pak for Data
IBM
Cloud Pak for Data
Log In
Sign Up
Branch
Pull
0
Commit
0
Push
0
Checkout branch
Merge conflict
Commit history
Git preferences
Pull and push
Pull only
Migrate
New
Add
New
Add
Analytics project
Data Transform project
Launch IDE
JupyterLab
RStudio
Project terminal
Add to project
Add
Add to project
Add
Connected assets
Notebook
Connection
Data asset
Scheduled job
Model
Function
BETA
Synthesized neural network
BETA
Experiment
BETA
Streams flow
BETA
Modeler flow
Dashboard
Data Refinery flow
Environment
Visual recognition model
Natural language classifier model
Application
Fork Project
Export
Download
Roadmap
0 / 0
Confirm
Do you want to log out?
Informationen suchen
Cloud Pak for Data as a Service
Neuerungen
Geänderte und nicht weiter unterstützte Servicepläne
Neuerungen im Jahr 2019
Neuerungen im Jahr 2018
Neuerungen im Jahr 2017
Übersicht über IBM Cloud Pak for Data as a Service
Beziehungen zwischen Services
Cloud Pak for Data-Bereitstellungen im Vergleich
Produktangebotspläne
Funktionsmatrix
Bekannte Probleme und Einschränkungen
Regionale Einschränkungen
Häufig gestellte Fragen
APIs für Services
Sicherheit
Sicherheit und Kompatibilität Ihrer Daten beibehalten
Zugriff auf externe Sites beschränken
Verbindungen zu Services mit Serviceendpunkten sichern
Bemerkungen
Barrierefreie Bedienung
Services und Integrationen
IBM Cloud-Services
Services erstellen
Watson Studio
Watson Studio-Angebotspläne
Watson Knowledge Catalog
Watson Knowledge Catalog-Angebotspläne
Watson Machine Learning
Machine Learning-Angebotspläne
Analytics Engine
Cloudant
Cloud Object Storage
Cognos Dashboard Embedded
Databases for EDB
Databases for MongoDB
Databases for PostgreSQL
DataStage (Betaversion)
Db2
Db2 Warehouse
IBM Match 360 with Watson (Betaversion)
Secure Gateway
SQL Query
Streaming Analytics
Visuelle Erkennung
Watson Assistant
Watson Discovery
Watson Natural Language Understanding
Watson Language Translator
Watson Natural Language Classifier
Watson OpenScale
Watson Personality Insights
Watson Speech to Text
Watson Text to Speech
Watson Tone Analyzer
Integrationen in andere Cloudplattformen
Integration in AWS
Integration in Azure
Integration in Google
Satellite-Standorte
Einführung
Videos
Für Privatkonto anmelden
Mit dem Konto Ihres Unternehmens verknüpfen
Konto für Ihr Unternehmen einrichten
Benutzerrollen und Berechtigungen
End-to-End-Beispiele: Branchenspezifische Akzeleratoren
Assettypen und -eigenschaften
Profile
Vorschau
Aktivitäten
Assets suchen
Tool auswählen
Rollen
Zusätzliche Ressourcen
Projekte
Projekt erstellen
Objektspeicher
Projekt importieren
Projekte verwalten
Mitbearbeiter verwalten
Mitbearbeiterrollen für Projekte
Zugehörige Services hinzufügen
Projekt exportieren
Assets in Projekten verwalten
Umgebungen
Notebookumgebungen
Spark-Umgebungen
Umgebungen für Satellite-Standorte
Data Refinery-Umgebungen
DataStage-Umgebungen (Technologievorschau)
RStudio-Umgebungen
GPU-Umgebungen
Umgebungen verwalten
Umgebungen erstellen
Umgebungen anpassen
Beispiele für Anpassungen
Aktive Laufzeiten stoppen
Laufzeitnutzung
Jobs
Katalogassets zu Projekt hinzufügen
Projekt verlassen
Markdown-Cheatsheet
Daten vorbereiten
Daten einem Projekt hinzufügen
Einem Projekt sehr große Dateien hinzufügen
Verbindungen zu Projekten hinzufügen
Zugriff auf COS-Buckets steuern
Daten von Verbindung hinzufügen
Ordnerasset von Verbindung hinzufügen
Metadaten importieren
Verbindungstypen
Amazon RDS for MySQL-Verbindung
Amazon RDS for PostgreSQL-Verbindung
Apache Cassandra-Verbindung
Box-Verbindung
Elasticsearch-Verbindung
HTTP-Verbindung
IBM Cloud Object Storage-Verbindung
IBM Cloud Object Storage (Infrastruktur) - Verbindung
IBM Cognos Analytics-Verbindung
IBM Data Virtualization Manager for z/OS-Verbindung
IBM Db2-Verbindung
IBM Db2 Event Store-Verbindung
IBM Planning Analytics-Verbindung
MariaDB-Verbindung
Microsoft Azure Blob Storage-Verbindung
Microsoft Azure Cosmos DB-Verbindung
Microsoft Azure Data Lake Store-Verbindung
Microsoft Azure File Storage-Verbindung
MongoDB-Verbindung
MySQL-Verbindung
OData-Verbindung
Oracle-Verbindung
PostgreSQL-Verbindung
Salesforce.com-Verbindung
SAP OData-Verbindung
Snowflake-Verbindung
Plattformverbindungen hinzufügen
Datenassets herunterladen
Daten verfeinern
Daten zu Data Refinery hinzufügen
Format Ihrer Daten angeben
Daten validieren
Daten visualisieren
Data Refinery-Abläufe verwalten
Daten von der Quelle zum Ziel kopieren
GUI-Operationen
Interaktive Codevorlagen
Lernprogramm: Rohdaten formen
Datenannotation
Daten mit Figure Eight mit Annotationen versehenn
Daten mit DefinedCrowd mit Annotationen versehen
Stammdaten verwalten (Betaversion)
Einführungslernprogramm
Benutzern Zugriff auf IBM Match 360 with Watson erteilen
Stammdaten konfigurieren
Datenmodell anpassen
Daten hinzufügen und Ihrem Datenmodell zuordnen
Daten zum Erstellen von Stammdatenentitäten abgleichen
IBM Match 360 with Watson-Jobs verwalten
Abgleichalgorithmus anpassen und stärken
Stammdaten untersuchen
Anzeige von Datensätzen und Attributen definieren
Stammdatenentitäten und Datensätze untersuchen
Einzelne Datensätze hinzufügen und bearbeiten
Stammdaten verwalten
Übersicht über IBM Match 360 with Watson-API
DataStage
Adding data to IBM DataStage
Creating a DataStage flow
Downloading and importing a DataStage flow and its dependencies
DataStage connectors
Asset browser
Data set
File set
Input tab
Output tab
Lookup file set
Sequential file
Defining data definitions
Making parts of your job design reusable
Local subflows
Subflows
Making jobs adaptable
Creating and using parameters and parameter sets
Inserting parameters and parameter sets as properties
Migrating DataStage jobs
DataStage stages
Aggregator
Fast path
Stage tab
Calculation and recalculation dependent properties
Input tab
Output tab
Bloom Filter
Stage tab
Input tab
Output tab
Change Apply
Example data
Fast path
Change Capture
Fast path
Stage tab
Input tab
Output tab
Checksum
Adding a Checksum column to your data
Properties for Checksum Stage
Mapping output columns
Specifying execution options
Column Export
Fast path
Stage tab
Input tab
Format section
Output tab
Column Generator
Fast path
Stage tab
Input tab
Output tab
Column Import
Examples
Fast path
Stage tab
Input tab
Output tab
Output link format section
Combine Records
Examples
Example 1
Example 2
Fast path
Stage tab
Properties section
Outputs section
Combine keys section
Options section
Advanced section
NLS Locale section
Input tab
Partitioning and collecting data
Output tab
Compare
Fast path
Stage tab
Input tab
Output tab
Compress
Fast path
Stage tab
Input tab
Output tab
Copy
Fast path
Stage tab
Input tab
Output tab
Decode
Fast path
Input tab
Output tab
Difference
Fast path
Stage tab
Input tab
Output tab
Encode
Fast path
Stage tab
Input tab
Output tab
Expand
Fast path
Stage tab
Input tab
Partitioning and collecting data
Output tab
External Filter
Fast path
Stage tab
Input tab
Output tab
Filter
Specifying the filter
Input data columns
Supported Boolean expressions and operators
Order of association
String comparison
Fast path
Stage tab
Input tab
Partitioning and collecting data
Output tab
Funnel
Fast path
Stage tab
Link Ordering section
Input tab
Output tab
Mapping output
Generic
Fast path
Stage tab
Input tab
Output tab
Head
Fast path
Stage tab
Input tab
Output tab
Hierarchical data
Using the Hierarchical Data stage
Adding a Hierarchical Data stage to a DataStage flow
Configuring runtime properties for the Hierarchical Data stage
The assembly
Input step
Output step
Assembly Editor
Opening the Assembly Editor
Mapping data
Working with the mapping table
Determining mapping candidates
Configuring how mapping candidates are determined
XML Composer step
XML Composer validation rules
XML Parser step
XML Parser validation rules
Setting default values for types
JSON transformation
Schema management
Opening the Schema Library Manager
Working with libraries and resources
Creating a JSON schema in the schema library
JSON Parser step
JSON Parser validation rules
JSON Composer step
JSON Composer validation rules
REST web services in DataStage
REST step pages
General
Security
Request
Response
Mappings
Output schema of the REST step
Passing multiple rows from an XML or JSON file
Transformation steps for the Hierarchical Data stage
Aggregate step
H-Pivot step
HJoin step
Order Join step
Regroup step
Sort step
Union step
V-Pivot step
Join
Join versus lookup
Fast path
Stage tab
Input tab
Output tab
Lookup
Lookup versus Join
Fast path
Properties
Stage tab
Input tab
Output tab
Make Subrecord
Examples
Fast path
Stage tab
Properties section
Input section
Output section
Options section
Advanced section
Input tab
Partitioning and collecting data
Output tab
Make Vector
Examples
Example 1
Example 2
Fast path
Stage tab
Properties section
Options section
Advanced section
Input tab
Partitioning and collecting data
Output tab
Merge
Fast path
Stage tab
Input tab
Output tab
Modify
Fast path
Stage tab
Input tab
Output tab
Peek
Fast path
Stage tab
Input tab
Output tab
Pivot Enterprise
Specifying a horizontal pivot operation
Specifying a horizontal pivot operation and mapping output columns
Example of horizontally pivoting data
Specifying a vertical pivot operation
Specifying a vertical pivot operation and mapping output columns
Example of vertically pivoting data
Properties tab
Specifying execution options
Specifying where the stage runs
Specifying partitioning or collecting methods
Specifying a sort operation
Promote Subrecord
Examples
Example 1
Example 2
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Remove Duplicates
Fast path
Stage tab
Input tab
Output tab
Row Generator
Fast path
Stage tab
Output tab
Sample
Fast path
Stage tab
Link Ordering
Input tab
Partitioning and collecting data
Output tab
Mapping
Sort
Fast path
Stage tab
Input tab
Output tab
Split Subrecord
Examples
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Split Vector
Examples
Example 1
Example 2
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Surrogate Key Generator
Creating the key source
Deleting the key source
Updating the state file
Generating surrogate keys
Switch
Example
Fast path
Stage tab
Input tab
Output tab
Tail
Fast path
Stage tab
Input tab
Output tab
Transformer
Basic concepts
Properties
Stage variables
Loop variables
Entering expressions
Loop example: converting a single row to multiple rows
Loop example: multiple repeating values in a single field
Loop example: generating new rows
Loop example: aggregating data
Surrogate Key tab
Link ordering
Advanced
Input tab
Output tab
Runtime column propagation
System variables
Evaluation sequences for transformer expressions, stage variables, and loop variables
Reserved words
Parallel transform functions
Date and time functions
Logical functions
Mathematical functions
Null handling functions
Number functions
Raw functions
String functions
Vector function
Type conversion functions
Utility functions
Wave Generator
Stage Tab
Properties
Input tab
Output tab
Write Range Map
Fast path
Stage tab
Input tab
QualityStage stages
Investigate
Stage tab
Input tab
Output tab
Match Frequency
One-source Match
Inputs to the One-source Match stage
One-source Match stage workflow
Creating One-source Match stage jobs
Configuring the One-source Match stage
Match types for the One-source Match stage
Match outputs for the One-source Match stage
Standardize
Fast path
Partitioning and collecting data
SQL Properties
Using stored procedures
Sharing DataStage artifacts with all IBM Cloud Object Storage containers
High availability and disaster recovery
DataStage command-line tools
Virtualizing data
Connecting to data sources
Supported data sources
Connecting to Amazon S3
Connecting to Ceph
Connecting to Cloud Object Storage
Connecting to Google BigQuery
Connecting to Snowflake
Status of data sources
Creating virtual objects
Creating a virtualized table from a single data source
Creating a virtualized table from multiple data sources
Creating a virtualized table from files in Cloud Object Storage
Creating schemas for virtual objects
Joining virtual objects
Managing access to virtual objects
Managing access to virtual objects for user roles
Revoking access to virtual objects for user roles
Managing visibility of virtual objects
Monitoring data access
Governing virtual data
Publishing virtual data to the catalog
Virtualizing data with business terms
Enabling strict mode
Enforcing business terms to virtualize data
Governing virtual data with data protection rules
Enabling enforcement of data protection rules
Masking virtual data
Managing caches and queries
Adding data caches
Cache recommendations
Configuring cache recommendations
Finding cache recommendations
Viewing query history
Restrictions for caching
Improving query performance
Collecting statistics
Enabling caching
Monitoring and exploring the service
Monitoring integrated databases
Exploring integrated databases
Administering users and roles
Connecting to the service
Managing roles for users
Assigning roles to users
Modifying user roles
Scaling the service
Scaling your service
SQL interface
Running SQL
Watson Query procedures
removeCosConn stored procedure
removeRdbcX stored procedure
setCosConn stored procedure
setRdbcX stored procedure
setRdbcX stored procedure
Watson Query views
LISTNODES view
LISTRDBC view
Limitations and known issues
Daten analysieren und Modelle erstellen
Notebooks
Notebooks erstellen
Bestandteile eines Notebooks
Jupyter- und Notebookumgebung
Bibliotheken und Scripts
Angepasste Bibliotheken installieren
Geografisch-räumlich-zeitliche Bibliothek
Bibliotheken für das Überspringen von Daten
Konfigurationsoptionen für das Überspringen von Daten
Parquet-Verschlüsselung
Schlüsselmanagement über die Anwendung
Schlüsselmanagement mit KMS
Zeitreihenbibliothek
Zeitreihenbibliothek verwenden
Wichtige Zeitreihenfunktionalität
Zeitreihenfunktionen
Verzögerte Zeitreihebewertung
Zeitbezugssystem
Scripts in ein Notebook importieren
Notebooks codieren und ausführen
Daten in ein Notebook laden und darauf zugreifen
Unterstützung für das Laden von Daten in einem Notebook
Auf Daten in einem AWS S3-Bucket zugreifen
Projekttoken manuell hinzufügen
Bibliothek 'project-lib' für Python verwenden
Python-Funktionen zum Arbeiten mit Cloud Object Storage verwenden
Bibliothek 'project-lib' für R verwenden
Notebook planen
SPSS-Vorhersageanalysealgorithmen
Datenaufbereitung
Klassifikation und Regression
Clustering
Vorhersage
Überlebensanalyse
Bewertung
Notebooks gemeinsam nutzen und publizieren
Notebooks gemeinsam nutzen
Code in einem Notebook verbergen
Notebooks auf GitHub publizieren
Notebooks als Gist publizieren
RStudio
Spark in RStudio verwenden
Cognos Dashboards
Visual Recognition-Modelle
Bildklassifizierung mit Core ML
Einrichten
Angepasste Bildklassifizierungsmodelle
Bilder vorbereiten
Training
Tests
Erneutes Training
In neue Serviceinstanz verschieben
Angepasste Objekterkennungsmodelle
Bilder auf Objekterkennung vorbereiten
Objekterkennung trainieren
Objekterkennung testen
Integrierte Modelle
Apps entwickeln
Beispielbilder
Klassifizierung natürlicher Sprache (Natural Language Classification)
Klassifikationsmerkmal erstellen
Trainingsdaten vorbereiten
Training
Tests
Erneutes Training
Notebooks
Apps entwickeln
AutoAI
AutoAI-Lernprogramm
Experiment mit einer Datenquelle erstellen
Experiment aus Beispieldaten erstellen (Betaversion)
Experiment aus verknüpften Daten erstellen (Betaversion)
Lernprogramm: Datenverknüpfungsmodell erstellen und bereitstellen (Betaversion)
Lernprogramm: Datenverknüpfungsmodell mit mehreren Klassen erstellen (Betaversion)
Technische Details zur Joinfunktion (Betaversion)
AutoAI-generiertes Notebook speichern
AutoAI-Bibliothek (autoai-lib) für Python verwenden
AutoAI-Modell auswählen
Details der AutoAI-Implementierung
Fehlerbehebung für AutoAI-Experimente
Federated Learning (Betaversion)
Lernprogramm und Beispiele zu Federated Learning (Betaversion)
Lernprogramm zu Federated Learning (Betaversion)
Federated Learning-Beispiele (Betaversion)
Federated Learning-Experiment erstellen (Betaversion)
Framework, Fusionsmethode und Hyperparameter auswählen (Betaversion)
Zusätzliche Details zur Implementierung (Betaversion)
Deep-Learning-Experimente
Trainingsläufe
Modelldefinition
Beispiel
Richtlinien für die Codierung
Bibliotheken anderer Anbieter
Deep-Learning-Experimente ausführen
Deep Learning Experiment Builder
GPUs verwenden
Hyperparameteroptimierung
Verteiltes Training
Verteiltes Deep Learning
Lernprogramm
Decision Optimization
Verwendungsmöglichkeiten von Decision Optimization
Beispielmodelle und Notebooks
Decision Optimization Notebooks
Decision Optimization Model Builder
Ansichten und Szenarios des Modellerstellungsprogramms
Visualisierungsansicht
Modeling Assistant-Modelle
Entscheidungsdomäne in Modeling Assistant auswählen
Modell formulieren und ausführen: Hausbauplanung
Python DOcplex-Modelle
Eingabe- und Ausgabedaten
Lösung für ein Modell generieren und Modell analysieren: Problem 'Diet'
Neues Szenario erstellen
Mit mehreren Szenarios arbeiten
Mehrere Szenarios generieren
OPL-Modelle
Ausführungsparameter
SPSS Modeler
Unterstützte Datenquellen für SPSS Modeler
Knotenpalette
Import
Data Asset-Knoten
Benutzereingabeknoten
Simulationsgenerierungsknoten
Erweiterungsimportknoten
Datensatzoperationen
Auswahlknoten
Stichprobenknoten
Sortierknoten
Balancierungsknoten
Duplikatknoten
Aggregatknoten
Zusammenführungsknoten
Anhangknoten
Streaming-Zeitreihenknoten
SMOTE-Knoten
Knoten "RFM-Aggregat"
STB-Knoten
Erweiterungstransformationsknoten
CPLEX-Optimierung (Knoten)
Feldfunktionen
Knoten "Automatische Datenaufbereitung"
Typknoten
Informationen zu Typen anzeigen und festlegen
Messniveaus
Georäumliche Untermessniveaus
Stetige Daten umwandeln
Funktionsweise der Instanziierung
Datenwerte
Optionen für Werte festlegen
Werte und Beschriftungen fü stetige Daten angeben
Werte und Beschriftungen für nominale und ordinale Daten angeben
Werte für ein Flag angeben
Werte für Sammlungsdaten angeben
Werte für Geodaten angeben
Fehlende Werte definieren
Typwerte überprüfen
Feldrolle festlegen
Optionen für Feldformate festlegen
Filterknoten
Ableitungsknoten
Füllerknoten
Umcodierungsknoten
Klassierknoten
Knoten "RFM-Analyse"
Ensembleknoten
Partitionsknoten
Dichotomknoten
Umstrukturierungsknoten
Transponierknoten
Knoten "Felder umordnen"
Verlaufsknoten
Zeitintervallknoten
Anonymisierungsknoten
Reprojizierungsknoten
Diagramme
Diagrammknoten
Plotknoten
Multiplotknoten
Zeitdiagrammknoten
Verteilungsknoten
Histogrammknoten
Sammlungsknoten
Netzdiagrammknoten
Evaluierungsknoten
Modellierung
Knoten "Autom. Klassifikationsmerkmal"
Knoten "Autonumerisch"
Knoten "Autom. Cluster"
TCM-Knoten
Bayes-Netzknoten
C5.0-Knoten
Knoten "C&R-Baum"
CHAID-Knoten
QUEST-Knoten
Tree-AS-Knoten
Random Trees-Knoten
Random Forest-Knoten
Entscheidungslistenknoten
Zeitreihenknoten
GenLin-Knoten
GLMM-Knoten
GLE-Knoten
Linearknoten
Linear-AS-Knoten
Regressionsknoten
LSVM-Knoten
Logistikknoten
Neuronaler Netzknoten
KNN-Knoten
Cox-Knoten
Faktor/PCA-Knoten
SVM-Knoten
Merkmalauswahlknoten
Diskriminanzknoten
SLRM-Knoten
Knoten für räumlich-temporale Vorhersage
Modellnugget für räumliche temporale Vorhersagen
Assoziationsregelknoten
Apriori-Knoten
CARMA-Knoten
Sequenzknoten
Kohonen-Knoten
Anomalieknoten
K-Means-Knoten
TwoStep-Clusterknoten
TwoStep-AS-Clusterknoten
Knoten "Isotonisch-AS"
XGBoost-AS (Knoten)
K-Means-AS-Knoten
Knoten "XGBoost Tree"
Knoten "XGBoost Linear"
Knoten "Gaußsche Mischverteilung"
KDE-Knoten
Knoten "One-Class SVM"
MultiLayerPerceptron-AS-Knoten
HDBSCAN-Knoten
Erweiterungsmodellknoten
Nugget für Erweiterungsmodell
Textanalyse
Wissenswertes über das Textmining
Funktionsweise der Extraktion
Funktionsweise der Kategorisierung
Language Identifier-Knoten
Textlinkanalyseknoten
Expertenoptionen
Ausgabe des TLA-Knotens
Textmining-Knoten
Textmining-Modellnuggets
Interaktiver Workbenchmodus
Ansicht "Kategorien und Konzepte"
Ansicht "Cluster"
Ansicht "Textlinkanalyse"
Ansicht "Ressourceneditor"
Optionen festlegen
Erweiterte Einstellungen für Linguistik
Erweiterte Einstellungen für Häufigkeit
Modellnugget generieren
Ausgaben
Tabellenknoten
Matrixknoten
Analyseknoten
Data Audit-Knoten
Transformationsknoten
Statistikknoten
Mittelwertknoten
Berichtknoten
Globalwerteknoten
Simulationsanpassungsknoten
Knoten "KDE-Simulation"
Erweiterungsausgabeknoten
Export
Data Asset-Exportknoten
Erweiterungsexportknoten
Erweiterungsknoten
R-Scripts
Python-Scripts für Spark
Scripting mit Python for Spark
Datenmetadaten
Datum, Zeit, Zeitmarke
Ausnahmen
Beispiele
Mit Ihren Daten arbeiten
Fehlende Datenwerte
Fehlende Werte behandeln
Datensätze mit fehlenden Werten behandeln
Felder mit fehlenden Werten behandeln
Datensätze mit systemdefiniert fehlenden Werten behandeln
Verfügbare Funktionen für fehlende Werte
Kommentare und Anmerkungen hinzufügen
Modelle bereitstellen
SQL-Optimierung
Funktionsweise des SQL-Pushbacks
Tipps für die Maximierung des SQL-Pushbacks
Knoten mit Unterstützung des SQL-Pushbacks
CLEM-Ausdrücke und -Operatoren mit Unterstützung von SQL-Pushback
SQL aus Modellnuggets generieren
Knoten in einem Ablauf inaktivieren oder zwischenspeichern
Knoten in einem Ablauf inaktivieren
Caching-Optionen für Knoten
SPSS Modeler-Datenstrom importieren
Festlegen von Eigenschaften für Abläufe
Expression Builder
Auswählen von Funktionen
SPSS-Algorithmen
Modelle bereitstellen und verwalten
Watson Machine Learning
Übersicht über Watson Machine Learning
Unterstützte Frameworks
Modelltyp und Konfiguration angeben
Python-Client
Assets migrieren
Änderungen an API und Python-Client
Python-Funktionen migrieren
Terminologie
Einrichten
Authentifizierung
Serviceberechtigungsnachweise
Serviceinstanz erstellen
Standardendpunkt ändern
Angepasste Komponenten
scikit-learn
TensorFlow
Tensorflow-Modell mit angepassten Schichten als persistent definieren
Bereitstellungsbeispiele und -lernprogramme
AutoAI-Lernprogramm
Python-Beispiele für Machine Learning
REST-API-Beispiele für Machine Learning
Modelle für maschinelles Lernen erstellen
Modelle importieren
PMML
Spark MLlib
scikit-learn
XGBoost
TensorFlow
Keras
Assets bereitstellen
Bereitstellungsbereiche
Dashboard für Bereitstellungsbereiche
Daten zu einem Bereich hinzufügen
Mitbearbeiterberechtigungen für Bereiche
Bereitstellungen in einem Bereich erstellen
Onlinebereitstellung erstellen
Batchbereitstellung erstellen
Batchbereitstellungsdetails
SPSS-Modell mit mehreren Eingaben bereitstellen
Bereitstellungsjobs verwalten
Core ML-Bereitstellung erstellen
Modell mit dem Python-Client bereitstellen
Python-Funktionen bereitstellen
Bereitgestellte Assets verwalten
URL des Bereitstellungsendpunkts abrufen
Bereitstellung aktualisieren
Bereitstellung skalieren
Bereitstellung löschen
Model Management
KI-Lebenszyklus mit ModelOps verwalten
Decision Optimization
Modell über die Benutzerschnittstelle bereitstellen
Schritte zur Bereitstellung
Modellbereitstellung
Modellausführung
Dateiformate bei Modelleingabe- und Modellausgabedaten
Anpassung von Modelleingabe- und Modellausgabedaten
Ausgabedatendefinition
Lösungsparameter
Jobs ausführen
REST-API-Beispiel
Python-Client-Beispiele
Migration
Von der API von Watson Machine Learning Version 4 (Betaversion) migrieren
Python-Code für Decision Optimization in Machine Learning-v2-Instanzen migrieren
Von Decision Optimization on Cloud (DOcplexcloud) migrieren
Watson OpenScale
Lernprogramm für die interaktive Konfiguration
Python-Modul zum Konfigurieren von Watson OpenScale installieren
Python-SDK-Lernprogramm für Fortgeschrittene
Notebooks von Python SDK V1 auf V2 aktualisieren
APIs, SDKs und Lernprogramme
Unterstützte Machine Learning-Engines, Frameworks und Modelle
IBM Watson Machine Learning
Microsoft Azure ML Studio-Frameworks
Microsoft Azure ML Service-Frameworks
Amazon SageMaker-Frameworks
Angepasste ML-Frameworks
Integration von Machine Learning-Engines anderer Anbieter mit Watson OpenScale
Watson OpenScale konfigurieren
Berechtigungsnachweise für Watson OpenScale erstellen
Zu überwachende Bereitstellungen auswählen
Datenbank angeben
Nutzdatenprotokollierung für andere Serviceinstanzen als die IBM Watson Machine Learning-Serviceinstanz
Scoring-Anforderung senden
Nutzdaten- und Rückmeldungsprotokollierung
Nutzdatenprotokollierung automatisieren
Informationen zur Funktionsweise der Verzerrungsbereinigung
Indirekte Verzerrung
Assetbereitstellungen mit JSON-Konfigurationsdateien konfigurieren
Rückmeldedaten formatieren und hochladen
Trainingsdaten formatieren und hochladen
Eingabe- und Ausgabeschema über Python-Client oder REST-API definieren
Upgrade für Watson OpenScale von einem Lite- zu einem gebührenpflichtigen Plan
Watson OpenScale-Serviceinstanz und -Daten löschen
Alerts einrichten
Modelle für die Überwachung vorbereiten
Überwachung der Qualität konfigurieren
Fairnessüberwachung konfigurieren
Erklärbarkeitsüberwachung konfigurieren
Überwachung der Drifterkennung konfigurieren
Endpunktüberwachung konfigurieren
Mit Modellen mit unstrukturiertem Text arbeiten
Angepasste Überwachungen und Metriken erstellen
Modellrisikomanagement und Modellgovernance konfigurieren
Watson OpenScale für das Modellrisikomanagement konfigurieren
Modellgovernance mit IBM OpenPages MRG konfigurieren
Modelleinblicke abrufen
Daten für eine Bereitstellung anzeigen
Visualisierung von Daten für eine bestimmte Uhrzeit anzeigen
Verzerrungsbereinigungsoptionen
Transaktionen erklären
Risikomanagement und Governance für Modelle
Modellrisiko verwalten
Modellgovernance
Übersicht zu Fairnessmetriken
Fairness für eine Gruppe
Übersicht zu Qualitätsmetriken
Wahrheitsmatrix
Fläche unterhalb der ROC-Kurve
Fläche unterhalb der PR-Kurve
Genauigkeit
Wahr-positiv-Rate (TPR)
Falsch-positiv-Rate (FPR)
Trefferquote
Genauigkeit
F1-Maß
Logarithmischer Verlust
Proportion der erklärten Varianz
Mittlerer absoluter Fehler
Mittlerer quadratischer Fehler
R im Quadrat
Wurzel des mittleren quadratischen Fehlers
Gewichtete Wahr-positiv-Rate
Gewichtete Falsch-positiv-Rate
Gewichtete Trefferquote
Gewichtete Genauigkeit
Gewichtetes F1-Maß
Drifterkennung
Drift bei der Genauigkeit
Drift bei den Daten
Übersicht zu Leistungsmetriken
Durchsatz
Scoring-Nutzdaten analysieren
Vorhersagen nach Konfidenz
Diagrammerstellungsfunktion
Bekannte Probleme und Einschränkungen
Hochverfügbarkeit und Disaster-Recovery
Informationssicherheit
Watson OpenScale Identity and Access Management
Verbindung zu Watson OpenScale schützen
Daten in Watson OpenScale schützen
Kataloge
Katalog verwalten
Katalog der Plattformassets erstellen
Katalog erstellen
Zugriff auf Katalog verwalten
Berechtigungen der Katalogmitbearbeiter
Katalogeinstellungen ändern
Katalog löschen
Katalogassets
Asset in Katalog suchen und anzeigen
Assets einem Katalog hinzufügen
Datei hinzufügen
Verbindung hinzufügen
Daten von Verbindung hinzufügen
Ordnerasset von Verbindung hinzufügen
Asset aus Projekt publizieren
COBOL-Copybook-Assets hinzufügen
Datenassets herunterladen
Asseteigenschaften bearbeiten
Assetbeziehungen hinzufügen
Zugriff auf Asset steuern
Profil für Asset erstellen
Datenqualitätsscore
Datenqualitätsdimensionen
Asset entfernen
Governance-Artefakte (neu)
Governance vorbereiten
Governance-Artefakte suchen und anzeigen
Tags
Governance-Artefakte verwalten
Governance-Artefakte importieren
Kategorien
Kategorien verwalten
Kategoriemitbearbeiter verwalten
Rollen für Kategoriemitbearbeiter
Kategorien importieren oder exportieren
Richtlinien
Richtlinien verwalten
Richtlinien erstellen
Governance-Regeln
Governance-Regeln verwalten
Governance-Regeln erstellen
Datenschutzregeln
Auswertung von Datenschutzregeln
Datenschutzregeln verwalten
Hinweise zur Maskierung
Daten maskieren
Geschäftsbegriffe
Geschäftsbegriffe verwalten
Geschäftsbegriffe erstellen
Klassifikationen
Klassifikationen verwalten
Klassifikationen erstellen
Vordefinierte Klassifikationen
Datenklassen
Datenklassen verwalten
Daten abgleichen
Vordefinierte Datenklassen
Details vordefinierter Datenklassen
Referenzdaten
Referenzdatasets erstellen
Dateien für Referenzdatasets importieren
Beziehungen zwischen Referenzdatasets
Governance-Artefakte (traditionell)
Upgrade auf die neue Version der Governance-Artefakte durchführen
Beispielszenarios für Datenschutz
Zugriff auf Assets beschränken
Zugriff mit Richtlinien beschränken
Nur einige Benutzer berechtigen
Datenwerte in Assetspalten ausblenden
Kategorien
Richtlinien
Richtlinienauswertung
Richtlinie suchen und anzeigen
Richtlinie erstellen
Richtlinien verwalten
Datenschutzregeln
Datenschutzregeln erstellen
Hinweise zur Maskierung
Daten maskieren
Systembegriffe
Tags
Beispiele für Begriffseingabe
Regeln anzeigen oder bearbeiten
Richtliniennutzungsstatistiken
Geschäftsbegriffe
Geschäftsbegriffe suchen und anzeigen
Geschäftsbegriffe erstellen
Geschäftsbegriffe verwalten
Geschäftsbegriffe importieren
Datenklassifizierung
Klassifikationen
Datenklassen
Details vordefinierter Datenklassen
Datenklassengruppen
Fehlerbehebung
Watson Knowledge Catalog auf eine Instanz begrenzt
Data Refinery
Data Virtualization
Troubleshooting general issues
Cannot grant users access to a view
Troubleshooting virtualization issues
Speed up loading of tables when virtualizing
Reveal hidden tables when virtualizing
Listing of virtual objects is slow
Viewing of objects in your cart is slow
Troubleshooting governance issues
Access to a table is denied by policies
Cannot access assets in the catalog
Cannot access assets with masked data
Cannot enforce policies and data protection rules
Publishing data to the catalog fails
Troubleshooting data source connections
Cannot push down string functions with string units on Db2 remote data source
Snowflake connection times out
Cannot connect to data source
Cannot push down join views
Errors when you delete a connection
Troubleshooting queries
SQL messages
View related actions are not available
Error SQL0727N when you query view results
Error SQL1822N when you run a query
Concurrent queries are slow or fail
Incorrect query results for Db2 remote data sources
Data type String in Hive tables is assigned CLOB data type
Performance issues in queries with subqueries
SUM() or AVG() function returns an error
Table statistics are not collected
Deep Learning
Machine Learning
IBM Cloud-Status
IBM Cloud Object Storage
Watson OpenScale
Verwaltung
Cloud Pak for Data as a Service verwalten
Kontoressourcennutzung überwachen
Berechtigte Benutzer für Watson Studio verwalten
Cloud Object Storage für Projekt- und Katalogerstellung konfigurieren
Watson Knowledge Catalog-Service verwalten
Kontoeinstellungen verwalten
Upgrade für Ihre Servicepläne durchführen
Hybrid Subscription Advantage aktivieren
Verwendung von Cloud Pak for Data as a Service stoppen
Einstellungen verwalten
Rollen bestimmen
IBM Cloud-Konto verwalten
Activity Tracker-Ereignisse
IAM-Bearbeiterrolle zuordnen
Watson Studio Enterprise einrichten
Amazon EMR-Spark-Service hinzufügen
Glossar
Cloud Pak for Data as a Service
Neuerungen
Geänderte und nicht weiter unterstützte Servicepläne
Neuerungen im Jahr 2019
Neuerungen im Jahr 2018
Neuerungen im Jahr 2017
Übersicht über IBM Cloud Pak for Data as a Service
Beziehungen zwischen Services
Cloud Pak for Data-Bereitstellungen im Vergleich
Produktangebotspläne
Funktionsmatrix
Bekannte Probleme und Einschränkungen
Regionale Einschränkungen
Häufig gestellte Fragen
APIs für Services
Sicherheit
Sicherheit und Kompatibilität Ihrer Daten beibehalten
Zugriff auf externe Sites beschränken
Verbindungen zu Services mit Serviceendpunkten sichern
Bemerkungen
Barrierefreie Bedienung
Services und Integrationen
IBM Cloud-Services
Services erstellen
Watson Studio
Watson Studio-Angebotspläne
Watson Knowledge Catalog
Watson Knowledge Catalog-Angebotspläne
Watson Machine Learning
Machine Learning-Angebotspläne
Analytics Engine
Cloudant
Cloud Object Storage
Cognos Dashboard Embedded
Databases for EDB
Databases for MongoDB
Databases for PostgreSQL
DataStage (Betaversion)
Db2
Db2 Warehouse
IBM Match 360 with Watson (Betaversion)
Secure Gateway
SQL Query
Streaming Analytics
Visuelle Erkennung
Watson Assistant
Watson Discovery
Watson Natural Language Understanding
Watson Language Translator
Watson Natural Language Classifier
Watson OpenScale
Watson Personality Insights
Watson Speech to Text
Watson Text to Speech
Watson Tone Analyzer
Integrationen in andere Cloudplattformen
Integration in AWS
Integration in Azure
Integration in Google
Satellite-Standorte
Einführung
Videos
Für Privatkonto anmelden
Mit dem Konto Ihres Unternehmens verknüpfen
Konto für Ihr Unternehmen einrichten
Benutzerrollen und Berechtigungen
End-to-End-Beispiele: Branchenspezifische Akzeleratoren
Assettypen und -eigenschaften
Profile
Vorschau
Aktivitäten
Assets suchen
Tool auswählen
Rollen
Zusätzliche Ressourcen
Projekte
Projekt erstellen
Objektspeicher
Projekt importieren
Projekte verwalten
Mitbearbeiter verwalten
Mitbearbeiterrollen für Projekte
Zugehörige Services hinzufügen
Projekt exportieren
Assets in Projekten verwalten
Umgebungen
Notebookumgebungen
Spark-Umgebungen
Umgebungen für Satellite-Standorte
Data Refinery-Umgebungen
DataStage-Umgebungen (Technologievorschau)
RStudio-Umgebungen
GPU-Umgebungen
Umgebungen verwalten
Umgebungen erstellen
Umgebungen anpassen
Beispiele für Anpassungen
Aktive Laufzeiten stoppen
Laufzeitnutzung
Jobs
Katalogassets zu Projekt hinzufügen
Projekt verlassen
Markdown-Cheatsheet
Daten vorbereiten
Daten einem Projekt hinzufügen
Einem Projekt sehr große Dateien hinzufügen
Verbindungen zu Projekten hinzufügen
Zugriff auf COS-Buckets steuern
Daten von Verbindung hinzufügen
Ordnerasset von Verbindung hinzufügen
Metadaten importieren
Verbindungstypen
Amazon RDS for MySQL-Verbindung
Amazon RDS for PostgreSQL-Verbindung
Apache Cassandra-Verbindung
Box-Verbindung
Elasticsearch-Verbindung
HTTP-Verbindung
IBM Cloud Object Storage-Verbindung
IBM Cloud Object Storage (Infrastruktur) - Verbindung
IBM Cognos Analytics-Verbindung
IBM Data Virtualization Manager for z/OS-Verbindung
IBM Db2-Verbindung
IBM Db2 Event Store-Verbindung
IBM Planning Analytics-Verbindung
MariaDB-Verbindung
Microsoft Azure Blob Storage-Verbindung
Microsoft Azure Cosmos DB-Verbindung
Microsoft Azure Data Lake Store-Verbindung
Microsoft Azure File Storage-Verbindung
MongoDB-Verbindung
MySQL-Verbindung
OData-Verbindung
Oracle-Verbindung
PostgreSQL-Verbindung
Salesforce.com-Verbindung
SAP OData-Verbindung
Snowflake-Verbindung
Plattformverbindungen hinzufügen
Datenassets herunterladen
Daten verfeinern
Daten zu Data Refinery hinzufügen
Format Ihrer Daten angeben
Daten validieren
Daten visualisieren
Data Refinery-Abläufe verwalten
Daten von der Quelle zum Ziel kopieren
GUI-Operationen
Interaktive Codevorlagen
Lernprogramm: Rohdaten formen
Datenannotation
Daten mit Figure Eight mit Annotationen versehenn
Daten mit DefinedCrowd mit Annotationen versehen
Stammdaten verwalten (Betaversion)
Einführungslernprogramm
Benutzern Zugriff auf IBM Match 360 with Watson erteilen
Stammdaten konfigurieren
Datenmodell anpassen
Daten hinzufügen und Ihrem Datenmodell zuordnen
Daten zum Erstellen von Stammdatenentitäten abgleichen
IBM Match 360 with Watson-Jobs verwalten
Abgleichalgorithmus anpassen und stärken
Stammdaten untersuchen
Anzeige von Datensätzen und Attributen definieren
Stammdatenentitäten und Datensätze untersuchen
Einzelne Datensätze hinzufügen und bearbeiten
Stammdaten verwalten
Übersicht über IBM Match 360 with Watson-API
DataStage
Adding data to IBM DataStage
Creating a DataStage flow
Downloading and importing a DataStage flow and its dependencies
DataStage connectors
Asset browser
Data set
File set
Input tab
Output tab
Lookup file set
Sequential file
Defining data definitions
Making parts of your job design reusable
Local subflows
Subflows
Making jobs adaptable
Creating and using parameters and parameter sets
Inserting parameters and parameter sets as properties
Migrating DataStage jobs
DataStage stages
Aggregator
Fast path
Stage tab
Calculation and recalculation dependent properties
Input tab
Output tab
Bloom Filter
Stage tab
Input tab
Output tab
Change Apply
Example data
Fast path
Change Capture
Fast path
Stage tab
Input tab
Output tab
Checksum
Adding a Checksum column to your data
Properties for Checksum Stage
Mapping output columns
Specifying execution options
Column Export
Fast path
Stage tab
Input tab
Format section
Output tab
Column Generator
Fast path
Stage tab
Input tab
Output tab
Column Import
Examples
Fast path
Stage tab
Input tab
Output tab
Output link format section
Combine Records
Examples
Example 1
Example 2
Fast path
Stage tab
Properties section
Outputs section
Combine keys section
Options section
Advanced section
NLS Locale section
Input tab
Partitioning and collecting data
Output tab
Compare
Fast path
Stage tab
Input tab
Output tab
Compress
Fast path
Stage tab
Input tab
Output tab
Copy
Fast path
Stage tab
Input tab
Output tab
Decode
Fast path
Input tab
Output tab
Difference
Fast path
Stage tab
Input tab
Output tab
Encode
Fast path
Stage tab
Input tab
Output tab
Expand
Fast path
Stage tab
Input tab
Partitioning and collecting data
Output tab
External Filter
Fast path
Stage tab
Input tab
Output tab
Filter
Specifying the filter
Input data columns
Supported Boolean expressions and operators
Order of association
String comparison
Fast path
Stage tab
Input tab
Partitioning and collecting data
Output tab
Funnel
Fast path
Stage tab
Link Ordering section
Input tab
Output tab
Mapping output
Generic
Fast path
Stage tab
Input tab
Output tab
Head
Fast path
Stage tab
Input tab
Output tab
Hierarchical data
Using the Hierarchical Data stage
Adding a Hierarchical Data stage to a DataStage flow
Configuring runtime properties for the Hierarchical Data stage
The assembly
Input step
Output step
Assembly Editor
Opening the Assembly Editor
Mapping data
Working with the mapping table
Determining mapping candidates
Configuring how mapping candidates are determined
XML Composer step
XML Composer validation rules
XML Parser step
XML Parser validation rules
Setting default values for types
JSON transformation
Schema management
Opening the Schema Library Manager
Working with libraries and resources
Creating a JSON schema in the schema library
JSON Parser step
JSON Parser validation rules
JSON Composer step
JSON Composer validation rules
REST web services in DataStage
REST step pages
General
Security
Request
Response
Mappings
Output schema of the REST step
Passing multiple rows from an XML or JSON file
Transformation steps for the Hierarchical Data stage
Aggregate step
H-Pivot step
HJoin step
Order Join step
Regroup step
Sort step
Union step
V-Pivot step
Join
Join versus lookup
Fast path
Stage tab
Input tab
Output tab
Lookup
Lookup versus Join
Fast path
Properties
Stage tab
Input tab
Output tab
Make Subrecord
Examples
Fast path
Stage tab
Properties section
Input section
Output section
Options section
Advanced section
Input tab
Partitioning and collecting data
Output tab
Make Vector
Examples
Example 1
Example 2
Fast path
Stage tab
Properties section
Options section
Advanced section
Input tab
Partitioning and collecting data
Output tab
Merge
Fast path
Stage tab
Input tab
Output tab
Modify
Fast path
Stage tab
Input tab
Output tab
Peek
Fast path
Stage tab
Input tab
Output tab
Pivot Enterprise
Specifying a horizontal pivot operation
Specifying a horizontal pivot operation and mapping output columns
Example of horizontally pivoting data
Specifying a vertical pivot operation
Specifying a vertical pivot operation and mapping output columns
Example of vertically pivoting data
Properties tab
Specifying execution options
Specifying where the stage runs
Specifying partitioning or collecting methods
Specifying a sort operation
Promote Subrecord
Examples
Example 1
Example 2
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Remove Duplicates
Fast path
Stage tab
Input tab
Output tab
Row Generator
Fast path
Stage tab
Output tab
Sample
Fast path
Stage tab
Link Ordering
Input tab
Partitioning and collecting data
Output tab
Mapping
Sort
Fast path
Stage tab
Input tab
Output tab
Split Subrecord
Examples
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Split Vector
Examples
Example 1
Example 2
Fast path
Stage tab
Properties tab
Options section
Advanced tab
Input tab
Partitioning and collecting data
Output tab
Surrogate Key Generator
Creating the key source
Deleting the key source
Updating the state file
Generating surrogate keys
Switch
Example
Fast path
Stage tab
Input tab
Output tab
Tail
Fast path
Stage tab
Input tab
Output tab
Transformer
Basic concepts
Properties
Stage variables
Loop variables
Entering expressions
Loop example: converting a single row to multiple rows
Loop example: multiple repeating values in a single field
Loop example: generating new rows
Loop example: aggregating data
Surrogate Key tab
Link ordering
Advanced
Input tab
Output tab
Runtime column propagation
System variables
Evaluation sequences for transformer expressions, stage variables, and loop variables
Reserved words
Parallel transform functions
Date and time functions
Logical functions
Mathematical functions
Null handling functions
Number functions
Raw functions
String functions
Vector function
Type conversion functions
Utility functions
Wave Generator
Stage Tab
Properties
Input tab
Output tab
Write Range Map
Fast path
Stage tab
Input tab
QualityStage stages
Investigate
Stage tab
Input tab
Output tab
Match Frequency
One-source Match
Inputs to the One-source Match stage
One-source Match stage workflow
Creating One-source Match stage jobs
Configuring the One-source Match stage
Match types for the One-source Match stage
Match outputs for the One-source Match stage
Standardize
Fast path
Partitioning and collecting data
SQL Properties
Using stored procedures
Sharing DataStage artifacts with all IBM Cloud Object Storage containers
High availability and disaster recovery
DataStage command-line tools
Virtualizing data
Connecting to data sources
Supported data sources
Connecting to Amazon S3
Connecting to Ceph
Connecting to Cloud Object Storage
Connecting to Google BigQuery
Connecting to Snowflake
Status of data sources
Creating virtual objects
Creating a virtualized table from a single data source
Creating a virtualized table from multiple data sources
Creating a virtualized table from files in Cloud Object Storage
Creating schemas for virtual objects
Joining virtual objects
Managing access to virtual objects
Managing access to virtual objects for user roles
Revoking access to virtual objects for user roles
Managing visibility of virtual objects
Monitoring data access
Governing virtual data
Publishing virtual data to the catalog
Virtualizing data with business terms
Enabling strict mode
Enforcing business terms to virtualize data
Governing virtual data with data protection rules
Enabling enforcement of data protection rules