Translation not up to date
Poniższa tabela zawiera listę źródeł danych, z których można importować metadane, dla których można uruchamiać wzbogacanie metadanych lub reguły jakości danych i do których można zapisywać dane wyjściowe reguł jakości danych.
- wymagane uprawnienia
- Użytkownicy muszą mieć uprawnienia dostępu do połączeń ze źródłami danych. W przypadku importowania metadanych użytkownik uruchamiający import musi mieć uprawnienie SELECT lub podobne uprawnienie do danych baz danych.
W przypadku uruchamiania reguł wzbogacania metadanych lub reguł jakości danych oraz zapisywania danych wyjściowych reguły w projekcie musi istnieć odpowiedni zasób aplikacyjny połączenia. Jeśli typy zasobów aplikacyjnych zaimportowane z konkretnego połączenia nie zezwalają na wzbogacanie lub uruchamianie reguł jakości danych, nie dotyczy (ze skrótem N/D) jest wyświetlany w kolumnie Wzbogacanie metadanych i kolumnach dotyczących reguł. Myślnik (-) w kolumnie wskazuje, że źródło danych nie jest obsługiwane w tym celu.
Domyślnie reguły jakości danych i bazowe przepływy DataStage obsługują standardowe połączenia platformy. Nie wszystkie konektory, które były obsługiwane w tradycyjnym produkcie DataStage i mogły być używane w niestandardowych przepływach DataStage , są obsługiwane w produkcie Watson Knowledge Catalog.
Ogólnie obsługiwane są następujące formaty danych:
- Wszystkie: Tabele z relacyjnych i nierelacyjnych źródeł danych
- Metadata import: Dowolny format połączeń plikowych ze źródłami danych. W przypadku skoroszytów programu Microsoft Excel każdy arkusz jest importowany jako osobny zasób danych. Nazwa zasobu danych jest równa nazwie arkusza programu Excel.
- Wzbogacanie metadanych: Tabela: CSV, TSV, Avro, Parquet, Microsoft Excel (dla skoroszytów załadowanych z lokalnego systemu plików profilowany jest tylko pierwszy arkusz w skoroszycie).
- Reguły jakości danych: Tabela: Avro, CSV, Parquet, ORC
Konektor | Metadata import | Wzbogacanie metadanych | Powiązania w regułach utworzonych na podstawie definicji jakości danych | Reguły oparte na języku SQL | Tabele wyjściowe |
---|---|---|---|---|---|
Amazon RDS for MySQL | ✓ | ✓ | — | — | — |
Amazon RDS for PostgreSQL | ✓ | ✓ | — | — | — |
Amazon Redshift | ✓ | ✓ | ✓ | ✓ | — |
Amazon S3 | ✓ | ✓ | ✓ 4 | — | — |
Apache Cassandra | ✓ | ✓ | ✓ | ✓ | — |
Apache HDFS | ✓ | ✓ | ✓ | — | — |
Apache Hive | ✓ | ✓ | ✓ | ✓ | ✓ 5 |
Apache Kafka | ✓ | — | — | — | — |
Pudełko | ✓ | ✓ | — | — | — |
Cloudera Impala | ✓ | ✓ | — | — | — |
Ogólne S3 | ✓ | ✓ | — | — | — |
Google BigQuery | ✓ | ✓ | ✓ | ✓ | — |
Greenplum | ✓ | ✓ | ✓ | ✓ | — |
Konektor | Metadata import | Wzbogacanie metadanych | Powiązania w regułach tworzonych na podstawie definicji jakości danych | Reguły oparte na języku SQL | Tabele wyjściowe |
IBM Cloud Data Engine | ✓ | ✓ | — | — | — |
IBM Cloud Databases for MongoDB | ✓ | — | — | — | — |
IBM Cloud Databases for MySQL | ✓ | ✓ | — | — | — |
IBM Cloud Databases for PostgreSQL | ✓ | — | — | — | — |
IBM Cloud Object Storage | ✓ | ✓ | — | — | — |
IBM Data Virtualization Manager for z/OS 1 | ✓ | ✓ | — | — | — |
IBM Db2 | ✓ | ✓ | ✓ | ✓ | ✓ |
IBM Db2 Big SQL | ✓ | ✓ | — | — | — |
IBM Db2 for i | ✓ | — | — | — | — |
IBM Db2 for z/OS | ✓ | ✓ | — | — | — |
IBM Db2 on Cloud | ✓ | ✓ | — | — | ✓ |
IBM Db2 Warehouse | ✓ | ✓ | — | — | — |
IBM Informix | ✓ | ✓ | — | — | — |
IBM Netezza Performance Server | ✓ | ✓ | ✓ | ✓ | — |
IBM Watson Query | ✓ | ✓ | ✓ | ✓ | — |
IBM watsonx.data | ✓ | — | — | — | — |
Konektor | Metadata import | Wzbogacanie metadanych | Powiązania w regułach tworzonych na podstawie definicji jakości danych | Reguły oparte na języku SQL | Tabele wyjściowe |
MariaDB | ✓ | ✓ | — | — | — |
Microsoft Azure Data Lake Storage | ✓ | ✓ | ✓ | — | — |
Microsoft Azure SQL Database | ✓ | ✓ | — | — | — |
Microsoft SQL Server | ✓ | ✓ | ✓ | ✓ | ✓ |
MongoDB | ✓ | ✓ | ✓ | ✓ | — |
MySQL | ✓ | ✓ | ✓ | ✓ | — |
Oracle 2 | ✓ | ✓ | ✓ | ✓ | ✓ |
PostgreSQL | ✓ | ✓ | ✓ | ✓ | ✓ |
Presto | ✓ | — | — | — | — |
Salesforce.com | ✓ | ✓ 3 | — | — | — |
SAP ASE | ✓ | ✓ | ✓ | ✓ | — |
SAP IQ | ✓ | — | — | — | — |
| Snowflake | ✓ | ✓ | ✓ | ✓ |-| Teradata | ✓ | ✓ | ✓ | ✓ |-|
Uwagi:
1 Program Data Virtualization Manager for z/OSumożliwia dodawanie zasobów aplikacyjnych struktury copybook danych i języka COBOL z systemów mainframe do katalogów w produkcie IBM Cloud Pak for Data. Struktury copybook to pliki opisujące strukturę danych programu w języku COBOL. Program Data Virtualization Manager for z/OS ułatwia tworzenie wirtualnych tabel i widoków na podstawie odwzorowań struktury copybook języka COBOL. Następnie można użyć tych wirtualnych tabel i widoków do importowania i katalogowania danych mainframe z komputerów mainframe do programu IBM Cloud Pak for Data w postaci zasobów danych i zasobów struktury copybook w języku COBOL.
Następujące typy odwzorowań struktury copybook języka COBOL nie są importowane: ACI, Katalog, Naturalne
Po zakończeniu importowania można przejść do katalogu, aby przejrzeć zaimportowane zasoby aplikacyjne, w tym odwzorowania struktury copybook języka COBOL, tabele wirtualne i widoki. Zasobów tych można używać w taki sam sposób, jak innych zasobów w produkcie Cloud Pak for Data.
Więcej informacji na ten temat zawiera sekcja Dodawanie zasobów aplikacyjnych struktury copybook języka COBOL.
2 Opisy tabel i kolumn są importowane tylko wtedy, gdy połączenie jest skonfigurowane z jedną z następujących opcji wykrywania metadanych :
- Brak synonimów
- Uwagi i synonimy
3 Niektóre obiekty w schemacie SFORCE nie są obsługiwane. Patrz Salesforce.com.
4 Tylko pliki CSV.
5 Aby utworzyć tabele wyjściowe wzbogacania metadanych w środowisku Apache Hive w wersji wcześniejszej niż 3.0.0, należy zastosować obejście opisane w sekcji Zapisywanie danych wyjściowych wzbogacania metadanych do wcześniejszej wersji środowiska Apache Hive niż 3.0.0.
Więcej inform.
- Importowanie metadanych
- Wzbogacanie zasobów danych
- Tworzenie reguł na podstawie definicji jakości danych
- Tworzenie reguł opartych na języku SQL
Temat nadrzędny: Kuracja