Sie können ein Verbindungsasset für den Zugriff auf Ihre Daten in Apache HDFS erstellen.
Apache Hadoop Distributed File System (HDFS) ist ein verteiltes Dateisystem, das auf Standardhardware ausgeführt werden kann. Apache HDFS war früher Hortonworks HDFS.
Eine Verbindung zu Apache HDFS erstellen
Zum Erstellen des Verbindungsassets benötigen Sie die folgenden Verbindungsdetails. Die URL WebHDFS ist erforderlich.
Die im Verbindungsformular verfügbaren Eigenschaften hängen davon ab, ob Sie Verbindung zu Apache Hive auswählen, damit Sie Tabellen in die Hive -Datenquelle schreiben können.
- WebHDFS -URL für den Zugriff auf HDFS.
- Hive -Host: Der Hostname oder die IP-Adresse des Apache Hive -Servers.
- Hive-Datenbank: Die Datenbank in Apache Hive.
- Hive-Portnummer: Die Port-Nummer des Apache-Hive-Servers. Der Standardwert ist
10000
. - Hive HTTP-Pfad: Der Pfad des Endpunkts, z. B. gateway/default/hive, wenn der Server für den HTTP-Transportmodus konfiguriert ist.
- SSL-Zertifikat (falls für den Apache Hive -Server erforderlich)
Für private Konnektivität müssen Sie eine sichere Verbindung einrichten, um eine Verbindung zu einer Datenbank herstellen zu können, die nicht über das Internet zugänglich ist (z. B. hinter einer Firewall).
Je nach Position auf der Plattform geeignete Methode zum Erstellen einer Verbindung auswählen
- In einem Projekt
- Klicken Sie auf Assets > Neues Asset > Verbindung zu einer Datenquelle herstellen. Weitere Informationen finden Sie unter Verbindung zu einem Projekt hinzufügen.
- In einem Bereitstellungsbereich
- Klicken Sie auf Assets importieren > Datenzugriff > Verbindung. Siehe Datenassets zu einem Bereitstellungsbereich hinzufügen.
- Im Katalog der Plattformressourcen
- Klicken Sie auf Neue Verbindung. Weitere Informationen finden Sie unter Hinzufügen von Plattformverbindungen.
Nächster Schritt: Fügen Sie Datenassets aus der Verbindung hinzu
- Weitere Informationen finden Sie unter Daten aus einer Verbindung in einem Projekt hinzufügen.
Wo Sie diese Verbindung verwenden können
Sie können Apache HDFS-Verbindungen in den folgenden Arbeitsbereichen und Tools verwenden:
Projekte
- Data Refinery
- Decision Optimization
- SPSS Modeler
- Synthetic Data Generator
Kataloge
- Platform assets catalog
Apache HDFS-Konfiguration
Unterstützte Dateitypen
Die Apache HDFS-Verbindung unterstützt die folgenden Dateitypen: Avro, CSV, Text mit Trennzeichen, Excel, JSON, OR, Parquet, SAS, SAV, SHP und XML.
Tabellenformate
Neben der Flachdatei unterstützt die Apache HDFS -Verbindung die folgenden Data Lake-Tabellenformate: Delta Lake und Iceberg.
Weitere Informationen
Übergeordnetes Thema: Unterstützte Verbindungen