0 / 0
Zurück zur englischen Version der Dokumentation
Apache HDFS-Verbindung
Letzte Aktualisierung: 07. Juni 2024
Apache HDFS-Verbindung

Sie können ein Verbindungsasset für den Zugriff auf Ihre Daten in Apache HDFS erstellen.

Apache Hadoop Distributed File System (HDFS) ist ein verteiltes Dateisystem, das auf Standardhardware ausgeführt werden kann. Apache HDFS war früher Hortonworks HDFS.

Eine Verbindung zu Apache HDFS erstellen

Zum Erstellen des Verbindungsassets benötigen Sie die folgenden Verbindungsdetails. Die URL WebHDFS ist erforderlich.
Die im Verbindungsformular verfügbaren Eigenschaften hängen davon ab, ob Sie Verbindung zu Apache Hive auswählen, damit Sie Tabellen in die Hive -Datenquelle schreiben können.

  • WebHDFS -URL für den Zugriff auf HDFS.
  • Hive -Host: Der Hostname oder die IP-Adresse des Apache Hive -Servers.
  • Hive-Datenbank: Die Datenbank in Apache Hive.
  • Hive-Portnummer: Die Port-Nummer des Apache-Hive-Servers. Der Standardwert ist 10000.
  • Hive HTTP-Pfad: Der Pfad des Endpunkts, z. B. gateway/default/hive, wenn der Server für den HTTP-Transportmodus konfiguriert ist.
  • SSL-Zertifikat (falls für den Apache Hive -Server erforderlich)

Für private Konnektivität müssen Sie eine sichere Verbindung einrichten, um eine Verbindung zu einer Datenbank herstellen zu können, die nicht über das Internet zugänglich ist (z. B. hinter einer Firewall).

Je nach Position auf der Plattform geeignete Methode zum Erstellen einer Verbindung auswählen

In einem Projekt
Klicken Sie auf Assets > Neues Asset > Verbindung zu einer Datenquelle herstellen. Weitere Informationen finden Sie unter Verbindung zu einem Projekt hinzufügen.
In einem Bereitstellungsbereich
Klicken Sie auf Assets importieren > Datenzugriff > Verbindung. Siehe Datenassets zu einem Bereitstellungsbereich hinzufügen.
Im Katalog der Plattformressourcen
Klicken Sie auf Neue Verbindung. Weitere Informationen finden Sie unter Hinzufügen von Plattformverbindungen.

Nächster Schritt: Fügen Sie Datenassets aus der Verbindung hinzu

Wo Sie diese Verbindung verwenden können

Sie können Apache HDFS-Verbindungen in den folgenden Arbeitsbereichen und Tools verwenden:

Projekte

  • Data Refinery
  • Decision Optimization
  • SPSS Modeler
  • Synthetic Data Generator

Kataloge

  • Platform assets catalog

Apache HDFS-Konfiguration

Hadoop -Cluster installieren und einrichten

Unterstützte Dateitypen

Die Apache HDFS-Verbindung unterstützt die folgenden Dateitypen: Avro, CSV, Text mit Trennzeichen, Excel, JSON, OR, Parquet, SAS, SAV, SHP und XML.

Tabellenformate

Neben der Flachdatei unterstützt die Apache HDFS -Verbindung die folgenden Data Lake-Tabellenformate: Delta Lake und Iceberg.

Weitere Informationen

Apache HDFS Users Guide

Übergeordnetes Thema: Unterstützte Verbindungen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen