0 / 0
Zurück zur englischen Version der Dokumentation
Rechenressourcenoptionen für Data Refinery in Projekten
Letzte Aktualisierung: 21. Nov. 2024
Rechenressourcenoptionen für Data Refinery in Projekten

Wenn Sie einen Data Refinery-Ablauf in einem Projekt erstellen oder bearbeiten, verwenden Sie die Default Data Refinery XS-Laufzeitumgebung. Wenn Sie jedoch einen Data Refinery-Ablauf in einem Job ausführen, wählen Sie eine Umgebungsschablone für die Laufzeitumgebung aus. Die Umgebungsvorlage gibt Typ, Größe und Leistung der Hardwarekonfiguration sowie die Softwareschablone an.

Umgebungstypen

Sie können die folgenden Umgebungstypen für Data Refinery verwenden:

  • Default Data Refinery XS-Laufzeitumgebung für die Ausführung von Jobs in kleinen Datasets.
  • Spark-Umgebungen zur Ausführung von Jobs für größere Datasets. Die Spark-Umgebungen verfügen über Standardumgebungsvorlagen, sodass Sie schnell beginnen können. Andernfalls können Sie für Spark-Umgebungen angepasste Umgebungsvorlagen erstellen. Sie sollten eine Spark & R-Umgebung nur verwenden, wenn Sie mit einem großen Dataset arbeiten. Wenn Ihr Dataset klein ist, sollten Sie die Default Data Refinery XS-Laufzeit auswählen. Der Grund dafür ist, dass der SparkR -Cluster in einer Spark & R-Umgebung zwar schnell und leistungsfähig ist, jedoch Zeit für die Erstellung benötigt, was sich bemerkbar macht, wenn Sie einen Job Data Refinery für kleine Datasets ausführen.

Standardumgebungsvorlagen

Wenn Sie in Data Refineryarbeiten, Die Default Data Refinery XS -Umgebungslaufzeit wird gestartet und als aktive Laufzeit unter Toollaufzeiten auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts angezeigt. Diese Laufzeit wird nach einer Stunde Inaktivität in der Data Refinery-Schnittstelle gestoppt. Sie können sie jedoch manuell unter Toollaufzeiten auf der Seite Umgebungen stoppen.

Wenn Sie einen Job zur Ausführung eines Data Refinery-Ablaufs in einem Projekt erstellen, wählen Sie eine Umgebungsvorlage aus. Nachdem eine Laufzeit für einen Job gestartet wurde, wird sie als aktive Laufzeit unter Toollaufzeiten auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet. Die Laufzeit für einen Job wird gestoppt, wenn die Ausführung des Data Refinery-Jobs gestoppt wird.

Die Nutzung der Rechenkapazität wird durch Kapazitätseinheitenstunden (CUH) gemessen.

In Projekten für Data Refinery verfügbare voreingestellte Umgebungsvorlagen
Ihren Namen Hardwarekonfiguration Kapazitätseinheiten pro Stunde (CUH)
Default Data Refinery XS 3 vCPU und 12 GB RAM 1.5
Standard Spark 3.4 & R 4.2 Jeweils 2 Executors: 1 vCPU und 4 GB RAM;
-Treiber: 1 vCPU und 4 GB RAM
1.5
Standard Spark 3.3 & R 4.2
Veraltet
Jeweils 2 Executors: 1 vCPU und 4 GB RAM;
-Treiber: 1 vCPU und 4 GB RAM
1.5
Hinweis: Spark 3.3 in Notebooks und JupyterLab ist veraltet. Obwohl Sie weiterhin Spark 3.3 verwenden können, um Ihre Notebooks und Skripte auszuführen, sollten Sie den Wechsel zu Spark 3.4 in Betracht ziehen.

Alle Standardumgebungsvorlagen für Data Refinery sind HIPAA-fähig.

Die Spark-Standardumgebungsvorlagen werden unter Vorlagen auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet.

Rechenleistungsnutzung in Projekten

Data Refinery wird sowohl mit watsonx.ai Studio als auch mit IBM Knowledge Catalog bereitgestellt. Wenn Sie jedoch beide Services haben, sind die Rechenressourcen, die Sie für die Arbeit in Data Refinery und für die Ausführung von Jobs für Data Refinery-Datenflüsse in Projekten verwenden, nicht kumulativ. Sie verwenden die Capacity-Unit-Stunden (CUH) des Plans mit dem höchsten Rang:

  1. Enterprise oder Professional
  2. Standardwert
  3. Lite

Wenn Sie beispielsweise einen watsonx.ai Studio Lite-Plan und einen IBM Knowledge Catalog Professional-Plan haben, verwenden Sie IBM Knowledge Catalog CUH.

Wenn die Planstufe für beide Dienste gleich ist, dann verwenden Sie CUH von watsonx.ai Studio. Wenn Sie beispielsweise einen watsonx.ai Studio Lite-Plan und einen IBM Knowledge Catalog Lite-Plan haben, können Sie nur bis zum Limit von watsonx.ai Studio CUH nutzen. Sie können nicht zur Verwendung von IBM Knowledge Catalog CUH wechseln.

Sie können den CUH-Verbrauch watsonx.ai Studio auf der Seite Ressourcennutzung auf der Registerkarte Verwalten Ihres Projekts überwachen.

Sie können den IBM Knowledge Catalog CUH-Verbrauch nicht überwachen.

Laufzeit ändern

Sie können die Laufzeit für die Arbeit in Data Refinerynicht ändern.

Sie können die Laufzeit für einen Data Refinery-Ablaufjob ändern, indem Sie die Jobvorlage bearbeiten. Siehe Jobs in Data Refinery erstellen.

Laufzeitprotokolle für Jobs

Gehen Sie wie folgt vor, um die aufgelaufenen Protokolle für einen Data Refinery-Job anzuzeigen:

  1. Klicken Sie auf der Seite Jobs des Projekts auf den Job, der den Data Refinery-Ablauf ausgeführt hat, für den Sie Protokolle anzeigen möchten.
  2. Klicken Sie auf die Jobausführung. Sie können den Protokollnachsatz anzeigen oder die vollständige Protokolldatei herunterladen.

Nächste Schritte

Weitere Informationen

Übergeordnetes Thema: Auswählen von Rechenressourcen für Tools

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen