Rechenressourcenoptionen für Data Refinery in Projekten

Wenn Sie einen Data Refinery-Ablauf in einem Projekt erstellen oder bearbeiten, verwenden Sie die Default Data Refinery XS-Laufzeitumgebung. Wenn Sie jedoch einen Data Refinery-Ablauf in einem Job ausführen, wählen Sie eine Umgebungsschablone für die Laufzeitumgebung aus. Die Umgebungsschablone gibt Typ, Größe und Leistung der Hardwarekonfiguration sowie die Softwareschablone an.

Umgebungstypen

Sie können die folgenden Umgebungstypen für Data Refinery verwenden:

  • Default Data Refinery XS-Laufzeitumgebung für die Ausführung von Jobs in kleinen Datasets.
  • Spark-Umgebungen zur Ausführung von Jobs für größere Datasets. Die Spark-Umgebungen verfügen über Standardumgebungsvorlagen, sodass Sie schnell beginnen können. Andernfalls können Sie für Spark-Umgebungen angepasste Umgebungsvorlagen erstellen. Sie sollten eine Spark & R 3.6-Umgebung nur verwenden, wenn Sie an einem großen Dataset arbeiten. Wenn Ihr Dataset klein ist, sollten Sie die Default Data Refinery XS-Laufzeit auswählen. Der Grund dafür ist, dass der SparkR-Cluster in einer Spark & R 3.6-Umgebung zwar schnell und leistungsstark ist, jedoch Zeit zum Erstellen benötigt, was sich beim Ausführen eines Data Refinery-Jobs für kleine Datasets bemerkbar macht.

Standardumgebungsvorlagen

Wenn Sie in Data Refinery arbeiten, wird die Laufzeit der Default Data Refinery XS--Umgebung gestartet und als aktive Laufzeit auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts angezeigt. Diese Laufzeit wird nach einer Stunde Inaktivität in der Data Refinery-Schnittstelle gestoppt. Sie können sie jedoch manuell auf der Seite Umgebungen stoppen.

Wenn Sie einen Job zur Ausführung eines Data Refinery-Ablaufs in einem Projekt erstellen, wählen Sie eine Umgebungsvorlage aus. Nachdem eine Laufzeit für einen Job gestartet wurde, wird sie als aktive Laufzeit auf der Seite Umgebungen Ihres Projekts aufgelistet. Die Laufzeit für einen Job wird gestoppt, wenn die Ausführung des Data Refinery-Jobs gestoppt wird.

Die Nutzung der Rechenkapazität wird durch Kapazitätseinheitenstunden (CUH) gemessen.

Name Hardwarekonfiguration Kapazitätseinheiten pro Stunde (CUH)
Data Refinery (Standard) XS 3 vCPU und 12 GB RAM 1.5
Default Spark 3.0 & R 3.6 Jeweils 2 Executors: 1 vCPU und 4 GB RAM;
-Treiber: 1 vCPU und 4 GB RAM
1.5

Alle Standardumgebungsvorlagen für Data Refinery sind HIPAA-fähig.

Die Spark-Standardumgebungsvorlagen werden auf der Seite Umgebungen des Projekts aufgelistet.

Rechenleistungsnutzung in Projekten

Data Refinery wird sowohl mit Watson Studio als auch mit Watson Knowledge Catalog bereitgestellt. Wenn Sie jedoch beide Services haben, sind die Rechenressourcen, die Sie für die Arbeit in Data Refinery und für die Ausführung von Jobs für Data Refinery-Datenflüsse in Projekten verwenden, nicht kumulativ. Sie verwenden die Capacity-Unit-Stunden (CUH) des Plans mit dem höchsten Rang:

  1. Enterprise oder Professional
  2. Standardwert
  3. Lite

Wenn Sie beispielsweise über einen Lite-Plan von Watson Studio und einenProfessional-Plan von Watson Knowledge Catalog verfügen, verwenden Sie die CUH von WatsonKnowledge Catalog.

Wenn die Planebene für beide Services identisch ist, verwenden Sie CUH von Watson Studio. Wenn Sie beispielsweise über einen Lite-Plan von Watson Studio und einen Lite-Plan von Watson Knowledge Catalog verfügen, können Sie nur die CUH verwenden, die maximal für Watson Studio zur Verfügung stehen. Sie können nicht die CUH von Watson Knowledge Catalog verwenden.

Sie können die Watson Studio-CUH-Nutzung im Projekt auf der Seite Umgebungen überwachen.

Sie können den Watson Knowledge Catalog-CUH-Verbrauch nicht überwachen.

Laufzeit ändern

{: #change-env} Sie können die Laufzeit für die Arbeit in Data Refinery nicht ändern.

Sie können die Laufzeit für einen Data Refinery-Ablaufjob ändern, indem Sie die Jobvorlage bearbeiten. Siehe Jobs in Data Refinery erstellen.

Laufzeitprotokolle für Jobs

Gehen Sie wie folgt vor, um die aufgelaufenen Protokolle für einen Data Refinery-Job anzuzeigen:

  1. Klicken Sie auf der Seite Jobs des Projekts auf den Job, der den Data Refinery-Ablauf ausgeführt hat, für den Sie Protokolle anzeigen möchten.
  2. Klicken Sie auf die Jobausführung. Sie können den Protokollnachsatz anzeigen oder die vollständige Protokolldatei herunterladen.

Nächste Schritte

Weitere Informationen

Übergeordnetes Thema: Auswählen von Rechenressourcen für Tools