Rechenressourcenoptionen für Data Refinery in Projekten
Wenn Sie einen Data Refinery-Ablauf in einem Projekt erstellen oder bearbeiten, verwenden Sie die Default Data Refinery XS
-Laufzeitumgebung. Wenn Sie jedoch einen Data Refinery-Ablauf in einem Job ausführen, wählen Sie eine Umgebungsschablone für die Laufzeitumgebung aus. Die Umgebungsvorlage gibt Typ, Größe und Leistung der Hardwarekonfiguration sowie die Softwareschablone an.
- Umgebungstypen
- Standardumgebungsvorlagen
- Rechenressourcennutzung
- Laufzeit ändern
- Laufzeitprotokolle für Jobs
Umgebungstypen
Sie können die folgenden Umgebungstypen für Data Refinery verwenden:
Default Data Refinery XS
-Laufzeitumgebung für die Ausführung von Jobs in kleinen Datasets.- Spark-Umgebungen zur Ausführung von Jobs für größere Datasets. Die Spark-Umgebungen verfügen über Standardumgebungsvorlagen, sodass Sie schnell beginnen können. Andernfalls können Sie für Spark-Umgebungen angepasste Umgebungsvorlagen erstellen. Sie sollten eine Spark & R 3.6-Umgebung nur verwenden, wenn Sie an einem großen Dataset arbeiten. Wenn Ihr Dataset klein ist, sollten Sie die
Default Data Refinery XS
-Laufzeit auswählen. Der Grund dafür ist, dass der SparkR-Cluster in einer Spark & R 3.6-Umgebung zwar schnell und leistungsstark ist, jedoch Zeit zum Erstellen benötigt, was sich beim Ausführen eines Data Refinery-Jobs für kleine Datasets bemerkbar macht.
Standardumgebungsvorlagen
Wenn Sie in Data Refineryarbeiten, Die Default Data Refinery XS
-Umgebungslaufzeit wird gestartet und als aktive Laufzeit unter Toollaufzeiten auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts angezeigt. Diese Laufzeit wird nach einer Stunde Inaktivität in der Data Refinery-Schnittstelle gestoppt. Sie können sie jedoch manuell unter Toollaufzeiten auf der Seite Umgebungen stoppen.
Wenn Sie einen Job zur Ausführung eines Data Refinery-Ablaufs in einem Projekt erstellen, wählen Sie eine Umgebungsvorlage aus. Nachdem eine Laufzeit für einen Job gestartet wurde, wird sie als aktive Laufzeit unter Toollaufzeiten auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet. Die Laufzeit für einen Job wird gestoppt, wenn die Ausführung des Data Refinery-Jobs gestoppt wird.
Die Nutzung der Rechenkapazität wird durch Kapazitätseinheitenstunden (CUH) gemessen.
Name | Hardwarekonfiguration | Kapazitätseinheiten pro Stunde (CUH) |
---|---|---|
Default Data Refinery XS | 3 vCPU und 12 GB RAM | 1.5 |
Standard Spark 3.3 & r 3.6 (veraltet) | Jeweils 2 Executors: 1 vCPU und 4 GB RAM; -Treiber: 1 vCPU und 4 GB RAM |
1.5 |
Standard Spark 3.3 & R 4.2 | Jeweils 2 Executors: 1 vCPU und 4 GB RAM; -Treiber: 1 vCPU und 4 GB RAM |
1.5 |
Alle Standardumgebungsvorlagen für Data Refinery sind HIPAA-fähig.
Die Spark-Standardumgebungsvorlagen werden unter Vorlagen auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet.
Rechenleistungsnutzung in Projekten
Data Refinery wird sowohl mit Watson Studio als auch mit Watson Knowledge Catalog bereitgestellt. Wenn Sie jedoch beide Services haben, sind die Rechenressourcen, die Sie für die Arbeit in Data Refinery und für die Ausführung von Jobs für Data Refinery-Datenflüsse in Projekten verwenden, nicht kumulativ. Sie verwenden die Capacity-Unit-Stunden (CUH) des Plans mit dem höchsten Rang:
- Enterprise oder Professional
- Standard
- Lite
Wenn Sie beispielsweise über einen Lite-Plan von Watson Studio und einenProfessional-Plan von Watson Knowledge Catalog verfügen, verwenden Sie die CUH von WatsonKnowledge Catalog.
Wenn die Planebene für beide Services identisch ist, verwenden Sie CUH von Watson Studio. Wenn Sie beispielsweise über einen Lite-Plan von Watson Studio und einen Lite-Plan von Watson Knowledge Catalog verfügen, können Sie nur die CUH verwenden, die maximal für Watson Studio zur Verfügung stehen. Sie können nicht die CUH von Watson Knowledge Catalog verwenden.
Sie können die Watson Studio CUH-Nutzung auf der Seite Ressourcennutzung auf der Registerkarte Verwalten Ihres Projekts überwachen.
Sie können den Watson Knowledge Catalog-CUH-Verbrauch nicht überwachen.
Laufzeit ändern
Sie können die Laufzeit für die Arbeit in Data Refinerynicht ändern.
Sie können die Laufzeit für einen Data Refinery-Ablaufjob ändern, indem Sie die Jobvorlage bearbeiten. Siehe Jobs in Data Refinery erstellen.
Laufzeitprotokolle für Jobs
Gehen Sie wie folgt vor, um die aufgelaufenen Protokolle für einen Data Refinery-Job anzuzeigen:
- Klicken Sie auf der Seite Jobs des Projekts auf den Job, der den Data Refinery-Ablauf ausgeführt hat, für den Sie Protokolle anzeigen möchten.
- Klicken Sie auf die Jobausführung. Sie können den Protokollnachsatz anzeigen oder die vollständige Protokolldatei herunterladen.
Nächste Schritte
Weitere Informationen
Übergeordnetes Thema: Auswählen von Rechenressourcen für Tools