0 / 0

Abrechnungsdetails für watsonx.ai Studio Tools

Letzte Aktualisierung: 03. Juli 2025
Abrechnungsdetails für watsonx.ai Studio Tools

Erfahren Sie, wie die Rechennutzung anhand von Kapazitätsstunden (CUH) gemessen wird, die von einer aktiven Umgebungslaufzeit in watsonx.ai Studio verbraucht werden.

Kapazitätseinheiten pro Stunde für Notebooks

Notizbücher
Kapazitätstyp Sprache Capacity-Units pro Stunde
1 vCPU und 4 GB RAM Python
R
0.5
2 vCPU und 8 GB RAM Python
R
1
4 vCPU und 16 GB RAM Python
R
2
8 vCPU und 32 GB RAM Python
R
4
16 vCPU und 64 GB RAM Python
R
8
Treiber: 1 vCPU und 4 GB RAM; 1 Executor: 1 vCPU und 4 GB RAM Spark mit Python '
Spark mit R
1
CUH pro zusätzlichem Executor ist 0,5
Treiber: 1 vCPU und 4 GB RAM; 1 Executor: 2 vCPU und 8 GB RAM Spark mit Python '
Spark mit R
1,5
CUH pro zusätzlichem Executor ist 1
Treiber: 2 vCPU und 8 GB RAM; 1 Executor: 1 vCPU und 4 GB RAM; Spark mit Python '
Spark mit R
1,5
CUH pro zusätzlichem Executor ist 0,5
Treiber: 2 vCPU und 8 GB RAM; 1 Executor: 2 vCPU und 8 GB RAM; Spark mit Python '
Spark mit R
2
CUH pro zusätzlichem Executor ist 1
Treiber: 3 vCPU und 12 GB RAM; 1 Executor: 3 vCPU und 12 GB RAM; Spark mit Python '
Spark mit R
2
CUH pro zusätzlichem Executor ist 1

 

Die Menge der pro Stunde verbrauchten Capacity-Units wird wie folgt bestimmt:

  • In Default Python- oder Default R-Umgebungen durch die Größe der Hardware und die Anzahl der Benutzer in einem Projekt, die eine oder mehrere Laufzeiten verwenden

    Beispiel: Der IBM Runtime 24.1 on Python 3.10 XS mit 2 vCPUs belegt 1 CUH, wenn er eine Stunde ausgeführt wird. Wenn Sie ein Projekt mit 7 Benutzern haben, die 8 Stunden am Tag, 5 Tage die Woche an Notebooks arbeiten und alle die IBM Runtime 24.1 on Python 3.10 XS-Umgebung verwenden, und alle Benutzer ihre Laufzeiten beenden, wenn sie abends abreisen, ist die Laufzeitnutzung 5 x 7 x 8 = 280 CUH per week.

    Die CUH-Berechnung wird komplexer, wenn für die Ausführung von Notebooks in einem Projekt mehrere Umgebungen verwendet werden und Benutzer über mehrere aktive Laufzeiten verfügen, die alle Capacity-Unit-Stunden verbrauchen. Außerdem gibt es möglicherweise Notebooks, deren Ausführung außerhalb der Betriebszeiten vorgesehen ist, und Jobs mit langer Laufzeit, die ebenfalls Capacit-Unit-Stunden verbrauchen.

  • In Default Spark-Umgebungen durch die Hardwarekonfigurationsgröße des Treibers und die Anzahl der Executor und deren Größe. Der Spark-Treiber ist für die Verwaltung der gesamten Ausführung einer Spark-Anwendung verantwortlich, einschließlich der Aufgabenplanung und der Kommunikation mit dem Clustermanager, während die Spark-Executors verteilte Prozesse auf Arbeitsknoten sind, die die vom Treiber zugewiesenen Aufgaben ausführen und die Datenverarbeitung parallel durchführen.

 

Capacity-Units pro Stunde für Notebooks mit Decision Optimization

Die Menge der pro Stunde verbrauchten Capacity-Units hängt von der Hardwaregröße und dem Preis für Decision Optimization ab.

Decision Optimization-Notebooks
Kapazitätstyp Sprache Capacity-Units pro Stunde
1 vCPU und 4 GB RAM Python + Decision Optimization 0,5 + 5 = 5,5
2 vCPU und 8 GB RAM Python + Decision Optimization 1 + 5 = 6
4 vCPU und 16 GB RAM Python + Decision Optimization 2 + 5 = 7
8 vCPU und 32 GB RAM Python + Decision Optimization 4 + 5 = 9
16 vCPU und 64 GB RAM Python + Decision Optimization 8 + 5 = 13

 

Kapazitätseinheiten pro Stunde für Notebooks mit Watson Natural Language Processing

Die Rate der verbrauchten Kapazitätseinheiten pro Stunde wird durch die Hardwaregröße und den Preis für Watson Natural Language Processing bestimmt.

Watson für natürliche Sprachverarbeitung
Kapazitätstyp Sprache Capacity-Units pro Stunde
1 vCPU und 4 GB RAM Python + Watson Natural Language Processing 0,5 + 5 = 5,5
2 vCPU und 8 GB RAM Python + Watson Natural Language Processing 1 + 5 = 6
4 vCPU und 16 GB RAM Python + Watson Natural Language Processing 2 + 5 = 7
8 vCPU und 32 GB RAM Python + Watson Natural Language Processing 4 + 5 = 9
16 vCPU und 64 GB RAM Python + Watson Natural Language Processing 8 + 5 = 13

 

Kapazitätseinheiten pro Stunde für Pipelines Bash-Skript

In Pipelines verfügbare Hardwarekonfigurationen für die Ausführung von Bash-Skripten
Größe Kapazitätstyp Capacity-Units pro Stunde
XXS 1 vCPU und 2 GB RAM 0.5
XS 1 vCPU und 4 GB RAM 0.5
S 2 vCPU und 8 GB RAM 1
M 4 vCPU und 16 GB RAM 2
Maschinelles Lernen 4 vCPU und 32 GB RAM 2

Hinweise:

  • Die Laufzeiten für Bash-Skripte enden automatisch, wenn die Verarbeitung abgeschlossen ist.
  • Der Ressourcenverbrauch wird in Sekunden gemessen, mit einem Minimum von 1 Sekunde. Beträgt die Ausführungszeit zum Beispiel 52.1 Sekunden, so beträgt die Gebühr 53 Sekunden.

CUH-Verbrauch in Pipelines

Pipelines werden verwendet, um verschiedene Assets wie Notebooks und Skripte auszuführen. Während die Erstellung einer Pipeline keine Rechenressourcen verbraucht, ist dies bei der Ausführung der Pipeline der Fall.

Ein spezieller Fall, in dem CUH explizit berechnet wird, ist die Ausführung von Bash-Skriptknoten in einer Pipeline. Diese Skripte werden mit einer ausgewählten Hardwarekonfiguration ausgeführt, und die CUH-Gebühr richtet sich nach der Ausführungszeit und der verwendeten Konfiguration.

Kapazitätseinheiten pro Stunde für den Synthetic Data Generator

Kapazitätstyp Capacity-Units pro Stunde
2 vCPU und 8 GB RAM 7

Capacity-Units pro Stunde für SPSS Modeler-Abläufe

SPSS Modeler-Datenflüsse
Ihren Namen Kapazitätstyp Capacity-Units pro Stunde
Default SPSS Modeler S 2 vCPU und 8 GB RAM 1
Default SPSS Modeler M 4 vCPU und 16 GB RAM 2
Default SPSS Modeler L 6 vCPU und 24 GB RAM 3

 

Capacity-Units pro Stunde für Data Refinery und Data Refinery-Abläufe

Data Refinery und Data Refinery-Abläufe
Ihren Namen Kapazitätstyp Capacity-Units pro Stunde
Default Data Refinery XS (Laufzeit) 3 vCPU und 12 GB RAM 1.5
Standard Spark 3.4 & R 4.2 2 Executors, jeweils: 1 vCPU und 4 GB RAM; Treiber: 1 vCPU und 4 GB RAM 1.5

 

Capacity-Units pro Stunde für RStudio

RStudio
Ihren Namen Kapazitätstyp Capacity-Units pro Stunde
Default RStudio XS 2 vCPU und 8 GB RAM 1
Default RStudio M 8 vCPU und 32 GB RAM 4
Default RStudio L 16 vCPU und 64 GB RAM 8

 

Capacity-Units pro Stunde für GPU-Umgebungen

GPU-Umgebungen
Kapazitätstyp GPUs Sprache Capacity-Units pro Stunde
1 x NVIDIA Tesla V100 1 Python mit GPU 68
2 x NVIDIA Tesla V100 2 Python mit GPU 136

Ressourcenverbrauch für Prompt Lab

Prompt Lab verbraucht keine Rechenressourcen. Die Nutzung von Prompt Lab wird anhand der Anzahl der verarbeiteten Token gemessen. Siehe Abrechnungsdetails für generative AI-Assets.

Weitere Informationen

Übergeordnetes Thema: Services und Integrationen