Erfahren Sie, wie die Rechennutzung anhand von Kapazitätsstunden (CUH) gemessen wird, die von einer aktiven Umgebungslaufzeit in watsonx.ai Studio verbraucht werden. die watsonx.ai Studio-Pläne regeln, wie Sie monatlich für die verbrauchten Ressourcen abgerechnet werden.
In den einzelnen Plänen berücksichtigte Capacity-Units pro Monat
Funktion
Tarif „Lite"
Professionell
Standard (traditionell)
Unternehmen (traditionell)
Verarbeitungsaufwand
10 CUH pro Monat
Unbegrenzte CUH -Abrechnung für Nutzung pro Monat
10 CUH pro Monat ' + mehr bezahlen
5000 CUH pro Monat + zahlen für mehr
In den einzelnen Plänen berücksichtigte Capacity-Units pro Monat
Funktion
Tarif „Lite"
Professionell
Verarbeitungsaufwand
10 CUH pro Monat
Unbegrenzte CUH -Abrechnung für Nutzung pro Monat
Kapazitätseinheiten pro Stunde für Notebooks
Copy link to section
Notizbücher
Kapazitätstyp
Sprache
Capacity-Units pro Stunde
1 vCPU und 4 GB RAM
Python R
0.5
2 vCPU und 8 GB RAM
Python R
1
4 vCPU und 16 GB RAM
Python R
2
8 vCPU und 32 GB RAM
Python R
4
16 vCPU und 64 GB RAM
Python R
8
Treiber: 1 vCPU und 4 GB RAM; 1 Executor: 1 vCPU und 4 GB RAM
Spark mit Python ' Spark mit R
1 CUH pro zusätzlichem Executor ist 0,5
Treiber: 1 vCPU und 4 GB RAM; 1 Executor: 2 vCPU und 8 GB RAM
Spark mit Python ' Spark mit R
1,5 CUH pro zusätzlichem Executor ist 1
Treiber: 2 vCPU und 8 GB RAM; 1 Executor: 1 vCPU und 4 GB RAM;
Spark mit Python ' Spark mit R
1,5 CUH pro zusätzlichem Executor ist 0,5
Treiber: 2 vCPU und 8 GB RAM; 1 Executor: 2 vCPU und 8 GB RAM;
Spark mit Python ' Spark mit R
2 CUH pro zusätzlichem Executor ist 1
Treiber: 3 vCPU und 12 GB RAM; 1 Executor: 3 vCPU und 12 GB RAM;
Spark mit Python ' Spark mit R
2 CUH pro zusätzlichem Executor ist 1
Die Menge der pro Stunde verbrauchten Capacity-Units wird wie folgt bestimmt:
In Default Python- oder Default R-Umgebungen durch die Größe der Hardware und die Anzahl der Benutzer in einem Projekt, die eine oder mehrere Laufzeiten verwenden
Beispiel: Der IBM Runtime 24.1 on Python 3.10 XS mit 2 vCPUs belegt 1 CUH, wenn er eine Stunde ausgeführt wird. Wenn Sie ein Projekt mit 7 Benutzern haben, die 8 Stunden am Tag, 5 Tage die Woche an Notebooks arbeiten und alle die IBM Runtime 24.1 on Python 3.10 XS-Umgebung verwenden, und alle Benutzer ihre Laufzeiten beenden, wenn sie abends abreisen, ist die Laufzeitnutzung 5 x 7 x 8 = 280 CUH per week.
Die CUH-Berechnung wird komplexer, wenn für die Ausführung von Notebooks in einem Projekt mehrere Umgebungen verwendet werden und Benutzer über mehrere aktive Laufzeiten verfügen, die alle Capacity-Unit-Stunden verbrauchen. Außerdem gibt es möglicherweise Notebooks, deren Ausführung außerhalb der Betriebszeiten vorgesehen ist, und Jobs mit langer Laufzeit, die ebenfalls Capacit-Unit-Stunden verbrauchen.
In Default Spark-Umgebungen durch die Hardwarekonfigurationsgröße des Treibers und die Anzahl der Executor und deren Größe.
Capacity-Units pro Stunde für Notebooks mit Decision Optimization
Copy link to section
Die Menge der pro Stunde verbrauchten Capacity-Units hängt von der Hardwaregröße und dem Preis für Decision Optimization ab.
Decision Optimization-Notebooks
Kapazitätstyp
Sprache
Capacity-Units pro Stunde
1 vCPU und 4 GB RAM
Python + Decision Optimization
0,5 + 5 = 5,5
2 vCPU und 8 GB RAM
Python + Decision Optimization
1 + 5 = 6
4 vCPU und 16 GB RAM
Python + Decision Optimization
2 + 5 = 7
8 vCPU und 32 GB RAM
Python + Decision Optimization
4 + 5 = 9
16 vCPU und 64 GB RAM
Python + Decision Optimization
8 + 5 = 13
Kapazitätseinheiten pro Stunde für Notebooks mit Watson Natural Language Processing
Copy link to section
Die Rate der verbrauchten Kapazitätseinheiten pro Stunde wird durch die Hardwaregröße und den Preis für Watson Natural Language Processing bestimmt.
Watson für natürliche Sprachverarbeitung
Kapazitätstyp
Sprache
Capacity-Units pro Stunde
1 vCPU und 4 GB RAM
Python + Watson Natural Language Processing
0,5 + 5 = 5,5
2 vCPU und 8 GB RAM
Python + Watson Natural Language Processing
1 + 5 = 6
4 vCPU und 16 GB RAM
Python + Watson Natural Language Processing
2 + 5 = 7
8 vCPU und 32 GB RAM
Python + Watson Natural Language Processing
4 + 5 = 9
16 vCPU und 64 GB RAM
Python + Watson Natural Language Processing
8 + 5 = 13
Kapazitätseinheiten pro Stunde für den Synthetic Data Generator
Copy link to section
Kapazitätstyp
Capacity-Units pro Stunde
2 vCPU und 8 GB RAM
7
Capacity-Units pro Stunde für SPSS Modeler-Abläufe
Copy link to section
SPSS Modeler-Datenflüsse
Ihren Namen
Kapazitätstyp
Capacity-Units pro Stunde
Default SPSS Modeler S
2 vCPU und 8 GB RAM
1
Default SPSS Modeler M
4 vCPU und 16 GB RAM
2
Default SPSS Modeler L
6 vCPU und 24 GB RAM
3
Capacity-Units pro Stunde für Data Refinery und Data Refinery-Abläufe
Copy link to section
Data Refinery und Data Refinery-Abläufe
Ihren Namen
Kapazitätstyp
Capacity-Units pro Stunde
Default Data Refinery XS (Laufzeit)
3 vCPU und 12 GB RAM
1.5
Standard Spark 3.4 & R 4.2
2 Executors, jeweils: 1 vCPU und 4 GB RAM; Treiber: 1 vCPU und 4 GB RAM
1.5
Capacity-Units pro Stunde für RStudio
Copy link to section
RStudio
Ihren Namen
Kapazitätstyp
Capacity-Units pro Stunde
Default RStudio XS
2 vCPU und 8 GB RAM
1
Default RStudio M
8 vCPU und 32 GB RAM
4
Default RStudio L
16 vCPU und 64 GB RAM
8
Capacity-Units pro Stunde für GPU-Umgebungen
Copy link to section
GPU-Umgebungen
Kapazitätstyp
GPUs
Sprache
Capacity-Units pro Stunde
1 x NVIDIA Tesla V100
1
Python mit GPU
68
2 x NVIDIA Tesla V100
2
Python mit GPU
136
Ressourcenverbrauch für Prompt Lab
Copy link to section
Prompt Lab verbraucht keine Rechenressourcen. Die Nutzung von Prompt Lab wird anhand der Anzahl der verarbeiteten Token gemessen. Siehe Abrechnungsdetails für generative AI-Assets.