Découvrez comment l'utilisation du calcul est mesurée à l'aide d'unités d'heures de capacité (CUH) consommées par un environnement actif en cours d'exécution dans watsonx.ai Studio. les plans de watsonx.ai Studio régissent la façon dont vous êtes facturé mensuellement pour les ressources que vous consommez.
Fonction | Lite | Professional | Standard (existant) | Entreprise (existant) |
---|---|---|---|---|
Utilisation du traitement | 10 CUH par mois |
Nombre illimité de CUH facturés pour l'utilisation par mois |
10 CUH par mois ' + payer pour plus |
5000 CUH par mois + paye pour plus |
Unités de capacité par heure pour les ordinateurs portables
Type de capacité | Langue | Unités de capacité par heure |
---|---|---|
1 UC virtuelle et 4 Go RAM | Python R |
0.5 |
2 UC virtuelles et 8 Go RAM | Python R |
1 |
4 vCPU et 16 Go de mémoire RAM | Python R |
2 |
8 vCPU et 32 Go de mémoire RAM | Python R |
4 |
16 vCPU et 64 Go de mémoire RAM | Python R |
8 |
Pilote : 1 vCPU et 4 Go de RAM ; 1 exécuteur : 1 vCPU et 4 Go de RAM | Spark avec Python ' Spark avec R |
1 CUH par exécuteur supplémentaire est de 0,5 |
Pilote : 1 vCPU et 4 Go de RAM ; 1 exécuteur : 2 vCPU et 8 Go de RAM | Spark avec Python ' Spark avec R |
1.5 CUH par exécuteur supplémentaire est 1 |
Pilote : 2 vCPU et 8 Go de RAM ; 1 exécuteur : 1 vCPU et 4 Go de RAM | Spark avec Python ' Spark avec R |
1.5 CUH par programme d'exécution supplémentaire est 0,5 |
Pilote : 2 vCPU et 8 Go de RAM ; 1 exécuteur : 2 vCPU et 8 Go de RAM | Spark avec Python ' Spark avec R |
2 CUH par exécuteur supplémentaire est 1 |
Pilote : 3 vCPU et 12 GB RAM ; 1 Executor : 3 vCPU et 12 GB RAM ; | Spark avec Python ' Spark avec R |
2 CUH par exécuteur supplémentaire est 1 |
La quantité d'unités de capacité par heure consommées est déterminée pour :
Les environnements Python ou R par défaut, par la taille du matériel et le nombre d'utilisateurs dans un projet qui utilisent un ou plusieurs environnements d'exécution.
Par exemple :
IBM Runtime 24.1 on Python 3.10 XS
avec 2 unités vCPUs consommera 1 CUH s'il est exécuté pendant une heure. Si vous avez un projet avec 7 utilisateurs travaillant sur un bloc-notes 8 heures par jour, 5 jours par semaine, tous à l'aide de l'environnementIBM Runtime 24.1 on Python 3.10 XS
, et que tout le monde arrête leur exécution lorsqu'ils partent le soir, la consommation d'exécution est5 x 7 x 8 = 280 CUH per week
.Le calcul des CUH se complique si différents environnements sont utilisés pour exécuter des blocs-notes dans le même projet et si les utilisateurs ont plusieurs environnements d'exécution actifs, chacun consommant sa propre quantité de CUH. En outre, des blocs-notes peuvent avoir été planifiés pour s'exécuter pendant les heures d'absence, ou il peut y avoir des travaux à exécution longue, chacun consommant également des CUH.
Les environnements Spark par défaut, par la taille de la configuration matérielle du pilote et le nombre et la taille des exécuteurs.
Unités de capacité par heure pour les blocs-notes avec Decision Optimization
La quantité d'unités de capacité par heure consommées est déterminée par la taille du matériel et le prix pour Decision Optimization.
Type de capacité | Langue | Unités de capacité par heure |
---|---|---|
1 UC virtuelle et 4 Go RAM | Python + Decision Optimization | 0,5 + 5 = 5,5 |
2 UC virtuelles et 8 Go RAM | Python + Decision Optimization | 1 + 5 = 6 |
4 vCPU et 16 Go de mémoire RAM | Python + Decision Optimization | 2 + 5 = 7 |
8 vCPU et 32 Go de mémoire RAM | Python + Decision Optimization | 4 + 5 = 9 |
16 vCPU et 64 Go de mémoire RAM | Python + Decision Optimization | 8 + 5 = 13 |
Unités de capacité par heure pour les blocs-notes avec Watson Natural Language Processing
Le taux d'unités de capacité par heure consommée est déterminé par la taille du matériel et le prix de Watson Natural Language Processing.
Type de capacité | Langue | Unités de capacité par heure |
---|---|---|
1 UC virtuelle et 4 Go RAM | Python + Watson Natural Language Processing | 0,5 + 5 = 5,5 |
2 UC virtuelles et 8 Go RAM | Python + Watson Natural Language Processing | 1 + 5 = 6 |
4 vCPU et 16 Go de mémoire RAM | Python + Watson Natural Language Processing | 2 + 5 = 7 |
8 vCPU et 32 Go de mémoire RAM | Python + Watson Natural Language Processing | 4 + 5 = 9 |
16 vCPU et 64 Go de mémoire RAM | Python + Watson Natural Language Processing | 8 + 5 = 13 |
Unités de capacité par heure pour les flux SPSS Modeler
Nom | Type de capacité | Unités de capacité par heure |
---|---|---|
Default SPSS Modeler S |
2 UC virtuelles et 8 Go RAM | 1 |
Default SPSS Modeler M |
4 vCPU et 16 Go de mémoire RAM | 2 |
Default SPSS Modeler L |
6 vCPU et 24 GB RAM | 3 |
Unités de capacité par heure pour Data Refinery et les flux Data Refinery
Nom | Type de capacité | Unités de capacité par heure |
---|---|---|
Default Data Refinery XS runtime | 3 vCPU et 12 Go de RAM | 1.5 |
Défaut Spark 3.4 & R 4.2 | 2 exécuteurs chacun : 1 vCPU et 4 Go de RAM ; pilote : 1 vCPU et 4 Go de RAM | 1.5 |
Unités de capacité par heure pour RStudio
Nom | Type de capacité | Unités de capacité par heure |
---|---|---|
Default RStudio XS | 2 UC virtuelles et 8 Go RAM | 1 |
Default RStudio M | 8 vCPU et 32 Go de mémoire RAM | 4 |
Default RStudio L | 16 vCPU et 64 Go de mémoire RAM | 8 |
Unités de capacité par heure pour les environnements GPU
Type de capacité | Processeurs graphiques | Langue | Unités de capacité par heure |
---|---|---|---|
1 x NVIDIA Tesla V100 | 1 | Python avec GPU | 68 |
2 x NVIDIA Tesla V100 | 2 | Python avec GPU | 136 |
En savoir plus
- Pour plus d'informations sur la surveillance de l'utilisation des ressources de votre compte, voir Surveillance de l'utilisation des ressources du compte.
- Pour plus de détails sur l'allocation et la consommation des ressources informatiques, voir wastonx.ai Studio environments compute use
Parent topic : watsonx.ai Studio plans