0 / 0
Zurück zur englischen Version der Dokumentation
Rechenressourcenoptionen für den Notebookeditor in Projekten
Letzte Aktualisierung: 28. Nov. 2024
Rechenressourcenoptionen für den Notebookeditor in Projekten

Wenn Sie ein Notebook im Notebook-Editor in einem Projekt ausführen, wählen Sie eine Umgebungsvorlage aus, die die Rechenressourcen für die Laufzeitumgebung definiert. Die Umgebungsvorlage gibt Typ, Größe und Leistung der Hardwarekonfiguration sowie die Softwarekonfiguration an. Für Notebooks enthalten Umgebungsvorlagen eine unterstützte Sprache von Python und R.

Umgebungstypen

Sie können diese Arten von Umgebungen für die Ausführung von Notebooks verwenden:

Die meisten Umgebungstypen für Notebooks verfügen über Standardumgebungsvorlagen, sodass Sie schnell beginnen können. Andernfalls können Sie angepasste Umgebungsvorlagen erstellen.

Umgebungstypen für Notebooks
Umgebungstyp Standardvorlagen Benutzerdefinierte Vorlagen
Anaconda-CPU
Spark-Cluster
GPU

Laufzeitreleases

Die Standardumgebungen für Notebooks werden als Affiliate eines Laufzeitrelease mit dem Präfix Runtime , gefolgt vom Releasejahr und der Releaseversion, hinzugefügt.

Ein Laufzeitrelease gibt eine Liste wichtiger Data-Science-Bibliotheken und eine Sprachversion an, beispielsweise Python 3.10. Alle Umgebungen eines Laufzeitrelease basieren auf den im Release definierten Bibliotheksversionen und stellen so die konsistente Verwendung von Data-Science-Bibliotheken in allen Data-Science-Anwendungen sicher.

Es gibt eine 24.1 Runtime-Version für verschiedene Versionen von Python und R.

Hinweis:

IBM Runtime 23.1 ist eingeschränkt. Ab dem 21. November 2024 können Sie keine neuen Notebooks oder benutzerdefinierten Umgebungen mehr erstellen, indem Sie 23.1 verwenden. Außerdem können Sie keine neuen Bereitstellungen mit Software-Spezifikationen erstellen, die auf der 23.1 basieren. Um einen reibungslosen Ablauf zu gewährleisten und die neuesten Funktionen und Verbesserungen zu nutzen, wechseln Sie zu IBM Runtime 24.1. Diese Änderung gilt für watsonx.ai Studio auf Cloud Pak for Data as a Service und IBM watsonx as a Service.

Während ein Laufzeitrelease unterstützt wird, aktualisiert IBM die Bibliotheksversionen, um Sicherheitsanforderungen zu erfüllen. Beachten Sie, dass diese Aktualisierungen die <Major>.<Minor> -Versionen der Bibliotheken nicht ändern, sondern nur die <Patch> -Versionen. Dadurch wird sichergestellt, dass Ihre Notebook-Assets weiterhin ausgeführt werden.

In Laufzeiten enthaltene Bibliothekspakete

Spezifische Versionen von populären Data-Science-Bibliothekspaketen, die in watsonx.ai Studio-Laufzeiten enthalten sind, finden Sie in diesen Tabellen:

Tabelle 1. Pakete und ihre Versionen in den verschiedenen Runtime-Releases für Python
Bibliothek Laufzeit 24.1 An Python 3.11
Keras 2.14.0
Lale 0.8.x
LightGBM 4.2.0
NumPy 1.26.4
ONNX 1.16
ONNX-Laufzeit 1.16.3
OpenCV 4.8.1
pandas 2.1.4
PyArrow 15.0.1
PyTorch 2.1.2
scikit-learn 1.3.0
SciPy 1.11.4
SnapML 1.14.6
TensorFlow 2.14.1
XGBoost 2.0.3
Tabelle 2. Pakete und ihre Versionen in den verschiedenen Runtime-Releases für R
Bibliothek Laufzeit 24.1 auf R 4.3
Pfeil 15.0
Auto 3.1
Winkelzeichen 6.0
Katoole 1.18
Prognose 8.21
ggplot2 3.4
Glmnet 4.1
Hmisc 5.1
Keras 2.13
lme4 1.1
mvtnorm 1.2
Pandoc 2.12
Psych 2.3
Python 3.11
Randomforest 4.7
Retikulieren 1.34
Sandwich 3.0
scikit-learn 1.3
räumlich 7.3
TensorFlow 2.15
Tidyr 1.3
XGBoost 1.7

Zusätzlich zu den in den Tabellen aufgelisteten Bibliotheken enthalten Laufzeiten viele andere nützliche Bibliotheken. Zum Anzeigen der vollständigen Liste wählen Sie die Registerkarte Verwalten in Ihrem Projekt aus, klicken auf Vorlagen, wählen die Registerkarte Umgebungen aus und klicken dann auf eine der aufgelisteten Umgebungen.

CPU-Umgebungsvorlagen

Sie können eine der folgenden Standardvorlagen für CPU-Umgebungen für Notebooks auswählen. Die Standardumgebungsvorlagen werden unter Vorlagen auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet.

DO Gibt an, dass die Umgebungsvorlagen die CPLEX- und DOcplex-Bibliotheken enthalten, um Probleme bei der Entscheidungsoptimierung zu modellieren und zu lösen, die die Komplexität überschreiten, die von der Community Edition der Bibliotheken in den anderen Python-Standardumgebungen unterstützt wird. Siehe Decision Optimization-Notebooks.

NLP Gibt an, dass die Umgebungsvorlagen die Watson Natural Language Processing-Bibliothek mit vorab trainierten Modellen für Sprachverarbeitungstasks enthalten, die Sie für unstrukturierte Daten ausführen können. Siehe Watson Natural Language Processing-Bibliothek verwenden. Diese Standardumgebung sollte groß genug sein, um die vorab trainierten Modelle auszuführen.

Standard-CPU-Umgebungsvorlagen für Notebooks
Ihren Namen Hardwarekonfiguration CUH-Rate pro Stunde
Laufzeit 24.1 An Python 3.10 XXS 1 vCPU und 4 GB RAM 0.5
Laufzeit 24.1 An Python 3.10 Größe 2 vCPU und 8 GB RAM 1
Laufzeit 24.1 An Python 3.10 S 4 vCPU und 16 GB RAM 2
NLP + DO-Laufzeit 24.1 An Python 3.11 Größe 2 vCPU und 8 GB RAM 6
Laufzeit 24.1 auf R 4.3 S 4 vCPU und 16 GB RAM 2

Stoppen Sie alle aktiven CPU-Laufzeiten, wenn Sie sie nicht mehr benötigen, um zu verhindern, dass zusätzliche Kapazitätseinheitenstunden (CUHs) verbraucht werden. Siehe CPU-Inaktivitätszeitlimit.

Notizbücher und CPU-Umgebungen

Wenn Sie ein Notizbuch im Bearbeitungsmodus in einer CPU-Runtimeumgebung öffnen, stellt genau eine interaktive Sitzung eine Verbindung zu einem Jupyter-Kernel für die Notizbuchsprache und der von Ihnen ausgewählten Umgebungsruntime her. Die Laufzeit wird pro Einzelbenutzer und nicht pro Notebook gestartet. Wenn Sie also ein zweites Notebook mit derselben Umgebungsvorlage in demselben Projekt öffnen, wird ein zweiter Kernel in derselben Laufzeit gestartet. Die Laufzeitressourcen werden von den Jupyter, die Sie in der Laufzeit starten, gemeinsam genutzt. Weitere Informationen finden Sie unter Laufzeitbereich.

Sie können den Kernel bei Bedarf erneut starten oder eine erneute Verbindung zu ihm herstellen. Wenn Sie einen Kernel erneut starten, wird der Kernel gestoppt und dann in derselben Sitzung wieder gestartet, aber alle Ausführungsergebnisse gehen verloren. Wenn Sie nach einem Verbindungsverlust eine neue Verbindung zu einem Kernel herstellen, wird das Notebook mit derselben Kernelsitzung verbunden und alle vorherigen Ausführungsergebnisse sind verfügbar.

Spark-Umgebungsvorlagen

Sie können eine der folgenden standardmäßigen Spark-Umgebungsvorlagen für Notebooks auswählen. Die Standardumgebungsvorlagen werden unter Vorlagen auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet.

Standard Spark-Umgebungsvorlagen für Notebooks
Ihren Namen Hardwarekonfiguration CUH-Rate pro Stunde
Default Spark 3.4 & Python 3.10 Jeweils 2 Executors: 1 vCPU und 4 GB RAM;
-Treiber: 1 vCPU und 4 GB RAM
1
Default Spark 3.4 & R 4.2 Jeweils 2 Executors: 1 vCPU und 4 GB RAM;
-Treiber: 1 vCPU und 4 GB RAM
1

Stoppen Sie alle aktiven Spark-Laufzeiten, wenn Sie sie nicht mehr benötigen, um zu verhindern, dass zusätzliche Kapazitätseinheitenstunden (CUHs) verbraucht werden. Siehe Spark-Inaktivitätszeitlimit.

Große Spark-Umgebungen

Wenn Sie den watsonx.ai Studio Professional-Plan haben, können Sie benutzerdefinierte Umgebungsvorlagen für größere Spark-Umgebungen erstellen.

Professionelle Planbenutzer können bis zu 35 Executors haben und können aus den folgenden Optionen für Treiber und Executor wählen:

Hardwarekonfigurationen für Spark-Umgebungen
Hardwarekonfiguration
1 vCPU und 4 GB RAM
2 vCPU und 8 GB RAM
3 vCPU und 12 GB RAM

Die CUH-Rate pro Stunde erhöht sich für jede hinzugefügte vCPU um 0,5. Beispiel: 1x Driver: 3vCPU with 12GB of RAM und 4x Executors: 2vCPU with 8GB of RAM sind (3 + (4 * 2)) = 11 vCPUs und 5.5 CUH.

Notebooks und Spark-Umgebungen

Sie können dieselbe Spark-Umgebungsvorlage für mehrere Notebooks auswählen. Jedes Notizbuch, das dieser Umgebung zugeordnet ist, verfügt über einen eigenen dedizierten Spark-Cluster und es werden keine Ressourcen gemeinsam genutzt.

Wenn Sie eine Spark-Umgebung starten, werden zusätzliche Ressourcen für den Jupyter Enterprise Gateway, den Spark Master und die Spark Worker Daemons benötigt. Diese zusätzlichen Ressourcen betragen 1 vCPU und 2 GB RAM für den Treiber und 1 GB RAM für jeden Executor. Sie müssen diese zusätzlichen Ressourcen berücksichtigen, wenn Sie die Hardware-Größe einer Spark-Umgebung auswählen. Wenn Sie beispielsweise ein Notebook erstellen und Default Spark 3.4 & Python 3.10 auswählen, verbraucht der Spark-Cluster 3 vCPUs und 12 GB RAM, aber da 1 vCPU und 4 GB RAM für die zusätzlichen Ressourcen erforderlich sind, sind die für das Notebook verbleibenden Ressourcen 2 vCPU und 8 GB RAM.

Dateisystem in einem Spark-Cluster

Wenn Sie Dateien zwischen Executors und dem Treiber oder Kernel eines Spark-Clusters gemeinsam nutzen möchten, können Sie das gemeinsam genutzte Dateisystem unter /home/spark/shared verwenden.

Wenn Sie eigene angepasste Bibliotheken verwenden wollen, können Sie sie unter /home/spark/shared/user-libs/ speichern. Es gibt vier Unterverzeichnisse unter /home/spark/shared/user-libs/ , die vorkonfiguriert sind, um für Python -und R-oder Java-Laufzeiten verfügbar zu machen.

In den folgenden Tabellen werden die vorkonfigurierten Unterverzeichnisse aufgelistet, in denen Sie angepasste Bibliotheken hinzufügen können.

Tabelle 5. Vorkonfigurierte Unterverzeichnisse für angepasste Bibliotheken
Verzeichnis Typ der Bibliothek
/home/spark/shared/user-libs/python3/ Python 3-Bibliotheken
/home/spark/shared/user-libs/R/ R-Pakete
/home/spark/shared/user-libs/spark2/ Java-JAR-Dateien

Gehen Sie wie folgt vor, um Bibliotheken für Spark-Treiber und Executors gemeinsam zu nutzen:

  1. Laden Sie die angepassten Bibliotheken oder JAR-Dateien in das entsprechende vorkonfigurierte Verzeichnis herunter.
  2. Starten Sie den Kernel über das Notebookmenü erneut, indem Sie auf Kernel > Kernel erneut starten klicken. Dadurch werden die angepassten Bibliotheken bzw. JAR-Dateien in Spark geladen.

Beachten Sie, dass diese Bibliotheken nicht persistent sind. Wenn Sie die Umgebungslaufzeit stoppen und später erneut starten, müssen Sie die Bibliotheken erneut laden.

GPU-Umgebungsvorlagen

Sie können die folgende GPU-Umgebungsvorlage für Notebooks auswählen. Die Umgebungsvorlagen werden unter Vorlagen auf der Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts aufgelistet.

Die Namen der GPU-Umgebungsvorlagen geben die Akzeleratorleistung an. Die GPU-Umgebungsvorlagen enthalten die Watson Natural Language Processing-Bibliothek mit vorab trainierten Modellen für Sprachverarbeitungstasks, die Sie für unstrukturierte Daten ausführen können. Siehe Watson Natural Language Processing-Bibliothek verwenden.

~ Zeigt an, dass die Umgebungsvorlage den watsonx.ai Studio Professional-Plan erfordert. Siehe Angebotspläne.

GPU-Standardumgebungsvorlagen für Notebooks
Ihren Namen Hardwarekonfiguration CUH-Rate pro Stunde
Grafikkarte V100 Laufzeit 24.1 An Python 3.11 ~ 40 vCPU + 172 GB RAM + 1 NVIDIA TESLA V100 (1 GPU) 68
Grafikkarte 2xV100 Laufzeit 24.1 An Python 3.11 ~ 80 vCPU und 344 GB RAM + 2 NVIDIA TESLA V100 (2 GPUs) 136

Stoppen Sie alle aktiven GPU-Laufzeiten, wenn Sie sie nicht mehr benötigen, um zu verhindern, dass zusätzliche Kapazitätseinheitenstunden (CUHs) verbraucht werden. Siehe GPU-Inaktivitätszeitlimit.

Notebooks und GPU-Umgebungen

GPU-Umgebungen für Notebooks sind nur für die Region Dallas des IBM Cloud-Service verfügbar.

Sie können dieselbe Python -und GPU-Umgebungsvorlage für mehrere Notebooks in einem Projekt auswählen. In diesem Fall wird jeder Notebook-Kernel in derselben Laufzeitinstanz ausgeführt, und die Ressourcen werden gemeinsam genutzt. Um die gemeinsame Nutzung von Laufzeitressourcen zu vermeiden, erstellen Sie mehrere angepasste Umgebungsvorlagen mit denselben Spezifikationen und ordnen jedem Notebook eine eigene Vorlage zu.

Standard-Hardware-Spezifikationen für Scoring-Modelle mit watsonx.ai Runtime

Wenn Sie die watsonx.ai Runtime API innerhalb eines Notebooks aufrufen, verbrauchen Sie Rechenressourcen vom watsonx.ai Runtime Service sowie die Rechenressourcen für den Notebook-Kernel.

Sie können eine der folgenden Hardware-Spezifikationen auswählen, wenn Sie sich mit watsonx.ai Runtime verbinden und eine Bereitstellung erstellen.

Verfügbare Hardware-Spezifikationen beim Aufruf des watsonx.ai Runtime-Dienstes in einem Notebook
Kapazitätsgröße Hardwarekonfiguration CUH-Rate pro Stunde
Besonders klein 1x4 = 1 vCPU und 4 GB RAM 0.5
Klein 2x8 = 2 vCPU und 8 GB RAM 1
Mittel 4x16 = 4 vCPU und 16 GB RAM 2
Groß 8x32 = 8 vCPU und 32 GB RAM 4

Datendateien in Notizbuchumgebungen

Wenn Sie mit großen Datasets arbeiten, sollten Sie die Datasets in IBM Cloud Object Storage für Ihr Projekt in kleineren Chunks speichern und die Daten im Notebook in Chunks verarbeiten. Alternativ sollten Sie das Notebook in einer Spark-Umgebung ausführen.

Beachten Sie, dass das Dateisystem jeder Laufzeit nicht persistent ist und in den Umgebungen nicht gemeinsam genutzt werden kann. Um Dateien in watsonx.ai Studio zu persistieren, sollten Sie IBM Cloud Object Storage verwenden. Die einfachste Möglichkeit, IBM Cloud Object Storage in Notebooks in Projekten zu verwenden, ist die Nutzung des project-lib-Pakets für Python oder des project-lib-Pakets für R.

Rechenleistungsnutzung nach Service

Die Notebook-Laufzeiten verbrauchen Rechenressourcen als CUH von watsonx.ai Studio, während Standard- oder benutzerdefinierte Umgebungen ausgeführt werden. Sie können den CUH-Verbrauch watsonx.ai Studio im Projekt auf der Seite Ressourcennutzung auf der Registerkarte Verwalten des Projekts überwachen.

Notebooks können auch CUH vom watsonx.ai Runtime Service konsumieren, wenn das Notebook die watsonx.ai Runtime aufruft, um ein Modell zu bewerten. Sie können die monatliche Gesamtmenge des CUH-Verbrauchs für den watsonx.ai Runtime-Dienst auf der Seite Ressourcennutzung auf der Registerkarte Verwalten des Projekts überwachen.

CUH-Verbrauch für watsonx.ai Runtime in einem Notizbuch verfolgen

Führen Sie den folgenden Code im Notebook aus, um die von einem Notebook verbrauchten Capacity-Unit-Stunden (Capacity Unit Hour, CHU) zu berechnen:

CP = client.service_instance.get_details()
CUH = CUH["entity"]["usage"]["capacity_units"]["current"]/(3600*1000)
print(CUH)

Beispiel:

'capacity_units': {'current': 19773430}

19773430/(3600*1000)

Rückgabe: 5,49 CUH

Details finden Sie im Abschnitt Service Instances der IBM watsonx.ai Runtime API Dokumentation.

Laufzeitbereich

Umgebungslaufzeiten gelten immer für eine Umgebungsvorlage und einen Benutzer innerhalb eines Projekts. Wenn verschiedene Benutzer in einem Projekt mit derselben Umgebung arbeiten, erhält jeder Benutzer eine separate Laufzeit.

Wenn Sie eine Version eines Notebooks als geplanten Job ausführen lassen, startet jeder geplante Job immer in einer dedizierten Laufzeit. Die Laufzeit wird bei Beendigung des Jobs gestoppt.

Umgebung eines Notebooks ändern

Sie können Umgebungen aus verschiedenen Gründen wechseln, zum Beispiel:

  • Eine Umgebung mit mehr Verarbeitungsleistung oder mehr RAM auswählen.
  • Von der Verwendung einer Umgebung ohne Spark zu einer Spark-Umgebung wechseln.

Sie können nur die Umgebung eines freigegebenen Notebooks ändern. Sie können die Umgebung ändern:

  • Öffnen Sie das Notebook im Bearbeitungsmodus und gehen Sie wie folgt vor:

    1. Speichern Sie die Änderungen im Notebook.
    2. Klicken Sie in der Notebook-Symbolleiste auf das Symbol für die Notebook-Infos " Symbol für Notizbuchinformationen und dann auf Umgebung.
    3. Wählen Sie in der Liste eine andere Vorlage mit Rechenleistung und Speicherkapazität aus.
    4. Wählen Sie Umgebung ändern aus. Dadurch wird die aktive Laufzeit gestoppt und die neu ausgewählte Umgebung gestartet.
  • Gehen Sie auf der Seite Assets Ihres Projekts wie folgt vor:

    1. Wählen Sie das Notebook im Abschnitt Notebooks aus, klicken Sie auf Aktionen > Umgebung ändern und wählen Sie eine andere Umgebung aus. Der Kern muss gestoppt werden, bevor Sie die Umgebung ändern können. Diese neue Laufzeitumgebung wird instanziiert, wenn das Notebook das nächste Mal zur Bearbeitung geöffnet wird.
  • Im Notebook-Job durch Bearbeiten der Jobschablone. Siehe Jobeinstellungen bearbeiten.

Nächste Schritte

Weitere Informationen

Übergeordnetes Thema: Ressourcen für Tools berechnen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen