Modelle in einen Bereitstellungsbereich importieren
Letzte Aktualisierung: 21. Feb. 2025
Modelle in einen Bereitstellungsbereich importieren
Importieren Sie Machine-Learning-Modelle, die außerhalb von IBM watsonx.ai Runtime trainiert wurden, damit Sie die Modelle einsetzen und testen können. Überprüfen Sie die Modellframeworks, die für den Import von Modellen verfügbar sind.
In diesem Fall bedeutet das Importieren eines trainierten Modells Folgendes:
Speichern Sie das trainierte Modell in Ihrem watsonx.ai Runtime Repository
Optional: Stellen Sie das gespeicherte Modell in Ihrem watsonx.ai Runtime Service bereit
und Repository steht für ein Cloud Object Storage -Bucket. Weitere Informationen finden Sie unter Bereitstellungsbereiche erstellen.
Sie können ein Modell auf folgende Arten importieren:
Wenn Sie ein Modell im PMML-Format importieren möchten, können Sie die Modelldatei .xml direkt importieren.
Gehen Sie wie folgt vor, um ein Modell über die Benutzerschnittstelle zu importieren:
Klicken Sie auf der Registerkarte Assets Ihres Bereichs in watsonx.ai Runtime auf Assets importieren.
Wählen Sie Local file und dann Modellaus.
Wählen Sie die Modelldatei aus, die Sie importieren möchten, und klicken Sie auf Importieren.
Der Importmechanismus wählt automatisch einen übereinstimmenden Modelltyp und eine übereinstimmende Softwarespezifikation basierend auf der Versionszeichenfolge in der Datei .xml aus.
Für scikit-learn-, XGBoost-, Tensorflow-und PyTorch -Modelle muss sich die Modelldatei im Ordner der höchsten Ebene des Verzeichnisses befinden. Beispiel:
Um mehr über Frameworks zu erfahren, die Sie mit watsonx.ai Runtime verwenden können, siehe Unterstützte Frameworks.
Im PMML-Format gespeicherte Modelle
Copy link to section
Der einzige verfügbare Bereitstellungstyp für Modelle, die aus PMML importiert werden, ist die Onlinebereitstellung.
Die PMML-Datei muss die Dateierweiterung .xml haben.
PMML-Modelle können in einem SPSS-Datenstromablauf nicht verwendet werden.
Die PMML-Datei darf keinen Prolog enthalten. Abhängig von der Bibliothek, die Sie beim Speichern Ihres Modells verwenden, wird möglicherweise standardmäßig ein Prolog am Anfang der Datei hinzugefügt. Wenn Ihre Datei beispielsweise eine Prologzeichenfolge wie spark-mllib-lr-model-pmml.xml enthält, entfernen Sie die Zeichenfolge, bevor Sie die PMML-Datei in den Bereitstellungsbereich importieren.
Abhängig von der Bibliothek, die Sie verwenden, wenn Sie Ihr Modell speichern, kann ein Prolog standardmäßig am Anfang der Datei hinzugefügt werden. Beispiel:
Je nach verwendetem Modellframework kann <your model> das tatsächliche Modellobjekt, ein vollständiger Pfad zu einer gespeicherten Modelldatei oder ein Pfad zu einem Verzeichnis sein, in dem sich die Modelldatei befindet. Weitere Informationen finden Sie unter Verfügbare Methoden zum Importieren von Modellen nach Frameworktyp.
Verwenden Sie die Methode client.software_specifications.list(), um eine Liste der verfügbaren Softwarespezifikationen für <software specification name> zu erhalten.
Wenn Sie ein Pytorch-Modell in das ' .onnx -Format exportieren, geben Sie das ' keep_initializers_as_inputs=True -Flag an und setzen Sie ' opset_version auf 9watsonx.ai Runtime Deployments verwenden die ' caffe2 ONNX-Runtime, die keine höheren Opset-Versionen als 9 unterstützt).