0 / 0
Zurück zur englischen Version der Dokumentation
Einsatz eines Decision Optimization
Letzte Aktualisierung: 28. Nov. 2024
Decision Optimization -Modellbereitstellung

Um ein Decision Optimization -Modell bereitzustellen, erstellen Sie ein Modell, das für die Bereitstellung in Ihrem Bereitstellungsbereich bereit ist, und laden Sie dann Ihr Modell als Archiv hoch. Nach der Bereitstellung können Sie Jobs an Ihr Modell übergeben und Jobstatus überwachen.

Vorbereitende Schritte

Sie müssen einen ' konto IBM Cloud. haben Siehe https://www.ibm.com/cloud/
  1. Melden Sie sich bei IBM Cloud an.
  2. Erstellen Sie Ihren API-Schlüssel. Kopieren oder laden Sie sie aus dem geöffneten Fenster API-Schlüssel erfolgreich erstellt herunter (Sie können nicht erneut darauf zugreifen, wenn Sie dieses Fenster schließen).

  3. Optional: Erstellen Sie einen ' watsonx.ai Laufzeit Dienst.
  4. Wählen Sie eine watsonx.ai Runtime-Instanz aus der Liste der AI/MachineMachine Learning in der IBM Cloud Resource-Listenansicht aus.

    Kopieren Sie den Namen, die GUID und die CRN aus dem Informationsfenster für Ihre watsonx.ai Runtime-Instanz. (Um das Informationsfenster zu öffnen, klicken Sie auf eine beliebige Stelle in der Zeile neben dem Namen Ihres watsonx.ai Runtime-Dienstes, aber nicht auf den Namen selbst. Das Informationsfenster wird dann in demselben Fenster geöffnet).

  5. Optional: Erstellen Sie einen Cloud Object Storage.
  6. Wählen Sie eine Cloud Object Storage aus der Liste der Speicherressourcen in der Listenansicht derIBM Cloud aus.

    Kopieren Sie den Namen und die CRN aus dem Informationsfenster für Ihre Speicherinstanz.

  7. Optional: Erstellen Sie über die Benutzeroberfläche https://dataplatform.cloud.ibm.com einen Bereitstellungsbereich. Sie können einen Bereitstellungsbereich auch über die REST-API erstellen. Siehe Erstellen eines Bereitstellungsraums mithilfe der REST-API.
  8. Wählen Sie einen Einsatzraum aus der Liste der Einsätze aus.

    Kopieren Sie die Space GUID von der Registerkarte Verwalten > Allgemein. Weitere Informationen finden Sie in Bereitstellungsbereiche.

Informationen zu dieser Task

Diese Anweisungen setzen voraus, dass Sie Ihr Decision Optimization -Modell bereits erstellt haben.

Vorgehensweise

Gehen Sie wie folgt vor, um ein Decision Optimization -Modell bereitzustellen:

  1. Packen Sie Ihre Decision Optimization Modellformulierung mit allen Einstellungen oder Stammdatendateien, bereit für die Bereitstellung als tar.gz, .zip oder .jar Datei.
    Das Archiv kann die folgenden optionalen Dateien enthalten:
    1. Ihre Modelldateien

      Bei Python oder OPL-Modellen enthalten diese Dateien in der Regel Ihre Modellformulierung. Sie können diese Dateien jedoch auch weglassen, insbesondere wenn Ihr Modell und Ihre Daten in derselben Datei integriert sind. Bei Modellen im CPLEX- (.lp Dateien), CPO- (.cpo Dateien) und mps Format können Sie beispielsweise diese Dateien später im Auftrag senden, um zu vermeiden, dass der gleiche Modus aufgelöst wird.

    2. Einstellungsdateien

      Weitere Informationen finden Sie unter Laufparameter.

    3. Stammdaten

      Diese Dateien enthalten alle Daten, die von allen Aufträgen wiederverwendet werden können. Die Einbeziehung solcher Datendateien kann die Effizienz von Verteilungsaufträgen erhöhen. Sie können zum Beispiel eine Datendatei für konstante Werte wie die Entfernungen zwischen Städten einfügen. Sie können diese Datendatei in die Bereitstellung einbeziehen, so dass Sie sie nur einmal und nicht bei jeder Auftragsanfrage bereitstellen müssen.

    Hinweis: Bei Python mit mehreren ' .py -Dateien legen Sie alle Dateien in denselben Ordner in Ihrem Archiv. Der gleiche Ordner muss eine Hauptdatei namens " main.py enthalten. Verwenden Sie keine Unterordner.
  2. Erstellen Sie ein einsatzbereites Modell und geben Sie die folgenden Informationen an:
    • watsonx.ai Runtime Dienst-Instanz
    • Bereitstellungsbereich-Instanz
    • die Hardware-Spezifikation für die verfügbaren Konfigurationsgrößen (kleines S, mittleres M, großes L, besonders großes XL). Siehe Konfigurationen.
    • Software-Spezifikation (Decision Optimization Laufzeitversion):
      • do_22.1 Die Laufzeit basiert auf CPLEX 22.1.1.0
      • do_20.1 Die Laufzeit basiert auf CPLEX 20.1.0.1

      Sie können die Software-Spezifikation erweitern, die vom watsonx.ai Runtime Service bereitgestellt wird. Siehe das ' ExtendWMLSoftwareSpec -Notizbuch im ' jupyter der DO-Samples.

      CPLEX-Laufzeiten aktualisieren:

      Wenn Sie Ihr Modell zuvor mit einer CPLEX-Laufzeit bereitgestellt haben, die nicht länger unterstützt wird, können Sie Ihr vorhandenes bereitgestelltes Modell aktualisieren, indem Sie entweder die REST-API oder die Benutzerschnittstelleverwenden.

    • Der Modelltyp:
      • opl (do-opl_<laufzeitversion>)
      • cplex (do-cplex_<Laufzeitversion>)
      • cpo (do-cpo_<runtime version>)
      • docplex (do-docplex_<Laufzeitversion>) mit Python 3.11 oder 3.10 (veraltet)

      (Die Laufzeitversion kann eine der verfügbaren Decision Optimization-Laufzeitversionen sein, so dass zum Beispiel ein opl-Modell mit Laufzeit 22.1 den Modelltyp do-opl_22.1 hat)

    Sie erhalten eine MODELL-ID.

    Ihr Modell kann in einem oder mehreren Einsätzen verwendet werden.

  3. Laden Sie Ihr Modellarchiv hoch (tar.gz, ' .zip oder ' .jar Datei). Informationen über Eingabedateitypen finden Sie unter Modelleingabe- und Ausgabedatendateiformate für die Decision Optimization.
  4. Stellen Sie Ihr Modell mit MODEL-ID, SPACE-IDund der Hardwarespezifikation für die verfügbaren Konfigurationsgrößen (klein S, mittel M, groß L, besonders groß XL) bereit. Siehe Konfigurationen. Sie können auch den zu verwendenden " anzahl der Knotenpunkte " angeben (der Standardwert ist 1).
    Sie erhalten eine Bereitstellungs-ID.
  5. Überwachen Sie die Implementierung mithilfe der DEPLOYMENT-ID. Bereitstellungsstatus : initializing, updating, readyoder failed.

Ergebnisse

Sie können nun Aufträge an Ihre Bereitstellung übermitteln und überwachen. Weitere Informationen finden Sie unter Batch-Bereitstellung und ModellausführungDecision Optimization.

Beispiel

Das Beispiel ' Deploying a DO model with WML zeigt Ihnen, wie Sie mit dem watsonx.ai Runtime Python Client ein Decision Optimization bereitstellen, Jobs erstellen und überwachen und Lösungen abrufen können. Dieser Notizbuch verwendet das Diätbeispiel für das Decision Optimization -Modell und führt Sie durch die gesamte Prozedur, ohne Decision Optimization Benutzerschnittstelle für Experimentezu verwenden. Dieses Beispiel und die Notizbücher ' RunDeployedModel und ' ExtendWMLSoftwareSpec befinden sich im Ordner ' jupyter der DO-Samples. Wählen Sie den entsprechenden Produkt- und Versionsunterordner aus. Nach dem Download können Sie diese Jupyter- Notebooks zu Ihrem Projekt hinzufügen.

Siehe auch das REST-API-Beispiel.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen