Distribuzione dei modelli Decision Optimization in modo programmatico
È possibile distribuire il modello prescrittivo di Decision Optimization e tutti i dati anagrafici associati. È quindi possibile inviare le richieste di lavoro a questa distribuzione e basta includere i relativi dati transazionali. È possibile distribuire il modello utilizzando i watsonx.ai API REST di runtime, 'watsonx.ai Runtime 'Python client o 'IBM 'watsonx 'Interfaccia a riga di comando.
- Credenziali richieste
- Gestione delle credenziali delle attività
Vedere l' esempio di API REST per un esempio completo di codice. Vedere Esempi di client Python per un collegamento a un notebook Python disponibile nell' hub delle risorse.
Panoramica
Le fasi di distribuzione e invio dei lavori per un modello Decision Optimization sono le seguenti. Questi passaggi sono dettagliati nelle sezioni successive.
- Creare un servizio watsonx.ai Runtime.
- Creare uno spazio di distribuzione utilizzando l'interfaccia https://dataplatform.cloud.ibm.com o con l'API REST.
- Distribuire il modello con qualsiasi dato master che possa essere riutilizzato da tutti i lavori. Questa distribuzione può essere effettuata dall'interfaccia utente (vedere Distribuzione dall'interfaccia utente ) o seguendo i passaggi descritti in Distribuzione di un modello Decision Optimization. Vedi anche questo esempio di API REST.
- Creare e monitorare i lavori a questo modello distribuito.
La dimensione T-shirt si riferisce a configurazioni di distribuzione predefinite: piccole, medie, grandi e extra large.
Definizione | Nome | Descrizione |
---|---|---|
2 vCPU e 8 GB | S | Piccolo |
4 vCPU e 16 GB | M | Medio |
8 vCPU e 32 GB | L | Grande |
16 vCPU e 64 GB | Portale XL | Molto grande |