0 / 0

Codifica di soluzioni AI generative

Ultimo aggiornamento: 14 mar 2025
Codifica di soluzioni AI generative

IBM watsonx.ai dispone di API REST che supportano le attività programmatiche per l'utilizzo dei modelli di base. Queste API vengono esercitate in una libreria Python e in un pacchetto Node.js che puoi utilizzare per sfruttare i modelli di base nelle tue applicazioni AI generative.

Per trovare altre risorse che possono aiutarvi a svolgere le attività di codifica, compresi esempi di codice e comunità in cui potete discutere di suggerimenti e trucchi e trovare risposte a domande comuni, visitate il watsonx Developer Hub.

Attività che è possibile eseguire in modo programmatico

Puoi utilizzare l'API REST watsonx.ai , la libreria Python o l'SDK Node.js per eseguire le seguenti attività in modo programmatico:

Tabella 1. Operazioni che si possono eseguire programmaticamente in watsonx.ai
Attività Python Node.js API REST
Ottieni i dettagli sui modelli di fondazione disponibili Ottieni le specifiche del modello esempio Elenca i modelli di fondazione supportati
Controlla i token che un modello calcola per un prompt Tokenizzare i modelli di fondazione incorporati esempio Tokenizzazione del testo
Ottenere un elenco dei modelli di fondazione personalizzati disponibili Modelli personalizzati Recupera le distribuzioni
Utilizza il parametro type=custom_foundation_model .
Inferenza un modello di base Generare testo esempio Generazione di testo
Inferenza un modello di base di distribuzione su richiesta Generare testo Dedurre il testo
Configurare i guardrail AI quando si inferenzia un modello di fondazione Rimozione di contenuti dannosi Utilizzare il campo " moderations " per applicare filtri all'input e all'output del modello di fondazione. Vedi testo Inferisci
Chiacchierare con un modello di fondazione ModelInference.chat() esempio Aggiungere la chat generativa alle vostre app
Chiamata di strumenti dalla chat ModelInference.chat() Creazione di flussi di lavoro di chat guidati da agenti
Messa a punto rapida di un modello di fondazione Consultare la documentazione esempio Consultare la documentazione
Inferenza un modello di fondazione messo a punto Generare testo esempio Dedurre il testo
Elenco di tutti i modelli di prompt Elenca tutti i modelli di richiesta Ottieni un modello di richiesta
Elenco dei modelli di prompt distribuiti Elenca i modelli di prompt distribuiti Elenca le distribuzioni (type=prompt_template)
Inferenza di un modello di fondazione utilizzando un modello di prompt Gestore dei modelli di richiesta esempio Dedurre il testo
Vettorializzare il testo Incorpora documenti esempio Vettorializzare il testo
Estrarre il testo dai documenti Estrazioni di testo esempio Estrazione del testo dai documenti
Passaggi di documenti di reranking Riclassifica Riclassificazione dei passaggi dei documenti
Previsione dei valori futuri TSModelInference esempio Previsione dei valori futuri dei dati
Integrazione con LangChain Estensione IBM in LangChain - Chat API
- Modelli di base
- Modelli incorporati
Integrazione con LlamaIndex IBM LLM in LlamaIndex
Incorporamenti IBM in LlamaIndex

Ulteriori informazioni

Argomento principale: Sviluppo di soluzioni AI generative