0 / 0
Torna alla versione inglese della documentazione
Codifica di soluzioni AI generative
Ultimo aggiornamento: 12 dic 2024
Codifica di soluzioni AI generative

IBM watsonx.ai dispone di API REST che supportano le attività programmatiche per l'utilizzo dei modelli di base. Queste API vengono esercitate in una libreria Python e in un pacchetto Node.js che puoi utilizzare per sfruttare i modelli di base nelle tue applicazioni AI generative.

Per trovare altre risorse che possono aiutarvi a svolgere le attività di codifica, compresi esempi di codice e comunità in cui potete discutere di suggerimenti e trucchi e trovare risposte a domande comuni, visitate il watsonx Developer Hub.

Attività che è possibile eseguire in modo programmatico

Puoi utilizzare l'API REST watsonx.ai , la libreria Python o l'SDK Node.js per eseguire le seguenti attività in modo programmatico:

Tabella 1. Operazioni che si possono eseguire programmaticamente in watsonx.ai
Attività Python Node.js API REST
Ottieni i dettagli sui modelli di fondazione disponibili Ottieni le specifiche del modello esempio Elenca i modelli di fondazione supportati
Controlla i token che un modello calcola per un prompt Tokenizzare i modelli di fondazione incorporati esempio Tokenizzazione del testo
Ottenere un elenco dei modelli di fondazione personalizzati disponibili Modelli personalizzati Recupera le distribuzioni
Utilizza il parametro type=custom_foundation_model .
Inferenza di un foundation model Generare testo esempio Generazione di testo
Deduzione di un foundation model deploy on demand Generare testo Dedurre il testo
Configurare i guardrail dell'intelligenza artificiale durante l'inferenza di un foundation model Rimozione di contenuti dannosi Utilizzare il campo " moderations per applicare i filtri all'input e all'output foundation model. Vedi testo Inferisci
Conversazione con un foundation model ModelInference.chat() esempio Dedurre il testo
Chiamata di strumenti dalla chat ModelInference.chat() Dedurre il testo
Messa a punto di un foundation model Consultare la documentazione esempio Consultare la documentazione
Inferenza di un foundation model sintonizzato Generare testo esempio Dedurre il testo
Elenco di tutti i modelli di prompt Elenca tutti i modelli di richiesta Ottieni un modello di richiesta
Elenco dei modelli di prompt distribuiti Elenca i modelli di prompt distribuiti Elenca le distribuzioni (type=prompt_template)
Inferenza di un foundation model utilizzando un modello di prompt Gestore dei modelli di richiesta esempio Dedurre il testo
Vettorializzare il testo Incorpora documenti esempio Incorporamento del testo
Estrarre il testo dai documenti Estrazioni di testo text extraction
Passaggi di documenti di reranking Riclassifica Genera riclassifica
Previsione dei valori futuri TSModelInference Previsione della serie temporale
Integrazione con LangChain Estensione IBM in LangChain - Chat API
- Modelli di base
- Modelli incorporati
Integrazione con LlamaIndex IBM LLM in LlamaIndex
Incorporamenti IBM in LlamaIndex

Ulteriori informazioni

Argomento principale: Sviluppo di soluzioni AI generative

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni