Torna alla versione inglese della documentazioneCodifica di soluzioni AI generative
Codifica di soluzioni AI generative
Ultimo aggiornamento: 12 dic 2024
IBM watsonx.ai dispone di API REST che supportano le attività programmatiche per l'utilizzo dei modelli di base. Queste API vengono esercitate in una libreria Python e in un pacchetto Node.js che puoi utilizzare per sfruttare i modelli di base nelle tue applicazioni AI generative.
Per trovare altre risorse che possono aiutarvi a svolgere le attività di codifica, compresi esempi di codice e comunità in cui potete discutere di suggerimenti e trucchi e trovare risposte a domande comuni, visitate il watsonx Developer Hub.
Attività che è possibile eseguire in modo programmatico
Puoi utilizzare l'API REST watsonx.ai , la libreria Python o l'SDK Node.js per eseguire le seguenti attività in modo programmatico:
Attività | Python | Node.js | API REST |
---|---|---|---|
Ottieni i dettagli sui modelli di fondazione disponibili | Ottieni le specifiche del modello | esempio | Elenca i modelli di fondazione supportati |
Controlla i token che un modello calcola per un prompt | Tokenizzare i modelli di fondazione incorporati | esempio | Tokenizzazione del testo |
Ottenere un elenco dei modelli di fondazione personalizzati disponibili | Modelli personalizzati | Recupera le distribuzioni Utilizza il parametro type=custom_foundation_model . |
|
Inferenza di un foundation model | Generare testo | esempio | Generazione di testo |
Deduzione di un foundation model deploy on demand | Generare testo | Dedurre il testo | |
Configurare i guardrail dell'intelligenza artificiale durante l'inferenza di un foundation model | Rimozione di contenuti dannosi | Utilizzare il campo " moderations per applicare i filtri all'input e all'output foundation model. Vedi testo Inferisci |
|
Conversazione con un foundation model | ModelInference.chat() | esempio | Dedurre il testo |
Chiamata di strumenti dalla chat | ModelInference.chat() | Dedurre il testo | |
Messa a punto di un foundation model | Consultare la documentazione | esempio | Consultare la documentazione |
Inferenza di un foundation model sintonizzato | Generare testo | esempio | Dedurre il testo |
Elenco di tutti i modelli di prompt | Elenca tutti i modelli di richiesta | Ottieni un modello di richiesta | |
Elenco dei modelli di prompt distribuiti | Elenca i modelli di prompt distribuiti | Elenca le distribuzioni (type=prompt_template) | |
Inferenza di un foundation model utilizzando un modello di prompt | Gestore dei modelli di richiesta | esempio | Dedurre il testo |
Vettorializzare il testo | Incorpora documenti | esempio | Incorporamento del testo |
Estrarre il testo dai documenti | Estrazioni di testo | text extraction | |
Passaggi di documenti di reranking | Riclassifica | Genera riclassifica | |
Previsione dei valori futuri | TSModelInference | Previsione della serie temporale | |
Integrazione con LangChain | Estensione IBM in LangChain | - Chat API - Modelli di base - Modelli incorporati |
|
Integrazione con LlamaIndex | • IBM LLM in LlamaIndex • Incorporamenti IBM in LlamaIndex |
Ulteriori informazioni
- Credenziali di accesso programmatico
- Ricerca dell'ID progetto
- ID modello Foundation
- Libreria Python
- SDK Node.js
- API REST
- Vettorializzazione del testo
- Riclassificazione dei passaggi dei documenti
- Estrazione del testo dai documenti
- Aggiunta di una funzione di chat generativa alle applicazioni con l'API di chat
- Creazione di flussi di lavoro guidati da agenti con l'API di chat
- Previsione dei valori futuri
Argomento principale: Sviluppo di soluzioni AI generative