Codifica di soluzioni AI generative
Ultimo aggiornamento: 14 mar 2025
IBM watsonx.ai dispone di API REST che supportano le attività programmatiche per l'utilizzo dei modelli di base. Queste API vengono esercitate in una libreria Python e in un pacchetto Node.js che puoi utilizzare per sfruttare i modelli di base nelle tue applicazioni AI generative.
Per trovare altre risorse che possono aiutarvi a svolgere le attività di codifica, compresi esempi di codice e comunità in cui potete discutere di suggerimenti e trucchi e trovare risposte a domande comuni, visitate il watsonx Developer Hub.
Attività che è possibile eseguire in modo programmatico
Puoi utilizzare l'API REST watsonx.ai , la libreria Python o l'SDK Node.js per eseguire le seguenti attività in modo programmatico:
Attività | Python | Node.js | API REST |
---|---|---|---|
Ottieni i dettagli sui modelli di fondazione disponibili | Ottieni le specifiche del modello | esempio | Elenca i modelli di fondazione supportati |
Controlla i token che un modello calcola per un prompt | Tokenizzare i modelli di fondazione incorporati | esempio | Tokenizzazione del testo |
Ottenere un elenco dei modelli di fondazione personalizzati disponibili | Modelli personalizzati | Recupera le distribuzioni Utilizza il parametro type=custom_foundation_model . |
|
Inferenza un modello di base | Generare testo | esempio | Generazione di testo |
Inferenza un modello di base di distribuzione su richiesta | Generare testo | Dedurre il testo | |
Configurare i guardrail AI quando si inferenzia un modello di fondazione | Rimozione di contenuti dannosi | Utilizzare il campo " moderations " per applicare filtri all'input e all'output del modello di fondazione. Vedi testo Inferisci |
|
Chiacchierare con un modello di fondazione | ModelInference.chat() | esempio | Aggiungere la chat generativa alle vostre app |
Chiamata di strumenti dalla chat | ModelInference.chat() | Creazione di flussi di lavoro di chat guidati da agenti | |
Messa a punto rapida di un modello di fondazione | Consultare la documentazione | esempio | Consultare la documentazione |
Inferenza un modello di fondazione messo a punto | Generare testo | esempio | Dedurre il testo |
Elenco di tutti i modelli di prompt | Elenca tutti i modelli di richiesta | Ottieni un modello di richiesta | |
Elenco dei modelli di prompt distribuiti | Elenca i modelli di prompt distribuiti | Elenca le distribuzioni (type=prompt_template) | |
Inferenza di un modello di fondazione utilizzando un modello di prompt | Gestore dei modelli di richiesta | esempio | Dedurre il testo |
Vettorializzare il testo | Incorpora documenti | esempio | Vettorializzare il testo |
Estrarre il testo dai documenti | Estrazioni di testo | esempio | Estrazione del testo dai documenti |
Passaggi di documenti di reranking | Riclassifica | Riclassificazione dei passaggi dei documenti | |
Previsione dei valori futuri | TSModelInference | esempio | Previsione dei valori futuri dei dati |
Integrazione con LangChain | Estensione IBM in LangChain | - Chat API - Modelli di base - Modelli incorporati |
|
Integrazione con LlamaIndex | • IBM LLM in LlamaIndex • Incorporamenti IBM in LlamaIndex |
Ulteriori informazioni
- Credenziali di accesso programmatico
- Ricerca dell'ID progetto
- ID modello Foundation
- Libreria Python
- SDK Node.js
- API REST
- Vettorializzazione del testo
- Riclassificazione dei passaggi dei documenti
- Estrazione del testo dai documenti
- Aggiunta di una funzione di chat generativa alle applicazioni con l'API di chat
- Creazione di flussi di lavoro guidati da agenti con l'API di chat
- Previsione dei valori futuri
Argomento principale: Sviluppo di soluzioni AI generative
L'argomento è stato utile?
0/1000