Puoi dedurre e ottimizzare i modelli di base in IBM watsonx.ai in modo programmatico utilizzando la libreria Python .
Vedere la libreria watsonx Python.
I seguenti componenti di watsonx.ai sono stati rinominati. Alcuni quaderni Python potrebbero continuare a usare i loro nomi originali.
- Watson Machine Learning è ora chiamato watsonx.ai Runtime
- Watson Studio ora si chiama watsonx.ai Studio
Puoi anche utilizzare i modelli di fondazione watsonx.ai da strumenti di terzi, tra cui:
Informazioni sui notebook di esempio disponibili
Sono disponibili quaderni di esempio che possono essere utilizzati come guida per la creazione di quaderni propri per svolgere attività comuni come l'inferenza o la messa a punto di un foundation model.
Per trovare i notebook disponibili, ricercare l' hub di risorse. È possibile aggiungere i notebook aperti dall'hub di risorse al progetto e quindi eseguirli.
È inoltre possibile accedere ai notebook dal repository Notebook di esempio Python GitHub .
Utilizzo della libreria Python dal tuo IDE
La libreria ibm-watsonx-ai
Python è disponibile su PyPI dall'url: https://pypi.org/project/ibm-watsonx-ai/.
Puoi installare la libreria ibm-watsonx-ai
Python nel tuo ambiente di sviluppo integrato utilizzando il seguente comando:
pip install ibm-watsonx-ai
Se la libreria è già installata, includere il parametro -U
per selezionare gli eventuali aggiornamenti e utilizzare la versione più recente della libreria.
pip install -U ibm-watsonx-ai
Utilizzo di LangChain da un notebook
LangChain è un framework che gli sviluppo possono utilizzare per creare applicazioni che incorporano modelli di linguaggio di grandi dimensioni. LangChain può essere utile quando si desidera collegare due o più funzioni. Ad esempio, è possibile utilizzare LangChain come parte di un'attività RAG (retrieval - augmented generation).
Per ulteriori informazioni, vedere LLMs > IBM watsonx.ai
Utilizza uno dei notebook RAG di esempio che sfrutta LangChain per ulteriori informazioni. Vedere Esempi RAG.
Dal quaderno Utilizzare gli agenti watsonx.ai e LangChain per eseguire sequenze di azioni, è possibile utilizzare gli agenti per eseguire una sequenza di azioni basate sulle risposte foundation model.
Utilizzo delle funzioni LlamaIndex da un notebook
LlamaIndex è un framework per la creazione di applicazioni di modelli di linguaggio di grandi dimensioni. È possibile sfruttare le funzioni disponibili da LlamaIndex, come le funzionalità text-to-SQL o Pandas DataFrames nelle applicazioni costruite con i modelli di fondazione watsonx.ai.
Per ulteriori informazioni, vedi LLM> IBM watsonx.ai.
È possibile utilizzare le funzioni LlamaIndex da un notebook in watsonx.ai.
Ad esempio, utilizzare il notebook Utilizza watsonxe LlamaIndex per attività Text - to - SQL per convertire le query in linguaggio naturale in query SQL.
Prerequisiti
Per iniziare con la libreria Python , hai prima bisogno di credenziali e di un ID progetto o di un ID distribuzione. Per ulteriori informazioni, fare riferimento ai seguenti argomenti:
Ulteriori informazioni
- Ottenere informazioni sul foundation model
- Inferenza di un foundation model
- Inferenza di un foundation model utilizzando un modello di prompt
- Messa a punto di un foundation model
- Conversione del testo in incorporazioni di testo
Argomento principale: Coding generative AI solutions