0 / 0
Zurück zur englischen Version der Dokumentation
Python -Bibliothek
Letzte Aktualisierung: 28. Nov. 2024
Python -Bibliothek

Sie können Basismodelle in IBM watsonx.ai über das Programm mithilfe der Python -Bibliothek inferenzieren und optimieren.

Siehe Die watsonx Python.

Die folgenden Komponenten von watsonx.ai wurden umbenannt. Einige Python können weiterhin ihre ursprünglichen Namen verwenden.

  • Watson Machine Learning heißt jetzt watsonx.ai Runtime
  • Watson Studio heißt jetzt watsonx.ai Studio

Sie können auch mit watsonx.ai -Basismodellen von Tools anderer Anbieter arbeiten, einschließlich der folgenden:

Aus verfügbaren Beispielnotebooks lernen

Es stehen Beispiel-Notizbücher zur Verfügung, die Sie als Leitfaden für die Erstellung eigener Notizbücher verwenden können, um gängige Aufgaben wie das Inferencing oder die Abstimmung eines foundation model durchzuführen.

Suchen Sie im Ressourcenhubnach verfügbaren Notebooks. Sie können Notebooks, die Sie über den Ressourcenhub öffnen, zu Ihrem Projekt hinzufügen und anschließend ausführen.

Sie können auch über das Python -Beispielnotebooks GitHub -Repository auf Notebooks zugreifen.

Python -Bibliothek aus Ihrer IDE verwenden

Die Bibliothek ibm-watsonx-ai Python ist unter PyPI über die URL https://pypi.org/project/ibm-watsonx-ai/verfügbar.

Sie können die ibm-watsonx-ai Python -Bibliothek in Ihrer integrierten Entwicklungsumgebung installieren, indem Sie den folgenden Befehl verwenden:

pip install ibm-watsonx-ai

Wenn die Bibliothek bereits installiert ist, schließen Sie den Parameter -U ein, um alle Aktualisierungen zu übernehmen und mit der neuesten Version der Bibliothek zu arbeiten.

pip install -U ibm-watsonx-ai

Mit LangChain über ein Notebook arbeiten

LangChain ist ein Framework, mit dem Entwickler Anwendungen erstellen können, die große Sprachmodelle integrieren. LangChain kann nützlich sein, wenn Sie zwei oder mehr Funktionen miteinander verknüpfen wollen. Sie können beispielsweise LangChain als Teil einer RAG-Task (Retrieval Augmented Generation) verwenden.

Für weitere Informationen siehe LLMs > IBM watsonx.ai

Verwenden Sie eines der RAG-Beispielnotebooks, das LangChain nutzt, um weitere Informationen zu erhalten. Siehe RAG-Beispiele.

Im Notizbuch Use watsonx.ai and LangChain Agents to perform sequence of actions können Sie Agenten verwenden, um eine Abfolge von Aktionen basierend auf den Antworten foundation model durchzuführen.

Mit LlamaIndex -Funktionen über ein Notebook arbeiten

LlamaIndex ist ein Framework für die Erstellung großer Sprachmodellanwendungen. Sie können die Funktionen von LlamaIndex, wie Text-to-SQL oder Pandas DataFrames in Anwendungen nutzen, die Sie mit watsonx.ai Foundation Models erstellen.

Weitere Informationen finden Sie unter LLMs > IBM watsonx.ai.

Sie können mit LlamaIndex -Funktionen in einem Notebook in watsonx.aiarbeiten.

Verwenden Sie beispielsweise das Notizbuch watsonxund LlamaIndex für Text-zu-SQL-Tasks , um Abfragen in natürlicher Sprache in SQL-Abfragen zu konvertieren.

Voraussetzungen

Für den Einstieg in die Python -Bibliothek benötigen Sie zunächst Berechtigungsnachweise und eine Projekt-ID oder Bereitstellungs-ID. Weitere Informationen finden Sie unter den folgenden Themen:

Weitere Informationen

Übergeordnetes Thema: Coding generative AI-Lösungen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen