Generative KI-Lösungen codieren

Letzte Aktualisierung: 14. März 2025
Generative KI-Lösungen codieren

IBM watsonx.ai verfügt über REST-APIs, die programmgesteuerte Tasks für die Arbeit mit Basismodellen unterstützen. Diese APIs werden in einer Python -Bibliothek und einem Node.js -Paket ausgeführt, die Sie verwenden können, um Basismodelle in Ihren abgeleiteten KI-Anwendungen zu nutzen.

Weitere Ressourcen, die Ihnen bei Codierungsaufgaben helfen können, einschließlich Beispielcode und Communities, in denen Sie Tipps und Tricks diskutieren und Antworten auf häufig gestellte Fragen finden können, finden Sie im watsonx Developer Hub .

Tasks, die Sie programmgesteuert ausführen können

Sie können die REST-API watsonx.ai , die Python -Bibliothek oder das Node.js SDK verwenden, um die folgenden Tasks programmgesteuert auszuführen:

Tabelle 1. Aufgaben, die Sie in watsonx.ai programmatisch ausführen können
Aufgabe Python Node.js REST-API
Details zu den verfügbaren Basismodellen abrufen Modellspezifikationen abrufen Beispiel Auflisten der unterstützten Fundamentmodelle
Tokens überprüfen, die ein Modell für eine Eingabeaufforderung berechnet Tokenisieren Sie integrierte Foundation-Modelle Beispiel Text-Tokenisierung
Eine Liste der verfügbaren benutzerdefinierten Stiftungsmodelle abrufen Angepasste Modelle Rufen Sie die Bereitstellungen
ab. Verwenden Sie den Parameter type=custom_foundation_model .
Ableitung eines Grundmodells Texterzeugung Beispiel Textgenerierung
Ableitung eines Bereitstellungsmodells auf Abruf Texterzeugung Text ableiten
Konfigurieren Sie KI-Leitplanken beim Ableiten eines Fundamentmodells Entfernen schädlicher Inhalte Verwenden Sie das Feld moderations , um Filter auf die Ein- und Ausgabe des Foundation-Modells anzuwenden. Siehe Infer-Text
Chatten Sie mit einem Model der Stiftung ModelInference.chat() Beispiel Hinzufügen von generativem Chat zu Ihren Apps
Tool-Aufrufe aus dem Chat ModelInference.chat() Erstellung von Chat-Workflows durch Agenten
Ein Fundamentmodell schnell abstimmen Weitere Informationen finden Sie in der Dokumentation Beispiel Weitere Informationen finden Sie in der Dokumentation
Ableitung eines abgestimmten Fundamentmodells Texterzeugung Beispiel Text ableiten
Alle Prompt-Vorlagen auflisten Alle Eingabeaufforderungsvorlagen auflisten Holen Sie sich eine Eingabeaufforderungsvorlage
Auflistung der bereitgestellten Prompt-Vorlagen Auflisten bereitgestellter Eingabeaufforderungsvorlagen Auflisten der Bereitstellungen (Typ=Prompt_Template)
Ableitung eines Grundmodells mithilfe einer Eingabeaufforderungsvorlage Eingabeaufforderungsvorlagen-Manager Beispiel Text ableiten
Text vektorisieren Dokumente einbetten Beispiel Text vektorisieren
Text aus Dokumenten extrahieren Textextraktionen Beispiel Text aus Dokumenten extrahieren
Dokumentpassagen neu bewerten Neu einstufen Neuordnung von Dokumentenpassagen
Prognostizieren Sie zukünftige Werte TSModelInference Beispiel Prognose zukünftiger Datenwerte
Integrieren mit LangChain IBM Erweiterung in LangChain - Chat-API
- Grundmodelle
- Einbettungsmodelle
Integrieren mit LlamaIndex IBM LLMs in LlamaIndex
IBM Einbettungen in LlamaIndex

Weitere Informationen

Übergeordnetes Thema: Abgenerative KI-Lösungen entwickeln