0 / 0
Zurück zur englischen Version der Dokumentation
Generative KI-Lösungen codieren
Letzte Aktualisierung: 12. Dez. 2024
Generative KI-Lösungen codieren

IBM watsonx.ai verfügt über REST-APIs, die programmgesteuerte Tasks für die Arbeit mit Basismodellen unterstützen. Diese APIs werden in einer Python -Bibliothek und einem Node.js -Paket ausgeführt, die Sie verwenden können, um Basismodelle in Ihren abgeleiteten KI-Anwendungen zu nutzen.

Weitere Ressourcen, die Ihnen bei Codierungsaufgaben helfen können, einschließlich Beispielcode und Communities, in denen Sie Tipps und Tricks diskutieren und Antworten auf häufig gestellte Fragen finden können, finden Sie im watsonx Developer Hub .

Tasks, die Sie programmgesteuert ausführen können

Sie können die REST-API watsonx.ai , die Python -Bibliothek oder das Node.js SDK verwenden, um die folgenden Tasks programmgesteuert auszuführen:

Tabelle 1. Aufgaben, die Sie in watsonx.ai programmatisch ausführen können
Aufgabe Python Node.js REST-API
Details zu den verfügbaren Basismodellen abrufen Modellspezifikationen abrufen Beispiel Auflisten der unterstützten Fundamentmodelle
Tokens überprüfen, die ein Modell für eine Eingabeaufforderung berechnet Tokenisieren Sie integrierte Foundation-Modelle Beispiel Text-Tokenisierung
Eine Liste der verfügbaren benutzerdefinierten Stiftungsmodelle abrufen Angepasste Modelle Rufen Sie die Bereitstellungen
ab. Verwenden Sie den Parameter type=custom_foundation_model .
Ableitung eines foundation model Texterzeugung Beispiel Textgenerierung
Ableitung eines foundation model für die Bereitstellung bei Bedarf Texterzeugung Text ableiten
Konfigurieren von AI-Leitplanken beim Inferencing eines foundation model Entfernen schädlicher Inhalte Verwenden Sie das Feld " moderations, um Filter auf die Eingabe und Ausgabe foundation model anzuwenden. Siehe Infer-Text
Chat mit einem foundation model ModelInference.chat() Beispiel Text ableiten
Tool-Aufrufe aus dem Chat ModelInference.chat() Text ableiten
Prompt-Tuning eines foundation model Weitere Informationen finden Sie in der Dokumentation Beispiel Weitere Informationen finden Sie in der Dokumentation
Ableitung eines abgestimmten foundation model Texterzeugung Beispiel Text ableiten
Alle Prompt-Vorlagen auflisten Alle Eingabeaufforderungsvorlagen auflisten Holen Sie sich eine Eingabeaufforderungsvorlage
Auflistung der bereitgestellten Prompt-Vorlagen Auflisten bereitgestellter Eingabeaufforderungsvorlagen Auflisten der Bereitstellungen (Typ=Prompt_Template)
Ableitung eines foundation model mit Hilfe einer Prompt-Vorlage Eingabeaufforderungsvorlagen-Manager Beispiel Text ableiten
Text vektorisieren Dokumente einbetten Beispiel Texteinbettung
Text aus Dokumenten extrahieren Textextraktionen Textextraktion
Dokumentpassagen neu bewerten Neu einstufen Neurang generieren
Prognostizieren Sie zukünftige Werte TSModelInference Zeitreihenprognose
Integrieren mit LangChain IBM Erweiterung in LangChain - Chat-API
- Grundmodelle
- Einbettungsmodelle
Integrieren mit LlamaIndex IBM LLMs in LlamaIndex
IBM Einbettungen in LlamaIndex

Weitere Informationen

Übergeordnetes Thema: Abgenerative KI-Lösungen entwickeln

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen