In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.
Granite -Basismodelle
Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.
Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:
- Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
- Konform mit strengen IBM Standards für Datenfreigabe und Governance.
- Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.
IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .
Die folgenden Granite -Modelle sind in watsonx.ai:
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-8b-japanese
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
Die folgenden Abschnitte enthalten eine kurze Beschreibung und einige Ressourcen zum Erlernen der einzelnen Modelle. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
granite-13b-chat-v2
Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist Diese Version des Modells ist in der Lage, längere, qualitativ hochwertige Antworten mit einem professionellen Ton zu generieren. Das Modell kann Erwähnungen von Personen erkennen und Ton und Stimmung erkennen.
Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das foundation model von IBM.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-13b-chat-v2 Modellkarte
Probieren Sie es aus:
granite-13b-instruct-v2
Allgemeines Verwendungsmodell. Diese Version des Modells ist für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Das Modell kann Erwähnungen von Personen erkennen und längere Eingaben zusammenfassen.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-13b-instruct-v2 Modellkarte
Probieren Sie es aus:
granite-8b-japanese
Allgemeines Verwendungsmodell, das die japanische Sprache unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben auf Japanisch optimiert. Sie können das Modell auch für die Übersetzung zwischen Englisch und Japanisch verwenden.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-8b-japanese Modellkarte
Probieren Sie es aus:
granite-20b-multilingual
Allgemeines Verwendungsmodell, das Englisch, Deutsch, Spanisch, Französisch und Portugiesisch unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben in mehreren Sprachen optimiert. Sie können das Modell auch für Übersetzungsaufgaben verwenden.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-20b-multilingual Modellkarte
Probieren Sie es aus:
Granite Code-Modelle
Instruktionsoptimierte Modelle, die Codediskussion, -generierung und -konvertierung unterstützen. Verwenden Sie diese Basismodelle für programmgesteuerte Codierungstasks. Die Granite Code-Modelle werden auf der Grundlage einer Kombination von Anweisungsdaten fein abgestimmt, um die Fähigkeiten zur Befolgung von Anweisungen, einschließlich logischem Denken und Problemlösung, zu verbessern.
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Die Granite Code -Stiftung unterstützt 116 Programmiersprachen.
Die folgenden ' Granite Code -Foundation-Modelle sind anweisungsabgestimmte Versionen des foundation model, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
Probieren Sie sie aus, indem Sie das Beispielnotizbuch Inferencing with Granite Text-to-SQL Models verwenden.
Weitere Informationen finden Sie unter den folgenden Themen:
Modellkarten:
- granite-3b-code-instruct Modellkarte
- granite-8b-code-instruct Modellkarte
- granite-20b-code-instruct Modellkarte
- 20b Basisschema zur Verknüpfung der Modellkarte
- 20b base SQL gen model card
- granite-34b-code-instruct Modellkarte
Probieren Sie sie aus:
Granite Instruct-Modelle
Leichtgewichtige und quelloffene Granite der dritten Generation, die auf der Grundlage einer Kombination von lizenzfreien Open-Source- und proprietären Befehlsdaten feinabgestimmt werden. Granite -Sprachmodelle sind darauf ausgelegt, im Unterricht bei Aufgaben wie Zusammenfassungen, Problemlösungen, Textübersetzungen, Argumentationen, Funktionsaufrufen und mehr hervorragende Leistungen zu erbringen.
- granite-3-2b-instruct
- granite-3-8b-instruct
Weitere Informationen können Sie über die folgenden Links aufrufen:
- Muster für den Aufruf von Werkzeugen
- Chat-Vorlage
- Beispiele für Eingabeaufforderungen
- Code-Rezepte
- Informationen zu Preisen finden Sie unter "Unterstützte Stiftungsmodelle"
Modellkarten:
Probieren Sie sie aus:
Granite Guardian Modelle
Granite Guardian-Modelle sind fein abgestimmte Granite Instruct-Modelle der dritten Generation, die auf einzigartigen Daten mit menschlichen Kommentaren und synthetischen Daten trainiert wurden. Die Basismodelle eignen sich für Anwendungsfälle der Risikoerkennung, die in einer Vielzahl von Unternehmensanwendungen anwendbar sind.
- granite-guardian-3-2b
- granite-guardian-3-8b
Weitere Informationen finden Sie unter den folgenden Themen:
Modellkarten:
Probieren Sie sie aus:
Granite
IBM Granite Time Series Foundation Models sind kompakte, vortrainierte Modelle für multivariate Zeitreihenprognosen von IBM Research, auch bekannt als Tiny Time Mixers (TTM).
Die Granite wurden anhand von fast einer Milliarde Stichproben von Zeitreihendaten aus verschiedenen Bereichen wie Elektrizität, Verkehr, Fertigung und anderen trainiert. Sie können eines dieser vortrainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Bei einer Reihe historischer, zeitlich festgelegter Datenbeobachtungen können die Granite ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen.
Die folgenden Zeitreihen-Grundmodelle sind für die Verwendung in ' watsonx.ai: verfügbar
granite-ttm-512-96-r2
: Erfordert mindestens 512 Datenpunkte pro Datensatz.granite-ttm-1024-96-r2
: Erfordert mindestens 1.024 Datenpunkte pro Datensatz.granite-ttm-1536-96-r2
: Erfordert mindestens 1.536 Datenpunkte pro Datensatz.
Die Granite arbeiten am besten mit Datenpunkten in Minuten- oder Stundenintervallen und erzeugen einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zeitreihe und Zielspalte.
Probieren Sie sie aus:
- Mit der Zeitreihenprognose-Methode der watsonx.ai API können Sie eine Zero-Shot-Inferencing-Anfrage an die Modelle stellen. Weitere Informationen finden Sie unter Verwendung der IBM Granite und der Prognose-API für Trendprognosen.
- Beispiel-Notizbuch: Verwendung von Time Series Foundation Models und Zeitreihendaten zur Vorhersage des Energiebedarfs
Weitere Informationen
IBM
Zu den von IBM entwickelten Foundation-Modellen gehören reine Encoder-Modelle, die auf die Verarbeitung natürlicher Sprache und die Einbettung von Text spezialisiert sind.
Die folgenden Einbettungsmodelle von IBM sind in watsonx.ai: verfügbar:
- granite-embedding-107m-multilingual
- Ein 384-dimensionales Einbettungsmodell, das Text in mehreren Sprachen in Texteinbettungen umwandelt.
- granite-embedding-278m-multilingual
- Ein 384-dimensionales Einbettungsmodell, das Text in mehreren Sprachen in Texteinbettungen umwandelt.
- slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
- 768-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
- slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
- 384-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Geberfundamentmodelle.
Weitere Informationen zur Verwendung von IBM zur Umwandlung von Sätzen und Passagen in Texteinbettungen finden Sie unter "Generierung von Texteinbettungen ".
Fähigkeiten zur Verarbeitung natürlicher Sprache
IBM versorgen auch eine Reihe von Bibliotheken mit Strom, die Sie für allgemeine Aufgaben der natürlichen Sprachverarbeitung (NLP) wie Klassifizierung, Entitätenextraktion, Stimmungsanalyse und vieles mehr nutzen können.
Weitere Informationen zur Verwendung der NLP-Funktionen der Slate-Modelle finden Sie in Watson NLP-Bibliothek .
Übergeordnetes Thema: Unterstützte Basismodelle