In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.
Die folgenden IBM -Basismodelle sind in watsonx.ai:
Granite -Basismodelle
Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.
Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:
- Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
- Konform mit strengen IBM Standards für Datenfreigabe und Governance.
- Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.
IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .
Die folgenden Granite -Modelle sind in watsonx.ai:
- granite-7b-lab
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-8b-japanese
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
Die folgenden Abschnitte enthalten eine kurze Beschreibung und einige Ressourcen zum Erlernen der einzelnen Modelle. Weitere Informationen finden Sie unter Unterstützte Basismodelle.
granite-7b-lab
Allgemeines Verwendungsmodell, das mit einer neuartigen Ausrichtungsoptimierungsmethode von IBM Research erstellt wurde. Large-scale Alignment for chatBots, kurz LAB, ist eine Methode zum Hinzufügen neuer Fähigkeiten zu bestehenden Basismodellen durch die Generierung synthetischer Daten für die Fähigkeiten und die anschließende Verwendung dieser Daten zur Abstimmung des foundation model.
Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das granite-7b-lab foundation model von IBM.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-7b-lab -Modellkarte
Probieren Sie es aus:
granite-13b-chat-v2
Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist Diese Version des Modells ist in der Lage, längere, qualitativ hochwertige Antworten mit einem professionellen Ton zu generieren. Das Modell kann Erwähnungen von Personen erkennen und Ton und Stimmung erkennen.
Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das foundation model von IBM.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-13b-chat-v2 Modellkarte
Probieren Sie es aus:
granite-13b-instruct-v2
Allgemeines Verwendungsmodell. Diese Version des Modells ist für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Das Modell kann Erwähnungen von Personen erkennen und längere Eingaben zusammenfassen.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-13b-instruct-v2 Modellkarte
Probieren Sie es aus:
granite-8b-japanese
Allgemeines Verwendungsmodell, das die japanische Sprache unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben auf Japanisch optimiert. Sie können das Modell auch für die Übersetzung zwischen Englisch und Japanisch verwenden.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-8b-japanese Modellkarte
Probieren Sie es aus:
granite-20b-multilingual
Allgemeines Verwendungsmodell, das Englisch, Deutsch, Spanisch, Französisch und Portugiesisch unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben in mehreren Sprachen optimiert. Sie können das Modell auch für Übersetzungsaufgaben verwenden.
Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.
Modellkarte: granite-20b-multilingual Modellkarte
Probieren Sie es aus:
Granite Code-Modelle
Instruktionsoptimierte Modelle, die Codediskussion, -generierung und -konvertierung unterstützen. Verwenden Sie diese Basismodelle für programmgesteuerte Codierungstasks. Die Granite Code-Modelle werden auf der Grundlage einer Kombination von Anweisungsdaten fein abgestimmt, um die Fähigkeiten zur Befolgung von Anweisungen, einschließlich logischem Denken und Problemlösung, zu verbessern.
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Die folgenden ' Granite Code -Foundation-Modelle sind anweisungsabgestimmte Versionen des foundation model, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
Probieren Sie sie aus, indem Sie das Beispielnotizbuch Inferencing with Granite Text-to-SQL Models verwenden.
Weitere Informationen finden Sie unter den folgenden Themen:
Modellkarten:
- granite-3b-code-instruct Modellkarte
- granite-8b-code-instruct Modellkarte
- granite-20b-code-instruct Modellkarte
- 20b Basisschema zur Verknüpfung der Modellkarte
- 20b base SQL gen model card
- granite-34b-code-instruct Modellkarte
Probieren Sie sie aus:
Granite Instruct-Modelle
Leichtgewichtige und quelloffene Granite der dritten Generation, die auf der Grundlage einer Kombination von lizenzfreien Open-Source- und proprietären Befehlsdaten feinabgestimmt werden. Die Granite Instruct Sprachmodelle wurden entwickelt, um sich bei folgenden Aufgaben im Unterricht auszuzeichnen: Zusammenfassung, Problemlösung, Textübersetzung, Schlussfolgerungen, Code-Aufgaben, Funktionsaufrufe und mehr.
- granite-3-2b-instruct
- granite-3-8b-instruct
Die Granite Instruct 3.1 Foundation Models unterstützen 116 Programmiersprachen. Weitere Informationen finden Sie unter den folgenden Themen:
- Unterstützte Gründungsmodelle
- Schnelle Anatomie für Granite 3.0 -Modelle
- Beispiele für Eingabeaufforderungen
- Muster für den Aufruf von Werkzeugen
- Code-Rezepte
Modellkarten:
Probieren Sie sie aus:
Granite Guardian Modelle
Granite Guardian-Modelle sind fein abgestimmte Granite Instruct-Modelle der dritten Generation, die auf einzigartigen Daten mit menschlichen Kommentaren und synthetischen Daten trainiert wurden. Die Basismodelle eignen sich für Anwendungsfälle der Risikoerkennung, die in einer Vielzahl von Unternehmensanwendungen anwendbar sind.
- granite-guardian-3-2b
- granite-guardian-3-8b
Weitere Informationen finden Sie unter den folgenden Themen:
Modellkarten:
Probieren Sie sie aus:
Granite
IBM Granite Time Series Foundation Models sind kompakte, vortrainierte Modelle für multivariate Zeitreihenprognosen von IBM Research, auch bekannt als Tiny Time Mixers (TTM).
Die Granite wurden anhand von fast einer Milliarde Stichproben von Zeitreihendaten aus verschiedenen Bereichen wie Elektrizität, Verkehr, Fertigung und anderen trainiert. Sie können eines dieser vortrainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Bei einer Reihe historischer, zeitlich festgelegter Datenbeobachtungen können die Granite ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen.
Die folgenden Zeitreihen-Grundmodelle sind für die Verwendung in ' watsonx.ai: verfügbar
granite-ttm-512-96-r2
: Erfordert mindestens 512 Datenpunkte pro Datensatz.granite-ttm-1024-96-r2
: Erfordert mindestens 1.024 Datenpunkte pro Datensatz.granite-ttm-1536-96-r2
: Erfordert mindestens 1.536 Datenpunkte pro Datensatz.
Die Granite arbeiten am besten mit Datenpunkten in Minuten- oder Stundenintervallen und erzeugen einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zeitreihe und Zielspalte.
Probieren Sie sie aus:
- Mit der Zeitreihenprognose-Methode der watsonx.ai API können Sie eine Zero-Shot-Inferencing-Anfrage an die Modelle stellen. Weitere Informationen finden Sie unter Verwendung der IBM Granite und der Prognose-API für Trendprognosen.
- Beispiel-Notizbuch: Verwendung von Time Series Foundation Models und Zeitreihendaten zur Vorhersage des Energiebedarfs
Weitere Informationen
Slate-Foundation-Modelle
Die Slate-Produktfamilie der IBM -Basismodelle umfasst reine Encoder-Modelle, die auf die Verarbeitung natürlicher Sprache und auf Texteinbettungstasks spezialisiert sind.
Die folgenden Slate-Einbettungsmodelle sind heute in watsonx.ai verfügbar:
- slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
- 768-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
- slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
- 384-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Geberfundamentmodelle.
Weitere Informationen über die Verwendung von Slate-Modellen zur Umwandlung von Sätzen und Passagen in Texteinbettungen finden Sie unter Erzeugung von Texteinbettungen.
IBM Schiefermodelle bieten eine Reihe von Bibliotheken, die Sie für NLP-Tasks (Common Natural Language Processing) wie Klassifikation, Entitätsextraktion, Stimmungsanalyse usw. verwenden können.
Weitere Informationen zur Verwendung der NLP-Funktionen der Slate-Modelle finden Sie in Watson NLP-Bibliothek .
Übergeordnetes Thema: Unterstützte Basismodelle