0 / 0
Zurück zur englischen Version der Dokumentation
Von IBM erstellte Basismodelle
Letzte Aktualisierung: 16. Jan. 2025
Von IBM erstellte Basismodelle

In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.

Granite -Basismodelle

Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.

Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:

  • Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
  • Konform mit strengen IBM Standards für Datenfreigabe und Governance.
  • Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.

IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .

Die folgenden Granite -Modelle sind in watsonx.ai:

Die folgenden Abschnitte enthalten eine kurze Beschreibung und einige Ressourcen zum Erlernen der einzelnen Modelle. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

granite-13b-chat-v2

Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist Diese Version des Modells ist in der Lage, längere, qualitativ hochwertige Antworten mit einem professionellen Ton zu generieren. Das Modell kann Erwähnungen von Personen erkennen und Ton und Stimmung erkennen.

Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das foundation model von IBM.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-13b-chat-v2 Modellkarte

Probieren Sie es aus:

granite-13b-instruct-v2

Allgemeines Verwendungsmodell. Diese Version des Modells ist für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Das Modell kann Erwähnungen von Personen erkennen und längere Eingaben zusammenfassen.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-13b-instruct-v2 Modellkarte

Probieren Sie es aus:

granite-8b-japanese

Allgemeines Verwendungsmodell, das die japanische Sprache unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben auf Japanisch optimiert. Sie können das Modell auch für die Übersetzung zwischen Englisch und Japanisch verwenden.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-8b-japanese Modellkarte

Probieren Sie es aus:

granite-20b-multilingual

Allgemeines Verwendungsmodell, das Englisch, Deutsch, Spanisch, Französisch und Portugiesisch unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben in mehreren Sprachen optimiert. Sie können das Modell auch für Übersetzungsaufgaben verwenden.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-20b-multilingual Modellkarte

Probieren Sie es aus:

Granite Code-Modelle

Instruktionsoptimierte Modelle, die Codediskussion, -generierung und -konvertierung unterstützen. Verwenden Sie diese Basismodelle für programmgesteuerte Codierungstasks. Die Granite Code-Modelle werden auf der Grundlage einer Kombination von Anweisungsdaten fein abgestimmt, um die Fähigkeiten zur Befolgung von Anweisungen, einschließlich logischem Denken und Problemlösung, zu verbessern.

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Die Granite Code -Stiftung unterstützt 116 Programmiersprachen.

Die folgenden ' Granite Code -Foundation-Modelle sind anweisungsabgestimmte Versionen des foundation model, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen

Probieren Sie sie aus, indem Sie das Beispielnotizbuch Inferencing with Granite Text-to-SQL Models verwenden.

Weitere Informationen finden Sie unter den folgenden Themen:

Modellkarten:

Probieren Sie sie aus:

Granite Instruct-Modelle

Leichtgewichtige und quelloffene Granite der dritten Generation, die auf der Grundlage einer Kombination von lizenzfreien Open-Source- und proprietären Befehlsdaten feinabgestimmt werden. Granite -Sprachmodelle sind darauf ausgelegt, im Unterricht bei Aufgaben wie Zusammenfassungen, Problemlösungen, Textübersetzungen, Argumentationen, Funktionsaufrufen und mehr hervorragende Leistungen zu erbringen.

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Weitere Informationen können Sie über die folgenden Links aufrufen:

Modellkarten:

Probieren Sie sie aus:

Granite Guardian Modelle

Granite Guardian-Modelle sind fein abgestimmte Granite Instruct-Modelle der dritten Generation, die auf einzigartigen Daten mit menschlichen Kommentaren und synthetischen Daten trainiert wurden. Die Basismodelle eignen sich für Anwendungsfälle der Risikoerkennung, die in einer Vielzahl von Unternehmensanwendungen anwendbar sind.

  • granite-guardian-3-2b
  • granite-guardian-3-8b

Weitere Informationen finden Sie unter den folgenden Themen:

Modellkarten:

Probieren Sie sie aus:

Granite

IBM Granite Time Series Foundation Models sind kompakte, vortrainierte Modelle für multivariate Zeitreihenprognosen von IBM Research, auch bekannt als Tiny Time Mixers (TTM).

Die Granite wurden anhand von fast einer Milliarde Stichproben von Zeitreihendaten aus verschiedenen Bereichen wie Elektrizität, Verkehr, Fertigung und anderen trainiert. Sie können eines dieser vortrainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Bei einer Reihe historischer, zeitlich festgelegter Datenbeobachtungen können die Granite ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen.

Die folgenden Zeitreihen-Grundmodelle sind für die Verwendung in ' watsonx.ai: verfügbar

  • granite-ttm-512-96-r2: Erfordert mindestens 512 Datenpunkte pro Datensatz.
  • granite-ttm-1024-96-r2: Erfordert mindestens 1.024 Datenpunkte pro Datensatz.
  • granite-ttm-1536-96-r2: Erfordert mindestens 1.536 Datenpunkte pro Datensatz.

Die Granite arbeiten am besten mit Datenpunkten in Minuten- oder Stundenintervallen und erzeugen einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zeitreihe und Zielspalte.

Probieren Sie sie aus:

Weitere Informationen

IBM

Zu den von IBM entwickelten Foundation-Modellen gehören reine Encoder-Modelle, die auf die Verarbeitung natürlicher Sprache und die Einbettung von Text spezialisiert sind.

Die folgenden Einbettungsmodelle von IBM sind in watsonx.ai: verfügbar:

granite-embedding-107m-multilingual
Ein 384-dimensionales Einbettungsmodell, das Text in mehreren Sprachen in Texteinbettungen umwandelt.
granite-embedding-278m-multilingual
Ein 384-dimensionales Einbettungsmodell, das Text in mehreren Sprachen in Texteinbettungen umwandelt.
slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
768-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
384-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Geberfundamentmodelle.

Weitere Informationen zur Verwendung von IBM zur Umwandlung von Sätzen und Passagen in Texteinbettungen finden Sie unter "Generierung von Texteinbettungen ".

Fähigkeiten zur Verarbeitung natürlicher Sprache

IBM versorgen auch eine Reihe von Bibliotheken mit Strom, die Sie für allgemeine Aufgaben der natürlichen Sprachverarbeitung (NLP) wie Klassifizierung, Entitätenextraktion, Stimmungsanalyse und vieles mehr nutzen können.

Weitere Informationen zur Verwendung der NLP-Funktionen der Slate-Modelle finden Sie in Watson NLP-Bibliothek .

Übergeordnetes Thema: Unterstützte Basismodelle

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen