0 / 0
Zurück zur englischen Version der Dokumentation
Von IBM erstellte Basismodelle
Letzte Aktualisierung: 18. Dez. 2024
Von IBM erstellte Basismodelle

In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.

Die folgenden IBM -Basismodelle sind in watsonx.ai:

Granite -Basismodelle

Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.

Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:

  • Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
  • Konform mit strengen IBM Standards für Datenfreigabe und Governance.
  • Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.

IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .

Die folgenden Granite -Modelle sind in watsonx.ai:

Hinweis:Die Modelle granite-7b-lab und granite-13b-instruct-v2 sind veraltet. Weitere Informationen finden Sie unter [Foundation model lifecycle]fm-model-lifecycle.html).

Die folgenden Abschnitte enthalten eine kurze Beschreibung und einige Ressourcen zum Erlernen der einzelnen Modelle. Weitere Informationen finden Sie unter Unterstützte Basismodelle.

granite-7b-lab

Allgemeines Verwendungsmodell, das mit einer neuartigen Ausrichtungsoptimierungsmethode von IBM Research erstellt wurde. Large-scale Alignment for chatBots, kurz LAB, ist eine Methode zum Hinzufügen neuer Fähigkeiten zu bestehenden Basismodellen durch die Generierung synthetischer Daten für die Fähigkeiten und die anschließende Verwendung dieser Daten zur Abstimmung des foundation model.

Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das granite-7b-lab foundation model von IBM.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-7b-lab -Modellkarte

Probieren Sie es aus:

granite-13b-chat-v2

Allgemeines Verwendungsmodell, das für Dialoganwendungsfälle optimiert ist Diese Version des Modells ist in der Lage, längere, qualitativ hochwertige Antworten mit einem professionellen Ton zu generieren. Das Modell kann Erwähnungen von Personen erkennen und Ton und Stimmung erkennen.

Richtlinien zur Eingabeaufforderung finden Sie unter Eingabeaufforderung für das foundation model von IBM.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-13b-chat-v2 Modellkarte

Probieren Sie es aus:

granite-13b-instruct-v2

Allgemeines Verwendungsmodell. Diese Version des Modells ist für Klassifizierungs-, Extraktions-und Zusammenfassungstasks optimiert. Das Modell kann Erwähnungen von Personen erkennen und längere Eingaben zusammenfassen.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-13b-instruct-v2 Modellkarte

Probieren Sie es aus:

granite-8b-japanese

Allgemeines Verwendungsmodell, das die japanische Sprache unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben auf Japanisch optimiert. Sie können das Modell auch für die Übersetzung zwischen Englisch und Japanisch verwenden.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-8b-japanese Modellkarte

Probieren Sie es aus:

granite-20b-multilingual

Allgemeines Verwendungsmodell, das Englisch, Deutsch, Spanisch, Französisch und Portugiesisch unterstützt. Diese Version des Modells basiert auf dem Granite -Kursmodell und ist für Klassifizierungs-, Extraktions-und Fragebeantwortungsaufgaben in mehreren Sprachen optimiert. Sie können das Modell auch für Übersetzungsaufgaben verwenden.

Modellspezifikationen finden Sie unter Unterstützte Stiftungsmodelle.

Modellkarte: granite-20b-multilingual Modellkarte

Probieren Sie es aus:

Granite Code-Modelle

Instruktionsoptimierte Modelle, die Codediskussion, -generierung und -konvertierung unterstützen. Verwenden Sie diese Basismodelle für programmgesteuerte Codierungstasks. Die Granite Code-Modelle werden auf der Grundlage einer Kombination von Anweisungsdaten fein abgestimmt, um die Fähigkeiten zur Befolgung von Anweisungen, einschließlich logischem Denken und Problemlösung, zu verbessern.

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Die folgenden ' Granite Code -Foundation-Modelle sind anweisungsabgestimmte Versionen des foundation model, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen

Probieren Sie sie aus, indem Sie das Beispielnotizbuch Inferencing with Granite Text-to-SQL Models verwenden.

Weitere Informationen finden Sie unter den folgenden Themen:

Modellkarten:

Probieren Sie sie aus:

Granite Instruct-Modelle

Leichtgewichtige und quelloffene Granite der dritten Generation, die auf der Grundlage einer Kombination von lizenzfreien Open-Source- und proprietären Befehlsdaten feinabgestimmt werden. Die Granite Instruct Sprachmodelle wurden entwickelt, um sich bei folgenden Aufgaben im Unterricht auszuzeichnen: Zusammenfassung, Problemlösung, Textübersetzung, Schlussfolgerungen, Code-Aufgaben, Funktionsaufrufe und mehr.

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Die Granite Instruct 3.1 Foundation Models unterstützen 116 Programmiersprachen. Weitere Informationen finden Sie unter den folgenden Themen:

Modellkarten:

Probieren Sie sie aus:

Granite Guardian Modelle

Granite Guardian-Modelle sind fein abgestimmte Granite Instruct-Modelle der dritten Generation, die auf einzigartigen Daten mit menschlichen Kommentaren und synthetischen Daten trainiert wurden. Die Basismodelle eignen sich für Anwendungsfälle der Risikoerkennung, die in einer Vielzahl von Unternehmensanwendungen anwendbar sind.

  • granite-guardian-3-2b
  • granite-guardian-3-8b

Weitere Informationen finden Sie unter den folgenden Themen:

Modellkarten:

Probieren Sie sie aus:

Granite

IBM Granite Time Series Foundation Models sind kompakte, vortrainierte Modelle für multivariate Zeitreihenprognosen von IBM Research, auch bekannt als Tiny Time Mixers (TTM).

Die Granite wurden anhand von fast einer Milliarde Stichproben von Zeitreihendaten aus verschiedenen Bereichen wie Elektrizität, Verkehr, Fertigung und anderen trainiert. Sie können eines dieser vortrainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Bei einer Reihe historischer, zeitlich festgelegter Datenbeobachtungen können die Granite ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen.

Die folgenden Zeitreihen-Grundmodelle sind für die Verwendung in ' watsonx.ai: verfügbar

  • granite-ttm-512-96-r2: Erfordert mindestens 512 Datenpunkte pro Datensatz.
  • granite-ttm-1024-96-r2: Erfordert mindestens 1.024 Datenpunkte pro Datensatz.
  • granite-ttm-1536-96-r2: Erfordert mindestens 1.536 Datenpunkte pro Datensatz.

Die Granite arbeiten am besten mit Datenpunkten in Minuten- oder Stundenintervallen und erzeugen einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zeitreihe und Zielspalte.

Probieren Sie sie aus:

Weitere Informationen

Slate-Foundation-Modelle

Die Slate-Produktfamilie der IBM -Basismodelle umfasst reine Encoder-Modelle, die auf die Verarbeitung natürlicher Sprache und auf Texteinbettungstasks spezialisiert sind.

Die folgenden Slate-Einbettungsmodelle sind heute in watsonx.ai verfügbar:

slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
768-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.
slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
384-dimensionale Einbettungsmodelle, die Text in Texteinbettungen umwandeln.

Weitere Informationen zu diesen Modellen finden Sie unter Unterstützte Geberfundamentmodelle.

Weitere Informationen über die Verwendung von Slate-Modellen zur Umwandlung von Sätzen und Passagen in Texteinbettungen finden Sie unter Erzeugung von Texteinbettungen.

IBM Schiefermodelle bieten eine Reihe von Bibliotheken, die Sie für NLP-Tasks (Common Natural Language Processing) wie Klassifikation, Entitätsextraktion, Stimmungsanalyse usw. verwenden können.

Weitere Informationen zur Verwendung der NLP-Funktionen der Slate-Modelle finden Sie in Watson NLP-Bibliothek .

Übergeordnetes Thema: Unterstützte Basismodelle

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen