IBM fundamentmodelle

Letzte Aktualisierung: 20. März 2025
IBM fundamentmodelle

In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.

Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.

Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:

  • Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
  • Konform mit strengen IBM Standards für Datenfreigabe und Governance.
  • Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.

IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .

Die folgenden Fundamentmodelle von IBM sind in watsonx.ai:

Weitere Informationen zu den von IBM entwickelten Encoder-Modellen finden Sie unter "Unterstützte Encoder-Grundmodelle ".

Einzelheiten zu den Foundation-Modellen von Drittanbietern finden Sie unter Foundation-Modelle von Drittanbietern.

Wie man ein Modell auswählt

Informationen zu Faktoren, die Ihnen bei der Auswahl eines Modells helfen können, wie z. B. unterstützte Aufgaben und Sprachen, finden Sie unter "Auswahl eines Modells" und "Benchmarks für das Foundation-Modell ".

Details zum Stiftungsmodell

Die Fundamentmodelle in watsonx.ai unterstützen eine Reihe von Anwendungsfällen sowohl für natürliche Sprachen als auch für Programmiersprachen. Um zu sehen, welche Aufgabentypen diese Modelle ausführen können, überprüfen Sie die Beispieleingabeaufforderungen und probieren Sie sie aus.

granite-3-2-8b-instruct

Granite 3.2 Instruct ist ein Fundamentmodell mit langem Kontext, das auf verbesserte Denkfähigkeiten abgestimmt ist. Die Denkfähigkeit ist konfigurierbar, d. h. Sie können steuern, wann die Argumentation angewendet wird.

Verwendung

Fähig zu allgemeinen generativen Aufgaben, einschließlich codebezogener Aufgaben, Funktionsaufrufe und mehrsprachiger Dialoge. Spezialisiert auf logisches Denken und Aufgaben mit langem Kontext, wie das Zusammenfassen langer Dokumente oder Sitzungsprotokolle und das Beantworten von Fragen mit Antworten, die auf dem Kontext basieren, der aus langen Dokumenten bereitgestellt wird.

Size

8 Milliarden Parameter

API-Preisstufe

Klasse 12

Verfügbarkeit

Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.

Ausprobieren

Beispielaufforderung

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 131.072

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch und Chinesisch

Informationen zur Abstimmung der Anweisungen

Das Modell wurde auf Granite-3.1-8B-Instruct aufgebaut und mit einer Mischung aus frei lizenzierten Open-Source-Datensätzen und intern generierten synthetischen Daten für logische Schlussfolgerungen trainiert.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Granite Instruct 3.1-Modelle

Die Modelle der Granite Instruct -Stiftung gehören zur Modellfamilie IBM Granite. Die Stiftungsmodelle granite-3-2b-instruct und granite-3-8b-instruct sind Granite 3.1 Instruct-Stiftungsmodelle. Diese Modelle bauen auf früheren Iterationen auf, um eine bessere Unterstützung für Programmieraufgaben und intrinsische Funktionen für Agenten zu bieten.

Verwendung

Granite Instruct die Modelle der Stiftung sind darauf ausgelegt, bei Aufgaben, die das Befolgen von Anweisungen erfordern, wie z. B. Zusammenfassungen, Problemlösungen, Textübersetzungen, Argumentationen, Codeaufgaben, Funktionsaufrufe und vieles mehr, hervorragende Leistungen zu erbringen.

Größen
  • 2 Milliarden Parameter
  • 8 Milliarden Parameter
API-Preisstufe
  • 2b: Klasse C1
  • 8b: Klasse 12

Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 2b: 131.072
  • 8b: 131.072

Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch, Chinesisch (vereinfacht).

Unterstützte Programmiersprachen

Die Granite Instruct -Modelle werden mit Code in 116 Programmiersprachen trainiert.

Informationen zur Abstimmung der Anweisungen

Die Granite Instruct -Modelle sind fein abgestimmte Granite Instruct -Basismodelle, die mit einer Kombination aus freizügig lizenzierten Open-Source- und proprietären Anweisungsdaten auf über 12 Billionen Token trainiert wurden.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-3-8b-base

Das Granite 8b -Stiftungsmodell ist ein Basismodell, das zur IBM - Granite -Modellfamilie gehört. Das Modell wird mit 10 Billionen Token aus verschiedenen Bereichen trainiert und anschließend mit 2 Billionen Token hochwertiger Daten weiter trainiert, die sorgfältig ausgewählt wurden, um die Leistung des Modells bei bestimmten Aufgaben zu verbessern.

Verwendung

Das Basismodell von Granite 3.0 ist ein Grundmodell, das Sie anpassen können, um spezielle Modelle für bestimmte Anwendungsszenarien zu erstellen.

Size

8 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 4.

Verfügbarkeit

Bei Bedarf für den dedizierten Einsatz bereitstellen.

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 4.096

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch, Chinesisch (vereinfacht).

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-7b-lab

Das granite-7b-lab -Stiftungsmodell wird von IBM bereitgestellt. Das granite-7b-lab -Stiftungsmodell verwendet eine neuartige Methode zur Abstimmung der Ausrichtung von IBM Research. Large-scale Alignment for chatBots, oder LAB ist eine Methode, um neue Fähigkeiten zu bestehenden Grundmodellen hinzuzufügen, indem synthetische Daten für die Fähigkeiten generiert und diese Daten dann zur Feinabstimmung des Grundmodells verwendet werden.

Verwendung

Unterstützt allgemeine Aufgaben, einschließlich Extraktion, Zusammenfassung, Klassifizierung und mehr. Befolgen Sie die Eingabeaufforderungsrichtlinien für Tipps zur Verwendung. Weitere Informationen erhalten Sie unter granite-7b-lab.

Size

7 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 4.

Verfügbarkeit

Bei Bedarf für den dedizierten Einsatz bereitstellen.

Ausprobieren

Beispiel: Einen Titel für einen Abschnitt generieren

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 8.192

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 4.096 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Informationen zur Abstimmung der Anweisungen

Das granite-7b-lab -Stiftungsmodell wird iterativ mithilfe der LAB-Methode (Large-Scale Alignment for Chatbots) trainiert.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-8b-japanese

Das granite-8b-japanese -Modell wird von IBM bereitgestellt. Das granite-8b-japanese -Stiftungsmodell ist eine Instruktionsvariante, die aus dem vorab trainierten Granite -Basismodell für 8 Milliarden Japaner abgeleitet wurde und darauf trainiert ist, japanischen Text zu verstehen und zu generieren.

Verwendung

Nützlich für allgemeine Aufgaben in der japanischen Sprache, wie Klassifizierung, Extraktion, Beantwortung von Fragen und für die Übersetzung zwischen Japanisch und Englisch.

Size

8 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit
  • Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten im Rechenzentrum in Tokio.
  • Einsatz auf Abruf für dedizierte Nutzung, außer im Rechenzentrum Frankfurt.

Warnsymbol Die von IBM bereitgestellte Bereitstellung dieses Grundmodells ist veraltet. Siehe Modell des Lebenszyklus der Stiftung.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 4.096

Unterstützte natürliche Sprachen

Englisch, Japanisch

Informationen zur Abstimmung der Anweisungen

Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Das granite-8b-japanese -Modell wurde mit 1 Billion Token englischen und 0.5 Billionen Token japanischen Textes vorab trainiert.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-13b-chat-v2

Das granite-13b-chat-v2 -Modell wird von IBM bereitgestellt. Dieses Modell ist für Dialog-Anwendungsfälle optimiert und funktioniert gut mit virtuellen Agenten und Chat-Anwendungen.

Verwendung : Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Enthält ein Schlüsselwort in seiner Ausgabe, das als Stoppsequenz verwendet werden kann, um prägnante Antworten zu erzeugen. Befolgen Sie die Eingabeaufforderungsrichtlinien für Tipps zur Verwendung. Weitere Informationen erhalten Sie unter granite-13b-chat-v2.

Size

13 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2 und Tabelle 4.

Verfügbarkeit

Bei Bedarf für den dedizierten Einsatz bereitstellen.

Ausprobieren

Beispielaufforderung

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 8.192

Unterstützte natürliche Sprachen

Englisch

Informationen zur Abstimmung der Anweisungen

Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-13b-instruct-v2

Das granite-13b-instruct-v2 -Modell wird von IBM bereitgestellt. Dieses Modell wurde mit hochwertigen Finanzdaten trainiert und ist ein leistungsstarkes Modell für Finanzaufgaben. Zu den bewerteten Finanzaufgaben gehören: Bereitstellung von Stimmungsbewertungen für Aktien- und Gewinnaufzeichnungen, Klassifizierung von Schlagzeilen, Extraktion von Kreditrisikobewertungen, Zusammenfassung von Finanztexten in Langform und Beantwortung von Finanz- oder Versicherungsfragen.

Hinweis:Dieses Grundmodell kann mithilfe von Tuning Studio angepasst werden.
Verwendung

Unterstützt Extraktions-, Zusammenfassungs- und Klassifizierungsaufgaben. Erzeugt nützliche Ergebnisse für finanzbezogene Aufgaben. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Akzeptiert Sonderzeichen, die für die Erstellung strukturierter Ausgaben verwendet werden können.

Size

13 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2 und Tabelle 4.

Verfügbarkeit
  • Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
  • Bei Bedarf für den dedizierten Einsatz bereitstellen.
Ausprobieren

Experimentieren Sie mit Proben:

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 8.192

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 4.096 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Informationen zur Abstimmung der Anweisungen

Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-20b-multilingual

Ein Gründungsmodell aus der Familie IBM Granite. Das granite-20b-multilingual -Stiftungsmodell basiert auf dem Granite -Basismodell mit 20 Milliarden und ist darauf trainiert, Texte in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch zu verstehen und zu generieren.

Verwendung

Englische, deutsche, spanische, französische und portugiesische geschlossene Domäne für die Beantwortung von Fragen, Zusammenfassung, Generierung, Extraktion und Klassifizierung.

Hinweis:Dieses Grundmodell unterstützt Fähigkeiten, die von der Open-Source-Community von InstructLab beigesteuert werden.
Size

20 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit
  • Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
  • Einsatz auf Abruf für dedizierte Nutzung, außer im Rechenzentrum Frankfurt.

Warnsymbol Die von IBM bereitgestellte Bereitstellung dieses Grundmodells ist veraltet. Siehe Modell des Lebenszyklus der Stiftung.

Ausprobieren

Beispielaufforderung: Übersetzen Sie den Text vom Französischen ins Englische

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 8.192

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch und Portugiesisch

Informationen zur Abstimmung der Anweisungen

Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Granite Code-Modelle

Foundation-Modelle aus der IBM Granite -Familie. Die Modelle der Granite Code -Stiftung sind Modelle, die Anweisungen befolgen und mithilfe einer Kombination aus Git -Commits, gepaart mit menschlichen Anweisungen und Open-Source-Datensätzen mit synthetisch generierten Codeanweisungen, verfeinert werden.

Das granite-8b-code-instruct v2.0.0 -Stiftungsmodell kann größere Eingabeaufforderungen mit einer größeren Länge des Kontextfensters verarbeiten.

Hinweis:Wenn Sie dieses Modell aus Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung

Die folgenden Granite Code -Stiftungsmodelle sind so konzipiert, dass sie auf codierungsbezogene Anweisungen reagieren und zum Bau von Codierungsassistenten verwendet werden können:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Die folgenden Granite Code -Foundation-Modelle sind auf Anweisungen abgestimmte Versionen des granite-20b-code-base -Foundation-Modells, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen
Größen
  • 3 Milliarden Parameter
  • 8 Milliarden Parameter
  • 20 Milliarden Parameter
  • 34 Milliarden Parameter
API-Preisstufe

Klasse 1.

Einzelheiten zu den Preisen für die bereitgestellten Code-Modelle finden Sie in Tabelle 2.

Einzelheiten zu den Preisen für die Modelle auf Abruf finden Sie in Tabelle 4.

Verfügbarkeit

Alle Code-Modelle, außer den Text-zu-SQL-Modellen: Bereitgestellt von IBM, bereitgestellt auf mandantenfähiger Hardware.

Alle Code-Modelle, einschließlich der Text-zu-SQL-Grundmodelle: Bereitstellung bei Bedarf für den dedizierten Einsatz.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe)

  • granite-3b-code-instruct : 128.000

    Wenn das Modell nur in der Umgebung mit mehreren Mandanten ausgeführt wird, gilt eine maximale Begrenzung für neue Token, d. h. die vom Stiftungsmodell pro Anfrage generierten Token sind auf 8.192 begrenzt.

  • granite-8b-code-instruct : 128.000

    Wenn das Modell nur in der Umgebung mit mehreren Mandanten ausgeführt wird, gilt eine maximale Begrenzung für neue Token, d. h. die vom Stiftungsmodell pro Anfrage generierten Token sind auf 8.192 begrenzt.

  • granite-20b-code-instruct : 8.192

    Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 4.096 begrenzt.

  • granite-20b-code-base-schema-linking : 8.192

  • granite-20b-code-base-sql-gen : 8.192

  • granite-34b-code-instruct : 8.192

Unterstützte natürliche Sprachen

Englisch

Unterstützte Programmiersprachen

Die Granite Code -Stiftung unterstützt 116 Programmiersprachen, darunter Python, Javascript, Java, C++, Go und Rust. Die vollständige Liste finden Sie unter IBM -Stiftungsmodelle.

Informationen zur Abstimmung der Anweisungen

Diese Modelle wurden auf der Grundlage von Granite Code -Basismodellen mit einer Kombination aus frei lizenzierten Anweisungsdaten verfeinert, um die Fähigkeiten zur Befolgung von Anweisungen zu verbessern, einschließlich der Fähigkeiten zum logischen Denken und zur Problemlösung.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Granite Guardian-Modelle

Die Modelle der Granite Guardian -Stiftung gehören zur Modellfamilie IBM Granite. Die granite-guardian-3-2b - und granite-guardian-3-8b -Stiftungsmodelle sind verfeinerte Granite Instruct -Modelle, die darauf ausgelegt sind, Risiken in Eingabeaufforderungen und Antworten zu erkennen. Die Grundlagenmodelle helfen bei der Risikoerkennung in vielen wichtigen Dimensionen des KI-Risikoatlas.

Die Generation 3.1 der Modelle wird mit einer Kombination aus von Menschen annotierten und zusätzlichen synthetischen Daten trainiert, um die Leistung bei Risiken im Zusammenhang mit Halluzinationen und Jailbreak zu verbessern.

Verwendung

Granite Guardian die Modelle der Stiftung sind darauf ausgelegt, schadensbezogene Risiken innerhalb von Prompt-Text- oder Modellantworten (als Leitplanken) zu erkennen und können in Anwendungsfällen mit abrufgestützter Generierung verwendet werden, um die Relevanz des Kontexts (ob der abgerufene Kontext für die Abfrage relevant ist), die Fundiertheit (ob die Antwort korrekt ist und dem bereitgestellten Kontext entspricht) und die Relevanz der Antwort (ob die Antwort die Abfrage des Benutzers direkt anspricht) zu bewerten.

Größen
  • 2 Milliarden Parameter
  • 8 Milliarden Parameter
API-Preisstufe
  • 2b: Klasse C1
  • 8b: Klasse 12

Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 2b: 131.072
  • 8b: 131.072

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Informationen zur Abstimmung der Anweisungen

Die Granite Guardian -Modelle sind feinabgestimmte Granite Instruct -Modelle, die mit einer Kombination aus von Menschen annotierten und synthetischen Daten trainiert wurden.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Granite time series-Modelle

Granite time series die Modelle der Foundation gehören zur Modellfamilie IBM Granite. Diese Modelle sind kompakte, vorab trainierte Modelle für multivariate Zeitreihenprognosen von IBM Research. Die folgenden Versionen stehen für die Datenprognose zur Verfügung watsonx.ai:

  • granite-ttm-512-96-r2
  • granite-ttm-1024-96-r2
  • granite-ttm-1536-96-r2
Verwendung

Sie können eines dieser vorab trainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Wenn die Modelle der Stiftung Granite time series einen Satz historischer, zeitgesteuerter Datenbeobachtungen erhalten, können sie ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen. Diese Modelle funktionieren am besten mit Datenpunkten in Minuten- oder Stundenintervallen und generieren einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zielkanal.

Size

1 Million Parameter

API-Preisstufe
  • Input: Klasse 14
  • Ausgabe: Klasse 15

Weitere Informationen zu Preisen finden Sie unter "Resource unit metering for time series foundation models ".

Verfügbarkeit

Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.

Ausprobieren

Siehe Prognose zukünftiger Werte

Länge des Kontexts

Erforderliche Mindestanzahl an Datenpunkten pro Kanal in der API-Anfrage:

  • granite-ttm-512-96-r2: 512
  • granite-ttm-1024-96-r2: 1.024
  • granite-ttm-1536-96-r2: 1.536
Unterstützte natürliche Sprachen

Englisch

Informationen zur Abstimmung der Anweisungen

Die Granite time series -Modelle wurden anhand von fast einer Milliarde Zeitreihendaten aus verschiedenen Bereichen, darunter Elektrizität, Verkehr, Fertigung und mehr, trainiert.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Granite Vision 3.2 2b

Granite Vision 3.2 2b ist ein Bild-zu-Text-Modell, das für den Einsatz in Unternehmen entwickelt wurde. Dieses multimodale Granite -Modell ist in der Lage, Bilder und Text für Aufgaben wie das Verständnis von Tabellen, Diagrammen, Grafiken und mehr aufzunehmen.

Verwendung

Das granite-vision-3-2-2b -Stiftungsmodell ist für das visuelle Verständnis von Dokumenten konzipiert und ermöglicht die automatische Extraktion von Inhalten aus Tabellen, Diagrammen, Infografiken, Plots, Diagrammen und mehr.

Hinweis : Es wird empfohlen, das Modell granite-vision-3-2-2b nur mit Bilddateien für die visuelle Verarbeitung und zum Verständnis von Anwendungsfällen zu verwenden.
Size

2 Milliarden Parameter

API-Preisstufe

Klasse C1

Verfügbarkeit

Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.

Token-Limits

Länge des Kontextfensters (Eingabe + Ausgabe): 131.072

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch und Chinesisch

Informationen zur Abstimmung der Anweisungen

Das granite-vision-3-2-2b -Stiftungsmodell wurde anhand eines kuratierten Datensatzes trainiert, der verschiedene öffentliche Datensätze und synthetische Datensätze umfasst, die auf die Unterstützung einer Vielzahl von Aufgaben im Bereich des Dokumentenverständnisses und der allgemeinen Bildverarbeitung zugeschnitten sind. Es wurde durch Feinabstimmung des granite-3-2b-instruct -Grundmodells mit Bild- und Textmodalitäten trainiert.

Modellarchitektur

Decoder

Lizenz

Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:

IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Veraltete Foundation-Modelle werden mit einem Warnsymbol Warnsymbol hervorgehoben. Weitere Informationen zur Abschreibung, einschließlich der Details zur Rücknahme des Stiftungsmodells, finden Sie unter "Lebenszyklus des Stiftungsmodells ".