In IBM watsonx.aikönnen Sie IBM -Basismodelle verwenden, die mit Integrität erstellt und für Unternehmen konzipiert wurden.
Die Granite -Produktfamilie der IBM -Basismodelle umfasst reine Decodermodelle, die effizient Sprache vorhersagen und generieren.
Die Modelle wurden mit vertrauenswürdigen Daten erstellt, die die folgenden Merkmale aufweisen:
Stammt aus hochwertigen Datensätzen in Bereichen wie Finanzen (SEC Filings), Recht (Free Law), Technologie (Stack Exchange), Wissenschaft ( arXiv, DeepMind Mathematik), Literatur (Project Gutenberg ( PG-19)), und mehr.
Konform mit strengen IBM Standards für Datenfreigabe und Governance.
Bereinigt unter anderem von Hass, Missbrauch und Profanität, Datenduplizierung und blockierten URLs.
IBM setzt sich für die Entwicklung von KI ein, die offen, vertrauenswürdig, zielgerichtet und empowering ist. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Schadloshaltung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und in der Servicebeschreibung IBM watsonx.ai .
Die folgenden Fundamentmodelle von IBM sind in watsonx.ai:
Die Fundamentmodelle in watsonx.ai unterstützen eine Reihe von Anwendungsfällen sowohl für natürliche Sprachen als auch für Programmiersprachen. Um zu sehen, welche Aufgabentypen diese Modelle ausführen können, überprüfen Sie die Beispieleingabeaufforderungen und probieren Sie sie aus.
granite-3-2-8b-instruct
Copy link to section
Granite 3.2 Instruct ist ein Fundamentmodell mit langem Kontext, das auf verbesserte Denkfähigkeiten abgestimmt ist. Die Denkfähigkeit ist konfigurierbar, d. h. Sie können steuern, wann die Argumentation angewendet wird.
Verwendung
Fähig zu allgemeinen generativen Aufgaben, einschließlich codebezogener Aufgaben, Funktionsaufrufe und mehrsprachiger Dialoge. Spezialisiert auf logisches Denken und Aufgaben mit langem Kontext, wie das Zusammenfassen langer Dokumente oder Sitzungsprotokolle und das Beantworten von Fragen mit Antworten, die auf dem Kontext basieren, der aus langen Dokumenten bereitgestellt wird.
Size
8 Milliarden Parameter
API-Preisstufe
Klasse 12
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
Das Modell wurde auf Granite-3.1-8B-Instruct aufgebaut und mit einer Mischung aus frei lizenzierten Open-Source-Datensätzen und intern generierten synthetischen Daten für logische Schlussfolgerungen trainiert.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Die Modelle der Granite Instruct -Stiftung gehören zur Modellfamilie IBM Granite. Die Stiftungsmodelle granite-3-2b-instruct und granite-3-8b-instruct sind Granite 3.1 Instruct-Stiftungsmodelle. Diese Modelle bauen auf früheren Iterationen auf, um eine bessere Unterstützung für Programmieraufgaben und intrinsische Funktionen für Agenten zu bieten.
Verwendung
Granite Instruct die Modelle der Stiftung sind darauf ausgelegt, bei Aufgaben, die das Befolgen von Anweisungen erfordern, wie z. B. Zusammenfassungen, Problemlösungen, Textübersetzungen, Argumentationen, Codeaufgaben, Funktionsaufrufe und vieles mehr, hervorragende Leistungen zu erbringen.
Größen
2 Milliarden Parameter
8 Milliarden Parameter
API-Preisstufe
2b: Klasse C1
8b: Klasse 12
Einzelheiten zu den Preisen finden Sie in Tabelle 2.
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
Die Granite Instruct -Modelle werden mit Code in 116 Programmiersprachen trainiert.
Informationen zur Abstimmung der Anweisungen
Die Granite Instruct -Modelle sind fein abgestimmte Granite Instruct -Basismodelle, die mit einer Kombination aus freizügig lizenzierten Open-Source- und proprietären Anweisungsdaten auf über 12 Billionen Token trainiert wurden.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Das Granite 8b -Stiftungsmodell ist ein Basismodell, das zur IBM - Granite -Modellfamilie gehört. Das Modell wird mit 10 Billionen Token aus verschiedenen Bereichen trainiert und anschließend mit 2 Billionen Token hochwertiger Daten weiter trainiert, die sorgfältig ausgewählt wurden, um die Leistung des Modells bei bestimmten Aufgaben zu verbessern.
Verwendung
Das Basismodell von Granite 3.0 ist ein Grundmodell, das Sie anpassen können, um spezielle Modelle für bestimmte Anwendungsszenarien zu erstellen.
Size
8 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 4.
Verfügbarkeit
Bei Bedarf für den dedizierten Einsatz bereitstellen.
Token-Limits
Länge des Kontextfensters (Eingabe + Ausgabe): 4.096
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Das granite-7b-lab -Stiftungsmodell wird von IBM bereitgestellt. Das granite-7b-lab -Stiftungsmodell verwendet eine neuartige Methode zur Abstimmung der Ausrichtung von IBM Research. Large-scale Alignment for chatBots, oder LAB ist eine Methode, um neue Fähigkeiten zu bestehenden Grundmodellen hinzuzufügen, indem synthetische Daten für die Fähigkeiten generiert und diese Daten dann zur Feinabstimmung des Grundmodells verwendet werden.
Verwendung
Unterstützt allgemeine Aufgaben, einschließlich Extraktion, Zusammenfassung, Klassifizierung und mehr. Befolgen Sie die Eingabeaufforderungsrichtlinien für Tipps zur Verwendung. Weitere Informationen erhalten Sie unter granite-7b-lab.
Size
7 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 4.
Verfügbarkeit
Bei Bedarf für den dedizierten Einsatz bereitstellen.
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Das granite-8b-japanese -Modell wird von IBM bereitgestellt. Das granite-8b-japanese -Stiftungsmodell ist eine Instruktionsvariante, die aus dem vorab trainierten Granite -Basismodell für 8 Milliarden Japaner abgeleitet wurde und darauf trainiert ist, japanischen Text zu verstehen und zu generieren.
Verwendung
Nützlich für allgemeine Aufgaben in der japanischen Sprache, wie Klassifizierung, Extraktion, Beantwortung von Fragen und für die Übersetzung zwischen Japanisch und Englisch.
Size
8 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten im Rechenzentrum in Tokio.
Einsatz auf Abruf für dedizierte Nutzung, außer im Rechenzentrum Frankfurt.
Länge des Kontextfensters (Eingabe + Ausgabe): 4.096
Unterstützte natürliche Sprachen
Englisch, Japanisch
Informationen zur Abstimmung der Anweisungen
Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Das granite-8b-japanese -Modell wurde mit 1 Billion Token englischen und 0.5 Billionen Token japanischen Textes vorab trainiert.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Das granite-13b-chat-v2 -Modell wird von IBM bereitgestellt. Dieses Modell ist für Dialog-Anwendungsfälle optimiert und funktioniert gut mit virtuellen Agenten und Chat-Anwendungen.
Verwendung : Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Enthält ein Schlüsselwort in seiner Ausgabe, das als Stoppsequenz verwendet werden kann, um prägnante Antworten zu erzeugen. Befolgen Sie die Eingabeaufforderungsrichtlinien für Tipps zur Verwendung. Weitere Informationen erhalten Sie unter granite-13b-chat-v2.
Länge des Kontextfensters (Eingabe + Ausgabe): 8.192
Unterstützte natürliche Sprachen
Englisch
Informationen zur Abstimmung der Anweisungen
Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Das granite-13b-instruct-v2 -Modell wird von IBM bereitgestellt. Dieses Modell wurde mit hochwertigen Finanzdaten trainiert und ist ein leistungsstarkes Modell für Finanzaufgaben. Zu den bewerteten Finanzaufgaben gehören: Bereitstellung von Stimmungsbewertungen für Aktien- und Gewinnaufzeichnungen, Klassifizierung von Schlagzeilen, Extraktion von Kreditrisikobewertungen, Zusammenfassung von Finanztexten in Langform und Beantwortung von Finanz- oder Versicherungsfragen.
Hinweis:Dieses Grundmodell kann mithilfe von Tuning Studio angepasst werden.
Verwendung
Unterstützt Extraktions-, Zusammenfassungs- und Klassifizierungsaufgaben. Erzeugt nützliche Ergebnisse für finanzbezogene Aufgaben. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Akzeptiert Sonderzeichen, die für die Erstellung strukturierter Ausgaben verwendet werden können.
Länge des Kontextfensters (Eingabe + Ausgabe): 8.192
Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 4.096 begrenzt.
Unterstützte natürliche Sprachen
Englisch
Informationen zur Abstimmung der Anweisungen
Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Ein Gründungsmodell aus der Familie IBM Granite. Das granite-20b-multilingual -Stiftungsmodell basiert auf dem Granite -Basismodell mit 20 Milliarden und ist darauf trainiert, Texte in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch zu verstehen und zu generieren.
Verwendung
Englische, deutsche, spanische, französische und portugiesische geschlossene Domäne für die Beantwortung von Fragen, Zusammenfassung, Generierung, Extraktion und Klassifizierung.
Hinweis:Dieses Grundmodell unterstützt Fähigkeiten, die von der Open-Source-Community von InstructLab beigesteuert werden.
Size
20 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
Einsatz auf Abruf für dedizierte Nutzung, außer im Rechenzentrum Frankfurt.
Länge des Kontextfensters (Eingabe + Ausgabe): 8.192
Unterstützte natürliche Sprachen
Englisch, Deutsch, Spanisch, Französisch und Portugiesisch
Informationen zur Abstimmung der Anweisungen
Die Modellfamilie Granite wird anhand unternehmensrelevanter Datensätze aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die für das Training der Modelle verwendeten Daten werden zunächst einer Überprüfung der Datenverwaltung durch IBM unterzogen und von Text gefiltert, der vom von IBM entwickelten HAP-Filter als Hass, Missbrauch oder Obszönität gekennzeichnet wurde. IBM teilt Informationen über die verwendeten Trainingsmethoden und Datensätze.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Foundation-Modelle aus der IBM Granite -Familie. Die Modelle der Granite Code -Stiftung sind Modelle, die Anweisungen befolgen und mithilfe einer Kombination aus Git -Commits, gepaart mit menschlichen Anweisungen und Open-Source-Datensätzen mit synthetisch generierten Codeanweisungen, verfeinert werden.
Das granite-8b-code-instruct v2.0.0 -Stiftungsmodell kann größere Eingabeaufforderungen mit einer größeren Länge des Kontextfensters verarbeiten.
Hinweis:Wenn Sie dieses Modell aus Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung
Die folgenden Granite Code -Stiftungsmodelle sind so konzipiert, dass sie auf codierungsbezogene Anweisungen reagieren und zum Bau von Codierungsassistenten verwendet werden können:
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
Die folgenden Granite Code -Foundation-Modelle sind auf Anweisungen abgestimmte Versionen des granite-20b-code-base -Foundation-Modells, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Größen
3 Milliarden Parameter
8 Milliarden Parameter
20 Milliarden Parameter
34 Milliarden Parameter
API-Preisstufe
Klasse 1.
Einzelheiten zu den Preisen für die bereitgestellten Code-Modelle finden Sie in Tabelle 2.
Einzelheiten zu den Preisen für die Modelle auf Abruf finden Sie in Tabelle 4.
Verfügbarkeit
Alle Code-Modelle, außer den Text-zu-SQL-Modellen: Bereitgestellt von IBM, bereitgestellt auf mandantenfähiger Hardware.
Alle Code-Modelle, einschließlich der Text-zu-SQL-Grundmodelle: Bereitstellung bei Bedarf für den dedizierten Einsatz.
Wenn das Modell nur in der Umgebung mit mehreren Mandanten ausgeführt wird, gilt eine maximale Begrenzung für neue Token, d. h. die vom Stiftungsmodell pro Anfrage generierten Token sind auf 8.192 begrenzt.
granite-8b-code-instruct : 128.000
Wenn das Modell nur in der Umgebung mit mehreren Mandanten ausgeführt wird, gilt eine maximale Begrenzung für neue Token, d. h. die vom Stiftungsmodell pro Anfrage generierten Token sind auf 8.192 begrenzt.
granite-20b-code-instruct : 8.192
Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 4.096 begrenzt.
granite-20b-code-base-schema-linking : 8.192
granite-20b-code-base-sql-gen : 8.192
granite-34b-code-instruct : 8.192
Unterstützte natürliche Sprachen
Englisch
Unterstützte Programmiersprachen
Die Granite Code -Stiftung unterstützt 116 Programmiersprachen, darunter Python, Javascript, Java, C++, Go und Rust. Die vollständige Liste finden Sie unter IBM -Stiftungsmodelle.
Informationen zur Abstimmung der Anweisungen
Diese Modelle wurden auf der Grundlage von Granite Code -Basismodellen mit einer Kombination aus frei lizenzierten Anweisungsdaten verfeinert, um die Fähigkeiten zur Befolgung von Anweisungen zu verbessern, einschließlich der Fähigkeiten zum logischen Denken und zur Problemlösung.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Die Modelle der Granite Guardian -Stiftung gehören zur Modellfamilie IBM Granite. Die granite-guardian-3-2b - und granite-guardian-3-8b -Stiftungsmodelle sind verfeinerte Granite Instruct -Modelle, die darauf ausgelegt sind, Risiken in Eingabeaufforderungen und Antworten zu erkennen. Die Grundlagenmodelle helfen bei der Risikoerkennung in vielen wichtigen Dimensionen des KI-Risikoatlas.
Die Generation 3.1 der Modelle wird mit einer Kombination aus von Menschen annotierten und zusätzlichen synthetischen Daten trainiert, um die Leistung bei Risiken im Zusammenhang mit Halluzinationen und Jailbreak zu verbessern.
Verwendung
Granite Guardian die Modelle der Stiftung sind darauf ausgelegt, schadensbezogene Risiken innerhalb von Prompt-Text- oder Modellantworten (als Leitplanken) zu erkennen und können in Anwendungsfällen mit abrufgestützter Generierung verwendet werden, um die Relevanz des Kontexts (ob der abgerufene Kontext für die Abfrage relevant ist), die Fundiertheit (ob die Antwort korrekt ist und dem bereitgestellten Kontext entspricht) und die Relevanz der Antwort (ob die Antwort die Abfrage des Benutzers direkt anspricht) zu bewerten.
Größen
2 Milliarden Parameter
8 Milliarden Parameter
API-Preisstufe
2b: Klasse C1
8b: Klasse 12
Einzelheiten zu den Preisen finden Sie in Tabelle 2.
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 8.192 begrenzt.
Unterstützte natürliche Sprachen
Englisch
Informationen zur Abstimmung der Anweisungen
Die Granite Guardian -Modelle sind feinabgestimmte Granite Instruct -Modelle, die mit einer Kombination aus von Menschen annotierten und synthetischen Daten trainiert wurden.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Granite time series die Modelle der Foundation gehören zur Modellfamilie IBM Granite. Diese Modelle sind kompakte, vorab trainierte Modelle für multivariate Zeitreihenprognosen von IBM Research. Die folgenden Versionen stehen für die Datenprognose zur Verfügung watsonx.ai:
granite-ttm-512-96-r2
granite-ttm-1024-96-r2
granite-ttm-1536-96-r2
Verwendung
Sie können eines dieser vorab trainierten Modelle auf Ihre Zieldaten anwenden, um eine erste Prognose zu erhalten, ohne das Modell auf Ihren Daten trainieren zu müssen. Wenn die Modelle der Stiftung Granite time series einen Satz historischer, zeitgesteuerter Datenbeobachtungen erhalten, können sie ihr Verständnis dynamischer Systeme anwenden, um zukünftige Datenwerte vorherzusagen. Diese Modelle funktionieren am besten mit Datenpunkten in Minuten- oder Stundenintervallen und generieren einen Prognosedatensatz mit bis zu 96 Datenpunkten pro Zielkanal.
Erforderliche Mindestanzahl an Datenpunkten pro Kanal in der API-Anfrage:
granite-ttm-512-96-r2: 512
granite-ttm-1024-96-r2: 1.024
granite-ttm-1536-96-r2: 1.536
Unterstützte natürliche Sprachen
Englisch
Informationen zur Abstimmung der Anweisungen
Die Granite time series -Modelle wurden anhand von fast einer Milliarde Zeitreihendaten aus verschiedenen Bereichen, darunter Elektrizität, Verkehr, Fertigung und mehr, trainiert.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Granite Vision 3.2 2b ist ein Bild-zu-Text-Modell, das für den Einsatz in Unternehmen entwickelt wurde. Dieses multimodale Granite -Modell ist in der Lage, Bilder und Text für Aufgaben wie das Verständnis von Tabellen, Diagrammen, Grafiken und mehr aufzunehmen.
Verwendung
Das granite-vision-3-2-2b -Stiftungsmodell ist für das visuelle Verständnis von Dokumenten konzipiert und ermöglicht die automatische Extraktion von Inhalten aus Tabellen, Diagrammen, Infografiken, Plots, Diagrammen und mehr.
Hinweis : Es wird empfohlen, das Modell granite-vision-3-2-2b nur mit Bilddateien für die visuelle Verarbeitung und zum Verständnis von Anwendungsfällen zu verwenden.
Size
2 Milliarden Parameter
API-Preisstufe
Klasse C1
Verfügbarkeit
Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten.
Token-Limits
Länge des Kontextfensters (Eingabe + Ausgabe): 131.072
Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.
Das granite-vision-3-2-2b -Stiftungsmodell wurde anhand eines kuratierten Datensatzes trainiert, der verschiedene öffentliche Datensätze und synthetische Datensätze umfasst, die auf die Unterstützung einer Vielzahl von Aufgaben im Bereich des Dokumentenverständnisses und der allgemeinen Bildverarbeitung zugeschnitten sind. Es wurde durch Feinabstimmung des granite-3-2b-instruct -Grundmodells mit Bild- und Textmodalitäten trainiert.
Modellarchitektur
Decoder
Lizenz
Siehe die Leistungsbeschreibungen für die beiden Leistungen, aus denen sich watsonx.ai:
IBM -die entwickelten Gründungsmodelle sind Teil des IBM Cloud -Dienstes. Wenn Sie ein von IBM entwickeltes Stiftungsmodell verwenden, das unter watsonx.ai bereitgestellt wird, gelten die vertraglichen Schutzbestimmungen im Zusammenhang mit der Entschädigung von IBM. Weitere Informationen finden Sie in der Kundenbeziehungsvereinbarung von IBM sowie in den Servicebeschreibungen.
Veraltete Foundation-Modelle werden mit einem Warnsymbol hervorgehoben. Weitere Informationen zur Abschreibung, einschließlich der Details zur Rücknahme des Stiftungsmodells, finden Sie unter "Lebenszyklus des Stiftungsmodells ".
Ressourcen im Zusammenhang mit dem Modell Granite
Copy link to section
Weitere Informationen zu IBM Granite -Basismodellen finden Sie in den folgenden Ressourcen: