0 / 0
Zurück zur englischen Version der Dokumentation
Unterstützte Gründungsmodelle in watsonx.ai
Letzte Aktualisierung: 18. Dez. 2024
Unterstützte Gründungsmodelle in watsonx.ai

Eine Sammlung von Open-Source- und IBM steht für die Inferenzierung in IBM watsonx.ai zur Verfügung. Finden Sie die Basismodelle, die am besten zu den Anforderungen Ihrer generativen KI-Anwendung und Ihrem Budget passen.

Die Basismodelle, die für das Inferencing von watsonx.ai zur Verfügung stehen, werden auf verschiedene Weise gehostet:

Mit watsonx.ai bereitgestellte Stiftungsmodelle
IBM Basismodelle, die auf mandantenfähiger Hardware von IBM bereitgestellt werden und für die Inferenzierung verfügbar sind. Sie zahlen nach verbrauchten Token. Siehe die mit watsonx.ai bereitgestellten Stiftungsmodelle.
Einsatz von On-Demand-Gründungsmodellen
Eine Instanz eines IBM foundation model, das Sie bereitstellen und das speziell für Ihre Inferencing-Verwendung bestimmt ist. Nur Kollegen, die Zugriff auf die Bereitstellung haben, können auf das foundation model zugreifen. Eine dedizierte Bereitstellung bedeutet schnellere und reaktionsschnellere Interaktionen ohne Ratenbeschränkungen. Sie zahlen für das Hosting des foundation model stundenweise. Siehe Bereitstellung von On-Demand-Foundation-Modellen.
Angepasste Basismodelle
Von Ihnen kuratierte Basismodelle, die Sie in watsonx.ai importieren und einsetzen. Die Instanz des benutzerdefinierten foundation model, die Sie bereitstellen, ist für Ihre Verwendung bestimmt. Eine gezielte Bereitstellung bedeutet schnellere und reaktionsschnellere Interaktionen. Sie zahlen für das Hosting des foundation model stundenweise. Siehe Benutzerdefinierte Gründungsmodelle.
Aufeinander abgestimmte Gründungsmodelle
Eine Teilmenge der verfügbaren Fundamentmodelle, die durch eine sofortige Abstimmung des Modells über die API oder Tuning Studio an Ihre Bedürfnisse angepasst werden können. Ein prompter abgestimmtes foundation model stützt sich auf das zugrundeliegende IBM foundation model. Sie zahlen für die Ressourcen, die Sie zur Abstimmung des Modells verbrauchen. Nachdem das Modell abgestimmt ist, zahlen Sie mit Token, die zur Inferenz des Modells verwendet werden. Siehe Prompt-abgestimmte Gründungsmodelle.

Wenn Sie die Basismodelle in Ihrem eigenen Rechenzentrum einsetzen möchten, können Sie die watsonx.ai erwerben. Weitere Informationen finden Sie unter Überblick über IBM watsonx as a Service und IBM watsonx.governance Software.

Vergleich der Verteilungsmethoden

Die Vergleichstabelle hilft Ihnen bei der Auswahl der richtigen Bereitstellungsmethode.

Tabelle 1. Methoden zur Bereitstellung des Stiftungsmodells
Bereitstellungstyp Verfügbar ab Mechanismus für den Einsatz Hosting-Umgebung Abrechnungsmethode Abschreibungspolitik
Mit watsonx.ai bereitgestellte Stiftungsmodelle - Ressourcendrehscheibe>Pay per token
- Prompt Lab
Kuratiert und bereitgestellt von IBM Mehrmandantenfähige Hardware Nach verwendeten Token Veraltet gemäß dem veröffentlichten Lebenszyklus
Einsatz von On-Demand-Gründungsmodellen - Ressourcen-Hub>Stundenweise Bezahlung
- Prompt Lab
Auf Ihren Wunsch von IBM zusammengestellt und bereitgestellt dedizierte Hardware Nach Einsatzstunden Ihr eingesetztes Modell ist nicht veraltet
Angepasste Basismodelle • Prompt Lab Von Ihnen kuratiert und eingesetzt dedizierte Hardware Nach Einsatzstunden Nicht veraltet
Aufeinander abgestimmte Gründungsmodelle • Prompt Lab Abgestimmt und eingesetzt von Ihnen Mehrmandantenfähige Hardware - Schulung wird nach CUH
abgerechnet - Inferencing wird nach verwendeten Token abgerechnet
Veraltet, wenn das zugrunde liegende Modell veraltet ist, es sei denn, Sie fügen das zugrunde liegende Modell als benutzerdefiniertes foundation model hinzu

Einzelheiten zur Berechnung und Überwachung der Modellpreise finden Sie unter Abrechnungsdetails für generative KI-Assets.

Unterstützte Gründungsmodelle nach Bereitstellungsmethode

Bei watsonx.ai sind verschiedene Basismodelle erhältlich, die Sie entweder sofort nutzen können oder die Sie auf dedizierter Hardware für Ihre Organisation einsetzen können.

Tabelle 1a. Verfügbare Gründungsmodelle nach Bereitstellungsmethode
Einbindung Bereitgestellt mit watsonx.ai
(Pay per Token)
Bereitstellung auf Anfrage
(stundenweise Bezahlung)
IBM - granite-13b-chat-v2 (Veraltet)
- granite-13b-instruct-v2
- granite-7b-lab (Veraltet)
- granite-8b-japanese
- granite-3-8b-base
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
granite-13b-chat-v2
granite-13b-instruct-v2
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Google flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
Meta - llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision-instruct
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct (veraltet)
- llama-3-70b-instruct (veraltet)
- llama-2-13b-chat (veraltet)
- llama-3-3-70b-instruct
- lama-3-3-70b-instruct-hf
- llama-2-13b-chat
- llama-2-70b-chat
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-3-1-8b
- llama-3-1-8b-instruct
Mistral AI mistral-large
mixtral-8x7b-instruct-v01
pixtral-12b
mixtral-8x7b-base
mixtral-8x7b-instruct-v01
mistral-nemo-instruct-2407
BigScience mt0-xxl-13b mt0-xxl-13b
Code Llama codellama-34b-instruct
ELYZA, Inc. elyza-japanese-llama-2-7b-instruct
Einführung jais-13b-chat
SDAIA allam-1-13b-instruct

Mit watsonx.ai bereitgestellte Stiftungsmodelle

Eine Sammlung von Open-Source-und IBM -Basismodellen wird in IBM watsonx.aibereitgestellt. Sie können diese Gründungsmodelle im Prompt Lab oder programmatisch abfragen.

IBM, die mit watsonx.ai bereitgestellt werden

In der folgenden Tabelle sind die unterstützten IBM Foundation-Modelle aufgeführt, die IBM für das Inferencing bereitstellt.

Die Nutzung wird in Ressourceneinheiten (RU) gemessen; jede Einheit entspricht 1.000 Token aus dem Input und Output des foundation model Inferencing. Einzelheiten zur Berechnung und Überwachung der Modellpreise finden Sie unter Abrechnungsdetails für generative KI-Assets.

Einige IBM Foundation-Modelle sind auch in Repositories von Drittanbietern verfügbar, z. B. bei Hugging Face. IBM Foundation-Modelle, die Sie aus einem Repository eines Drittanbieters beziehen, werden von IBM nicht entschädigt. Nur IBM Foundation-Modelle, auf die Sie über watsonx.ai zugreifen, werden von IBM entschädigt. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Tabelle 2. IBM, die mit watsonx.ai bereitgestellt werden
Modellname
USD/1,000 Token)

USD/1,000 Token)
Kontextfenster
(Eingabe- und Ausgabe-Token)
Weitere Informationen
granite-13b-chat-v2 $0.0006 $0.0006 8.192 - Musterkarte
- Website
- Forschungspapier
granite-13b-instruct-v2 $0.0006 $0.0006 8.192 - Modellkarte
- Website
- Forschungsarbeit
Hinweis: Dieses foundation model kann zeitnah angepasst werden.
granite-7b-lab $0.0006 $0.0006 8.192 - Musterkarte
- Forschungspapier (LAB)
granite-8b-japanese $0.0006 $0.0006 4.096 - Musterkarte
- Website
- Forschungspapier
granite-20b-multilingual $0.0006 $0.0006 8.192 - Musterkarte
- Website
- Forschungspapier
granite-3-2b-instruct $0.0001 $0.0001 131.072 - Musterkarte
- Website
- Forschungspapier
granite-3-8b-instruct $0.0002 $0.0002 131.072 - Musterkarte
- Website
- Forschungspapier
granite-guardian-3-2b $0.0001 $0.0001 8.192 - Musterkarte
- Website
granite-guardian-3-8b $0.0002 $0.0002 8.192 - Musterkarte
- Website
granite-3b-code-instruct $0.0006 $0.0006 128.000 - Musterkarte
- Website
- Forschungspapier
granite-8b-code-instruct $0.0006 $0.0006 128.000 - Musterkarte
- Website
- Forschungspapier
granite-20b-code-instruct $0.0006 $0.0006 8.192 - Musterkarte
- Website
- Forschungspapier
granite-34b-code-instruct $0.0006 $0.0006 8.192 - Musterkarte
- Website
- Forschungspapier

 

Mit watsonx.ai bereitgestellte Stiftungsmodelle von Drittanbietern

In der folgenden Tabelle sind die unterstützten Foundation-Modelle von Drittanbietern aufgeführt, die mit watsonx.ai bereitgestellt werden.

Die Nutzung wird in Ressourceneinheiten (RU) gemessen; jede Einheit entspricht 1.000 Token aus dem Input und Output des foundation model Inferencing. Einzelheiten zur Berechnung und Überwachung der Modellpreise finden Sie unter Abrechnungsdetails für generative KI-Assets.

Tabelle 3. Mit watsonx.ai bereitgestellte Stiftungsmodelle von Drittanbietern
Modellname Einbindung
USD/1,000 Token)

USD/1,000 Token)
Kontextfenster
(Eingabe- und Ausgabe-Token)
Weitere Informationen
allam-1-13b-instruct Nationales Zentrum für Künstliche Intelligenz und saudische Behörde für Daten und Künstliche Intelligenz $0.0018 $0.0018 4.096 - Modellkarte
codellama-34b-instruct Code Llama $0.0018 $0.0018 16.384 - Musterkarte
- ' Meta AI Blog
elyza-japanese-llama-2-7b-instruct ELYZA, Inc. $0.0018 $0.0018 4.096 - Musterkarte
- Blog auf note.com
flan-t5-xl-3b Google $0.0006 $0.0006 4.096 - Musterkarte
- Forschungspapier
Hinweis: Dieses foundation model kann zeitnah angepasst werden.
flan-t5-xxl-11b Google $0.0018 $0.0018 4.096 - Musterkarte
- Forschungspapier
flan-ul2-20b Google $0.0050 $0.0050 4.096 - Musterkarte
- ForschungspapierUL2
- Forschungspapier Flan
jais-13b-chat Inception, Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) und Cerebras Systems $0.0018 $0.0018 2.048 - Musterkarte
- Forschungspapier
llama-3-3-70b-instruct Meta $0.0018 $0.0018 131.072 - Musterkarte
- ' Meta AI Blog
llama-3-2-1b-instruct Meta $0.0001 $0.0001 131.072 - Musterkarte
- ' Meta AI blog
- Forschungspapier
llama-3-2-3b-instruct Meta $0.00015 $0.00015 131.072 - Musterkarte
- ' Meta AI blog
- Forschungspapier
llama-3-2-11b-vision-instruct Meta $0.00035 $0.00035 131.072 - Musterkarte
- ' Meta AI blog
- Forschungspapier
llama-3-2-90b-vision-instruct Meta $0.0020 $0.0020 131.072 - Musterkarte
- ' Meta AI blog
- Forschungspapier
llama-guard-3-11b-vision Meta $0.00035 $0.00035 131.072 - Musterkarte
- ' Meta AI blog
- Forschungspapier
llama-3-1-8b-instruct Meta $0.0006 $0.0006 131.072 - Musterkarte
- ' Meta AI Blog
llama-3-1-70b-instruct Meta $0.0018 $0.0018 131.072 - Musterkarte
- ' Meta AI Blog
llama-3-405b-instruct Meta $0.0050 $0.016 16.384 - Musterkarte
- ' Meta AI Blog
llama-3-8b-instruct Meta $0.0006 $0.0006 8.192 - Musterkarte
- ' Meta AI Blog
llama-3-70b-instruct Meta $0.0018 $0.0018 8.192 - Musterkarte
- ' Meta AI Blog
llama-2-13b-chat Meta $0.0006 $0.0006 4.096 - Musterkarte
- Forschungspapier
mistral-large Mistral AI $0.003 $0.01 32.768 - Modellkarte
- Blogbeitrag für Mistral Large 2
mixtral-8x7b-instruct-v01 Mistral AI $0.0006 $0.0006 32.768 - Musterkarte
- Forschungspapier
mt0-xxl-13b BigScience $0.0018 $0.0018 4.096 - Musterkarte
- Forschungspapier
pixtral-12b Mistral AI $0.00035 $0.00035 128.000 - Modellkarte
- Blogbeitrag für Pixtral 12B

 

Angepasste Basismodelle

Sie können nicht nur mit Foundation-Modellen arbeiten, die von IBM kuratiert wurden, sondern auch Ihre eigenen Foundation-Modelle hochladen und einsetzen. Nachdem die benutzerdefinierten Modelle bereitgestellt und bei watsonx.ai registriert wurden, können Sie Prompts erstellen, die auf die benutzerdefinierten Modelle aus dem Prompt Lab und aus der watsonx.ai schließen lassen.

Weitere Informationen über das Hochladen, Registrieren und Bereitstellen eines benutzerdefinierten foundation model finden Sie unter Bereitstellen eines benutzerdefinierten foundation model.

Einsatz von On-Demand-Gründungsmodellen

Wählen Sie aus einer Reihe von IBM Modellen ein foundation model aus, das Sie für die ausschließliche Verwendung in Ihrem Unternehmen bereitstellen.

Weitere Informationen über die Bereitstellung eines foundation model bei Bedarf finden Sie unter Bereitstellen von Foundation-Modellen bei Bedarf.

Hinweis: Foundation-Modelle, die Sie bei Bedarf bereitstellen können, sind nur im Rechenzentrum in Dallas verfügbar.

Bereitstellung von On-Demand-Foundation-Modellen von IBM

In der folgenden Tabelle sind die IBM Foundation-Modelle aufgeführt, die Sie bei Bedarf einsetzen können.

Einige IBM Foundation-Modelle sind auch in Repositories von Drittanbietern verfügbar, z. B. bei Hugging Face. IBM Foundation-Modelle, die Sie aus einem Repository eines Drittanbieters beziehen, werden von IBM nicht entschädigt. Nur IBM Foundation-Modelle, auf die Sie über watsonx.ai zugreifen, werden von IBM entschädigt. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Tabelle 4. IBM, die auf Anfrage in watsonx.ai bereitgestellt werden können
Modellname Preis pro Stunde in USD Kategorie Modell-Hosting Kontextfenster
(Eingabe- und Ausgabe-Token)
granite-13b-chat-v2 $5.22 Klein 8.192
granite-13b-instruct-v2 $5.22 Klein 8.192
granite-20b-code-base-schema-linking $5.22 Klein 8.192
granite-20b-code-base-sql-gen $5.22 Klein 8.192
granite-3-8b-base $5.22 Klein 4.096

 

Bereitstellung von On-Demand-Grundlagenmodellen von Drittanbietern

In der folgenden Tabelle sind die Foundation-Modelle von Drittanbietern aufgeführt, die Sie bei Bedarf einsetzen können.

Tabelle 5. Basismodelle von Drittanbietern, die bei Bedarf in watsonx.ai eingesetzt werden können
Modellname Einbindung Preis pro Stunde in USD Kategorie Modell-Hosting Kontextfenster
(Eingabe- und Ausgabe-Token)
flan-t5-xl-3b Google $5.22 Klein 4.096
flan-t5-xxl-11b Google $5.22 Klein 4.096
flan-ul2-20b Google $5.22 Klein 4.096
llama-2-13b-chat Meta $5.22 Klein 4.096
llama-2-70b-chat Meta $20.85 Groß 4.096
llama-3-8b-instruct Meta $5.22 Klein 8.192
llama-3-70b-instruct Meta $20.85 Groß 8.192
llama-3-1-8b Meta $5.22 Klein 131.072
llama-3-1-8b-instruct Meta $5.22 Klein 131.072
llama-3-3-70b-instruct Meta $10.40 Mittel 8.192
llama-3-3-70b-instruct-hf Meta $20.85 Groß 8.192
mixtral-8x7b-base Mistral AI $10.40 Mittel 32.768
mixtral-8x7b-instruct-v01 Mistral AI $10.40 Mittel 32.768
mistral-nemo-instruct-2407 Mistral AI $5.22 Klein 131.072
mt0-xxl-13b BigScience $5.22 Klein 4.096

 

Aufeinander abgestimmte Gründungsmodelle

Sie können die folgenden Basismodelle anpassen, indem Sie sie in ' watsonx.ai:' prompt einstellen

Weitere Informationen finden Sie unter Tuning Studio.

Weitere Informationen

Übergeordnetes Thema: Abgenerative KI-Lösungen entwickeln

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen