Unterstützte Gründungsmodelle in watsonx.ai
Sie können mit Foundation-Modellen von Drittanbietern und IBM in IBM arbeiten. watsonx.ai.You kann Foundation-Modelle verwenden, die von IBM zur Verfügung gestellt werden und sofort einsatzbereit sind, oder Foundation-Modelle auf Abruf bereitstellen, um sie exklusiv für Ihr Unternehmen zu verwenden.
Wie man ein Modell auswählt
Informationen zu Faktoren, die Ihnen bei der Auswahl eines Modells helfen können, wie z. B. unterstützte Aufgaben und Sprachen, finden Sie unter "Auswahl eines Modells" und "Benchmarks für das Foundation-Modell ".
Die Verfügbarkeit der Modelle variiert je nach Standort des Rechenzentrums. Einzelheiten finden Sie unter Regionale Verfügbarkeit von Diensten und Funktionen auf IBM Cloud.
Foundation-Modelle nach Einsatzmethode
Je nach Bereitstellungsmethode können Sie Foundation-Modelle direkt auf Hardware mit mehreren Mandanten verwenden oder Modelle auf dedizierter Hardware für die Verwendung durch Ihre Organisation bereitstellen. Weitere Informationen zu den verschiedenen Möglichkeiten, Modelle einzusetzen, finden Sie unter "Foundation-Modell-Einsatzmethoden ".
Bereitstellung von einsatzbereiten Fundamentmodellen
Eine Sammlung von Open-Source-und IBM -Basismodellen wird in IBM watsonx.aibereitgestellt. Sie können diese Gründungsmodelle im Prompt Lab oder programmatisch abfragen.
IBM fundamentmodelle
In der folgenden Tabelle sind die unterstützten IBM Foundation-Modelle aufgeführt, die IBM für das Inferencing bereitstellt.
Die Nutzung wird in Ressourceneinheiten (RU) gemessen; jede Einheit entspricht 1.000 Token aus dem Input und Output des Inferenzverfahrens des Foundation-Modells. Einzelheiten zur Berechnung und Überwachung der Modellpreise finden Sie unter Abrechnungsdetails für generative KI-Assets.
Sie können auch auf einige IBM Foundation-Modelle aus Drittanbieter-Repositories zugreifen, z. B. Hugging Face. IBM foundation-Modelle, die Sie aus einem Repository eines Drittanbieters beziehen, werden von IBM nicht entschädigt. Nur die Modelle der Stiftung IBM, auf die Sie über watsonx.ai zugreifen, werden von IBM entschädigt. Weitere Informationen über den vertraglichen Schutz im Zusammenhang mit der IBM Entschädigung finden Sie in der IBM Kundenbeziehungsvereinbarung. Weitere Informationen über die IBM watsonx.ai Servicebeschreibung mit verschiedenen Cloud-Anbietern finden Sie unter:
Modellname | API-Modell-ID | USD/1,000 Token) |
USD/1,000 Token) |
Kontextfenster (Eingabe- und Ausgabe-Token) |
Weitere Informationen |
---|---|---|---|---|---|
granite-3-3-8b-instruct | ibm/granite-3-3-8b-instruct |
$0.0002 | $0.0002 | 131.072 | - Modellkarte - Website |
granite-13b-instruct-v2 | ibm/granite-13b-instruct-v2 |
$0.0006 | $0.0006 | 8.192 | - Modellkarte - Website - Forschungsarbeit Hinweis : Dieses Grundmodell kann schnell angepasst werden.
|
granite-8b-japanese | ibm/granite-8b-japanese |
$0.0006 | $0.0006 | 4.096 | - Musterkarte - Website - Forschungspapier |
granite-3-2b-instruct | ibm/granite-3-2b-instruct |
$0.0001 | $0.0001 | 131.072 | - Musterkarte - Website - Forschungspapier |
granite-3-8b-instruct | ibm/granite-3-8b-instruct |
$0.0002 | $0.0002 | 131.072 | - Musterkarte - Website - Forschungspapier |
granite-3-2-8b-instruct | ibm/granite-3-2-8b-instruct |
$0.0002 | $0.0002 | 131.072 | - Musterkarte - Website - Forschungspapier |
granite-guardian-3-2b | ibm/granite-guardian-3-2b |
$0.0001 | $0.0001 | 131.072 | - Musterkarte - Website |
granite-guardian-3-8b | ibm/granite-guardian-3-8b |
$0.0002 | $0.0002 | 131.072 | - Musterkarte - Website |
granite-3b-code-instruct | ibm/granite-3b-code-instruct |
$0.0006 | $0.0006 | 128.000 | - Musterkarte - Website - Forschungspapier |
granite-8b-code-instruct | ibm/granite-8b-code-instruct |
$0.0006 | $0.0006 | 128.000 | - Musterkarte - Website - Forschungspapier |
granite-20b-code-instruct | ibm/granite-20b-code-instruct |
$0.0006 | $0.0006 | 8.192 | - Musterkarte - Website - Forschungspapier |
granite-34b-code-instruct | ibm/granite-34b-code-instruct |
$0.0006 | $0.0006 | 8.192 | - Musterkarte - Website - Forschungspapier |
granite-vision-3-2-2b | ibm/granite-vision-3-2-2b |
$0.0001 | $0.0001 | 131.072 | - Musterkarte - Website - Forschungspapier |
Modellname | API-Modell-ID | Eingangspreis ( USD/1,000 Datenpunkte) |
Ausgabepreis ( USD/1,000 Datenpunkte) |
Kontextlänge Mindestanzahl Datenpunkte |
Weitere Informationen |
---|---|---|---|---|---|
granite-ttm-512-96-r2 | ibm/granite-ttm-512-96-r2 |
$0.00013 | $0.00038 | 512 | - Modellkarte - Website - Forschungsarbeit |
granite-ttm-1024-96-r2 | ibm/granite-ttm-1024-96-r2 |
$0.00013 | $0.00038 | 1.024 | - Modellkarte - Website - Forschungsarbeit |
granite-ttm-1536-96-r2 | ibm/granite-ttm-1536-96-r2 |
$0.00013 | $0.00038 | 1.536 | - Modellkarte - Website - Forschungsarbeit |
Drittstiftungsmodelle
In der folgenden Tabelle sind die unterstützten Foundation-Modelle von Drittanbietern aufgeführt, die mit watsonx.ai bereitgestellt werden.
Die Nutzung wird in Ressourceneinheiten (RU) gemessen; jede Einheit entspricht 1.000 Token aus dem Input und Output des Inferenzverfahrens des Foundation-Modells. Einzelheiten zur Berechnung und Überwachung der Modellpreise finden Sie unter Abrechnungsdetails für generative KI-Assets.
Modellname | API-Modell-ID | Einbindung | USD/1,000 Token) |
USD/1,000 Token) |
Kontextfenster (Eingabe- und Ausgabe-Token) |
Weitere Informationen |
---|---|---|---|---|---|---|
allam-1-13b-instruct | sdaia/allam-1-13b-instruct |
Nationales Zentrum für Künstliche Intelligenz und saudische Behörde für Daten und Künstliche Intelligenz | $0.0018 | $0.0018 | 4.096 | - Modellkarte |
elyza-japanese-llama-2-7b-instruct | elyza/elyza-japanese-llama-2-7b-instruct |
ELYZA, Inc. | $0.0018 | $0.0018 | 4.096 | - Musterkarte - Blog auf note.com |
flan-t5-xl-3b | google/flan-t5-xl |
$0.0006 | $0.0006 | 4.096 | - Musterkarte - Forschungspapier Hinweis : Dieses Grundmodell kann schnell angepasst werden.
|
|
flan-t5-xxl-11b | google/flan-t5-xxl |
$0.0018 | $0.0018 | 4.096 | - Musterkarte - Forschungspapier |
|
flan-ul2-20b | google/flan-ul2 |
$0.0050 | $0.0050 | 4.096 | - Musterkarte - ForschungspapierUL2 - Forschungspapier Flan |
|
jais-13b-chat | core42/jais-13b-chat |
Inception, Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) und Cerebras Systems | $0.0018 | $0.0018 | 2.048 | - Musterkarte - Forschungspapier |
llama-4-maverick-17b-128e-instruct-fp8 | meta-llama/llama-4-maverick-17b-128e-instruct-fp |
Meta | $0.00035 | $0.0014 | 131.072 | - Musterkarte - ' Meta AI Blog |
llama-4-scout-17b-16e-instruct |
meta-llama/llama-4-scout-17b-16e-instruct |
Meta | Keine Kosten während der Vorschau | Keine Kosten während der Vorschau | 131.072 | - Musterkarte - ' Meta AI Blog |
llama-3-3-70b-instruct | meta-llama/llama-3-3-70b-instruct |
Meta | $0.00071 | $0.00071 | 131.072 | - Musterkarte - ' Meta AI Blog |
llama-3-2-1b-instruct | meta-llama/llama-3-2-1b-instruct |
Meta | $0.0001 | $0.0001 | 131.072 | - Musterkarte - ' Meta AI blog - Forschungspapier |
llama-3-2-3b-instruct | meta-llama/llama-3-2-3b-instruct |
Meta | $0.00015 | $0.00015 | 131.072 | - Musterkarte - ' Meta AI blog - Forschungspapier |
llama-3-2-11b-vision-instruct | meta-llama/llama-3-2-11b-vision-instruct |
Meta | $0.00035 | $0.00035 | 131.072 | - Musterkarte - ' Meta AI blog - Forschungspapier |
llama-3-2-90b-vision-instruct | meta-llama/llama-3-2-90b-vision-instruct |
Meta | $0.0020 | $0.0020 | 131.072 | - Musterkarte - ' Meta AI blog - Forschungspapier |
llama-guard-3-11b-vision | meta-llama/llama-guard-3-11b-vision |
Meta | $0.00035 | $0.00035 | 131.072 | - Musterkarte - ' Meta AI blog - Forschungspapier |
llama-3-405b-instruct | meta-llama/llama-3-405b-instruct |
Meta | $0.0050 | $0.016 | 16.384 | - Musterkarte - ' Meta AI Blog |
llama-2-13b-chat | meta-llama/llama-2-13b-chat |
Meta | $0.0006 | $0.0006 | 4.096 | - Musterkarte - Forschungspapier |
mistral-large | mistralai/mistral-large |
Mistral AI | $0.003 | $0.01 | 131.072 | - Modellkarte - Blogbeitrag für Mistral Large 2 |
mistral-medium-2505 | mistralai/mistral-medium-2505 |
Mistral AI | $0.003 | $0.010 | 131.072 | - Modellkarte - Blogbeitrag für Mistral Medium 3 |
mistral-small-3-1-24b-instruct-2503 | mistralai/mistral-small-3-1-24b-instruct-2503 |
Mistral AI | $0.0001 | $0.0003 | 131.072 | • Modellkarte • Blogbeitrag für Mistral 3.1 |
mistral-small-24b-instruct-2501 | mistralai/mistral-small-24b-instruct-2501 |
Mistral AI | $0.00035 | $0.00035 | 32.768 | • Musterkarte • Blogbeitrag für Mistral Small 3 |
mixtral-8x7b-instruct-v01 | mistralai/mixtral-8x7b-instruct-v01 |
Mistral AI | $0.0006 | $0.0006 | 32.768 | - Musterkarte - Forschungspapier |
mt0-xxl-13b | bigscience/mt0-xxl |
BigScience | $0.0018 | $0.0018 | 4.096 | - Musterkarte - Forschungspapier |
pixtral-12b | mistralai/pixtral-12b |
Mistral AI | $0.00035 | $0.00035 | 128.000 | - Modellkarte - Blogbeitrag für Pixtral 12B |
Einsatz von On-Demand-Gründungsmodellen
Sie können mit einem Grundmodell aus einer Reihe von IBM -kuratierten Modellen arbeiten, die ausschließlich für Ihre Organisation bereitgestellt werden.
IBM bei Bedarf Stiftungsmodelle einsetzen
In der folgenden Tabelle sind die IBM -Stiftungsmodelle aufgeführt, die Sie bei Bedarf einsetzen können.
Einige Gründungsmodelle von IBM sind auch von Drittanbietern erhältlich, z. B. von Hugging Face. IBM foundation-Modelle, die Sie aus einem Repository eines Drittanbieters beziehen, werden von IBM nicht entschädigt. Nur die Modelle der Stiftung IBM, auf die Sie über watsonx.ai zugreifen, werden von IBM entschädigt. Weitere Informationen über den vertraglichen Schutz im Zusammenhang mit der IBM Entschädigung finden Sie in der IBM Kundenbeziehungsvereinbarung. Weitere Informationen über die IBM watsonx.ai Servicebeschreibung mit verschiedenen Cloud-Anbietern finden Sie unter:
Modellname | Preis pro Stunde in USD | Kategorie Modell-Hosting | Kontextfenster (Eingabe- und Ausgabe-Token) |
---|---|---|---|
granite-3-3-8b-instruct | $5.22 | Klein | 131.072 |
granite-3-3-2b-instruct | $5.22 | Klein | 131.072 |
granite-3-2-8b-instruct | $5.22 | Klein | 131.072 |
granite-3-1-8b-base | $5.22 | Klein | 131.072 |
granite-8b-japanese | $5.22 | Klein | 4.096 |
granite-20b-multilingual | $5.22 | Klein | 8.192 |
granite-13b-chat-v2 | $5.22 | Klein | 8.192 |
granite-13b-instruct-v2 | $5.22 | Klein | 8.192 |
granite-3b-code-instruct | $5.22 | Klein | 128.000 |
granite-8b-code-instruct | $5.22 | Klein | 128.000 |
granite-20b-code-instruct | $5.22 | Klein | 8.192 |
granite-34b-code-instruct | $5.22 | Klein | 8.192 |
granite-20b-code-base-schema-linking | $5.22 | Klein | 8.192 |
granite-20b-code-base-sql-gen | $5.22 | Klein | 8.192 |
granite-3-8b-base | $5.22 | Klein | 4.096 |
Bereitstellung von Drittanbietern auf Abruf-Stiftungsmodellen
In der folgenden Tabelle sind die Drittanbieter-Stiftungsmodelle aufgeführt, die Sie bei Bedarf einsetzen können.
Modellname | Einbindung | Preis pro Stunde in USD | Kategorie Modell-Hosting | Kontextfenster (Eingabe- und Ausgabe-Token) |
---|---|---|---|---|
allam-1-13b-instruct | Nationales Zentrum für Künstliche Intelligenz und saudische Behörde für Daten und Künstliche Intelligenz | $5.22 | Klein | 4.096 |
codellama-34b-instruct-hf | Code Llama | $10.40 | Mittel | 16.384 |
deepseek-r1-distill-llama-8b | DeepSeek KI | $5.22 | Klein | 131.072 |
deepseek-r1-distill-llama-70b | DeepSeek KI | $20.85 | Groß | 131.072 |
eurollm-1-7b-instruct | Utter-Projekt | $5.22 | Klein | 4.096 |
eurollm-9b-instruct | Utter-Projekt | $5.22 | Klein | 4.096 |
flan-t5-xl-3b | $5.22 | Klein | 4.096 | |
flan-t5-xxl-11b | $5.22 | Klein | 4.096 | |
flan-ul2-20b | $5.22 | Klein | 4.096 | |
llama-2-13b-chat | Meta | $5.22 | Klein | 4.096 |
llama-2-70b-chat | Meta | $20.85 | Groß | 4.096 |
llama-3-8b-instruct | Meta | $5.22 | Klein | 8.192 |
llama-3-70b-instruct | Meta | $20.85 | Groß | 8.192 |
llama-3-1-8b | Meta | $5.22 | Klein | 131.072 |
llama-3-1-70b | Meta | $20.85 | Groß | 131.072 |
llama-3-1-8b-instruct | Meta | $5.22 | Klein | 131.072 |
llama-3-1-70b-instruct | Meta | $20.85 | Groß | 131.072 |
llama-3-2-11b-vision-instruct | Meta | $5.22 | Klein | 131.072 |
llama-3-3-70b-instruct | Meta | $10.40 | Mittel | 131.072 |
llama-3-3-70b-instruct-hf | Meta | $20.85 | Groß | 131.072 |
mixtral-8x7b-base | Mistral AI | $10.40 | Mittel | 32.768 |
mixtral-8x7b-instruct-v01 | Mistral AI | $10.40 | Mittel | 32.768 |
mistral-large-instruct-2407 | Mistral AI | $ 55.15 (Siehe Anmerkung.) | Groß | 131.072 |
mistral-large-instruct-2411 | Mistral AI | $ 55.15 (Siehe Anmerkung.) | Groß | 131.072 |
mistral-nemo-instruct-2407 | Mistral AI | $5.22 | Klein | 131.072 |
mt0-xxl-13b | BigScience | $5.22 | Klein | 4.096 |
poro-34b-chat | LumiOpen | $10.40 | Mittel | 2.048 |
Für die Bereitstellung der Stiftungsmodelle mistral-large-instruct-2411 und mistral-large-instruct-2407 von Mistral AI für den dedizierten Gebrauch wird eine stündliche Zugangsgebühr erhoben. Der Gesamtpreis für die Bereitstellung dieser On-Demand-Foundation-Modelle setzt sich aus dem Zugangspreis und dem Hosting-Preis zusammen.
Hosting: $ 20.85 + Zugang: $ 34.30 = Gesamt: $ 55.15 USD pro Stunde
Weitere Informationen
- IBM fundamentmodelle
- Drittstiftungsmodelle
- Weitere Informationen zu den von IBM bereitgestellten Einbettungs- und Reranking-Textmodellen finden Sie unter "Unterstützte Encoder-Modelle ".
- Eine Liste der in den einzelnen regionalen Rechenzentren verfügbaren Modelle finden Sie unter "Regionale Verfügbarkeit von Foundation-Modellen ".
- Weitere Informationen zu den Preisen für das Foundation-Modell finden Sie unter "Rechnungsdetails für generative KI-Assets ".
- Informationen zu Preisen und Tarifbegrenzungen finden Sie unter watsonx.ai Laufzeitpläne.
Übergeordnetes Thema: Generative KI-Lösungen