0 / 0
Zurück zur englischen Version der Dokumentation
Details zum Gründungsmodell
Letzte Aktualisierung: 20. Dez. 2024
Details zum Gründungsmodell

Eine Sammlung von Open-Source- und IBM Foundation-Modellen ist in IBM watsonx.ai verfügbar. Sie können die Grundlagenmodelle im Prompt Lab oder programmatisch ableiten.

Die folgenden Modelle sind in ' watsonx.ai: verfügbar

 

Weitere Informationen über die verschiedenen Einsatzmöglichkeiten dieser Modelle sowie eine Zusammenfassung der Preise und Kontextfensterlängen für die Modelle finden Sie unter Unterstützte Gründungsmodelle.

Wie man ein Modell auswählt

Informationen zu Faktoren, die Ihnen bei der Auswahl eines Modells helfen können, wie z. B. unterstützte Aufgaben und Sprachen, finden Sie unter Auswahl eines Modells und Foundation-Modell-Benchmarks.

Details zum Gründungsmodell

Die verfügbaren Grundmodelle unterstützen eine Reihe von Anwendungsfällen sowohl für natürliche Sprachen als auch für Programmiersprachen. Um zu sehen, welche Arten von Aufgaben diese Modelle erledigen können, sehen Sie sich die Musteraufforderungen an und probieren Sie sie aus.

allam-1-13b-instruct

Das allam-1-13b-instruct foundation model ist ein zweisprachiges großes Sprachmodell für Arabisch und Englisch, das vom National Center for Artificial Intelligence bereitgestellt und von der saudischen Behörde für Daten und künstliche Intelligenz unterstützt wird und auf die Unterstützung von Konversationsaufgaben abgestimmt ist. Die ALLaM ist eine Sammlung leistungsstarker Sprachmodelle, die die arabische Sprachtechnologie voranbringen sollen. Diese Modelle werden mit Llama-2 initialisiert und sowohl auf Arabisch als auch auf Englisch trainiert.

Hinweis:Dieses foundation model ist nur im Frankfurter Rechenzentrum verfügbar. Wenn Sie dieses Modell aus dem Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung
Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch.
Size
13 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Arabisch (Modern Standard Arabic) und Englisch
Anweisung Tuning Information
allam-1-13b-instruct basiert auf dem Allam-13b-base, einem foundation model, das auf insgesamt 3 Billionen Token in Englisch und Arabisch vortrainiert ist, einschließlich der Token aus der Initialisierung. Der arabische Datensatz enthält nach der Bereinigung und Deduplizierung 500 Milliarden Token. Die zusätzlichen Daten stammen aus Open-Source-Sammlungen und Web-Crawls. Das foundation model wurde mit einem kuratierten Satz von 4 Millionen arabischen und 6 Millionen englischen Prompt-and-Response-Paaren feinabgestimmt.
Modell der Architektur
Nur für Decoder
Lizenz
Llama 2 Gemeinschaftslizenz und ALLaM
Weitere Informationen
Lesen Sie die folgende Ressource:

codellama-34b-instruct

Ein programmatisches Codegenerierungsmodell, das auf Llama 2 von ' Meta basiert. Code Llama ist genau auf die Erstellung und Diskussion von Code abgestimmt.

Hinweis:Wenn Sie dieses Modell aus dem Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung
Verwenden Sie Code Llama, um Prompts zu erstellen, die Code auf der Grundlage von Eingaben in natürlicher Sprache erzeugen, Code erklären oder Code vervollständigen und debuggen.
Size
34 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 16,384
Hinweis: Die maximale Anzahl neuer Token, d. h. der Token, die vom foundation model pro Anfrage erzeugt werden, ist auf 8.192 begrenzt.
Unterstützte natürliche Sprachen
Englisch
Unterstützte Programmiersprachen
Das foundation model unterstützt viele Programmiersprachen, darunter Python, C++, Java, PHP, Typescript (Javascript), C#, Bash und andere.
Anweisung Tuning Information
Die auf die Anweisungen abgestimmte Version wurde mit den Anweisungen in natürlicher Sprache und der erwarteten Ausgabe gefüttert, um das Modell anzuleiten, hilfreiche und sichere Antworten in natürlicher Sprache zu generieren.
Modell der Architektur
Decoder
Lizenz
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

elyza-japanese-llama-2-7b-instruct

Das Modell elyza-japanese-llama-2-7b-instruct wird von ELYZA, Inc auf Hugging Face bereitgestellt. Das foundation model elyza-japanese-llama-2-7b-instruct ist eine Version des Modells Llama 2 von ' Meta, die darauf trainiert ist, japanischen Text zu verstehen und zu erzeugen. Das Modell ist auf das Lösen verschiedener Aufgaben, die den Anweisungen des Benutzers folgen, und auf die Teilnahme an einem Dialog abgestimmt.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen. Gut geeignet für die Klassifizierung und Extraktion in Japanisch und für die Übersetzung zwischen Englisch und Japanisch. Am besten funktioniert es, wenn die Eingabeaufforderung auf Japanisch erfolgt.
Size
7 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Bereitgestellt von IBM auf mandantenfähiger Hardware im Rechenzentrum in Tokio.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Japanisch, Englisch
Anweisung Tuning Information
Für das Training der japanischen Sprache wurden japanische Texte aus zahlreichen Quellen verwendet, darunter Wikipedia und das Open Super-large Crawled ALMAnaCH coRpus (ein mehrsprachiges Korpus, das durch Klassifizierung und Filterung der Sprache im Common Crawl-Korpus erzeugt wird). Die Feinabstimmung des Modells erfolgte anhand eines Datensatzes, der von ELYZA erstellt wurde. Der ELYZA Tasks 100-Datensatz enthält 100 verschiedene und komplexe Aufgaben, die manuell erstellt und von Menschen bewertet wurden. Der ELYZA Tasks 100-Datensatz ist öffentlich zugänglich bei HuggingFace.
Modell der Architektur
Decoder
Lizenz
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

flan-t5-xl-3b

Das Modell flan-t5-xl-3b wird von Google auf Hugging Face bereitgestellt. Dieses Modell basiert auf dem vortrainierten Text-zu-Text-TransformationsmodellT5) und verwendet Methoden zur Feinabstimmung von Anweisungen, um eine bessere Leistung bei " zero- und " few-shot zu erzielen. Das Modell wird auch mit Daten aus der Gedankenkette abgestimmt, um seine Fähigkeit zu verbessern, logische Aufgaben zu erfüllen.

Hinweis:Dieses foundation model kann mit Hilfe des Tuning Studio angepasst werden.
Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
3 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Beispieleingabeaufforderungen
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Mehrsprachig
Anweisung Tuning Information
Das Modell wurde mit Aufgaben verfeinert, die zusätzlich zu den traditionellen Aufgaben der natürlichen Sprachverarbeitung mehrstufige Schlussfolgerungen aus Gedankenkettendaten beinhalten. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

flan-t5-xxl-11b

Das Modell flan-t5-xxl-11b wird von Google auf Hugging Face bereitgestellt. Dieses Modell basiert auf dem vortrainierten Text-zu-Text-TransformationsmodellT5) und verwendet Methoden zur Feinabstimmung von Anweisungen, um eine bessere Leistung bei " zero- und " few-shot zu erzielen. Das Modell wird auch mit Daten aus der Gedankenkette abgestimmt, um seine Fähigkeit zu verbessern, logische Aufgaben zu erfüllen.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
11 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Englisch, Deutsch, Französisch
Anweisung Tuning Information
Das Modell wurde mit Aufgaben verfeinert, die zusätzlich zu den traditionellen Aufgaben der natürlichen Sprachverarbeitung mehrstufige Schlussfolgerungen aus Gedankenkettendaten beinhalten. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

flan-ul2-20b

Das Modell flan-ul2-20b wird von Google auf Hugging Face bereitgestellt. Dieses Modell wurde mit Hilfe des Unifying Language Learning ParadigmsUL2) trainiert. Das Modell ist für die Spracherzeugung, das Sprachverständnis, die Textklassifizierung, die Beantwortung von Fragen, den gesunden Menschenverstand, lange Texte, strukturiertes Wissen und Informationsbeschaffung, kontextbezogenes Lernen, " zero-shot und einmalige Eingabeaufforderungen optimiert.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
20 Milliarden Parameter
API-Preisstufe
Klasse 3. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Englisch
Anweisung Tuning Information
Das Modell flan-ul2-20b wird auf der riesigen, bereinigten Version des Web-Crawl-Korpus von Common Crawl vortrainiert. Das Modell wird mit mehreren Vortrainingszielen feinabgestimmt, um es für verschiedene Aufgaben der natürlichen Sprachverarbeitung zu optimieren. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

granite-13b-chat-v2

Das Modell granite-13b-chat-v2 wird von IBM bereitgestellt. Dieses Modell ist für Dialoganwendungen optimiert und funktioniert gut mit virtuellen Agenten und Chat-Anwendungen.

Verwendung: Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Enthält ein Schlüsselwort in seiner Ausgabe, das als Stoppsequenz verwendet werden kann, um knappe Antworten zu erzeugen. Befolgen Sie die Richtlinien für die Eingabeaufforderung für Tipps zur Verwendung. Weitere Informationen finden Sie unter Eingabeaufforderung für granite-13b-chat-v2.

Size

13 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2 und Tabelle 4.

Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren

Beispielhafte Aufforderung

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 8,192

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Die Granite wird auf unternehmensrelevanten Datensätzen aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die Daten, die zum Trainieren der Modelle verwendet werden, durchlaufen zunächst eine IBM Data Governance-Prüfung und werden durch den IBM HAP-Filter von Texten befreit, die als Hass, Beleidigung oder Gotteslästerung gekennzeichnet sind. IBM stellt Informationen über die verwendeten Trainingsmethoden und Datensätze zur Verfügung.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

granite-13b-instruct-v2

Das Modell granite-13b-instruct-v2 wird von IBM bereitgestellt. Dieses Modell wurde mit hochwertigen Finanzdaten trainiert und ist ein Spitzenmodell für Finanzaufgaben. Zu den bewerteten Aufgaben im Finanzbereich gehören: die Bereitstellung von Stimmungsbewertungen für Transkripte von Aktien und Gewinnanrufen, die Klassifizierung von Nachrichtenschlagzeilen, die Extraktion von Kreditrisikobewertungen, die Zusammenfassung von langen Finanztexten und die Beantwortung von Fragen zu Finanz- oder Versicherungsfragen.

Hinweis:Dieses foundation model kann mit Hilfe des Tuning Studio angepasst werden.
Verwendung
Unterstützt Extraktions-, Zusammenfassungs- und Klassifizierungsaufgaben. Erzeugt nützliche Ausgaben für finanzbezogene Aufgaben. Verwendet ein modellspezifisches Eingabeaufforderungsformat. Akzeptiert Sonderzeichen, die zur Erzeugung strukturierter Ausgaben verwendet werden können.
Size
13 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2 und Tabelle 4.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Hinweis:Warnsymbol Der IBM dieses foundation model ist veraltet. Einzelheiten finden Sie unter Lebenszyklus des Stiftungsmodells.
Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 8,192

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Die Granite wird auf unternehmensrelevanten Datensätzen aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die Daten, die zum Trainieren der Modelle verwendet werden, durchlaufen zunächst eine IBM Data Governance-Prüfung und werden durch den IBM HAP-Filter von Texten befreit, die als Hass, Beleidigung oder Gotteslästerung gekennzeichnet sind. IBM stellt Informationen über die verwendeten Trainingsmethoden und Datensätze zur Verfügung.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

granite-7b-lab

Das foundation model wird von IBM bereitgestellt. Das foundation model verwendet ein neuartiges Ausrichtungsabstimmungsverfahren von IBM Research. Large-scale Alignment for chatBots, kurz LAB, ist eine Methode zum Hinzufügen neuer Fähigkeiten zu bestehenden Basismodellen durch die Generierung synthetischer Daten für die Fähigkeiten und die anschließende Verwendung dieser Daten zur Abstimmung des foundation model.

Verwendung
Unterstützt allgemeine Aufgaben wie Extraktion, Zusammenfassung, Klassifizierung und mehr. Befolgen Sie die Richtlinien für die Eingabeaufforderung für Tipps zur Verwendung. Weitere Informationen finden Sie unter Eingabeaufforderung für granite-7b-lab.
Hinweis:Dieses foundation model unterstützt Fähigkeiten, die von der Open-Source-Community von InstructLab beigesteuert werden.
Size
7 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.
Verfügbarkeit
Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
Hinweis:Warnsymbol Der IBM dieses foundation model ist veraltet. Einzelheiten finden Sie unter Lebenszyklus des Stiftungsmodells.
Ausprobieren

Beispiel: Erzeugen eines Titels für eine Passage

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 8,192

Hinweis: Die maximale Anzahl neuer Token, d.h. der vom foundation model pro Anfrage erzeugten Token, ist auf 4.096 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Das foundation model wird iterativ mit Hilfe der LAB-Methode (Large Scale Alignment for Chatbots) trainiert.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Wenn Sie das in watsonx.ai zur Verfügung gestellte foundation model verwenden, gelten die vertraglichen Schutzbestimmungen in Bezug auf die Entschädigung IBM. Siehe IBM Kundenbeziehungsvertrag und IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

granite-8b-japanese

Das granite-8b-japanese Modell wird von IBM bereitgestellt. Das granite-8b-japanese foundation model ist eine instruierte Variante, die aus dem vortrainierten Granite Base 8 Billion Japanese Modell initialisiert wird und darauf trainiert ist, japanischen Text zu verstehen und zu generieren.

Verwendung

Nützlich für allgemeine Aufgaben in der japanischen Sprache, wie Klassifizierung, Extraktion, Beantwortung von Fragen und für die Übersetzung zwischen Japanisch und Englisch.

Size

8 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Bereitgestellt von IBM auf mandantenfähiger Hardware im Rechenzentrum in Tokio.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 4,096

Unterstützte natürliche Sprachen

Englisch, Japanisch

Anweisung Tuning Information

Die Granite wird auf unternehmensrelevanten Datensätzen aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Das granite-8b-japanese Modell wurde mit 1 Billion Token englischer und 0.5 Billionen Token japanischer Texte trainiert.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

granite-20b-multilingual

Ein foundation model aus der IBM Granite. Das granite-20b-multilingual foundation model basiert auf dem Granite Base 20-Milliarden-Basismodell und ist darauf trainiert, Text in Englisch, Deutsch, Spanisch, Französisch und Portugiesisch zu verstehen und zu erzeugen.

Verwendung
Englisch, Deutsch, Spanisch, Französisch und Portugiesisch: Beantwortung, Zusammenfassung, Generierung, Extraktion und Klassifizierung von Fragen in geschlossenen Domänen.
Hinweis:Dieses foundation model unterstützt Fähigkeiten, die von der Open-Source-Community von InstructLab beigesteuert werden.
Size

20 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren

Beispiel-Aufforderung: Übersetzen Sie einen Text vom Französischen ins Englische

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 8,192

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch und Portugiesisch

Anweisung Tuning Information

Die Granite wird auf unternehmensrelevanten Datensätzen aus fünf Bereichen trainiert: Internet, Wissenschaft, Code, Recht und Finanzen. Die Daten, die zum Trainieren der Modelle verwendet werden, durchlaufen zunächst eine IBM Data Governance-Prüfung und werden durch den IBM HAP-Filter von Texten befreit, die als Hass, Beleidigung oder Gotteslästerung gekennzeichnet sind. IBM stellt Informationen über die verwendeten Trainingsmethoden und Datensätze zur Verfügung.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

granite-3-8b-base

Das foundation model Granite 8b ist ein Basismodell, das zur IBM Granite gehört. Das Modell wird mit 10 Billionen Token trainiert, die aus verschiedenen Bereichen stammen, und dann mit 2 Billionen Token hochwertiger Daten weiter trainiert, die sorgfältig ausgewählt wurden, um die Leistung des Modells bei bestimmten Aufgaben zu verbessern.

Verwendung

Das Granite 3.0 base foundation model ist ein Basismodell, das Sie anpassen können, um spezielle Modelle für bestimmte Anwendungsszenarien zu erstellen.

Verfügbare Größe

8 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 4.

Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 4,096

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch, Chinesisch (vereinfacht).

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Granite Instruct-Modelle

Die ' Granite Instruct -Foundation-Modelle gehören zur IBM Granite von Modellen. Die Basismodelle granite-3-2b-instruct und granite-3-8b-instruct sind instruktionsabgestimmte Sprachmodelle der dritten Generation für Aufgaben wie Zusammenfassung, Generierung, Codierung und mehr. Die Basismodelle verwenden eine reine Decoder-Architektur im GPT-Stil, mit zusätzlichen Innovationen von IBM Research und der offenen Gemeinschaft.

Verwendung

die Granite Instruct sind so konzipiert, dass sie sich bei anweisungsgebundenen Aufgaben wie Zusammenfassen, Problemlösen, Textübersetzung, schlussfolgerndes Denken, Code-Aufgaben, Funktionsaufrufe und mehr auszeichnen.

Verfügbare Größen
  • 2 Milliarden Parameter
  • 8 Milliarden Parameter
API-Preisstufe
  • 2b: Klasse C1
  • 8b: Klasse 12

Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 2b: 131,072
  • 8b: 131,072

Die maximale Anzahl neuer Token, d. h. der vom foundation model pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Spanisch, Französisch, Japanisch, Portugiesisch, Arabisch, Tschechisch, Italienisch, Koreanisch, Niederländisch, Chinesisch (vereinfacht).

Unterstützte Programmiersprachen

Die ' Granite Instruct -Modelle werden mit Code trainiert, der in 116 Programmiersprachen geschrieben wurde.

Anweisung Tuning Information

Die ' Granite Instruct -Modelle sind fein abgestimmte ' Granite Instruct -Basismodelle, die auf über 12 Billionen Token mit einer Kombination aus frei lizenzierten Open-Source- und proprietären Anweisungsdaten trainiert wurden.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Granite Guardian-Modelle

Die ' Granite Guardian -Foundation-Modelle gehören zur IBM Granite von Modellen. Die Basismodelle granite-guardian-3-2b und granite-guardian-3-8b sind fein abgestimmte " Granite Instruct odelle der Generation 3.0, die darauf ausgelegt sind, Risiken in Aufforderungen und Antworten zu erkennen. Die Basismodelle helfen bei der Risikoerkennung entlang vieler Schlüsseldimensionen im AI Risk Atlas.

Verwendung

die Granite Guardian wurden entwickelt, um schadensbedingte Risiken innerhalb des Prompt-Textes oder der Modellantwort zu erkennen (als Leitplanken) und können in Anwendungsfällen mit erweiterter Abfrage verwendet werden, um die Kontextrelevanz (ob der abgerufene Kontext für die Abfrage relevant ist), die Fundiertheit (ob die Antwort genau und kontextgetreu ist) und die Antwortrelevanz (ob die Antwort direkt auf die Abfrage des Benutzers eingeht) zu bewerten.

Verfügbare Größen
  • 2 Milliarden Parameter
  • 8 Milliarden Parameter
API-Preisstufe
  • 2b: Klasse C1
  • 8b: Klasse 12

Einzelheiten zu den Preisen finden Sie in Tabelle 2.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 2b: 8,192
  • 8b: 8,192
Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Die ' Granite Guardian -Modelle sind fein abgestimmte ' Granite Instruct -Modelle, die auf einer Kombination aus von Menschen kommentierten und synthetischen Daten trainiert wurden.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Granite Code-Modelle

Foundation-Modelle aus der IBM Granite. Die " Granite Code sind anweisungsgetreue Modelle, die mit einer Kombination aus Git, gepaart mit menschlichen Anweisungen, und synthetisch generierten Open-Source-Code-Anweisungsdatensätzen feinabgestimmt wurden.

Das foundation model granite-8b-code-instruct v2.0.0 kann größere Prompts mit einer erhöhten Kontextfensterlänge verarbeiten.

Hinweis:Diese Gründungsmodelle sind nur im Rechenzentrum in Dallas verfügbar. Wenn Sie diese Modelle aus dem Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung

Die folgenden ' Granite Code Grundmodelle sind so konzipiert, dass sie auf kodierungsbezogene Anweisungen reagieren und zur Erstellung von Kodierungsassistenten verwendet werden können:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Die folgenden ' Granite Code -Foundation-Modelle sind anweisungsabgestimmte Versionen des foundation model, die für Text-zu-SQL-Generierungsaufgaben konzipiert sind.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen
Verfügbare Größen
  • 3 Milliarden Parameter
  • 8 Milliarden Parameter
  • 20 Milliarden Parameter
  • 34 Milliarden Parameter
API-Preisstufe

Klasse 1.

Einzelheiten zu den Preisen für die Code-Modelle finden Sie in Tabelle 2.

Einzelheiten zu den Preisen für die Text-to-SQL-Modelle finden Sie in Tabelle 4.

Verfügbarkeit

Granite Code modelle: Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Text-zu-SQL-Code-Modelle: Bereitstellung bei Bedarf für den dedizierten Einsatz.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • granite-3b-code-instruct: 128,000

    Die maximale Anzahl neuer Token, d. h. der vom foundation model pro Anfrage generierten Token, ist auf 8.192 begrenzt.

  • granite-8b-code-instruct: 128,000

    Die maximale Anzahl neuer Token, d. h. der vom foundation model pro Anfrage generierten Token, ist auf 8.192 begrenzt.

  • granite-20b-code-instruct: 8,192

    Die maximale Anzahl neuer Token, d. h. der vom foundation model pro Anfrage erzeugten Token, ist auf 4 096 begrenzt.

  • granite-20b-code-base-schema-linking: 8,192

  • granite-20b-code-base-sql-gen: 8,192

  • granite-34b-code-instruct: 8,192

Unterstützte natürliche Sprachen

Englisch

Unterstützte Programmiersprachen

Die ' Granite Code unterstützen 116 Programmiersprachen, darunter Python, Javascript, Java, C++, Go und Rust. Eine vollständige Liste finden Sie unter IBM Foundation Models.

Anweisung Tuning Information

Diese Modelle wurden ausgehend von den Granite Code durch eine Kombination von freizügig lizenzierten Anweisungsdaten verfeinert, um die Fähigkeiten zur Befolgung von Anweisungen, einschließlich logischem Denken und Problemlösungsfähigkeiten, zu verbessern.

Modell der Architektur

Decoder

Lizenz

Nutzungsbedingungen

Die IBM Basismodelle werden als Teil des IBM Cloud Service betrachtet. Weitere Informationen zum vertraglichen Schutz im Zusammenhang mit der Entschädigung IBM finden Sie in der IBM Kundenbeziehungsvereinbarung und der IBM watsonx.ai Servicebeschreibung.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

jais-13b-chat

Das jais-13b-chat foundation model ist ein zweisprachiges großes Sprachmodell für Arabisch und Englisch, das auf die Unterstützung von Konversationsaufgaben abgestimmt ist.

Verwendung
Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch.
Size
13 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Bereitgestellt von IBM auf mandantenfähiger Hardware im Frankfurter Rechenzentrum.
Ausprobieren
Beispielhafte Aufforderung: Arabischer Chat
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 2,048
Unterstützte natürliche Sprachen
Arabisch (Modern Standard Arabic) und Englisch
Anweisung Tuning Information
Jais-13b-chat basiert auf dem Jais-13b, einem foundation model, das auf 116 Milliarden arabischen Token und 279 Milliarden englischen Token trainiert wurde. Jais-13b-chat ist mit einem kuratierten Satz von 4 Millionen arabischen und 6 Millionen englischen Prompt-and-Response-Paaren feinabgestimmt.
Modell der Architektur
Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Llama 3.3 70B Instruct

Das ' Meta Llama 3.3 multilinguale große Sprachmodell (LLM) ist ein vortrainiertes und auf Anweisungen abgestimmtes generatives Modell (Text in/Text out) mit 70 Milliarden Parametern.

Das llama-3-3-70b-instruct ist eine Überarbeitung des beliebten Llama 3.1 70B Instruct foundation model. Das foundation model Llama 3.3 ist besser in den Bereichen Kodierung, Schritt-für-Schritt-Überlegungen und Werkzeugaufrufe. Trotz seiner geringeren Größe ist die Leistung des Llama 3.3 Modells ähnlich wie die des Llama 3.1 405b Modells, was es zu einer guten Wahl für Entwickler macht.

Verwendung

Erzeugt mehrsprachige Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Verfügbare Größe

70 Milliarden Parameter

API-Preisstufe

Klasse 2

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit
  • Eine quantisierte Version des Modells wird von IBM zur Verfügung gestellt und auf mandantenfähiger Hardware eingesetzt.

  • Zwei Versionen des Modells sind verfügbar, die bei Bedarf für spezielle Zwecke eingesetzt werden können:

    • llama-3-3-70b-instruct-hf: Originalversion veröffentlicht auf Hugging Face by Meta.
    • llama-3-3-70b-instruct: Eine quantisierte Version des Modells, die mit 2 statt 4 GPUs eingesetzt werden kann.
Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Llama 3.3 wurde mit 15 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Feinabstimmungsdaten umfassen öffentlich verfügbare Anweisungsdatensätze sowie über 25 Millionen synthetisch erzeugte Beispiele.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.2 Instruct

Die " Meta Llama 3.2 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die Modelle llama-3-2-1b-instruct und llama-3-2-3b-instruct sind die kleinsten Llama 3.2-Modelle, die auf ein mobiles Gerät passen. Bei den Modellen handelt es sich um leichtgewichtige, reine Textmodelle, die zum Aufbau hochgradig personalisierter Agenten auf dem Gerät verwendet werden können.

Sie können die Modelle z. B. bitten, die letzten zehn Nachrichten, die Sie erhalten haben, zusammenzufassen oder Ihre Termine für den nächsten Monat zusammenzufassen.

Verwendung

Erzeugen Sie Dialogausgaben wie ein Chatbot. Verwenden Sie ein modellspezifisches Eingabeaufforderungsformat. Aufgrund ihrer geringen Größe und der bescheidenen Anforderungen an Rechenleistung und Speicher können die Llama 3.2 Instruct-Modelle lokal auf den meisten Geräten ausgeführt werden, auch auf mobilen und anderen Endgeräten.

Verfügbare Größen
  • 1 Milliarde Parameter
  • 3 Milliarden Parameter
API-Preisstufe
  • 1b: Klasse C1
  • 3b: Klasse 8

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Einzelheiten zu den Preisen finden Sie unter Abrechnungsdetails für generative KI-Assets.

Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 1b: 131,072
  • 3b: 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Vorgeprüft auf bis zu 9 Billionen Token von Daten aus öffentlich zugänglichen Quellen. Die Logits der Modelle Llama 3.1 8B und 70B wurden in die Pre-Trainingsphase der Modellentwicklung einbezogen, wobei die Ergebnisse (Logits) dieser größeren Modelle als Ziele auf Token-Ebene verwendet wurden. Beim Post-Training wird das vortrainierte Modell mit Hilfe von Supervised Fine-Tuning (SFT), Rejection Sampling (RS) und Direct Preference Optimization (DPO) abgeglichen.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.2 Vision Instruct

Die " Meta Llama 3.2 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die Modelle llama-3-2-11b-vision-instruct und llama-3-2-90b-vision-instruct sind für Anwendungsfälle mit Bild- und Textausgabe konzipiert, z. B. für das Verstehen von Dokumenten, die Interpretation von Diagrammen und Grafiken sowie die Beschriftung von Bildern.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot und kann Bildverarbeitungsaufgaben wie Klassifizierung, Objekterkennung und -identifizierung, Bild-zu-Text-Transkription (einschließlich Handschrift), kontextbezogene Fragen und Antworten, Datenextraktion und -verarbeitung, Bildvergleich und persönliche visuelle Unterstützung durchführen. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Verfügbare Größen
  • 11 Milliarden Parameter
  • 90 Milliarden Parameter
API-Preisstufe
  • 11b: Klasse 9
  • 90b: Klasse 10

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 11b: 131,072
  • 90b: 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt. Die Token, die für ein Bild gezählt werden, das Sie an das Modell übermitteln, sind nicht in der Länge des Kontextfensters enthalten.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch mit reiner Texteingabe. Englisch nur, wenn ein Bild in der Eingabe enthalten ist.

Anweisung Tuning Information

die Llama 3.2 Vision -Modelle verwenden bildverstehende Adaptor-Gewichte, die getrennt von den Gewichten des großen Kernsprachmodells trainiert werden. Durch diese Trennung bleibt das allgemeine Wissen des Modells erhalten, und das Modell wird sowohl in der Pre-Trainingsphase als auch zur Laufzeit effizienter. Die " Llama 3.2 Vision -Modelle wurden anhand von 6 Milliarden Bild-Text-Paaren trainiert, was weit weniger Rechenressourcen erforderte als das Pre-Training des Llama 3.1 70B foundation model allein. Llama 3.2-Modelle laufen auch deshalb effizient, weil sie mehr Rechenressourcen für die Bildanalyse nur dann nutzen können, wenn die Eingabe dies erfordert.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

llama-guard-3-11b-vision

Die " Meta Llama 3.2 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die llama-guard-3-11b-vision ist eine multimodale Weiterentwicklung des reinen Textmodells Llama-Guard-3. Das Modell kann verwendet werden, um Bild- und Textinhalte in Benutzereingaben (Prompt-Klassifizierung) als sicher oder unsicher zu klassifizieren.

Verwendung

Verwenden Sie das Modell, um die Sicherheit von Bild und Text in einer Bild-zu-Text-Aufforderung zu überprüfen.

Size
  • 11 Milliarden Parameter
API-Preisstufe

Klasse 9. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt. Die Token, die für ein Bild gezählt werden, das Sie an das Modell übermitteln, sind nicht in der Länge des Kontextfensters enthalten.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch mit reiner Texteingabe. Englisch nur, wenn ein Bild in der Eingabe enthalten ist.

Anweisung Tuning Information

Vorgeprüftes Modell, das auf die Klassifizierung der Sicherheit von Inhalten abgestimmt ist. Weitere Informationen über die Arten von Inhalten, die als unsicher eingestuft werden, finden Sie auf der Musterkarte.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.1 8b

Die " Meta Llama 3.1 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Das foundation model von Llama 3.1 ist ein mehrsprachiges Modell, das die Verwendung von Werkzeugen unterstützt und insgesamt über bessere Argumentationsfähigkeiten verfügt.

Verwendung
Verwendung für die Zusammenfassung langer Texte und mit mehrsprachigen Konversationsagenten oder Kodierassistenten.
Verfügbare Größe
8 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
Bereitstellung bei Bedarf für den dedizierten Einsatz.
Token-Grenzen
Länge des Kontextfensters (Eingabe + Ausgabe): 131,072
Unterstützte natürliche Sprachen
Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai
Modell der Architektur
Nur für Decoder
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Llama 3.1 Instruct

Die " Meta Llama 3.1 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die Basismodelle von Llama 3.1 sind vortrainierte und auf Instruktionen abgestimmte generative Nur-Text-Modelle, die für mehrsprachige Dialoganwendungen optimiert sind. Die Modelle nutzen überwachte Feinabstimmung und Verstärkungslernen mit menschlichem Feedback, um sich an den menschlichen Vorlieben für Hilfsbereitschaft und Sicherheit zu orientieren.

Das llama-3-405b-instruct ist das bisher größte foundation model von ' Meta. Dieses foundation model kann auch als Generator für synthetische Daten, als Beurteiler für das Ranking von Daten nach dem Training oder als Modell-Lehrer/Supervisor verwendet werden, der spezielle Fähigkeiten in inferenzfreundlicheren, abgeleiteten Modellen verbessern kann.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Verfügbare Größen
  • 8 Milliarden Parameter
  • 70 Milliarden Parameter
  • 405 Milliarden Parameter
API-Preisstufe
  • 8b: Klasse 1
  • 70b: Klasse 2
  • 405b: Klasse 3 (Eingang), Klasse 7 (Ausgang)

Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.

Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Stellen Sie das foundation model bei Bedarf für den gezielten Einsatz bereit.
Ausprobieren

Beispielhafte Aufforderung: Gespräch mit Llama 3

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 8b und 70b: 131.072

  • 405b: 16,384

    • Obwohl das Modell eine Kontextfensterlänge von 131.072 unterstützt, ist das Fenster auf 16.384 begrenzt, um die Zeit zu verkürzen, die das Modell benötigt, um eine Antwort zu erzeugen.
  • Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage erzeugten Token, ist auf 4.096 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Llama 3.1 wurde mit 15 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Feinabstimmungsdaten umfassen öffentlich verfügbare Anweisungsdatensätze sowie über 25 Millionen synthetisch erzeugte Beispiele.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3 Instruct

Die ' Meta Llama 3 Familie von Basismodellen sind zugängliche, offene große Sprachmodelle, die mit ' Meta Llama 3 erstellt und von ' Meta auf Hugging Face bereitgestellt werden. Die Llama 3 sind fein abgestimmte Sprachmodelle, die verschiedene Anwendungsfälle unterstützen können.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot.

Verfügbare Größen
  • 8 Milliarden Parameter
  • 70 Milliarden Parameter
API-Preisstufe
  • 8b: Klasse 1
  • 70b: Klasse 2

Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.

Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren

Beispielhafte Aufforderung: Gespräch mit Llama 3

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 8b: 8,192
  • 70b: 8,192

Hinweis: Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage erzeugten Token, ist auf 4 096 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Llama 3 bietet Verbesserungen bei den Post-Trainingsverfahren, die die Rate der falschen Ablehnungen reduzieren, die Ausrichtung verbessern und die Vielfalt der Ergebnisse des foundation model erhöhen. Das Ergebnis ist eine bessere Argumentation, Codegenerierung und Befehlsverfolgungsfähigkeit. Llama 3 hat mehr Trainingstoken15T), die zu einem besseren Sprachverständnis führen.

Modell der Architektur

Nur für Decoder

Lizenz

META LLAMA 3 Gemeinschaftslizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 2 Chat

Die Llama 2 Chat werden von ' Meta auf Hugging Face bereitgestellt. Die fein abgestimmten Modelle sind für die Chat-Erstellung nützlich. Die Modelle werden mit öffentlich zugänglichen Online-Daten trainiert und durch Verstärkungslernen anhand von menschlichem Feedback fein abgestimmt.

Sie können wählen, ob Sie die 13-Milliarden-Parameter- oder die 70-Milliarden-Parameter-Version des Modells verwenden möchten.

Verwendung
Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.
Size
  • 13 Milliarden Parameter
  • 70 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • 13b
    • Bereitgestellt von IBM, eingesetzt auf mandantenfähiger Hardware
    • Bereitstellung bei Bedarf für den dedizierten Einsatz
  • 70b
    • Bereitstellung bei Bedarf für den dedizierten Einsatz
Hinweis:Warnsymbol Der IBM dieses foundation model ist veraltet. Einzelheiten finden Sie unter Lebenszyklus des Stiftungsmodells.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingabe + Ausgabe)
  • 13b: 4,096
  • 70b: 4,096
Unterstützte natürliche Sprachen
Englisch
Anweisung Tuning Information
Llama 2 wurde auf 2 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Daten für die Feinabstimmung umfassen öffentlich verfügbare Anweisungsdatensätze und mehr als eine Million neuer Beispiele, die von Menschen kommentiert wurden.
Modell der Architektur
Nur für Decoder
Lizenz
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

mistral-large

Mistral Large 2 ist ein großes Sprachmodell, das von ' Mistral AI entwickelt wurde. Das mistral-large foundation model spricht und versteht die Grammatik und den kulturellen Kontext von Englisch, Französisch, Spanisch, Deutsch und Italienisch. Das foundation model kann auch Dutzende von anderen Sprachen verstehen. Das Modell verfügt über ein großes Kontextfenster, d. h. Sie können umfangreiche Dokumente als Kontextinformationen in Aufforderungen einfügen, die Sie für RAG-Anwendungsfälle (Retrieval-Augmented Generation) übermitteln. Das mistral-large foundation model ist effektiv bei programmatischen Aufgaben, wie z.B. dem Generieren, Überprüfen und Kommentieren von Code, dem Aufrufen von Funktionen, und kann Ergebnisse im JSON-Format generieren.

Weitere Informationen zu den ersten Schritten finden Sie auf der Seitewatsonx.ai auf der ' Mistral AI.

Verwendung

Geeignet für komplexe mehrsprachige Argumentationsaufgaben, einschließlich Textverständnis, Transformation und Codegenerierung. Aufgrund des großen Kontextfensters des Modells sollten Sie den Parameter max tokens verwenden, um bei der Eingabeaufforderung an das Modell eine Obergrenze für Token anzugeben.

API-Preisstufe

Der Preis für das Modell Mistral Large wird nicht durch einen Multiplikator bestimmt. Die folgenden speziellen Preisstufen werden verwendet:

  • Eingangsstufe: Mistral Large Input
  • Ausgangsstufe: Mistral Large

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 128,000

Hinweis:

  • Obwohl das Modell eine Kontextfensterlänge von 128.000 unterstützt, ist das Fenster auf 32.768 begrenzt, um die Zeit zu verkürzen, die das Modell benötigt, um eine Antwort zu erzeugen.
  • Die maximale Anzahl neuer Token, d. h. der vom foundation model pro Anfrage erzeugten Token, ist auf 16 384 begrenzt.
Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch, Chinesisch, Japanisch, Koreanisch, Portugiesisch, Niederländisch, Polnisch und Dutzende anderer Sprachen.

Unterstützte Programmiersprachen

Das mistral-large Modell wurde auf über 80 Programmiersprachen trainiert, darunter Python, Java, C, C++, JavaScript, Bash, Swift und Fortran.

Anweisung Tuning Information

Das mistral-large foundation model wird auf verschiedenen Datensätzen wie Text, Codebases und mathematischen Daten aus unterschiedlichen Bereichen vortrainiert.

Modell der Architektur

Nur für Decoder

Lizenz

Für die Nutzungsbedingungen, einschließlich Informationen über den vertraglichen Schutz im Zusammenhang mit der Deckelung der Entschädigung, siehe Nutzungsbedingungen.

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mistral-nemo-instruct-2407

Das Fundamentmodell mistral-nemo-instruct-2407 ist ein Modell mit 12 Milliarden Parametern von ' Mistral AI, das in Zusammenarbeit mit ' NVIDIA erstellt wurde. Mistral NeMo schneidet in Bezug auf logisches Denken, Weltwissen und Codiergenauigkeit außergewöhnlich gut ab, insbesondere für ein Modell seiner Größe.

Verwendung
Das Modell ' Mistral NeMo ist mehrsprachig und wird auf Funktionsaufrufe trainiert.
Size
12 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
Bereitstellung bei Bedarf für den dedizierten Einsatz.
Token-Grenzen
Länge des Kontextfensters (Eingabe + Ausgabe): 131,072
Unterstützte natürliche Sprachen
Mehrsprachig und besonders stark in Englisch, Französisch, Deutsch, Spanisch, Italienisch, Portugiesisch, Chinesisch, Japanisch, Koreanisch, Arabisch und Hindi.
Unterstützte Programmiersprachen
Das Modell ' Mistral NeMo wurde für verschiedene Programmiersprachen trainiert.
Anweisung Tuning Information
Mistral NeMo hatte eine fortgeschrittene Phase der Feinabstimmung und Anpassung.
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

mixtral-8x7b-base

Das foundation model wird von " Mistral AI bereitgestellt. Das foundation model ist ein generatives, spärliches Mixture-of-Experts-Netzwerk, das die Modellparameter gruppiert und dann für jedes Token eine Teilmenge von Gruppen (als Experten bezeichnet) auswählt, um das Token zu verarbeiten. Dadurch hat jeder Token Zugriff auf 47 Milliarden Parameter, verwendet aber nur 13 Milliarden aktive Parameter für die Inferenzierung, was Kosten und Latenzzeit reduziert.

Verwendung

Geeignet für viele Aufgaben, einschließlich Klassifizierung, Zusammenfassung, Generierung, Codeerstellung und -konvertierung sowie Sprachübersetzung.

Size

46.46.7 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 5.

Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 32,768

Hinweis: Die maximale Anzahl neuer Token, d.h. der vom foundation model pro Anfrage erzeugten Token, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mixtral-8x7b-instruct-v01

Das foundation model mixtral-8x7b-instruct-v01 wird von " Mistral AI bereitgestellt. Das foundation model mixtral-8x7b-instruct-v01 ist ein vortrainiertes generatives Sparse-Mixture-of-Experts-Netz, das die Modellparameter gruppiert und dann für jedes Token eine Teilmenge von Gruppen (als Experten bezeichnet) zur Verarbeitung des Tokens auswählt. Dadurch hat jeder Token Zugriff auf 47 Milliarden Parameter, verwendet aber nur 13 Milliarden aktive Parameter für die Inferenzierung, was Kosten und Latenzzeit reduziert.

Verwendung

Geeignet für viele Aufgaben, einschließlich Klassifizierung, Zusammenfassung, Generierung, Codeerstellung und -konvertierung sowie Sprachübersetzung. Aufgrund des ungewöhnlich großen Kontextfensters des Modells verwenden Sie den Parameter max tokens, um bei der Eingabeaufforderung an das Modell ein Token-Limit anzugeben.

Size

46.46.7 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Ausprobieren

Beispieleingabeaufforderungen

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 32,768

Hinweis: Die maximale Anzahl neuer Token, d.h. der vom foundation model pro Anfrage erzeugten Token, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch

Anweisung Tuning Information

Das foundation model wird mit Internetdaten trainiert. Das Mixtral 8x7B Instruct foundation model ist auf die Befolgung von Anweisungen abgestimmt.

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mt0-xxl-13b

Das Modell mt0-xxl-13b wird von BigScience auf Hugging Face bereitgestellt. Das Modell wurde optimiert, um Sprachgenerierungs- und Übersetzungsaufgaben mit Englisch, anderen Sprachen als Englisch und mehrsprachigen Eingabeaufforderungen zu unterstützen.

Verwendung: Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen. Fügen Sie bei Übersetzungsaufgaben einen Punkt ein, um das Ende des zu übersetzenden Textes zu kennzeichnen, da das Modell den Satz sonst möglicherweise fortsetzt, anstatt ihn zu übersetzen.

Size
13 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
  • Wird bei Bedarf für den dedizierten Einsatz bereitgestellt.
Ausprobieren
Experimentieren Sie mit den folgenden Proben:
Unterstützte natürliche Sprachen
Mehrsprachig
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Das Modell wird anhand von mehrsprachigen Daten in 108 Sprachen vortrainiert und mit mehrsprachigen Daten in 46 Sprachen feinabgestimmt, um mehrsprachige Aufgaben zu erfüllen.
Anweisung Tuning Information
BigScience veröffentlicht Einzelheiten über seinen Code und seine Datensätze.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

pixtral-12b

Pixtral 12B ist ein multimodales Modell, das von Mistral Al. Das pixtral-12b foundation model ist darauf trainiert, sowohl natürliche Bilder als auch Dokumente zu verstehen, und ist in der Lage, Bilder in ihrer natürlichen Auflösung und ihrem natürlichen Seitenverhältnis aufzunehmen, was Flexibilität bei der Anzahl der zur Verarbeitung eines Bildes verwendeten Tokens bietet. Das foundation model unterstützt mehrere Bilder in seinem langen Kontextfenster. Das Modell ist effektiv bei multimodalen Aufgaben mit Bild und Text und zeichnet sich durch die Befolgung von Anweisungen aus.

Verwendung
Verstehen von Diagrammen und Abbildungen, Beantworten von Fragen zu Dokumenten, multimodales Denken und Befolgen von Anweisungen
Size
12 Milliarden Parameter
API-Preisstufe
Klasse 9. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Ausprobieren

Chatten mit Dokumenten und Bildern

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 128,000

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Das pixtral-12b Modell wird mit verschachtelten Bild- und Textdaten trainiert und basiert auf dem Mistral Nemo Modell mit einem von Grund auf neu trainierten 400 Millionen Parameter Vision Encoder.

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Veraltete Foundation-Modelle werden mit einem Warnsymbol Warnsymbol hervorgehoben. Weitere Informationen über die Veralterung, einschließlich der Daten für die Zurückziehung von foundation model, finden Sie unter Lebenszyklus von Foundation-Modellen.

Weitere Informationen

Übergeordnetes Thema: Entwicklung von generativen KI-Lösungen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen