Drittstiftungsmodelle

Letzte Aktualisierung: 07. Apr. 2025
Drittstiftungsmodelle

Sie können aus einer Sammlung von Stiftungsmodellen von Drittanbietern unter IBM watsonx.ai auswählen.

Die folgenden Modelle sind in ' watsonx.ai: verfügbar

Weitere Informationen über die verschiedenen Einsatzmöglichkeiten dieser Modelle sowie eine Zusammenfassung der Preise und Kontextfensterlängen für die Modelle finden Sie unter Unterstützte Gründungsmodelle.

Weitere Informationen zu den Stiftungsmodellen von IBM finden Sie unter IBM Stiftungsmodelle.

Wie man ein Modell auswählt

Informationen zu Faktoren, die Ihnen bei der Auswahl eines Modells helfen können, wie z. B. unterstützte Aufgaben und Sprachen, finden Sie unter Auswahl eines Modells und Foundation-Modell-Benchmarks.

Um Aktualisierungen des Modelllebenszyklus anzuzeigen, siehe Foundation-Modelllebenszyklus.

Details zum Gründungsmodell

Die Fundamentmodelle in watsonx.ai unterstützen eine Reihe von Anwendungsfällen sowohl für natürliche Sprachen als auch für Programmiersprachen. Um zu sehen, welche Arten von Aufgaben diese Modelle erledigen können, sehen Sie sich die Musteraufforderungen an und probieren Sie sie aus.

allam-1-13b-instruct

Das allam-1-13b-instruct -Stiftungsmodell ist ein zweisprachiges Modell für große Sprachen (Arabisch und Englisch), das vom Nationalen Zentrum für Künstliche Intelligenz bereitgestellt und von der saudischen Behörde für Daten und Künstliche Intelligenz unterstützt wird und auf die Unterstützung von Konversationsaufgaben abgestimmt ist. Die ALLaM -Reihe ist eine Sammlung leistungsstarker Sprachmodelle, die die Technologie der arabischen Sprache weiterentwickeln sollen. Diese Modelle werden mit Llama-2 -Gewichten initialisiert und sowohl auf Arabisch als auch auf Englisch trainiert.

Hinweis:Wenn Sie dieses Modell aus dem Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Verwendung
Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch.
Size
13 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
  • Bereitgestellt von IBM auf mandantenfähiger Hardware im Frankfurter Rechenzentrum.
  • Einsatz auf Abruf für dedizierte Nutzung, außer im Rechenzentrum Frankfurt.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Arabisch (Modern Standard Arabic) und Englisch
Anweisung Tuning Information
allam-1-13b-instruct basiert auf dem Allam-13b-base -Modell, einem Grundmodell, das auf insgesamt 3 Billionen Token in Englisch und Arabisch vortrainiert ist, einschließlich der Token, die bei seiner Initialisierung gesehen wurden. Der arabische Datensatz enthält nach der Bereinigung und Deduplizierung 500 Milliarden Token. Die zusätzlichen Daten stammen aus Open-Source-Sammlungen und Web-Crawls. Das allam-1-13b-instruct -Stiftungsmodell ist mit einem kuratierten Satz von 4 Millionen arabischen und 6 Millionen englischen Frage-und-Antwort-Paaren abgestimmt.
Modell der Architektur
Nur für Decoder
Lizenz
Llama 2 Gemeinschaftslizenz und ALLaM
Weitere Informationen
Lesen Sie die folgende Ressource:

codellama-34b-instruct-hf

Ein programmatisches Codegenerierungsmodell, das auf Llama 2 von Meta basiert. Code Llama ist genau auf die Erstellung und Diskussion von Code abgestimmt.

Verwendung
Verwenden Sie Code Llama, um Prompts zu erstellen, die Code auf der Grundlage von Eingaben in natürlicher Sprache erzeugen, Code erklären oder Code vervollständigen und debuggen.
Hinweis:Wenn Sie dieses Modell aus dem Prompt Lab ableiten, deaktivieren Sie die KI-Leitplanken.
Size
34 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 16,384
Hinweis: Die maximale Anzahl neuer Token, d. h. der Token, die vom Stiftungsmodell pro Anfrage erzeugt werden, ist auf 8.192 begrenzt.
Unterstützte natürliche Sprachen
Englisch
Unterstützte Programmiersprachen
Das Basismodell codellama-34b-instruct-hf unterstützt viele Programmiersprachen, darunter Python, C++, Java, PHP, Typescript (Javascript), C#, Bash und andere.
Anweisung Tuning Information
Die auf die Anweisungen abgestimmte Version wurde mit den Anweisungen in natürlicher Sprache und der erwarteten Ausgabe gefüttert, um das Modell anzuleiten, hilfreiche und sichere Antworten in natürlicher Sprache zu generieren.
Modell der Architektur
Decoder
Lizenz
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

DeepSeek-R1 vereinfachte Modelle

Die destillierten Varianten der DeepSeek-R1 -Modelle, die auf den Llama 3.1-Modellen basieren, werden von DeepSeek AI bereitgestellt. Die DeepSeek-R1 -Modelle sind Open-Source-Modelle mit leistungsstarken Argumentationsfähigkeiten. Die vom DeepSeek R1 -Modell generierten Datenproben werden zur Feinabstimmung eines Llama-Basismodells verwendet.

Die Modelle deepseek-r1-distill-llama-8b und deepseek-r1-distill-llama-70b sind vereinfachte Versionen des Modells DeepSeek-R1, das auf den Modellen Llama 3.1 8B und Llama 3.3 70B basiert.

Verwendung

Sie können allgemein mit den Eingabeaufforderungen zero- oder few-shot verwendet werden und sind für Aufgaben konzipiert, bei denen es darauf ankommt, Anweisungen zu befolgen, wie z. B. Zusammenfassungen, Klassifizierungen, Schlussfolgerungen, Code-Aufgaben sowie Mathematik.

Verfügbare Größen
  • 8 Milliarden Parameter
  • 70 Milliarden Parameter
API-Preisstufe

8b: Klein

70: Groß

Einzelheiten zu den Preisen finden Sie in Tabelle 5.

Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

8b und 70b: Länge des Kontextfensters (Eingabe + Ausgabe): 131.072

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 32.768 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Die DeepSeek-R1 -Modelle werden mithilfe von groß angelegten Reinforcement Learning (RL) ohne überwachte Feinabstimmung (SFT) als vorbereitenden Schritt trainiert. Die nachfolgenden RL- und SFT-Phasen zielen darauf ab, die Denkmuster zu verbessern und das Modell an die menschlichen Präferenzen anzupassen. DeepSeek-R1-Distill modelle werden auf der Grundlage von Open-Source-Modellen unter Verwendung von Proben, die von DeepSeek-R1 generiert wurden, verfeinert.

Modell der Architektur

Decoder

Lizenz

8b: Lizenz

70b: Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

elyza-japanese-llama-2-7b-instruct

Das elyza-japanese-llama-2-7b-instruct -Modell wird von ELYZA, Inc. unter Hugging Face bereitgestellt. Das elyza-japanese-llama-2-7b-instruct -Stiftungsmodell ist eine Version des Llama 2 -Modells von Meta , das darauf trainiert ist, japanische Texte zu verstehen und zu generieren. Das Modell ist auf das Lösen verschiedener Aufgaben, die den Anweisungen des Benutzers folgen, und auf die Teilnahme an einem Dialog abgestimmt.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen. Gut geeignet für die Klassifizierung und Extraktion in Japanisch und für die Übersetzung zwischen Englisch und Japanisch. Am besten funktioniert es, wenn die Eingabeaufforderung auf Japanisch erfolgt.
Size
7 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Bereitgestellt von IBM auf mandantenfähiger Hardware im Rechenzentrum in Tokio.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Japanisch, Englisch
Anweisung Tuning Information
Für das Training der japanischen Sprache wurden japanische Texte aus zahlreichen Quellen verwendet, darunter Wikipedia und das Open Super-large Crawled ALMAnaCH coRpus (ein mehrsprachiges Korpus, das durch Klassifizierung und Filterung der Sprache im Common Crawl-Korpus erzeugt wird). Die Feinabstimmung des Modells erfolgte anhand eines Datensatzes, der von ELYZA erstellt wurde. Der ELYZA Tasks 100-Datensatz enthält 100 verschiedene und komplexe Aufgaben, die manuell erstellt und von Menschen bewertet wurden. Der ELYZA Tasks 100-Datensatz ist öffentlich zugänglich bei HuggingFace.
Modell der Architektur
Decoder
Lizenz
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

EuroLLM Unterrichten Sie

Die Modellreihe EuroLLM wurde im Rahmen des Projekts Unified Transcription and Translation for Extended Reality (UTTER) und der Europäischen Union entwickelt. Bei den EuroLLM Instruct-Modellen handelt es sich um Open-Source-Modelle, die auf das Verstehen und Generieren von Text in allen 24 offiziellen Sprachen der Europäischen Union (EU) sowie in 11 kommerziell und strategisch wichtigen internationalen Sprachen spezialisiert sind.

Verwendung

Geeignet für mehrsprachige Sprachaufgaben wie das Befolgen von Anweisungen und die Übersetzung von Sprachen.

Größen
  • 1.7 milliarden Parameter
  • 9 Milliarden Parameter
API-Preisstufe

1.7b: Klein

9b: Klein

Einzelheiten zu den Preisen finden Sie in Tabelle 5.

Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Token-Grenzen

1.7b und 9b: Länge des Kontextfensters (Eingang + Ausgang): 4,096

Unterstützte natürliche Sprachen

Bulgarisch, Dänisch, Deutsch, Englisch, Estnisch, Finnisch, Französisch, Griechisch, Irisch, Italienisch, Kroatisch, Lettisch, Litauisch, Maltesisch, Niederländisch, Polnisch, Portugiesisch, Rumänisch, Schwedisch, Slowakisch, Slowenisch, Spanisch, Tschechisch, Ungarisch, Arabisch, Katalanisch, Chinesisch, Galizisch, Hindi, Japanisch, Koreanisch, Norwegisch, Russisch, Türkisch und Ukrainisch.

Anweisung Tuning Information

Die Modelle werden auf 4 Billionen Token in den unterstützten natürlichen Sprachen aus Webdaten, parallelen Daten, Wikipedia, Arxiv, mehreren Büchern und Apollo-Datensätzen trainiert.

Modell der Architektur

Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

flan-t5-xl-3b

Das flan-t5-xl-3b -Modell wird von Google auf Hugging Face bereitgestellt. Das Modell basiert auf dem vortrainierten Text-zu-Text-Transformationsmodell ( T5 ) und verwendet Methoden zur Feinabstimmung der Anweisungen, um eine bessere Leistung zu erzielen zero- und few-shot . Das Modell wird auch mit Daten aus der Gedankenkette abgestimmt, um seine Fähigkeit zu verbessern, logische Aufgaben zu erfüllen.

Hinweis:Dieses Grundmodell kann mithilfe von Tuning Studio angepasst werden.
Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
3 Milliarden Parameter
API-Preisstufe
Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Beispieleingabeaufforderungen
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Mehrsprachig
Anweisung Tuning Information
Das Modell wurde mit Aufgaben verfeinert, die zusätzlich zu den traditionellen Aufgaben der natürlichen Sprachverarbeitung mehrstufige Schlussfolgerungen aus Gedankenkettendaten beinhalten. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

flan-t5-xxl-11b

Das flan-t5-xxl-11b -Modell wird von Google auf Hugging Face bereitgestellt. Dieses Modell basiert auf dem vortrainierten Text-zu-Text-TransformationsmodellT5) und verwendet Methoden zur Feinabstimmung von Anweisungen, um eine bessere Leistung bei " zero- und " few-shot zu erzielen. Das Modell wird auch mit Daten aus der Gedankenkette abgestimmt, um seine Fähigkeit zu verbessern, logische Aufgaben zu erfüllen.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
11 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Englisch, Deutsch, Französisch
Anweisung Tuning Information
Das Modell wurde mit Aufgaben verfeinert, die zusätzlich zu den traditionellen Aufgaben der natürlichen Sprachverarbeitung mehrstufige Schlussfolgerungen aus Gedankenkettendaten beinhalten. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

flan-ul2-20b

Das flan-ul2-20b -Modell wird von Google auf Hugging Face bereitgestellt. Dieses Modell wurde mit Hilfe des Unifying Language Learning ParadigmsUL2) trainiert. Das Modell ist für die Spracherzeugung, das Sprachverständnis, die Textklassifizierung, die Beantwortung von Fragen, den gesunden Menschenverstand, lange Texte, strukturiertes Wissen und Informationsbeschaffung, kontextbezogenes Lernen, " zero-shot und einmalige Eingabeaufforderungen optimiert.

Verwendung
Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen.
Size
20 Milliarden Parameter
API-Preisstufe
Klasse 3. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.
Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren
Experimentieren Sie mit Proben:
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Englisch
Anweisung Tuning Information
Das Modell flan-ul2-20b wird auf der riesigen, bereinigten Version des Web-Crawl-Korpus von Common Crawl vortrainiert. Das Modell wird mit mehreren Vortrainingszielen feinabgestimmt, um es für verschiedene Aufgaben der natürlichen Sprachverarbeitung zu optimieren. Einzelheiten zu den verwendeten Trainingsdatensätzen werden veröffentlicht.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

jais-13b-chat

Das jais-13b-chat -Stiftungsmodell ist ein zweisprachiges Modell für große Sprachen, das auf Arabisch und Englisch basiert und auf die Unterstützung von Konversationsaufgaben abgestimmt ist.

Verwendung
Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion und Übersetzung in Arabisch.
Size
13 Milliarden Parameter
API-Preisstufe
Klasse 2. Einzelheiten zu den Preisen finden Sie in Tabelle 3.
Verfügbarkeit
Bereitgestellt von IBM auf mandantenfähiger Hardware im Frankfurter Rechenzentrum.
Ausprobieren
Beispielhafte Aufforderung: Arabischer Chat
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 2,048
Unterstützte natürliche Sprachen
Arabisch (Modern Standard Arabic) und Englisch
Anweisung Tuning Information
Jais-13b-chat basiert auf dem Jais-13b -Modell, einem Grundmodell, das auf 116 Milliarden arabischen und 279 Milliarden englischen Token trainiert ist. Jais-13b-chat ist mit einem kuratierten Satz von 4 Millionen arabischen und 6 Millionen englischen Prompt-and-Response-Paaren fein abgestimmt.
Modell der Architektur
Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Llama 4 Unterrichtsmodelle

Die Llama 4-Kollektion von Stiftungsmodellen wird von Meta bereitgestellt. Die Modelle llama-4-maverick-17b-128e-instruct-fp8 und llama-4-scout-17b-16e-instruct sind multimodale Modelle, die eine Mixture-of-Experts-Architektur ( MoE ) für optimierte, klassenbeste Leistung im Text- und Bildverständnis verwenden.

Das Modell Llama 4 Maverick ist ein multimodales Modell mit 17 Milliarden aktiven Parametern und 128 Experten. Das Modell Llama 4 Scout ist ein multimodales Modell mit 17 Milliarden aktiven Parametern und 16 Experten. Das Llama 4 Modelle

Verwendung

Erzeugt mehrsprachige Dialogausgaben wie ein Chatbot, verwendet ein modellspezifisches Eingabeaufforderungsformat, das für visuelle Erkennung, Bildschlussfolgerungen, Beschriftungen und die Beantwortung allgemeiner Fragen zu einem Bild optimiert ist.

Size

17 Milliarden Parameter

API-Preisstufe

Diese Modelle sind als kostenlose Vorschaumodelle erhältlich.

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Arabisch, Englisch, Französisch, Deutsch, Hindi, Indonesisch, Italienisch, Portugiesisch, Spanisch, Tagalog, Thai und Vietnamesisch.

Anweisung Tuning Information

Llama 4 wurde mit einer breiteren Sammlung von 200 Sprachen vortrainiert. Das Llama 4 Scout Modell wurde auf ca. 40 Billionen Token und das Llama 4 Maverick Modell auf ca. 22 Billionen Token multimodaler Daten aus öffentlich zugänglichen und lizenzierten Informationen von Meta vortrainiert.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.3 70B Instruct

Das ' Meta Llama 3.3 multilinguale große Sprachmodell (LLM) ist ein vortrainiertes und auf Anweisungen abgestimmtes generatives Modell (Text in/Text out) mit 70 Milliarden Parametern.

Die llama-3-3-70b-instruct ist eine Überarbeitung des beliebten Llama 3.1 70B Instruct-Grundmodells. Das Llama 3.3-Stiftungsmodell ist besser im Codieren, schrittweisen Denken und Aufrufen von Tools. 405b Trotz seiner geringeren Größe ist die Leistung des Llama 3.3-Modells ähnlich wie die des Llama 3.1-Modells, was es zu einer guten Wahl für Entwickler macht.

Verwendung

Erzeugt mehrsprachige Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Size

70 Milliarden Parameter

API-Preisstufe

Klasse 13

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit
  • Eine quantisierte Version des Modells wird von IBM zur Verfügung gestellt und auf mandantenfähiger Hardware eingesetzt.

  • Zwei Versionen des Modells sind verfügbar, die bei Bedarf für spezielle Zwecke eingesetzt werden können:

    • llama-3-3-70b-instruct-hf: Originalversion veröffentlicht auf Hugging Face von Meta.
    • llama-3-3-70b-instruct: Eine quantisierte Version des Modells, die mit 2 statt 4 GPUs eingesetzt werden kann.
Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Llama 3.3 wurde mit 15 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Feinabstimmungsdaten umfassen öffentlich verfügbare Anweisungsdatensätze sowie über 25 Millionen synthetisch erzeugte Beispiele.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.2 Instruct

Die Llama 3.2 Sammlung von Gründungsmodellen wird von Meta bereitgestellt. Die Modelle llama-3-2-1b-instruct und llama-3-2-3b-instruct sind die kleinsten Llama 3.2 Modelle, die auf ein mobiles Gerät passen. Bei den Modellen handelt es sich um leichtgewichtige, reine Textmodelle, die zum Aufbau hochgradig personalisierter Agenten auf dem Gerät verwendet werden können.

Sie können die Modelle z. B. bitten, die letzten zehn Nachrichten, die Sie erhalten haben, zusammenzufassen oder Ihre Termine für den nächsten Monat zusammenzufassen.

Verwendung

Erzeugen Sie Dialogausgaben wie ein Chatbot. Verwenden Sie ein modellspezifisches Eingabeaufforderungsformat. Aufgrund ihrer geringen Größe und der bescheidenen Anforderungen an Rechenleistung und Speicher können die Llama 3.2 Instruct-Modelle lokal auf den meisten Geräten ausgeführt werden, auch auf mobilen und anderen Endgeräten.

Größen
  • 1 Milliarde Parameter
  • 3 Milliarden Parameter
API-Preisstufe
  • 1b: Klasse C1
  • 3b: Klasse 8

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Einzelheiten zu den Preisen finden Sie unter Abrechnungsdetails für generative KI-Assets.

Verfügbarkeit
  • Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.
Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 1b: 131,072
  • 3b: 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Vorgeprüft auf bis zu 9 Billionen Token von Daten aus öffentlich zugänglichen Quellen. Die Logits der Modelle Llama 3.1 8B und 70B wurden in die Pre-Trainingsphase der Modellentwicklung einbezogen, wobei die Ergebnisse (Logits) dieser größeren Modelle als Ziele auf Token-Ebene verwendet wurden. Beim Post-Training wird das vortrainierte Modell mit Hilfe von Supervised Fine-Tuning (SFT), Rejection Sampling (RS) und Direct Preference Optimization (DPO) abgeglichen.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.2 Vision Instruct

Die " Meta Llama 3.2 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die Modelle llama-3-2-11b-vision-instruct und llama-3-2-90b-vision-instruct sind für Anwendungsfälle mit Bild- und Textausgabe konzipiert, z. B. für das Verstehen von Dokumenten, die Interpretation von Diagrammen und Grafiken sowie die Beschriftung von Bildern.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot und kann Bildverarbeitungsaufgaben wie Klassifizierung, Objekterkennung und -identifizierung, Bild-zu-Text-Transkription (einschließlich Handschrift), kontextbezogene Fragen und Antworten, Datenextraktion und -verarbeitung, Bildvergleich und persönliche visuelle Unterstützung durchführen. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Größen
  • 11 Milliarden Parameter
  • 90 Milliarden Parameter
API-Preisstufe
  • 11b: Klasse 9
  • 90b: Klasse 10

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 11b: 131,072
  • 90b: 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt. Die Token, die für ein Bild gezählt werden, das Sie an das Modell übermitteln, sind nicht in der Länge des Kontextfensters enthalten.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch mit reiner Texteingabe. Englisch nur, wenn ein Bild in der Eingabe enthalten ist.

Anweisung Tuning Information

die Llama 3.2 Vision -Modelle verwenden bildverstehende Adaptor-Gewichte, die getrennt von den Gewichten des großen Kernsprachmodells trainiert werden. Durch diese Trennung bleibt das allgemeine Wissen des Modells erhalten, und das Modell wird sowohl in der Pre-Trainingsphase als auch zur Laufzeit effizienter. Die Llama 3.2 Vision -Modelle wurden mit 6 Milliarden Bild-Text-Paaren vortrainiert, was weitaus weniger Rechenressourcen erforderte als das Vortraining des Llama 3.1 70B -Grundmodells allein. Llama 3.2-Modelle arbeiten auch effizient, weil sie nur dann mehr Rechenressourcen für die Bildverarbeitung abrufen können, wenn die Eingabe dies erfordert.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

llama-guard-3-11b-vision

Die " Meta Llama 3.2 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die llama-guard-3-11b-vision ist eine multimodale Weiterentwicklung des reinen Textmodells Llama-Guard-3. Das Modell kann verwendet werden, um Bild- und Textinhalte in Benutzereingaben (Prompt-Klassifizierung) als sicher oder unsicher zu klassifizieren.

Verwendung

Verwenden Sie das Modell, um die Sicherheit von Bild und Text in einer Bild-zu-Text-Aufforderung zu überprüfen.

Size
  • 11 Milliarden Parameter
API-Preisstufe

Klasse 9. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Von IBM bereitgestellt und auf mandantenfähiger Hardware eingesetzt.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt. Die Token, die für ein Bild gezählt werden, das Sie an das Modell übermitteln, sind nicht in der Länge des Kontextfensters enthalten.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch mit reiner Texteingabe. Englisch nur, wenn ein Bild in der Eingabe enthalten ist.

Anweisung Tuning Information

Vorgeprüftes Modell, das auf die Klassifizierung der Sicherheit von Inhalten abgestimmt ist. Weitere Informationen über die Arten von Inhalten, die als unsicher eingestuft werden, finden Sie auf der Musterkarte.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3.1 8b

Die " Meta Llama 3.1 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Das Basismodell Llama 3.1 ist ein mehrsprachiges Modell, das die Verwendung von Tools unterstützt und insgesamt über stärkere Argumentationsfähigkeiten verfügt.

Verwendung
Verwendung für die Zusammenfassung langer Texte und mit mehrsprachigen Konversationsagenten oder Kodierassistenten.
Size
8 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
Bereitstellung bei Bedarf für den dedizierten Einsatz.
Token-Grenzen
Länge des Kontextfensters (Eingabe + Ausgabe): 131,072
Unterstützte natürliche Sprachen
Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai
Modell der Architektur
Nur für Decoder
Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

Llama 3.1 Instruct

Die " Meta Llama 3.1 Sammlung von Gründungsmodellen wird von " Meta bereitgestellt. Die Basismodelle von Llama 3.1 sind vortrainierte und auf Instruktionen abgestimmte generative Nur-Text-Modelle, die für mehrsprachige Dialoganwendungen optimiert sind. Die Modelle nutzen überwachte Feinabstimmung und Verstärkungslernen mit menschlichem Feedback, um sich an den menschlichen Vorlieben für Hilfsbereitschaft und Sicherheit zu orientieren.

Das llama-3-405b-instruct -Modell ist das bisher größte Open-Source-Stiftungsmodell von Meta. Dieses Grundmodell kann auch als Generator für synthetische Daten, als Datenbewerter nach dem Training oder als Modelllehrer/-überwacher verwendet werden, der spezialisierte Fähigkeiten in ableitungsfreundlicheren Modellen verbessern kann.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Größen
  • 8 Milliarden Parameter
  • 70 Milliarden Parameter
  • 405 Milliarden Parameter
API-Preisstufe
  • 8b: Klasse 1
  • 70b: Klasse 2
  • 405b: Klasse 3 (Eingang), Klasse 7 (Ausgang)

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Einzelheiten zu den Preisen für die Bereitstellung der Modelle 8b und 70b auf Anfrage finden Sie in Tabelle 5.

Verfügbarkeit
  • 405b: Bereitgestellt von IBM, das auf Hardware mit mehreren Mandanten eingesetzt wird.
  • 8b und nur 70b : Bereitstellung auf Anfrage für den dedizierten Gebrauch.

Warnsymbol Die IBM Bereitstellungen der 8b und 70b Gründungsmodelle sind veraltet. Einzelheiten finden Sie unter Lebenszyklus des Stiftungsmodells.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 8b und 70b: 131.072

  • 405b: 16,384

    • Obwohl das Modell eine Kontextfensterlänge von 131.072 unterstützt, ist das Fenster auf 16.384 begrenzt, um die Zeit zu verkürzen, die das Modell benötigt, um eine Antwort zu erzeugen.
  • Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage erzeugten Token, ist auf 4.096 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

Anweisung Tuning Information

Llama 3.1 wurde mit 15 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Feinabstimmungsdaten umfassen öffentlich verfügbare Anweisungsdatensätze sowie über 25 Millionen synthetisch erzeugte Beispiele.

Modell der Architektur

Nur für Decoder

Lizenz
Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 3 Instruct

Die Meta Llama 3 -Familie der Foundation-Modelle sind barrierefreie, offene Sprachmodelle, die mit Meta Llama 3 erstellt und von Meta auf Hugging Face bereitgestellt werden. Die Llama 3 sind fein abgestimmte Sprachmodelle, die verschiedene Anwendungsfälle unterstützen können.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot.

Größen
  • 8 Milliarden Parameter
  • 70 Milliarden Parameter
API-Preisstufe
  • 8b: Klasse 1
  • 70b: Klasse 2

Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.

Verfügbarkeit
  • Bereitgestellt von IBM, bereitgestellt auf Hardware mit mehreren Mandanten ( 70b nur in der Region Sydney).
  • Bereitstellung bei Bedarf für den dedizierten Einsatz.
Ausprobieren

Beispielhafte Aufforderung: Gespräch mit Llama 3

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 8b: 8,192
  • 70b: 8,192

Hinweis: Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage erzeugten Token, ist auf 4 096 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Llama 3 bietet Verbesserungen bei den Verfahren nach dem Training, die die Rate falscher Ablehnungen reduzieren, die Ausrichtung verbessern und die Vielfalt in der Ausgabe des Grundmodells erhöhen. Das Ergebnis ist eine bessere Argumentation, Codegenerierung und Befehlsverfolgungsfähigkeit. Llama 3 hat mehr Trainingsmarken ( 15T ), die zu einem besseren Sprachverständnis führen.

Modell der Architektur

Nur für Decoder

Lizenz

META LLAMA 3 Gemeinschaftslizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Llama 2 Chat

Die Llama 2 Chat -Modelle werden von Meta auf Hugging Face bereitgestellt. Die fein abgestimmten Modelle sind für die Chat-Erstellung nützlich. Die Modelle werden mit öffentlich zugänglichen Online-Daten trainiert und durch Verstärkungslernen anhand von menschlichem Feedback fein abgestimmt.

Sie können wählen, ob Sie die 13-Milliarden-Parameter- oder die 70-Milliarden-Parameter-Version des Modells verwenden möchten.

Verwendung

Erzeugt Dialogausgaben wie ein Chatbot. Verwendet ein modellspezifisches Eingabeaufforderungsformat.

Size
  • 13 Milliarden Parameter
  • 70 Milliarden Parameter
API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3 und Tabelle 5.

Verfügbarkeit
  • 13b
    • Bereitgestellt von IBM, eingesetzt auf mandantenfähiger Hardware
    • Bereitstellung bei Bedarf für den dedizierten Einsatz
  • 70b
    • Bereitstellung bei Bedarf für den dedizierten Einsatz

Warnsymbol Die von IBM bereitgestellte Bereitstellung dieses Grundmodells ist veraltet. Siehe Modell des Lebenszyklus der Stiftung.

Ausprobieren

Experimentieren Sie mit Proben:

Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe)

  • 13b: 4,096
  • 70b: 4,096
Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Llama 2 wurde auf 2 Billionen Token von Daten aus öffentlich zugänglichen Quellen vortrainiert. Die Daten für die Feinabstimmung umfassen öffentlich verfügbare Anweisungsdatensätze und mehr als eine Million neuer Beispiele, die von Menschen kommentiert wurden.

Modell der Architektur

Nur für Decoder

Lizenz

Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mistral-large

Mistral Large 2 ist eine Familie großer Sprachmodelle, die von Mistral AI entwickelt wurden. Das mistral-large -Stiftungsmodell beherrscht die Grammatik und den kulturellen Kontext von Englisch, Französisch, Spanisch, Deutsch und Italienisch und versteht sie. Das Modell der Stiftung kann auch Dutzende anderer Sprachen verstehen. Das Modell verfügt über ein großes Kontextfenster, d. h. Sie können umfangreiche Dokumente als Kontextinformationen in Aufforderungen einfügen, die Sie für RAG-Anwendungsfälle (Retrieval-Augmented Generation) übermitteln. Das mistral-large -Stiftungsmodell ist bei programmatischen Aufgaben wie der Generierung, Überprüfung und Kommentierung von Code und Funktionsaufrufen effektiv und kann Ergebnisse im JSON-Format generieren.

Weitere Informationen zu den ersten Schritten finden Sie auf der Seitewatsonx.ai auf der ' Mistral AI.

Verwendung

Geeignet für komplexe mehrsprachige Argumentationsaufgaben, einschließlich Textverständnis, Transformation und Codegenerierung. Aufgrund des großen Kontextfensters des Modells sollten Sie den Parameter max tokens verwenden, um bei der Eingabeaufforderung an das Modell eine Obergrenze für Token anzugeben.

API-Preisstufe

Die Preise für die Schlussfolgerung des bereitgestellten Mistral Large -Modells werden nicht durch einen Multiplikator bestimmt. Es werden die folgenden Sonderpreisstufen verwendet:

  • Eingangsstufe: Mistral Large Input
  • Ausgangsstufe: Mistral Large

Einzelheiten zu den Preisen finden Sie in Tabelle 3. Einzelheiten zu den Preisen für die Bereitstellung dieses Modells auf Anfrage finden Sie in Tabelle 5.

Achtung : Für dieses Fundamentmodell wird eine zusätzliche Zugangsgebühr erhoben, die pro Nutzungsstunde anfällt.
Verfügbarkeit
  • Bereitgestellt von IBM, eingesetzt auf mandantenfähiger Hardware
  • Bereitstellung bei Bedarf für den dedizierten Einsatz
Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch, Chinesisch, Japanisch, Koreanisch, Portugiesisch, Niederländisch, Polnisch und Dutzende anderer Sprachen.

Unterstützte Programmiersprachen

Das mistral-large Modell wurde auf über 80 Programmiersprachen trainiert, darunter Python, Java, C, C++, JavaScript, Bash, Swift und Fortran.

Anweisung Tuning Information

Das mistral-large -Stiftungsmodell ist auf verschiedene Datensätze wie Text, Codebasen und mathematische Daten aus verschiedenen Bereichen vortrainiert.

Modell der Architektur

Nur für Decoder

Lizenz

Für die Nutzungsbedingungen, einschließlich Informationen über den vertraglichen Schutz im Zusammenhang mit der Deckelung der Entschädigung, siehe Nutzungsbedingungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

mistral-large-instruct-2411

Das mistral-large-instruct-2411 -Stiftungsmodell von Mistral AI gehört zur Mistral Large 2 -Modellfamilie. Das Modell ist auf Argumentation, Wissen und Kodierung spezialisiert. Das Modell erweitert die Fähigkeiten des Mistral-Large-Instruct-2407 -Stiftungsmodells um eine bessere Handhabung von langen Eingabeaufforderungen, Anweisungen für Systemeingaben und Funktionsaufrufen.

Verwendung

Das mistral-large-instruct-2411 -Stiftungsmodell ist mehrsprachig, beherrscht die Kodierung, ist agentenorientiert und hält sich an Systemansagen, um bei Aufgaben zur abrufgestützten Generierung und anderen Anwendungsfällen zu helfen, bei denen Ansagen mit großem Kontext verarbeitet werden müssen.

Size

123 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 5.

Achtung : Für dieses Fundamentmodell wird eine zusätzliche Zugangsgebühr erhoben, die pro Nutzungsstunde anfällt.
Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Ausprobieren
Token-Grenzen

Länge des Kontextfensters (Eingabe + Ausgabe): 131,072

Unterstützte natürliche Sprachen

Mehrsprachig und besonders stark in Englisch, Französisch, Deutsch, Spanisch, Italienisch, Portugiesisch, Chinesisch, Japanisch, Koreanisch, Arabisch und Hindi.

Unterstützte Programmiersprachen

Das mistral-large-instruct-2411 -Stiftungsmodell wurde in über 80 Programmiersprachen geschult, darunter Python, Java, C, C++, JavaScript, Bash, Swift und Fortran.

Anweisung Tuning Information

Das mistral-large-instruct-2411 -Stiftungsmodell erweitert das Mistral-Large-Instruct-2407 -Stiftungsmodell von Mistral AI. Das Training verbesserte die Denkfähigkeiten des Modells. Ein weiterer Schwerpunkt des Trainings lag auf der Reduzierung von Halluzinationen, indem das Modell so fein abgestimmt wurde, dass es vorsichtiger und differenzierter reagiert und erkennt, wenn es keine Lösungen findet oder nicht über ausreichende Informationen verfügt, um eine zuverlässige Antwort zu geben.

Lizenz

Für die Nutzungsbedingungen, einschließlich Informationen über den vertraglichen Schutz im Zusammenhang mit der Deckelung der Entschädigung, siehe Nutzungsbedingungen.

Weitere Informationen
Lesen Sie die folgenden Ressourcen:

mistral-nemo-instruct-2407

Das mistral-nemo-instruct-2407 -Stiftungsmodell von Mistral AI wurde in Zusammenarbeit mit NVIDIA erstellt. Mistral NeMo schneidet in Bezug auf logisches Denken, Weltwissen und Codiergenauigkeit außergewöhnlich gut ab, insbesondere für ein Modell seiner Größe.

Verwendung
Das Modell ' Mistral NeMo ist mehrsprachig und wird auf Funktionsaufrufe trainiert.
Size
12 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
Bereitstellung bei Bedarf für den dedizierten Einsatz.
Token-Grenzen
Länge des Kontextfensters (Eingabe + Ausgabe): 131,072
Unterstützte natürliche Sprachen
Mehrsprachig und besonders stark in Englisch, Französisch, Deutsch, Spanisch, Italienisch, Portugiesisch, Chinesisch, Japanisch, Koreanisch, Arabisch und Hindi.
Unterstützte Programmiersprachen
Das Modell ' Mistral NeMo wurde für verschiedene Programmiersprachen trainiert.
Anweisung Tuning Information
Mistral NeMo hatte eine fortgeschrittene Phase der Feinabstimmung und Anpassung.
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

mistral-small-24b-instruct-2501

Mistral Small 3 ist ein kostengünstiges, schnelles und zuverlässiges Gründungsmodell, das von Mistral AI entwickelt wurde. Das Modell mistral-small-24b-instruct-2501 ist anpassungsfähig und eignet sich gut für Aufgaben, die ein gewisses Maß an Denkvermögen erfordern, wie z. B. die Datenextraktion, die Zusammenfassung eines Dokuments oder das Verfassen von Beschreibungen. Entwickelt zur Unterstützung agentenbasierter Anwendungen, mit Einhaltung von Systemaufforderungen und Funktionsaufrufen mit JSON-Ausgabegenerierung.

Weitere Informationen zu den ersten Schritten finden Sie auf der Seitewatsonx.ai auf der ' Mistral AI.

Verwendung

Geeignet für Gesprächspartner und Funktionsaufrufe.

API-Preisstufe

Klasse 9

Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Bereitgestellt von IBM, nur auf Multitenant-Hardware in der Region Frankfurt eingesetzt.

Ausprobieren

Beispieleingabeaufforderungen

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 32,768

Hinweis:

  • Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.
Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch, Chinesisch, Japanisch, Koreanisch, Portugiesisch, Niederländisch, Polnisch und Dutzende anderer Sprachen.

Unterstützte Programmiersprachen

Das mistral-small-24b-instruct-2501 -Modell wurde in über 80 Programmiersprachen geschult, darunter Python, Java, C, C++, JavaScript, Bash, Swift und Fortran.

Anweisung Tuning Information

Das mistral-small-24b-instruct-2501 -Stiftungsmodell ist auf verschiedene Datensätze wie Text, Codebasen und mathematische Daten aus verschiedenen Bereichen vortrainiert.

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mixtral-8x7b-base

Das mixtral-8x7b-base -Stiftungsmodell wird von Mistral AI bereitgestellt. Das mixtral-8x7b-base -Stiftungsmodell ist ein generatives, spärliches Experten-Mischungsnetzwerk, das die Modellparameter gruppiert und dann für jedes Token eine Teilmenge von Gruppen (als Experten bezeichnet) auswählt, um das Token zu verarbeiten. Dadurch hat jeder Token Zugriff auf 47 Milliarden Parameter, verwendet aber nur 13 Milliarden aktive Parameter für die Inferenzierung, was Kosten und Latenzzeit reduziert.

Verwendung

Geeignet für viele Aufgaben, einschließlich Klassifizierung, Zusammenfassung, Generierung, Codeerstellung und -konvertierung sowie Sprachübersetzung.

Size

46.46.7 Milliarden Parameter

API-Preisstufe

Einzelheiten zu den Preisen finden Sie in Tabelle 5.

Verfügbarkeit

Bereitstellung bei Bedarf für den dedizierten Einsatz.

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 32,768

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mixtral-8x7b-instruct-v01

Das mixtral-8x7b-instruct-v01 -Stiftungsmodell wird von Mistral AI bereitgestellt. Das mixtral-8x7b-instruct-v01 -Stiftungsmodell ist ein vorab trainiertes generatives Sparse-Mixture-of-Experts-Netzwerk, das die Modellparameter gruppiert und dann für jedes Token eine Teilmenge von Gruppen (als Experten bezeichnet) auswählt, um das Token zu verarbeiten. Dadurch hat jeder Token Zugriff auf 47 Milliarden Parameter, verwendet aber nur 13 Milliarden aktive Parameter für die Inferenzierung, was Kosten und Latenzzeit reduziert.

Verwendung

Geeignet für viele Aufgaben, einschließlich Klassifizierung, Zusammenfassung, Generierung, Codeerstellung und -konvertierung sowie Sprachübersetzung. Aufgrund des ungewöhnlich großen Kontextfensters des Modells verwenden Sie den Parameter max tokens, um bei der Eingabeaufforderung an das Modell ein Token-Limit anzugeben.

Size

46.46.7 Milliarden Parameter

API-Preisstufe

Klasse 1. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Ausprobieren

Beispieleingabeaufforderungen

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 32,768

Hinweis: Die maximale Anzahl neuer Token, d. h. die Anzahl der Token, die vom Stiftungsmodell pro Anfrage generiert werden, ist auf 16.384 begrenzt.

Unterstützte natürliche Sprachen

Englisch, Französisch, Deutsch, Italienisch, Spanisch

Anweisung Tuning Information

Das Mixtral-Stiftungsmodell ist auf Internetdaten vortrainiert. Das Mixtral 8x7B Instruct -Stiftungsmodell ist so konzipiert, dass es Anweisungen genau befolgt.

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

mt0-xxl-13b

Das mt0-xxl-13b -Modell wird von BigScience auf Hugging Face bereitgestellt. Das Modell wurde optimiert, um Sprachgenerierungs- und Übersetzungsaufgaben mit Englisch, anderen Sprachen als Englisch und mehrsprachigen Eingabeaufforderungen zu unterstützen.

Verwendung: Allgemeine Verwendung mit ' zero- oder ' few-shot Aufforderungen. Fügen Sie bei Übersetzungsaufgaben einen Punkt ein, um das Ende des zu übersetzenden Textes zu kennzeichnen, da das Modell den Satz sonst möglicherweise fortsetzt, anstatt ihn zu übersetzen.

Size
13 Milliarden Parameter
API-Preisstufe
Einzelheiten zu den Preisen finden Sie in Tabelle 5.
Verfügbarkeit
  • Wird bei Bedarf für den dedizierten Einsatz bereitgestellt.
Ausprobieren
Experimentieren Sie mit den folgenden Proben:
Unterstützte natürliche Sprachen
Mehrsprachig
Token-Grenzen
Länge des Kontextfensters (Eingang + Ausgang): 4,096
Unterstützte natürliche Sprachen
Das Modell wird anhand von mehrsprachigen Daten in 108 Sprachen vortrainiert und mit mehrsprachigen Daten in 46 Sprachen feinabgestimmt, um mehrsprachige Aufgaben zu erfüllen.
Anweisung Tuning Information
BigScience veröffentlicht Einzelheiten über seinen Code und seine Datensätze.
Modell der Architektur
Encoder-Decoder
Lizenz
Apache 2.0 Lizenz
Weitere Informationen
Lesen Sie die folgenden Ressourcen:

pixtral-12b

Pixtral 12B ist ein multimodales Modell, das von Mistral AI entwickelt wurde. Das pixtral-12b -Stiftungsmodell ist darauf trainiert, sowohl natürliche Bilder als auch Dokumente zu verstehen, und ist in der Lage, Bilder in ihrer natürlichen Auflösung und ihrem Seitenverhältnis zu erfassen, wodurch eine flexible Anzahl von Token für die Bildverarbeitung zur Verfügung steht. Das Modell der Stiftung unterstützt mehrere Bilder in seinem langen Kontextfenster. Das Modell ist effektiv bei multimodalen Aufgaben mit Bild und Text und zeichnet sich durch die Befolgung von Anweisungen aus.

Verwendung
Verständnis von Diagrammen und Abbildungen, Beantwortung von Fragen zu Dokumenten, multimodales Denken und Befolgung von Anweisungen.
Size
12 Milliarden Parameter
API-Preisstufe
Klasse 9. Einzelheiten zu den Preisen finden Sie in Tabelle 3.

Verfügbarkeit

Ausprobieren

Chatten mit Dokumenten und Bildern

Token-Grenzen

Länge des Kontextfensters (Eingang + Ausgang): 128,000

Die maximale Anzahl neuer Token, d. h. der von den Stiftungsmodellen pro Anfrage generierten Token, ist auf 8.192 begrenzt.

Unterstützte natürliche Sprachen

Englisch

Anweisung Tuning Information

Das pixtral-12b Modell wird mit verschachtelten Bild- und Textdaten trainiert und basiert auf dem Mistral Nemo Modell mit einem von Grund auf neu trainierten 400 Millionen Parameter Vision Encoder.

Modell der Architektur

Nur für Decoder

Lizenz

Apache 2.0 Lizenz

Weitere Informationen

Lesen Sie die folgenden Ressourcen:

Veraltete Foundation-Modelle werden mit einem Warnsymbol Warnsymbol hervorgehoben. Weitere Informationen zur Abschreibung, einschließlich der Details zur Rücknahme des Stiftungsmodells, finden Sie unter "Lebenszyklus des Stiftungsmodells ".

Weitere Informationen

Übergeordnetes Thema: Unterstützte Stiftungsmodelle