0 / 0
Torna alla versione inglese della documentazione
Dettagli del modello di fondazione
Ultimo aggiornamento: 20 dic 2024
Dettagli del modello di fondazione

In IBM watsonx.ai è disponibile una raccolta di modelli open source e della fondazione IBM. I modelli di fondazione possono essere inferiti nel Prompt Lab o in modo programmatico.

I seguenti modelli sono disponibili in 'watsonx.ai:

 

Per saperne di più sui vari modi in cui questi modelli possono essere distribuiti e per vedere un riepilogo dei prezzi e delle informazioni sulla lunghezza della finestra di contesto per i modelli, vedere Modelli di fondazione supportati.

Come scegliere un modello

Per esaminare i fattori che possono aiutare a scegliere un modello, come le attività e le lingue supportate, vedere Scelta di un modello e benchmark del modello Foundation.

Dettagli del modello di fondazione

I modelli di fondazione disponibili supportano una serie di casi d'uso sia per le lingue naturali che per i linguaggi di programmazione. Per vedere i tipi di compiti che questi modelli possono svolgere, rivedete e provate i suggerimenti di esempio.

allam-1-13b-instruct

Il foundation model allam-1-13b-instruct è un modello linguistico bilingue di grandi dimensioni per l'arabo e l'inglese fornito dal Centro nazionale per l'intelligenza artificiale e sostenuto dall'Autorità saudita per i dati e l'intelligenza artificiale, messo a punto per supportare compiti di conversazione. La serie ALLaM è una collezione di potenti modelli linguistici progettati per far progredire la tecnologia della lingua araba. Questi modelli vengono inizializzati con i pesi di Llama-2 e sottoposti ad addestramento sia in lingua araba che in lingua inglese.

Nota:Questo foundation model è disponibile solo nel data center di Francoforte. Quando si inferisce questo modello dal Prompt Lab, disabilitare i guardrail dell'IA.
Utilizzo
Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
Dimensione
13 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Arabo (arabo moderno standard) e inglese
Informazioni sulla messa a punto delle istruzioni
allam-1-13b-instruct si basa sul modello Allam-13b-base, che è un foundation model preaddestrato su un totale di 3 trilioni di token in inglese e arabo, compresi i token visti dalla sua inizializzazione. Il dataset arabo contiene 500 miliardi di token dopo la pulizia e la deduplicazione. I dati aggiuntivi sono raccolti da collezioni open source e da web crawls. Il foundation model allam-1-13b-instruct è stato messo a punto con un set curato di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
Modello di architettura
Solo decoder
Licenza
Licenza comunitariaLlama 2 e licenzaALLaM
Ulteriori informazioni
Leggete la seguente risorsa:

codellama-34b-instruct

Un modello di generazione programmatica del codice basato su Llama 2 da 'Meta. Code Llama è stato messo a punto per la generazione e la discussione di codice.

Nota:Quando si inferisce questo modello dal Prompt Lab, disabilitare i guardrail dell'IA.
Utilizzo
Utilizzate Code Llama per creare messaggi che generano codice in base a input in linguaggio naturale, che spiegano il codice o che completano e debuggano il codice.
Dimensione
34 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 16,384
Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 8.192.
Lingue naturali supportate
Inglese
Linguaggi di programmazione supportati
Il foundation model codellama-34b-instruct-hf supporta molti linguaggi di programmazione, tra cui Python, C++, Java, PHP, Typescript (Javascript), C#, Bash e altri ancora.
Informazioni sulla messa a punto delle istruzioni
La versione perfezionata delle istruzioni è stata alimentata con input di istruzioni in linguaggio naturale e con l'output previsto per guidare il modello a generare risposte utili e sicure in linguaggio naturale.
Modello di architettura
decodificatore
Licenza
Licenza
Ulteriori informazioni
Leggete le seguenti risorse:

elyza-japanese-llama-2-7b-instruct

Il modello elyza-japanese-llama-2-7b-instruct è fornito da ELYZA, Inc su Hugging Face. Il foundation model elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di 'Meta addestrata a comprendere e generare testo giapponese. Il modello viene messo a punto per risolvere vari compiti che seguono le istruzioni dell'utente e per partecipare a un dialogo.

Utilizzo
Uso generale con richieste di " zero- o " few-shot. Funziona bene per la classificazione e l'estrazione in giapponese e per la traduzione tra inglese e giapponese. Funziona meglio quando viene richiesto in giapponese.
Dimensione
7 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
Fornito da IBM e distribuito su hardware multitenant nel data center di Tokyo.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Giapponese, inglese
Informazioni sulla messa a punto delle istruzioni
Per l'addestramento alla lingua giapponese sono stati utilizzati testi giapponesi provenienti da diverse fonti, tra cui Wikipedia e l'Open Super-large Crawled ALMAnaCH coRpus (un corpus multilingue generato dalla classificazione e dal filtraggio della lingua nel corpus Common Crawl). Il modello è stato messo a punto su un set di dati creato da ELYZA. Il dataset ELYZA Tasks 100 contiene 100 compiti diversi e complessi, creati manualmente e valutati da esseri umani. Il dataset ELYZA Tasks 100 è disponibile pubblicamente presso HuggingFace.
Modello di architettura
decodificatore
Licenza
Licenza
Ulteriori informazioni
Leggete le seguenti risorse:

flan-t5-xl-3b

Il modello flan-t5-xl-3b è fornito da Google su Hugging Face. Questo modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testoT5) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni di " zero- e " few-shot. Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.

Nota:Questo foundation model può essere messo a punto utilizzando il Tuning Studio.
Utilizzo
Uso generale con richieste di " zero- o " few-shot.
Dimensione
3 miliardi di parametri
Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Provalo
Prompt di esempio
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Multilingua
Informazioni sulla messa a punto delle istruzioni
Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
Modello di architettura
Codificatore-decodificatore
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

flan-t5-xxl-11b

Il modello flan-t5-xxl-11b è fornito da Google su Hugging Face. Questo modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testoT5) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni di " zero- e " few-shot. Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.

Utilizzo
Uso generale con richieste di " zero- o " few-shot.
Dimensione
11 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Inglese, tedesco, francese
Informazioni sulla messa a punto delle istruzioni
Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
Modello di architettura
Codificatore-decodificatore
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

flan-ul2-20b

Il modello flan-ul2-20b è fornito da Google su Hugging Face. Questo modello è stato addestrato utilizzando il sistema Unifying Language Learning ParadigmsUL2). Il modello è ottimizzato per la generazione del linguaggio, la comprensione del linguaggio, la classificazione del testo, la risposta a domande, il ragionamento di senso comune, il ragionamento su testi lunghi, la messa a terra di conoscenze strutturate e il recupero di informazioni, l'apprendimento nel contesto, il prompt " zero-shot e il prompt one-shot.

Utilizzo
Uso generale con richieste di " zero- o " few-shot.
Dimensione
20 miliardi di parametri
Livello di prezzo API
Classe 3. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Inglese
Informazioni sulla messa a punto delle istruzioni
Il modello flan-ul2-20b è stato preaddestrato sulla versione colossale e ripulita del corpus di web crawl di Common Crawl. Il modello viene messo a punto con diversi obiettivi di pre-training per ottimizzarlo per vari compiti di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
Modello di architettura
Codificatore-decodificatore
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

granite-13b-chat-v2

Il modello granite-13b-chat-v2 è fornito da IBM. Questo modello è ottimizzato per i casi di dialogo e funziona bene con gli agenti virtuali e le applicazioni di chat.

Utilizzo: Genera un output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello. Include una parola chiave nel suo output che può essere utilizzata come sequenza di stop per produrre risposte sintetiche. Seguire le linee guida per l'uso del prompt per suggerimenti sull'uso. Per ulteriori informazioni, vedere Prompting granite-13b-chat-v2.

Dimensione

13 miliardi di parametri

Livello di prezzo API

Classe 1. Per i dettagli sui prezzi, consultare la Tabella 2 e la Tabella 4.

Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Provalo

Esempio di richiesta

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 8,192

Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

granite-13b-instruct-v2

Il modello granite-13b-instruct-v2 è fornito da IBM. Questo modello è stato addestrato con dati finanziari di alta qualità ed è uno dei modelli più performanti nei compiti finanziari. Le attività finanziarie valutate comprendono: la fornitura di punteggi di sentiment per le trascrizioni di titoli azionari e di chiamate agli utili, la classificazione di titoli di notizie, l'estrazione di valutazioni del rischio di credito, la sintesi di testi finanziari di lunga durata e la risposta a domande di carattere finanziario o assicurativo.

Nota:Questo foundation model può essere messo a punto utilizzando il Tuning Studio.
Utilizzo
Supporta attività di estrazione, riassunto e classificazione. Genera risultati utili per le attività finanziarie. Utilizza un formato di richiesta specifico per il modello. Accetta caratteri speciali, che possono essere usati per generare output strutturato.
Dimensione
13 miliardi di parametri
Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, consultare la Tabella 2 e la Tabella 4.
Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Nota:Icona di avviso L'implementazione IBM di questo foundation model è deprecata. Per maggiori dettagli, vedere il ciclo di vita del modello Foundation.
Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 8,192

Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

granite-7b-lab

Il foundation model granite-7b-lab è fornito da IBM. Il foundation model granite-7b-lab utilizza un nuovo metodo di regolazione dell'allineamento di IBM Research. Large-scale Alignment for chatBots, o LAB, è un metodo per aggiungere nuove competenze ai modelli di base esistenti, generando dati sintetici per le competenze e utilizzando poi tali dati per mettere a punto il foundation model.

Utilizzo
Supporta attività generiche, come l'estrazione, la sintesi, la classificazione e altro ancora. Seguire le linee guida per l'uso del prompt per suggerimenti sull'uso. Per ulteriori informazioni, vedere Prompting granite-7b-lab.
Nota:Questo foundation model supporta le competenze apportate dalla comunità open source di InstructLab.
Dimensione
7 miliardi di parametri
Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
Nota:Icona di avviso L'implementazione IBM di questo foundation model è deprecata. Per maggiori dettagli, vedere il ciclo di vita del modello Foundation.
Provalo

Esempio: Generare un titolo per un brano

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 8,192

Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 4.096.

Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

Il foundation model granite-7b-lab viene addestrato iterativamente utilizzando la metodologia di allineamento su larga scala per chatbot (LAB).

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Quando si utilizza il foundation model granite-7b-lab fornito in watsonx.ai si applicano le protezioni contrattuali relative all'indennizzo di IBM. Consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

granite-8b-japanese

Il modello granite-8b-japanese è fornito da IBM. Il foundation model granite-8b-japanese è una variante istruttiva inizializzata a partire dal modello giapponese preaddestrato di Granite Base 8 Billion ed è addestrato a comprendere e generare testo giapponese.

Utilizzo

Utile per compiti generici nella lingua giapponese, come la classificazione, l'estrazione, la risposta a domande e la traduzione linguistica tra giapponese e inglese.

Dimensione

8 miliardi di parametri

Livello di prezzo API

Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant nel data center di Tokyo.

Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 4,096

Lingue naturali supportate

Inglese, Giapponese

Informazioni sulla messa a punto delle istruzioni

La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. Il modello granite-8b-japanese è stato preaddestrato su 1 trilione di token di testo inglese e 0.5 trilioni di token di testo giapponese.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

granite-20b-multilingual

Un foundation model della famiglia IBM Granite. Il foundation model granite-20b-multilingual si basa sul modello di base Granite Base 20 miliardi ed è addestrato a comprendere e generare testo in inglese, tedesco, spagnolo, francese e portoghese.

Utilizzo
Risposta, riassunto, generazione, estrazione e classificazione di domande a dominio chiuso in inglese, tedesco, spagnolo, francese e portoghese.
Nota:Questo foundation model supporta le competenze apportate dalla comunità open source di InstructLab.
Dimensione

20 miliardi di parametri

Livello di prezzo API

Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant.

Provalo

Esempio di richiesta: Tradurre un testo dal francese all'inglese

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 8,192

Lingue naturali supportate

Inglese, tedesco, spagnolo, francese e portoghese

Informazioni sulla messa a punto delle istruzioni

La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

granite-3-8b-base

Il foundation model Granite 8b è un modello di base che appartiene alla famiglia di modelli IBM Granite. Il modello viene addestrato su 10 trilioni di token provenienti da domini diversi e poi ulteriormente addestrato su 2 trilioni di token di dati di alta qualità, scelti con cura per migliorare le prestazioni del modello su compiti specifici.

Utilizzo

Il foundation model base Granite 3.0 è un modello di base che può essere personalizzato per creare modelli specializzati per scenari applicativi specifici.

Dimensione disponibile

8 miliardi di parametri

Livello di prezzo API

Per i dettagli sui prezzi, vedere la Tabella 4.

Disponibilità

Distribuzione su richiesta per uso dedicato.

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 4,096

Lingue naturali supportate

Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

Granite Instruct modelli

I modelli di fondazione " Granite Instruct appartengono alla famiglia di modelli IBM Granite. I modelli di base granite-3-2b-instruct e granite-3-8b-instruct sono modelli linguistici di terza generazione con regolazione dell'istruzione per compiti quali riassunto, generazione, codifica e altro. I modelli di base utilizzano un'architettura di soli decodificatori in stile GPT, con ulteriori innovazioni da parte di IBM Research e della comunità aperta.

Utilizzo

i modelli di base Granite Instruct sono progettati per eccellere nei compiti che seguono le istruzioni, come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, compiti di codice, richiamo di funzioni e altro ancora.

Dimensioni disponibili
  • 2 miliardi di parametri
  • 8 miliardi di parametri
Livello di prezzo API
  • 2b: Classe C1
  • 8b: Classe 12

Per i dettagli sui prezzi, vedere la Tabella 2.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant.

Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 2b: 131,072
  • 8b: 131,072

Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.

Lingue naturali supportate

Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).

Linguaggi di programmazione supportati

I modelli " Granite Instruct sono addestrati con codice scritto in 116 linguaggi di programmazione.

Informazioni sulla messa a punto delle istruzioni

I modelli " Granite Instruct sono modelli di base " Granite Instruct finemente sintonizzati e addestrati su oltre 12 trilioni di token con una combinazione di dati di istruzione open-source e proprietari, concessi in licenza.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

Granite Guardian modelli

I modelli di fondazione " Granite Guardian appartengono alla famiglia di modelli IBM Granite. I modelli di fondazione granite-guardian-3-2b e granite-guardian-3-8b sono modelli di " Granite Instruct " di generazione 3.0 con regolazione fine, progettati per rilevare i rischi nelle richieste e nelle risposte. I modelli di base aiutano a rilevare i rischi lungo molte dimensioni chiave dell'Atlante dei rischi dell'IA.

Utilizzo

i modelli di fondazione Granite Guardian sono progettati per rilevare i rischi legati ai danni all'interno del testo del prompt o del modello di risposta (come guardrail) e possono essere utilizzati nei casi d'uso di generazione aumentata del reperimento per valutare la rilevanza del contesto (se il contesto recuperato è rilevante per la query), la fondatezza (se la risposta è accurata e fedele al contesto fornito) e la rilevanza della risposta (se la risposta risponde direttamente alla query dell'utente).

Dimensioni disponibili
  • 2 miliardi di parametri
  • 8 miliardi di parametri
Livello di prezzo API
  • 2b: Classe C1
  • 8b: Classe 12

Per i dettagli sui prezzi, vedere la Tabella 2.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant.

Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 2b: 8,192
  • 8b: 8,192
Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

I modelli " Granite Guardian sono modelli " Granite Instruct " finemente sintonizzati e addestrati su una combinazione di dati annotati dall'uomo e sintetici.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

Granite Code modelli

Modelli Foundation della famiglia IBM Granite. I modelli di base " Granite Code sono modelli che seguono le istruzioni e sono stati perfezionati utilizzando una combinazione di commit Git abbinati a istruzioni umane e a set di dati di istruzioni di codice generati sinteticamente da fonti aperte.

Il foundation model granite-8b-code-instruct v2.0.0 è in grado di elaborare richieste più grandi con una finestra contestuale di lunghezza maggiore.

Nota:Questi modelli di fondazione sono disponibili solo nel data center di Dallas. Quando si inferiscono questi modelli dal Prompt Lab, disabilitare i guardrail dell'IA.
Utilizzo

I seguenti modelli di fondazione " Granite Code sono progettati per rispondere alle istruzioni di codifica e possono essere utilizzati per costruire assistenti di codifica:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

I seguenti modelli di fondazione " Granite Code sono versioni ottimizzate per le istruzioni del modello foundation model granite-20b-code-base, progettati per compiti di generazione da testo a SQL.

  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen
Dimensioni disponibili
  • 3 miliardi di parametri
  • 8 miliardi di parametri
  • 20 miliardi di parametri
  • 34 miliardi di parametri
Livello di prezzo API

Classe 1.

Per i dettagli sui prezzi dei modelli di codice, vedere la Tabella 2.

Per i dettagli sui prezzi dei modelli text-to-SQL, vedere la Tabella 4.

Disponibilità

Granite Code modelli: Forniti da IBM e distribuiti su hardware multitenant.

Modelli di codice da testo a SQL: Distribuzione su richiesta per uso dedicato.

Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • granite-3b-code-instruct: 128.000

    Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.

  • granite-8b-code-instruct: 128.000

    Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.

  • granite-20b-code-instruct: 8.192

    Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 4.096.

  • granite-20b-code-base-schema-linking: 8.192

  • granite-20b-code-base-sql-gen: 8.192

  • granite-34b-code-instruct: 8.192

Lingue naturali supportate

Inglese

Linguaggi di programmazione supportati

I modelli della fondazione " Granite Code supportano 116 linguaggi di programmazione, tra cui Python, Javascript, Java, C++, Go e Rust. Per l'elenco completo, vedere i modelli di fondazioneIBM.

Informazioni sulla messa a punto delle istruzioni

Questi modelli sono stati perfezionati a partire dai modelli di base del " Granite Code, sulla base di una combinazione di dati di istruzione con licenza per migliorare le capacità di seguire le istruzioni, tra cui il ragionamento logico e la capacità di risolvere i problemi.

Modello di architettura

decodificatore

Licenza

Termini di utilizzo

I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai

Ulteriori informazioni

Leggete le seguenti risorse:

jais-13b-chat

Il foundation model jais-13b-chat è un modello linguistico bilingue di grandi dimensioni per l'arabo e l'inglese, messo a punto per supportare compiti di conversazione.

Utilizzo
Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
Dimensione
13 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
Fornito da IBM e distribuito su hardware multitenant nel data center di Francoforte.
Provalo
Esempio di richiesta: Conversazione in arabo
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 2,048
Lingue naturali supportate
Arabo (arabo moderno standard) e inglese
Informazioni sulla messa a punto delle istruzioni
Jais-13b-chat si basa sul modello Jais-13b, che è un foundation model addestrato su 116 miliardi di token arabi e 279 miliardi di token inglesi. Jais-13b-chat è ottimizzato con un set curato di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
Modello di architettura
decodificatore
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

Llama 3.3 70B Instruct

Il modello linguistico multilingue Llama 3.3 (LLM) di 'Meta è un modello generativo preaddestrato e regolato da istruzioni (text in/text out) con 70 miliardi di parametri.

Il modello llama-3-3-70b-instruct è una revisione del famoso foundation model Llama 3.1 70B Instruct. Il foundation model Llama 3.3 è migliore per quanto riguarda la codifica, il ragionamento passo-passo e la chiamata degli strumenti. Nonostante le dimensioni ridotte, le prestazioni del modello Llama 3.3 sono simili a quelle del modello Llama 3.1 405b, il che lo rende un'ottima scelta per gli sviluppatori.

Utilizzo

Genera dialoghi multilingue come un chatbot. Utilizza un formato di richiesta specifico per il modello.

Dimensione disponibile

70 miliardi di parametri

Livello di prezzo API

Classe 2

Per i dettagli sui prezzi, vedere la Tabella 3.

Disponibilità
  • Una versione quantizzata del modello è fornita da IBM su hardware multitenant.

  • Sono disponibili due versioni del modello da distribuire su richiesta per un uso dedicato:

    • llama-3-3-70b-instruct-hf: Versione originale pubblicata su Hugging Face di Meta.
    • llama-3-3-70b-instruct: Una versione quantizzata del modello che può essere distribuita con 2 GPU invece che con 4.
Provalo

Sperimentare con i campioni:

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 131,072

Lingue naturali supportate

Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese

Informazioni sulla messa a punto delle istruzioni

Llama 3.3 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.

Modello di architettura

Solo decoder

Licenza
Ulteriori informazioni

Leggete le seguenti risorse:

Llama 3.2 Instruct

La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-1b-instruct e llama-3-2-3b-instruct sono i modelli Llama 3.2 più piccoli che si adattano a un dispositivo mobile. Si tratta di modelli leggeri, di solo testo, che possono essere utilizzati per costruire agenti altamente personalizzati e su dispositivo.

Ad esempio, si può chiedere ai modelli di riassumere gli ultimi dieci messaggi ricevuti o di riassumere gli impegni del mese successivo.

Utilizzo

Generare output di dialogo come un chatbot. Utilizzare un formato di richiesta specifico per il modello. Le loro dimensioni ridotte e i modesti requisiti di risorse di calcolo e di memoria consentono ai modelli di Llama 3.2 Instruct di essere eseguiti localmente sulla maggior parte dell'hardware, compresi i dispositivi mobili e altri dispositivi edge.

Dimensioni disponibili
  • 1 miliardo di parametri
  • 3 miliardi di parametri
Livello di prezzo API
  • 1b: Classe C1
  • 3b: Classe 8

Per i dettagli sui prezzi, vedere la Tabella 3.

Per i dettagli sui prezzi, vedere Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.

Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
Provalo
Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 1b: 131,072
  • 3b: 131,072

Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.

Lingue naturali supportate

Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese

Informazioni sulla messa a punto delle istruzioni

Pre-addestrato su fino a 9 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I logit dei modelli Llama 3.1 8B e 70B sono stati incorporati nella fase di preaddestramento dello sviluppo del modello, dove gli output (logit) di questi modelli più grandi sono stati utilizzati come target a livello di token. Nel post-training, si è allineato il modello pre-addestrato utilizzando Supervised Fine-Tuning (SFT), Rejection Sampling (RS) e Direct Preference Optimization (DPO).

Modello di architettura

Solo decoder

Licenza
Ulteriori informazioni

Leggete le seguenti risorse:

Llama 3.2 Vision Instruct

La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-11b-vision-instruct e llama-3-2-90b-vision-instruct sono costruiti per casi d'uso che prevedono l'inserimento di immagini e l'uscita di testo, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia di immagini.

Utilizzo

Genera output di dialogo come un chatbot ed è in grado di eseguire compiti di computer vision, tra cui classificazione, rilevamento e identificazione di oggetti, trascrizione da immagine a testo (compresa la scrittura a mano), Q&A contestuale, estrazione ed elaborazione di dati, confronto di immagini e assistenza visiva personale. Utilizza un formato di richiesta specifico per il modello.

Dimensioni disponibili
  • 11 miliardi di parametri
  • 90 miliardi di parametri
Livello di prezzo API
  • 11b: Classe 9
  • 90b: Classe 10

Per i dettagli sui prezzi, vedere la Tabella 3.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant.

Provalo
Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 11b: 131,072
  • 90b: 131,072

Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.

Lingue naturali supportate

Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.

Informazioni sulla messa a punto delle istruzioni

i modelli Llama 3.2 Vision utilizzano pesi di adattamento per il ragionamento delle immagini che vengono addestrati separatamente dai pesi del modello linguistico principale. Questa separazione preserva la conoscenza generale del modello e lo rende più efficiente sia in fase di preaddestramento sia in fase di esecuzione. I modelli " Llama 3.2 Vision sono stati preaddestrati su 6 miliardi di coppie di immagini e testi, il che ha richiesto risorse di calcolo molto inferiori a quelle necessarie per il preaddestramento del solo foundation model Llama 3.1 70B. I modelli Llama 3.2 funzionano in modo efficiente anche perché possono utilizzare più risorse di calcolo per il ragionamento sulle immagini solo quando l'input lo richiede.

Modello di architettura

Solo decoder

Licenza
Ulteriori informazioni

Leggete le seguenti risorse:

llama-guard-3-11b-vision

La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. Il modello llama-guard-3-11b-vision è un'evoluzione multimodale del modello Llama-Guard-3 di solo testo. Il modello può essere utilizzato per classificare come sicuri o non sicuri i contenuti delle immagini e dei testi inseriti dagli utenti (classificazione dei messaggi).

Utilizzo

Usate il modello per verificare la sicurezza dell'immagine e del testo in un prompt immagine-testo.

Dimensione
  • 11 miliardi di parametri
Livello di prezzo API

Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.

Disponibilità

Fornito da IBM e distribuito su hardware multitenant.

Provalo
Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 131,072

Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.

Lingue naturali supportate

Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.

Informazioni sulla messa a punto delle istruzioni

Modello pre-addestrato che viene messo a punto per la classificazione della sicurezza dei contenuti. Per ulteriori informazioni sui tipi di contenuti classificati come non sicuri, consultare la scheda modello.

Modello di architettura

Solo decoder

Licenza
Ulteriori informazioni

Leggete le seguenti risorse:

Llama 3.1 8b

La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. Il foundation model base di Llama 3.1 è un modello multilingue che supporta l'uso di strumenti e ha capacità di ragionamento complessivamente più forti.

Utilizzo
Utilizzabile per la sintesi di testi lunghi e con agenti conversazionali multilingue o assistenti alla codifica.
Dimensione disponibile
8 miliardi di parametri
Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 5.
Disponibilità
Distribuzione su richiesta per uso dedicato.
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
Modello di architettura
Solo decoder
Licenza
Ulteriori informazioni
Leggete le seguenti risorse:

Llama 3.1 Instruct

La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. I modelli di base di Llama 3.1 sono modelli generativi di solo testo preaddestrati e ottimizzati per i casi di dialogo multilingue. I modelli utilizzano la messa a punto supervisionata e l'apprendimento per rinforzo con il feedback umano per allinearsi alle preferenze umane di disponibilità e sicurezza.

Il modello llama-3-405b-instruct è il più grande foundation model open-source di 'Meta. Questo foundation model può essere utilizzato anche come generatore di dati sintetici, giudice di classificazione dei dati post-training o insegnante/supervisore del modello che può migliorare le capacità specializzate in modelli derivati più facili da inferenziare.

Utilizzo

Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.

Dimensioni disponibili
  • 8 miliardi di parametri
  • 70 miliardi di parametri
  • 405 miliardi di parametri
Livello di prezzo API
  • 8b: Classe 1
  • 70b: Classe 2
  • 405b: Classe 3 (ingresso), Classe 7 (uscita)

Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.

Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuire il foundation model llama-3-1-8b-instruct su richiesta per un uso dedicato.
Provalo

Esempio di richiesta: Conversare con Llama 3

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 8b e 70b: 131.072

  • 405b: 16,384

    • Sebbene il modello supporti una finestra di contesto lunga 131.072, la finestra è limitata a 16.384 per ridurre il tempo necessario al modello per generare una risposta.
  • Il numero massimo di nuovi gettoni, ovvero i gettoni generati dai modelli della fondazione per ogni richiesta, è limitato a 4.096.

Lingue naturali supportate

Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese

Informazioni sulla messa a punto delle istruzioni

Llama 3.1 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.

Modello di architettura

Solo decoder

Licenza
Ulteriori informazioni

Leggete le seguenti risorse:

Llama 3 Instruct

La famiglia di modelli di fondazione 'Meta Llama 3 è costituita da modelli linguistici accessibili e aperti, costruiti con 'Meta Llama 3 e forniti da 'Meta su Hugging Face. I modelli di base di Llama 3 sono modelli linguistici perfezionati per l'istruzione, in grado di supportare diversi casi d'uso.

Utilizzo

Genera output di dialogo come un chatbot.

Dimensioni disponibili
  • 8 miliardi di parametri
  • 70 miliardi di parametri
Livello di prezzo API
  • 8b: Classe 1
  • 70b: Classe 2

Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.

Disponibilità
  • Fornito da IBM e distribuito su hardware multitenant.
  • Distribuzione su richiesta per uso dedicato.
Provalo

Esempio di richiesta: Conversare con Llama 3

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita)

  • 8b: 8,192
  • 70b: 8,192

Nota: Il numero massimo di nuovi token, ovvero i token generati dai modelli di fondazione per ogni richiesta, è limitato a 4.096.

Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

Llama 3 presenta miglioramenti nelle procedure post-training che riducono il tasso di falsi rifiuti, migliorano l'allineamento e aumentano la diversità nell'output del foundation model. Il risultato è una migliore capacità di ragionamento, di generazione del codice e di seguire le istruzioni. Llama 3 ha un maggior numero di token di addestramento15T) che si traducono in una migliore comprensione del linguaggio.

Modello di architettura

Solo decoder

Licenza

Licenza comunitaria META LLAMA 3

Ulteriori informazioni

Leggete le seguenti risorse:

Llama 2 Chat

I modelli di Llama 2 Chat sono forniti da 'Meta su Hugging Face. I modelli perfezionati sono utili per la generazione di chat. I modelli vengono preaddestrati con dati online disponibili pubblicamente e perfezionati utilizzando l'apprendimento per rinforzo dal feedback umano.

È possibile scegliere di utilizzare la versione del modello a 13 miliardi di parametri o a 70 miliardi di parametri.

Utilizzo
Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.
Dimensione
  • 13 miliardi di parametri
  • 70 miliardi di parametri
Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
Disponibilità
  • 13b
    • Fornito da IBM e distribuito su hardware multitenant
    • Distribuzione su richiesta per uso dedicato
  • 70b
    • Distribuzione su richiesta per uso dedicato
Nota:Icona di avviso L'implementazione IBM di questo foundation model è deprecata. Per maggiori dettagli, vedere il ciclo di vita del modello Foundation.
Provalo
Sperimentare con i campioni:
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
  • 13b: 4,096
  • 70b: 4,096
Lingue naturali supportate
Inglese
Informazioni sulla messa a punto delle istruzioni
Llama 2 è stato preaddestrato su 2 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e più di un milione di nuovi esempi annotati da esseri umani.
Modello di architettura
Solo decoder
Licenza
Licenza
Ulteriori informazioni
Leggete le seguenti risorse:

mistral-large

Mistral Large 2 è un modello linguistico di grandi dimensioni sviluppato da 'Mistral AI. Il foundation model mistral-large parla e comprende la grammatica e il contesto culturale di inglese, francese, spagnolo, tedesco e italiano. Il foundation model è in grado di comprendere decine di altre lingue. Il modello dispone di un'ampia finestra di contesto, che consente di aggiungere documenti di grandi dimensioni come informazioni contestuali nei prompt inviati per i casi d'uso della generazione aumentata dal reperimento (RAG). Il foundation model mistral-large è efficace nelle attività programmatiche, come la generazione, la revisione e il commento del codice, la chiamata di funzioni e può generare risultati in formato JSON.

Per ulteriori informazioni su come iniziare, consultare la paginawatsonx.ai sul sito web di 'Mistral AI.

Utilizzo

Adatto a compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. A causa dell'ampia finestra contestuale del modello, utilizzare il parametro max tokens per specificare un limite di token quando si richiede il modello.

Livello di prezzo API

I prezzi del modello Mistral Large non sono assegnati da un moltiplicatore. Vengono utilizzati i seguenti livelli di prezzo speciali:

  • Livello di ingresso: Ingresso Mistral Large
  • Livello di uscita: Mistral Large

Per i dettagli sui prezzi, vedere la Tabella 3.

Provalo
Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 128,000

Nota:

  • Sebbene il modello supporti una finestra di contesto lunga 128.000, la finestra è limitata a 32.768 per ridurre il tempo necessario al modello per generare una risposta.
  • Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.
Lingue naturali supportate

Inglese, francese, tedesco, italiano, spagnolo, cinese, giapponese, coreano, portoghese, olandese, polacco e decine di altre lingue.

Linguaggi di programmazione supportati

Il modello mistral-large è stato addestrato su oltre 80 linguaggi di programmazione, tra cui Python, Java, C, C++, JavaScript, Bash, Swift e Fortran.

Informazioni sulla messa a punto delle istruzioni

Il foundation model mistral-large viene pre-addestrato su diversi set di dati come testi, codebase e dati matematici provenienti da vari domini.

Modello di architettura

Solo decoder

Licenza

Per le condizioni d'uso, comprese le informazioni sulle protezioni contrattuali relative all'indennizzo limitato, consultare le Condizioni d'uso.

Ulteriori informazioni

Leggete le seguenti risorse:

mistral-nemo-instruct-2407

Il modello di fondazione mistral-nemo-instruct-2407 è un modello a 12 miliardi di parametri di 'Mistral AI costruito in collaborazione con 'NVIDIA. Mistral NeMo si comporta in modo eccezionale per quanto riguarda il ragionamento, la conoscenza del mondo e l'accuratezza della codifica, soprattutto per un modello di queste dimensioni.

Utilizzo
Il modello " Mistral NeMo è multilingue e viene addestrato sulla chiamata di funzione.
Dimensione
12 miliardi di parametri
Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 5.
Disponibilità
Distribuzione su richiesta per uso dedicato.
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Lingue naturali supportate
È in grado di gestire più lingue ed è particolarmente forte in inglese, francese, tedesco, spagnolo, italiano, portoghese, cinese, giapponese, coreano, arabo e hindi.
Linguaggi di programmazione supportati
Il modello " Mistral NeMo è stato addestrato su diversi linguaggi di programmazione.
Informazioni sulla messa a punto delle istruzioni
Mistral NeMo ha avuto una fase avanzata di messa a punto e allineamento.
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

mixtral-8x7b-base

Il foundation model mixtral-8x7b-base è fornito da 'Mistral AI. Il foundation model mixtral-8x7b-base è una rete generativa di tipo sparse mixture-of-experts che raggruppa i parametri del modello e poi per ogni token sceglie un sottoinsieme di gruppi (chiamati esperti) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.

Utilizzo

È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica.

Dimensione

46.46.7 miliardi di parametri

Livello di prezzo API

Per i dettagli sui prezzi, vedere la Tabella 5.

Disponibilità

Distribuzione su richiesta per uso dedicato.

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 32,768

Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.

Lingue naturali supportate

Inglese, francese, tedesco, italiano, spagnolo

Modello di architettura

Solo decoder

Licenza

licenzaApache 2.0

Ulteriori informazioni

Leggete le seguenti risorse:

mixtral-8x7b-instruct-v01

Il foundation model mixtral-8x7b-instruct-v01 è fornito da 'Mistral AI. Il foundation model mixtral-8x7b-instruct-v01 è una rete generativa sparsa preaddestrata che raggruppa i parametri del modello e poi per ogni token sceglie un sottoinsieme di gruppi (chiamati esperti) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.

Utilizzo

È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica. A causa della finestra contestuale insolitamente grande del modello, usare il parametro max tokens per specificare un limite di token quando si richiede il modello.

Dimensione

46.46.7 miliardi di parametri

Livello di prezzo API

Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3.

Provalo

Prompt di esempio

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 32,768

Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.

Lingue naturali supportate

Inglese, francese, tedesco, italiano, spagnolo

Informazioni sulla messa a punto delle istruzioni

Il foundation model Mixtral viene preaddestrato sui dati di Internet. Il foundation model Mixtral 8x7B Instruct è stato messo a punto per seguire le istruzioni.

Modello di architettura

Solo decoder

Licenza

licenzaApache 2.0

Ulteriori informazioni

Leggete le seguenti risorse:

mt0-xxl-13b

Il modello mt0-xxl-13b è fornito da BigScience su Hugging Face. Il modello è ottimizzato per supportare compiti di generazione e traduzione linguistica in inglese, in lingue diverse dall'inglese e con prompt multilingue.

Uso: Uso generale con richieste di " zero- o " few-shot. Per i compiti di traduzione, includete un punto per indicare la fine del testo che volete tradurre, altrimenti il modello potrebbe continuare la frase invece di tradurla.

Dimensione
13 miliardi di parametri
Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 5.
Disponibilità
  • Distribuito su richiesta per un uso dedicato.
Provalo
Sperimentate i seguenti campioni:
Lingue naturali supportate
Multilingua
Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
Lingue naturali supportate
Il modello è stato preaddestrato su dati multilingue in 108 lingue e perfezionato con dati multilingue in 46 lingue per eseguire compiti multilingue.
Informazioni sulla messa a punto delle istruzioni
BigScience pubblica i dettagli del suo codice e dei suoi set di dati.
Modello di architettura
Codificatore-decodificatore
Licenza
licenzaApache 2.0
Ulteriori informazioni
Leggete le seguenti risorse:

pixtral-12b

Pixtral 12B è un modello multimodale sviluppato da Mistral Al. Il foundation model pixtral-12b è addestrato a comprendere sia le immagini naturali che i documenti ed è in grado di ingerire le immagini alla loro risoluzione naturale e al loro rapporto d'aspetto, offrendo flessibilità sul numero di token utilizzati per elaborare un'immagine. Il foundation model supporta più immagini nella sua lunga finestra contestuale. Il modello è efficace in compiti multimodali di tipo image-in e text-out ed eccelle nel seguire le istruzioni.

Utilizzo
Comprensione di grafici e figure, risposta a domande di tipo documentale, ragionamento multimodale e rispetto delle istruzioni
Dimensione
12 miliardi di parametri
Livello di prezzo API
Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.

Disponibilità

Provalo

Conversazione con documenti e immagini

Limiti dei gettoni

Lunghezza della finestra contestuale (ingresso + uscita): 128,000

Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.

Lingue naturali supportate

Inglese

Informazioni sulla messa a punto delle istruzioni

Il modello pixtral-12b viene addestrato con dati di immagini e testi interlacciati e si basa sul modello Mistral Nemo con un codificatore di visione da 400 milioni di parametri addestrato da zero.

Modello di architettura

Solo decoder

Licenza

licenzaApache 2.0

Ulteriori informazioni

Leggete le seguenti risorse:

I modelli di fondazione deprecati sono evidenziati con un'icona di avvertimento deprecata Icona di avviso. Per ulteriori informazioni sulla deprecazione, comprese le date di ritiro del foundation model, vedere Ciclo di vita del modello di fondazione.

Ulteriori informazioni

Argomento principale: Sviluppare soluzioni di IA generativa

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni