In IBM watsonx.ai è disponibile una raccolta di modelli open source e della fondazione IBM. I modelli di fondazione possono essere inferiti nel Prompt Lab o in modo programmatico.
I seguenti modelli sono disponibili in 'watsonx.ai:
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-7b-lab
- granite-8b-japanese
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-nemo-instruct-2407
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
Per saperne di più sui vari modi in cui questi modelli possono essere distribuiti e per vedere un riepilogo dei prezzi e delle informazioni sulla lunghezza della finestra di contesto per i modelli, vedere Modelli di fondazione supportati.
Come scegliere un modello
Per esaminare i fattori che possono aiutare a scegliere un modello, come le attività e le lingue supportate, vedere Scelta di un modello e benchmark del modello Foundation.
Dettagli del modello di fondazione
I modelli di fondazione disponibili supportano una serie di casi d'uso sia per le lingue naturali che per i linguaggi di programmazione. Per vedere i tipi di compiti che questi modelli possono svolgere, rivedete e provate i suggerimenti di esempio.
allam-1-13b-instruct
Il foundation model allam-1-13b-instruct è un modello linguistico bilingue di grandi dimensioni per l'arabo e l'inglese fornito dal Centro nazionale per l'intelligenza artificiale e sostenuto dall'Autorità saudita per i dati e l'intelligenza artificiale, messo a punto per supportare compiti di conversazione. La serie ALLaM è una collezione di potenti modelli linguistici progettati per far progredire la tecnologia della lingua araba. Questi modelli vengono inizializzati con i pesi di Llama-2 e sottoposti ad addestramento sia in lingua araba che in lingua inglese.
- Utilizzo
- Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Arabo (arabo moderno standard) e inglese
- Informazioni sulla messa a punto delle istruzioni
- allam-1-13b-instruct si basa sul modello Allam-13b-base, che è un foundation model preaddestrato su un totale di 3 trilioni di token in inglese e arabo, compresi i token visti dalla sua inizializzazione. Il dataset arabo contiene 500 miliardi di token dopo la pulizia e la deduplicazione. I dati aggiuntivi sono raccolti da collezioni open source e da web crawls. Il foundation model allam-1-13b-instruct è stato messo a punto con un set curato di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
- Modello di architettura
- Solo decoder
- Licenza
- Licenza comunitariaLlama 2 e licenzaALLaM
- Ulteriori informazioni
- Leggete la seguente risorsa:
codellama-34b-instruct
Un modello di generazione programmatica del codice basato su Llama 2 da 'Meta. Code Llama è stato messo a punto per la generazione e la discussione di codice.
- Utilizzo
- Utilizzate Code Llama per creare messaggi che generano codice in base a input in linguaggio naturale, che spiegano il codice o che completano e debuggano il codice.
- Dimensione
- 34 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 16,384
- Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
- Inglese
- Linguaggi di programmazione supportati
- Il foundation model codellama-34b-instruct-hf supporta molti linguaggi di programmazione, tra cui Python, C++, Java, PHP, Typescript (Javascript), C#, Bash e altri ancora.
- Informazioni sulla messa a punto delle istruzioni
- La versione perfezionata delle istruzioni è stata alimentata con input di istruzioni in linguaggio naturale e con l'output previsto per guidare il modello a generare risposte utili e sicure in linguaggio naturale.
- Modello di architettura
- decodificatore
- Licenza
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
elyza-japanese-llama-2-7b-instruct
Il modello elyza-japanese-llama-2-7b-instruct è fornito da ELYZA, Inc su Hugging Face. Il foundation model elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di 'Meta addestrata a comprendere e generare testo giapponese. Il modello viene messo a punto per risolvere vari compiti che seguono le istruzioni dell'utente e per partecipare a un dialogo.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot. Funziona bene per la classificazione e l'estrazione in giapponese e per la traduzione tra inglese e giapponese. Funziona meglio quando viene richiesto in giapponese.
- Dimensione
- 7 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant nel data center di Tokyo.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Giapponese, inglese
- Informazioni sulla messa a punto delle istruzioni
- Per l'addestramento alla lingua giapponese sono stati utilizzati testi giapponesi provenienti da diverse fonti, tra cui Wikipedia e l'Open Super-large Crawled ALMAnaCH coRpus (un corpus multilingue generato dalla classificazione e dal filtraggio della lingua nel corpus Common Crawl). Il modello è stato messo a punto su un set di dati creato da ELYZA. Il dataset ELYZA Tasks 100 contiene 100 compiti diversi e complessi, creati manualmente e valutati da esseri umani. Il dataset ELYZA Tasks 100 è disponibile pubblicamente presso HuggingFace.
- Modello di architettura
- decodificatore
- Licenza
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
flan-t5-xl-3b
Il modello flan-t5-xl-3b è fornito da Google su Hugging Face. Questo modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testoT5) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni di " zero- e " few-shot. Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 3 miliardi di parametri
- Livello di prezzo API
- Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Prompt di esempio
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Multilingua
- Informazioni sulla messa a punto delle istruzioni
- Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
flan-t5-xxl-11b
Il modello flan-t5-xxl-11b è fornito da Google su Hugging Face. Questo modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testoT5) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni di " zero- e " few-shot. Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 11 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Inglese, tedesco, francese
- Informazioni sulla messa a punto delle istruzioni
- Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
flan-ul2-20b
Il modello flan-ul2-20b è fornito da Google su Hugging Face. Questo modello è stato addestrato utilizzando il sistema Unifying Language Learning ParadigmsUL2). Il modello è ottimizzato per la generazione del linguaggio, la comprensione del linguaggio, la classificazione del testo, la risposta a domande, il ragionamento di senso comune, il ragionamento su testi lunghi, la messa a terra di conoscenze strutturate e il recupero di informazioni, l'apprendimento nel contesto, il prompt " zero-shot e il prompt one-shot.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 20 miliardi di parametri
- Livello di prezzo API
- Classe 3. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Sperimentare con i campioni:
- Prompt di esempio
- Esempio di prompt: Riassunto della conferenza stampa sugli utili
- Esempio di richiesta: Sintesi della trascrizione della riunione
- Esempio di prompt: Classificazione dello scenario
- Esempio di richiesta: Classificazione dei sentimenti
- Esempio di richiesta: Generazione di biglietti di ringraziamento
- Esempio di richiesta: Estrazione di entità denominate
- Esempio di richiesta: Estrazione di fatti
- Taccuino di esempio: Usare watsonx per riassumere i documenti di cybersecurity
- Quaderno di esempio: Usare watsonx e LangChain per rispondere alle domande usando la retrieval-augmented generation (RAG)
- Taccuino di esempio: Utilizzare watsonx, Elasticsearch e LangChain per rispondere alle domande (RAG)
- Taccuino di esempio: Utilizzare watsonx e la libreria Elasticsearch Python per rispondere alle domande (RAG)
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Inglese
- Informazioni sulla messa a punto delle istruzioni
- Il modello flan-ul2-20b è stato preaddestrato sulla versione colossale e ripulita del corpus di web crawl di Common Crawl. Il modello viene messo a punto con diversi obiettivi di pre-training per ottimizzarlo per vari compiti di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
granite-13b-chat-v2
Il modello granite-13b-chat-v2 è fornito da IBM. Questo modello è ottimizzato per i casi di dialogo e funziona bene con gli agenti virtuali e le applicazioni di chat.
Utilizzo: Genera un output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello. Include una parola chiave nel suo output che può essere utilizzata come sequenza di stop per produrre risposte sintetiche. Seguire le linee guida per l'uso del prompt per suggerimenti sull'uso. Per ulteriori informazioni, vedere Prompting granite-13b-chat-v2.
- Dimensione
13 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, consultare la Tabella 2 e la Tabella 4.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 8,192
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
granite-13b-instruct-v2
Il modello granite-13b-instruct-v2 è fornito da IBM. Questo modello è stato addestrato con dati finanziari di alta qualità ed è uno dei modelli più performanti nei compiti finanziari. Le attività finanziarie valutate comprendono: la fornitura di punteggi di sentiment per le trascrizioni di titoli azionari e di chiamate agli utili, la classificazione di titoli di notizie, l'estrazione di valutazioni del rischio di credito, la sintesi di testi finanziari di lunga durata e la risposta a domande di carattere finanziario o assicurativo.
- Utilizzo
- Supporta attività di estrazione, riassunto e classificazione. Genera risultati utili per le attività finanziarie. Utilizza un formato di richiesta specifico per il modello. Accetta caratteri speciali, che possono essere usati per generare output strutturato.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 1. Per i dettagli sui prezzi, consultare la Tabella 2 e la Tabella 4.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
Sperimentare con i campioni:
- Esempio 3b: Generare un elenco numerato su un tema particolare
- Esempio 4c: Rispondere a una domanda basata su un documento
- Esempio 4d: Rispondere a domande di conoscenza generale
- Esempio di richiesta: Domande e risposte sulla finanza
- Quaderno di esempio: Utilizzare watsonx e ibm/granite-13b-instruct per analizzare la soddisfazione dei clienti dell'autonoleggio a partire da un testo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 8,192
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
granite-7b-lab
Il foundation model granite-7b-lab è fornito da IBM. Il foundation model granite-7b-lab utilizza un nuovo metodo di regolazione dell'allineamento di IBM Research. Large-scale Alignment for chatBots, o LAB, è un metodo per aggiungere nuove competenze ai modelli di base esistenti, generando dati sintetici per le competenze e utilizzando poi tali dati per mettere a punto il foundation model.
- Utilizzo
- Supporta attività generiche, come l'estrazione, la sintesi, la classificazione e altro ancora. Seguire le linee guida per l'uso del prompt per suggerimenti sull'uso. Per ulteriori informazioni, vedere Prompting granite-7b-lab.
- Dimensione
- 7 miliardi di parametri
- Livello di prezzo API
- Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 8,192
Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 4.096.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Il foundation model granite-7b-lab viene addestrato iterativamente utilizzando la metodologia di allineamento su larga scala per chatbot (LAB).
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Quando si utilizza il foundation model granite-7b-lab fornito in watsonx.ai si applicano le protezioni contrattuali relative all'indennizzo di IBM. Consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
granite-8b-japanese
Il modello granite-8b-japanese è fornito da IBM. Il foundation model granite-8b-japanese è una variante istruttiva inizializzata a partire dal modello giapponese preaddestrato di Granite Base 8 Billion ed è addestrato a comprendere e generare testo giapponese.
- Utilizzo
Utile per compiti generici nella lingua giapponese, come la classificazione, l'estrazione, la risposta a domande e la traduzione linguistica tra giapponese e inglese.
- Dimensione
8 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant nel data center di Tokyo.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
Inglese, Giapponese
- Informazioni sulla messa a punto delle istruzioni
La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. Il modello granite-8b-japanese è stato preaddestrato su 1 trilione di token di testo inglese e 0.5 trilioni di token di testo giapponese.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
granite-20b-multilingual
Un foundation model della famiglia IBM Granite. Il foundation model granite-20b-multilingual si basa sul modello di base Granite Base 20 miliardi ed è addestrato a comprendere e generare testo in inglese, tedesco, spagnolo, francese e portoghese.
- Utilizzo
- Risposta, riassunto, generazione, estrazione e classificazione di domande a dominio chiuso in inglese, tedesco, spagnolo, francese e portoghese.
- Dimensione
20 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
Esempio di richiesta: Tradurre un testo dal francese all'inglese
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 8,192
- Lingue naturali supportate
Inglese, tedesco, spagnolo, francese e portoghese
- Informazioni sulla messa a punto delle istruzioni
La famiglia di modelli Granite è stata addestrata su set di dati rilevanti per l'impresa provenienti da cinque domini: internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti alla revisione della governance dei dati IBM e filtrati dal filtro HAP IBM per i testi contrassegnati da odio, abuso o blasfemia. IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
granite-3-8b-base
Il foundation model Granite 8b è un modello di base che appartiene alla famiglia di modelli IBM Granite. Il modello viene addestrato su 10 trilioni di token provenienti da domini diversi e poi ulteriormente addestrato su 2 trilioni di token di dati di alta qualità, scelti con cura per migliorare le prestazioni del modello su compiti specifici.
- Utilizzo
Il foundation model base Granite 3.0 è un modello di base che può essere personalizzato per creare modelli specializzati per scenari applicativi specifici.
- Dimensione disponibile
8 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 4.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
Granite Instruct modelli
I modelli di fondazione " Granite Instruct appartengono alla famiglia di modelli IBM Granite. I modelli di base granite-3-2b-instruct e granite-3-8b-instruct sono modelli linguistici di terza generazione con regolazione dell'istruzione per compiti quali riassunto, generazione, codifica e altro. I modelli di base utilizzano un'architettura di soli decodificatori in stile GPT, con ulteriori innovazioni da parte di IBM Research e della comunità aperta.
- Utilizzo
i modelli di base Granite Instruct sono progettati per eccellere nei compiti che seguono le istruzioni, come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, compiti di codice, richiamo di funzioni e altro ancora.
- Dimensioni disponibili
- 2 miliardi di parametri
- 8 miliardi di parametri
- Livello di prezzo API
- 2b: Classe C1
- 8b: Classe 12
Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 2b: 131,072
- 8b: 131,072
Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).
- Linguaggi di programmazione supportati
I modelli " Granite Instruct sono addestrati con codice scritto in 116 linguaggi di programmazione.
- Informazioni sulla messa a punto delle istruzioni
I modelli " Granite Instruct sono modelli di base " Granite Instruct finemente sintonizzati e addestrati su oltre 12 trilioni di token con una combinazione di dati di istruzione open-source e proprietari, concessi in licenza.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
Granite Guardian modelli
I modelli di fondazione " Granite Guardian appartengono alla famiglia di modelli IBM Granite. I modelli di fondazione granite-guardian-3-2b e granite-guardian-3-8b sono modelli di " Granite Instruct " di generazione 3.0 con regolazione fine, progettati per rilevare i rischi nelle richieste e nelle risposte. I modelli di base aiutano a rilevare i rischi lungo molte dimensioni chiave dell'Atlante dei rischi dell'IA.
- Utilizzo
i modelli di fondazione Granite Guardian sono progettati per rilevare i rischi legati ai danni all'interno del testo del prompt o del modello di risposta (come guardrail) e possono essere utilizzati nei casi d'uso di generazione aumentata del reperimento per valutare la rilevanza del contesto (se il contesto recuperato è rilevante per la query), la fondatezza (se la risposta è accurata e fedele al contesto fornito) e la rilevanza della risposta (se la risposta risponde direttamente alla query dell'utente).
- Dimensioni disponibili
- 2 miliardi di parametri
- 8 miliardi di parametri
- Livello di prezzo API
- 2b: Classe C1
- 8b: Classe 12
Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 2b: 8,192
- 8b: 8,192
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
I modelli " Granite Guardian sono modelli " Granite Instruct " finemente sintonizzati e addestrati su una combinazione di dati annotati dall'uomo e sintetici.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
Granite Code modelli
Modelli Foundation della famiglia IBM Granite. I modelli di base " Granite Code sono modelli che seguono le istruzioni e sono stati perfezionati utilizzando una combinazione di commit Git abbinati a istruzioni umane e a set di dati di istruzioni di codice generati sinteticamente da fonti aperte.
Il foundation model granite-8b-code-instruct v2.0.0 è in grado di elaborare richieste più grandi con una finestra contestuale di lunghezza maggiore.
- Utilizzo
I seguenti modelli di fondazione " Granite Code sono progettati per rispondere alle istruzioni di codifica e possono essere utilizzati per costruire assistenti di codifica:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
I seguenti modelli di fondazione " Granite Code sono versioni ottimizzate per le istruzioni del modello foundation model granite-20b-code-base, progettati per compiti di generazione da testo a SQL.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- Dimensioni disponibili
- 3 miliardi di parametri
- 8 miliardi di parametri
- 20 miliardi di parametri
- 34 miliardi di parametri
- Livello di prezzo API
Classe 1.
Per i dettagli sui prezzi dei modelli di codice, vedere la Tabella 2.
Per i dettagli sui prezzi dei modelli text-to-SQL, vedere la Tabella 4.
- Disponibilità
Granite Code modelli: Forniti da IBM e distribuiti su hardware multitenant.
Modelli di codice da testo a SQL: Distribuzione su richiesta per uso dedicato.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
granite-3b-code-instruct: 128.000
Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.
granite-8b-code-instruct: 128.000
Il numero massimo di nuovi token, ossia i token generati dal foundation model per ogni richiesta, è limitato a 8.192.
granite-20b-code-instruct: 8.192
Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 4.096.
granite-20b-code-base-schema-linking: 8.192
granite-20b-code-base-sql-gen: 8.192
granite-34b-code-instruct: 8.192
- Lingue naturali supportate
Inglese
- Linguaggi di programmazione supportati
I modelli della fondazione " Granite Code supportano 116 linguaggi di programmazione, tra cui Python, Javascript, Java, C++, Go e Rust. Per l'elenco completo, vedere i modelli di fondazioneIBM.
- Informazioni sulla messa a punto delle istruzioni
Questi modelli sono stati perfezionati a partire dai modelli di base del " Granite Code, sulla base di una combinazione di dati di istruzione con licenza per migliorare le capacità di seguire le istruzioni, tra cui il ragionamento logico e la capacità di risolvere i problemi.
- Modello di architettura
decodificatore
- Licenza
-
I modelli di fondazione IBM sono considerati parte del servizio IBM Cloud. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
- Ulteriori informazioni
Leggete le seguenti risorse:
jais-13b-chat
Il foundation model jais-13b-chat è un modello linguistico bilingue di grandi dimensioni per l'arabo e l'inglese, messo a punto per supportare compiti di conversazione.
- Utilizzo
- Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant nel data center di Francoforte.
- Provalo
- Esempio di richiesta: Conversazione in arabo
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 2,048
- Lingue naturali supportate
- Arabo (arabo moderno standard) e inglese
- Informazioni sulla messa a punto delle istruzioni
- Jais-13b-chat si basa sul modello Jais-13b, che è un foundation model addestrato su 116 miliardi di token arabi e 279 miliardi di token inglesi. Jais-13b-chat è ottimizzato con un set curato di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
- Modello di architettura
- decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
Llama 3.3 70B Instruct
Il modello linguistico multilingue Llama 3.3 (LLM) di 'Meta è un modello generativo preaddestrato e regolato da istruzioni (text in/text out) con 70 miliardi di parametri.
Il modello llama-3-3-70b-instruct è una revisione del famoso foundation model Llama 3.1 70B Instruct. Il foundation model Llama 3.3 è migliore per quanto riguarda la codifica, il ragionamento passo-passo e la chiamata degli strumenti. Nonostante le dimensioni ridotte, le prestazioni del modello Llama 3.3 sono simili a quelle del modello Llama 3.1 405b, il che lo rende un'ottima scelta per gli sviluppatori.
- Utilizzo
Genera dialoghi multilingue come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensione disponibile
70 miliardi di parametri
- Livello di prezzo API
Classe 2
Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Una versione quantizzata del modello è fornita da IBM su hardware multitenant.
Sono disponibili due versioni del modello da distribuire su richiesta per un uso dedicato:
- llama-3-3-70b-instruct-hf: Versione originale pubblicata su Hugging Face di Meta.
- llama-3-3-70b-instruct: Una versione quantizzata del modello che può essere distribuita con 2 GPU invece che con 4.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Llama 3.3 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.2 Instruct
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-1b-instruct e llama-3-2-3b-instruct sono i modelli Llama 3.2 più piccoli che si adattano a un dispositivo mobile. Si tratta di modelli leggeri, di solo testo, che possono essere utilizzati per costruire agenti altamente personalizzati e su dispositivo.
Ad esempio, si può chiedere ai modelli di riassumere gli ultimi dieci messaggi ricevuti o di riassumere gli impegni del mese successivo.
- Utilizzo
Generare output di dialogo come un chatbot. Utilizzare un formato di richiesta specifico per il modello. Le loro dimensioni ridotte e i modesti requisiti di risorse di calcolo e di memoria consentono ai modelli di Llama 3.2 Instruct di essere eseguiti localmente sulla maggior parte dell'hardware, compresi i dispositivi mobili e altri dispositivi edge.
- Dimensioni disponibili
- 1 miliardo di parametri
- 3 miliardi di parametri
- Livello di prezzo API
- 1b: Classe C1
- 3b: Classe 8
Per i dettagli sui prezzi, vedere la Tabella 3.
Per i dettagli sui prezzi, vedere Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 1b: 131,072
- 3b: 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Pre-addestrato su fino a 9 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I logit dei modelli Llama 3.1 8B e 70B sono stati incorporati nella fase di preaddestramento dello sviluppo del modello, dove gli output (logit) di questi modelli più grandi sono stati utilizzati come target a livello di token. Nel post-training, si è allineato il modello pre-addestrato utilizzando Supervised Fine-Tuning (SFT), Rejection Sampling (RS) e Direct Preference Optimization (DPO).
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.2 Vision Instruct
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-11b-vision-instruct e llama-3-2-90b-vision-instruct sono costruiti per casi d'uso che prevedono l'inserimento di immagini e l'uscita di testo, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia di immagini.
- Utilizzo
Genera output di dialogo come un chatbot ed è in grado di eseguire compiti di computer vision, tra cui classificazione, rilevamento e identificazione di oggetti, trascrizione da immagine a testo (compresa la scrittura a mano), Q&A contestuale, estrazione ed elaborazione di dati, confronto di immagini e assistenza visiva personale. Utilizza un formato di richiesta specifico per il modello.
- Dimensioni disponibili
- 11 miliardi di parametri
- 90 miliardi di parametri
- Livello di prezzo API
- 11b: Classe 9
- 90b: Classe 10
Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 11b: 131,072
- 90b: 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.
- Informazioni sulla messa a punto delle istruzioni
i modelli Llama 3.2 Vision utilizzano pesi di adattamento per il ragionamento delle immagini che vengono addestrati separatamente dai pesi del modello linguistico principale. Questa separazione preserva la conoscenza generale del modello e lo rende più efficiente sia in fase di preaddestramento sia in fase di esecuzione. I modelli " Llama 3.2 Vision sono stati preaddestrati su 6 miliardi di coppie di immagini e testi, il che ha richiesto risorse di calcolo molto inferiori a quelle necessarie per il preaddestramento del solo foundation model Llama 3.1 70B. I modelli Llama 3.2 funzionano in modo efficiente anche perché possono utilizzare più risorse di calcolo per il ragionamento sulle immagini solo quando l'input lo richiede.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
llama-guard-3-11b-vision
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. Il modello llama-guard-3-11b-vision è un'evoluzione multimodale del modello Llama-Guard-3 di solo testo. Il modello può essere utilizzato per classificare come sicuri o non sicuri i contenuti delle immagini e dei testi inseriti dagli utenti (classificazione dei messaggi).
- Utilizzo
Usate il modello per verificare la sicurezza dell'immagine e del testo in un prompt immagine-testo.
- Dimensione
- 11 miliardi di parametri
- Livello di prezzo API
Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.
- Informazioni sulla messa a punto delle istruzioni
Modello pre-addestrato che viene messo a punto per la classificazione della sicurezza dei contenuti. Per ulteriori informazioni sui tipi di contenuti classificati come non sicuri, consultare la scheda modello.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.1 8b
La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. Il foundation model base di Llama 3.1 è un modello multilingue che supporta l'uso di strumenti e ha capacità di ragionamento complessivamente più forti.
- Utilizzo
- Utilizzabile per la sintesi di testi lunghi e con agenti conversazionali multilingue o assistenti alla codifica.
- Dimensione disponibile
- 8 miliardi di parametri
- Livello di prezzo API
- Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
- Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Modello di architettura
- Solo decoder
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
Llama 3.1 Instruct
La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. I modelli di base di Llama 3.1 sono modelli generativi di solo testo preaddestrati e ottimizzati per i casi di dialogo multilingue. I modelli utilizzano la messa a punto supervisionata e l'apprendimento per rinforzo con il feedback umano per allinearsi alle preferenze umane di disponibilità e sicurezza.
Il modello llama-3-405b-instruct è il più grande foundation model open-source di 'Meta. Questo foundation model può essere utilizzato anche come generatore di dati sintetici, giudice di classificazione dei dati post-training o insegnante/supervisore del modello che può migliorare le capacità specializzate in modelli derivati più facili da inferenziare.
- Utilizzo
Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensioni disponibili
- 8 miliardi di parametri
- 70 miliardi di parametri
- 405 miliardi di parametri
- Livello di prezzo API
- 8b: Classe 1
- 70b: Classe 2
- 405b: Classe 3 (ingresso), Classe 7 (uscita)
Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuire il foundation model llama-3-1-8b-instruct su richiesta per un uso dedicato.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
8b e 70b: 131.072
405b: 16,384
- Sebbene il modello supporti una finestra di contesto lunga 131.072, la finestra è limitata a 16.384 per ridurre il tempo necessario al modello per generare una risposta.
Il numero massimo di nuovi gettoni, ovvero i gettoni generati dai modelli della fondazione per ogni richiesta, è limitato a 4.096.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Llama 3.1 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3 Instruct
La famiglia di modelli di fondazione 'Meta Llama 3 è costituita da modelli linguistici accessibili e aperti, costruiti con 'Meta Llama 3 e forniti da 'Meta su Hugging Face. I modelli di base di Llama 3 sono modelli linguistici perfezionati per l'istruzione, in grado di supportare diversi casi d'uso.
- Utilizzo
Genera output di dialogo come un chatbot.
- Dimensioni disponibili
- 8 miliardi di parametri
- 70 miliardi di parametri
- Livello di prezzo API
- 8b: Classe 1
- 70b: Classe 2
Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 8b: 8,192
- 70b: 8,192
Nota: Il numero massimo di nuovi token, ovvero i token generati dai modelli di fondazione per ogni richiesta, è limitato a 4.096.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Llama 3 presenta miglioramenti nelle procedure post-training che riducono il tasso di falsi rifiuti, migliorano l'allineamento e aumentano la diversità nell'output del foundation model. Il risultato è una migliore capacità di ragionamento, di generazione del codice e di seguire le istruzioni. Llama 3 ha un maggior numero di token di addestramento15T) che si traducono in una migliore comprensione del linguaggio.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 2 Chat
I modelli di Llama 2 Chat sono forniti da 'Meta su Hugging Face. I modelli perfezionati sono utili per la generazione di chat. I modelli vengono preaddestrati con dati online disponibili pubblicamente e perfezionati utilizzando l'apprendimento per rinforzo dal feedback umano.
È possibile scegliere di utilizzare la versione del modello a 13 miliardi di parametri o a 70 miliardi di parametri.
- Utilizzo
- Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensione
- 13 miliardi di parametri
- 70 miliardi di parametri
- Livello di prezzo API
- Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- 13b
- Fornito da IBM e distribuito su hardware multitenant
- Distribuzione su richiesta per uso dedicato
- 70b
- Distribuzione su richiesta per uso dedicato
- 13b
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita)
- 13b: 4,096
- 70b: 4,096
- Lingue naturali supportate
- Inglese
- Informazioni sulla messa a punto delle istruzioni
- Llama 2 è stato preaddestrato su 2 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e più di un milione di nuovi esempi annotati da esseri umani.
- Modello di architettura
- Solo decoder
- Licenza
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
mistral-large
Mistral Large 2 è un modello linguistico di grandi dimensioni sviluppato da 'Mistral AI. Il foundation model mistral-large parla e comprende la grammatica e il contesto culturale di inglese, francese, spagnolo, tedesco e italiano. Il foundation model è in grado di comprendere decine di altre lingue. Il modello dispone di un'ampia finestra di contesto, che consente di aggiungere documenti di grandi dimensioni come informazioni contestuali nei prompt inviati per i casi d'uso della generazione aumentata dal reperimento (RAG). Il foundation model mistral-large è efficace nelle attività programmatiche, come la generazione, la revisione e il commento del codice, la chiamata di funzioni e può generare risultati in formato JSON.
Per ulteriori informazioni su come iniziare, consultare la paginawatsonx.ai sul sito web di 'Mistral AI.
- Utilizzo
Adatto a compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. A causa dell'ampia finestra contestuale del modello, utilizzare il parametro max tokens per specificare un limite di token quando si richiede il modello.
- Livello di prezzo API
I prezzi del modello Mistral Large non sono assegnati da un moltiplicatore. Vengono utilizzati i seguenti livelli di prezzo speciali:
- Livello di ingresso: Ingresso Mistral Large
- Livello di uscita: Mistral Large
Per i dettagli sui prezzi, vedere la Tabella 3.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 128,000
Nota:
- Sebbene il modello supporti una finestra di contesto lunga 128.000, la finestra è limitata a 32.768 per ridurre il tempo necessario al modello per generare una risposta.
- Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo, cinese, giapponese, coreano, portoghese, olandese, polacco e decine di altre lingue.
- Linguaggi di programmazione supportati
Il modello mistral-large è stato addestrato su oltre 80 linguaggi di programmazione, tra cui Python, Java, C, C++, JavaScript, Bash, Swift e Fortran.
- Informazioni sulla messa a punto delle istruzioni
Il foundation model mistral-large viene pre-addestrato su diversi set di dati come testi, codebase e dati matematici provenienti da vari domini.
- Modello di architettura
Solo decoder
- Licenza
Per le condizioni d'uso, comprese le informazioni sulle protezioni contrattuali relative all'indennizzo limitato, consultare le Condizioni d'uso.
- Ulteriori informazioni
Leggete le seguenti risorse:
mistral-nemo-instruct-2407
Il modello di fondazione mistral-nemo-instruct-2407 è un modello a 12 miliardi di parametri di 'Mistral AI costruito in collaborazione con 'NVIDIA. Mistral NeMo si comporta in modo eccezionale per quanto riguarda il ragionamento, la conoscenza del mondo e l'accuratezza della codifica, soprattutto per un modello di queste dimensioni.
- Utilizzo
- Il modello " Mistral NeMo è multilingue e viene addestrato sulla chiamata di funzione.
- Dimensione
- 12 miliardi di parametri
- Livello di prezzo API
- Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
- È in grado di gestire più lingue ed è particolarmente forte in inglese, francese, tedesco, spagnolo, italiano, portoghese, cinese, giapponese, coreano, arabo e hindi.
- Linguaggi di programmazione supportati
- Il modello " Mistral NeMo è stato addestrato su diversi linguaggi di programmazione.
- Informazioni sulla messa a punto delle istruzioni
- Mistral NeMo ha avuto una fase avanzata di messa a punto e allineamento.
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
mixtral-8x7b-base
Il foundation model mixtral-8x7b-base è fornito da 'Mistral AI. Il foundation model mixtral-8x7b-base è una rete generativa di tipo sparse mixture-of-experts che raggruppa i parametri del modello e poi per ogni token sceglie un sottoinsieme di gruppi (chiamati esperti) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.
- Utilizzo
È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica.
- Dimensione
46.46.7 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 32,768
Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mixtral-8x7b-instruct-v01
Il foundation model mixtral-8x7b-instruct-v01 è fornito da 'Mistral AI. Il foundation model mixtral-8x7b-instruct-v01 è una rete generativa sparsa preaddestrata che raggruppa i parametri del modello e poi per ogni token sceglie un sottoinsieme di gruppi (chiamati esperti) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.
- Utilizzo
È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica. A causa della finestra contestuale insolitamente grande del modello, usare il parametro max tokens per specificare un limite di token quando si richiede il modello.
- Dimensione
46.46.7 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 32,768
Nota: Il numero massimo di nuovi token, ovvero i token generati dal foundation model per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo
- Informazioni sulla messa a punto delle istruzioni
Il foundation model Mixtral viene preaddestrato sui dati di Internet. Il foundation model Mixtral 8x7B Instruct è stato messo a punto per seguire le istruzioni.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mt0-xxl-13b
Il modello mt0-xxl-13b è fornito da BigScience su Hugging Face. Il modello è ottimizzato per supportare compiti di generazione e traduzione linguistica in inglese, in lingue diverse dall'inglese e con prompt multilingue.
Uso: Uso generale con richieste di " zero- o " few-shot. Per i compiti di traduzione, includete un punto per indicare la fine del testo che volete tradurre, altrimenti il modello potrebbe continuare la frase invece di tradurla.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuito su richiesta per un uso dedicato.
- Provalo
- Sperimentate i seguenti campioni:
- Lingue naturali supportate
- Multilingua
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Il modello è stato preaddestrato su dati multilingue in 108 lingue e perfezionato con dati multilingue in 46 lingue per eseguire compiti multilingue.
- Informazioni sulla messa a punto delle istruzioni
- BigScience pubblica i dettagli del suo codice e dei suoi set di dati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
pixtral-12b
Pixtral 12B è un modello multimodale sviluppato da Mistral Al. Il foundation model pixtral-12b è addestrato a comprendere sia le immagini naturali che i documenti ed è in grado di ingerire le immagini alla loro risoluzione naturale e al loro rapporto d'aspetto, offrendo flessibilità sul numero di token utilizzati per elaborare un'immagine. Il foundation model supporta più immagini nella sua lunga finestra contestuale. Il modello è efficace in compiti multimodali di tipo image-in e text-out ed eccelle nel seguire le istruzioni.
- Utilizzo
- Comprensione di grafici e figure, risposta a domande di tipo documentale, ragionamento multimodale e rispetto delle istruzioni
- Dimensione
- 12 miliardi di parametri
- Livello di prezzo API
- Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 128,000
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Il modello pixtral-12b viene addestrato con dati di immagini e testi interlacciati e si basa sul modello Mistral Nemo con un codificatore di visione da 400 milioni di parametri addestrato da zero.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
I modelli di fondazione deprecati sono evidenziati con un'icona di avvertimento deprecata . Per ulteriori informazioni sulla deprecazione, comprese le date di ritiro del foundation model, vedere Ciclo di vita del modello di fondazione.
Ulteriori informazioni
Argomento principale: Sviluppare soluzioni di IA generativa