Traduzione non aggiornata
Modelli di fondazioni di terze parti
È possibile scegliere tra una serie di modelli di fondazioni di terze parti su IBM watsonx.ai.
I seguenti modelli sono disponibili in 'watsonx.ai:
- allam-1-13b-instruct
- codellama-34b-instruct-hf
- deepseek-r1-distill-llama-8b
- deepseek-r1-distill-llama-70b
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-large-instruct-2407
- mistral-large-instruct-2411
- mistral-nemo-instruct-2407
- mistral-small-24b-instruct-2501
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
Per saperne di più sui vari modi in cui questi modelli possono essere distribuiti e per vedere un riepilogo dei prezzi e delle informazioni sulla lunghezza della finestra di contesto per i modelli, vedere Modelli di fondazione supportati.
Per informazioni dettagliate sui modelli di fondazioni dell' IBM, consultare IBM modelli di fondazioni.
Come scegliere un modello
Per esaminare i fattori che possono aiutare a scegliere un modello, come le attività e le lingue supportate, vedere Scelta di un modello e benchmark del modello Foundation.
Dettagli del modello di fondazione
I modelli di base in watsonx.ai supportano una serie di casi d'uso sia per i linguaggi naturali che per i linguaggi di programmazione. Per vedere i tipi di compiti che questi modelli possono svolgere, rivedete e provate i suggerimenti di esempio.
allam-1-13b-instruct
Il modello della fondazione " allam-1-13b-instruct " è un modello linguistico bilingue per l'arabo e l'inglese fornito dal National Center for Artificial Intelligence e supportato dalla Saudi Authority for Data and Artificial Intelligence, che è stato messo a punto per supportare le attività di conversazione. La serie " ALLaM " è una raccolta di potenti modelli linguistici progettati per far progredire la tecnologia della lingua araba. Questi modelli vengono inizializzati con pesi specifici ( Llama-2 ) e sottoposti a un addestramento sia in lingua araba che in lingua inglese.
- Utilizzo
- Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant nel data center di Francoforte.
- Distribuzione su richiesta per uso dedicato, tranne nel data center di Francoforte.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Arabo (arabo moderno standard) e inglese
- Informazioni sulla messa a punto delle istruzioni
- allam-1-13b-instruct si basa sul modello dell' Allam-13b-base, un modello di base pre-addestrato su un totale di 3 trilioni di token in inglese e arabo, compresi i token visti dalla sua inizializzazione. Il dataset arabo contiene 500 miliardi di token dopo la pulizia e la deduplicazione. I dati aggiuntivi sono raccolti da collezioni open source e da web crawls. Il modello della fondazione " allam-1-13b-instruct " è messo a punto con una serie selezionata di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
- Modello di architettura
- Solo decoder
- Licenza
- Licenza comunitariaLlama 2 e licenzaALLaM
- Ulteriori informazioni
- Leggete la seguente risorsa:
codellama-34b-instruct-hf
Un modello di generazione programmatica del codice basato su Llama 2 da 'Meta. Code Llama è stato messo a punto per la generazione e la discussione di codice.
- Utilizzo
- Utilizzate Code Llama per creare messaggi che generano codice in base a input in linguaggio naturale, che spiegano il codice o che completano e debuggano il codice.
- Dimensione
34 miliardi di parametri
- Livello di prezzo API
Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
Questo modello è obsoleto. Vedere il ciclo di vita del modello Foundation.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 16,384
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese
- Linguaggi di programmazione supportati
Il modello di base dell' codellama-34b-instruct-hf e supporta molti linguaggi di programmazione, tra cui: Python, C++, Java, PHP, Typescript (Javascript), C#, Bash e altri ancora.
- Informazioni sulla messa a punto delle istruzioni
La versione perfezionata delle istruzioni è stata alimentata con input di istruzioni in linguaggio naturale e con l'output previsto per guidare il modello a generare risposte utili e sicure in linguaggio naturale.
- Modello di architettura
decodificatore
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
DeepSeek-R1 modelli distillati
Le varianti distillate dei modelli di DeepSeek-R1 basate sui modelli di Llama 3.1 sono fornite da DeepSeek AI. I modelli di DeepSeek-R1 sono modelli open-sourced con potenti capacità di ragionamento. I campioni di dati generati dal modello DeepSeek R1 sono utilizzati per mettere a punto un modello Llama di base.
I modelli deepseek-r1-distill-llama-8b e deepseek-r1-distill-llama-70b sono versioni distillate del modello DeepSeek-R1 basate rispettivamente sui modelli Llama 3.1 8B e Llama 3.3 70B.
- Utilizzo
Utilizzabili in generale con i prompt di zero- o few-shot, sono stati progettati per eccellere in compiti di istruzione quali riassunto, classificazione, ragionamento, compiti di codifica e matematica.
- Dimensioni disponibili
- 8 miliardi di parametri
- 70 miliardi di parametri
- Livello di prezzo API
8b: Piccolo
70: Grande
Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
8b e 70b: Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 32.768.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
I modelli di DeepSeek-R1 sono addestrati utilizzando l'apprendimento per rinforzo (RL) su larga scala, senza una messa a punto supervisionata (SFT) come fase preliminare. Le successive fasi di RL e SFT mirano a migliorare i modelli di ragionamento e ad allineare il modello alle preferenze umane. DeepSeek-R1-Distill i modelli sono messi a punto sulla base di modelli open-source, utilizzando campioni generati da DeepSeek-R1.
- Modello di architettura
decodificatore
- Licenza
8b: Licenza
70b: Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
elyza-japanese-llama-2-7b-instruct
Il modello elyza-japanese-llama-2-7b-instruct è fornito da ELYZA, Inc su Hugging Face. Il modello della fondazione " elyza-japanese-llama-2-7b-instruct " è una versione del modello " Llama 2 " di " Meta " che è addestrato a comprendere e generare testo giapponese. Il modello viene messo a punto per risolvere vari compiti che seguono le istruzioni dell'utente e per partecipare a un dialogo.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot. Funziona bene per la classificazione e l'estrazione in giapponese e per la traduzione tra inglese e giapponese. Funziona meglio quando viene richiesto in giapponese.
- Dimensione
- 7 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant nel data center di Tokyo.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Giapponese, inglese
- Informazioni sulla messa a punto delle istruzioni
- Per l'addestramento alla lingua giapponese sono stati utilizzati testi giapponesi provenienti da diverse fonti, tra cui Wikipedia e l'Open Super-large Crawled ALMAnaCH coRpus (un corpus multilingue generato dalla classificazione e dal filtraggio della lingua nel corpus Common Crawl). Il modello è stato messo a punto su un set di dati creato da ELYZA. Il dataset ELYZA Tasks 100 contiene 100 compiti diversi e complessi, creati manualmente e valutati da esseri umani. Il dataset ELYZA Tasks 100 è disponibile pubblicamente presso HuggingFace.
- Modello di architettura
- decodificatore
- Licenza
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
EuroLLM Istruttoria
La serie di modelli EuroLLM è stata sviluppata dal progetto Unified Transcription and Translation for Extended Reality (UTTER) e dall'Unione Europea. I modelli di EuroLLM Instruct sono modelli open-source specializzati nella comprensione e nella generazione di testi in tutte le 24 lingue ufficiali dell'Unione Europea (UE) e in 11 lingue internazionali importanti dal punto di vista commerciale e strategico.
- Utilizzo
È adatto a compiti linguistici multilingue, come l'esecuzione di istruzioni generali e la traduzione linguistica.
- Dimensioni
- 1.7 miliardi di parametri
- 9 miliardi di parametri
- Livello di prezzo API
1.7b: Piccolo
9b: Piccolo
Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
1.7b e 9b: Lunghezza della finestra di contesto (ingresso + uscita): 4,096
- Lingue naturali supportate
Bulgaro, croato, ceco, danese, estone, finlandese, francese, greco, inglese, irlandese, italiano, lettone, lituano, maltese, polacco, portoghese, rumeno, slovacco, sloveno, spagnolo, svedese, ungherese, arabo, catalano, cinese, galiziano, hindi, giapponese, coreano, norvegese, russo, turco e ucraino.
- Informazioni sulla messa a punto delle istruzioni
I modelli sono stati addestrati su 4 trilioni di token in tutte le lingue naturali supportate da dati web, dati paralleli, Wikipedia, Arxiv, libri multipli e dataset Apollo.
- Modello di architettura
decodificatore
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
flan-t5-xl-3b
Il modello dell' flan-t5-xl-3b e è fornito da Google su Hugging Face. Il modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testo ( T5 ) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni zero- e few-shot . Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 3 miliardi di parametri
- Livello di prezzo API
- Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Prompt di esempio
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Multilingua
- Informazioni sulla messa a punto delle istruzioni
- Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
flan-t5-xxl-11b
Il modello dell' flan-t5-xxl-11b e è fornito da Google su Hugging Face. Questo modello si basa sul modello preaddestrato del trasformatore di trasferimento da testo a testoT5) e utilizza metodi di regolazione fine delle istruzioni per ottenere migliori prestazioni di " zero- e " few-shot. Il modello viene anche perfezionato con i dati della catena di pensiero per migliorare la sua capacità di eseguire compiti di ragionamento.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 11 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Sperimentare con i campioni:
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Inglese, tedesco, francese
- Informazioni sulla messa a punto delle istruzioni
- Il modello è stato messo a punto su compiti che prevedono ragionamenti a più fasi a partire da dati di catena di pensiero, oltre a compiti tradizionali di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
flan-ul2-20b
Il modello dell' flan-ul2-20b e è fornito da Google su Hugging Face. Questo modello è stato addestrato utilizzando il sistema Unifying Language Learning ParadigmsUL2). Il modello è ottimizzato per la generazione del linguaggio, la comprensione del linguaggio, la classificazione del testo, la risposta a domande, il ragionamento di senso comune, il ragionamento su testi lunghi, la messa a terra di conoscenze strutturate e il recupero di informazioni, l'apprendimento nel contesto, il prompt " zero-shot e il prompt one-shot.
- Utilizzo
- Uso generale con richieste di " zero- o " few-shot.
- Dimensione
- 20 miliardi di parametri
- Livello di prezzo API
- Classe 3. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Sperimentare con i campioni:
- Prompt di esempio
- Esempio di prompt: Riassunto della conferenza stampa sugli utili
- Esempio di richiesta: Sintesi della trascrizione della riunione
- Esempio di prompt: Classificazione dello scenario
- Esempio di richiesta: Classificazione dei sentimenti
- Esempio di richiesta: Generazione di biglietti di ringraziamento
- Esempio di richiesta: Estrazione di entità denominate
- Esempio di richiesta: Estrazione di fatti
- Taccuino di esempio: Usare watsonx per riassumere i documenti di cybersecurity
- Quaderno di esempio: Usare watsonx e LangChain per rispondere alle domande usando la retrieval-augmented generation (RAG)
- Taccuino di esempio: Utilizzare watsonx, Elasticsearch e LangChain per rispondere alle domande (RAG)
- Taccuino di esempio: Utilizzare watsonx e la libreria Elasticsearch Python per rispondere alle domande (RAG)
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Inglese
- Informazioni sulla messa a punto delle istruzioni
- Il modello flan-ul2-20b è stato preaddestrato sulla versione colossale e ripulita del corpus di web crawl di Common Crawl. Il modello viene messo a punto con diversi obiettivi di pre-training per ottimizzarlo per vari compiti di elaborazione del linguaggio naturale. I dettagli sui set di dati di addestramento utilizzati sono pubblicati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
jais-13b-chat
Il modello della fondazione " jais-13b-chat " è un modello linguistico bilingue di grandi dimensioni per l'arabo e l'inglese, ottimizzato per supportare le attività di conversazione.
- Utilizzo
- Supporta Q&A, riassunto, classificazione, generazione, estrazione e traduzione in arabo.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant nel data center di Francoforte.
- Provalo
- Esempio di richiesta: Conversazione in arabo
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 2,048
- Lingue naturali supportate
- Arabo (arabo moderno standard) e inglese
- Informazioni sulla messa a punto delle istruzioni
- Jais-13b-chat si basa sul modello dell' Jais-13b, un modello di base che è stato addestrato su 116 miliardi di token arabi e 279 miliardi di token inglesi. Jais-13b-chat è ottimizzato con una serie selezionata di 4 milioni di coppie di domande e risposte in arabo e 6 milioni in inglese.
- Modello di architettura
- decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
Llama 3.3 70B Instruct
Il modello linguistico multilingue Llama 3.3 (LLM) di 'Meta è un modello generativo preaddestrato e regolato da istruzioni (text in/text out) con 70 miliardi di parametri.
L' llama-3-3-70b-instruct è una revisione del popolare modello base Llama 3.1 70B Instruct. Il modello di base dell' Llama 3.3 è migliore nella codifica, nel ragionamento passo dopo passo e nella chiamata degli strumenti. Nonostante le dimensioni ridotte, le prestazioni del modello Llama 3.3 sono simili a quelle del modello Llama 3.1 405b, il che lo rende un'ottima scelta per gli sviluppatori.
- Utilizzo
Genera dialoghi multilingue come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensione
70 miliardi di parametri
- Livello di prezzo API
Classe 13
Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Una versione quantizzata del modello è fornita da IBM su hardware multitenant.
Sono disponibili due versioni del modello da distribuire su richiesta per un uso dedicato:
- llama-3-3-70b-instruct-hf: Versione originale pubblicata su Hugging Face da Meta.
- llama-3-3-70b-instruct: Una versione quantizzata del modello che può essere distribuita con 2 GPU invece che con 4.
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Llama 3.3 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.2 Instruct
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-1b-instruct e llama-3-2-3b-instruct sono i modelli Llama 3.2 più piccoli che si adattano a un dispositivo mobile. Si tratta di modelli leggeri, di solo testo, che possono essere utilizzati per costruire agenti altamente personalizzati e su dispositivo.
Ad esempio, si può chiedere ai modelli di riassumere gli ultimi dieci messaggi ricevuti o di riassumere gli impegni del mese successivo.
- Utilizzo
Generare output di dialogo come un chatbot. Utilizzare un formato di richiesta specifico per il modello. Le loro dimensioni ridotte e i modesti requisiti di risorse di calcolo e di memoria consentono ai modelli di Llama 3.2 Instruct di essere eseguiti localmente sulla maggior parte dell'hardware, compresi i dispositivi mobili e altri dispositivi edge.
- Dimensioni
- 1 miliardo di parametri
- 3 miliardi di parametri
- Livello di prezzo API
- 1b: Classe C1
- 3b: Classe 8
Per i dettagli sui prezzi, vedere la Tabella 3.
Per i dettagli sui prezzi, vedere Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.
- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 1b: 131,072
- 3b: 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Pre-addestrato su fino a 9 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I logit dei modelli Llama 3.1 8B e 70B sono stati incorporati nella fase di preaddestramento dello sviluppo del modello, dove gli output (logit) di questi modelli più grandi sono stati utilizzati come target a livello di token. Nel post-training, si è allineato il modello pre-addestrato utilizzando Supervised Fine-Tuning (SFT), Rejection Sampling (RS) e Direct Preference Optimization (DPO).
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.2 Vision Instruct
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. I modelli llama-3-2-11b-vision-instruct e llama-3-2-90b-vision-instruct sono costruiti per casi d'uso che prevedono l'inserimento di immagini e l'uscita di testo, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia di immagini.
- Utilizzo
Genera output di dialogo come un chatbot ed è in grado di eseguire compiti di computer vision, tra cui classificazione, rilevamento e identificazione di oggetti, trascrizione da immagine a testo (compresa la scrittura a mano), Q&A contestuale, estrazione ed elaborazione di dati, confronto di immagini e assistenza visiva personale. Utilizza un formato di richiesta specifico per il modello.
- Dimensioni
- 11 miliardi di parametri
- 90 miliardi di parametri
- Livello di prezzo API
- 11b: Classe 9
- 90b: Classe 10
Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 11b: 131,072
- 90b: 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.
- Informazioni sulla messa a punto delle istruzioni
i modelli Llama 3.2 Vision utilizzano pesi di adattamento per il ragionamento delle immagini che vengono addestrati separatamente dai pesi del modello linguistico principale. Questa separazione preserva la conoscenza generale del modello e lo rende più efficiente sia in fase di preaddestramento sia in fase di esecuzione. I modelli dell' Llama 3.2 Vision , che hanno richiesto molte meno risorse di calcolo rispetto a quelle necessarie per addestrare il solo modello di base dell' Llama 3.1, sono stati preaddestrati su 6 miliardi di coppie di immagini e testi. 70B Llama 3.2 I modelli funzionano in modo efficiente anche perché possono attingere a più risorse di calcolo per il ragionamento delle immagini solo quando l'input lo richiede.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
llama-guard-3-11b-vision
La collezione di modelli di fondazione Llama 3.2 di 'Meta è fornita da 'Meta. Il modello llama-guard-3-11b-vision è un'evoluzione multimodale del modello Llama-Guard-3 di solo testo. Il modello può essere utilizzato per classificare come sicuri o non sicuri i contenuti delle immagini e dei testi inseriti dagli utenti (classificazione dei messaggi).
- Utilizzo
Usate il modello per verificare la sicurezza dell'immagine e del testo in un prompt immagine-testo.
- Dimensione
- 11 miliardi di parametri
- Livello di prezzo API
Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM e distribuito su hardware multitenant.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192. I token conteggiati per un'immagine inviata al modello non sono inclusi nella lunghezza della finestra di contesto.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese con input di solo testo. Inglese solo quando un'immagine è inclusa nell'input.
- Informazioni sulla messa a punto delle istruzioni
Modello pre-addestrato che viene messo a punto per la classificazione della sicurezza dei contenuti. Per ulteriori informazioni sui tipi di contenuti classificati come non sicuri, consultare la scheda modello.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3.1 8b
La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. Il modello base di Llama 3.1 è un modello multilingue che supporta l'uso degli strumenti e ha capacità di ragionamento complessivamente più forti.
- Utilizzo
- Utilizzabile per la sintesi di testi lunghi e con agenti conversazionali multilingue o assistenti alla codifica.
- Dimensione
- 8 miliardi di parametri
- Livello di prezzo API
- Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
- Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Modello di architettura
- Solo decoder
- Licenza
- Ulteriori informazioni
- Leggete le seguenti risorse:
Llama 3.1 Instruct
La collezione di modelli di fondazione Llama 3.1 di 'Meta è fornita da 'Meta. I modelli di base di Llama 3.1 sono modelli generativi di solo testo preaddestrati e ottimizzati per i casi di dialogo multilingue. I modelli utilizzano la messa a punto supervisionata e l'apprendimento per rinforzo con il feedback umano per allinearsi alle preferenze umane di disponibilità e sicurezza.
Il modello " llama-3-405b-instruct " è il più grande modello di fondazione open source di " Meta" fino ad oggi. Questo modello di base può essere utilizzato anche come generatore di dati sintetici, come giudice di classificazione dei dati post-formazione o come modello di insegnante/supervisore in grado di migliorare le capacità specialistiche in modelli derivati più facili da dedurre.
- Utilizzo
Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensioni
- 8 miliardi di parametri
- 70 miliardi di parametri
- 405 miliardi di parametri
- Livello di prezzo API
- 8b: Classe 1
- 70b: Classe 2
- 405b: Classe 3 (ingresso), Classe 7 (uscita)
Per i dettagli sui prezzi, vedere la Tabella 3.
Per i dettagli sui prezzi per la distribuzione dei modelli 8b e 70b su richiesta, vedere la Tabella 5.
- Disponibilità
- 405b: Fornito da IBM distribuito su hardware multitenant.
- 8b e 70b : Distribuzione su richiesta per l'uso dedicato.
Le distribuzioni IBM dei modelli di fondazione 8b e 70b sono deprecate. Per maggiori dettagli, vedere il ciclo di vita del modello Foundation.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
8b e 70b: 131.072
405b: 16,384
- Sebbene il modello supporti una finestra di contesto lunga 131.072, la finestra è limitata a 16.384 per ridurre il tempo necessario al modello per generare una risposta.
Il numero massimo di nuovi gettoni, ovvero i gettoni generati dai modelli della fondazione per ogni richiesta, è limitato a 4.096.
- Lingue naturali supportate
Inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese
- Informazioni sulla messa a punto delle istruzioni
Llama 3.1 è stato preaddestrato su 15 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e oltre 25 milioni di esempi generati sinteticamente.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 3 Instruct
La famiglia di modelli di fondazione Meta Llama 3 sono modelli di lingue accessibili, aperti e di grandi dimensioni, costruiti con Meta Llama 3 e forniti da Meta su Hugging Face. I modelli di base di Llama 3 sono modelli linguistici perfezionati per l'istruzione, in grado di supportare diversi casi d'uso.
- Utilizzo
Genera output di dialogo come un chatbot.
- Dimensioni
- 8 miliardi di parametri
- 70 miliardi di parametri
- Livello di prezzo API
- 8b: Classe 1
- 70b: Classe 2
Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- Fornito da IBM distribuito su hardware multitenant ( 70b solo nella regione di Sydney).
- Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 8b: 8,192
- 70b: 8,192
Nota: Il numero massimo di nuovi token, ovvero i token generati dai modelli di fondazione per ogni richiesta, è limitato a 4.096.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Llama 3 presenta miglioramenti nelle procedure post-formazione che riducono i tassi di falso rifiuto, migliorano l'allineamento e aumentano la diversità nell'output del modello di fondazione. Il risultato è una migliore capacità di ragionamento, di generazione del codice e di seguire le istruzioni. Llama 3 ha più gettoni di formazione ( 15T ) che si traducono in una migliore comprensione della lingua.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Llama 2 Chat
I modelli dell' Llama 2 Chat, sono forniti da Meta su Hugging Face. I modelli perfezionati sono utili per la generazione di chat. I modelli vengono preaddestrati con dati online disponibili pubblicamente e perfezionati utilizzando l'apprendimento per rinforzo dal feedback umano.
È possibile scegliere di utilizzare la versione del modello a 13 miliardi di parametri o a 70 miliardi di parametri.
- Utilizzo
Genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello.
- Dimensione
- 13 miliardi di parametri
- 70 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3 e la Tabella 5.
- Disponibilità
- 13b
- Fornito da IBM e distribuito su hardware multitenant
- Distribuzione su richiesta per uso dedicato
- 70b
- Distribuzione su richiesta per uso dedicato
La distribuzione fornita da IBM di questo modello di fondazione è deprecata. Vedere il ciclo di vita del modello Foundation.
- 13b
- Provalo
Sperimentare con i campioni:
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita)
- 13b: 4,096
- 70b: 4,096
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Llama 2 è stato preaddestrato su 2 trilioni di token di dati provenienti da fonti pubblicamente disponibili. I dati per la messa a punto includono set di istruzioni disponibili pubblicamente e più di un milione di nuovi esempi annotati da esseri umani.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mistral-large
Mistral Large 2 è una famiglia di modelli linguistici di grandi dimensioni sviluppata da Mistral AI. Il modello della fondazione " mistral-large " parla fluentemente e comprende la grammatica e il contesto culturale di inglese, francese, spagnolo, tedesco e italiano. Il modello di base può anche comprendere decine di altre lingue. Il modello dispone di un'ampia finestra di contesto, che consente di aggiungere documenti di grandi dimensioni come informazioni contestuali nei prompt inviati per i casi d'uso della generazione aumentata dal reperimento (RAG). Il modello di fondazione dell' mistral-large e è efficace in attività programmatiche, come la generazione, la revisione e il commento di codice, la chiamata di funzioni e può generare risultati in formato JSON.
Per ulteriori informazioni su come iniziare, consultare la paginawatsonx.ai sul sito web di 'Mistral AI.
- Utilizzo
Adatto a compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. A causa dell'ampia finestra contestuale del modello, utilizzare il parametro max tokens per specificare un limite di token quando si richiede il modello.
- Livello di prezzo API
Il prezzo per dedurre il modello di infezione dell' Mistral Large e fornito non è assegnato da un moltiplicatore. Vengono utilizzate le seguenti fasce di prezzo speciali:
- Livello di ingresso: Ingresso Mistral Large
- Livello di uscita: Mistral Large
Per i dettagli sui prezzi, vedere la Tabella 3. Per i dettagli sui prezzi per l'implementazione di questo modello su richiesta, consultare la Tabella 5.
Attenzione : questo modello di fondazione prevede un costo aggiuntivo per l'accesso che viene applicato per ogni ora di utilizzo.- Disponibilità
- Fornito da IBM e distribuito su hardware multitenant
- Distribuzione su richiesta per uso dedicato
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo, cinese, giapponese, coreano, portoghese, olandese, polacco e decine di altre lingue.
- Linguaggi di programmazione supportati
Il modello mistral-large è stato addestrato su oltre 80 linguaggi di programmazione, tra cui Python, Java, C, C++, JavaScript, Bash, Swift e Fortran.
- Informazioni sulla messa a punto delle istruzioni
Il modello della fondazione " mistral-large " è pre-addestrato su diversi set di dati come testo, codebase e dati matematici provenienti da vari settori.
- Modello di architettura
Solo decoder
- Licenza
Per le condizioni d'uso, comprese le informazioni sulle protezioni contrattuali relative all'indennizzo limitato, consultare le Condizioni d'uso.
- Ulteriori informazioni
- Leggete le seguenti risorse:
mistral-large-instruct-2411
Il modello della fondazione " mistral-large-instruct-2411 " di " Mistral AI " appartiene alla famiglia di modelli " Mistral Large 2 ". Il modello è specializzato in ragionamento, conoscenza e codifica. Il modello estende le capacità del modello di base dell' Mistral-Large-Instruct-2407, per includere una migliore gestione di contesti prompt lunghi, istruzioni prompt di sistema e richieste di chiamata di funzioni.
- Utilizzo
Il modello della fondazione " mistral-large-instruct-2411 " è multilingue, esperto in codifica, incentrato sugli agenti e aderisce ai prompt di sistema per aiutare nei compiti di generazione aumentata di recupero e in altri casi d'uso in cui è necessario gestire prompt con un ampio contesto.
- Dimensione
123 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 5.
Attenzione : questo modello di fondazione prevede un costo aggiuntivo per l'accesso che viene applicato per ogni ora di utilizzo.- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
È in grado di gestire più lingue ed è particolarmente forte in inglese, francese, tedesco, spagnolo, italiano, portoghese, cinese, giapponese, coreano, arabo e hindi.
- Linguaggi di programmazione supportati
Il modello della fondazione " mistral-large-instruct-2411 " è stato addestrato su oltre 80 linguaggi di programmazione, tra cui " Python ", Java, C, C++, " JavaScript, " Bash, Swift e " Fortran ".
- Informazioni sulla messa a punto delle istruzioni
Il modello di fondazione dell' mistral-large-instruct-2411, estende il modello di fondazione dell' Mistral-Large-Instruct-2407, da Mistral AI. La formazione ha migliorato le capacità di ragionamento del modello. L'addestramento si è concentrato anche sulla riduzione delle allucinazioni, mettendo a punto il modello in modo che sia più cauto e perspicace nelle sue risposte e che riconosca quando non riesce a trovare soluzioni o non ha informazioni sufficienti per fornire una risposta sicura.
- Licenza
Per le condizioni d'uso, comprese le informazioni sulle protezioni contrattuali relative all'indennizzo limitato, consultare le Condizioni d'uso.
- Ulteriori informazioni
- Leggete le seguenti risorse:
mistral-nemo-instruct-2407
Il modello della fondazione " mistral-nemo-instruct-2407 " dell' Mistral AI , è stato costruito in collaborazione con l' NVIDIA. Mistral NeMo si comporta in modo eccezionale per quanto riguarda il ragionamento, la conoscenza del mondo e l'accuratezza della codifica, soprattutto per un modello di queste dimensioni.
- Utilizzo
- Il modello " Mistral NeMo è multilingue e viene addestrato sulla chiamata di funzione.
- Dimensione
- 12 miliardi di parametri
- Livello di prezzo API
- Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 131,072
- Lingue naturali supportate
- È in grado di gestire più lingue ed è particolarmente forte in inglese, francese, tedesco, spagnolo, italiano, portoghese, cinese, giapponese, coreano, arabo e hindi.
- Linguaggi di programmazione supportati
- Il modello " Mistral NeMo è stato addestrato su diversi linguaggi di programmazione.
- Informazioni sulla messa a punto delle istruzioni
- Mistral NeMo ha avuto una fase avanzata di messa a punto e allineamento.
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
mistral-small-24b-instruct-2501
Mistral Small 3 è un modello base economico, veloce e affidabile sviluppato da Mistral AI. Il modello dell' mistral-small-24b-instruct-2501 e è stato perfezionato e funziona bene in compiti che richiedono una certa capacità di ragionamento, come l'estrazione di dati, la sintesi di un documento o la scrittura di descrizioni. Costruito per supportare le applicazioni agenziali, con l'aderenza ai prompt di sistema e alle chiamate di funzione con generazione di output JSON.
Per ulteriori informazioni su come iniziare, consultare la paginawatsonx.ai sul sito web di 'Mistral AI.
- Utilizzo
Adatto agli agenti di conversazione e alle chiamate funzionali.
- Livello di prezzo API
Classe 9
Per i dettagli sui prezzi, vedere la Tabella 3.
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant solo nella regione di Francoforte.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 32,768
Nota:
- Il numero massimo di nuovi token, ovvero i token generati dal modello di fondazione per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo, cinese, giapponese, coreano, portoghese, olandese, polacco e decine di altre lingue.
- Linguaggi di programmazione supportati
Il modello mistral-small-24b-instruct-2501 è stato addestrato su oltre 80 linguaggi di programmazione, tra cui Python, Java, C, C++, JavaScript, Bash, Swift e Fortran.
- Informazioni sulla messa a punto delle istruzioni
Il modello della fondazione " mistral-small-24b-instruct-2501 " è pre-addestrato su diversi set di dati come testo, codebase e dati matematici provenienti da vari settori.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mixtral-8x7b-base
Il modello della fondazione " mixtral-8x7b-base " è fornito da Mistral AI. Il modello della fondazione " mixtral-8x7b-base " è una rete generativa di esperti a miscela sparsa che raggruppa i parametri del modello e quindi, per ogni token, sceglie un sottoinsieme di gruppi (denominati esperti ) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.
- Utilizzo
È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica.
- Dimensione
46.46.7 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 32,768
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mixtral-8x7b-instruct-v01
Il modello della fondazione " mixtral-8x7b-instruct-v01 " è fornito da Mistral AI. Il modello della fondazione " mixtral-8x7b-instruct-v01 " è una rete generativa di miscela di esperti sparsa preaddestrata che raggruppa i parametri del modello e quindi per ogni token sceglie un sottoinsieme di gruppi (denominati esperti ) per elaborare il token. Di conseguenza, ogni token ha accesso a 47 miliardi di parametri, ma utilizza solo 13 miliardi di parametri attivi per l'inferenza, riducendo così i costi e la latenza.
- Utilizzo
È adatto a molti compiti, tra cui classificazione, riassunto, generazione, creazione e conversione di codici e traduzione linguistica. A causa della finestra contestuale insolitamente grande del modello, usare il parametro max tokens per specificare un limite di token quando si richiede il modello.
- Dimensione
46.46.7 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 3.
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 32,768
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 16.384.
- Lingue naturali supportate
Inglese, francese, tedesco, italiano, spagnolo
- Informazioni sulla messa a punto delle istruzioni
Il modello di fondazione Mixtral è pre-addestrato su dati Internet. Il modello della fondazione " Mixtral 8x7B Instruct " è messo a punto per seguire le istruzioni.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
mt0-xxl-13b
Il modello dell' mt0-xxl-13b e è fornito da BigScience su Hugging Face. Il modello è ottimizzato per supportare compiti di generazione e traduzione linguistica in inglese, in lingue diverse dall'inglese e con prompt multilingue.
Uso: Uso generale con richieste di " zero- o " few-shot. Per i compiti di traduzione, includete un punto per indicare la fine del testo che volete tradurre, altrimenti il modello potrebbe continuare la frase invece di tradurla.
- Dimensione
- 13 miliardi di parametri
- Livello di prezzo API
- Classe 2. Per i dettagli sui prezzi, vedere la Tabella 5.
- Disponibilità
- Distribuito su richiesta per un uso dedicato.
- Provalo
- Sperimentate i seguenti campioni:
- Lingue naturali supportate
- Multilingua
- Limiti dei gettoni
- Lunghezza della finestra contestuale (ingresso + uscita): 4,096
- Lingue naturali supportate
- Il modello è stato preaddestrato su dati multilingue in 108 lingue e perfezionato con dati multilingue in 46 lingue per eseguire compiti multilingue.
- Informazioni sulla messa a punto delle istruzioni
- BigScience pubblica i dettagli del suo codice e dei suoi set di dati.
- Modello di architettura
- Codificatore-decodificatore
- Licenza
- licenzaApache 2.0
- Ulteriori informazioni
- Leggete le seguenti risorse:
pixtral-12b
Pixtral 12B è un modello multimodale sviluppato da Mistral AI. Il modello della fondazione " pixtral-12b " è addestrato a comprendere sia le immagini naturali che i documenti ed è in grado di acquisire immagini alla loro risoluzione e proporzioni naturali, fornendo flessibilità sul numero di token utilizzati per elaborare un'immagine. Il modello di base supporta più immagini nella sua lunga finestra di contesto. Il modello è efficace in compiti multimodali di tipo image-in e text-out ed eccelle nel seguire le istruzioni.
- Utilizzo
- Comprensione di grafici e figure, risposta a domande su documenti, ragionamento multimodale e seguire le istruzioni.
- Dimensione
- 12 miliardi di parametri
- Livello di prezzo API
- Classe 9. Per i dettagli sui prezzi, vedere la Tabella 3.
Disponibilità
- Provalo
- Limiti dei gettoni
Lunghezza della finestra contestuale (ingresso + uscita): 128,000
Il numero massimo di nuovi token, ovvero i token generati dai modelli della fondazione per ogni richiesta, è limitato a 8.192.
- Lingue naturali supportate
Inglese
- Informazioni sulla messa a punto delle istruzioni
Il modello pixtral-12b viene addestrato con dati di immagini e testi interlacciati e si basa sul modello Mistral Nemo con un codificatore di visione da 400 milioni di parametri addestrato da zero.
- Modello di architettura
Solo decoder
- Licenza
- Ulteriori informazioni
Leggete le seguenti risorse:
Tutti i modelli di fondazione deprecati sono evidenziati con un'icona di avvertimento deprecata . Per ulteriori informazioni sulla dismissione, compresi i dettagli sul ritiro dei modelli Foundation, consultare il ciclo di vita dei modelli Foundation.
Ulteriori informazioni
Argomento principale: Modelli di fondazioni supportate