IBM modelli di fondazione
In IBM watsonx.ai, puoi utilizzare i modelli di base IBM creati con integrità e progettati per il business.
La famiglia Granite di modelli di base IBM include modelli di decodificazione che possono prevedere e generare il linguaggio in modo efficiente.
I modelli sono stati creati con dati attendibili che presentano le seguenti caratteristiche:
- Provenienti da set di dati di qualità in settori quali finanza (SEC Filings), diritto (Free Law), tecnologia (Stack Exchange), scienza ( arXiv, DeepMind Matematica), letteratura (Progetto Gutenberg ( PG-19)) e altro ancora.
- Conformità con rigorosi standard di governance e di gestione dei dati IBM .
- Scrubbed di odio, abuso e profanità, duplicazione dei dati e URL blocklist, tra le altre cose.
IBM si impegna a sviluppare un'intelligenza artificiale aperta, affidabile, mirata e potenziata. Per ulteriori informazioni sulle tutele contrattuali relative all'indennizzo di IBM, consultare il Contratto di collaborazione con il clienteIBM e la descrizione del servizioIBM watsonx.ai
I seguenti modelli di fondazioni di IBM sono disponibili in watsonx.ai:
- granite-3-2-8b-instruct
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-7b-lab
- granite-8b-japanese
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
- granite-vision-3-2-2b
Per informazioni dettagliate sui modelli di encoder sviluppati da IBM, vedere Modelli di encoder di base supportati.
Per i dettagli sui modelli di fondazioni di terze parti, vedere Modelli di fondazioni di terze parti.
Come scegliere un modello
Per esaminare i fattori che possono aiutarti a scegliere un modello, come le attività e le lingue supportate, vedi Scelta di un modello e Benchmark dei modelli Foundation.
Dettagli del modello di fondazione
I modelli di base in watsonx.ai supportano una serie di casi d'uso sia per i linguaggi naturali che per i linguaggi di programmazione. Per vedere i tipi di attività che questi modelli possono svolgere, rivedere e provare i suggerimenti di esempio.
granite-3-2-8b-instruct
Granite 3.2 Instruct è un modello di base a lungo termine che è stato messo a punto per migliorare le capacità di ragionamento. La capacità di ragionamento è configurabile, il che significa che è possibile controllare quando viene applicato il ragionamento.
- Utilizzo
In grado di svolgere attività generative comuni, tra cui attività relative al codice, chiamata di funzioni e dialoghi multilingue. È specializzato in ragionamenti e compiti a lungo contesto, come riassumere documenti lunghi o trascrizioni di riunioni e rispondere a domande con risposte che sono fondate nel contesto fornito da documenti lunghi.
- Dimensione
8 miliardi di parametri
- Livello di prezzo API
Classe 12
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant.
- Limiti simbolici
Lunghezza finestra di contesto (input + output): 131.072
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 16.384.
- Linguaggi naturali supportati
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese e cinese
- Informazioni di messa a punto delle istruzioni
Costruito sulla base di Granite-3.1-8B-Instruct, il modello è stato addestrato utilizzando un mix di set di dati open source con licenza permissiva e dati sintetici generati internamente e progettati per attività di ragionamento.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
Granite Instruct 3.1 modelli
I modelli della fondazione " Granite Instruct " appartengono alla famiglia di modelli " IBM Granite ". I modelli di fondazione granite-3-2b-instruct e granite-3-8b-instruct sono Granite 3.1 Istruzioni per i modelli di fondazione. Questi modelli si basano su iterazioni precedenti per fornire un migliore supporto per le attività di codifica e le funzioni intrinseche per gli agenti.
- Utilizzo
Granite Instruct i modelli di base sono progettati per eccellere in attività che seguono istruzioni, come la sintesi, la risoluzione di problemi, la traduzione di testi, il ragionamento, le attività di codifica, la chiamata di funzioni e altro ancora.
- Dimensioni
- 2 miliardi di parametri
- 8 miliardi di parametri
- Livello di prezzo API
- 2b: Classe C1
- 8b: Classe 12
Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant.
- Provalo
Sperimenta con dei campioni:
- Limiti simbolici
Lunghezza finestra contesto (input + output)
- 2b: 131.072
- 8b: 131.072
Il numero massimo di nuovi token, ovvero i token generati dal modello di fondazione per ogni richiesta, è limitato a 8.192.
- Linguaggi naturali supportati
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).
- Linguaggi di programmazione supportati
I modelli dell' Granite Instruct e sono addestrati con codice scritto in 116 linguaggi di programmazione.
- Informazioni di messa a punto delle istruzioni
I modelli di " Granite Instruct " sono ottimizzati per l'apprendimento automatico. I modelli di base di " Granite Instruct " sono addestrati su oltre 12 trilioni di token con una combinazione di dati di istruzioni proprietari e open source con licenza permissiva.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-3-8b-base
Il modello base della fondazione dell' Granite 8b , fa parte della famiglia di modelli dell' IBM Granite. Il modello viene addestrato su 10 trilioni di token provenienti da diversi domini e poi ulteriormente addestrato su 2 trilioni di token di dati di alta qualità, scelti con cura per migliorare le prestazioni del modello su compiti specifici.
- Utilizzo
Il modello base di fondazione dell' Granite 3.0 e è un modello di base che è possibile personalizzare per creare modelli specializzati per scenari applicativi specifici.
- Dimensione
8 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 4.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Limiti simbolici
Lunghezza finestra contesto (input + output): 4.096
- Linguaggi naturali supportati
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese, cinese (semplificato).
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-7b-lab
Il modello della fondazione " granite-7b-lab " è fornito da IBM. Il modello della fondazione " granite-7b-lab " utilizza un nuovo metodo di messa a punto dell'allineamento sviluppato dalla " IBM Research". chatBots,, o LAB, è un metodo per aggiungere nuove competenze ai modelli di base esistenti generando dati sintetici per le competenze e quindi utilizzando tali dati per mettere a punto il modello di base.
- Utilizzo
Supporta attività generiche, tra cui estrazione, riepilogo, classificazione e altro ancora. Seguire le istruzioni per suggerimenti sull'utilizzo. Per ulteriori informazioni, consultare Prompting granite-7b-lab.
- Dimensione
7 miliardi di parametri
- Livello di prezzo API
Per i dettagli sui prezzi, vedere la Tabella 4.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti simbolici
Lunghezza finestra contesto (input + output): 8.192
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 4.096.
- Linguaggi naturali supportati
Inglese
- Informazioni di messa a punto delle istruzioni
Il modello della fondazione " granite-7b-lab " viene addestrato in modo iterativo utilizzando la metodologia dell'allineamento su larga scala per i chatbot (LAB).
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-8b-japanese
Il modello granite-8b-japanese è fornito da IBM. Il modello della fondazione " granite-8b-japanese " è una variante istruita inizializzata dal modello " Granite " pre-addestrato per il giapponese e addestrato per comprendere e generare testo giapponese.
- Utilizzo
Utile per attività generiche in lingua giapponese, come classificazione, estrazione, domande e risposte, e per la traduzione tra giapponese e inglese.
- Dimensione
8 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
- Fornito da IBM distribuito su hardware multi-tenant nel data center di Tokyo.
- Distribuzione su richiesta per uso dedicato, tranne nel centro dati di Francoforte.
- Provalo
Sperimenta con dei campioni:
- Limiti simbolici
Lunghezza finestra contesto (input + output): 4.096
- Linguaggi naturali supportati
Inglese, Giapponese
- Informazioni di messa a punto delle istruzioni
La famiglia di modelli " Granite " viene addestrata su set di dati rilevanti per l'azienda provenienti da cinque settori: Internet, accademico, codice, legale e finanziario. Il modello di traduzione automatica ( granite-8b-japanese ) è stato pre-addestrato su un trilione di token di testo inglese e un 0.5 lione di token di testo giapponese.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-13b-chat-v2
Il modello granite-13b-chat-v2 è fornito da IBM. Questo modello è ottimizzato per i casi d'uso del dialogo e funziona bene con le applicazioni di chat e di agenti virtuali.
Utilizzo : genera output di dialogo come un chatbot. Utilizza un formato di richiesta specifico per il modello. Include una parola chiave nel suo output che può essere utilizzata come sequenza di stop per produrre risposte succinte. Seguire le istruzioni per suggerimenti sull'utilizzo. Per ulteriori informazioni, consultare Prompting granite-13b-chat-v2.
- Dimensione
13 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2 e la Tabella 4.
- Disponibilità
Distribuzione su richiesta per uso dedicato.
- Provalo
- Limiti simbolici
Lunghezza finestra contesto (input + output): 8.192
- Linguaggi naturali supportati
Inglese
- Informazioni di messa a punto delle istruzioni
La famiglia di modelli " Granite " viene addestrata su set di dati rilevanti per l'azienda provenienti da cinque settori: Internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti a revisioni di governance dei dati ( IBM ) e vengono filtrati dal testo contrassegnato come offensivo, ingiurioso o blasfemo dal filtro HAP ( IBM ). IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-13b-instruct-v2
Il modello granite-13b-instruct-v2 è fornito da IBM. Questo modello è stato addestrato con dati finanziari di alta qualità ed è un modello dalle prestazioni eccellenti nelle attività finanziarie. I compiti finanziari valutati includono: fornire punteggi di sentiment per le trascrizioni delle chiamate su azioni e utili, classificare i titoli delle notizie, estrarre valutazioni del rischio di credito, riassumere testi finanziari in forma estesa e rispondere a domande finanziarie o relative alle assicurazioni.
- Utilizzo
Supporta attività di estrazione, riepilogo e classificazione. Genera output utili per le attività finanziarie. Utilizza un formato di richiesta specifico per il modello. Accetta caratteri speciali, che possono essere utilizzati per generare output strutturati.
- Dimensione
13 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2 e la Tabella 4.
- Disponibilità
- Fornito da IBM distribuito su hardware multi-tenant.
- Distribuzione su richiesta per uso dedicato.
- Provalo
Sperimenta con dei campioni:
- Esempio di attività generativa: creazione di un elenco numerato su un tema particolare
- Esempio di attività di risposta alle domande: risposta a una domanda basata su un documento
- Esempio di notebook Python: Utilizzare watsonx e un modello di Granite per analizzare la soddisfazione dei clienti del noleggio auto a partire da un testo
- Limiti simbolici
Lunghezza finestra contesto (input + output): 8.192
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 4.096.
- Linguaggi naturali supportati
Inglese
- Informazioni di messa a punto delle istruzioni
La famiglia di modelli " Granite " viene addestrata su set di dati rilevanti per l'azienda provenienti da cinque settori: Internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti a revisioni di governance dei dati ( IBM ) e vengono filtrati dal testo contrassegnato come offensivo, ingiurioso o blasfemo dal filtro HAP ( IBM ). IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
granite-20b-multilingual
Un modello base della famiglia Volvo ( IBM ) Granite. Il modello della fondazione " granite-20b-multilingual " si basa sul modello " Granite " Base 20 miliardi ed è addestrato a comprendere e generare testo in inglese, tedesco, spagnolo, francese e portoghese.
- Utilizzo
Inglese, tedesco, spagnolo, francese e portoghese. Risposta a domande in ambito chiuso, sintesi, generazione, estrazione e classificazione.
Nota:Questo modello di base supporta le competenze fornite dalla comunità open source di InstructLab. - Dimensione
20 miliardi di parametri
- Livello di prezzo API
Classe 1. Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
- Fornito da IBM distribuito su hardware multi-tenant.
- Distribuzione su richiesta per uso dedicato, tranne nel centro dati di Francoforte.
L'implementazione fornita da Volvo ( IBM ) di questo modello di fondazione è obsoleta. Vedi Ciclo di vita del modello di fondazione.
- Provalo
Esempio di prompt: Tradurre un testo dal francese all'inglese
- Limiti simbolici
Lunghezza finestra contesto (input + output): 8.192
- Linguaggi naturali supportati
Inglese, tedesco, spagnolo, francese e portoghese
- Informazioni di messa a punto delle istruzioni
La famiglia di modelli " Granite " viene addestrata su set di dati rilevanti per l'azienda provenienti da cinque settori: Internet, accademico, codice, legale e finanziario. I dati utilizzati per addestrare i modelli vengono prima sottoposti a revisioni di governance dei dati ( IBM ) e vengono filtrati dal testo contrassegnato come offensivo, ingiurioso o blasfemo dal filtro HAP ( IBM ). IBM condivide informazioni sui metodi di formazione e sui set di dati utilizzati.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
Granite Code modelli
Modelli di base della famiglia Volvo ( IBM, Granite ). I modelli della fondazione " Granite Code " sono modelli che seguono le istruzioni e vengono messi a punto utilizzando una combinazione di commit di " Git " abbinati a istruzioni umane e set di dati di istruzioni di codice generato sinteticamente open source.
Il modello della fondazione granite-8b-code-instruct v2.0.0 può elaborare prompt più grandi con una maggiore lunghezza della finestra di contesto.
- Utilizzo
I seguenti modelli di base dell' Granite Code e sono progettati per rispondere alle istruzioni relative alla codifica e possono essere utilizzati per costruire assistenti di codifica:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
I seguenti modelli di base di Granite Code sono versioni ottimizzate per l'istruzione del modello di base di granite-20b-code-base, progettati per attività di generazione da testo a SQL.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- Dimensioni
- 3 miliardi di parametri
- 8 miliardi di parametri
- 20 miliardi di parametri
- 34 miliardi di parametri
- Livello di prezzo API
Classe 1.
Per i dettagli sui prezzi dei modelli forniti con codice, vedere la Tabella 2.
Per i dettagli sui prezzi dei modelli deploy on demand, vedere la Tabella 4.
- Disponibilità
Tutti i modelli di codice, eccetto i modelli text-to-SQL: forniti da IBM distribuiti su hardware multi-tenant.
Tutti i modelli di codice, compresi i modelli di base da testo a SQL: distribuzione su richiesta per uso dedicato.
- Provalo
Sperimenta con dei campioni:
- Limiti simbolici
Lunghezza finestra contesto (input + output)
granite-3b-code-instruct : 128.000
Quando il modello viene eseguito solo nell'ambiente multi-tenant, viene applicato un limite massimo di nuovi token, il che significa che i token generati dal modello di base per ogni richiesta sono limitati a 8.192.
granite-8b-code-instruct : 128.000
Quando il modello viene eseguito solo nell'ambiente multi-tenant, viene applicato un limite massimo di nuovi token, il che significa che i token generati dal modello di base per ogni richiesta sono limitati a 8.192.
granite-20b-code-instruct : 8.192
Il numero massimo di nuovi token, ovvero i token generati dal modello di fondazione per ogni richiesta, è limitato a 4.096.
granite-20b-code-base-schema-linking : 8.192
granite-20b-code-base-sql-gen : 8.192
granite-34b-code-instruct : 8.192
- Linguaggi naturali supportati
Inglese
- Linguaggi di programmazione supportati
I modelli della fondazione " Granite Code " supportano 116 linguaggi di programmazione, tra cui " Python ", Javascript, Java, C++, Go e Rust. Per l'elenco completo, consultare IBM modelli di fondazione.
- Informazioni di messa a punto delle istruzioni
Questi modelli sono stati messi a punto a partire da modelli di bas Granite Code i, sulla base di una combinazione di dati di istruzioni concessi in licenza permissiva per migliorare le capacità di seguire le istruzioni, comprese le capacità di ragionamento logico e di risoluzione dei problemi.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
- Carta di ricerca sui modelli di codiceGranite
- Scalare i modelli di codice dell Granite
- 3b Scheda modello (Multitenant)
- 3b Scheda modello (dedicata)
- 8b Scheda modello (Multitenant)
- 8b Scheda modello (dedicata)
- 20b Scheda modello (Multitenant)
- 20b Scheda modello (dedicata)
- 20b schema di base collegamento scheda modello (dedicato)
- 20b base SQL scheda modello gen (dedicata)
- 34b Scheda modello (Multitenant)
- 34b Scheda modello (dedicata)
Granite Guardian modelli
I modelli della fondazione " Granite Guardian " appartengono alla famiglia di modelli " IBM Granite ". I modelli della fondazione " granite-guardian-3-2b " e " granite-guardian-3-8b " sono modelli di perfezionamento dell' Granite Instruct , progettati per rilevare i rischi nelle istruzioni e nelle risposte. I modelli di base aiutano a individuare i rischi lungo molte dimensioni chiave nell'AI Risk Atlas.
La versione di generazione dell' 3.1 e dei modelli viene addestrata su una combinazione di dati sintetici aggiuntivi e annotati dall'uomo per migliorare le prestazioni per i rischi legati all'allucinazione e al jailbreak.
- Utilizzo
Granite Guardian i modelli di base sono progettati per rilevare i rischi legati ai danni all'interno di un testo o di una risposta modello (come guardrail) e possono essere utilizzati in casi di utilizzo di generazione aumentata di recupero per valutare la rilevanza del contesto (se il contesto recuperato è rilevante per la query), la fondatezza (se la risposta è accurata e fedele al contesto fornito) e la rilevanza della risposta (se la risposta risponde direttamente alla query dell'utente).
- Dimensioni
- 2 miliardi di parametri
- 8 miliardi di parametri
- Livello di prezzo API
- 2b: Classe C1
- 8b: Classe 12
Per i dettagli sui prezzi, vedere la Tabella 2.
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant.
- Provalo
Sperimenta con dei campioni:
- Limiti simbolici
Lunghezza finestra contesto (input + output)
- 2b: 131.072
- 8b: 131.072
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 8.192.
- Linguaggi naturali supportati
Inglese
- Informazioni di messa a punto delle istruzioni
Granite Instruct I modelli di apprendimento profondo ( Granite Guardian ) sono modelli di apprendimento profondo addestrati su una combinazione di dati sintetici e annotati dall'uomo.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
Granite time series modelli
Granite time series Granite i modelli Foundation appartengono alla famiglia di modelli Volvo Construction Equipment ( IBM ). Questi modelli sono modelli compatti e pre-addestrati per la previsione di serie temporali multivariate di IBM Research. Le seguenti versioni sono disponibili per l'uso nella previsione dei dati watsonx.ai:
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
- Utilizzo
È possibile applicare uno di questi modelli preaddestrati ai dati di destinazione per ottenere una previsione iniziale senza dover addestrare il modello sui propri dati. Quando viene fornita una serie di osservazioni storiche di dati temporali, i modelli della fondazione " Granite time series " possono applicare la loro comprensione dei sistemi dinamici per prevedere i valori futuri dei dati. Questi modelli funzionano meglio con punti dati a intervalli di minuti o ore e generano un set di dati di previsione con un massimo di 96 punti dati per canale target.
- Dimensione
1 milione di parametri
- Livello di prezzo API
- Ingresso: Classe 14
- Potenza: Classe 15
Per i dettagli sui prezzi, vedere Misurazione delle unità di risorsa per i modelli di base delle serie temporali.
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant.
- Provalo
- Lunghezza del contesto
Punti dati minimi richiesti per canale nella richiesta API:
- granite-ttm-512-96-r2: 512
- granite-ttm-1024-96-r2: 1.024
- granite-ttm-1536-96-r2: 1.536
- Linguaggi naturali supportati
Inglese
- Informazioni di messa a punto delle istruzioni
I modelli di apprendimento profondo ( Granite time series ) sono stati addestrati su quasi un miliardo di campioni di dati di serie temporali provenienti da vari settori, tra cui l'elettricità, il traffico, la produzione e altro ancora.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
Granite Visione 3.2 2b
Granite Vision 3.2 2b è un modello di base per la conversione di immagini in testo, creato per casi d'uso aziendali. Granite Questo modello di intelligenza artificiale multimodale è in grado di assimilare immagini e testo per svolgere compiti quali la comprensione di tabelle, diagrammi, grafici e altro ancora.
- Utilizzo
Il modello della fondazione " granite-vision-3-2-2b " è progettato per la comprensione visiva dei documenti, consentendo l'estrazione automatica dei contenuti da tabelle, grafici, infografiche, tracciati, diagrammi e altro ancora.
Nota : si raccomanda di utilizzare il modello " granite-vision-3-2-2b " solo con file di immagini per l'elaborazione visiva e la comprensione dei casi d'uso.- Dimensione
2 miliardi di parametri
- Livello di prezzo API
Classe C1
- Disponibilità
Fornito da IBM distribuito su hardware multi-tenant.
- Limiti simbolici
Lunghezza finestra di contesto (input + output): 131.072
Nota: il numero massimo di nuovi token, ovvero i token generati dal modello di base per ogni richiesta, è limitato a 16.384.
- Linguaggi naturali supportati
Inglese, tedesco, spagnolo, francese, giapponese, portoghese, arabo, ceco, italiano, coreano, olandese e cinese
- Informazioni di messa a punto delle istruzioni
Il modello della fondazione " granite-vision-3-2-2b " è stato addestrato su un set di dati curato che segue le istruzioni, comprendente diversi set di dati pubblici e set di dati sintetici su misura per supportare un'ampia gamma di attività di comprensione dei documenti e di immagini in generale. È stato addestrato perfezionando il modello di base dell' granite-3-2b-instruct, con modalità sia di immagine che di testo.
- Architettura del modello
decodificatore
- Licenza
Vedere le descrizioni dei due servizi che compongono watsonx.ai:
IBM -i modelli di fondazione sviluppati sono considerati parte del servizio di assistenza tecnica ( IBM Cloud ). Quando si utilizza un modello di fondazione sviluppato da IBM, fornito su watsonx.ai, si applicano le protezioni contrattuali relative all'indennizzo IBM. Per ulteriori informazioni, consultare l'Accordo di relazione con il cliente ( IBM ) oltre alle descrizioni dei servizi.
- Ulteriori informazioni
- Leggi le seguenti risorse:
I modelli di fondazione obsoleti sono evidenziati con un'icona di avviso di obsolescenza . Per ulteriori informazioni sulla dismissione, compresi i dettagli sul ritiro dei modelli Foundation, vedere Ciclo di vita dei modelli Foundation.