Suggerimento: di tanto in tanto, è necessario eseguire un'azione specifica dopo un aggiornamento. Per visualizzare tutte le azioni richieste, cercare in questa pagina "Azione richiesta".
Settimana conclusa l'11 aprile 2025
Copy link to section
Lavorare con i più recenti modelli multimodali Llama 4 di Meta in watsonx.ai
Copy link to section
7 aprile 2025
È ora possibile utilizzare i più recenti modelli di fondazione multilingua e multimodali di Meta Llama 4 in IBM watsonx.ai. I più recenti modelli di fondazione di Meta utilizzano un'architettura mista di esperti ( MoE ) che è più efficiente dal punto di vista computazionale e utilizza meno risorse per l'addestramento e l'inferenza del modello. I modelli sono nativamente multimodali e sono specializzati nella comprensione di testi e immagini in più lingue.
È ora possibile inserire i seguenti modelli della serie Llama 4:
Aggiungere risposte multiple corrette ai dati di valutazione in un esperimento AutoAI for RAG
Copy link to section
4 aprile 2025
È ora possibile aggiungere più risposte corrette per ogni domanda in un asset di dati di valutazione. Per ulteriori informazioni, vedere Creazione di un esperimento RAG AutoAI.
Rivedere l'importanza dell'impostazione in un esperimento AutoAI per RAG
Copy link to section
4 aprile 2025
Dopo aver eseguito un esperimento RAG su AutoAI, è possibile esaminare l'importanza di ciascuna impostazione per la creazione e la classificazione dei modelli ottimizzati, per comprendere meglio le valutazioni dei modelli. Per ulteriori informazioni, vedere Creazione di un esperimento RAG AutoAI.
Il modello di fondazione codellama-34b-instruct-hf è disponibile per l'implementazione su richiesta
Copy link to section
3 aprile 2025
È ora possibile fare riferimento a codellama-34b-instruct-hf come modello di fondazione deploy on demand. Per ulteriori informazioni, vedi Supported foundation models.
Esaminare i benchmark relativi alla codifica per confrontare i modelli di fondazione
Copy link to section
3 aprile 2025
Esaminate i benchmark dei modelli di fondazione relativi a compiti di codifica come la generazione, la correzione e la spiegazione del codice per conoscere le capacità dei diversi modelli di fondazione del codice prima di provarli. Confrontate le prestazioni dei vari modelli di fondazione sulle attività più importanti per il vostro caso d'uso.
Personalizzare le impostazioni di recupero per un esperimento AutoAI for RAG
Copy link to section
31 marzo 2025
È ora possibile controllare le impostazioni per il recupero dei dati dall'indice vettoriale. È possibile scegliere tra il metodo di recupero a finestra e quello semplice, selezionare il numero di pezzi e impostare la dimensione della finestra per il metodo di recupero a finestra. Per ulteriori informazioni, vedere Personalizzazione delle impostazioni di AutoAI RAG.
Settimana conclusa il 21 marzo 2025
Copy link to section
Lavorare con nuovi modelli di deploy on demand specializzati per le lingue europee in watsonx.ai
Copy link to section
21 marzo 2025
Ora è possibile fare riferimento ai seguenti modelli di fondazione "deploy on demand" di IBM watsonx.ai, specializzati in 24 lingue europee e 11 lingue internazionali:
Abbinare la lingua di input per gli esperimenti di AutoAI
Copy link to section
20 marzo 2025
AutoAI ora rileva automaticamente la lingua usata nei messaggi e istruisce i modelli a rispondere nella stessa lingua. I modelli che non supportano la lingua di input hanno una priorità minore nella ricerca del modello RAG. È possibile disattivare questa impostazione dell'esperimento se si desidera che AutoAI consideri tutti i modelli disponibili e generi risposte solo in inglese. Per ulteriori informazioni, vedere Personalizzazione delle impostazioni di AutoAI RAG.
Il modello di fondazione granite-8b-japanese è deprecato
Copy link to section
19 marzo 2025
Il seguente modello di fondazione granite-8b-japanese è deprecato e sarà ritirato il 6 agosto 2025. Rivedete i suggerimenti che utilizzano questi modelli di base.
I frammenti di codice sono ora disponibili in Decision Optimization esperimenti
Copy link to section
5 marzo 2025
Decision Optimization Quando si costruiscono modelli di simulazione nell'interfaccia utente dell'esperimento, ora è possibile utilizzare frammenti di codice per modelli di simulazione di tipo Python DOcplex o OPL. L'uso di frammenti di codice può rendere più veloce la costruzione di modelli, in quanto è possibile aggiungere e modificare il codice senza dover inserire tutte le righe di codice da zero.
Implementare l' AutoAI, come servizio di intelligenza artificiale, per gli esperimenti RAG Chroma
Copy link to section
27 febbraio 2025
AutoAI per i modelli RAG creati utilizzando il database Chroma in memoria sono ora implementabili come servizio di intelligenza artificiale. Utilizza questo metodo di distribuzione per salvare un modello RAG come risorsa distribuibile, promuoverlo in uno spazio e creare la distribuzione in un'unica operazione. È quindi possibile testare il modello RAG e accedere al punto finale dell'inferenza.
Supporto per IBM Runtime 23.1 in watsonx.ai Runtime e watsonx.ai Studio verranno rimossi il 17 aprile 2025. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a IBM Runtime 24.1.
Inferenza l' Granite 3.2 I modelli Instruct e Vision nella regione di Dallas
Copy link to section
26 febbraio 2025
Il modello della fondazione " granite-3-2-8b-instruct " è un modello di ragionamento con potenti capacità, come la citazione delle fonti e il rilevamento delle allucinazioni. È possibile controllare se il modello condivide il suo processo di pensiero nell'output per bilanciare prestazioni e trasparenza. Questo modello è la versione generalmente disponibile del modello base dell'anteprima tecnica dell' granite-3-2-8b-instruct-preview-rc.
Il modello della fondazione " granite-vision-3-2-2b " è il primo modello di " Granite " multimodale costruito per casi d'uso aziendali. Il modello di base immagine-testo è in grado di assimilare immagini e testo per attività quali la comprensione di grafici, diagrammi, grafici e altro ancora.
La libreria project-lib è deprecata. A partire dalla versione Runtime 25.1, la libreria non sarà inclusa in nessuna nuova versione runtime. Sebbene le versioni runtime esistenti tramite 24.1 continueranno a includere la libreria deprecata, valuta la possibilità di riscrivere il codice per utilizzare la libreria ibm-watson-studio-lib.
Per informazioni su come migrare il codice, vedere:
Distribuire modelli di fondazioni personalizzati con specifiche hardware extra piccole
Copy link to section
20 febbraio 2025
Per risparmiare risorse, è possibile utilizzare modelli di fondazioni personalizzati con specifiche hardware extra-piccole. Utilizza le specifiche hardware dell' gpu_xs e per il parametro " hardware_request " quando distribuisci il tuo modello di fondazione personalizzato con l'API REST. Per ulteriori informazioni, vedere Creazione di una distribuzione per un modello di fondazione personalizzato.
Il modello di base parametrico Granite Code , del valore di 3 miliardi di euro, è disponibile per l'implementazione su richiesta
Copy link to section
20 febbraio 2025
Il modello di fondazione dell' granite-3b-code-instruct, di IBM , è disponibile come modello di fondazione da distribuire su richiesta. Per ulteriori informazioni, vedere Modelli di fondazioni supportate.
Integrare un'implementazione ospitata esistente di IBM OpenPages con watsonx.governance
Copy link to section
13 febbraio 2024
Oltre all'integrazione opzionale di watsonx.governance con la console Governance distribuita con OpenPages as a Service, ora è possibile integrare watsonx.governance con una distribuzione ospitata di IBM OpenPages, su un cloud gestito o su una distribuzione tradizionale in sede. L'integrazione con una versione ospitata di OpenPages richiede il piano Essentials per watsonx.governance.
Distribuire i modelli convertiti da scikit-learn e XGBoost al formato ONNX
Copy link to section
13 febbraio 2024
Ora è possibile implementare modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti da scikit-learn e XGBoost al formato ONNX e utilizzare l'endpoint per l'inferenza. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.
Lavora con i nuovi modelli di distribuzione on demand Granite Code watsonx.ai
Copy link to section
13 febbraio 2025
Utilizza i seguenti modelli di base di Granite Code da IBM per attività di codifica come la scrittura, la conversione e la correzione di codice programmatico:
Guarda e impara a conoscere l' SPSS Modeler, guardando i video aggiornati nei tutorial SPSS Modeler.
Settimana conclusa il 7 febbraio 2025
Copy link to section
Anteprima dell'ultimo modello di fondazione dell' IBM Granite , nella regione di Dallas
Copy link to section
7 febbraio 2025
Prova un'anteprima tecnica del modello di fondazione " granite-3-2-8b-instruct-preview-rc " ora disponibile nella regione di Dallas. Il modello di anteprima dell' Granite 3.2 aggiunge nuove capacità di ragionamento in modo innovativo. La funzione di ragionamento è configurabile, il che significa che è possibile attivare il ragionamento solo per i compiti in cui le informazioni esplicative sono utili nell'output.
La previsione dei dati con i modelli di fondazione delle serie temporali di IBM Granite è ora generalmente disponibile
Copy link to section
6 febbraio 2025
Utilizza il metodo di previsione delle serie temporali dell'API ( watsonx.ai ) per passare le osservazioni dei dati storici a un modello di base delle serie temporali ( IBM Granite ) in grado di prevedere i valori futuri con un'inferenza zero-shot.
IBM watsonx.ai è disponibile nella regione di Toronto
Copy link to section
6 febbraio 2025
Watsonx.ai è ora generalmente disponibile nel centro dati di Toronto, che può essere selezionato come regione preferita al momento dell'iscrizione. Utilizzare un sottoinsieme dei modelli di base forniti per l'inferenza e i modelli di incorporamento per generare incorporazioni di testo e riclassificare i passaggi.
Mistral Large 2 il modello di fondazione è disponibile per l'implementazione su richiesta
Copy link to section
6 febbraio 2025
Il modello di fondazione dell' mistral-large-instruct-2407, di Mistral AI , è disponibile come modello di fondazione da distribuire su richiesta. Per l'accesso a questo modello è previsto un costo orario aggiuntivo. Per ulteriori informazioni sui prezzi, vedere Modelli di fondazione supportati.
Distribuzione e inferenza di nuovi modelli distillati da DeepSeek-R1 su richiesta in watsonx.ai
Copy link to section
3 febbraio 2025
È ora possibile distribuire varianti distillate dei modelli di DeepSeek-R1 su richiesta in watsonx.ai su IBM Cloud. Le varianti del modello DeepSeek-R1 si basano su modelli Llama che vengono messi a punto utilizzando i dati di addestramento generati dal modello DeepSeek-R1.
L'Inventario predefinito sostituisce il Catalogo delle risorse della piattaforma in watsonx.governance
Copy link to section
3 febbraio 2025
È ora disponibile un inventario predefinito per archiviare gli artefatti di watsonx.governance, compresi i casi d'uso dell'intelligenza artificiale, i modelli di terze parti, gli allegati e i report. L'inventario predefinito sostituisce qualsiasi dipendenza precedente da Platform access catalog o IBM Knowledge Catalog per l'archiviazione degli artefatti di governance.
Studio di valutazione disponibile sul centro dati di Sydney
Copy link to section
3 febbraio 2025
Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.
Costruire e distribuire agenti AI nel nuovo Agent Lab (beta)
Copy link to section
30 gennaio 2025
È ora possibile creare e distribuire agenti AI per rendere le applicazioni più flessibili e dinamiche utilizzando l'interfaccia utente Agent Lab. È possibile configurare l'agente in modo che prenda decisioni ed esegua attività utilizzando un framework di agente, un modello di base e strumenti esterni specificati nelle impostazioni dell'agente.
Quando si utilizza l'Agent Lab per costruire le applicazioni di intelligenza artificiale in watsonx.ai, le applicazioni vengono distribuite come servizi di intelligenza artificiale. È possibile scegliere di distribuire la soluzione direttamente dall'interfaccia utente o di esportare la soluzione in un blocco note modificabile in Python che distribuisce il servizio AI.
Un nuovo e potente modello di fondazione Mistral Large 2 e è disponibile per l'implementazione su richiesta
Copy link to section
30 gennaio 2025
Distribuisci il modello di base dell' mistral-large-instruct-2411, disponibile su Mistral AI , su hardware dedicato ad uso esclusivo della tua organizzazione. Questo ultimo modello di base migliora il modello di base dell' Mistral-Large-Instruct-2407, aggiungendo una migliore gestione dei contesti di prompt lunghi, il follow-up delle istruzioni di prompt di sistema e la chiamata delle funzioni.
A differenza di altri modelli di fondazione deploy on demand, per accedere al modello di fondazione hosted the mistral-large-instruct-2411 è previsto un costo orario aggiuntivo. Per ulteriori informazioni sui prezzi, vedere Modelli di fondazione supportati.
Inferenza il modello di fondazione Mistral Small 3 nella regione di Francoforte
Copy link to section
30 gennaio 2025
Il modello di fondazione dell' mistral-small-24b-instruct-2501, di Mistral AI , è disponibile e ospitato su hardware multi-tenant pronto all'uso. Il modello Mistral Small 3 è un'ottima scelta per i flussi di lavoro chat grazie alle seguenti caratteristiche:
Funzionalità agenziali con chiamata di funzioni native e generazione di output JSON.
Capacità di conversazione e di ragionamento all'avanguardia.
Mantiene una forte aderenza e supporto alle richieste del sistema.
Supporta decine di lingue, tra cui inglese, francese, tedesco, spagnolo, italiano, cinese, giapponese, coreano, portoghese, olandese e polacco.
Distribuzione e inferenza DeepSeek-R1 modelli distillati con watsonx.ai
Copy link to section
29 gennaio 2025
È ora possibile utilizzare le varianti distillate di DeepSeek-R1, un potente modello di ragionamento open-sourced, per distribuire e inferenziare in modo sicuro i modelli di DeepSeek-R1 con watsonx.ai su IBM Cloud, consentendo agli sviluppatori di accelerare lo sviluppo di soluzioni basate sull'intelligenza artificiale. DeepSeek-R1 il modello può essere utilizzato come modello di fondazione personalizzato con watsonx.ai.
Prezzo più basso per l'inferenza dell' Llama 3.3 70b Modello di fondazione Istruzioni
Copy link to section
29 gennaio 2025
Il prezzo per l'estrapolazione del modello di fondazione dell' llama-3-3-70b-instruct, dall' Meta , è diminuito da $ 0.0018 a $ 0.00071 USD per 1.000 token. La variazione di prezzo si applica a tutte le regioni in cui è disponibile il modello base.
Disponibilità generale di AutoAI per gli esperimenti RAG
Copy link to section
23 gennaio 2025
AutoAI per RAG è ora pienamente supportato per automatizzare la ricerca di un modello di generazione ottimizzato per le applicazioni. Questo aggiornamento include le seguenti nuove funzionalità:
Esplorare AutoAI per RAG utilizzando dati di esempio e una visita guidata per imparare il processo.
Se si crea un esperimento utilizzando un archivio vettoriale Milvus, è ora possibile distribuire un modello RAG come servizio AI, in modo da poter accedere all'endpoint da uno spazio di distribuzione per fare inferenza.
L'esecuzione degli esperimenti AutoAI RAG comporta i seguenti costi di fatturazione:
I costi delle unità orarie di capacità (CUH) per il tempo di esecuzione degli esperimenti.
Unità di risorse (RU) addebitate per tutte le chiamate di embedding e di inferenza del modello di intelligenza artificiale generativa effettuate durante l'esperimento. Un'unità di risorse (RU) equivale a 1.000 gettoni.
Per informazioni sui piani e per i dettagli di fatturazione, consultare i piani watsonx.ai Runtime.
Implementazione dei servizi AI con CPDCTL
Copy link to section
23 gennaio 2024
È ora possibile utilizzare l'interfaccia a riga di comando Cloud Pak for Data (CPDCTL) per distribuire le soluzioni di IA generativa con i servizi di IA in modo programmatico. CPDCTL è uno strumento a riga di comando per la distribuzione e la gestione dei servizi AI sulla piattaforma IBM Cloud Pak for Data (CPD). Fornisce un modo semplice e snello per distribuire i servizi di intelligenza artificiale, eliminando la necessità di configurazione manuale e riducendo il rischio di errori.
Quando si utilizza AutoAI per creare una soluzione di IA generativa che utilizza un pattern RAG, è ora possibile distribuire la soluzione direttamente dal costruttore di esperimenti AutoAI come servizio di IA. Per ulteriori informazioni, vedere Distribuzione dei servizi AI con gli strumenti.
Distribuzione di modelli convertiti da CatBoost e LightGBM in formato ONNX
Copy link to section
23 gennaio 2024
È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti da CatBoost e LightGBM al formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.
Distribuire i modelli di fondazione più diffusi su richiesta in watsonx.ai
Copy link to section
22 gennaio 2025
È ora possibile distribuire i seguenti modelli di fondazione su hardware dedicato nella regione di Dallas per l'uso esclusivo della vostra organizzazione:
Se si desidera continuare a lavorare con questi modelli di base, è possibile distribuire i modelli su richiesta per uso esclusivo. Per ulteriori informazioni, vedere Distribuzione di modelli di fondazione su richiesta.
Settimana conclusa il 17 gennaio 2025
Copy link to section
Utilizzare i nuovi modelli di incorporazione di IBM Granite in watsonx.ai
Copy link to section
16 gennaio 2025
È ora possibile utilizzare i seguenti modelli di incorporazione di Granite forniti da IBM in watsonx.ai:
granite-embedding-107m-multilingual
granite-embedding-278m-multilingual
Utilizzate i nuovi modelli di embedding per generare embedding di testo di alta qualità per un input sotto forma di query, brano o documento in più lingue. Per ulteriori informazioni, vedere Modelli di encoder supportati e Testo vettoriale.
È stata apportata una modifica ai modelli Granite Guardian
Copy link to section
16 gennaio 2025
Da oggi è possibile consultare l'ultima versione dei modelli della fondazione Granite Guardian di IBM su watsonx.ai nei data center di Dallas e Sydney.
Le ultime versioni 3.1 dei modelli supportano ora una lunghezza del contesto di 128.000 token e sono state addestrate con dati sintetici aggiuntivi per migliorare le prestazioni per i rischi legati all'allucinazione e al jailbreak. Per i dettagli, vedere Modelli di fondazione supportati .
I modelli di fondazione granite-20b-multilingual e codellama-34b-instruct-hf sono deprecati
Copy link to section
15 gennaio 2025
I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.
Conclusione della beta per gli esperimenti AutoAI RAG il 23 gennaio 2025
Copy link to section
13 gennaio 2025
Dopo la conclusione della fase beta, l'esecuzione di esperimenti AutoAI RAG comporterà i seguenti costi di fatturazione:
I costi delle unità orarie di capacità (CUH) per il tempo di esecuzione degli esperimenti.
Resource Unit (RU) incaricata di incorporare il documento di base e di inferenziare i modelli generativi di intelligenza artificiale. Un'unità di risorse (RU) equivale a 1.000 gettoni.
Per informazioni sui piani e per i dettagli di fatturazione, consultare i piani watsonx.ai Runtime.
Settimana che termina il 20 dicembre 2024
Copy link to section
Distribuire i modelli convertiti in formato ONNX
Copy link to section
20 dicembre 2024
È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.
Distribuzione di flussi SPSS Modeler multi-source
Copy link to section
20 dicembre 2024
È ora possibile creare implementazioni per i flussi di SPSS Modeler che utilizzano più flussi di input per fornire dati al modello. Per ulteriori informazioni, vedere Distribuzione di flussi SPSS Modeler multi-sorgente.
Settimana che termina il 13 dicembre 2024
Copy link to section
Vengono introdotte modifiche ai modelli di fondazione Granite 3 Instruct
Copy link to section
13 dicembre 2024
Sono state apportate modifiche ai seguenti modelli di fondazione IBM :
granite-3-2b-instruct
granite-3-8b-instruct
Con le ultime modifiche, i modelli di fondazione di Granite 3.1 Instruct offrono ora un supporto migliore per la codifica dei compiti e delle funzioni intrinseche degli agenti. La lunghezza della finestra di contesto supportata per questi modelli di fondazione è aumentata da 4.096 tokens a 131.072 tokens. Sebbene gli ID dei modelli di Granite Instruct rimangano invariati, i pesi dei modelli vengono aggiornati.
Soluzione senza codice per la ricerca di un modello RAG con AutoAI (beta)
Copy link to section
12 dicembre 2024
È ora possibile automatizzare la ricerca del modello RAG ottimale per il proprio caso d'uso dall'interfaccia utente di AutoAI. Caricare la raccolta di documenti e le domande di prova, scegliere un database vettoriale ed eseguire l'esperimento per un approccio rapido alla ricerca di un modello RAG. È inoltre possibile rivedere e modificare le impostazioni di configurazione dell'esperimento. Confrontare i modelli generati dall'esperimento e salvare il modello migliore come taccuino o taccuino generato automaticamente e salvato nel progetto.
È possibile distribuire i servizi AI utilizzando modelli predefiniti. I modelli di servizio AI forniscono un modo standardizzato per distribuire i servizi AI, offrendo una struttura e una configurazione predefinite per la distribuzione dei modelli AI. Questi modelli sono unità di codice precostituite e distribuibili che incapsulano la logica di programmazione delle applicazioni di intelligenza artificiale generativa.
I modelli di servizio AI automatizzano attività come la creazione di distribuzioni, la generazione di metadati e la creazione di estensioni, consentendo agli sviluppatori di concentrarsi sulla logica principale della loro applicazione. Offrono un modo flessibile per distribuire i servizi di IA, supportando molteplici input e personalizzazioni.
L'ultimo modello di fondazioni Llama è disponibile per l'implementazione su richiesta
Copy link to section
12 dicembre 2024
È possibile distribuire l' Meta Llama 3.3 70B Istruire il modello di base multilingue su hardware dedicato per l'uso esclusivo della propria organizzazione. Il nuovissimo modello Foundation di Meta ha capacità simili al modello più grande ( llama-3-405b-instruct ), ma è più piccolo e particolarmente abile nella codifica, nel ragionamento passo dopo passo e nella chiamata degli strumenti. È possibile distribuire il modello completo ( llama-3-3-70b-instruct-hf ) o una versione quantizzata ( llama-3-3-70b-instruct ) che richiede meno risorse per l'hosting.
Distribuzione dei modelli di fondazione su richiesta con la libreria client Python
Copy link to section
12 dicembre 2024
È ora possibile distribuire i modelli della fondazione su richiesta utilizzando la libreria client Python di watsonx.ai Utilizzando questo approccio, è possibile accedere alle capacità di questi potenti modelli di fondazione senza la necessità di disporre di ampie risorse di calcolo. I modelli Foundation distribuiti on-demand sono ospitati in uno spazio di distribuzione dedicato, dove è possibile utilizzare questi modelli per l'inferenza.
Fate esperienza diretta con SPSS Modeler provando i 15 aggiornamenti di SPSS Modeler tutorial.
Confronto di risorse AI con Evaluation Studio
Copy link to section
12 dicembre 2024
Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.
Miglioramenti alla soluzione di Model Risk Governance watsonx.governance
Questa versione include i seguenti miglioramenti:
Il nuovo modello di questionario AI Model Onboarding Risk Identification viene utilizzato durante il processo di onboarding del modello per aiutare a identificare i rischi associati a un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Foundation Model Onboarding.
Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA viene utilizzato per aiutare a identificare i rischi associati ai casi d'uso dell'IA. Questo modello di questionario viene utilizzato nel flusso di lavoro di revisione dei casi d'uso. Questo nuovo questionario è destinato a sostituire il questionario per l'identificazione del rischio di IA
Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA e dei modelli viene utilizzato per aiutare a identificare i rischi associati alla combinazione di un caso d'uso dell'IA e di un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Sviluppo e documentazione dei casi d'uso.
Il flusso di lavoro di valutazione dell'intelligenza artificiale è ora disattivato per impostazione predefinita. È sostituito dal flusso di lavoro Valutazione del questionario. È ora possibile impostare i modelli di questionario direttamente nel flusso di lavoro dei casi d'uso.
I flussi di lavoro, le viste e i dashboard sono stati aggiornati.
IBM watsonx.governance è disponibile nella regione di Sydney
Copy link to section
9 dicembre 2024
IBM watsonx.governance è ora generalmente disponibile nel data center di Sydney. È possibile selezionare Sydney come regione preferita al momento dell'iscrizione.
Distribuzione di modelli di fondazione su richiesta nella regione di Dallas
Copy link to section
6 dicembre 2024
Scegliete da una collezione curata di modelli di fondazione che potete distribuire su hardware dedicato per l'uso esclusivo della vostra organizzazione. Un'implementazione dedicata significa interazioni più reattive quando si inferiscono i modelli di fondazione. I modelli di fondazione Deploy on-demand sono fatturati all'ora. Per ulteriori informazioni, vedere Modelli di fondazione supportati e Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.
Inferenza l'ultimo modello della fondazione Llama dell' Meta , nelle regioni di Dallas e Francoforte
Copy link to section
6 dicembre 2024
L' Meta Llama 3.3 70B Il modello di base multilingue è disponibile per l'intervento nelle regioni di Dallas e Francoforte. Il modello della fondazione " llama-3-3-70b-instruct " è abile nella codifica, nel ragionamento passo dopo passo e nella chiamata degli strumenti. Con prestazioni che rivaleggiano con quelle del modello " 405b ", l'aggiornamento del modello " Llama 3 ".3 foundation è un'ottima scelta per gli sviluppatori. Vedi l'annuncio su IBM.
Esaminare i benchmark per confrontare i modelli di fondazione
Copy link to section
5 dicembre 2024
Esamina i modelli di fondamenta di riferimento per conoscere le capacità dei modelli di fondamenta disponibili prima di provarli. Confrontate le prestazioni dei vari modelli di fondazione sulle attività più importanti per il vostro caso d'uso. Per ulteriori informazioni, consultare i benchmark del modello Foundation.
I file Microsoft Excel sono deprecati per i modelli OPL in Decision Optimization
Copy link to section
5 dicembre 2024
I file delle cartelle di lavoro Microsoft Excel (.xls e .xlsx) sono ora deprecati per l'input e l'output diretto nei modelli Decision Optimization OPL. Per collegarsi ai file Excel, utilizzare invece un connettore di dati. Il connettore dati trasforma il file Excel in un file .csv. Per ulteriori informazioni, vedere Dati di riferimento.
Nuovi notebook di esempio per la distribuzione di modelli convertiti in formato ONNX
Copy link to section
3 dicembre 2024
È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Vedere i seguenti quaderni di esempio:
Miglioramento della documentazione sulle opzioni di scrittura per Data Refinery
Copy link to section
28 novembre 2024
Le opzioni di scrittura e le opzioni della tabella per l'esportazione dei flussi di dati dipendono dalla connessione. Queste opzioni vengono ora spiegate in modo da guidare meglio l'utente nella scelta delle opzioni della tabella di destinazione. Per ulteriori informazioni, vedere Opzioni di connessione target per Data Refinery.
Settimana che termina il 22 novembre 2024
Copy link to section
Il nuovo watsonx Developer Hub per iniziare a codificare velocemente
Copy link to section
21 ottobre 2024
Consultate il nuovo Developer Hub per trovare tutto ciò che vi serve per codificare la vostra soluzione di IA generativa:
Fai la tua prima richiesta API per inferire un modello di base in watsonx.ai.
Trovate i modelli di base e le librerie di codice giusti per le vostre applicazioni AI.
Comprendere le funzionalità di watsonx.ai e copiare frammenti di codice in Curl, Node.js o Python.
Imparate a costruire applicazioni e soluzioni di IA generativa con guide dettagliate.
Unisciti alle comunità per trovare risorse, risposte e per coinvolgere gli altri utenti.
Utilizzate i modelli di fondazione delle serie temporali di IBM Granite e l'API di watsonx.ai per prevedere i valori futuri (beta)
Copy link to section
21 novembre 2024
Utilizza l'API delle serie temporali per passare le osservazioni dei dati storici a un modello di base delle serie temporali dell' IBM Granite , in grado di prevedere i valori futuri con inferenza zero-shot. Il metodo di previsione delle serie temporali dell'API dell' watsonx.ai, è disponibile come funzione beta. Per ulteriori informazioni, vedere Previsione dei valori futuri dei dati.
Utilizzare i modelli di incorporazione del testo di watsonx.ai dall'API di inferenza di Elasticsearch
Copy link to section
21 novembre 2024
La versione 8.16.0 di Elasticsearch ha aggiunto il supporto per la creazione di un endpoint di inferenza che utilizza un modello di base di watsonx.ai per le attività di incorporamento del testo.
Promuovere i flussi di SPSS Modeler negli spazi di distribuzione
Copy link to section
19 novembre 2024
È ora possibile promuovere direttamente i flussi di SPSS Modeler dai progetti agli spazi di distribuzione senza dover esportare il progetto e poi importarlo nello spazio di distribuzione. Per ulteriori informazioni, vedere Promozione dei flussi e dei modelli di SPSS Modeler.
Settimana che termina il 15 novembre 2024
Copy link to section
Utilizzate l'app di chat demo IBM watsonx.ai senza restrizioni di prova collegando gli account
Copy link to section
15 novembre 2024
È ora possibile utilizzare l'app di chat dell'account demo di IBM watsonx.ai senza limitazioni di utilizzo dei token o di tempo collegando l'account demo all'account IBM Cloud watsonx.ai a pagamento. Per maggiori dettagli, vedere Collegamento degli account IBM watsonx.ai demo e watsonx.ai.
Il pacchetto Node.js watsonx.ai è disponibile presso LangChain
Copy link to section
11 novembre 2024
Il pacchetto watsonx.ai Node.js è disponibile per l'uso dalla libreria della comunità LangChain JavaScript. L'integrazione supporta le funzioni di watsonx.ai, come l'inferenza di modelli di fondazione, la generazione di incorporazioni di testo e la gestione di scambi di chat che includono funzionalità di chiamata di immagini e strumenti. Con l'integrazione di LangChain, è possibile richiamare queste funzionalità di watsonx.ai utilizzando interfacce coerenti che rendono più facile passare da un fornitore all'altro per confrontare le offerte e trovare la soluzione migliore per le proprie esigenze.
Le credenziali delle attività sono ora necessarie per distribuire le risorse ed eseguire i lavori da uno spazio di distribuzione
Copy link to section
11 novembre 2024
Per migliorare la sicurezza dell'esecuzione dei lavori di distribuzione, è necessario inserire le credenziali dell'attività per distribuire le seguenti risorse da uno spazio di distribuzione:
Modelli di prompt
Servizi AI
Modelli
Funzioni Python
Script
Inoltre, è necessario inserire le credenziali dell'attività per creare le seguenti distribuzioni dallo spazio di distribuzione:
In linea
Lavori
È inoltre necessario utilizzare le credenziali dell'attività per creare e gestire i lavori di distribuzione dal proprio spazio di distribuzione.
Implementazione di applicazioni di IA generativa con servizi di IA
Copy link to section
7 novembre 2024
Ora è possibile utilizzare i servizi AI di watsonx.ai per distribuire le applicazioni. Un servizio AI è un'unità di codice distribuibile che può essere utilizzata per catturare la logica dei casi d'uso dell'AI generativa. Mentre le funzioni Python sono il modo tradizionale per distribuire risorse di apprendimento automatico, i servizi AI offrono un'opzione più flessibile per distribuire codice per applicazioni AI generative, come lo streaming. Quando i servizi di intelligenza artificiale sono stati distribuiti con successo, è possibile utilizzare l'endpoint per l'inferenza dalla propria applicazione.
Il nuovo modello di incorporazione di terze parti all-minilm-l6-v2 è disponibile in watsonx.ai
Copy link to section
29 ottobre 2024
Il modello di incorporazione del testo all-minilm-l6-v2 della comunità open source di elaborazione del linguaggio naturale (NLP) e di visione artificiale (CV) è ora disponibile per l'uso dal metodo di incorporazione del testo dell'API watsonx.ai Utilizzare il modello per convertire il testo in vettori di incorporamento del testo, adatti per essere utilizzati in compiti di corrispondenza e recupero del testo. Per i dettagli sul modello, vedere i seguenti argomenti:
Prezzo più basso per l'inferenza del modello di fondazione dell' Mistral Large
Copy link to section
29 ottobre 2024
Il prezzo per l'input che invii al modello di fondazione dell' Mistral Large, è diminuito da $ 0.01 a $ 0.003 USD per 1.000 token. Il prezzo per l'output generato dal modello di fondazione non è cambiato; il prezzo per i token di output rimane di $ 0.01 i token di USD/1,000. La variazione di prezzo si applica a tutte le regioni in cui è disponibile il modello base dell' mistral-large.
IBM Runtime 23.1 è deprecato. A partire dal 21 novembre 2024, non sarà più possibile creare nuovi notebook o ambienti personalizzati utilizzando i runtime 23.1. Inoltre, non è possibile creare nuove distribuzioni con specifiche software basate sul runtime 23.1. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a IBM Runtime 24.1.
Semplificate i documenti aziendali complessi con l'API per l'estrazione del testo
Copy link to section
28 ottobre 2024
Il metodo di estrazione del testo è ora generalmente disponibile nell'API REST di watsonx.ai. Sfruttate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API di estrazione del testo estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non riescono a interpretare correttamente. Per ulteriori informazioni, vedere Estrazione di testo dai documenti.
Confrontate le tabelle negli esperimenti di Decision Optimization vedere le differenze tra gli scenari
Copy link to section
23 ottobre 2024
È ora possibile confrontare le tabelle in un esperimento di Decision Optimization nella vista Prepara dati o Esplora soluzione. Questo confronto può essere utile per vedere le differenze di valore dei dati tra gli scenari visualizzati uno accanto all'altro. Per ulteriori informazioni, vedere Confronto delle tabelle di scenario.
I nuovi modelli Granite 3.0 sono disponibili su watsonx.ai
Copy link to section
21 ottobre 2024
Da oggi è possibile fare l'inferenza dei seguenti modelli della generazione 3.0 Granite Foundation forniti da IBM da watsonx.ai:
Modelli Instruct Granite in tutte le regioni: Utilizzate i nuovi modelli linguistici istruiti, leggeri e open-source per compiti come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, codifica e richiamo di funzioni. Funziona con le seguenti varianti di modello:
granite-3-2b-instruct
granite-3-8b-instruct
I modelli Granite Guardian nella regione di Dallas: Utilizzare i nuovi modelli Granite Guardian, che sono modelli Granite Instruct perfezionati, progettati per individuare i rischi nelle richieste e nelle risposte. Funziona con le seguenti varianti di modello:
Migliorare le attività di ricerca e recupero con l'API di rerank del testo
Copy link to section
21 ottobre 2024
Il metodo text rerank è generalmente disponibile nell'API REST di watsonx.ai. Utilizzare questo nuovo metodo API, insieme ai modelli di fondazione del reranker, come il modello ms-marco-minilm-l-12-v2 recentemente supportato, per riordinare un insieme di passaggi di documenti in base alla loro somiglianza con una query specificata. Il reranking è un modo utile per aggiungere precisione ai flussi di lavoro di recupero delle risposte. Per ulteriori informazioni, consultare la sezione Passaggi di documenti di reranking.
Il nuovo modello Pixtral 12B è disponibile nelle regioni di Francoforte e Londra
Copy link to section
21 ottobre 2024
Ora è possibile utilizzare il modello di fondazione Pixtral 12B di Mistral AI su watsonx.ai nei data center di Francoforte e Londra.
Pixtral 12B è un modello nativamente multimodale con capacità di trasmissione da immagine a testo e da testo a testo che è stato addestrato con dati di immagine e testo interfogliati. Il modello base supporta immagini di dimensioni variabili ed è eccellente per le attività che richiedono di seguire istruzioni. Per i dettagli, vedere Modelli di fondazione supportati .
Settimana che termina il 18 ottobre 2024
Copy link to section
L'individuazione delle risorse dell'account è abilitata per impostazione predefinita
Copy link to section
17 ottobre 2024
L'impostazione " Resource scope per il vostro account è ora impostata di default su " ON. Tuttavia, se in precedenza il valore dell'impostazione Ambito risorse è stato impostato su 'ON o 'OFF, l'impostazione corrente non viene modificata.
Quando la ricerca delle risorse è attivata, non è possibile accedere ai progetti che non sono presenti nell'account IBM Cloud attualmente selezionato. Se si appartiene a più di un account IBM Cloud, è possibile che non si vedano tutti i progetti elencati insieme. Ad esempio, è possibile che non vengano visualizzati tutti i progetti nella pagina Tutti i progetti. È necessario cambiare account per vedere i progetti negli altri account.
Un modello base di Code ( Granite ) è disponibile nella regione di Francoforte
Copy link to section
15 ottobre 2024
Il modello della fondazione " granite-20b-code-instruct " di " IBM " è progettato per rispondere alle istruzioni relative alla codifica. È possibile utilizzare il modello di base nei progetti ospitati nel data center di Francoforte per aiutare con le attività di codifica e per la creazione di assistenti di codifica. Per ulteriori informazioni sul modello, vedere Modelli di fondazione supportati.
Settimana che termina l'11 ottobre 2024
Copy link to section
Nuovo vantaggio della licenza
Copy link to section
10 ottobre 2024
È ora possibile portare la propria licenza (BYOL) per applicare i vantaggi delle licenze on-premises a IBM watsonx.ai e IBM watsonx.governance.
Analizzare i dati di testo giapponesi in SPSS Modeler con Text Analytics
Copy link to section
9 ottobre 2024
È ora possibile utilizzare i nodi di Text Analytics di SPSS Modeler, come il nodo Text Link Analysis e il nodo Text Mining, per analizzare i dati di testo scritti in giapponese.
Creare flussi di lavoro conversazionali con l'API di chat watsonx.ai
Copy link to section
8 ottobre 2024
Utilizzate l'API di chat watsonx.ai per aggiungere alle vostre applicazioni funzionalità di IA generativa, comprese le chiamate guidate dagli agenti a strumenti e servizi di terze parti.
Per ulteriori informazioni, fare riferimento ai seguenti argomenti:
Nuove specifiche software per i modelli di fondazione personalizzati
Copy link to section
7 ottobre 2024
Ora è possibile utilizzare una nuova specifica software watsonx-cfm-caikit-1.1 con le distribuzioni personalizzate dei modelli di fondazione. Le specifiche si basano sulla libreria " vLLM " e sono più adatte agli ultimi modelli di grandi lingue solo decoder. Per ulteriori informazioni sulla libreria vLLM, vedere vLLM Per informazioni sull'utilizzo delle specifiche con un modello di fondazione personalizzato, vedere Pianificazione della distribuzione di un modello di fondazione personalizzato.
I modelli di fondazione granite-7b-lab e llama3-llava-next-8b-hf sono deprecati
Copy link to section
7 ottobre 2024
Il modello della fondazione Volvo ( granite-7b-lab ) è obsoleto e sarà ritirato il 7 gennaio 2025. Rivedere tutti i prompt che utilizzano questo modello di base.
Data di ammortamento: 7 ottobre 2024
Data di ritiro: 7 gennaio 2025
Modello alternativo: granite-3-8b-instruct
Anche il modello di fondazione multimodale dell' llama3-llava-next-8b-hf, che sarà ritirato il 7 novembre 2024, è ormai obsoleto. Ora è possibile utilizzare uno dei nuovi modelli di visione Llama 3.2 per le attività di generazione di testo a partire da immagini.
Data di ammortamento: 7 ottobre 2024
Data di ritiro: 7 novembre 2024
Modello alternativo: llama-3-2-11b-vision-instruct
Le librerie Tensorflow e Keras incluse in IBM Runtime 23.1 sono ora aggiornate alle versioni più recenti. Questo potrebbe avere un impatto sul modo in cui il codice viene eseguito nei notebook. Per maggiori dettagli, vedere i pacchetti di librerie inclusi nei runtime di watsonx.ai Studio (ex Watson Studio).
Il Runtime 23.1 verrà dismesso a favore del Runtime 24.1 IBM nel corso dell'anno. Per evitare ripetute interruzioni, si consiglia di passare subito a IBM Runtime 24.1 e di utilizzare le relative specifiche software per le implementazioni.
Disponibilità del piano watsonx.governance nella regione di Francoforte e deprezzamento del piano OpenScale legacy
Copy link to section
3 ottobre 2024
Il piano legacy watsonx.governance per il provisioning di Watson OpenScale nella regione di Francoforte è deprecato. IBM Watson OpenScale non sarà più disponibile per nuove sottoscrizioni o per il provisioning di nuove istanze. Per le funzionalità OpenScale, sottoscrivete il piano Essentials di watsonx.governance, ora disponibile sia a Francoforte che a Dallas.
Per visualizzare i dettagli del piano, vedi i piani watsonx.governance .
Le istanze del piano legacy esistenti continueranno a funzionare e saranno supportate fino alla data di fine del supporto, ancora da stabilire.
I clienti esistenti su IBM Watson OpenScale possono continuare ad aprire ticket di assistenza utilizzando IBM Watson OpenScale.
Nuovi termini del menu per aprire la pagina delle connessioni alla piattaforma
Copy link to section
3 ottobre 2024
In precedenza il percorso della pagina Connessioni alla piattaforma nel menu di navigazione era Dati > Connessioni alla piattaforma. Il nuovo percorso è Dati > Connettività. La pagina Connettività contiene una scheda per le connessioni della piattaforma.
Settimana che termina il 27 settembre 2024
Copy link to section
Llama 3.2, compresi i modelli multimodali 11B e 90B sono disponibili
Copy link to section
25 settembre 2024
Con il rilascio odierno, i seguenti modelli di fondazione di Meta AI sono disponibili nella regione di Dallas:
Llama 3.2 modelli istruttori
Modelli linguistici versatili e di grandi dimensioni che supportano input di grandi dimensioni (lunghezza della finestra di contesto di 128.000 token) e sono abbastanza leggeri ed efficienti, con dimensioni di 1B e 3B parametri, da poter essere inseriti in un dispositivo mobile. È possibile utilizzare questi modelli per costruire agenti altamente personalizzati e on-device.
Llama 3.2 modelli di visione
Modelli perfezionati costruiti per casi d'uso di tipo image-in e text-out, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia delle immagini.
Modello di visione della Guardia del Lama
Potente modello di guardrail progettato per filtrare i contenuti nocivi.
Questa versione include miglioramenti e correzioni di bug.
Schede personalizzate sul cruscotto
Il cruscotto può ora contenere fino a tre schede personalizzate.
grafici a barre in pila
È ora possibile configurare un grafico a barre sovrapposte nel dashboard e nel View Designer.
Utilizzare le espressioni per impostare i valori dei campi in base alle risposte dei partecipanti al questionario
È ora possibile inserire un'espressione per il valore di un campo. Ad esempio, si può inserire [$TODAY$] per la data corrente, [$END_USER$] per il nome dell'utente registrato o [$System Fields:Description$] per impostare il campo sul valore del campo Descrizione dell'oggetto.
Miglioramenti alla soluzione di Model Risk Governance watsonx.governance
Questa versione include i seguenti miglioramenti:
Il nuovo tipo di oggetto Gruppo di modelli consente di raggruppare modelli simili. Ad esempio, le versioni di un modello che utilizzano un approccio simile per risolvere un problema aziendale possono essere inserite in un Gruppo di modelli.
Il nuovo calcolo del punteggio di rischio dei casi d'uso aggrega le metriche per stato di violazione in punteggi di rischio per fornire una visione complessiva delle prestazioni dei modelli sottostanti di un caso d'uso.
La nuova business entity Discovered AI library fornisce un luogo predefinito per archiviare tutte le implementazioni di IA che non seguono le pratiche di governance sanzionate all'interno di un'organizzazione (note anche come "IA ombra").
I flussi di lavoro, le viste e i dashboard sono stati aggiornati.
Utilizzate l'SDK AutoAI Python per automatizzare e accelerare la progettazione e l'implementazione di un modello ottimizzato di generazione aumentata dal recupero (RAG) basato sui vostri dati e sul vostro caso d'uso. RAG è dotato di molti parametri di configurazione, tra cui il modello linguistico di grandi dimensioni da scegliere, il modo in cui suddividere i documenti di grounding e il numero di documenti da recuperare. AutoAI automatizza l'esplorazione e la valutazione completa di un insieme vincolato di opzioni di configurazione e produce una serie di pipeline di modelli classificati in base alle prestazioni rispetto alla metrica di ottimizzazione.
Nota: Mentre questa funzione è in fase beta, l'esecuzione dell'esperimento non comporta alcun costo e non vengono consumati token. Tuttavia, le chiamate ai modelli RAG e ai loro derivati effettuate dopo il completamento dell'esperimento consumano risorse e comportano costi di fatturazione alle tariffe standard.
Il supporto per il runtime Spark 3.3 in IBM Analytics Engine sarà rimosso entro il 29 ottobre 2024 e la versione predefinita sarà cambiata in Spark 3.4. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a Spark 3.4.
A partire dal 29 ottobre 2024, non è più possibile creare o eseguire notebook o ambienti personalizzati utilizzando i runtime di Spark 3.3. Inoltre, non è possibile creare o eseguire distribuzioni con specifiche software basate sul runtime Spark 3.3.
Inferenza un modello di base multimodale dal Prompt Lab
Copy link to section
19 settembre 2024
Ora è possibile aggiungere un'immagine in Prompt Lab e chattare sull'immagine richiamando un modello multimodale di base in modalità chat. Oltre a documentare, ora è possibile caricare immagini e chiedere a un modello di base che supporta le attività di conversione da immagine a testo informazioni sul contenuto visivo dell'immagine. Per ulteriori informazioni, vedere Chattare con documenti e immagini.
Il nuovo modello llama3-llava-next-8b-hf è disponibile nella regione di Dallas
Copy link to section
19 settembre 2024
Ora è possibile utilizzare il nuovo modello multimodale di base dell' llama3-llava-next-8b-hf, disponibile su IBM watsonx.ai, per facilitare le attività di conversione da immagine a testo.
Large Language and Vision Assistant (LLaVa) combina un modello linguistico di grandi dimensioni preaddestrato con un codificatore di visione preaddestrato per casi d'uso di chatbot multimodali. LLaVA NeXT Llama3 è addestrato su dati di immagini e testi più diversi e di alta qualità. Per i dettagli, vedere Modelli di fondazione supportati .
Usare l'SDK watsonx.ai Node.js per codificare applicazioni di IA generativa
Copy link to section
18 settembre 2024
Inferenza e messa a punto dei modelli di fondazione in IBM watsonx as a Service in modo programmatico utilizzando il pacchetto watsonx.ai Node.js. Per ulteriori informazioni, vedere Node.js SDK.
Comprendere le politiche di indennizzo della proprietà intellettuale per i modelli di fondazione
Copy link to section
18 settembre 2024
Ora è possibile comprendere meglio la politica di indennizzo della proprietà intellettuale di IBM e vedere quali modelli di fondazione hanno una copertura di indennizzo IP in watsonx.ai. Per ulteriori informazioni, vedere Tipi di modello e indennizzo IP.
Settimana che termina il 13 settembre 2024
Copy link to section
Creare processi batch per flussi di dati ( SPSS Modeler ) nello spazio di distribuzione
Copy link to section
10 settembre 2024
È ora possibile creare lavori batch per i flussi SPSS Modeler negli spazi di distribuzione. I flussi offrono la flessibilità di decidere quali nodi del terminale eseguire ogni volta che si crea un lavoro batch da un flusso. Quando si pianificano lavori batch per i flussi, il lavoro batch utilizza le origini dati e i target di output specificati nel flusso. La mappatura di queste sorgenti e uscite di dati è automatica se le sorgenti e i target di dati sono anche nello spazio di distribuzione. Per ulteriori informazioni sulla creazione di lavori batch dai flussi, vedere Creazione di lavori di distribuzione per flussi SPSS Modeler.
Porta il tuo modello di fondazione per l'inferenza da watsonx.ai nella regione di Dallas
Copy link to section
3 settembre 2024
Oltre a lavorare con i modelli di fondazione curati da IBM, è ora possibile caricare e distribuire i propri modelli di fondazione. Dopo che i modelli sono stati distribuiti e registrati con watsonx.ai, è possibile creare dei prompt che inferiscono i modelli personalizzati in modo programmatico o dal Prompt Lab. Questa funzione è disponibile solo nella regione di Dallas.
Semplificate i documenti aziendali complessi con l'API di estrazione del testo del documento
Copy link to section
3 settembre 2024
Applicate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API per l'estrazione del testo dei documenti estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non sono in grado di interpretare correttamente. Il metodo di estrazione del testo dell'API REST di watsonx.ai è una funzione beta.
Granite Sono disponibili modifiche e aggiornamenti del modello di base del codice
Copy link to section
3 settembre 2024
Il modello della fondazione dell' granite-20b-code-instruct, è stato modificato nella versione 1.1.0. L'ultima modifica è stata addestrata su una miscela di dati di alta qualità provenienti da domini di codice e di linguaggio naturale per migliorare le capacità di ragionamento e di seguire le istruzioni del modello.
I seguenti modelli di fondazione sono stati aggiornati per aumentare la dimensione della lunghezza della finestra di contesto supportata (ingresso + uscita) per i prompt da 8192 a 128.000:
I modelli llama-2-13b-chat e llama-2-70b-chat sono deprecati
Copy link to section
26 agosto 2024
I modelli di fondazione llama-2-13b-chat e llama-2-70b-chat sono deprecati e saranno ritirati il 25 settembre 2024. Rivedete i suggerimenti che utilizzano questi modelli di base.
llama-2-13b-chat
Data di ammortamento: 26 agosto 2024
Data di ritiro: 25 settembre 2024
Modello alternativo: llama-3.1-8b-instruct
llama-2-70b-chat
Data di ammortamento: 26 agosto 2024
Data di ritiro: 25 settembre 2024
Modello alternativo: llama-3.1-70b-instruct
Le richieste di inferenza inviate ai modelli llama-2-13b-chat e llama-2-70b-chat tramite l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 25 settembre 2024, le richieste API per l'inferenza dei modelli non genereranno output.
Aggiungere gruppi di utenti come collaboratori nei progetti e negli spazi
Copy link to section
22 agosto 2024
È ora possibile aggiungere gruppi di utenti nei progetti e negli spazi se l'account IBM Cloud contiene gruppi di accesso IAM. L'amministratore dell'account IBM Cloud può creare gruppi di accesso, che sono poi disponibili come gruppi di utenti nei progetti. Per ulteriori informazioni, vedere Lavoro con i gruppi di accesso IAM.
Fine del supporto della funzione di previsione delle anomalie per gli esperimenti di serie temporali AutoAI
Copy link to section
19 agosto 2024
La funzione di previsione delle anomalie (outlier) in AutoAI modelli di serie temporali, attualmente in beta, è deprecata e sarà rimossa il 23 settembre 2024. Gli esperimenti standard AutoAI di serie temporali sono ancora pienamente supportati. Per maggiori dettagli, vedere Costruzione di un esperimento di serie temporali.
Settimana che termina il 16 agosto 2024
Copy link to section
I nuovi modelli di incorporazione Slate di IBM sono disponibili in tutte le regioni
Copy link to section
15 agosto 2024
IBM I modelli di embedding di Slate offrono alle aziende la possibilità di generare embedding per vari input come query, passaggi o documenti. I nuovi modelli slate-125m-english-rtrvr-v2 e slate-30m-english-rtrvr-v2 mostrano miglioramenti significativi rispetto alle loro controparti v1. Se oggi utilizzate i modelli slate-125m-english-rtrvr e slate-30m-english-rtrvr, passate ai nuovi modelli v2 Slate per sfruttare i miglioramenti del modello.
Configurare i guardrail AI per l'input dell'utente e l'output del modello di base separatamente in Prompt Lab
Copy link to section
15 agosto 2024
Regola la sensibilità dei guardrail AI che individuano e rimuovono i contenuti dannosi quando fai esperimenti con i prompt del modello di base in Prompt Lab. È possibile impostare diversi livelli di sensibilità dei filtri per l'input dell'utente e per il testo di output del modello e salvare le impostazioni dei guardrail AI efficaci nei modelli di prompt.
Selezionate i dati di test dai progetti per le valutazioni dei modelli di prompt
Copy link to section
8 agosto 2024
Quando si valutano i modelli di prompt nei progetti, è ora possibile scegliere le risorse del progetto per selezionare i dati di test per le valutazioni. Per ulteriori informazioni, vedere Valutazione dei modelli di prompt nei progetti.
Il nuovo modello llama-3-1-70b-instruct è ora disponibile su IBM watsonx.ai
Copy link to section
7 agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 70 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Q&A aggiornati con l'acceleratore RAG
Copy link to section
6 agosto 2024
Il progetto campione Q&A con acceleratore RAG 1.2 include i seguenti miglioramenti:
Chiedete aiuto per la fase successiva dell'implementazione della retrieval-augmented generation (RAG): raccogliere il feedback degli utenti e analizzare la qualità delle risposte. Include analisi con rilevamento non supervisionato degli argomenti per mostrare gli argomenti più popolari, la soddisfazione degli utenti con le risposte generate per argomento e i punteggi di ricerca per argomento.
Nuovi modelli di prompt ottimizzati per i modelli di fondazione IBM granite-7b-lab e Meta Llama 3.1.
Codice semplificato che utilizza le utilità RAG della libreria watsonx.ai Python e filtri di ricerca vettoriale mirati per la ricerca per prodotto, area e altro.
Nota: Se non si riesce a creare il progetto campione, provare a sostituire il testo del campo descrizione.
Settimana conclusiva del 2 agosto 2024
Copy link to section
Il nuovo modello llama-3-1-8b-instruct è ora disponibile su IBM watsonx.ai
Copy link to section
1° agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 8 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Associare gli spazi di lavoro ai casi d'uso dell'intelligenza artificiale
Copy link to section
1° agosto 2024
Il flusso per la creazione di un caso d'uso dell'IA è stato modificato per allinearsi maggiormente al ciclo di vita dell'IA. Dopo aver definito gli elementi essenziali di un caso d'uso dell'IA, associate gli spazi di lavoro per organizzare le risorse in modo che si allineino alle fasi di una soluzione di IA. Ad esempio, si può associare un progetto o uno spazio per gli asset della fase di Sviluppo o di Convalida e uno spazio per gli asset della fase di Funzionamento.
Annuncio del supporto per Python 3.11 E R4.3 framework e specifiche software in fase di runtime 24.1
Copy link to section
25 luglio 2024
È ora possibile utilizzare IBM Runtime 24.1, che include i più recenti framework di data science basati su Python 3.11 e R 4.3, per eseguire notebook Jupyter e script R e addestrare modelli. A partire dal 29 luglio, è possibile eseguire anche le distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 24.1.
Per informazioni su IBM Durata 24.1 rilascio e gli ambienti inclusi per Python 3.10 e R 4.2, Vedere Ambienti del notebook.
Modelli di incorporamento del trasformatore del processore del linguaggio naturale supportati con Runtime 24.1
Copy link to section
25 luglio 2024
Nella nuova runtime 24.1 ambiente, ora puoi utilizzare modelli di incorporamento del trasformatore di elaborazione del linguaggio naturale (NLP) per creare incorporamenti di testo che catturano il significato di una frase o di un passaggio per facilitare le attività di generazione aumentata di recupero. Per ulteriori informazioni, vedere Incorporamenti.
Nuovi modelli NLP specializzati sono disponibili in Runtime 24.1
Copy link to section
25 luglio 2024
I seguenti nuovi modelli PNL specializzati sono ora inclusi nel Runtime 24.1 ambiente:
Un modello in grado di rilevare e identificare contenuti odiosi, offensivi o blasfemi (HAP) nei contenuti testuali. Per ulteriori informazioni, vedere Rilevamento HAP.
Estrai approfondimenti dettagliati da grandi raccolte di testi utilizzando il riepilogo dei punti chiave
Copy link to section
25 luglio 2024
Ora è possibile utilizzare la Riassunzione dei punti chiave nei blocchi note per estrarre informazioni dettagliate e attuabili da grandi raccolte di testi che rappresentano le opinioni delle persone (come le recensioni dei prodotti, le risposte ai sondaggi o i commenti sui social media). Il risultato viene fornito in modo organizzato e gerarchico, facile da elaborare. Per ulteriori informazioni, vedere Riepilogo dei punti chiave
Aggiornamento della versione di RStudio
Copy link to section
25 luglio 2024
Per fornire un'esperienza utente coerente tra cloud privati e pubblici, l'IDE RStudio per IBM watsonx sarà aggiornato a RStudio Server 2024.04.1 e R 4.3.1 il 29 luglio 2024. La nuova versione di RStudio offre una serie di miglioramenti e correzioni di sicurezza. Per ulteriori informazioni, consultare le note di rilascio di RStudio Server 2024.04.1. Sebbene non siano previsti grossi problemi di compatibilità, gli utenti dovrebbero essere consapevoli delle modifiche alla versione per alcuni pacchetti descritti nella tabella seguente.
Quando si avvia l'IDE RStudio da un progetto dopo l'aggiornamento, ripristinare l'area di lavoro di RStudio per assicurarsi che il percorso delle librerie per i pacchetti R 4.3.1 venga rilevato dal server RStudio.
Una nuova versione del modello " Mistral Large è ora disponibile su " IBM " watsonx.ai nelle regioni di Dallas, Francoforte e Londra
Copy link to section
24 luglio 2024
È ora possibile utilizzare il modello di fondazione Mistral Large 2 di Mistral AI su IBM watsonx.ai nei data center di Dallas, Francoforte e Londra.
Il modello Mistral Large 2 supporta 11 lingue ed è in grado di comprendere il testo, generare codice e fare ragionamenti avanzati. Per i dettagli, vedere Modelli di fondazione supportati .
Nuovo llama-3-405b-instruct il modello è disponibile nella regione di Dallas
Copy link to section
23 luglio 2024
Ora è possibile utilizzare il modello di fondazione llama-3-405b-instruct da Meta su IBM watsonx.ai nel centro dati di Dallas.
Il modello llama-3-405B-instruct (v3.1) fornisce alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello ed è il più grande modello open-sourced mai rilasciato finora. Questo modello di base può essere utilizzato per complessi compiti di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
IL merlinite-7b il modello è deprecato
Copy link to section
22 luglio 2024
Il modello della fondazione " merlinite-7b " è obsoleto e sarà ritirato il 22 agosto 2024. Rivedere tutti i prompt che utilizzano questo modello di base.
Data di ritiro: 22 luglio 2024
Data di ritiro: 22 agosto 2024
Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inviate al merlinite-7b modello utilizzando l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 22 agosto 2024, le richieste API per l'inferenza del modello non genereranno output.
Il nuovo modello Mistral Large è disponibile nelle regioni di Francoforte e Dallas
Copy link to section
9 luglio 2024
Ora è possibile utilizzare il modello di fondazione Mistral Large di Mistral AI su IBM watsonx.ai nei data center di Francoforte e Dallas.
Mistral Large offre alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. Questo modello di base può essere utilizzato per complessi compiti di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
Settimana terminata il 5 luglio 2024
Copy link to section
Connettori raggruppati per tipo di origine dati
Copy link to section
5 luglio 2024
Quando crei una connessione, i connettori vengono ora raggruppati per tipo di origine dati in modo che siano più facili da trovare e selezionare. Ad esempio, il tipo di origine dati MongoDB include i connettori IBM Cloud Databases for MongoDB e MongoDB.
Inoltre, un nuovo Recenti La categoria mostra gli ultimi sei connettori utilizzati per creare una connessione.
Aggiungere informazioni contestuali ai suggerimenti del modello di fondazione in Prompt Lab
Copy link to section
4 luglio 2024
Aiuta un modello di base a generare risposte concrete e aggiornate nei casi d'uso della generazione aumentata dal recupero (RAG) aggiungendo informazioni contestuali rilevanti al prompt come dati di base. Puoi caricare rapidamente documenti rilevanti o connetterti a un negozio di vettori di terze parti con dati rilevanti. Quando viene inviata una nuova domanda, la domanda viene utilizzata per interrogare i dati di base per fatti rilevanti. I risultati migliori della ricerca e la domanda originale vengono inviati come input del modello per aiutare il modello della fondazione a incorporare fatti rilevanti nel suo output.
A partire dal 1 luglio 2024, ilCloud Object Storage Piano Lite che viene fornito automaticamente quando ti iscrivi per una prova di 30 giorniwatsonx.ai Ewatsonx.governance scade al termine del periodo di prova. Puoi aggiornare il tuoCloud Object Storage Lite al piano Standard con l'opzione Livello gratuito in qualsiasi momento durante i 30 giorni di prova.
EsistenteCloud Object Storage le istanze del servizio con piani Lite di cui hai effettuato il provisioning prima del 1° luglio 2024 verranno conservate fino al 15 dicembre 2024. Devi aggiornare il tuoCloud Object Storage servizio a un piano Standard prima del 15 dicembre 2024.
Crea distribuzioni scollegate per gestire i prompt per LLM (large language models) esterni
Copy link to section
21 giugno 2024
Un modello di prompt separato è una nuova risorsa per valutare un modello di prompt per un LLM ospitato da un provider di terze parti, ad esempioGoogle IA del vertice,AzureOpenAI, OAWS Roccia di fondo. L'inferenza che genera l'output per il modello di prompt viene eseguita sul modello remoto, ma è possibile valutare l'output del modello di prompt utilizzando metriche watsonx.governance . È inoltre possibile tenere traccia della distribuzione scollegata e del modello di prompt scollegato in un caso di utilizzo AI come parte della soluzione di governance.
Le credenziali dell'attività saranno richieste per le richieste di lavoro di distribuzione
Copy link to section
19 giugno 2024
Per migliorare la sicurezza per l'esecuzione dei lavori di distribuzione, l'utente che richiede il lavoro dovrà fornire le credenziali dell'attività sotto forma di una chiave API. Il requisito sarà applicato a partire dal 15 agosto 2024. Consulta Aggiunta delle credenziali dell'attività per i dettagli sulla generazione della chiave API.
Valutare i casi di utilizzo per l'applicabilità dell'EU AI Act
Copy link to section
19 giugno 2024
Utilizzando la nuova valutazione dell'applicabilità dell'EU AI Act, è possibile completare un semplice questionario per valutare i casi di uso dell'IA e determinare se rientrano nell'ambito dell'EU AI Act. La valutazione può anche aiutarti a identificare la categoria di rischio che i tuoi casi d'uso allineano a: proibito, alto, limitato o minimo. Per ulteriori informazioni, vedere Valutazione dell'applicabilità in Componenti della soluzione nella console di governance.
Settimana che termina il 7 giugno 2024
Copy link to section
Gestisci le attività di rischio e conformità con la console di Governance ( IBM OpenPages)
Copy link to section
7 giugno 2024
Watsonx.governance ora supporta l'integrazione opzionale con la console di governance. Se hai installato il modulo Model Risk Governance di IBM OpenPages, puoi configurare i casi d'uso dell'intelligenza artificiale per sincronizzare i fatti di governance con la console di governance. Dalla console di governance è possibile creare casi d'uso, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:
IBM Watson Pipelines è ora IBM Orchestration Pipelines
Copy link to section
30 maggio 2024
Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.
Taggare i progetti per un facile recupero
Copy link to section
31 maggio 2024
È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.
Connettersi a una nuova fonte di dati: Milvus
Copy link to section
31 maggio 2024
Utilizzare la connessione Milvus per memorizzare e confermare l'esattezza delle credenziali e dei dettagli di connessione per accedere a un negozio di vettori Milvus. Per informazioni, consultare la sezione Connessione Milvus.
Settimana che termina il 24 maggio 2024
Copy link to section
Nuovo tutorial e video
Copy link to section
23 maggio 2024
Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.
Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione.
Configurare i monitor e valutare un modello in uno spazio di distribuzione. PrincipianteNessun codice
Il modello della fondazione " allam-1-13b-instruct " è disponibile nella regione di Francoforte
Copy link to section
21 maggio 2024
Il modello di fondazione arabo allam-1-13b-instruct dell'Autorità saudita per i dati e l'intelligenza artificiale e fornito da IBM è disponibile su watsonx.ai nel data center di Francoforte. È possibile utilizzare il modello di base dell' allam-1-13b-instruct e per attività generiche, tra cui domande e risposte, sintesi, classificazione, generazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.
Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python
Copy link to section
21 maggio 2024
La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.
Settimana che termina il 17 maggio 2024
Copy link to section
I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai
Copy link to section
16 maggio 2024
I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:
all-minilm-l12-v2
multilingual-e5-large
Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
I nuovi modelli di fondazione Granite Code sono disponibili nella regione di Dallas
Copy link to section
9 maggio 2024
Da oggi è possibile fare l'inferenza dei seguenti modelli di Granite Code Foundation forniti da IBM da watsonx.ai:
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
Utilizzate i nuovi modelli della fondazione Granite Code per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.
I modelli di fondazione InstructLab sono disponibili in watsonx.ai
Copy link to section
7 maggio 2024
InstructLab è un'iniziativa open source di Red Hat e IBM che fornisce una piattaforma per aumentare le capacità di un modello di fondazione. I seguenti modelli di fondazione supportano le conoscenze e le competenze fornite da InstructLab:
granite-7b-lab
granite-13-chat-v2
granite-20b-multilingual
merlinite-7b
Puoi esplorare i contributi della comunità open source dalla pagina della tassonomia del modello di base.
È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).
Settimana che termina il 26 aprile 2024
Copy link to section
IBM watsonx.ai è disponibile nella regione di Londra
Copy link to section
25 apr 2023
Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.
I modelli di fondazione pienamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o tramite l'API. Le eccezioni sono l' mt0-xxl-13b, e il modello di fondazione dell' llama-2-70b-chat, che è stato sostituito dal modello di fondazione dell' llama-3-70b-instruct, ora disponibile.
Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
Sono supportati i due modelli di integrazione IBM e l'API di integrazione.
Avviare una chat in Prompt Lab direttamente dalla home page
Copy link to section
25 apr 2023
Ora puoi iniziare una conversazione con un modello di fondazione dalla home page IBM watsonx.ai. Inserisci una domanda da inviare a un modello di base in modalità chat o fai clic su Apri Prompt Lab per scegliere un modello di base e i parametri del modello prima di inviare l'input del modello.
Settimana che termina il 19 aprile 2024
Copy link to section
Sono ora disponibili i nuovi modelli di fondazione Meta Llama 3
Copy link to section
18 apr 2024
I seguenti modelli di fondazione Llama 3 forniti da Meta sono disponibili per l'inferenza da watsonx.ai:
llama-3-8b-instruct
llama-3-70b-instruct
I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.
Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.
Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati
Copy link to section
18 apr 2024
È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
Sono disponibili i seguenti modelli di integrazione IBM Slate:
Valutazione delle distribuzioni di machine learning negli spazi
Copy link to section
18 apr 2024
Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.
Un modello base in lingua coreana è disponibile nella regione di Tokyo
Copy link to section
18 apr 2024
Il modello di fondazione dell' llama2-13b-dpo-v7, fornito da Minds & Company e basato sul modello di fondazione dell' Llama 2, di Meta , è disponibile nella regione di Tokyo.
Il modello della fondazione " llama2-13b-dpo-v7 " è specializzato in conversazioni in coreano e inglese. È inoltre possibile utilizzare il modello di base dell' llama2-13b-dpo-v7, in lingua coreana, per attività generiche.
Per l'inferenza è disponibile un modello di base dell' mixtral-8x7b-instruct-v01
Copy link to section
18 apr 2024
Il modello di fondazione dell' mixtral-8x7b-instruct-v01, di Mistral AI, è disponibile per inferenza su watsonx.ai. Il modello della fondazione " mixtral-8x7b-instruct-v01 " è un modello generativo pre-addestrato che utilizza una rete di "scarsa miscela di esperti" per generare testo in modo più efficiente.
Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.
Il modello della fondazione Volvo ( mixtral-8x7b-instruct-v01-q ) è obsoleto e sarà ritirato il 20 giugno 2024. Rivedere tutti i prompt che utilizzano questo modello di base.
Data di obsolescenza: 19 aprile 2024
Data di recesso: 20 giugno 2024
Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.
Viene introdotta una modifica al modello di fondazione dell' granite-20b-multilingual
Copy link to section
18 apr 2024
L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.
Messa a punto del modello di base dell' granite-13b-instruct-v2
Copy link to section
11 apr 2024
Tuning Studio, oltre ai modelli di fondazione flan-t5-xl-3b e llama-2-13b-chat, ora supporta anche la messa a punto del modello di fondazione granite-13b-instruct-v2. Per ulteriori informazioni, vedere Regolazione di un modello di fondazione.
Le impostazioni di configurazione dell'esperimento per la messa a punto del modello di base dell' granite-13b-instruct-v2 e cambiano per applicare i migliori valori predefiniti a seconda dell'attività. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.
Un modello in scala in lingua araba è disponibile nella regione di Francoforte
Copy link to section
11 apr 2024
Il modello della fondazione " jais-13b-chat " fornito da Inception, dall'Università Mohamed bin Zayed di Intelligenza Artificiale e da Cerebras Systems è disponibile nella regione di Francoforte.
Il modello della fondazione " jais-13b-chat " è specializzato in conversazioni in arabo e inglese. È inoltre possibile utilizzare il modello di base dell' jais-13b-chat, per attività generiche in lingua araba, compresa la traduzione tra arabo e inglese.
Visualizzare il testo completo di un prompt in Prompt Lab
Copy link to section
11 apr 2024
Ora è possibile rivedere l'intero testo del prompt che verrà inviato al modello di base, il che è utile quando il prompt include variabili di prompt o quando si lavora in modalità strutturata o in modalità chat.
I modelli Granite versione 1 obsoleti vengono ritirati
Copy link to section
11 apr 2024
I seguenti modelli di fondazione vengono ora ritirati:
granite-13b-chat-v1
granite-13b-instruct-v1
Modificate tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base di IBM Granite v2. Per ulteriori informazioni sulla deprecazione e il ritiro del modello di fondazione, vedere Ciclo di vita del modello di fondazione.
Settimana che termina il 5 aprile 2024
Copy link to section
Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization
Copy link to section
5 aprile 2024
È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.
Nuovo tutorial e video di watsonx.ai
Copy link to section
04 aprile 2024
Provate il nuovo tutorial per vedere come utilizzare watsonx.ai in un caso d'uso end-to-end, dalla preparazione dei dati all'ingegnerizzazione dei prompt.
Seguire un caso d'uso dalla preparazione dei dati fino all'ingegnerizzazione dei prompt.
Utilizzare vari strumenti, come i notebook e Prompt Lab. IntermedioTutto il codice
Settimana che termina il 15 marzo 2024
Copy link to section
L'API watsonx.ai è disponibile
Copy link to section
14 marzo 2024
L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, consultare il riferimento API.
La versione API è 2024-03-14.
È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.
Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo
Copy link to section
14 marzo 2024
I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:
granite-20b-multilingual: Un modello base della famiglia " IBM Granite " che può essere utilizzato per vari compiti generativi in inglese, tedesco, spagnolo, francese e portoghese.
codellama-34b-instruct-hf: Un modello di generazione programmatica del codice da Code Llama che si basa su Llama 2 da Meta. È possibile utilizzare codellama-34b-instruct-hf per creare prompt per la generazione di codice basato su input in linguaggio naturale e per il completamento e il debug del codice.
Tuning Studio è ora disponibile per gli utenti dei piani a pagamento nella regione di Francoforte. Tuning Studio ti aiuta a guidare un modello di fondazione per ottenere un risultato utile. È possibile mettere a punto sia il modello base dell' flan-t5-xl-3b, sia quello dell' llama-2-70b-chat, quando si utilizza l' Tuning Studio, a Francoforte.
Messa a punto del modello di base dell' llama-2-13b-chat, nella regione di Tokyo
Copy link to section
7 marzo 2024
L' Tuning Studio, ora, supporta la messa a punto del modello base dell' llama-2-13b-chat, nella regione di Tokyo. Innanzitutto, l'ingegnere richiede il modello più grande ( llama-2-70b-chat ) nell' Prompt Lab, per trovare suggerimenti efficaci per il tuo caso d'uso. Quindi sintonizzare la versione più piccola del modello dell' Llama 2, per generare risultati comparabili, se non migliori, con richieste di tiro a segno.
Il modello di base mixtral-8x7b-instruct-v01-q viene riclassificato da Classe 2: Unità di elaborazione dell'informazione ( $0.0018/Resource ) a Classe 1: Unità di elaborazione dell'informazione ( $0.0006/Resource ), rendendo più conveniente eseguire attività di inferenza su questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q.
I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:
Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.
La modalità Chat di Prompt Lab è una semplice interfaccia di chat che facilita la sperimentazione dei modelli di fondazione. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.
Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo
Copy link to section
29 febbraio 2024
Il modello della fondazione " granite-8b-japanese " fornito da " IBM " è disponibile su watsonx.ai nella regione di Tokyo. Il modello della fondazione " granite-8b-japanese " si basa sul modello " IBM Granite " ed è addestrato a comprendere e generare testo giapponese.
È possibile utilizzare il modello di base dell' granite-8b-japanese e per attività generiche in lingua giapponese, come la classificazione, l'estrazione, la formulazione di domande e risposte e la traduzione tra giapponese e inglese.
I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:
Nuovo collegamento per iniziare a lavorare su attività comuni
Copy link to section
15 febbraio 2024
È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.
Nuovo modello di base dell' mixtral-8x7b-instruct-v01-q e per compiti generici
Copy link to section
15 febbraio 2024
Il modello di fondazione dell' mixtral-8x7b-instruct-v01-q, fornito da Mistral AI e quantizzato da IBM, è disponibile su watsonx.ai. Il modello di fondazione dell' mixtral-8x7b-instruct-v01-q, è una versione quantizzata del modello di fondazione dell' Mixtral 8x7B Instruct, di Mistral AI.
È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.
I seguenti modelli sono obsoleti e verranno ritirati a breve. Rivedere eventuali prompt che utilizzano questi modelli di base per utilizzare un altro modello di base, come mixtral-8x7b-instruct-v01-q.
Modelli di fondazione obsoleti
Modello obsoleto
Data di deprecazione
Data di ritiro
Modello alternativo
gpt-neox-20b
15 febbraio 2024
21 marzo 2024
mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2
15 febbraio 2024
21 marzo 2024
mixtral-8x7b-instruct-v01-q
starcoder-15.5b
15 febbraio 2024
11 aprile 2024
mixtral-8x7b-instruct-v01-q
Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.
È disponibile una modifica al modello di fondazione dell' granite-13b-chat-v2
Copy link to section
15 febbraio 2024
L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Cos'è l'allineamento AI? post del blog di IBM Research.
Nuovo video e esercitazione watsonx
Copy link to section
15 febbraio 2024
Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.
La connessione IBM Cloud Data Engine è deprecata e sarà interrotta in una release futura. Per date e dettagli importanti, consultare la sezione Deprecation of Data Engine.
Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery
Copy link to section
9 febbraio 2024
Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.
L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.
La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.
IBM Cloud Databases for DataStax è stata interrotta
Copy link to section
2 febbraio 2024
La connessione IBM Cloud Databases for DataStax è stata rimossa da IBM watsonx.ai.
La connessione Dremio richiede aggiornamenti
Copy link to section
2 febbraio 2024
In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.
Azione richiestaImportante: aggiornare le proprietà di connessione. Diverse modifiche si applicano a una connessione per un'istanza Dremio Software (in loco) o un'istanza Dremio Cloud.
Dremio Software: aggiornare il numero di porta.
Copy link to section
Il numero di porta predefinito utilizzato da Flight è 32010. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedere Configurazione tramite dremio.conf
Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.
Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.
Copy link to section
Accedere a Dremio e generare un token di accesso personale. Per le istruzioni, vedere Token di accesso personale.
In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
Selezionare La porta è abilitata SSL.
Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:
Modificare sql.dremio.cloud in data.dremio.cloud
Modificare sql.eu.dremio.cloud in data.eu.dremio.cloud
Messa a punto del modello di base dell' llama-2-13b-chat
Copy link to section
1 febbraio 2024
Tuning Studio, ora supporta la messa a punto del modello base dell' llama-2-13b-chat. Innanzitutto, l'ingegnere richiede il modello più grande ( llama-2-70b-chat ) nell' Prompt Lab, per trovare suggerimenti efficaci per il tuo caso d'uso. Quindi sintonizzare la versione più piccola del modello dell' Llama 2, per generare risultati comparabili, se non migliori, con richieste di tiro a segno. L' llama-2-13b-model, disponibile per una rapida messa a punto nella regione di Dallas. Per ulteriori informazioni, vedere Tuning Studio.
Settimana che termina il 26 gennaio 2024
Copy link to section
AutoAI supporta i dati ordinati per tutti gli esperimenti
Copy link to section
25 gennaio 2024
Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.
Q & A con acceleratore RAG
Copy link to section
26 gennaio 2024
È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.
Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato in RStudio e nei notebook Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.
IBM watsonx.ai è disponibile nella regione di Tokyo
Copy link to section
25 gennaio 2024
Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. L'inferenza dei modelli di base e dell' Prompt Lab e è supportata nella regione di Tokyo per questi modelli:
elyza-japanese-llama-2-7b-instruct
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
granite-13b-chat-v2
granite-13b-instruct-v2
llama-2-70b-chat
llama-2-13b-chat
Disponibile anche nella regione di Tokyo:
Messa a punto immediata del modello base dell' flan-t5-xl-3b, con il Tuning Studio
Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento
Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo
Copy link to section
25 gennaio 2024
Il modello di fondazione dell' elyza-japanese-llama-2-7b-instruct, fornito da ELYZA, Inc, è disponibile presso l'istanza watsonx.ai nel data center di Tokyo. Il modello " elyza-japanese-llama-2-7b-instruct " è una versione del modello " Llama 2 " di " Meta " che è stato addestrato per comprendere e generare testo giapponese.
È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.
Settimana conclusosi il 12 gennaio 2024
Copy link to section
Supporto per IBM Runtime 22.2 deprecato in watsonx.ai Runtime (ex Watson Machine Learning)
Copy link to section
11 gennaio 2024
IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 . Azione richiesta Aggiornare gli asset e le distribuzioni per utilizzare IBM Runtime 23.1 prima del 7 marzo 2024.
IBM Granite v1 i modelli di fondazione sono deprecati
Copy link to section
11 gennaio 2024
I modelli di fondazione IBM Granite da 13 miliardi di parametri v1 sono deprecati e saranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.
Modelli di base IBM obsoleti
Modello obsoleto
Data di deprecazione
Data di ritiro
Modello alternativo
granite-13b-chat-v1
11 gennaio 2024
11 aprile 2024
granite-13b-chat-v2
granite-13b-instruct-v1
11 gennaio 2024
11 aprile 2024
granite-13b-instruct-v2
Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.