Tornate a trovarci ogni settimana per conoscere le nuove funzionalità e gli aggiornamenti di IBM watsonx.ai e IBM watsonx.governance su IBM Cloud.
Per informazioni su IBM watsonx.governance su AWS, vedere Le novità per IBM watsonx.governance su AWS.
Settimana che termina il 20 dicembre 2024
Distribuire i modelli convertiti in formato ONNX
20 dicembre 2024
È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.
Distribuzione di flussi SPSS Modeler multi-source
20 dicembre 2024
È ora possibile creare implementazioni per i flussi di SPSS Modeler che utilizzano più flussi di input per fornire dati al modello. Per ulteriori informazioni, vedere Distribuzione di flussi SPSS Modeler multi-sorgente.
Vengono introdotte modifiche ai modelli di fondazione Granite 3 Instruct
18 dicembre 2024
Sono state apportate modifiche ai seguenti modelli di fondazione IBM :
- granite-3-2b-instruct
- granite-3-8b-instruct
Con le ultime modifiche, i modelli di fondazione di Granite 3.1 Instruct offrono ora un supporto migliore per la codifica dei compiti e delle funzioni intrinseche degli agenti. La lunghezza della finestra di contesto supportata per questi modelli di fondazione è aumentata da 4.096 tokens a 131.072 tokens. Sebbene gli ID dei modelli di Granite Instruct rimangano invariati, i pesi dei modelli vengono aggiornati.
Per ulteriori informazioni, vedi Supported foundation models.
Settimana che termina il 13 dicembre 2024
Soluzione senza codice per la ricerca di un modello RAG con AutoAI (beta)
12 dicembre 2024
È ora possibile automatizzare la ricerca del modello RAG ottimale per il proprio caso d'uso dall'interfaccia utente di AutoAI. Caricare la raccolta di documenti e le domande di prova, scegliere un database vettoriale ed eseguire l'esperimento per un approccio rapido alla ricerca di un modello RAG. È inoltre possibile rivedere e modificare le impostazioni di configurazione dell'esperimento. Confrontare i modelli generati dall'esperimento e salvare il modello migliore come taccuino o taccuino generato automaticamente e salvato nel progetto.
Per ulteriori informazioni, vedere Automazione di un modello RAG con AutoAI.
Distribuzione dei servizi AI con i modelli
12 dicembre 2024
È possibile distribuire i servizi AI utilizzando modelli predefiniti. I modelli di servizio AI forniscono un modo standardizzato per distribuire i servizi AI, offrendo una struttura e una configurazione predefinite per la distribuzione dei modelli AI. Questi modelli sono unità di codice precostituite e distribuibili che incapsulano la logica di programmazione delle applicazioni di intelligenza artificiale generativa.
I modelli di servizio AI automatizzano attività come la creazione di distribuzioni, la generazione di metadati e la creazione di estensioni, consentendo agli sviluppatori di concentrarsi sulla logica principale della loro applicazione. Offrono un modo flessibile per distribuire i servizi di IA, supportando molteplici input e personalizzazioni.
Per ulteriori informazioni, vedere Distribuzione dei servizi AI con i modelli.
L'ultimo foundation model Llama è disponibile per l'implementazione su richiesta
12 dicembre 2024
È possibile distribuire il foundation model multilingue Meta Llama 3.3 70B Instruct su un hardware dedicato ad uso esclusivo della propria organizzazione. L'ultimo foundation model di Meta ha capacità simili al modello più grande llama-3-405b-instruct, ma è di dimensioni più ridotte ed è abile soprattutto nella codifica, nel ragionamento passo-passo e nella chiamata di strumenti. È possibile distribuire il modello completo llama-3-3-70b-instruct-hf ) o una versione quantizzata llama-3-3-70b-instruct ) che richiede meno risorse da ospitare.
Per ulteriori informazioni sulla distribuzione di un foundation model su richiesta nella regione di Dallas dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.
Distribuzione dei modelli di fondazione su richiesta con la libreria client Python
12 dicembre 2024
È ora possibile distribuire i modelli della fondazione su richiesta utilizzando la libreria client Python di watsonx.ai Utilizzando questo approccio, è possibile accedere alle capacità di questi potenti modelli di fondazione senza la necessità di disporre di ampie risorse di calcolo. I modelli Foundation distribuiti on-demand sono ospitati in uno spazio di distribuzione dedicato, dove è possibile utilizzare questi modelli per l'inferenza.
Per ulteriori informazioni, vedere Distribuzione dei modelli di fondazione su richiesta.
Tutorial aggiornati SPSS Modeler
11 dicembre 2024
Fate esperienza diretta con SPSS Modeler provando i 15 aggiornamenti di SPSS Modeler tutorial.
Confronto di risorse AI con Evaluation Studio
12 dicembre 2024
Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.
Per ulteriori informazioni, consultare la sezione Confronto degli asset AI con Evaluation Studio.
Miglioramenti alla console di governance
12 dicembre 2024
- Miglioramenti alla soluzione di Model Risk Governance watsonx.governance
Questa versione include i seguenti miglioramenti:
- Il nuovo modello di questionario AI Model Onboarding Risk Identification viene utilizzato durante il processo di onboarding del modello per aiutare a identificare i rischi associati a un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Foundation Model Onboarding.
- Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA viene utilizzato per aiutare a identificare i rischi associati ai casi d'uso dell'IA. Questo modello di questionario viene utilizzato nel flusso di lavoro di revisione dei casi d'uso. Questo nuovo questionario è destinato a sostituire il questionario per l'identificazione del rischio di IA
- Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA e dei modelli viene utilizzato per aiutare a identificare i rischi associati alla combinazione di un caso d'uso dell'IA e di un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Sviluppo e documentazione dei casi d'uso.
- Il flusso di lavoro di valutazione dell'intelligenza artificiale è ora disattivato per impostazione predefinita. È sostituito dal flusso di lavoro Valutazione del questionario. È ora possibile impostare i modelli di questionario direttamente nel flusso di lavoro dei casi d'uso.
- I flussi di lavoro, le viste e i dashboard sono stati aggiornati.
Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.
- Correzioni di bug e di sicurezza
Sono state applicate correzioni di bug e di sicurezza.
Per ulteriori informazioni, vedere Nuove funzioni in 9.0.0.5.
IBM watsonx.governance è disponibile nella regione di Sydney
9 dicembre 2024
IBM watsonx.governance è ora generalmente disponibile nel data center di Sydney. È possibile selezionare Sydney come regione preferita al momento dell'iscrizione.
Per ulteriori informazioni sulle funzioni del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e funzioni.
Settimana che termina il 6 dicembre 2024
Distribuzione di modelli di fondazione su richiesta nella regione di Dallas
6 dicembre 2024
Scegliete da una collezione curata di modelli di fondazione che potete distribuire su hardware dedicato per l'uso esclusivo della vostra organizzazione. Un'implementazione dedicata significa interazioni più reattive quando si inferiscono i modelli di fondazione. I modelli di fondazione Deploy on-demand sono fatturati all'ora. Per ulteriori informazioni, vedere Modelli di fondazione supportati e Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.
Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.
Inferenza dell'ultimo foundation model Llama da 'Meta nelle regioni di Dallas e Francoforte
6 dicembre 2024
Il foundation model multilingue 'Meta Llama 3.3 70B Instruct è disponibile per l'inserimento nelle regioni di Dallas e Francoforte. Il foundation model llama-3-3-70b-instruct è abile nella codifica, nel ragionamento passo-passo e nella chiamata degli strumenti. Con prestazioni che rivaleggiano con quelle del modello 405b, l'aggiornamento foundation model Llama 3.3 è un'ottima scelta per gli sviluppatori. Si veda l'annuncio di IBM.
Per ulteriori informazioni, vedi Supported foundation models.
Esaminare i benchmark per confrontare i modelli di fondazione
5 dicembre 2024
Esaminate i benchmark foundation model per conoscere le capacità dei modelli di fondazione disponibili prima di provarli. Confrontate le prestazioni dei vari modelli di fondazione sulle attività più importanti per il vostro caso d'uso. Per ulteriori informazioni, consultare i benchmark del modello Foundation.
I file Microsoft Excel sono deprecati per i modelli OPL in Decision Optimization
5 dicembre 2024
I file delle cartelle di lavoro Microsoft Excel (.xls e .xlsx) sono ora deprecati per l'input e l'output diretto nei modelli Decision Optimization OPL. Per collegarsi ai file Excel, utilizzare invece un connettore di dati. Il connettore dati trasforma il file Excel in un file .csv. Per ulteriori informazioni, vedere Dati di riferimento.
Nuovi notebook di esempio per la distribuzione di modelli convertiti in formato ONNX
3 dicembre 2024
È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Vedere i seguenti quaderni di esempio:
- Conversione della rete neurale ONNX da assi fissi ad assi dinamici
- Utilizzare il modello ONNX convertito da PyTorch
- Utilizzare il modello ONNX convertito da TensorFlow per riconoscere le cifre scritte a mano
Per ulteriori informazioni, consultare gli esempi di client Python runtime diwatsonx.ai.
I modelli di fondazione llama-3-8b-instruct e llama-3-70b-instruct sono deprecati
2 dicembre 2024
- I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.
llama-3-8b-instruct
- Data di ammortamento: 2 dicembre 2024
- Data di ritiro: 3 febbraio 2025
- Modello alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- Data di ammortamento: 2 dicembre 2024
- Data di ritiro: 3 febbraio 2025 (31 marzo a Sydney)
- Modello alternativo: llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct
Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.
Settimana che termina il 29 novembre 2024
Miglioramento della documentazione sulle opzioni di scrittura per Data Refinery
28 novembre 2024
Le opzioni di scrittura e le opzioni della tabella per l'esportazione dei flussi di dati dipendono dalla connessione. Queste opzioni vengono ora spiegate in modo da guidare meglio l'utente nella scelta delle opzioni della tabella di destinazione. Per ulteriori informazioni, vedere Opzioni di connessione target per Data Refinery.
Settimana che termina il 22 novembre 2024
Il nuovo watsonx Developer Hub per iniziare a codificare velocemente
21 ottobre 2024
Consultate il nuovo Developer Hub per trovare tutto ciò che vi serve per codificare la vostra soluzione di IA generativa:
- Effettuate la vostra prima richiesta API per inferenziare un foundation model in watsonx.ai
- Trovate i modelli di base e le librerie di codice giusti per le vostre applicazioni AI.
- Comprendere le funzionalità di watsonx.ai e copiare frammenti di codice in Curl, Node.js o Python.
- Imparate a costruire applicazioni e soluzioni di IA generativa con guide dettagliate.
- Unisciti alle comunità per trovare risorse, risposte e per coinvolgere gli altri utenti.
Andate al watsonx Developer Hub.
I servizi dei componenti di IBM watsonx.ai sono stati rinominati
21 novembre 2024
I seguenti servizi sono stati rinominati:
- Watson Machine Learning ora si chiama watsonx.ai Runtime
- Watson Studio ora si chiama watsonx.ai Studio
Alcuni video, quaderni ed esempi di codice potrebbero continuare a fare riferimento a questi servizi con i loro nomi precedenti.
IBM watsonx.ai è disponibile nella regione di Sydney
21 novembre 2024
Watsonx.ai è ora generalmente disponibile nel data center di Sydney, che può essere selezionata come regione preferita al momento dell'iscrizione.
Per ulteriori informazioni sui modelli di fondazione e sulle caratteristiche del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e caratteristiche.
Utilizzare i modelli di fondazione delle serie temporali IBM Granite e l'API watsonx.ai per prevedere i valori futuri (beta)
21 novembre 2024
Utilizzate l'API delle serie temporali per passare le osservazioni dei dati storici a un foundation model delle serie temporali IBM Granite in grado di prevedere i valori futuri con un'inferenza a zero colpi. Il metodo di previsione delle serie temporali dell'API watsonx.ai è disponibile come funzione beta. Per ulteriori informazioni, vedere Previsione dei valori futuri dei dati.
Utilizzare i modelli di incorporazione del testo di watsonx.ai dall'API di inferenza di Elasticsearch
21 novembre 2024
La versione " Elasticsearch " 8.16.0 ha aggiunto il supporto per la creazione di un endpoint di inferenza che utilizza un " watsonx.ai " foundation model per le attività di incorporazione del testo.
Per ulteriori informazioni, vedere Vettorializzazione del testo tramite l'API.
Promuovere i flussi di SPSS Modeler negli spazi di distribuzione
19 novembre 2024
È ora possibile promuovere direttamente i flussi di SPSS Modeler dai progetti agli spazi di distribuzione senza dover esportare il progetto e poi importarlo nello spazio di distribuzione. Per ulteriori informazioni, vedere Promozione dei flussi e dei modelli di SPSS Modeler.
Settimana che termina il 15 novembre 2024
Utilizzate l'app di chat demo IBM watsonx.ai senza restrizioni di prova collegando gli account
15 novembre 2024
È ora possibile utilizzare l'app di chat dell'account demo di IBM watsonx.ai senza limitazioni di utilizzo dei token o di tempo collegando l'account demo all'account IBM Cloud watsonx.ai a pagamento. Per maggiori dettagli, vedere Collegamento degli account IBM watsonx.ai demo e watsonx.ai.
Il pacchetto Node.js watsonx.ai è disponibile presso LangChain
11 novembre 2024
Il pacchetto watsonx.ai Node.js è disponibile per l'uso dalla libreria della comunità LangChain JavaScript. L'integrazione supporta le funzioni di watsonx.ai, come l'inferenza di modelli di fondazione, la generazione di incorporazioni di testo e la gestione di scambi di chat che includono funzionalità di chiamata di immagini e strumenti. Con l'integrazione di LangChain, è possibile richiamare queste funzionalità di watsonx.ai utilizzando interfacce coerenti che rendono più facile passare da un fornitore all'altro per confrontare le offerte e trovare la soluzione migliore per le proprie esigenze.
Per ulteriori informazioni, vedere Node.js SDK.
Le credenziali delle attività sono ora necessarie per distribuire le risorse ed eseguire i lavori da uno spazio di distribuzione
11 novembre 2024
Per migliorare la sicurezza dell'esecuzione dei lavori di distribuzione, è necessario inserire le credenziali dell'attività per distribuire le seguenti risorse da uno spazio di distribuzione:
- Modelli di prompt
- Servizi AI
- Modelli
- Funzioni Python
- Script
Inoltre, è necessario inserire le credenziali dell'attività per creare le seguenti distribuzioni dallo spazio di distribuzione:
- In linea
- Lavori
È inoltre necessario utilizzare le credenziali dell'attività per creare e gestire i lavori di distribuzione dal proprio spazio di distribuzione.
Per sapere come impostare le credenziali dell'attività e generare una chiave API, vedere Aggiunta di credenziali dell'attività.
Settimana che termina l'8 novembre 2024
Implementazione di applicazioni di IA generativa con servizi di IA
7 novembre 2024
Ora è possibile utilizzare i servizi AI di watsonx.ai per distribuire le applicazioni. Un servizio AI è un'unità di codice distribuibile che può essere utilizzata per catturare la logica dei casi d'uso dell'AI generativa. Mentre le funzioni Python sono il modo tradizionale per distribuire risorse di apprendimento automatico, i servizi AI offrono un'opzione più flessibile per distribuire codice per applicazioni AI generative, come lo streaming. Quando i servizi di intelligenza artificiale sono stati distribuiti con successo, è possibile utilizzare l'endpoint per l'inferenza dalla propria applicazione.
Per ulteriori informazioni, vedere Distribuzione dei servizi AI.
I modelli di fondazione granite-13b-chat-v2, llama2-13b-dpo-v7 e mt0-xxl-13b sono deprecati
4 novembre 2024
- I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.
granite-13b-chat-v2
- Data di ammortamento: 4 novembre 2024
- Data di ritiro: 3 febbraio 2025
- Modello alternativo: granite-3-8b-instruct
llama2-13b-dpo-v7
- Data di ammortamento: 4 novembre 2024
- Data di ritiro: 4 dicembre 2024
- Modello alternativo: llama-3-1-8b-instruct
mt0-xxl-13b
- Data di ammortamento: 4 novembre 2024
- Data di ritiro: 4 dicembre 2024
- Modelli alternativi: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.
Settimana che termina il 1° novembre 2024
Il nuovo modello di incorporazione di terze parti all-minilm-l6-v2 è disponibile in watsonx.ai
29 ottobre 2024
Il modello di incorporazione del testo all-minilm-l6-v2 della comunità open source di elaborazione del linguaggio naturale (NLP) e di visione artificiale (CV) è ora disponibile per l'uso dal metodo di incorporazione del testo dell'API watsonx.ai Utilizzare il modello per convertire il testo in vettori di incorporamento del testo, adatti per essere utilizzati in compiti di corrispondenza e recupero del testo. Per i dettagli sul modello, vedere i seguenti argomenti:
Prezzo più basso per l'inferenza del foundation model Mistral Large
29 ottobre 2024
Il prezzo per l'input inviato al foundation model Mistral Large è diminuito da 00.01 a 00.003 dollari USA per 1.000 gettoni. Il prezzo dell'output generato dal foundation model non è cambiato; il prezzo dei gettoni di output rimane di 00.01 USD/1,000 gettoni. La modifica del prezzo si applica a tutte le regioni in cui è disponibile il foundation model mistral-large.
Per ulteriori informazioni, vedi Supported foundation models.
Deprecazione del Runtime IBM 23.1
28 ottobre 2024
IBM Runtime 23.1 è deprecato. A partire dal 21 novembre 2024, non sarà più possibile creare nuovi notebook o ambienti personalizzati utilizzando i runtime 23.1. Inoltre, non è possibile creare nuove distribuzioni con specifiche software basate sul runtime 23.1. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a IBM Runtime 24.1.
- Per informazioni sulla modifica degli ambienti, vedere Modifica degli ambienti del notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Semplificate i documenti aziendali complessi con l'API per l'estrazione del testo
28 ottobre 2024
Il metodo di estrazione del testo è ora generalmente disponibile nell'API REST di watsonx.ai. Sfruttate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API di estrazione del testo estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non riescono a interpretare correttamente. Per ulteriori informazioni, vedere Estrazione di testo dai documenti.
L'API è disponibile in tutte le regioni per gli utenti dei piani a pagamento. Per i dettagli sui prezzi, vedere la tabella delle tariffe per l'estrazione del testo del documento.
Settimana che termina il 25 ottobre 2024
Confrontate le tabelle negli esperimenti di Decision Optimization vedere le differenze tra gli scenari
23 ottobre 2024
È ora possibile confrontare le tabelle in un esperimento di Decision Optimization nella vista Prepara dati o Esplora soluzione. Questo confronto può essere utile per vedere le differenze di valore dei dati tra gli scenari visualizzati uno accanto all'altro.
Per ulteriori informazioni, vedere Confronto delle tabelle di scenario.
I nuovi modelli Granite 3.0 sono disponibili su watsonx.ai
21 ottobre 2024
Da oggi è possibile fare l'inferenza dei seguenti modelli della generazione 3.0 Granite Foundation forniti da IBM da watsonx.ai:
- Modelli Instruct Granite in tutte le regioni: Utilizzate i nuovi modelli linguistici istruiti, leggeri e open-source per compiti come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, codifica e richiamo di funzioni. Funziona con le seguenti varianti di modello:
- granite-3-2b-instruct
- granite-3-8b-instruct
- I modelli Granite Guardian nella regione di Dallas: Utilizzare i nuovi modelli Granite Guardian, che sono modelli Granite Instruct perfezionati, progettati per individuare i rischi nelle richieste e nelle risposte. Funziona con le seguenti varianti di modello:
- granite-guardian-3-2b
- granite-guardian-3-8b
Per i dettagli, vedere Modelli di fondazione supportati .
Migliorare le attività di ricerca e recupero con l'API di rerank del testo
21 ottobre 2024
Il metodo text rerank è generalmente disponibile nell'API REST di watsonx.ai. Utilizzare questo nuovo metodo API, insieme ai modelli di fondazione del reranker, come il modello ms-marco-minilm-l-12-v2 recentemente supportato, per riordinare un insieme di passaggi di documenti in base alla loro somiglianza con una query specificata. Il reranking è un modo utile per aggiungere precisione ai flussi di lavoro di recupero delle risposte. Per ulteriori informazioni, consultare la sezione Passaggi di documenti di reranking.
Il nuovo modello Pixtral 12B è disponibile nelle regioni di Francoforte e Londra
21 ottobre 2024
Ora è possibile utilizzare il foundation model Pixtral 12B di Mistral AI su watsonx.ai nei data center di Francoforte e Londra.
Pixtral 12B è un modello nativamente multimodale con capacità di trasmissione da immagine a testo e da testo a testo che è stato addestrato con dati di immagine e testo interfogliati. Il foundation model supporta immagini di dimensioni variabili e si distingue per la capacità di seguire le istruzioni. Per i dettagli, vedere Modelli di fondazione supportati .
Utilizzare i modelli llama-3-2-11b-vision-instruct e llama-guard-11b-vision nelle regioni di Francoforte e Londra
21 ottobre 2024
È ora possibile lavorare con i modelli llama-3-2-11b-vision-instruct e llama-guard-11b-vision nei data center di Francoforte e Londra, oltre che in quello di Dallas. Per i dettagli, vedere Disponibilità regionale per i servizi e le funzioni su IBM Cloud e Chattare con le immagini.
Settimana che termina il 18 ottobre 2024
L'individuazione delle risorse dell'account è abilitata per impostazione predefinita
17 ottobre 2024
L'impostazione " Resource scope
per il vostro account è ora impostata di default su " ON
. Tuttavia, se in precedenza il valore dell'impostazione Ambito risorse è stato impostato su 'ON
o 'OFF
, l'impostazione corrente non viene modificata.
Quando la ricerca delle risorse è attivata, non è possibile accedere ai progetti che non sono presenti nell'account IBM Cloud attualmente selezionato. Se si appartiene a più di un account IBM Cloud, è possibile che non si vedano tutti i progetti elencati insieme. Ad esempio, è possibile che non vengano visualizzati tutti i progetti nella pagina Tutti i progetti. È necessario cambiare account per vedere i progetti negli altri account.
Nella regione di Francoforte è disponibile un foundation model Granite Code
15 ottobre 2024
Il foundation model granite-20b-code-instruct di IBM è progettato per rispondere alle istruzioni di codifica. È possibile utilizzare il foundation model nei progetti ospitati nel centro dati di Francoforte per aiutarsi nelle attività di codifica e per creare assistenti di codifica. Per ulteriori informazioni sul modello, vedere Modelli di fondazione supportati.
Settimana che termina l'11 ottobre 2024
Nuovo vantaggio della licenza
10 ottobre 2024
È ora possibile portare la propria licenza (BYOL) per applicare i vantaggi delle licenze on-premises a IBM watsonx.ai e IBM watsonx.governance.
Per ulteriori informazioni, vedere Attivazione della licenza BYOL (Bring Your Own License) per SaaS.
Analizzare i dati di testo giapponesi in SPSS Modeler con Text Analytics
9 ottobre 2024
È ora possibile utilizzare i nodi di Text Analytics di SPSS Modeler, come il nodo Text Link Analysis e il nodo Text Mining, per analizzare i dati di testo scritti in giapponese.
Creare flussi di lavoro conversazionali con l'API di chat watsonx.ai
8 ottobre 2024
Utilizzate l'API di chat watsonx.ai per aggiungere alle vostre applicazioni funzionalità di IA generativa, comprese le chiamate guidate dagli agenti a strumenti e servizi di terze parti.
Per ulteriori informazioni, fare riferimento ai seguenti argomenti:
Nuove specifiche software per i modelli di fondazione personalizzati
7 ottobre 2024
È ora possibile utilizzare una nuova specifica software " watsonx-cfm-caikit-1.1
con le distribuzioni foundation model personalizzato. La specifica si basa sulla libreria vLLM ed è più adatta ai più recenti modelli linguistici di grandi dimensioni con solo decodificatore. Per ulteriori informazioni sulla libreria vLLM, vedere vLLM Per informazioni sull'uso delle specifiche con un foundation model personalizzato, vedere Pianificazione della distribuzione di un foundation model personalizzato.
I modelli di fondazione granite-7b-lab e llama3-llava-next-8b-hf sono deprecati
7 ottobre 2024
Il foundation model granite-7b-lab è deprecato e sarà ritirato il 7 gennaio 2025. Rivedete tutti i suggerimenti che utilizzano questo foundation model.
- Data di ammortamento: 7 ottobre 2024
- Data di ritiro: 7 gennaio 2025
- Modello alternativo: granite-3-8b-instruct
Anche il foundation model multimodale llama3-llava-next-8b-hf è deprecato e sarà ritirato il 7 novembre 2024. È ora possibile utilizzare uno dei nuovi modelli di visione di Llama 3.2 per la generazione di immagini in formato testo.
- Data di ammortamento: 7 ottobre 2024
- Data di ritiro: 7 novembre 2024
- Modello alternativo: llama-3-2-11b-vision-instruct
Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.
Settimana che termina il 4 ottobre 2024
Ambienti e specifiche software aggiornati
3 ottobre 2024
Le librerie Tensorflow e Keras incluse in IBM Runtime 23.1 sono ora aggiornate alle versioni più recenti. Questo potrebbe avere un impatto sul modo in cui il codice viene eseguito nei notebook. Per maggiori dettagli, vedere i pacchetti di librerie inclusi nei runtime di watsonx.ai Studio (ex Watson Studio).
Il Runtime 23.1 verrà dismesso a favore del Runtime 24.1 IBM nel corso dell'anno. Per evitare ripetute interruzioni, si consiglia di passare subito a IBM Runtime 24.1 e di utilizzare le relative specifiche software per le implementazioni.
- Per informazioni sulla modifica degli ambienti, vedere Modifica degli ambienti del notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Disponibilità del piano watsonx.governance nella regione di Francoforte e deprezzamento del piano OpenScale legacy
3 ottobre 2024
Il piano legacy watsonx.governance per il provisioning di Watson OpenScale nella regione di Francoforte è deprecato. IBM Watson OpenScale non sarà più disponibile per nuove sottoscrizioni o per il provisioning di nuove istanze. Per le funzionalità OpenScale, sottoscrivete il piano Essentials di watsonx.governance, ora disponibile sia a Francoforte che a Dallas.
- Per visualizzare i dettagli del piano, vedi i piani watsonx.governance .
- Per iniziare, vedere Impostazione di watsonx.governance
Note:
- Le istanze del piano legacy esistenti continueranno a funzionare e saranno supportate fino alla data di fine del supporto, ancora da stabilire.
- I clienti esistenti su IBM Watson OpenScale possono continuare ad aprire ticket di assistenza utilizzando IBM Watson OpenScale.
Settimana che termina il 27 settembre 2024
Llama 3.2, compresi i modelli multimodali 11B e 90B sono disponibili
25 settembre 2024
Con il rilascio odierno, i seguenti modelli di fondazione di Meta AI sono disponibili nella regione di Dallas:
- Llama 3.2 modelli istruttori
- Modelli linguistici versatili e di grandi dimensioni che supportano input di grandi dimensioni (lunghezza della finestra di contesto di 128.000 token) e sono abbastanza leggeri ed efficienti, con dimensioni di 1B e 3B parametri, da poter essere inseriti in un dispositivo mobile. È possibile utilizzare questi modelli per costruire agenti altamente personalizzati e on-device.
- Llama 3.2 modelli di visione
- Modelli perfezionati costruiti per casi d'uso di tipo image-in e text-out, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia delle immagini.
- Modello di visione della Guardia del Lama
- Potente modello di guardrail progettato per filtrare i contenuti nocivi.
Per ulteriori informazioni, vedi Supported foundation models.
Miglioramenti alla console di governance
25 settembre 2024
Questa versione include miglioramenti e correzioni di bug.
- Schede personalizzate sul cruscotto
Il cruscotto può ora contenere fino a tre schede personalizzate.
- grafici a barre in pila
È ora possibile configurare un grafico a barre sovrapposte nel dashboard e nel View Designer.
- Utilizzare le espressioni per impostare i valori dei campi in base alle risposte dei partecipanti al questionario
È ora possibile inserire un'espressione per il valore di un campo. Ad esempio, si può inserire
[$TODAY$]
per la data corrente,[$END_USER$]
per il nome dell'utente registrato o[$System Fields:Description$]
per impostare il campo sul valore del campo Descrizione dell'oggetto.- Miglioramenti alla soluzione di Model Risk Governance watsonx.governance
Questa versione include i seguenti miglioramenti:
- Il nuovo tipo di oggetto Gruppo di modelli consente di raggruppare modelli simili. Ad esempio, le versioni di un modello che utilizzano un approccio simile per risolvere un problema aziendale possono essere inserite in un Gruppo di modelli.
- Il nuovo calcolo del punteggio di rischio dei casi d'uso aggrega le metriche per stato di violazione in punteggi di rischio per fornire una visione complessiva delle prestazioni dei modelli sottostanti di un caso d'uso.
- La nuova business entity Discovered AI library fornisce un luogo predefinito per archiviare tutte le implementazioni di IA che non seguono le pratiche di governance sanzionate all'interno di un'organizzazione (note anche come "IA ombra").
- I flussi di lavoro, le viste e i dashboard sono stati aggiornati.
Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.
- Correzioni di bug e di sicurezza
Sono state applicate correzioni di bug e di sicurezza.
Per ulteriori informazioni, vedere Nuove funzionalità in 9.0.0.4.
Automatizzare i modelli RAG con AutoAI SDK (beta)
23 settembre 2024
Utilizzate l'SDK AutoAI Python per automatizzare e accelerare la progettazione e l'implementazione di un modello ottimizzato di generazione aumentata dal recupero (RAG) basato sui vostri dati e sul vostro caso d'uso. RAG è dotato di molti parametri di configurazione, tra cui il modello linguistico di grandi dimensioni da scegliere, il modo in cui suddividere i documenti di grounding e il numero di documenti da recuperare. AutoAI automatizza l'esplorazione e la valutazione completa di un insieme vincolato di opzioni di configurazione e produce una serie di pipeline di modelli classificati in base alle prestazioni rispetto alla metrica di ottimizzazione.
Vedere Automazione di uno schema RAG con l'SDK AutoAI (Beta) per i dettagli sulla funzione e le note d'uso per la codifica di un esperimento RAG AutoAI.
Rimozione del runtime di Spark 3.3
23 settembre 2024
Il supporto per il runtime Spark 3.3 in IBM Analytics Engine sarà rimosso entro il 29 ottobre 2024 e la versione predefinita sarà cambiata in Spark 3.4. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a Spark 3.4.
A partire dal 29 ottobre 2024, non è più possibile creare o eseguire notebook o ambienti personalizzati utilizzando i runtime di Spark 3.3. Inoltre, non è possibile creare o eseguire distribuzioni con specifiche software basate sul runtime Spark 3.3.
- Per aggiornare l'istanza a Spark 3.4, vedere Replace Instance Default Runtime.
- Per informazioni dettagliate sugli ambienti disponibili per i notebook, vedere Modifica dell'ambiente di un notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Settimana che termina il 20 settembre 2024
Inferenza di un foundation model multimodale dal Prompt Lab
19 settembre 2024
È ora possibile aggiungere un'immagine in Prompt Lab e chattare sull'immagine richiedendo un foundation model multimodale in modalità chat. Oltre ai documenti di base, è ora possibile caricare immagini e chiedere a un foundation model che supporta le attività da immagine a testo il contenuto visivo dell'immagine. Per ulteriori informazioni, vedere Chattare con documenti e immagini.
Il nuovo modello llama3-llava-next-8b-hf è disponibile nella regione di Dallas
19 settembre 2024
È ora possibile utilizzare il nuovo foundation model multimodale llama3-llava-next-8b-hf su IBM watsonx.ai per aiutarci con le attività image-to-text.
Large Language and Vision Assistant (LLaVa) combina un modello linguistico di grandi dimensioni preaddestrato con un codificatore di visione preaddestrato per casi d'uso di chatbot multimodali. LLaVA NeXT Llama3 è addestrato su dati di immagini e testi più diversi e di alta qualità. Per i dettagli, vedere Modelli di fondazione supportati .
Usare l'SDK watsonx.ai Node.js per codificare applicazioni di IA generativa
18 settembre 2024
Inferenza e messa a punto dei modelli di fondazione in IBM watsonx as a Service in modo programmatico utilizzando il pacchetto watsonx.ai Node.js. Per ulteriori informazioni, vedere Node.js SDK.
Comprendere le politiche di indennizzo della proprietà intellettuale per i modelli di fondazione
18 settembre 2024
Ora è possibile comprendere meglio la politica di indennizzo della proprietà intellettuale di IBM e vedere quali modelli di fondazione hanno una copertura di indennizzo IP in watsonx.ai. Per ulteriori informazioni, vedere Tipi di modello e indennizzo IP.
Settimana che termina il 13 settembre 2024
Creare lavori batch per i flussi di SPSS Modeler negli spazi di distribuzione
10 settembre 2024
È ora possibile creare lavori batch per i flussi SPSS Modeler negli spazi di distribuzione. I flussi offrono la flessibilità di decidere quali nodi del terminale eseguire ogni volta che si crea un lavoro batch da un flusso. Quando si pianificano lavori batch per i flussi, il lavoro batch utilizza le origini dati e i target di output specificati nel flusso. La mappatura di queste sorgenti e uscite di dati è automatica se le sorgenti e i target di dati sono anche nello spazio di distribuzione. Per ulteriori informazioni sulla creazione di lavori batch dai flussi, vedere Creazione di lavori di distribuzione per flussi SPSS Modeler.
Per ulteriori informazioni sui flussi e i modelli negli spazi di distribuzione, vedere Deploying SPSS Modeler di flussi e modelli.
Settimana che termina il 6 settembre 2024
Portate il vostro foundation model all'inferenza da watsonx.ai nella regione di Dallas
3 settembre 2024
Oltre a lavorare con i modelli di fondazione curati da IBM, è ora possibile caricare e distribuire i propri modelli di fondazione. Dopo che i modelli sono stati distribuiti e registrati con watsonx.ai, è possibile creare dei prompt che inferiscono i modelli personalizzati in modo programmatico o dal Prompt Lab. Questa funzione è disponibile solo nella regione di Dallas.
Per saperne di più sul caricamento di modelli di fondazione personalizzati, vedere Deploy di modelli di fondazione personalizzati. Per informazioni sui piani e sui dettagli di fatturazione dei modelli di fondazione personalizzati, vedere i piani diwatsonx.ai Runtime.
Semplificate i documenti aziendali complessi con l'API di estrazione del testo del documento
3 settembre 2024
Applicate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API per l'estrazione del testo dei documenti estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non sono in grado di interpretare correttamente. Il metodo di estrazione del testo dell'API REST di watsonx.ai è una funzione beta.
Per ulteriori informazioni, vedere Estrazione di testo dai documenti.
Sono disponibili modifiche e aggiornamenti foundation model Granite Code
3 settembre 2024
Il foundation model granite-20b-code-instruct è stato modificato alla versione 1.1.0. L'ultima modifica è stata addestrata su una miscela di dati di alta qualità provenienti da domini di codice e di linguaggio naturale per migliorare le capacità di ragionamento e di seguire le istruzioni del modello.
I seguenti modelli di fondazione sono stati aggiornati per aumentare la dimensione della lunghezza della finestra di contesto supportata (ingresso + uscita) per i prompt da 8192 a 128.000:
- granite-3b-code-instruct
- granite-8b-code-instruct
Per ulteriori informazioni, vedi Supported foundation models.
Settimana che termina il 30 agosto 2024
I modelli llama-2-13b-chat e llama-2-70b-chat sono deprecati
26 agosto 2024
I modelli di fondazione llama-2-13b-chat e llama-2-70b-chat sono deprecati e saranno ritirati il 25 settembre 2024. Rivedete i suggerimenti che utilizzano questi modelli di base.
- llama-2-13b-chat
- Data di ammortamento: 26 agosto 2024
- Data di ritiro: 25 settembre 2024
- Modello alternativo: llama-3.1-8b-instruct
- llama-2-70b-chat
- Data di ammortamento: 26 agosto 2024
- Data di ritiro: 25 settembre 2024
- Modello alternativo: llama-3.1-70b-instruct
Le richieste di inferenza inviate ai modelli llama-2-13b-chat e llama-2-70b-chat tramite l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 25 settembre 2024, le richieste API per l'inferenza dei modelli non genereranno output.
Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione.
Settimana che termina il 23 agosto 2024
Aggiungere gruppi di utenti come collaboratori nei progetti e negli spazi
22 agosto 2024
È ora possibile aggiungere gruppi di utenti nei progetti e negli spazi se l'account IBM Cloud contiene gruppi di accesso IAM. L'amministratore dell'account IBM Cloud può creare gruppi di accesso, che sono poi disponibili come gruppi di utenti nei progetti. Per ulteriori informazioni, vedere Lavoro con i gruppi di accesso IAM.
Fine del supporto della funzione di previsione delle anomalie per gli esperimenti di serie temporali AutoAI
19 agosto 2024
La funzione di previsione delle anomalie (outlier) in AutoAI modelli di serie temporali, attualmente in beta, è deprecata e sarà rimossa il 23 settembre 2024. Gli esperimenti standard AutoAI di serie temporali sono ancora pienamente supportati. Per maggiori dettagli, vedere Costruzione di un esperimento di serie temporali.
Settimana che termina il 16 agosto 2024
I nuovi modelli di incorporazione Slate di IBM sono disponibili in tutte le regioni
15 agosto 2024
IBM I modelli di embedding di Slate offrono alle aziende la possibilità di generare embedding per vari input come query, passaggi o documenti. I nuovi modelli slate-125m-english-rtrvr-v2 e slate-30m-english-rtrvr-v2 mostrano miglioramenti significativi rispetto alle loro controparti v1. Se oggi utilizzate i modelli slate-125m-english-rtrvr e slate-30m-english-rtrvr, passate ai nuovi modelli v2 Slate per sfruttare i miglioramenti del modello.
Per ulteriori informazioni, vedere Modelli di fondazioni per encoder supportati.
Configurare i guardrail AI per l'input dell'utente e l'output foundation model separatamente in Prompt Lab
15 agosto 2024
Regolate la sensibilità dei guardrail dell'intelligenza artificiale che individuano e rimuovono i contenuti dannosi quando sperimentate i prompt foundation model nel Prompt Lab. È possibile impostare diversi livelli di sensibilità dei filtri per l'input dell'utente e per il testo di output del modello e salvare le impostazioni dei guardrail AI efficaci nei modelli di prompt.
Per ulteriori informazioni, vedere Rimozione di contenuti dannosi.
Settimana che termina il 9 agosto 2024
Selezionate i dati di test dai progetti per le valutazioni dei modelli di prompt
8 agosto 2024
Quando si valutano i modelli di prompt nei progetti, è ora possibile scegliere le risorse del progetto per selezionare i dati di test per le valutazioni. Per ulteriori informazioni, vedere Valutazione dei modelli di prompt nei progetti.
Il nuovo modello llama-3-1-70b-instruct è ora disponibile su IBM watsonx.ai
7 agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 70 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Q&A aggiornati con l'acceleratore RAG
6 agosto 2024
Il progetto campione Q&A con acceleratore RAG 1.2 include i seguenti miglioramenti:
Chiedete aiuto per la fase successiva dell'implementazione della retrieval-augmented generation (RAG): raccogliere il feedback degli utenti e analizzare la qualità delle risposte. Include analisi con rilevamento non supervisionato degli argomenti per mostrare gli argomenti più popolari, la soddisfazione degli utenti con le risposte generate per argomento e i punteggi di ricerca per argomento.
Nuovi modelli di prompt ottimizzati per i modelli di fondazione IBM granite-7b-lab e Meta Llama 3.1.
Codice semplificato che utilizza le utilità RAG della libreria watsonx.ai Python e filtri di ricerca vettoriale mirati per la ricerca per prodotto, area e altro.
Vedere Q&A con l'acceleratore RAG.
Settimana conclusiva del 2 agosto 2024
Il nuovo modello llama-3-1-8b-instruct è ora disponibile su IBM watsonx.ai
1° agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 8 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Associare gli spazi di lavoro ai casi d'uso dell'intelligenza artificiale
1° agosto 2024
Il flusso per la creazione di un caso d'uso dell'IA è stato modificato per allinearsi maggiormente al ciclo di vita dell'IA. Dopo aver definito gli elementi essenziali di un caso d'uso dell'IA, associate gli spazi di lavoro per organizzare le risorse in modo che si allineino alle fasi di una soluzione di IA. Ad esempio, si può associare un progetto o uno spazio per gli asset della fase di Sviluppo o di Convalida e uno spazio per gli asset della fase di Funzionamento.
Per maggiori dettagli, vedere Associazione di spazi di lavoro con un caso d'uso dell'intelligenza artificiale.
Settimana terminata il 26 luglio 2024
Annuncio del supporto per Python 3.11 E R4.3 framework e specifiche software in fase di runtime 24.1
25 luglio 2024
È ora possibile utilizzare IBM Runtime 24.1, che include i più recenti framework di data science basati su Python 3.11 e R 4.3, per eseguire notebook Jupyter e script R e addestrare modelli. A partire dal 29 luglio, è possibile eseguire anche le distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 24.1.
- Per informazioni su IBM Durata 24.1 rilascio e gli ambienti inclusi per Python 3.10 e R 4.2, Vedere Ambienti del notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Versione migliorata di Jupyter Notebook l'editor è ora disponibile
25 luglio 2024
Se utilizzi il tuo notebook in ambienti basati su Runtime 24.1, puoi utilizzare questi miglioramenti per lavorare con il tuo codice:
- Esegui il debug automatico del tuo codice
- Genera automaticamente un sommario per il tuo taccuino
- Attiva/disattiva i numeri di riga accanto al codice
- Comprimi il contenuto delle celle e utilizza la visualizzazione affiancata per codice e output, per una maggiore produttività
Per ulteriori informazioni, vedere Editor del taccuino Jupyter.
Modelli di incorporamento del trasformatore del processore del linguaggio naturale supportati con Runtime 24.1
25 luglio 2024
Nella nuova runtime 24.1 ambiente, ora puoi utilizzare modelli di incorporamento del trasformatore di elaborazione del linguaggio naturale (NLP) per creare incorporamenti di testo che catturano il significato di una frase o di un passaggio per facilitare le attività di generazione aumentata di recupero. Per ulteriori informazioni, vedere Incorporamenti.
Nuovi modelli NLP specializzati sono disponibili in Runtime 24.1
25 luglio 2024
I seguenti nuovi modelli PNL specializzati sono ora inclusi nel Runtime 24.1 ambiente:
- Un modello in grado di rilevare e identificare contenuti odiosi, offensivi o blasfemi (HAP) nei contenuti testuali. Per ulteriori informazioni, vedere Rilevamento HAP.
- Tre modelli pre-addestrati in grado di affrontare argomenti legati alla finanza, alla sicurezza informatica e alla biomedicina. Per ulteriori informazioni, vedere Classificare il testo con un modello di classificazione personalizzato.
Estrai approfondimenti dettagliati da grandi raccolte di testi utilizzando il riepilogo dei punti chiave
25 luglio 2024
Ora è possibile utilizzare la Riassunzione dei punti chiave nei blocchi note per estrarre informazioni dettagliate e attuabili da grandi raccolte di testi che rappresentano le opinioni delle persone (come le recensioni dei prodotti, le risposte ai sondaggi o i commenti sui social media). Il risultato viene fornito in modo organizzato e gerarchico, facile da elaborare. Per ulteriori informazioni, vedere Riepilogo dei punti chiave
Aggiornamento della versione di RStudio
25 luglio 2024
Per fornire un'esperienza utente coerente tra cloud privati e pubblici, l'IDE RStudio per IBM watsonx sarà aggiornato a RStudio Server 2024.04.1 e R 4.3.1 il 29 luglio 2024. La nuova versione di RStudio offre una serie di miglioramenti e correzioni di sicurezza. Per ulteriori informazioni, consultare le note di rilascio di RStudio Server 2024.04.1. Sebbene non siano previsti grossi problemi di compatibilità, gli utenti dovrebbero essere consapevoli delle modifiche alla versione per alcuni pacchetti descritti nella tabella seguente.
Quando si avvia l'IDE RStudio da un progetto dopo l'aggiornamento, ripristinare l'area di lavoro di RStudio per assicurarsi che il percorso delle librerie per i pacchetti R 4.3.1 venga rilevato dal server RStudio.
Una nuova versione del modello " Mistral Large è ora disponibile su " IBM " watsonx.ai nelle regioni di Dallas, Francoforte e Londra
24 luglio 2024
Ora è possibile utilizzare il 'Mistral Large 2 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Dallas, Francoforte e Londra.
Il modello Mistral Large 2 supporta 11 lingue ed è in grado di comprendere il testo, generare codice e fare ragionamenti avanzati. Per i dettagli, vedere Modelli di fondazione supportati .
Nuovo llama-3-405b-instruct il modello è disponibile nella regione di Dallas
23 luglio 2024
È ora possibile utilizzare il foundation model llama-3-405b-instruct di Meta su IBM watsonx.ai nel data center di Dallas.
Il modello llama-3-405B-instruct (v3.1) fornisce alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello ed è il più grande modello open-sourced mai rilasciato finora. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
IL merlinite-7b il modello è deprecato
22 luglio 2024
Il foundation model merlinite-7b è deprecato e sarà ritirato il 22 agosto 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.
- Data di ritiro: 22 luglio 2024
- Data di ritiro: 22 agosto 2024
- Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inviate al merlinite-7b modello utilizzando l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 22 agosto 2024, le richieste API per l'inferenza del modello non genereranno output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Settimana terminata il 12 luglio 2024
Il nuovo modello Mistral Large è disponibile nelle regioni di Francoforte e Dallas
9 luglio 2024
È ora possibile utilizzare il 'Mistral Large 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Francoforte e Dallas.
Mistral Large offre alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
Settimana terminata il 5 luglio 2024
Connettori raggruppati per tipo di origine dati
05 luglio 2024
Quando crei una connessione, i connettori vengono ora raggruppati per tipo di origine dati in modo che siano più facili da trovare e selezionare. Ad esempio, il tipo di origine dati MongoDB include i connettori IBM Cloud Databases for MongoDB e MongoDB.
Inoltre, un nuovo Recenti La categoria mostra gli ultimi sei connettori utilizzati per creare una connessione.
Per istruzioni, vedere Aggiunta di connessioni alle origini dati in un progetto .
Aggiungete informazioni contestuali ai prompt foundation model in Prompt Lab
4 luglio 2024
Aiutate un foundation model a generare risposte concrete e aggiornate nei casi d'uso di generazione aumentata dal reperimento (RAG) aggiungendo informazioni contestuali pertinenti al vostro prompt come dati di base. Puoi caricare rapidamente documenti rilevanti o connetterti a un negozio di vettori di terze parti con dati rilevanti. Quando viene inviata una nuova domanda, la domanda viene utilizzata per interrogare i dati di base per fatti rilevanti. I primi risultati della ricerca e la domanda originale vengono inviati come input del modello per aiutare il foundation model a incorporare i fatti rilevanti nel suo output.
Per ulteriori informazioni, vedere 'Fondare i prompt di 'foundation model su informazioni contestuali.
Cambia inCloud Object Storage Piani leggeri
1 luglio 2024
A partire dal 1 luglio 2024, ilCloud Object Storage Piano Lite che viene fornito automaticamente quando ti iscrivi per una prova di 30 giorniwatsonx.ai Ewatsonx.governance scade al termine del periodo di prova. Puoi aggiornare il tuoCloud Object Storage Lite al piano Standard con l'opzione Livello gratuito in qualsiasi momento durante i 30 giorni di prova.
EsistenteCloud Object Storage le istanze del servizio con piani Lite di cui hai effettuato il provisioning prima del 1° luglio 2024 verranno conservate fino al 15 dicembre 2024. Devi aggiornare il tuoCloud Object Storage servizio a un piano Standard prima del 15 dicembre 2024.
Settimana che termina il 21 giugno 2024
Crea distribuzioni scollegate per gestire i prompt per LLM (large language models) esterni
21 giugno 2024
Un modello di prompt separato è una nuova risorsa per valutare un modello di prompt per un LLM ospitato da un provider di terze parti, ad esempioGoogle IA del vertice,AzureOpenAI, OAWS Roccia di fondo. L'inferenza che genera l'output per il modello di prompt viene eseguita sul modello remoto, ma è possibile valutare l'output del modello di prompt utilizzando metriche watsonx.governance . È inoltre possibile tenere traccia della distribuzione scollegata e del modello di prompt scollegato in un caso di utilizzo AI come parte della soluzione di governance.
Per ulteriori informazioni, vedere:
Le credenziali dell'attività saranno richieste per le richieste di lavoro di distribuzione
19 giugno 2024
Per migliorare la sicurezza per l'esecuzione dei lavori di distribuzione, l'utente che richiede il lavoro dovrà fornire le credenziali dell'attività sotto forma di una chiave API. Il requisito sarà applicato a partire dal 15 agosto 2024. Consulta Aggiunta delle credenziali dell'attività per i dettagli sulla generazione della chiave API.
Valutare i casi di utilizzo per l'applicabilità dell'EU AI Act
19 giugno 2024
Utilizzando la nuova valutazione dell'applicabilità dell'EU AI Act, è possibile completare un semplice questionario per valutare i casi di uso dell'IA e determinare se rientrano nell'ambito dell'EU AI Act. La valutazione può anche aiutarti a identificare la categoria di rischio che i tuoi casi d'uso allineano a: proibito, alto, limitato o minimo. Per ulteriori informazioni, vedere Valutazione dell'applicabilità in Componenti della soluzione nella console di governance.
Settimana che termina il 7 giugno 2024
Gestisci le attività di rischio e conformità con la console di Governance ( IBM OpenPages)
7 giugno 2024
Watsonx.governance ora supporta l'integrazione opzionale con la console di governance. Se hai installato il modulo Model Risk Governance di IBM OpenPages, puoi configurare i casi d'uso dell'intelligenza artificiale per sincronizzare i fatti di governance con la console di governance. Dalla console di governance è possibile creare casi d'uso, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:
Settimana che termina il 31 maggio 2024
IBM Watson Pipelines è ora IBM Orchestration Pipelines
30 maggio 2024
Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.
Taggare i progetti per un facile recupero
31 maggio 2024
È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.
Connettersi a una nuova fonte di dati: Milvus
31 maggio 2024
Utilizzare la connessione Milvus per memorizzare e confermare l'esattezza delle credenziali e dei dettagli di connessione per accedere a un negozio di vettori Milvus. Per informazioni, consultare la sezione Connessione Milvus.
Settimana che termina il 24 maggio 2024
Nuovo tutorial e video
23 maggio 2024
Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Valutare una distribuzione negli spazi | Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione. | Configurare i monitor e valutare un modello in uno spazio di distribuzione. |
Il foundation model allam-1-13b-instruct è disponibile nella regione di Francoforte
21 maggio 2024
Il foundation model arabo allam-1-13b-instruct della Saudi Authority for Data and Artificial Intelligence e fornito da IBM è disponibile presso watsonx.ai nel data center di Francoforte. È possibile utilizzare il foundation model allam-1-13b-instruct per compiti generici, tra cui domande e risposte, riassunti, classificazioni, generazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.
Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python
21 maggio 2024
La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.
Settimana che termina il 17 maggio 2024
I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai
16 maggio 2024
I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:
- all-minilm-l12-v2
- multilingual-e5-large
Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
Per ulteriori informazioni su questi modelli, vedere Modelli di fondazioni per encoder supportati.
Per ulteriori informazioni sulla conversione del testo, consultare Generazione di integrazione del testo.
Settimana che termina il 10 maggio 2024
I nuovi modelli di fondazione Granite Code sono disponibili nella regione di Dallas
9 maggio 2024
Da oggi è possibile fare l'inferenza dei seguenti modelli di Granite Code Foundation forniti da IBM da watsonx.ai:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Utilizzate i nuovi modelli della fondazione Granite Code per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.
Per ulteriori informazioni, vedi Supported foundation models.
I modelli di fondazione InstructLab sono disponibili in watsonx.ai
7 maggio 2024
InstructLab è un'iniziativa open source di Red Hat e IBM che fornisce una piattaforma per aumentare le capacità di un foundation model. I seguenti modelli di base supportano le conoscenze e le competenze fornite da InstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
È possibile esplorare i contributi della comunità open source dalla pagina della tassonomia del foundation model.
Per ulteriori informazioni, vedereInstructLab-compatible modelli di fondazione .
Settimana che termina il 3 maggio 2024
Organizzare gli asset del progetto in cartelle
2 maggio 2024
È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).
Settimana che termina il 26 aprile 2024
IBM watsonx.ai è disponibile nella regione di Londra
25 apr 2023
Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.
- I modelli di fondazione pienamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o tramite l'API. Le eccezioni sono mt0-xxl-13b e il foundation model llama-2-70b-chat, che è stato sostituito dal modello foundation model llama-3-70b-instruct, ora disponibile.
- Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
- Sono supportati i due modelli di integrazione IBM e l'API di integrazione.
Per ulteriori informazioni, vedi Disponibilità regionale per i servizi e le funzioni.
Avviare una chat in Prompt Lab direttamente dalla home page
25 apr 2023
Ora è possibile avviare una conversazione con un foundation model dalla home page di IBM watsonx.ai Immettere una domanda da inviare a un foundation model in modalità chat o fare clic su Apri Prompt Lab per scegliere un foundation model e i parametri del modello prima di inviare l'input del modello.
Settimana che termina il 19 aprile 2024
Nuovi modelli di fondazione Meta Llama 3 sono ora disponibili
18 apr 2024
I seguenti modelli di fondazione Llama 3 forniti da Meta possono essere dedotti da watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.
Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.
Per ulteriori informazioni, vedi Supported foundation models.
Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati
18 apr 2024
È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
Sono disponibili i seguenti modelli di integrazione IBM Slate:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
Per ulteriori informazioni, consultare Generazione di incorporazione del testo.
Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.
IBM watsonx.governance viene incluso quando ti registri per IBM watsonx.ai
18 apr 2024
Se ti registri per watsonx.ai nella regione Dallas, watsonx.governance viene ora incluso automaticamente. Vedi Registrazione per IBM watsonx as a Service.
Valutazione delle distribuzioni di machine learning negli spazi
18 apr 2024
Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.
Per ulteriori informazioni, vedi Valutazione delle distribuzioni negli spazi.
Nella regione di Tokyo è disponibile un foundation model in lingua coreana
18 apr 2024
Il foundation model llama2-13b-dpo-v7 fornito da Minds & Company e basato sul foundation model Llama 2 di Meta è disponibile nella regione di Tokyo.
Il foundation model llama2-13b-dpo-v7 è specializzato in compiti di conversazione in coreano e inglese. È inoltre possibile utilizzare il foundation model llama2-13b-dpo-v7 per compiti generici in lingua coreana.
Per ulteriori informazioni, vedi Supported foundation models.
Per l'inferenza è disponibile un foundation model mixtral-8x7b-instruct-v01
18 apr 2024
Il foundation model mixtral-8x7b-instruct-v01 di Mistral AI è disponibile per l'inferenza su watsonx.ai Il foundation model mixtral-8x7b-instruct-v01 è un modello generativo preaddestrato che utilizza una rete rada di esperti per generare testo in modo più efficiente.
Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.
Il foundation model mixtral-8x7b-instruct-v01-q è deprecato e sarà ritirato il 20 giugno 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.
- Data di obsolescenza: 19 aprile 2024
- Data di recesso: 20 giugno 2024
- Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Viene introdotta una modifica al foundation model granite-20b-multilingual
18 apr 2024
L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.
Per ulteriori informazioni su questo foundation model, vedere Modelli di fondazione supportati.
Settimana che termina il 12 aprile 2024
Messa a punto del foundation model granite-13b-instruct-v2
11 apr 2024
Il Tuning Studio ora supporta la messa a punto del foundation model granite-13b-instruct-v2, oltre ai modelli di fondazione flan-t5-xl-3b e llama-2-13b-chat. Per ulteriori informazioni, vedere Messa a punto di un foundation model.
Le impostazioni di configurazione dell'esperimento per la messa a punto del foundation model granite-13b-instruct-v2 cambiano per applicare i migliori valori predefiniti a seconda dell'attività svolta. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.
Nella regione di Francoforte è disponibile un foundation model in lingua araba
11 apr 2024
Il foundation model jais-13b-chat fornito da Inception, Mohamed bin Zayed University of Artificial Intelligence e Cerebras Systems è disponibile nella regione di Francoforte.
Il foundation model jais-13b-chat è specializzato in compiti di conversazione in arabo e inglese. È inoltre possibile utilizzare il " jais-13b-chat e il " foundation model per attività generiche in lingua araba, compresa la traduzione tra arabo e inglese.
Per ulteriori informazioni, vedi Supported foundation models.
Visualizzare il testo completo di un prompt in Prompt Lab
11 apr 2024
Ora è possibile rivedere il testo completo del prompt che verrà inviato al foundation model, utile quando il prompt include variabili di prompt o quando si lavora in modalità strutturata o in modalità chat.
Per ulteriori informazioni, vedere Prompt Lab.
I modelli Granite versione 1 obsoleti vengono ritirati
11 apr 2024
I seguenti modelli di fondazione vengono ora ritirati:
- granite-13b-chat-v1
- granite-13b-instruct-v1
Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base IBM Granite v2 . Per ulteriori informazioni sulla deprecazione e sul ritiro dei foundation model, vedere Ciclo di vita dei modelli di fondazione.
Settimana che termina il 5 aprile 2024
Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization
5 aprile 2024
È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.
Settimana che termina il 15 marzo 2024
L'API watsonx.ai è disponibile
14 marzo 2024
L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, consultare il riferimento API.
La versione API è 2024-03-14
.
È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.
Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo
14 marzo 2024
I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:
granite-20b-multilingual: un foundation model della famiglia IBM Granite che può essere utilizzato per vari compiti generativi in inglese, tedesco, spagnolo, francese e portoghese.
codellama-34b-instruct-hf: Un modello di generazione di codice programmatico da Code Llama basato su Llama 2 da Meta. Puoi utilizzare codellama-34b-instruct-hf per creare prompt per la creazione di codici basati su input in linguaggio naturale e per il completamento e il debug del codice.
Per ulteriori informazioni, vedi Supported foundation models.
Settimana che termina l'8 marzo 2024
Tuning Studio è disponibile a Francoforte
7 marzo 2024
Tuning Studio è ora disponibile per gli utenti dei piani a pagamento nella regione di Francoforte. Tuning Studio aiuta a guidare un foundation model per ottenere risultati utili. È possibile accordare sia i modelli di fondazione flan-t5-xl-3b che llama-2-70b-chat quando si utilizza il Tuning Studio di Francoforte.
Per ulteriori informazioni, vedere Tuning Studio.
Messa a punto del foundation model llama-2-13b-chat nella regione di Tokyo
7 marzo 2024
Il Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat nella regione di Tokyo. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot.
Per ulteriori informazioni, vedere Tuning Studio.
Prezzo più basso per modello Mixtral8x7b
5 marzo 2024
Il " foundation model " mixtral-8x7b-instruct-v01-q viene riclassificato dall'unità di classe 2: " $0.0018/Resource all'unità di classe 1: " $0.0006/Resource, rendendo più conveniente l'esecuzione di compiti di inferenza su questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q.
Per ulteriori informazioni, vedi Supported foundation models.
Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.
L'atlante del rischio AI è aggiornato e migliorato
5 marzo 2024
Ora è possibile trovare i seguenti contenuti nuovi e migliorati nell'atlante del rischio AI:
- Una nuova categoria di rischi non tecnici che comprende la governance, la conformità legale e i rischi di impatto sociale
- Nuovi esempi di rischi
- Definizioni più chiare dei rischi
Vedere AI risk atlas.
Nuovi casi di utilizzo per watsonx
5 marzo 2024
I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:
- Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
- Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.
Vedi Casi di usowatsonx.
Settimana che termina il 1 marzo 2024
La modalità chat è disponibile in Prompt Lab
29 febbraio 2024
La modalità Chat di Prompt Lab è una semplice interfaccia di chat che facilita la sperimentazione dei modelli di fondazione. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.
Per ulteriori informazioni, vedere Prompt Lab.
Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo
29 febbraio 2024
Il foundation model granite-8b-japanese fornito da IBM è disponibile presso watsonx.ai nella regione di Tokyo. Il foundation model granite-8b-japanese è basato sul modello IBM Granite Instruct ed è addestrato a comprendere e generare testo giapponese.
Il foundation model granite-8b-japanese può essere utilizzato per compiti generici in lingua giapponese, come la classificazione, l'estrazione, la risposta a domande e la traduzione linguistica tra giapponese e inglese.
Per ulteriori informazioni, vedi Supported foundation models.
Settimana conclusosi il 23 febbraio 2024
Prezzo più basso per i modelli Granite-13b
21 febbraio 2024
I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
Per ulteriori informazioni su questi modelli, vedi Supported foundation models.
Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.
Settimana che termina il 16 febbraio 2024
Nuovo collegamento per iniziare a lavorare su attività comuni
15 febbraio 2024
È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.
Nuovo foundation model mixtral-8x7b-instruct-v01-q per compiti di uso generale
15 febbraio 2024
Il foundation model mixtral-8x7b-instruct-v01-q fornito da Mistral AI e quantizzato da IBM è disponibile su watsonx.ai. Il foundation model mixtral-8x7b-instruct-v01-q è una versione quantizzata del modello foundation model Mixtral 8x7B Instruct di Mistral AI.
È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.
I seguenti modelli sono obsoleti e verranno ritirati a breve. Modificate tutti i prompt che utilizzano questi modelli di base per utilizzare un altro foundation model, ad esempio mixtral-8x7b-instruct-v01-q.
Modello obsoleto | Data di deprecazione | Data di ritiro | Modello alternativo |
---|---|---|---|
gpt-neox-20b | 15 febbraio 2024 | 21 marzo 2024 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 15 febbraio 2024 | 21 marzo 2024 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 15 febbraio 2024 | 11 aprile 2024 | mixtral-8x7b-instruct-v01-q |
Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
È disponibile una modifica al foundation model granite-13b-chat-v2
15 febbraio 2024
L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Cos'è l'allineamento AI? post del blog di IBM Research.
Nuovo video e esercitazione watsonx
15 febbraio 2024
Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Valutare un modello di machine learning | Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. | Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare. |
Settimana che termina il 09 febbraio 2024
Altra documentazione Decision Optimization orientata alle attività
9 febbraio 2024
Ora è possibile trovare più facilmente le informazioni corrette per la creazione e la configurazione degli esperimenti di Decision Optimization . Vedere EsperimentiDecision Optimization e relative sottosezioni.
La connessione IBM Cloud Data Engine è obsoleta
8 febbraio 2022
La connessione IBM Cloud Data Engine è deprecata e sarà interrotta in una release futura. Per date e dettagli importanti, consultare la sezione Deprecation of Data Engine.
Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery
9 febbraio 2024
Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.
L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.
Aggiornare i lavori del flusso Data Refinery per utilizzare il nuovo ambiente Default Spark 3.4 & R 4.2 . Per i dettagli, consultare Opzioni di risorse di calcolo per Data Refinery nei progetti.
Settimana che termina il 2 febbraio 2024
Raccolta di esempi ridenominata in hub di risorse
2 febbraio 2024
La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.
IBM Cloud Databases for DataStax è stata interrotta
2 febbraio 2024
La connessione IBM Cloud Databases for DataStax è stata rimossa da IBM watsonx.ai.
La connessione Dremio richiede aggiornamenti
2 febbraio 2024
In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.
Importante: aggiornare le proprietà di connessione. Diverse modifiche si applicano a una connessione per un'istanza Dremio Software (in loco) o un'istanza Dremio Cloud.
Dremio Software: aggiornare il numero di porta.
Il numero di porta predefinito utilizzato da Flight è 32010
. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedere Configurazione tramite dremio.conf
Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.
Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.
- Accedere a Dremio e generare un token di accesso personale. Per le istruzioni, vedere Token di accesso personale.
- In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
- Selezionare La porta è abilitata SSL.
Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:
- Modificare
sql.dremio.cloud
indata.dremio.cloud
- Modificare
sql.eu.dremio.cloud
indata.eu.dremio.cloud
Mettere a punto il foundation model llama-2-13b-chat
1 febbraio 2024
Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot. Il llama-2-13b-model è disponibile per una pronta messa a punto nella regione di Dallas. Per ulteriori informazioni, vedere Tuning Studio.
Settimana che termina il 26 gennaio 2024
AutoAI supporta i dati ordinati per tutti gli esperimenti
25 gennaio 2024
Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.
Q & A con acceleratore RAG
26 gennaio 2024
È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.
Provare Q & A con l'acceleratore RAG.
Imposta su tema scuro
25 gennaio 2024
Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato in RStudio e nei notebook Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.
IBM watsonx.ai è disponibile nella regione di Tokyo
25 gennaio 2024
Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza foundation model sono supportati nella regione di Tokyo per questi modelli:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
Disponibile anche nella regione di Tokyo:
- Messa a punto del foundation model flan-t5-xl-3b con Tuning Studio
- Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento
Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.
Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo
25 gennaio 2024
Il foundation model elyza-japanese-llama-2-7b-instruct fornito da ELYZA, Inc è disponibile presso le istanze di watsonx.ai nel centro dati di Tokyo. Il modello elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di Meta addestrata a comprendere e generare testo giapponese.
È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.
Settimana conclusosi il 12 gennaio 2024
Supporto per IBM Runtime 22.2 deprecato in watsonx.ai Runtime (ex Watson Machine Learning)
11 gennaio 2024
IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 . Aggiornare gli asset e le distribuzioni per utilizzare IBM Runtime 23.1 prima del 7 marzo 2024.
- Per ulteriori informazioni sulla migrazione di un asset a un framework supportato e a una specifica software, consultare Gestione di framework o specifiche software obsoleti.
- Per ulteriori informazioni sull'ambiente del notebook, consultare Opzioni di calcolo delle risorse per l'editor del notebook nei progetti.
- Per ulteriori informazioni sulla modifica dell'ambiente, consultare Modifica dell'ambiente di un notebook.
IBM Granite v1 foundation models sono obsoleti
11 gennaio 2024
I modelli IBM Granite 13 miliardi - parameter v1 foundation sono obsoleti e verranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.
Modello obsoleto | Data di deprecazione | Data di ritiro | Modello alternativo |
---|---|---|---|
granite-13b-chat-v1 | 11 gennaio 2024 | 11 aprile 2024 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 11 gennaio 2024 | 11 aprile 2024 | granite-13b-instruct-v2 |
Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.
Per ulteriori informazioni sui modelli di fondazione IBM Granite , vedi Modelli di fondazione creati da IBM. Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Settimana che termina il 15 dicembre 2023
Crea chiavi API utente per lavori e altre operazioni
15 dicembre 2023
Alcune operazioni di runtime in IBM watsonx, come lavori e formazione del modello, richiedono una chiave API come credenziale per un'autorizzazione sicura. Con le chiavi API dell'utente, puoi ora generare e ruotare la tua chiave API direttamente in IBM watsonx come necessario per garantire il corretto funzionamento delle tue operazioni. Le chiavi API sono gestite in IBM Cloud, ma puoi facilmente crearle e ruotarle in IBM watsonx.
La chiave API utente è specifica dell'account e viene creata da Profilo e impostazioni nel tuo profilo account.
Per ulteriori informazioni, vedi Gestione della chiave API utente.
Nuove esercitazioni e video watsonx
15 dicembre 2023
Provate i nuovi tutorial watsonx.governance e watsonx.ai per imparare a mettere a punto un foundation model e a valutare e monitorare un modello di prompt.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Mettere a punto un foundation model | Mettere a punto un foundation model per migliorarne le prestazioni. | Utilizzare Tuning Studio per ottimizzare un modello senza codifica. |
Valutare e tracciare un modello di prompt | Valutare un modello di prompt per misurare le prestazioni del foundation model e seguire il modello di prompt durante il suo ciclo di vita. | Utilizzare lo strumento di valutazione e un caso di utilizzo AI per tenere traccia del modello di prompt. |
Trovate altri video di watsonx.governance e watsonx.ai nella Videoteca.
Nuova scadenza e disconnessione della sessione di login a causa di inattività
15 dicembre 2023
Sei ora scollegato da IBM Cloud a causa della scadenza della sessione. La sessione può scadere a causa della scadenza della sessione di accesso (24 ore per impostazione predefinita) o dell'inattività (2 ore per impostazione predefinita). Puoi modificare le durate predefinite nelle impostazioni di accesso (IAM) in IBM Cloud. Per ulteriori informazioni, consultare Impostazione della scadenza della sessione di login.
Il connettore IBM Cloud Databases for DataStax è deprecato
15 dicembre 2023
Il connettore IBM Cloud Databases for DataStax è deprecato e sarà interrotto in una release futura.
Settimana che termina il 08 dicembre 2023
Tuning Studio è disponibile
7 dicembre 2023
Tuning Studio aiuta a guidare un foundation model per ottenere risultati utili. Con Tuning Studio, è possibile mettere a punto il foundation model flan-t5-xl-3b per migliorarne le prestazioni in compiti di elaborazione del linguaggio naturale come la classificazione, la sintesi e la generazione. L'ottimizzazione rapida consente ai modelli di base più piccoli e più efficienti dal punto di vista computazionale di raggiungere risultati paragonabili ai modelli più grandi della stessa famiglia di modelli. Ottimizzando e distribuendo una versione ottimizzata di un modello più piccolo, è possibile ridurre i costi di inferenza a lungo termine. Il Tuning Studio è disponibile per gli utenti dei piani a pagamento nella regione di Dallas.
- Per ulteriori informazioni, vedere Tuning Studio.
- Per iniziare, vedere Avvio rapido: Messa a punto di un foundation model.
- Per eseguire un notebook di esempio, vai a Tune a model to classify CFPB documents in watsonx.
Nuove proprietà client nelle connessioni Db2 per la gestione del workload
8 dicembre 2023
È ora possibile specificare le proprietà nei campi seguenti per scopi di controllo: Nome applicazione, Informazioni sull'account client, Nome host cliente Utente client. Questi campi sono facoltativi e sono disponibili per le seguenti connessioni:
Settimana che termina il 1 dicembre 2023
Watsonx.governance è disponibile!
1 dicembre 2023
Watsonx.governance estende le capacità di governance di Watson OpenScale per valutare gli asset foundation model e quelli di apprendimento automatico. Ad esempio, valutare i modelli di prompt " foundation model per dimensioni come l'accuratezza o per rilevare la presenza di discorsi odiosi e offensivi. È inoltre possibile definire i casi di utilizzo dell'IA per risolvere i problemi di business, quindi tenere traccia dei modelli di prompt o dei dati del modello nei factsheet per supportare gli obiettivi di conformità e governance. I piani e le funzionalità di Watsonx.governance sono disponibili solo nella regione di Dallas.
- Per visualizzare i dettagli del piano, vedi i piani watsonx.governance .
- Per i dettagli sulle funzioni di governance, vedi Panoramica diwatsonx.governance.
Esplora con l'atlante del rischio AI
1 dicembre 2023
Ora è possibile esplorare alcuni dei rischi di lavorare con l'intelligenza artificiale generativa, i modelli di base e i modelli di machine learning. Scopri i rischi per privacy, correttezza, esplicabilità, allineamento dei valori e altre aree. Vedere AI risk atlas.
Sono disponibili nuove versioni dei modelli IBM Granite
30 novembre 2023
Le versioni più recenti dei modelli Granite includono queste modifiche:
granite - 13b - chat - v2: ottimizzato per rispondere meglio alle domande - risposta, riepilogo e attività generative. Con un contesto sufficiente, genera risposte con i seguenti miglioramenti rispetto alla versione precedente:
- Genera risposte più lunghe e di qualità superiore con un tono professionale
- Supporta le risposte a catena di pensiero
- Riconosce le citazioni delle persone e può rilevare meglio il tono e il sentimento
- Gestisce gli spazi vuoti nell'input in modo più grazioso
A causa di modifiche estese, verifica e rivedi tutte le richieste che sono state progettate per v1 prima di passare alla versione più recente.
granite - 13b - instruct - v2: ottimizzato specificamente per attività di classificazione, estrazione e riepilogo. La versione più recente differisce dalla versione precedente nei seguenti modi:
- Restituisce risposte più coerenti di varie lunghezze e con un vocabolario diverso
- Riconosce le citazioni delle persone e può riepilogare gli input più lunghi
- Gestisce gli spazi vuoti nell'input in modo più grazioso
I prompt ingegnerizzati che funzionano bene con v1 probabilmente funzioneranno bene anche con v2 , ma assicurati di eseguire il test prima di passare ai modelli.
Le ultime versioni dei modelli Granite vengono categorizzate come modelli di Classe 2.
Alcuni modelli di fondazione sono ora disponibili a costi inferiori
30 novembre 2023
Alcuni modelli di fondazione popolari sono stati ricategorizzati in classi di fatturazione a basso costo.
I seguenti modelli di fondazione sono stati modificati da Classe 3 a Classe 2:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b
Il seguente foundation model è passato dalla Classe 2 alla Classe 1:
- llama-2-13b
Per ulteriori informazioni sulle classi di fatturazione, vedere i piani di runtimewatsonx.ai.
È disponibile un nuovo notebook di esempio: Introduzione a RAG con Discovery
30 novembre 2023
Utilizza il notebook Introduzione a RAG con rilevamento per informazioni su come applicare il pattern di generazione aumentato del richiamo in IBM watsonx.ai con IBM Watson Discovery come componente di ricerca. Per ulteriori informazioni, vedere Introduzione a RAG con Discovery.
Comprendere le differenze tra watsonx as a service e le distribuzioni software
30 novembre 2023
Puoi ora confrontare le funzioni e l'implementazione di IBM watsonx as a Service e watsonx su software Cloud Pak for Data , versione 4.8. Vedi Differenze funzione tra le distribuzioni watsonx.
Modifica alla modalità di gestione delle sequenze di arresto
30 novembre 2023
Quando nel Prompt Lab viene specificata una sequenza di stop, come ad esempio un carattere newline, il testo di output del modello termina dopo la prima occorrenza della sequenza di stop. L'output del modello si arresta anche se la ricorrenza si trova all'inizio dell'output. In precedenza, la sequenza di arresto veniva ignorata se era stata specificata all'inizio dell'output del modello.
Settimana che termina il 10 novembre 2023
È disponibile una versione più piccola del modello Llama-2 Chat
9 novembre 2023
Puoi ora scegliere se utilizzare le versioni 13b o 70b del modello Llama-2 Chat. Considera questi fattori quando fai la tua scelta:
- Costo
- Prestazioni
La versione 13b è un modello Classe 2, il che significa che è più economico da utilizzare rispetto alla versione 70b . Per confrontare i parametri di riferimento e altri fattori, come le emissioni di anidride carbonica per ogni dimensione del modello, consultare la scheda del modello.
Utilizzare le variabili di prompt per creare prompt riutilizzabili
Aggiungi flessibilità ai tuoi prompt con variabili di prompt. Le variabili di prompt funzionano come segnaposto nel testo statico dell'input di prompt che è possibile sostituire dinamicamente con il testo al momento dell'inferenza. È possibile salvare i nomi delle variabili di prompt e i valori predefiniti in un asset del modello di prompt per riutilizzare se stessi o condividere con i collaboratori nel progetto. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.
Annuncio del supporto per i framework Python 3.10 e R4.2 e le specifiche software sul runtime 23.1
9 novembre 2023
È ora possibile utilizzare IBM Runtime 23.1, che include i più recenti framework di data science basati su Python 3.10 e R 4.2, per eseguire notebook Jupyter e script R, addestrare modelli ed eseguire distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 23.1.
- Per informazioni sulla release IBM Runtime 23.1 e sugli ambienti inclusi per Python 3.10 e R 4.2, vedere Modifica degli ambienti notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Utilizzare Apache Spark 3.4 per eseguire notebook e script
Spark 3.4 con Python 3.10 e R 4.2 è ora supportato come runtime per i notebook e gli script RStudio nei progetti. Per i dettagli sugli ambienti notebook disponibili, vedere Opzioni di calcolo delle risorse per l'editor di notebook nei progetti e Opzioni di calcolo delle risorse per RStudio nei progetti.
Settimana che termina il 27 ottobre 2023
Utilizzare un connettore Satellite Connector per connettersi a un database in loco
26 ottobre 2023
Utilizzare il nuovo connettore Satellite per connettersi a un database non accessibile tramite Internet (ad esempio, dietro un firewall). Satellite Connector utilizza una comunicazione leggera basata su Dockerche crea comunicazioni sicure e controllabili dall'ambiente in loco a IBM Cloud. Per istruzioni, vedi Connessione ai dati dietro un firewall.
Secure Gateway è obsoleto
26 ottobre 2023
IBM Cloud ha annunciato l'obsolescenza di Secure Gateway. Per informazioni, consultare la panoramica e la cronologia.
Se attualmente si dispone di connessioni configurate con Secure Gateway, pianificare l'utilizzo di un metodo di comunicazione alternativo. In IBM watsonx, è possibile utilizzare il connettore Satellite come sostituto di Secure Gateway. Consultare Connessione ai dati dietro un firewall.
Settimana che termina il 20 ottobre 2023
Dimensioni massime token aumentate
16 ottobre 2023
I limiti precedentemente applicati al numero massimo di token consentiti nell'output dai modelli di fondazione vengono rimossi dai piani a pagamento. È possibile utilizzare valori massimi di token più grandi durante l'ingegnerizzazione dei prompt sia dal Prompt Lab che dalla libreria Python. Il numero esatto di token consentiti differisce per modello. Per ulteriori informazioni sui limiti di token per i piani a pagamento e Lite, vedi Supported foundation models.
Settimana che termina il 13 ottobre 2023
Nuovi notebook in Esempi
12 ottobre 2023
Sono disponibili due nuovi notebook che utilizzano un database vettoriale da Elasticsearch nella fase di recupero del pattern di generazione aumentato del richiamo. I notebook mostrano come individuare le corrispondenze in base alla somiglianza semantica tra i documenti indicizzati e il testo della query inoltrato da un utente.
Soluzioni intermedie in Decision Optimization
12 ottobre 2023
È ora possibile scegliere di vedere un campione di soluzioni intermedie mentre è in esecuzione un esperimento di Decision Optimization . Ciò può essere utile per il debug o per vedere come il risolutore sta procedendo. Per i grandi modelli che impiegano più tempo a risolvere, con soluzioni intermedie è ora possibile identificare rapidamente e facilmente eventuali problemi potenziali con la soluzione, senza dover attendere il completamento della soluzione. È possibile configurare il parametro Consegna soluzione intermedia nella configurazione di esecuzione e selezionare una frequenza per queste soluzioni. Per ulteriori informazioni, consultare Soluzioni intermedie e Parametri di configurazione di esecuzione.
Finestra di dialogo Nuovo modello salvato Decision Optimization
Quando si salva un modello per la distribuzione dall'interfaccia utente di Decision Optimization , è ora possibile esaminare lo schema di input e output e selezionare più facilmente le tabelle che si desidera includere. È inoltre possibile aggiungere, modificare o eliminare i parametri di configurazione di esecuzione, esaminare l'ambiente e i file di modelli utilizzati. Tutti questi elementi vengono visualizzati nella stessa finestra di dialogo Salva come modello per distribuzione . Per ulteriori informazioni, vedi Distribuzione di un modello Decision Optimization utilizzando l'interfaccia utente.
Settimana che termina il 6 ottobre 2023
Ulteriori modelli di fondazione a Francoforte
5 ottobre 2023
Tutti i modelli di base disponibili nel data center di Dallas sono ora disponibili anche nel data center di Francoforte. Il Prompt Lab watsonx.ai e l'inferenza dei foundation model sono ora supportati nella regione di Francoforte per questi modelli:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b-chat
- gpt-neox-20b
- mt0-xxl-13b
- starcoder-15.5b
Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.
Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.
Controllare il posizionamento di una nuova colonna nell'operazione Concatena (Data Refinery)
6 ottobre 2023
Ora sono disponibili due opzioni per specificare la posizione della nuova colonna che risulta dall'operazione Concatena : come la colonna più a destra nel dataset o accanto alla colonna originale.
In precedenza, la nuova colonna era posizionata all'inizio del dataset.
Modificare l'operazione Concatena in uno dei flussi Data Refinery esistenti per specificare la nuova posizione della colonna. In caso contrario, il flusso potrebbe avere esito negativo.
Per informazioni sulle operazioni Data Refinery , vedere Operazioni GUI in Data Refinery.
Settimana che termina il 29 settembre 2023
Modelli di base IBM Granite per la generazione del linguaggio naturale
28 settembre 2023
I primi due modelli della famiglia Granite di modelli di fondazione IBM sono ora disponibili nella region Dallas:
- granite - 13b - chat - v1: modello di utilizzo generale ottimizzato per i casi di utilizzo delle finestre di dialogo
- granite - 13b - instruct - v1: modello di uso generale ottimizzato per la risposta alle domande
Entrambi i modelli sono modelli decoder 13B-parameter in grado di prevedere e generare in modo efficiente la lingua in inglese. Essi, come tutti i modelli della famiglia Granite , sono progettati per le aziende. I modelli Granite vengono preformati su più terabyte di dati provenienti sia da origini in lingua generale, come Internet pubblico, sia da origini dati specifiche di settore provenienti dai campi accademico, scientifico, legale e finanziario.
Provateli oggi stesso nel Prompt Lab o eseguite un notebook di esempio che utilizza il modello granite-13b-instruct-v1 per l'analisi del sentiment.
Leggete il post Building AI for business: I modelli della fondazione Granite di IBM per saperne di più.
- Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, vedere Esempi di prompt foundation model per compiti comuni.
- Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.
Settimana che termina il 22 settembre 2023
Modelli Java Decision Optimization
20 settembre 2023
I modelli Java Decision Optimization possono ora essere distribuiti in watsonx.ai Runtime (ex Watson Machine Learning). Utilizzando l'API del nodo di lavoro Java, è possibile creare modelli di ottimizzazione con API Java OPL, CPLEX e CP Optimizer. Ora è possibile creare facilmente i modelli in locale, confezionarli e distribuirli sul runtime 'watsonx.ai, utilizzando il boilerplate fornito nel file pubblico 'Lavoratore Java 'GitHub. Per ulteriori informazioni, vedere Distribuzione di modelli Java per Decision Optimization.
Nuovi notebook nell'hub di risorse
21 settembre 2023
È possibile utilizzare i seguenti nuovi notebook in Resource hub:
Settimana che termina il 15 settembre 2023
Esercitazioni di avvio rapido di progettazione e dati sintetici
14 settembre 2023
Prova le nuove esercitazioni per imparare a:
- Sollecitare i modelli di fondazione: Di solito esistono più modi per sollecitare un foundation model per ottenere un risultato di successo. Nel Prompt Lab è possibile sperimentare l'uso di diversi modelli di fondazione, esplorare esempi di prompt, nonché salvare e condividere i propri prompt migliori. Un modo per migliorare l'accuratezza dell'output generato è quello di fornire i fatti necessari come contesto nel testo di prompt utilizzando il modello di generazione incrementato dal richiamo.
- Genera dati sintetici: puoi generare dati tabulari sintetici in watsonx.ai. Il vantaggio dei dati sintetici è che è possibile procurarsi i dati su richiesta, quindi personalizzare per adattarli al proprio caso d'uso e produrli in grandi quantità.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Prompt di un foundation model utilizzando Prompt Lab | Sperimenta diversi modelli di base, esplora i prompt di esempio e salva e condividi i tuoi prompt migliori. | Fare un prompt di un modello usando Prompt Lab senza codificare. |
Promuovere un foundation model con il modello di generazione aumentata dal reperimento | Promuovere un foundation model sfruttando le informazioni contenute in una base di conoscenza. | Utilizzare il modello di creazione migliorato di richiamo in un notebook Jupyter che utilizza il codice Python . |
Genera dati tabulari sintetici | Generare dati tabulari sintetici utilizzando un editor di flusso grafico. | Selezionare le operazioni per generare i dati. |
Comunità Watsonx.ai
14 settembre 2023
È ora possibile entrare a far parte della Comunitàwatsonx.ai per architetti e costruttori di IA per imparare, condividere idee e connettersi con gli altri.
Settimana che termina l'8 settembre 2023
Generare dati tabulari sintetici con Synthetic Data Generator
7 settembre 2023
Ora disponibile nelle regioni di Dallas e Francoforte, Synthetic Data Generator è un nuovo strumento di editor grafico su watsonx.ai che puoi utilizzare per generare dati tabulari da utilizzare per i modelli di addestramento. Utilizzando i flussi visivi e un modello statistico, è possibile creare dati sintetici basati sui propri dati esistenti o su uno schema dati personalizzato. È possibile scegliere di mascherare i dati originali ed esportare i dati sintetici in un database o come file.
Per iniziare, vedi Dati sintetici.
Llama-2 Foundation Model per la generazione del linguaggio naturale e la chat
7 settembre 2023
Il modello di fondazione Llama-2 da Meta è ora disponibile nella regione di Dallas. Llama-2 Il modello di chat è un modello di linguaggio auto - regressivo che utilizza un'architettura di trasformatori ottimizzata. Il modello è preaddestrato con dati online disponibili al pubblico e quindi perfezionato utilizzando l'apprendimento di rinforzo dal feedback umano. Il modello è destinato all'uso commerciale e di ricerca in scenari di chat di tipo assistente in lingua inglese.
- Per ulteriori informazioni sul modello Llama-2 , vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, vedere Esempi di prompt foundation model per compiti comuni.
- Per i dettagli sui prezzi di Llama-2, vedere i piani di Runtime diwatsonx.ai.
Estensione LangChain per la libreria Python dei modelli di base
7 settembre 2023
Puoi adesso utilizzare il framework LangChain con i modelli di base in watsonx.ai con la nuova estensione LangChain per la libreria Python dei modelli di base.
Questo quaderno di esempio mostra come utilizzare la nuova estensione: Taccuino di esempio
Esempio introduttivo per il modello di generazione aumentata di richiamo
7 settembre 2023
La generazione aumentata di recupero è una tecnica semplice e potente per sfruttare una knowledge base per ottenere un output di fatto accurato dai modelli di base.
Consultare: Introduzione al richiamo - generazione aumentata
Settimana che termina il 1 ° settembre 2023
Deprecazione dei commenti nei notebook
31 agosto 2023
A partire da oggi non è possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti sono stati rimossi.
StarCoder Foundation Model per la generazione e la conversione di codice
31 agosto 2023
Il modello StarCoder di Hugging Face è ora disponibile nella regione di Dallas. Utilizzate StarCoder per creare prompt per la generazione di codice o per trasformare il codice da un linguaggio di programmazione a un altro. Un esempio di prompt dimostra come utilizzare StarCoder per generare codice Python da un insieme di istruzioni. Un secondo esempio dimostra come utilizzare StarCoder per trasformare il codice scritto in C++ in codice Python.
- Per ulteriori informazioni sul modello StarCoder , vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, vedere Esempi di prompt foundation model per attività comuni.
IBM watsonx.ai è disponibile nella regione di Francoforte
31 agosto 2023
Watsonx.ai è ora generalmente disponibile nel data center di Francoforte e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza foundation model sono supportati nella regione di Francoforte per questi modelli:
mpt-7b-instruct2
flan-t5-xxl-11b
flan-ul2-20b
Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.
Settimana che termina il 25 agosto 2023
Ulteriori miglioramenti della cache disponibili per Watson Pipelines
21 agosto 2023
Sono disponibili ulteriori opzioni per personalizzare le impostazioni del flusso della pipeline. Ora puoi esercitare un maggiore controllo su quando la cache viene utilizzata per le esecuzioni della pipeline. Per i dettagli, consultare Gestione delle impostazioni predefinite.
Settimana che termina il 18 agosto 2023
Aggiornamento del nome del piano per il servizio watsonx.ai Runtime (ex Watson Machine Learning)
18 agosto 2023
A partire da subito, i nomi dei piani vengono aggiornati per il servizio IBM watsonx.ai Runtime, come segue:
Il piano v2 Standard è ora il piano Essentials . Il piano è progettato per fornire alla tua azienda le risorse necessarie per iniziare a lavorare con i modelli di base e gli asset di machine learning.
Il piano Professional v2 è ora il piano Standard . Questo piano fornisce risorse progettate per supportare la maggior parte delle aziende attraverso la creazione di asset per un utilizzo produttivo.
Le modifiche ai nomi dei piani non modificano i termini di servizio. Vale a dire, se sei registrato per utilizzare il piano Standard v2 , ora sarà denominato Essentials, ma tutti i dettagli del piano rimarranno invariati. Allo stesso modo, se sei registrato per utilizzare il piano Professional v2 , non ci sono modifiche oltre alla modifica del nome del piano in Standard.
Per i dettagli su ciò che è incluso in ciascun piano, vedere i piani di runtimewatsonx.ai. Per informazioni sui prezzi, trovare il proprio piano alla pagina del pianowatsonx.ai Runtime nel catalogo IBM Cloud.
Settimana che termina il 11 agosto 2023
Deprecazione dei commenti nei notebook
7 agosto 2023
Il 31 agosto 2023, non sarà più possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti che sono stati aggiunti in questo modo verranno rimossi.
Settimana che termina il 4 agosto 2023
Limite di token aumentato per il piano Lite
4 agosto 2023
Se stai utilizzando il piano Lite per testare i modelli di base, il limite di token per l'input e l'output prompt è ora aumentato da 25.000 a 50.000 per account al mese. Ciò offre una maggiore flessibilità per l'esplorazione dei modelli di base e la sperimentazione dei prompt.
- Per maggiori dettagli sui piani watsonx.ai, vedere Piani runtimewatsonx.ai.
- Per maggiori dettagli sull'utilizzo dei prompt, vedere 'L'ingegnere richiede il " Prompt Lab.
Modello di analisi del testo personalizzato (SPSS Modeler)
4 agosto 2023
Per SPSS Modeler, è ora possibile caricare un modello di analisi del testo personalizzato in un progetto. Ciò fornisce una maggiore flessibilità per acquisire ed estrarre i concetti chiave in un modo univoco per il proprio contesto.
Settimana che termina il 28 luglio 2023
Libreria Python dei modelli Foundation disponibile
27 luglio 2023
Puoi ora richiedere i modelli di base in watsonx.ai in modo programmatico utilizzando una libreria Python .
Consultare: Foundation models Python library
Settimana che termina il 14 luglio 2023
Controlla guardavia AI
14 luglio 2023
È ora possibile controllare se i guardrail dell'IA sono attivati o disattivati nel Prompt Lab I guardrail AI rimuovono il testo potenzialmente dannoso da entrambi i campi di input e output. Il testo dannoso può includere incitamento all'odio, abuso e volgarità. Per evitare la rimozione di testo potenzialmente dannoso, impostare l'opzione Guardrails AI su off. Vedi Hate speech, abuse e profanity.
Microsoft Azure SQL Database supporta l'autenticazione Azure Active Directory (Azure AD)
14 luglio 2023
Ora è possibile selezionare Active Directory per la connessione Microsoft Azure SQL Database . L'autenticazione Active Directory è un'alternativa all'autenticazione SQL Server . Grazie a questo miglioramento, gli amministratori possono gestire centralmente le autorizzazioni utente per Azure. Per ulteriori informazioni, vedere Microsoft Azure SQL Database connection.
Settimana che termina il 7 luglio 2023
Benvenuti in IBM watsonx.ai!
7 luglio 2023
IBM watsonx.ai fornisce tutti gli strumenti necessari per utilizzare i modelli di base e di machine learning.
Per iniziare:
Prova generative AI search e rispondi in questa documentazione
7 luglio 2023
È possibile visualizzare l'AI generativa in azione provando la nuova opzione di ricerca e risposta AI generativa nella documentazione watsonx.ai . Le risposte vengono generate da un modello di lingua di grandi dimensioni in esecuzione in watsonx.ai e basato sul contenuto della documentazione. Questa funzione è disponibile solo quando stai visualizzando la documentazione mentre hai eseguito l'accesso a watsonx.ai.
Inserire una domanda nel campo di ricerca della documentazione e fare clic sull'icona Prova a cercare e rispondere con l'intelligenza artificiale generativa . IL Ricerca e risposta con intelligenza artificiale generativa si apre il riquadro e risponde alla tua domanda.