0 / 0
Torna alla versione inglese della documentazione
Novità per watsonx as a Service su IBM Cloud
Ultimo aggiornamento: 13 feb 2025
Novità per watsonx as a Service su IBM Cloud

Tornate a trovarci ogni settimana per conoscere le nuove funzionalità e gli aggiornamenti di IBM watsonx.ai e IBM watsonx.governance su IBM Cloud.

Per informazioni su IBM watsonx.governance su AWS, vedere Le novità per IBM watsonx.governance su AWS.

Suggerimento: di tanto in tanto, è necessario eseguire un'azione specifica dopo un aggiornamento. Per visualizzare tutte le azioni richieste, cercare in questa pagina "Azione richiesta".

Settimana che termina il 14 febbraio 2025

Granite Code sono ora disponibili modelli che puoi utilizzare su richiesta

13 febbraio 2025

Utilizza i seguenti modelli di base di Granite Code da IBM per attività di codifica come la scrittura, la conversione e la correzione di codice programmatico:

Video tutorial aggiornati su SPSS Modeler

11 febbraio 2025

Guarda e impara a conoscere l' SPSS Modeler, guardando i video aggiornati nei tutorial SPSS Modeler.

Settimana conclusa il 7 febbraio 2025

Anteprima delle ultime novità di IBM Granite foundation model nella regione di Dallas

7 febbraio 2025

Provate in anteprima tecnica il sito granite-3-2-8b-instruct-preview-rc foundation model ora disponibile nella regione di Dallas. Il modello di anteprima di Granite 3.2 aggiunge nuove capacità di ragionamento in un modo nuovo. La funzione di ragionamento è configurabile, il che significa che è possibile attivare il ragionamento solo per i compiti in cui le informazioni esplicative sono utili nell'output. Per ulteriori informazioni, vedi Supported foundation models.

La previsione dei dati con i modelli di fondazione delle serie temporali di IBM Granite è ora generalmente disponibile

6 febbraio 2025

Utilizzare il metodo di previsione delle serie temporali dell'API watsonx.ai per passare le osservazioni dei dati storici a una serie temporale IBM Granite foundation model in grado di prevedere i valori futuri con un'inferenza a zero colpi.

IBM watsonx.ai è disponibile nella regione di Toronto

6 febbraio 2025

Watsonx.ai è ora generalmente disponibile nel centro dati di Toronto, che può essere selezionato come regione preferita al momento dell'iscrizione. Utilizzare un sottoinsieme dei modelli di base forniti per l'inferenza e i modelli di incorporamento per generare incorporazioni di testo e riclassificare i passaggi.

Per ulteriori informazioni sui modelli di fondazione e sulle caratteristiche del prodotto disponibili nella regione di Toronto, vedere Disponibilità regionale di servizi e caratteristiche.

Inference distribuisce modelli di fondazione su richiesta e personalizzati dalla regione di Sydney

6 febbraio 2025

Ora avete più modi per lavorare con i modelli di fondazione dei progetti ospitati nella regione di Sydney.

  • Caricare e distribuire modelli di fondazione personalizzati.
  • Scegliete tra una serie di modelli di fondazione popolari da distribuire su hardware dedicato ad uso esclusivo della vostra organizzazione.

Per saperne di più, leggete le seguenti risorse:

Mistral Large 2 foundation model è disponibile per la distribuzione su richiesta

6 febbraio 2025

Il sito mistral-large-instruct-2407 foundation model di Mistral AI è disponibile come deploy on demand foundation model. Per l'accesso a questo modello è previsto un costo orario aggiuntivo. Per ulteriori informazioni sui prezzi, vedere Modelli di fondazione supportati.

Per saperne di più sulla distribuzione di foundation model su richiesta, vedere Distribuzione di modelli di fondazione su richiesta.

Distribuzione e inferenza di nuovi modelli distillati da DeepSeek-R1 su richiesta in watsonx.ai

3 febbraio 2025

È ora possibile distribuire varianti distillate dei modelli di DeepSeek-R1 su richiesta in watsonx.ai su IBM Cloud. Le varianti del modello DeepSeek-R1 si basano su modelli Llama che vengono messi a punto utilizzando i dati di addestramento generati dal modello DeepSeek-R1.

Per i dettagli, vedere Modelli di fondazione supportati .

Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

L'Inventario predefinito sostituisce il Catalogo delle risorse della piattaforma in watsonx.governance

3 febbraio 2025

È ora disponibile un inventario predefinito per archiviare gli artefatti di watsonx.governance, compresi i casi d'uso dell'intelligenza artificiale, i modelli di terze parti, gli allegati e i report. L'inventario predefinito sostituisce qualsiasi dipendenza precedente da Platform access catalog o IBM Knowledge Catalog per l'archiviazione degli artefatti di governance.

Per ulteriori informazioni, vedere Impostazione dell'inventario predefinito.

Studio di valutazione disponibile sul centro dati di Sydney

3 febbraio 2025

Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.

Per ulteriori informazioni, consultare la sezione Confronto degli asset AI con Evaluation Studio.

Settimana conclusa il 31 gennaio 2025

Costruire e distribuire agenti AI nel nuovo Agent Lab (beta)

30 gennaio 2025

È ora possibile creare e distribuire agenti AI per rendere le applicazioni più flessibili e dinamiche utilizzando l'interfaccia utente Agent Lab. È possibile configurare l'agente per prendere decisioni ed eseguire attività utilizzando un framework per agenti, un sito foundation model e strumenti esterni specificati nelle impostazioni dell'agente.

Per ulteriori informazioni, consultare Agent Lab.

Quando si utilizza l'Agent Lab per costruire le applicazioni di intelligenza artificiale in watsonx.ai, le applicazioni vengono distribuite come servizi di intelligenza artificiale. È possibile scegliere di distribuire la soluzione direttamente dall'interfaccia utente o di esportare la soluzione in un blocco note modificabile in Python che distribuisce il servizio AI.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI.

È disponibile un nuovo e potente Mistral Large 2 foundation model da implementare su richiesta

30 gennaio 2025

Distribuite mistral-large-instruct-2411 foundation model da Mistral AI su un hardware dedicato ad uso esclusivo della vostra organizzazione. Questo ultimo foundation model migliora il Mistral-Large-Instruct-2407 foundation model aggiungendo una migliore gestione dei contesti di prompt lunghi, del seguito delle istruzioni del prompt di sistema e delle chiamate di funzione.

A differenza di altri modelli di fondazione deploy on demand, è previsto un costo orario aggiuntivo per l'accesso all'hosting di mistral-large-instruct-2411 foundation model. Per ulteriori informazioni sui prezzi, vedere Modelli di fondazione supportati.

Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

Inferenza del Mistral Small 3 foundation model nella regione di Francoforte

30 gennaio 2025

Il sito mistral-small-24b-instruct-2501 foundation model di Mistral AI è disponibile e ospitato su hardware multitenant pronto all'uso. Grazie a queste caratteristiche, Mistral Small 3 foundation model è un'ottima scelta per i flussi di lavoro di chat:

  • Funzionalità agenziali con chiamata di funzioni native e generazione di output JSON.
  • Capacità di conversazione e di ragionamento all'avanguardia.
  • Mantiene una forte aderenza e supporto alle richieste del sistema.
  • Supporta decine di lingue, tra cui inglese, francese, tedesco, spagnolo, italiano, cinese, giapponese, coreano, portoghese, olandese e polacco.

Per ulteriori informazioni, vedi Supported foundation models.

Distribuzione e inferenza DeepSeek-R1 modelli distillati con watsonx.ai

29 gennaio 2025

È ora possibile utilizzare le varianti distillate di DeepSeek-R1, un potente modello di ragionamento open-sourced, per distribuire e inferenziare in modo sicuro i modelli di DeepSeek-R1 con watsonx.ai su IBM Cloud, consentendo agli sviluppatori di accelerare lo sviluppo di soluzioni basate sull'intelligenza artificiale. DeepSeek-R1 può essere distribuito come modello personalizzato foundation model con watsonx.ai.

Per ulteriori informazioni, vedere Distribuzione di modelli di fondazione personalizzati.

Prezzo più basso per l'inferenza di Llama 3.3 70b Istruttoria foundation model

29 gennaio 2025

Il prezzo per l'inferenza di llama-3-3-70b-instruct foundation model da Meta è diminuito da $ 0.0018 a $ 0.00071 USD per 1.000 gettoni. La modifica del prezzo si applica a tutte le regioni in cui è disponibile il sito foundation model.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana conclusa il 24 gennaio 2025

Disponibilità generale di AutoAI per gli esperimenti RAG

23 gennaio 2025

AutoAI per RAG è ora pienamente supportato per automatizzare la ricerca di un modello di generazione ottimizzato per le applicazioni. Questo aggiornamento include le seguenti nuove funzionalità:

  • Esplorare AutoAI per RAG utilizzando dati di esempio e una visita guidata per imparare il processo.
  • Se si crea un esperimento utilizzando un archivio vettoriale Milvus, è ora possibile distribuire un modello RAG come servizio AI, in modo da poter accedere all'endpoint da uno spazio di distribuzione per fare inferenza.

Per ulteriori informazioni, vedere Automazione di un modello RAG con AutoAI.

L'esecuzione degli esperimenti AutoAI RAG comporta i seguenti costi di fatturazione:

  • I costi delle unità orarie di capacità (CUH) per il tempo di esecuzione degli esperimenti.
  • Unità di risorse (RU) addebitate per tutte le chiamate di embedding e di inferenza del modello di intelligenza artificiale generativa effettuate durante l'esperimento. Un'unità di risorse (RU) equivale a 1.000 gettoni.

Per informazioni sui piani e per i dettagli di fatturazione, consultare i piani watsonx.ai Runtime.

Implementazione dei servizi AI con CPDCTL

23 gennaio 2024

È ora possibile utilizzare l'interfaccia a riga di comando Cloud Pak for Data (CPDCTL) per distribuire le soluzioni di IA generativa con i servizi di IA in modo programmatico. CPDCTL è uno strumento a riga di comando per la distribuzione e la gestione dei servizi AI sulla piattaforma IBM Cloud Pak for Data (CPD). Fornisce un modo semplice e snello per distribuire i servizi di intelligenza artificiale, eliminando la necessità di configurazione manuale e riducendo il rischio di errori.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI con l'interfaccia della riga di comando Cloud Pak for Data (CPDCTL).

Implementazione di servizi AI con AutoAI per RAG

23 gennaio 2024

Quando si utilizza AutoAI per creare una soluzione di IA generativa che utilizza un pattern RAG, è ora possibile distribuire la soluzione direttamente dal costruttore di esperimenti AutoAI come servizio di IA. Per ulteriori informazioni, vedere Distribuzione dei servizi AI con gli strumenti.

Distribuzione di modelli convertiti da CatBoost e LightGBM in formato ONNX

23 gennaio 2024

È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti da CatBoost e LightGBM al formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.

Diversi modelli di fondazione Llama sono ora disponibili in più regioni

22 gennaio 2025

I seguenti modelli di fondazione di Meta sono disponibili in più regioni:

  • llama-3-3-70b-instruct: Ora è disponibile da Tokyo e Londra, oltre che da Dallas e Francoforte.
  • llama-3-2-11b-vision-instruct: Ora è disponibile da Francoforte e Londra, oltre che da Dallas, Tokyo e Sydney.

Per ulteriori informazioni sulla disponibilità regionale dei modelli di fondazione, vedere Disponibilità regionale su IBM Cloud.

I modelli di fondazione Llama 3.1 Instruct 70b e 8b sono deprecati

22 gennaio 2025

I seguenti modelli di fondazione di Meta sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

  • llama-3-1-70b-instruct

    • Data di deprezzamento: 22 gennaio 2025
    • Data di ritiro: 30 maggio 2025
    • Modello alternativo: llama-3-3-70b-instruct o llama-3-2-90b-vision-instruct
  • llama-3-1-8b-instruct

    • Data di deprezzamento: 22 gennaio 2025
    • Data di ritiro: 30 maggio 2025
    • Modello alternativo: llama-3-2-11b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Se si desidera continuare a lavorare con questi modelli di base, è possibile distribuire i modelli su richiesta per uso esclusivo. Per ulteriori informazioni, vedere Distribuzione di modelli di fondazione su richiesta.

Settimana conclusa il 17 gennaio 2025

Utilizzare i nuovi modelli di incorporazione di IBM Granite in watsonx.ai

16 gennaio 2025

È ora possibile utilizzare i seguenti modelli di incorporazione di Granite forniti da IBM in watsonx.ai:

  • granite-embedding-107m-multilingual
  • granite-embedding-278m-multilingual

Utilizzate i nuovi modelli di embedding per generare embedding di testo di alta qualità per un input sotto forma di query, brano o documento in più lingue. Per ulteriori informazioni, vedere Modelli di encoder supportati e Testo vettoriale.

È stata apportata una modifica ai modelli Granite Guardian

16 gennaio 2025

Da oggi è possibile consultare l'ultima versione dei modelli della fondazione Granite Guardian di IBM su watsonx.ai nei data center di Dallas e Sydney.

Le ultime versioni 3.1 dei modelli supportano ora una lunghezza del contesto di 128.000 token e sono state addestrate con dati sintetici aggiuntivi per migliorare le prestazioni per i rischi legati all'allucinazione e al jailbreak. Per i dettagli, vedere Modelli di fondazione supportati .

I modelli di fondazione granite-20b-multilingual e codellama-34b-instruct-hf sono deprecati

15 gennaio 2025

I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

  • granite-20b-multilingual

    • Data di deprezzamento: 15 gennaio 2025
    • Data di ritiro: 16 aprile 2025
    • Modello alternativo: granite-3-8b-instruct
  • codellama-34b-instruct-hf

    • Data di deprezzamento: 15 gennaio 2025
    • Data di ritiro: 31 marzo 2025
    • Modello alternativo: llama-3-3-70b-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Nuove architetture di modelli disponibili per implementare modelli di fondazione personalizzati

15 gennaio 2024

È ora possibile distribuire modelli di fondazione personalizzati con le seguenti architetture in watsonx.ai:

  • exaone
  • gemma
  • gemma2
  • granite
  • mt5
  • nemotron
  • olmo
  • persimmon
  • phi
  • phi3
  • qwen
  • qwen2

Per ulteriori informazioni, vedere Pianificazione della distribuzione di un foundation model personalizzato.

Conclusione della beta per gli esperimenti AutoAI RAG il 23 gennaio 2025

13 gennaio 2025

Dopo la conclusione della fase beta, l'esecuzione di esperimenti AutoAI RAG comporterà i seguenti costi di fatturazione:

  • I costi delle unità orarie di capacità (CUH) per il tempo di esecuzione degli esperimenti.
  • Resource Unit (RU) incaricata di incorporare il documento di base e di inferenziare i modelli generativi di intelligenza artificiale. Un'unità di risorse (RU) equivale a 1.000 gettoni.

Per informazioni sui piani e per i dettagli di fatturazione, consultare i piani watsonx.ai Runtime.

Settimana che termina il 20 dicembre 2024

Distribuire i modelli convertiti in formato ONNX

20 dicembre 2024

È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.

Distribuzione di flussi SPSS Modeler multi-source

20 dicembre 2024

È ora possibile creare implementazioni per i flussi di SPSS Modeler che utilizzano più flussi di input per fornire dati al modello. Per ulteriori informazioni, vedere Distribuzione di flussi SPSS Modeler multi-sorgente.

Settimana che termina il 13 dicembre 2024

Vengono introdotte modifiche ai modelli di fondazione Granite 3 Instruct

13 dicembre 2024

Sono state apportate modifiche ai seguenti modelli di fondazione IBM :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Con le ultime modifiche, i modelli di fondazione di Granite 3.1 Instruct offrono ora un supporto migliore per la codifica dei compiti e delle funzioni intrinseche degli agenti. La lunghezza della finestra di contesto supportata per questi modelli di fondazione è aumentata da 4.096 tokens a 131.072 tokens. Sebbene gli ID dei modelli di Granite Instruct rimangano invariati, i pesi dei modelli vengono aggiornati.

Per ulteriori informazioni, vedi Supported foundation models.

Soluzione senza codice per la ricerca di un modello RAG con AutoAI (beta)

12 dicembre 2024

È ora possibile automatizzare la ricerca del modello RAG ottimale per il proprio caso d'uso dall'interfaccia utente di AutoAI. Caricare la raccolta di documenti e le domande di prova, scegliere un database vettoriale ed eseguire l'esperimento per un approccio rapido alla ricerca di un modello RAG. È inoltre possibile rivedere e modificare le impostazioni di configurazione dell'esperimento. Confrontare i modelli generati dall'esperimento e salvare il modello migliore come taccuino o taccuino generato automaticamente e salvato nel progetto.

Per ulteriori informazioni, vedere Automazione di un modello RAG con AutoAI.

Distribuzione dei servizi AI con i modelli

12 dicembre 2024

È possibile distribuire i servizi AI utilizzando modelli predefiniti. I modelli di servizio AI forniscono un modo standardizzato per distribuire i servizi AI, offrendo una struttura e una configurazione predefinite per la distribuzione dei modelli AI. Questi modelli sono unità di codice precostituite e distribuibili che incapsulano la logica di programmazione delle applicazioni di intelligenza artificiale generativa.

I modelli di servizio AI automatizzano attività come la creazione di distribuzioni, la generazione di metadati e la creazione di estensioni, consentendo agli sviluppatori di concentrarsi sulla logica principale della loro applicazione. Offrono un modo flessibile per distribuire i servizi di IA, supportando molteplici input e personalizzazioni.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI con i modelli.

L'ultimo foundation model Llama è disponibile per l'implementazione su richiesta

12 dicembre 2024

È possibile distribuire il foundation model multilingue Meta Llama 3.3 70B Instruct su un hardware dedicato ad uso esclusivo della propria organizzazione. L'ultimo foundation model di Meta ha capacità simili al modello più grande llama-3-405b-instruct, ma è di dimensioni più ridotte ed è abile soprattutto nella codifica, nel ragionamento passo-passo e nella chiamata di strumenti. È possibile distribuire il modello completo llama-3-3-70b-instruct-hf ) o una versione quantizzata llama-3-3-70b-instruct ) che richiede meno risorse da ospitare.

Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

Distribuzione dei modelli di fondazione su richiesta con la libreria client Python

12 dicembre 2024

È ora possibile distribuire i modelli della fondazione su richiesta utilizzando la libreria client Python di watsonx.ai Utilizzando questo approccio, è possibile accedere alle capacità di questi potenti modelli di fondazione senza la necessità di disporre di ampie risorse di calcolo. I modelli Foundation distribuiti on-demand sono ospitati in uno spazio di distribuzione dedicato, dove è possibile utilizzare questi modelli per l'inferenza.

Per ulteriori informazioni, vedere Distribuzione dei modelli di fondazione su richiesta.

Tutorial aggiornati SPSS Modeler

11 dicembre 2024

Fate esperienza diretta con SPSS Modeler provando i 15 aggiornamenti di SPSS Modeler tutorial.

Confronto di risorse AI con Evaluation Studio

12 dicembre 2024

Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.

Per ulteriori informazioni, consultare la sezione Confronto degli asset AI con Evaluation Studio.

Miglioramenti alla console di governance

12 dicembre 2024

Miglioramenti alla soluzione di Model Risk Governance watsonx.governance

Questa versione include i seguenti miglioramenti:

  • Il nuovo modello di questionario AI Model Onboarding Risk Identification viene utilizzato durante il processo di onboarding del modello per aiutare a identificare i rischi associati a un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Foundation Model Onboarding.
  • Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA viene utilizzato per aiutare a identificare i rischi associati ai casi d'uso dell'IA. Questo modello di questionario viene utilizzato nel flusso di lavoro di revisione dei casi d'uso. Questo nuovo questionario è destinato a sostituire il questionario per l'identificazione del rischio di IA
  • Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA e dei modelli viene utilizzato per aiutare a identificare i rischi associati alla combinazione di un caso d'uso dell'IA e di un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Sviluppo e documentazione dei casi d'uso.
  • Il flusso di lavoro di valutazione dell'intelligenza artificiale è ora disattivato per impostazione predefinita. È sostituito dal flusso di lavoro Valutazione del questionario. È ora possibile impostare i modelli di questionario direttamente nel flusso di lavoro dei casi d'uso.
  • I flussi di lavoro, le viste e i dashboard sono stati aggiornati.

Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.

Correzioni di bug e di sicurezza

Sono state applicate correzioni di bug e di sicurezza.

Per ulteriori informazioni, vedere Nuove funzioni in 9.0.0.5.

IBM watsonx.governance è disponibile nella regione di Sydney

9 dicembre 2024

IBM watsonx.governance è ora generalmente disponibile nel data center di Sydney. È possibile selezionare Sydney come regione preferita al momento dell'iscrizione.

Per ulteriori informazioni sulle funzioni del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e funzioni.

Settimana che termina il 6 dicembre 2024

Distribuzione di modelli di fondazione su richiesta nella regione di Dallas

6 dicembre 2024

Scegliete da una collezione curata di modelli di fondazione che potete distribuire su hardware dedicato per l'uso esclusivo della vostra organizzazione. Un'implementazione dedicata significa interazioni più reattive quando si inferiscono i modelli di fondazione. I modelli di fondazione Deploy on-demand sono fatturati all'ora. Per ulteriori informazioni, vedere Modelli di fondazione supportati e Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.

Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

Inferenza dell'ultimo foundation model Llama da 'Meta nelle regioni di Dallas e Francoforte

6 dicembre 2024

Il foundation model multilingue 'Meta Llama 3.3 70B Instruct è disponibile per l'inserimento nelle regioni di Dallas e Francoforte. Il foundation model llama-3-3-70b-instruct è abile nella codifica, nel ragionamento passo-passo e nella chiamata degli strumenti. Con prestazioni che rivaleggiano con quelle del modello 405b, l'aggiornamento foundation model Llama 3.3 è un'ottima scelta per gli sviluppatori. Si veda l'annuncio di IBM.

Per ulteriori informazioni, vedi Supported foundation models.

Esaminare i benchmark per confrontare i modelli di fondazione

5 dicembre 2024

Esaminate i benchmark foundation model per conoscere le capacità dei modelli di fondazione disponibili prima di provarli. Confrontate le prestazioni dei vari modelli di fondazione sulle attività più importanti per il vostro caso d'uso. Per ulteriori informazioni, consultare i benchmark del modello Foundation.

I file Microsoft Excel sono deprecati per i modelli OPL in Decision Optimization

5 dicembre 2024

I file delle cartelle di lavoro Microsoft Excel (.xls e .xlsx) sono ora deprecati per l'input e l'output diretto nei modelli Decision Optimization OPL. Per collegarsi ai file Excel, utilizzare invece un connettore di dati. Il connettore dati trasforma il file Excel in un file .csv. Per ulteriori informazioni, vedere Dati di riferimento.

Nuovi notebook di esempio per la distribuzione di modelli convertiti in formato ONNX

3 dicembre 2024

È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Vedere i seguenti quaderni di esempio:

Per ulteriori informazioni, consultare gli esempi di client Python runtime diwatsonx.ai.

I modelli di fondazione llama-3-8b-instruct e llama-3-70b-instruct sono deprecati

2 dicembre 2024

I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

  • llama-3-8b-instruct

    • Data di ammortamento: 2 dicembre 2024
    • Data di ritiro: 3 febbraio 2025
    • Modello alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
  • llama-3-70b-instruct

    • Data di ammortamento: 2 dicembre 2024
    • Data di ritiro: 3 febbraio 2025 (31 marzo 2025 a Sydney)
    • Modello alternativo: llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 29 novembre 2024

Miglioramento della documentazione sulle opzioni di scrittura per Data Refinery

28 novembre 2024

Le opzioni di scrittura e le opzioni della tabella per l'esportazione dei flussi di dati dipendono dalla connessione. Queste opzioni vengono ora spiegate in modo da guidare meglio l'utente nella scelta delle opzioni della tabella di destinazione. Per ulteriori informazioni, vedere Opzioni di connessione target per Data Refinery.

Settimana che termina il 22 novembre 2024

Il nuovo watsonx Developer Hub per iniziare a codificare velocemente

21 ottobre 2024

Consultate il nuovo Developer Hub per trovare tutto ciò che vi serve per codificare la vostra soluzione di IA generativa:

  • Effettuate la vostra prima richiesta API per inferenziare un foundation model in watsonx.ai
  • Trovate i modelli di base e le librerie di codice giusti per le vostre applicazioni AI.
  • Comprendere le funzionalità di watsonx.ai e copiare frammenti di codice in Curl, Node.js o Python.
  • Imparate a costruire applicazioni e soluzioni di IA generativa con guide dettagliate.
  • Unisciti alle comunità per trovare risorse, risposte e per coinvolgere gli altri utenti.

Andate al watsonx Developer Hub.

I servizi dei componenti di IBM watsonx.ai sono stati rinominati

21 novembre 2024

I seguenti servizi sono stati rinominati:

  • Watson Machine Learning ora si chiama watsonx.ai Runtime
  • Watson Studio ora si chiama watsonx.ai Studio

Alcuni video, quaderni ed esempi di codice potrebbero continuare a fare riferimento a questi servizi con i loro nomi precedenti.

IBM watsonx.ai è disponibile nella regione di Sydney

21 novembre 2024

Watsonx.ai è ora generalmente disponibile nel data center di Sydney, che può essere selezionata come regione preferita al momento dell'iscrizione.

Per ulteriori informazioni sui modelli di fondazione e sulle caratteristiche del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e caratteristiche.

Utilizzate i modelli di fondazione delle serie temporali di IBM Granite e l'API di watsonx.ai per prevedere i valori futuri (beta)

21 novembre 2024

Utilizzate l'API delle serie temporali per passare le osservazioni dei dati storici a una serie temporale IBM Granite foundation model che può prevedere i valori futuri con un'inferenza a zero colpi. Il metodo di previsione delle serie temporali dell'API watsonx.ai è disponibile come funzione beta. Per ulteriori informazioni, vedere Previsione dei valori futuri dei dati.

Utilizzare i modelli di incorporazione del testo di watsonx.ai dall'API di inferenza di Elasticsearch

21 novembre 2024

La versione " Elasticsearch " 8.16.0 ha aggiunto il supporto per la creazione di un endpoint di inferenza che utilizza un " watsonx.ai " foundation model per le attività di incorporazione del testo.

Per ulteriori informazioni, vedere Vettorializzazione del testo tramite l'API.

Promuovere i flussi di SPSS Modeler negli spazi di distribuzione

19 novembre 2024

È ora possibile promuovere direttamente i flussi di SPSS Modeler dai progetti agli spazi di distribuzione senza dover esportare il progetto e poi importarlo nello spazio di distribuzione. Per ulteriori informazioni, vedere Promozione dei flussi e dei modelli di SPSS Modeler.

Settimana che termina il 15 novembre 2024

Utilizzate l'app di chat demo IBM watsonx.ai senza restrizioni di prova collegando gli account

15 novembre 2024

È ora possibile utilizzare l'app di chat dell'account demo di IBM watsonx.ai senza limitazioni di utilizzo dei token o di tempo collegando l'account demo all'account IBM Cloud watsonx.ai a pagamento. Per maggiori dettagli, vedere Collegamento degli account IBM watsonx.ai demo e watsonx.ai.

Il pacchetto Node.js watsonx.ai è disponibile presso LangChain

11 novembre 2024

Il pacchetto watsonx.ai Node.js è disponibile per l'uso dalla libreria della comunità LangChain JavaScript. L'integrazione supporta le funzioni di watsonx.ai, come l'inferenza di modelli di fondazione, la generazione di incorporazioni di testo e la gestione di scambi di chat che includono funzionalità di chiamata di immagini e strumenti. Con l'integrazione di LangChain, è possibile richiamare queste funzionalità di watsonx.ai utilizzando interfacce coerenti che rendono più facile passare da un fornitore all'altro per confrontare le offerte e trovare la soluzione migliore per le proprie esigenze.

Per ulteriori informazioni, vedere Node.js SDK.

Le credenziali delle attività sono ora necessarie per distribuire le risorse ed eseguire i lavori da uno spazio di distribuzione

11 novembre 2024

Per migliorare la sicurezza dell'esecuzione dei lavori di distribuzione, è necessario inserire le credenziali dell'attività per distribuire le seguenti risorse da uno spazio di distribuzione:

  • Modelli di prompt
  • Servizi AI
  • Modelli
  • Funzioni Python
  • Script

Inoltre, è necessario inserire le credenziali dell'attività per creare le seguenti distribuzioni dallo spazio di distribuzione:

  • In linea
  • Lavori

È inoltre necessario utilizzare le credenziali dell'attività per creare e gestire i lavori di distribuzione dal proprio spazio di distribuzione.

Per sapere come impostare le credenziali dell'attività e generare una chiave API, vedere Aggiunta di credenziali dell'attività.

Settimana che termina l'8 novembre 2024

Implementazione di applicazioni di IA generativa con servizi di IA

7 novembre 2024

Ora è possibile utilizzare i servizi AI di watsonx.ai per distribuire le applicazioni. Un servizio AI è un'unità di codice distribuibile che può essere utilizzata per catturare la logica dei casi d'uso dell'AI generativa. Mentre le funzioni Python sono il modo tradizionale per distribuire risorse di apprendimento automatico, i servizi AI offrono un'opzione più flessibile per distribuire codice per applicazioni AI generative, come lo streaming. Quando i servizi di intelligenza artificiale sono stati distribuiti con successo, è possibile utilizzare l'endpoint per l'inferenza dalla propria applicazione.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI.

I modelli di fondazione granite-13b-chat-v2, llama2-13b-dpo-v7 e mt0-xxl-13b sono deprecati

4 novembre 2024

I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

granite-13b-chat-v2

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 3 febbraio 2025
  • Modello alternativo: granite-3-8b-instruct

llama2-13b-dpo-v7

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 4 dicembre 2024
  • Modello alternativo: llama-3-1-8b-instruct

mt0-xxl-13b

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 4 dicembre 2024
  • Modelli alternativi: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 1° novembre 2024

Il nuovo modello di incorporazione di terze parti all-minilm-l6-v2 è disponibile in watsonx.ai

29 ottobre 2024

Il modello di incorporazione del testo all-minilm-l6-v2 della comunità open source di elaborazione del linguaggio naturale (NLP) e di visione artificiale (CV) è ora disponibile per l'uso dal metodo di incorporazione del testo dell'API watsonx.ai Utilizzare il modello per convertire il testo in vettori di incorporamento del testo, adatti per essere utilizzati in compiti di corrispondenza e recupero del testo. Per i dettagli sul modello, vedere i seguenti argomenti:

Prezzo più basso per l'inferenza del foundation model Mistral Large

29 ottobre 2024

Il prezzo per l'input inviato al foundation model Mistral Large è diminuito da 00.01 a 00.003 dollari USA per 1.000 gettoni. Il prezzo dell'output generato dal foundation model non è cambiato; il prezzo dei gettoni di output rimane di 00.01 USD/1,000 gettoni. La modifica del prezzo si applica a tutte le regioni in cui è disponibile il foundation model mistral-large.

Per ulteriori informazioni, vedi Supported foundation models.

Deprecazione del Runtime IBM 23.1

28 ottobre 2024

IBM Runtime 23.1 è deprecato. A partire dal 21 novembre 2024, non sarà più possibile creare nuovi notebook o ambienti personalizzati utilizzando i runtime 23.1. Inoltre, non è possibile creare nuove distribuzioni con specifiche software basate sul runtime 23.1. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a IBM Runtime 24.1.

Semplificate i documenti aziendali complessi con l'API per l'estrazione del testo

28 ottobre 2024

Il metodo di estrazione del testo è ora generalmente disponibile nell'API REST di watsonx.ai. Sfruttate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API di estrazione del testo estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non riescono a interpretare correttamente. Per ulteriori informazioni, vedere Estrazione di testo dai documenti.

L'API è disponibile in tutte le regioni per gli utenti dei piani a pagamento. Per i dettagli sui prezzi, vedere la tabella delle tariffe per l'estrazione del testo del documento.

Settimana che termina il 25 ottobre 2024

Confrontate le tabelle negli esperimenti di Decision Optimization vedere le differenze tra gli scenari

23 ottobre 2024

È ora possibile confrontare le tabelle in un esperimento di Decision Optimization nella vista Prepara dati o Esplora soluzione. Questo confronto può essere utile per vedere le differenze di valore dei dati tra gli scenari visualizzati uno accanto all'altro. Schermata che mostra il confronto delle tabelle in Decision Optimization
Per ulteriori informazioni, vedere Confrontare le tabelle degli scenari.

I nuovi modelli Granite 3.0 sono disponibili su watsonx.ai

21 ottobre 2024

Da oggi è possibile fare l'inferenza dei seguenti modelli della generazione 3.0 Granite Foundation forniti da IBM da watsonx.ai:

  • Modelli Instruct Granite in tutte le regioni: Utilizzate i nuovi modelli linguistici istruiti, leggeri e open-source per compiti come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, codifica e richiamo di funzioni. Funziona con le seguenti varianti di modello:
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • I modelli Granite Guardian nella regione di Dallas: Utilizzare i nuovi modelli Granite Guardian, che sono modelli Granite Instruct perfezionati, progettati per individuare i rischi nelle richieste e nelle risposte. Funziona con le seguenti varianti di modello:
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Per i dettagli, vedere Modelli di fondazione supportati .

Migliorare le attività di ricerca e recupero con l'API di rerank del testo

21 ottobre 2024

Il metodo text rerank è generalmente disponibile nell'API REST di watsonx.ai. Utilizzare questo nuovo metodo API, insieme ai modelli di fondazione del reranker, come il modello ms-marco-minilm-l-12-v2 recentemente supportato, per riordinare un insieme di passaggi di documenti in base alla loro somiglianza con una query specificata. Il reranking è un modo utile per aggiungere precisione ai flussi di lavoro di recupero delle risposte. Per ulteriori informazioni, consultare la sezione Passaggi di documenti di reranking.

Il nuovo modello Pixtral 12B è disponibile nelle regioni di Francoforte e Londra

21 ottobre 2024

Ora è possibile utilizzare il foundation model Pixtral 12B di Mistral AI su watsonx.ai nei data center di Francoforte e Londra.

Pixtral 12B è un modello nativamente multimodale con capacità di trasmissione da immagine a testo e da testo a testo che è stato addestrato con dati di immagine e testo interfogliati. Il foundation model supporta immagini di dimensioni variabili e si distingue per la capacità di seguire le istruzioni. Per i dettagli, vedere Modelli di fondazione supportati .

Settimana che termina il 18 ottobre 2024

L'individuazione delle risorse dell'account è abilitata per impostazione predefinita

17 ottobre 2024

L'impostazione " Resource scope per il vostro account è ora impostata di default su " ON. Tuttavia, se in precedenza il valore dell'impostazione Ambito risorse è stato impostato su 'ON o 'OFF, l'impostazione corrente non viene modificata.

Quando la ricerca delle risorse è attivata, non è possibile accedere ai progetti che non sono presenti nell'account IBM Cloud attualmente selezionato. Se si appartiene a più di un account IBM Cloud, è possibile che non si vedano tutti i progetti elencati insieme. Ad esempio, è possibile che non vengano visualizzati tutti i progetti nella pagina Tutti i progetti. È necessario cambiare account per vedere i progetti negli altri account.

Nella regione di Francoforte è disponibile un foundation model Granite Code

15 ottobre 2024

Il foundation model granite-20b-code-instruct di IBM è progettato per rispondere alle istruzioni di codifica. È possibile utilizzare il foundation model nei progetti ospitati nel centro dati di Francoforte per aiutarsi nelle attività di codifica e per creare assistenti di codifica. Per ulteriori informazioni sul modello, vedere Modelli di fondazione supportati.

Settimana che termina l'11 ottobre 2024

Nuovo vantaggio della licenza

10 ottobre 2024

È ora possibile portare la propria licenza (BYOL) per applicare i vantaggi delle licenze on-premises a IBM watsonx.ai e IBM watsonx.governance.

Per ulteriori informazioni, vedere Attivazione della licenza BYOL (Bring Your Own License) per SaaS.

Analizzare i dati di testo giapponesi in SPSS Modeler con Text Analytics

9 ottobre 2024

È ora possibile utilizzare i nodi di Text Analytics di SPSS Modeler, come il nodo Text Link Analysis e il nodo Text Mining, per analizzare i dati di testo scritti in giapponese.

Creare flussi di lavoro conversazionali con l'API di chat watsonx.ai

8 ottobre 2024

Utilizzate l'API di chat watsonx.ai per aggiungere alle vostre applicazioni funzionalità di IA generativa, comprese le chiamate guidate dagli agenti a strumenti e servizi di terze parti.

Per ulteriori informazioni, fare riferimento ai seguenti argomenti:

Nuove specifiche software per i modelli di fondazione personalizzati

7 ottobre 2024

È ora possibile utilizzare una nuova specifica software " watsonx-cfm-caikit-1.1 con le distribuzioni foundation model personalizzato. La specifica si basa sulla libreria vLLM ed è più adatta ai più recenti modelli linguistici di grandi dimensioni con solo decodificatore. Per ulteriori informazioni sulla libreria vLLM, vedere vLLM Per informazioni sull'uso delle specifiche con un foundation model personalizzato, vedere Pianificazione della distribuzione di un foundation model personalizzato.

I modelli di fondazione granite-7b-lab e llama3-llava-next-8b-hf sono deprecati

7 ottobre 2024

Il foundation model granite-7b-lab è deprecato e sarà ritirato il 7 gennaio 2025. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di ammortamento: 7 ottobre 2024
  • Data di ritiro: 7 gennaio 2025
  • Modello alternativo: granite-3-8b-instruct

Anche il foundation model multimodale llama3-llava-next-8b-hf è deprecato e sarà ritirato il 7 novembre 2024. È ora possibile utilizzare uno dei nuovi modelli di visione di Llama 3.2 per la generazione di immagini in formato testo.

  • Data di ammortamento: 7 ottobre 2024
  • Data di ritiro: 7 novembre 2024
  • Modello alternativo: llama-3-2-11b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 4 ottobre 2024

Ambienti e specifiche software aggiornati

3 ottobre 2024

Le librerie Tensorflow e Keras incluse in IBM Runtime 23.1 sono ora aggiornate alle versioni più recenti. Questo potrebbe avere un impatto sul modo in cui il codice viene eseguito nei notebook. Per maggiori dettagli, vedere i pacchetti di librerie inclusi nei runtime di watsonx.ai Studio (ex Watson Studio).

Il Runtime 23.1 verrà dismesso a favore del Runtime 24.1 IBM nel corso dell'anno. Per evitare ripetute interruzioni, si consiglia di passare subito a IBM Runtime 24.1 e di utilizzare le relative specifiche software per le implementazioni.

Disponibilità del piano watsonx.governance nella regione di Francoforte e deprezzamento del piano OpenScale legacy

3 ottobre 2024

Il piano legacy watsonx.governance per il provisioning di Watson OpenScale nella regione di Francoforte è deprecato. IBM Watson OpenScale non sarà più disponibile per nuove sottoscrizioni o per il provisioning di nuove istanze. Per le funzionalità OpenScale, sottoscrivete il piano Essentials di watsonx.governance, ora disponibile sia a Francoforte che a Dallas.

Note:

  • Le istanze del piano legacy esistenti continueranno a funzionare e saranno supportate fino alla data di fine del supporto, ancora da stabilire.
  • I clienti esistenti su IBM Watson OpenScale possono continuare ad aprire ticket di assistenza utilizzando IBM Watson OpenScale.

Nuovi termini del menu per aprire la pagina delle connessioni alla piattaforma

3 ottobre 2024

In precedenza il percorso della pagina Connessioni alla piattaforma nel menu di navigazione era Dati > Connessioni alla piattaforma. Il nuovo percorso è Dati > Connettività. La pagina Connettività contiene una scheda per le connessioni della piattaforma.

Settimana che termina il 27 settembre 2024

Llama 3.2, compresi i modelli multimodali 11B e 90B sono disponibili

25 settembre 2024

Con il rilascio odierno, i seguenti modelli di fondazione di Meta AI sono disponibili nella regione di Dallas:

Llama 3.2 modelli istruttori
Modelli linguistici versatili e di grandi dimensioni che supportano input di grandi dimensioni (lunghezza della finestra di contesto di 128.000 token) e sono abbastanza leggeri ed efficienti, con dimensioni di 1B e 3B parametri, da poter essere inseriti in un dispositivo mobile. È possibile utilizzare questi modelli per costruire agenti altamente personalizzati e on-device.
Llama 3.2 modelli di visione
Modelli perfezionati costruiti per casi d'uso di tipo image-in e text-out, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia delle immagini.
Modello di visione della Guardia del Lama
Potente modello di guardrail progettato per filtrare i contenuti nocivi.

Per ulteriori informazioni, vedi Supported foundation models.

Miglioramenti alla console di governance

25 settembre 2024

Questa versione include miglioramenti e correzioni di bug.

Schede personalizzate sul cruscotto

Il cruscotto può ora contenere fino a tre schede personalizzate.

grafici a barre in pila

È ora possibile configurare un grafico a barre sovrapposte nel dashboard e nel View Designer.

Utilizzare le espressioni per impostare i valori dei campi in base alle risposte dei partecipanti al questionario

È ora possibile inserire un'espressione per il valore di un campo. Ad esempio, si può inserire [$TODAY$] per la data corrente, [$END_USER$] per il nome dell'utente registrato o [$System Fields:Description$] per impostare il campo sul valore del campo Descrizione dell'oggetto.

Miglioramenti alla soluzione di Model Risk Governance watsonx.governance

Questa versione include i seguenti miglioramenti:

  • Il nuovo tipo di oggetto Gruppo di modelli consente di raggruppare modelli simili. Ad esempio, le versioni di un modello che utilizzano un approccio simile per risolvere un problema aziendale possono essere inserite in un Gruppo di modelli.
  • Il nuovo calcolo del punteggio di rischio dei casi d'uso aggrega le metriche per stato di violazione in punteggi di rischio per fornire una visione complessiva delle prestazioni dei modelli sottostanti di un caso d'uso.
  • La nuova business entity Discovered AI library fornisce un luogo predefinito per archiviare tutte le implementazioni di IA che non seguono le pratiche di governance sanzionate all'interno di un'organizzazione (note anche come "IA ombra").
  • I flussi di lavoro, le viste e i dashboard sono stati aggiornati.

Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.

Correzioni di bug e di sicurezza

Sono state applicate correzioni di bug e di sicurezza.

Per ulteriori informazioni, vedere Nuove funzionalità in 9.0.0.4.

Automatizzare i modelli RAG con AutoAI SDK (beta)

23 settembre 2024

Utilizzate l'SDK AutoAI Python per automatizzare e accelerare la progettazione e l'implementazione di un modello ottimizzato di generazione aumentata dal recupero (RAG) basato sui vostri dati e sul vostro caso d'uso. RAG è dotato di molti parametri di configurazione, tra cui il modello linguistico di grandi dimensioni da scegliere, il modo in cui suddividere i documenti di grounding e il numero di documenti da recuperare. AutoAI automatizza l'esplorazione e la valutazione completa di un insieme vincolato di opzioni di configurazione e produce una serie di pipeline di modelli classificati in base alle prestazioni rispetto alla metrica di ottimizzazione.

Nota: Mentre questa funzione è in fase beta, l'esecuzione dell'esperimento non comporta alcun costo e non vengono consumati token. Tuttavia, le chiamate ai modelli RAG e ai loro derivati effettuate dopo il completamento dell'esperimento consumano risorse e comportano costi di fatturazione alle tariffe standard.

Vedere Automazione di uno schema RAG con l'SDK AutoAI (Beta) per i dettagli sulla funzione e le note d'uso per la codifica di un esperimento RAG AutoAI.

Rimozione del runtime di Spark 3.3

23 settembre 2024

Il supporto per il runtime Spark 3.3 in IBM Analytics Engine sarà rimosso entro il 29 ottobre 2024 e la versione predefinita sarà cambiata in Spark 3.4. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a Spark 3.4.

A partire dal 29 ottobre 2024, non è più possibile creare o eseguire notebook o ambienti personalizzati utilizzando i runtime di Spark 3.3. Inoltre, non è possibile creare o eseguire distribuzioni con specifiche software basate sul runtime Spark 3.3.

Settimana che termina il 20 settembre 2024

Inferenza di un foundation model multimodale dal Prompt Lab

19 settembre 2024

È ora possibile aggiungere un'immagine in Prompt Lab e chattare sull'immagine richiedendo un foundation model multimodale in modalità chat. Oltre ai documenti di base, è ora possibile caricare immagini e chiedere a un foundation model che supporta le attività da immagine a testo il contenuto visivo dell'immagine. Per ulteriori informazioni, vedere Chattare con documenti e immagini.

Il nuovo modello llama3-llava-next-8b-hf è disponibile nella regione di Dallas

19 settembre 2024

È ora possibile utilizzare il nuovo foundation model multimodale llama3-llava-next-8b-hf su IBM watsonx.ai per aiutarci con le attività image-to-text.

Large Language and Vision Assistant (LLaVa) combina un modello linguistico di grandi dimensioni preaddestrato con un codificatore di visione preaddestrato per casi d'uso di chatbot multimodali. LLaVA NeXT Llama3 è addestrato su dati di immagini e testi più diversi e di alta qualità. Per i dettagli, vedere Modelli di fondazione supportati .

Usare l'SDK watsonx.ai Node.js per codificare applicazioni di IA generativa

18 settembre 2024

Inferenza e messa a punto dei modelli di fondazione in IBM watsonx as a Service in modo programmatico utilizzando il pacchetto watsonx.ai Node.js. Per ulteriori informazioni, vedere Node.js SDK.

Comprendere le politiche di indennizzo della proprietà intellettuale per i modelli di fondazione

18 settembre 2024

Ora è possibile comprendere meglio la politica di indennizzo della proprietà intellettuale di IBM e vedere quali modelli di fondazione hanno una copertura di indennizzo IP in watsonx.ai. Per ulteriori informazioni, vedere Tipi di modello e indennizzo IP.

Settimana che termina il 13 settembre 2024

Creare lavori batch per i flussi di SPSS Modeler negli spazi di distribuzione

10 settembre 2024

È ora possibile creare lavori batch per i flussi SPSS Modeler negli spazi di distribuzione. I flussi offrono la flessibilità di decidere quali nodi del terminale eseguire ogni volta che si crea un lavoro batch da un flusso. Quando si pianificano lavori batch per i flussi, il lavoro batch utilizza le origini dati e i target di output specificati nel flusso. La mappatura di queste sorgenti e uscite di dati è automatica se le sorgenti e i target di dati sono anche nello spazio di distribuzione. Per ulteriori informazioni sulla creazione di lavori batch dai flussi, vedere Creazione di lavori di distribuzione per flussi SPSS Modeler.

Per ulteriori informazioni sui flussi e i modelli negli spazi di distribuzione, vedere Deploying SPSS Modeler di flussi e modelli.

Settimana che termina il 6 settembre 2024

Portate il vostro foundation model all'inferenza da watsonx.ai nella regione di Dallas

3 settembre 2024

Oltre a lavorare con i modelli di fondazione curati da IBM, è ora possibile caricare e distribuire i propri modelli di fondazione. Dopo che i modelli sono stati distribuiti e registrati con watsonx.ai, è possibile creare dei prompt che inferiscono i modelli personalizzati in modo programmatico o dal Prompt Lab. Questa funzione è disponibile solo nella regione di Dallas.

Per saperne di più sul caricamento di modelli di fondazione personalizzati, vedere Deploy di modelli di fondazione personalizzati. Per informazioni sui piani e sui dettagli di fatturazione dei modelli di fondazione personalizzati, vedere i piani diwatsonx.ai Runtime.

Semplificate i documenti aziendali complessi con l'API di estrazione del testo del documento

3 settembre 2024

Applicate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API per l'estrazione del testo dei documenti estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non sono in grado di interpretare correttamente. Il metodo di estrazione del testo dell'API REST di watsonx.ai è una funzione beta.

Per ulteriori informazioni, vedere Estrazione di testo dai documenti.

Sono disponibili modifiche e aggiornamenti foundation model Granite Code

3 settembre 2024

Il foundation model granite-20b-code-instruct è stato modificato alla versione 1.1.0. L'ultima modifica è stata addestrata su una miscela di dati di alta qualità provenienti da domini di codice e di linguaggio naturale per migliorare le capacità di ragionamento e di seguire le istruzioni del modello.

I seguenti modelli di fondazione sono stati aggiornati per aumentare la dimensione della lunghezza della finestra di contesto supportata (ingresso + uscita) per i prompt da 8192 a 128.000:

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina il 30 agosto 2024

I modelli llama-2-13b-chat e llama-2-70b-chat sono deprecati

26 agosto 2024

I modelli di fondazione llama-2-13b-chat e llama-2-70b-chat sono deprecati e saranno ritirati il 25 settembre 2024. Rivedete i suggerimenti che utilizzano questi modelli di base.

llama-2-13b-chat
  • Data di ammortamento: 26 agosto 2024
  • Data di ritiro: 25 settembre 2024
  • Modello alternativo: llama-3.1-8b-instruct
llama-2-70b-chat
  • Data di ammortamento: 26 agosto 2024
  • Data di ritiro: 25 settembre 2024
  • Modello alternativo: llama-3.1-70b-instruct

Le richieste di inferenza inviate ai modelli llama-2-13b-chat e llama-2-70b-chat tramite l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 25 settembre 2024, le richieste API per l'inferenza dei modelli non genereranno output.

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione.

Settimana che termina il 23 agosto 2024

Aggiungere gruppi di utenti come collaboratori nei progetti e negli spazi

22 agosto 2024

È ora possibile aggiungere gruppi di utenti nei progetti e negli spazi se l'account IBM Cloud contiene gruppi di accesso IAM. L'amministratore dell'account IBM Cloud può creare gruppi di accesso, che sono poi disponibili come gruppi di utenti nei progetti. Per ulteriori informazioni, vedere Lavoro con i gruppi di accesso IAM.

Fine del supporto della funzione di previsione delle anomalie per gli esperimenti di serie temporali AutoAI

19 agosto 2024

La funzione di previsione delle anomalie (outlier) in AutoAI modelli di serie temporali, attualmente in beta, è deprecata e sarà rimossa il 23 settembre 2024. Gli esperimenti standard AutoAI di serie temporali sono ancora pienamente supportati. Per maggiori dettagli, vedere Costruzione di un esperimento di serie temporali.

Settimana che termina il 16 agosto 2024

I nuovi modelli di incorporazione Slate di IBM sono disponibili in tutte le regioni

15 agosto 2024

IBM I modelli di embedding di Slate offrono alle aziende la possibilità di generare embedding per vari input come query, passaggi o documenti. I nuovi modelli slate-125m-english-rtrvr-v2 e slate-30m-english-rtrvr-v2 mostrano miglioramenti significativi rispetto alle loro controparti v1. Se oggi utilizzate i modelli slate-125m-english-rtrvr e slate-30m-english-rtrvr, passate ai nuovi modelli v2 Slate per sfruttare i miglioramenti del modello.

Per ulteriori informazioni, vedere Modelli di fondazioni per encoder supportati.

Configurare i guardrail AI per l'input dell'utente e l'output foundation model separatamente in Prompt Lab

15 agosto 2024

Regolate la sensibilità dei guardrail dell'intelligenza artificiale che individuano e rimuovono i contenuti dannosi quando sperimentate i prompt foundation model nel Prompt Lab. È possibile impostare diversi livelli di sensibilità dei filtri per l'input dell'utente e per il testo di output del modello e salvare le impostazioni dei guardrail AI efficaci nei modelli di prompt.

Per ulteriori informazioni, vedere Rimozione di contenuti dannosi.

Settimana che termina il 9 agosto 2024

Selezionate i dati di test dai progetti per le valutazioni dei modelli di prompt

8 agosto 2024

Quando si valutano i modelli di prompt nei progetti, è ora possibile scegliere le risorse del progetto per selezionare i dati di test per le valutazioni. Per ulteriori informazioni, vedere Valutazione dei modelli di prompt nei progetti.

Il nuovo modello llama-3-1-70b-instruct è ora disponibile su IBM watsonx.ai

7 agosto 2024

È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 70 miliardi di parametri su IBM watsonx.ai.

I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .

Q&A aggiornati con l'acceleratore RAG

6 agosto 2024

Il progetto campione Q&A con acceleratore RAG 1.2 include i seguenti miglioramenti:

  • Chiedete aiuto per la fase successiva dell'implementazione della retrieval-augmented generation (RAG): raccogliere il feedback degli utenti e analizzare la qualità delle risposte. Include analisi con rilevamento non supervisionato degli argomenti per mostrare gli argomenti più popolari, la soddisfazione degli utenti con le risposte generate per argomento e i punteggi di ricerca per argomento.

  • Nuovi modelli di prompt ottimizzati per i modelli di fondazione IBM granite-7b-lab e Meta Llama 3.1.

  • Codice semplificato che utilizza le utilità RAG della libreria watsonx.ai Python e filtri di ricerca vettoriale mirati per la ricerca per prodotto, area e altro.

Vedere Q&A con l'acceleratore RAG.

Nota: Se non si riesce a creare il progetto campione, provare a sostituire il testo del campo descrizione.

Settimana conclusiva del 2 agosto 2024

Il nuovo modello llama-3-1-8b-instruct è ora disponibile su IBM watsonx.ai

1° agosto 2024

È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 8 miliardi di parametri su IBM watsonx.ai.

I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .

Associare gli spazi di lavoro ai casi d'uso dell'intelligenza artificiale

1° agosto 2024

Il flusso per la creazione di un caso d'uso dell'IA è stato modificato per allinearsi maggiormente al ciclo di vita dell'IA. Dopo aver definito gli elementi essenziali di un caso d'uso dell'IA, associate gli spazi di lavoro per organizzare le risorse in modo che si allineino alle fasi di una soluzione di IA. Ad esempio, si può associare un progetto o uno spazio per gli asset della fase di Sviluppo o di Convalida e uno spazio per gli asset della fase di Funzionamento.

Per maggiori dettagli, vedere Associazione di spazi di lavoro con un caso d'uso dell'intelligenza artificiale.

Settimana terminata il 26 luglio 2024

Annuncio del supporto per Python 3.11 E R4.3 framework e specifiche software in fase di runtime 24.1

25 luglio 2024

È ora possibile utilizzare IBM Runtime 24.1, che include i più recenti framework di data science basati su Python 3.11 e R 4.3, per eseguire notebook Jupyter e script R e addestrare modelli. A partire dal 29 luglio, è possibile eseguire anche le distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 24.1.

Versione migliorata di Jupyter Notebook l'editor è ora disponibile

25 luglio 2024

Se utilizzi il tuo notebook in ambienti basati su Runtime 24.1, puoi utilizzare questi miglioramenti per lavorare con il tuo codice:

  • Esegui il debug automatico del tuo codice
  • Genera automaticamente un sommario per il tuo taccuino
  • Attiva/disattiva i numeri di riga accanto al codice
  • Comprimi il contenuto delle celle e utilizza la visualizzazione affiancata per codice e output, per una maggiore produttività

Per ulteriori informazioni, vedere Editor del taccuino Jupyter.

Modelli di incorporamento del trasformatore del processore del linguaggio naturale supportati con Runtime 24.1

25 luglio 2024

Nella nuova runtime 24.1 ambiente, ora puoi utilizzare modelli di incorporamento del trasformatore di elaborazione del linguaggio naturale (NLP) per creare incorporamenti di testo che catturano il significato di una frase o di un passaggio per facilitare le attività di generazione aumentata di recupero. Per ulteriori informazioni, vedere Incorporamenti.

Nuovi modelli NLP specializzati sono disponibili in Runtime 24.1

25 luglio 2024

I seguenti nuovi modelli PNL specializzati sono ora inclusi nel Runtime 24.1 ambiente:

Estrai approfondimenti dettagliati da grandi raccolte di testi utilizzando il riepilogo dei punti chiave

25 luglio 2024

Ora è possibile utilizzare la Riassunzione dei punti chiave nei blocchi note per estrarre informazioni dettagliate e attuabili da grandi raccolte di testi che rappresentano le opinioni delle persone (come le recensioni dei prodotti, le risposte ai sondaggi o i commenti sui social media). Il risultato viene fornito in modo organizzato e gerarchico, facile da elaborare. Per ulteriori informazioni, vedere Riepilogo dei punti chiave

Aggiornamento della versione di RStudio

25 luglio 2024

Per fornire un'esperienza utente coerente tra cloud privati e pubblici, l'IDE RStudio per IBM watsonx sarà aggiornato a RStudio Server 2024.04.1 e R 4.3.1 il 29 luglio 2024. La nuova versione di RStudio offre una serie di miglioramenti e correzioni di sicurezza. Per ulteriori informazioni, consultare le note di rilascio di RStudio Server 2024.04.1. Sebbene non siano previsti grossi problemi di compatibilità, gli utenti dovrebbero essere consapevoli delle modifiche alla versione per alcuni pacchetti descritti nella tabella seguente.

Quando si avvia l'IDE RStudio da un progetto dopo l'aggiornamento, ripristinare l'area di lavoro di RStudio per assicurarsi che il percorso delle librerie per i pacchetti R 4.3.1 venga rilevato dal server RStudio.

Una nuova versione del modello " Mistral Large è ora disponibile su " IBM " watsonx.ai nelle regioni di Dallas, Francoforte e Londra

24 luglio 2024

Ora è possibile utilizzare il 'Mistral Large 2 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Dallas, Francoforte e Londra.

Il modello Mistral Large 2 supporta 11 lingue ed è in grado di comprendere il testo, generare codice e fare ragionamenti avanzati. Per i dettagli, vedere Modelli di fondazione supportati .

Nuovo llama-3-405b-instruct il modello è disponibile nella regione di Dallas

23 luglio 2024

È ora possibile utilizzare llama-3-405b-instruct foundation model da Meta su IBM watsonx.ai nel data center di Dallas.

Il modello llama-3-405B-instruct (v3.1) fornisce alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello ed è il più grande modello open-sourced mai rilasciato finora. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .

IL merlinite-7b il modello è deprecato

22 luglio 2024

Il foundation model merlinite-7b è deprecato e sarà ritirato il 22 agosto 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di ritiro: 22 luglio 2024
  • Data di ritiro: 22 agosto 2024
  • Modello alternativo: mixtral-8x7b-instruct-v01

Le richieste di inferenza inviate al merlinite-7b modello utilizzando l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 22 agosto 2024, le richieste API per l'inferenza del modello non genereranno output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Settimana terminata il 12 luglio 2024

Il nuovo modello Mistral Large è disponibile nelle regioni di Francoforte e Dallas

9 luglio 2024

È ora possibile utilizzare il 'Mistral Large 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Francoforte e Dallas.

Mistral Large offre alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .

Settimana terminata il 5 luglio 2024

Connettori raggruppati per tipo di origine dati

05 luglio 2024

Quando crei una connessione, i connettori vengono ora raggruppati per tipo di origine dati in modo che siano più facili da trovare e selezionare. Ad esempio, il tipo di origine dati MongoDB include i connettori IBM Cloud Databases for MongoDB e MongoDB.

Inoltre, un nuovo Recenti La categoria mostra gli ultimi sei connettori utilizzati per creare una connessione.

Per istruzioni, vedere Aggiunta di connessioni alle origini dati in un progetto .

Aggiungete informazioni contestuali ai prompt foundation model in Prompt Lab

4 luglio 2024

Aiutate un foundation model a generare risposte concrete e aggiornate nei casi d'uso di generazione aumentata dal reperimento (RAG) aggiungendo informazioni contestuali pertinenti al vostro prompt come dati di base. Puoi caricare rapidamente documenti rilevanti o connetterti a un negozio di vettori di terze parti con dati rilevanti. Quando viene inviata una nuova domanda, la domanda viene utilizzata per interrogare i dati di base per fatti rilevanti. I primi risultati della ricerca e la domanda originale vengono inviati come input del modello per aiutare il foundation model a incorporare i fatti rilevanti nel suo output.

Per ulteriori informazioni, vedere 'Fondare i prompt di 'foundation model su informazioni contestuali.

Cambia inCloud Object Storage Piani leggeri

1 luglio 2024

A partire dal 1 luglio 2024, ilCloud Object Storage Piano Lite che viene fornito automaticamente quando ti iscrivi per una prova di 30 giorniwatsonx.ai Ewatsonx.governance scade al termine del periodo di prova. Puoi aggiornare il tuoCloud Object Storage Lite al piano Standard con l'opzione Livello gratuito in qualsiasi momento durante i 30 giorni di prova.

EsistenteCloud Object Storage le istanze del servizio con piani Lite di cui hai effettuato il provisioning prima del 1° luglio 2024 verranno conservate fino al 15 dicembre 2024. Devi aggiornare il tuoCloud Object Storage servizio a un piano Standard prima del 15 dicembre 2024.

VedereCloud Object Storage piani di servizio .

Settimana che termina il 21 giugno 2024

Crea distribuzioni scollegate per gestire i prompt per LLM (large language models) esterni

21 giugno 2024

Un modello di prompt separato è una nuova risorsa per valutare un modello di prompt per un LLM ospitato da un provider di terze parti, ad esempioGoogle IA del vertice,AzureOpenAI, OAWS Roccia di fondo. L'inferenza che genera l'output per il modello di prompt viene eseguita sul modello remoto, ma è possibile valutare l'output del modello di prompt utilizzando metriche watsonx.governance . È inoltre possibile tenere traccia della distribuzione scollegata e del modello di prompt scollegato in un caso di utilizzo AI come parte della soluzione di governance.

Per ulteriori informazioni, vedere:

Le credenziali dell'attività saranno richieste per le richieste di lavoro di distribuzione

19 giugno 2024

Per migliorare la sicurezza per l'esecuzione dei lavori di distribuzione, l'utente che richiede il lavoro dovrà fornire le credenziali dell'attività sotto forma di una chiave API. Il requisito sarà applicato a partire dal 15 agosto 2024. Consulta Aggiunta delle credenziali dell'attività per i dettagli sulla generazione della chiave API.

Schermata che mostra come creare le credenziali dell'attività da Profilo e impostazioni

Valutare i casi di utilizzo per l'applicabilità dell'EU AI Act

19 giugno 2024

Utilizzando la nuova valutazione dell'applicabilità dell'EU AI Act, è possibile completare un semplice questionario per valutare i casi di uso dell'IA e determinare se rientrano nell'ambito dell'EU AI Act. La valutazione può anche aiutarti a identificare la categoria di rischio che i tuoi casi d'uso allineano a: proibito, alto, limitato o minimo. Per ulteriori informazioni, vedere Valutazione dell'applicabilità in Componenti della soluzione nella console di governance.

Settimana che termina il 7 giugno 2024

Gestisci le attività di rischio e conformità con la console di Governance ( IBM OpenPages)

7 giugno 2024

Watsonx.governance ora supporta l'integrazione opzionale con la console di governance. Se hai installato il modulo Model Risk Governance di IBM OpenPages, puoi configurare i casi d'uso dell'intelligenza artificiale per sincronizzare i fatti di governance con la console di governance. Dalla console di governance è possibile creare casi d'uso, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:

Settimana che termina il 31 maggio 2024

IBM Watson Pipelines è ora IBM Orchestration Pipelines

30 maggio 2024

Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.

Taggare i progetti per un facile recupero

31 maggio 2024

È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.

Connettersi a una nuova fonte di dati: Milvus

31 maggio 2024

Utilizzare la connessione Milvus per memorizzare e confermare l'esattezza delle credenziali e dei dettagli di connessione per accedere a un negozio di vettori Milvus. Per informazioni, consultare la sezione Connessione Milvus.

Settimana che termina il 24 maggio 2024

Nuovo tutorial e video

23 maggio 2024

Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.

Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare una distribuzione negli spazi Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione. Configurare i monitor e valutare un modello in uno spazio di distribuzione.

Il foundation model allam-1-13b-instruct è disponibile nella regione di Francoforte

21 maggio 2024

Il foundation model arabo allam-1-13b-instruct della Saudi Authority for Data and Artificial Intelligence e fornito da IBM è disponibile presso watsonx.ai nel data center di Francoforte. È possibile utilizzare il foundation model allam-1-13b-instruct per compiti generici, tra cui domande e risposte, riassunti, classificazioni, generazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.

Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python

21 maggio 2024

La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.

Settimana che termina il 17 maggio 2024

I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai

16 maggio 2024

I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:

  • all-minilm-l12-v2
  • multilingual-e5-large

Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Per ulteriori informazioni su questi modelli, vedere Modelli di fondazioni per encoder supportati.

Per ulteriori informazioni sulla conversione del testo, consultare Generazione di integrazione del testo.

Settimana che termina il 10 maggio 2024

I nuovi modelli di fondazione Granite Code sono disponibili nella regione di Dallas

9 maggio 2024

Da oggi è possibile fare l'inferenza dei seguenti modelli di Granite Code Foundation forniti da IBM da watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilizzate i nuovi modelli della fondazione Granite Code per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.

Per ulteriori informazioni, vedi Supported foundation models.

I modelli di fondazione InstructLab sono disponibili in watsonx.ai

7 maggio 2024

InstructLab è un'iniziativa open source di Red Hat e IBM che fornisce una piattaforma per aumentare le capacità di un foundation model. I seguenti modelli di base supportano le conoscenze e le competenze fornite da InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

È possibile esplorare i contributi della comunità open source dalla pagina della tassonomia del foundation model.

Per ulteriori informazioni, vedereInstructLab-compatible modelli di fondazione .

Settimana che termina il 3 maggio 2024

Organizzare gli asset del progetto in cartelle

2 maggio 2024

È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).

La scheda Asset con cartelle

Settimana che termina il 26 aprile 2024

IBM watsonx.ai è disponibile nella regione di Londra

25 apr 2023

Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.

  • I modelli di fondazione pienamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o tramite l'API. Le eccezioni sono mt0-xxl-13b e il foundation model llama-2-70b-chat, che è stato sostituito dal modello foundation model llama-3-70b-instruct, ora disponibile.
  • Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
  • Sono supportati i due modelli di integrazione IBM e l'API di integrazione.

Per ulteriori informazioni, vedi Disponibilità regionale per i servizi e le funzioni.

Avviare una chat in Prompt Lab direttamente dalla home page

25 apr 2023

Ora è possibile avviare una conversazione con un foundation model dalla home page di IBM watsonx.ai Immettere una domanda da inviare a un foundation model in modalità chat o fare clic su Apri Prompt Lab per scegliere un foundation model e i parametri del modello prima di inviare l'input del modello.

Settimana che termina il 19 aprile 2024

Sono ora disponibili i nuovi modelli di fondazione Meta Llama 3

18 apr 2024

I seguenti modelli di fondazione Llama 3 forniti da Meta sono disponibili per l'inferenza da watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.

Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.

Per ulteriori informazioni, vedi Supported foundation models.

Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati

18 apr 2024

È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Sono disponibili i seguenti modelli di integrazione IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Per ulteriori informazioni, consultare Generazione di incorporazione del testo.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

IBM watsonx.governance viene incluso quando ti registri per IBM watsonx.ai

18 apr 2024

Se ti registri per watsonx.ai nella regione Dallas, watsonx.governance viene ora incluso automaticamente. Vedi Registrazione per IBM watsonx as a Service.

Valutazione delle distribuzioni di machine learning negli spazi

18 apr 2024

Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.

Per ulteriori informazioni, vedi Valutazione delle distribuzioni negli spazi.

Nella regione di Tokyo è disponibile un foundation model in lingua coreana

18 apr 2024

Il sito llama2-13b-dpo-v7 foundation model fornito da Minds & Company e basato su Llama 2 foundation model da Meta è disponibile nella regione di Tokyo.

Il foundation model llama2-13b-dpo-v7 è specializzato in compiti di conversazione in coreano e inglese. È inoltre possibile utilizzare il foundation model llama2-13b-dpo-v7 per compiti generici in lingua coreana.

Per ulteriori informazioni, vedi Supported foundation models.

Per l'inferenza è disponibile un foundation model mixtral-8x7b-instruct-v01

18 apr 2024

Il foundation model mixtral-8x7b-instruct-v01 di Mistral AI è disponibile per l'inferenza su watsonx.ai Il foundation model mixtral-8x7b-instruct-v01 è un modello generativo preaddestrato che utilizza una rete rada di esperti per generare testo in modo più efficiente.

Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.

Il foundation model mixtral-8x7b-instruct-v01-q è deprecato e sarà ritirato il 20 giugno 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di obsolescenza: 19 aprile 2024
  • Data di recesso: 20 giugno 2024
  • Modello alternativo: mixtral-8x7b-instruct-v01

Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Viene introdotta una modifica al foundation model granite-20b-multilingual

18 apr 2024

L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.

Per ulteriori informazioni su questo foundation model, vedere Modelli di fondazione supportati.

Settimana che termina il 12 aprile 2024

Messa a punto del foundation model granite-13b-instruct-v2

11 apr 2024

Il Tuning Studio ora supporta la messa a punto del foundation model granite-13b-instruct-v2, oltre ai modelli di fondazione flan-t5-xl-3b e llama-2-13b-chat. Per ulteriori informazioni, vedere Messa a punto di un foundation model.

Le impostazioni di configurazione dell'esperimento per la messa a punto del foundation model granite-13b-instruct-v2 cambiano per applicare i migliori valori predefiniti a seconda dell'attività svolta. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.

Nella regione di Francoforte è disponibile un foundation model in lingua araba

11 apr 2024

Il foundation model jais-13b-chat fornito da Inception, Mohamed bin Zayed University of Artificial Intelligence e Cerebras Systems è disponibile nella regione di Francoforte.

Il foundation model jais-13b-chat è specializzato in compiti di conversazione in arabo e inglese. È inoltre possibile utilizzare il " jais-13b-chat e il " foundation model per attività generiche in lingua araba, compresa la traduzione tra arabo e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Visualizzare il testo completo di un prompt in Prompt Lab

11 apr 2024

Ora è possibile rivedere il testo completo del prompt che verrà inviato al foundation model, utile quando il prompt include variabili di prompt o quando si lavora in modalità strutturata o in modalità chat.

Per ulteriori informazioni, vedere Prompt Lab.

I modelli Granite versione 1 obsoleti vengono ritirati

11 apr 2024

I seguenti modelli di fondazione vengono ora ritirati:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Modificate tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base di IBM Granite v2. Per ulteriori informazioni sulla deprecazione e sul ritiro di foundation model, vedere il ciclo di vita dei modelli di Foundation.

Settimana che termina il 5 aprile 2024

Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization

5 aprile 2024

È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.

Nuovo tutorial e video di watsonx.ai

04 aprile 2024

Provate il nuovo tutorial per vedere come utilizzare watsonx.ai in un caso d'uso end-to-end, dalla preparazione dei dati all'ingegnerizzazione dei prompt.

Supporto didattico Descrizione Esperienza per l'esercitazione
Provate il caso d'uso end-to-end di watsonx.ai Seguire un caso d'uso dalla preparazione dei dati fino all'ingegnerizzazione dei prompt. Utilizzare vari strumenti, come i notebook e Prompt Lab.

Settimana che termina il 15 marzo 2024

L'API watsonx.ai è disponibile

14 marzo 2024

L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, consultare il riferimento API.

La versione API è 2024-03-14.

È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.

Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo

14 marzo 2024

I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:

  • granite-20b-multilingual: Un foundation model della famiglia IBM Granite che si può usare per vari compiti generativi in inglese, tedesco, spagnolo, francese e portoghese.

  • codellama-34b-instruct-hf: Un modello di generazione programmatica del codice da Code Llama che si basa su Llama 2 da Meta. È possibile utilizzare codellama-34b-instruct-hf per creare prompt per la generazione di codice basato su input in linguaggio naturale e per il completamento e il debug del codice.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina l'8 marzo 2024

Tuning Studio è disponibile a Francoforte

7 marzo 2024

Tuning Studio è ora disponibile per gli utenti dei piani a pagamento nella regione di Francoforte. Tuning Studio aiuta a guidare un foundation model per ottenere risultati utili. È possibile accordare sia i modelli di fondazione flan-t5-xl-3b che llama-2-70b-chat quando si utilizza il Tuning Studio di Francoforte.

Per ulteriori informazioni, vedere Tuning Studio.

Messa a punto del foundation model llama-2-13b-chat nella regione di Tokyo

7 marzo 2024

Il Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat nella regione di Tokyo. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot.

Per ulteriori informazioni, vedere Tuning Studio.

Prezzo più basso per modello Mixtral8x7b

5 marzo 2024

Il " foundation model " mixtral-8x7b-instruct-v01-q viene riclassificato dall'unità di classe 2: " $0.0018/Resource all'unità di classe 1: " $0.0006/Resource, rendendo più conveniente l'esecuzione di compiti di inferenza su questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q.

Per ulteriori informazioni, vedi Supported foundation models.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

L'atlante del rischio AI è aggiornato e migliorato

5 marzo 2024

Ora è possibile trovare i seguenti contenuti nuovi e migliorati nell'atlante del rischio AI:

  • Una nuova categoria di rischi non tecnici che comprende la governance, la conformità legale e i rischi di impatto sociale
  • Nuovi esempi di rischi
  • Definizioni più chiare dei rischi

Vedere AI risk atlas.

Nuovi casi di utilizzo per watsonx

5 marzo 2024

I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:

  • Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
  • Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.

Vedi Casi di usowatsonx.

Settimana che termina il 1 marzo 2024

La modalità chat è disponibile in Prompt Lab

29 febbraio 2024

La modalità Chat di Prompt Lab è una semplice interfaccia di chat che facilita la sperimentazione dei modelli di fondazione. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.

Per ulteriori informazioni, vedere Prompt Lab.

Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo

29 febbraio 2024

Il sito granite-8b-japanese foundation model fornito da IBM è disponibile presso watsonx.ai nella regione di Tokyo. Il modello granite-8b-japanese foundation model si basa sul modello IBM Granite Instruct ed è addestrato a comprendere e generare testo giapponese.

Il foundation model granite-8b-japanese può essere utilizzato per compiti generici in lingua giapponese, come la classificazione, l'estrazione, la risposta a domande e la traduzione linguistica tra giapponese e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana conclusosi il 23 febbraio 2024

Prezzo più basso per i modelli Granite-13b

21 febbraio 2024

I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Per ulteriori informazioni su questi modelli, vedi Supported foundation models.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

Settimana che termina il 16 febbraio 2024

Nuovo collegamento per iniziare a lavorare su attività comuni

15 febbraio 2024

È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.

Nuovo foundation model mixtral-8x7b-instruct-v01-q per compiti di uso generale

15 febbraio 2024

Il foundation model mixtral-8x7b-instruct-v01-q fornito da Mistral AI e quantizzato da IBM è disponibile su watsonx.ai. Il foundation model mixtral-8x7b-instruct-v01-q è una versione quantizzata del modello foundation model Mixtral 8x7B Instruct di Mistral AI.

È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.

I seguenti modelli sono obsoleti e verranno ritirati a breve. Modificate tutti i prompt che utilizzano questi modelli di base per utilizzare un altro foundation model, ad esempio mixtral-8x7b-instruct-v01-q.

Modelli di fondazione obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
gpt-neox-20b 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 febbraio 2024 11 aprile 2024 mixtral-8x7b-instruct-v01-q

Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

È disponibile una modifica al foundation model granite-13b-chat-v2

15 febbraio 2024

L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Cos'è l'allineamento AI? post del blog di IBM Research.

Nuovo video e esercitazione watsonx

15 febbraio 2024

Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.

Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare un modello di machine learning Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare.

Settimana che termina il 09 febbraio 2024

Altra documentazione Decision Optimization orientata alle attività

9 febbraio 2024

Ora è possibile trovare più facilmente le informazioni corrette per la creazione e la configurazione degli esperimenti di Decision Optimization . Vedere EsperimentiDecision Optimization e relative sottosezioni.

La connessione IBM Cloud Data Engine è obsoleta

8 febbraio 2022

La connessione IBM Cloud Data Engine è deprecata e sarà interrotta in una release futura. Per date e dettagli importanti, consultare la sezione Deprecation of Data Engine.

Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery

9 febbraio 2024

Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.

Ambienti Data Refinery Spark

L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.

Aggiornare i lavori del flusso Data Refinery per utilizzare il nuovo ambiente Default Spark 3.4 & R 4.2 . Per i dettagli, consultare Opzioni di risorse di calcolo per Data Refinery nei progetti.

Settimana che termina il 2 febbraio 2024

Raccolta di esempi ridenominata in hub di risorse

2 febbraio 2024

La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.

IBM Cloud Databases for DataStax è stata interrotta

2 febbraio 2024

La connessione IBM Cloud Databases for DataStax è stata rimossa da IBM watsonx.ai.

La connessione Dremio richiede aggiornamenti

2 febbraio 2024

In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.

Importante: aggiornare le proprietà di connessione. Diverse modifiche si applicano a una connessione per un'istanza Dremio Software (in loco) o un'istanza Dremio Cloud.

Dremio Software: aggiornare il numero di porta.

Il numero di porta predefinito utilizzato da Flight è 32010. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedere Configurazione tramite dremio.conf

Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.

Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.

  1. Accedere a Dremio e generare un token di accesso personale. Per le istruzioni, vedere Token di accesso personale.
  2. In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
  3. Selezionare La porta è abilitata SSL.

Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:

  • Modificare sql.dremio.cloud in data.dremio.cloud
  • Modificare sql.eu.dremio.cloud in data.eu.dremio.cloud

Mettere a punto il foundation model llama-2-13b-chat

1 febbraio 2024

Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot. Il llama-2-13b-model è disponibile per una pronta messa a punto nella regione di Dallas. Per ulteriori informazioni, vedere Tuning Studio.

Settimana che termina il 26 gennaio 2024

AutoAI supporta i dati ordinati per tutti gli esperimenti

25 gennaio 2024

Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.

Q & A con acceleratore RAG

26 gennaio 2024

È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.

Provare Q & A con l'acceleratore RAG.

Imposta su tema scuro

25 gennaio 2024

Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato in RStudio e nei notebook Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.

IBM watsonx.ai è disponibile nella regione di Tokyo

25 gennaio 2024

Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza foundation model sono supportati nella regione di Tokyo per questi modelli:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Disponibile anche nella regione di Tokyo:

  • Messa a punto del foundation model flan-t5-xl-3b con Tuning Studio
  • Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento

Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.

Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo

25 gennaio 2024

Il sito elyza-japanese-llama-2-7b-instruct foundation model fornito da ELYZA, Inc è disponibile dalle istanze watsonx.ai del centro dati di Tokyo. Il modello elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di Meta, addestrato per comprendere e generare testo giapponese.

È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.

Settimana conclusosi il 12 gennaio 2024

Supporto per IBM Runtime 22.2 deprecato in watsonx.ai Runtime (ex Watson Machine Learning)

11 gennaio 2024

IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 . Aggiornare gli asset e le distribuzioni per utilizzare IBM Runtime 23.1 prima del 7 marzo 2024.

IBM Granite v1 i modelli di fondazione sono deprecati

11 gennaio 2024

I modelli di fondazione IBM Granite da 13 miliardi di parametri v1 sono deprecati e saranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.

Modelli di base IBM obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
granite-13b-chat-v1 11 gennaio 2024 11 aprile 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 gennaio 2024 11 aprile 2024 granite-13b-instruct-v2

Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sui modelli di fondazione di IBM Granite, vedere Modelli di fondazione costruiti da IBM. Per ulteriori informazioni sulla deprecazione e sul ritiro, vedere il ciclo di vita del modello Foundation.