0 / 0
Torna alla versione inglese della documentazione
Novità
Ultimo aggiornamento: 23 dic 2024
Novità

Tornate a trovarci ogni settimana per conoscere le nuove funzionalità e gli aggiornamenti di IBM watsonx.ai e IBM watsonx.governance su IBM Cloud.

Per informazioni su IBM watsonx.governance su AWS, vedere Le novità per IBM watsonx.governance su AWS.

Suggerimento: di tanto in tanto, è necessario eseguire un'azione specifica dopo un aggiornamento. Per visualizzare tutte le azioni richieste, cercare in questa pagina "Azione richiesta".

Settimana che termina il 20 dicembre 2024

Distribuire i modelli convertiti in formato ONNX

20 dicembre 2024

È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Per ulteriori informazioni, vedere Distribuzione di modelli convertiti in formato ONNX.

Distribuzione di flussi SPSS Modeler multi-source

20 dicembre 2024

È ora possibile creare implementazioni per i flussi di SPSS Modeler che utilizzano più flussi di input per fornire dati al modello. Per ulteriori informazioni, vedere Distribuzione di flussi SPSS Modeler multi-sorgente.

Vengono introdotte modifiche ai modelli di fondazione Granite 3 Instruct

18 dicembre 2024

Sono state apportate modifiche ai seguenti modelli di fondazione IBM :

  • granite-3-2b-instruct
  • granite-3-8b-instruct

Con le ultime modifiche, i modelli di fondazione di Granite 3.1 Instruct offrono ora un supporto migliore per la codifica dei compiti e delle funzioni intrinseche degli agenti. La lunghezza della finestra di contesto supportata per questi modelli di fondazione è aumentata da 4.096 tokens a 131.072 tokens. Sebbene gli ID dei modelli di Granite Instruct rimangano invariati, i pesi dei modelli vengono aggiornati.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina il 13 dicembre 2024

Soluzione senza codice per la ricerca di un modello RAG con AutoAI (beta)

12 dicembre 2024

È ora possibile automatizzare la ricerca del modello RAG ottimale per il proprio caso d'uso dall'interfaccia utente di AutoAI. Caricare la raccolta di documenti e le domande di prova, scegliere un database vettoriale ed eseguire l'esperimento per un approccio rapido alla ricerca di un modello RAG. È inoltre possibile rivedere e modificare le impostazioni di configurazione dell'esperimento. Confrontare i modelli generati dall'esperimento e salvare il modello migliore come taccuino o taccuino generato automaticamente e salvato nel progetto.

Per ulteriori informazioni, vedere Automazione di un modello RAG con AutoAI.

Distribuzione dei servizi AI con i modelli

12 dicembre 2024

È possibile distribuire i servizi AI utilizzando modelli predefiniti. I modelli di servizio AI forniscono un modo standardizzato per distribuire i servizi AI, offrendo una struttura e una configurazione predefinite per la distribuzione dei modelli AI. Questi modelli sono unità di codice precostituite e distribuibili che incapsulano la logica di programmazione delle applicazioni di intelligenza artificiale generativa.

I modelli di servizio AI automatizzano attività come la creazione di distribuzioni, la generazione di metadati e la creazione di estensioni, consentendo agli sviluppatori di concentrarsi sulla logica principale della loro applicazione. Offrono un modo flessibile per distribuire i servizi di IA, supportando molteplici input e personalizzazioni.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI con i modelli.

L'ultimo foundation model Llama è disponibile per l'implementazione su richiesta

12 dicembre 2024

È possibile distribuire il foundation model multilingue Meta Llama 3.3 70B Instruct su un hardware dedicato ad uso esclusivo della propria organizzazione. L'ultimo foundation model di Meta ha capacità simili al modello più grande llama-3-405b-instruct, ma è di dimensioni più ridotte ed è abile soprattutto nella codifica, nel ragionamento passo-passo e nella chiamata di strumenti. È possibile distribuire il modello completo llama-3-3-70b-instruct-hf ) o una versione quantizzata llama-3-3-70b-instruct ) che richiede meno risorse da ospitare.

Per ulteriori informazioni sulla distribuzione di un foundation model su richiesta nella regione di Dallas dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

Distribuzione dei modelli di fondazione su richiesta con la libreria client Python

12 dicembre 2024

È ora possibile distribuire i modelli della fondazione su richiesta utilizzando la libreria client Python di watsonx.ai Utilizzando questo approccio, è possibile accedere alle capacità di questi potenti modelli di fondazione senza la necessità di disporre di ampie risorse di calcolo. I modelli Foundation distribuiti on-demand sono ospitati in uno spazio di distribuzione dedicato, dove è possibile utilizzare questi modelli per l'inferenza.

Per ulteriori informazioni, vedere Distribuzione dei modelli di fondazione su richiesta.

Tutorial aggiornati SPSS Modeler

11 dicembre 2024

Fate esperienza diretta con SPSS Modeler provando i 15 aggiornamenti di SPSS Modeler tutorial.

Confronto di risorse AI con Evaluation Studio

12 dicembre 2024

Con Evaluation Studio, potete valutare e confrontare le vostre risorse di IA generativa con metriche quantitative e criteri personalizzabili che si adattano ai vostri casi d'uso. Valutare le prestazioni di più asset contemporaneamente e visualizzare analisi comparative dei risultati per identificare le soluzioni migliori.

Per ulteriori informazioni, consultare la sezione Confronto degli asset AI con Evaluation Studio.

Miglioramenti alla console di governance

12 dicembre 2024

Miglioramenti alla soluzione di Model Risk Governance watsonx.governance

Questa versione include i seguenti miglioramenti:

  • Il nuovo modello di questionario AI Model Onboarding Risk Identification viene utilizzato durante il processo di onboarding del modello per aiutare a identificare i rischi associati a un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Foundation Model Onboarding.
  • Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA viene utilizzato per aiutare a identificare i rischi associati ai casi d'uso dell'IA. Questo modello di questionario viene utilizzato nel flusso di lavoro di revisione dei casi d'uso. Questo nuovo questionario è destinato a sostituire il questionario per l'identificazione del rischio di IA
  • Il nuovo modello di questionario per l'identificazione dei rischi dei casi d'uso dell'IA e dei modelli viene utilizzato per aiutare a identificare i rischi associati alla combinazione di un caso d'uso dell'IA e di un modello. Questo modello di questionario viene utilizzato nel flusso di lavoro Sviluppo e documentazione dei casi d'uso.
  • Il flusso di lavoro di valutazione dell'intelligenza artificiale è ora disattivato per impostazione predefinita. È sostituito dal flusso di lavoro Valutazione del questionario. È ora possibile impostare i modelli di questionario direttamente nel flusso di lavoro dei casi d'uso.
  • I flussi di lavoro, le viste e i dashboard sono stati aggiornati.

Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.

Correzioni di bug e di sicurezza

Sono state applicate correzioni di bug e di sicurezza.

Per ulteriori informazioni, vedere Nuove funzioni in 9.0.0.5.

IBM watsonx.governance è disponibile nella regione di Sydney

9 dicembre 2024

IBM watsonx.governance è ora generalmente disponibile nel data center di Sydney. È possibile selezionare Sydney come regione preferita al momento dell'iscrizione.

Per ulteriori informazioni sulle funzioni del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e funzioni.

Settimana che termina il 6 dicembre 2024

Distribuzione di modelli di fondazione su richiesta nella regione di Dallas

6 dicembre 2024

Scegliete da una collezione curata di modelli di fondazione che potete distribuire su hardware dedicato per l'uso esclusivo della vostra organizzazione. Un'implementazione dedicata significa interazioni più reattive quando si inferiscono i modelli di fondazione. I modelli di fondazione Deploy on-demand sono fatturati all'ora. Per ulteriori informazioni, vedere Modelli di fondazione supportati e Dettagli di fatturazione per le risorse di intelligenza artificiale generativa.

Per saperne di più sulla distribuzione di un foundation model su richiesta dall'hub delle risorse o dall'API REST, vedere Distribuzione di modelli di fondazione su richiesta.

Inferenza dell'ultimo foundation model Llama da 'Meta nelle regioni di Dallas e Francoforte

6 dicembre 2024

Il foundation model multilingue 'Meta Llama 3.3 70B Instruct è disponibile per l'inserimento nelle regioni di Dallas e Francoforte. Il foundation model llama-3-3-70b-instruct è abile nella codifica, nel ragionamento passo-passo e nella chiamata degli strumenti. Con prestazioni che rivaleggiano con quelle del modello 405b, l'aggiornamento foundation model Llama 3.3 è un'ottima scelta per gli sviluppatori. Si veda l'annuncio di IBM.

Per ulteriori informazioni, vedi Supported foundation models.

Esaminare i benchmark per confrontare i modelli di fondazione

5 dicembre 2024

Esaminate i benchmark foundation model per conoscere le capacità dei modelli di fondazione disponibili prima di provarli. Confrontate le prestazioni dei vari modelli di fondazione sulle attività più importanti per il vostro caso d'uso. Per ulteriori informazioni, consultare i benchmark del modello Foundation.

I file Microsoft Excel sono deprecati per i modelli OPL in Decision Optimization

5 dicembre 2024

I file delle cartelle di lavoro Microsoft Excel (.xls e .xlsx) sono ora deprecati per l'input e l'output diretto nei modelli Decision Optimization OPL. Per collegarsi ai file Excel, utilizzare invece un connettore di dati. Il connettore dati trasforma il file Excel in un file .csv. Per ulteriori informazioni, vedere Dati di riferimento.

Nuovi notebook di esempio per la distribuzione di modelli convertiti in formato ONNX

3 dicembre 2024

È ora possibile distribuire modelli di apprendimento automatico e di intelligenza artificiale generativa convertiti in formato ONNX e utilizzare l'endpoint per l'inferenza. Questi modelli possono essere adattati anche agli assi dinamici. Vedere i seguenti quaderni di esempio:

Per ulteriori informazioni, consultare gli esempi di client Python runtime diwatsonx.ai.

I modelli di fondazione llama-3-8b-instruct e llama-3-70b-instruct sono deprecati

2 dicembre 2024

I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

llama-3-8b-instruct

  • Data di ammortamento: 2 dicembre 2024
  • Data di ritiro: 3 febbraio 2025
  • Modello alternativo: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

llama-3-70b-instruct

  • Data di ammortamento: 2 dicembre 2024
  • Data di ritiro: 3 febbraio 2025 (31 marzo a Sydney)
  • Modello alternativo: llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 29 novembre 2024

Miglioramento della documentazione sulle opzioni di scrittura per Data Refinery

28 novembre 2024

Le opzioni di scrittura e le opzioni della tabella per l'esportazione dei flussi di dati dipendono dalla connessione. Queste opzioni vengono ora spiegate in modo da guidare meglio l'utente nella scelta delle opzioni della tabella di destinazione. Per ulteriori informazioni, vedere Opzioni di connessione target per Data Refinery.

Settimana che termina il 22 novembre 2024

Il nuovo watsonx Developer Hub per iniziare a codificare velocemente

21 ottobre 2024

Consultate il nuovo Developer Hub per trovare tutto ciò che vi serve per codificare la vostra soluzione di IA generativa:

  • Effettuate la vostra prima richiesta API per inferenziare un foundation model in watsonx.ai
  • Trovate i modelli di base e le librerie di codice giusti per le vostre applicazioni AI.
  • Comprendere le funzionalità di watsonx.ai e copiare frammenti di codice in Curl, Node.js o Python.
  • Imparate a costruire applicazioni e soluzioni di IA generativa con guide dettagliate.
  • Unisciti alle comunità per trovare risorse, risposte e per coinvolgere gli altri utenti.

Andate al watsonx Developer Hub.

I servizi dei componenti di IBM watsonx.ai sono stati rinominati

21 novembre 2024

I seguenti servizi sono stati rinominati:

  • Watson Machine Learning ora si chiama watsonx.ai Runtime
  • Watson Studio ora si chiama watsonx.ai Studio

Alcuni video, quaderni ed esempi di codice potrebbero continuare a fare riferimento a questi servizi con i loro nomi precedenti.

IBM watsonx.ai è disponibile nella regione di Sydney

21 novembre 2024

Watsonx.ai è ora generalmente disponibile nel data center di Sydney, che può essere selezionata come regione preferita al momento dell'iscrizione.

Per ulteriori informazioni sui modelli di fondazione e sulle caratteristiche del prodotto disponibili nella regione di Sydney, vedere Disponibilità regionale di servizi e caratteristiche.

Utilizzare i modelli di fondazione delle serie temporali IBM Granite e l'API watsonx.ai per prevedere i valori futuri (beta)

21 novembre 2024

Utilizzate l'API delle serie temporali per passare le osservazioni dei dati storici a un foundation model delle serie temporali IBM Granite in grado di prevedere i valori futuri con un'inferenza a zero colpi. Il metodo di previsione delle serie temporali dell'API watsonx.ai è disponibile come funzione beta. Per ulteriori informazioni, vedere Previsione dei valori futuri dei dati.

Utilizzare i modelli di incorporazione del testo di watsonx.ai dall'API di inferenza di Elasticsearch

21 novembre 2024

La versione " Elasticsearch " 8.16.0 ha aggiunto il supporto per la creazione di un endpoint di inferenza che utilizza un " watsonx.ai " foundation model per le attività di incorporazione del testo.

Per ulteriori informazioni, vedere Vettorializzazione del testo tramite l'API.

Promuovere i flussi di SPSS Modeler negli spazi di distribuzione

19 novembre 2024

È ora possibile promuovere direttamente i flussi di SPSS Modeler dai progetti agli spazi di distribuzione senza dover esportare il progetto e poi importarlo nello spazio di distribuzione. Per ulteriori informazioni, vedere Promozione dei flussi e dei modelli di SPSS Modeler.

Settimana che termina il 15 novembre 2024

Utilizzate l'app di chat demo IBM watsonx.ai senza restrizioni di prova collegando gli account

15 novembre 2024

È ora possibile utilizzare l'app di chat dell'account demo di IBM watsonx.ai senza limitazioni di utilizzo dei token o di tempo collegando l'account demo all'account IBM Cloud watsonx.ai a pagamento. Per maggiori dettagli, vedere Collegamento degli account IBM watsonx.ai demo e watsonx.ai.

Il pacchetto Node.js watsonx.ai è disponibile presso LangChain

11 novembre 2024

Il pacchetto watsonx.ai Node.js è disponibile per l'uso dalla libreria della comunità LangChain JavaScript. L'integrazione supporta le funzioni di watsonx.ai, come l'inferenza di modelli di fondazione, la generazione di incorporazioni di testo e la gestione di scambi di chat che includono funzionalità di chiamata di immagini e strumenti. Con l'integrazione di LangChain, è possibile richiamare queste funzionalità di watsonx.ai utilizzando interfacce coerenti che rendono più facile passare da un fornitore all'altro per confrontare le offerte e trovare la soluzione migliore per le proprie esigenze.

Per ulteriori informazioni, vedere Node.js SDK.

Le credenziali delle attività sono ora necessarie per distribuire le risorse ed eseguire i lavori da uno spazio di distribuzione

11 novembre 2024

Per migliorare la sicurezza dell'esecuzione dei lavori di distribuzione, è necessario inserire le credenziali dell'attività per distribuire le seguenti risorse da uno spazio di distribuzione:

  • Modelli di prompt
  • Servizi AI
  • Modelli
  • Funzioni Python
  • Script

Inoltre, è necessario inserire le credenziali dell'attività per creare le seguenti distribuzioni dallo spazio di distribuzione:

  • In linea
  • Lavori

È inoltre necessario utilizzare le credenziali dell'attività per creare e gestire i lavori di distribuzione dal proprio spazio di distribuzione.

Per sapere come impostare le credenziali dell'attività e generare una chiave API, vedere Aggiunta di credenziali dell'attività.

Settimana che termina l'8 novembre 2024

Implementazione di applicazioni di IA generativa con servizi di IA

7 novembre 2024

Ora è possibile utilizzare i servizi AI di watsonx.ai per distribuire le applicazioni. Un servizio AI è un'unità di codice distribuibile che può essere utilizzata per catturare la logica dei casi d'uso dell'AI generativa. Mentre le funzioni Python sono il modo tradizionale per distribuire risorse di apprendimento automatico, i servizi AI offrono un'opzione più flessibile per distribuire codice per applicazioni AI generative, come lo streaming. Quando i servizi di intelligenza artificiale sono stati distribuiti con successo, è possibile utilizzare l'endpoint per l'inferenza dalla propria applicazione.

Per ulteriori informazioni, vedere Distribuzione dei servizi AI.

I modelli di fondazione granite-13b-chat-v2, llama2-13b-dpo-v7 e mt0-xxl-13b sono deprecati

4 novembre 2024

I seguenti modelli di fondazione sono deprecati. Rivedete i suggerimenti che utilizzano questi modelli di base.

granite-13b-chat-v2

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 3 febbraio 2025
  • Modello alternativo: granite-3-8b-instruct

llama2-13b-dpo-v7

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 4 dicembre 2024
  • Modello alternativo: llama-3-1-8b-instruct

mt0-xxl-13b

  • Data di ammortamento: 4 novembre 2024
  • Data di ritiro: 4 dicembre 2024
  • Modelli alternativi: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 1° novembre 2024

Il nuovo modello di incorporazione di terze parti all-minilm-l6-v2 è disponibile in watsonx.ai

29 ottobre 2024

Il modello di incorporazione del testo all-minilm-l6-v2 della comunità open source di elaborazione del linguaggio naturale (NLP) e di visione artificiale (CV) è ora disponibile per l'uso dal metodo di incorporazione del testo dell'API watsonx.ai Utilizzare il modello per convertire il testo in vettori di incorporamento del testo, adatti per essere utilizzati in compiti di corrispondenza e recupero del testo. Per i dettagli sul modello, vedere i seguenti argomenti:

Prezzo più basso per l'inferenza del foundation model Mistral Large

29 ottobre 2024

Il prezzo per l'input inviato al foundation model Mistral Large è diminuito da 00.01 a 00.003 dollari USA per 1.000 gettoni. Il prezzo dell'output generato dal foundation model non è cambiato; il prezzo dei gettoni di output rimane di 00.01 USD/1,000 gettoni. La modifica del prezzo si applica a tutte le regioni in cui è disponibile il foundation model mistral-large.

Per ulteriori informazioni, vedi Supported foundation models.

Deprecazione del Runtime IBM 23.1

28 ottobre 2024

IBM Runtime 23.1 è deprecato. A partire dal 21 novembre 2024, non sarà più possibile creare nuovi notebook o ambienti personalizzati utilizzando i runtime 23.1. Inoltre, non è possibile creare nuove distribuzioni con specifiche software basate sul runtime 23.1. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a IBM Runtime 24.1.

Semplificate i documenti aziendali complessi con l'API per l'estrazione del testo

28 ottobre 2024

Il metodo di estrazione del testo è ora generalmente disponibile nell'API REST di watsonx.ai. Sfruttate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API di estrazione del testo estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non riescono a interpretare correttamente. Per ulteriori informazioni, vedere Estrazione di testo dai documenti.

L'API è disponibile in tutte le regioni per gli utenti dei piani a pagamento. Per i dettagli sui prezzi, vedere la tabella delle tariffe per l'estrazione del testo del documento.

Settimana che termina il 25 ottobre 2024

Confrontate le tabelle negli esperimenti di Decision Optimization vedere le differenze tra gli scenari

23 ottobre 2024

È ora possibile confrontare le tabelle in un esperimento di Decision Optimization nella vista Prepara dati o Esplora soluzione. Questo confronto può essere utile per vedere le differenze di valore dei dati tra gli scenari visualizzati uno accanto all'altro. Schermata che mostra il confronto delle tabelle in Decision Optimization
Per ulteriori informazioni, vedere Confronto delle tabelle di scenario.

I nuovi modelli Granite 3.0 sono disponibili su watsonx.ai

21 ottobre 2024

Da oggi è possibile fare l'inferenza dei seguenti modelli della generazione 3.0 Granite Foundation forniti da IBM da watsonx.ai:

  • Modelli Instruct Granite in tutte le regioni: Utilizzate i nuovi modelli linguistici istruiti, leggeri e open-source per compiti come riassunto, risoluzione di problemi, traduzione di testi, ragionamento, codifica e richiamo di funzioni. Funziona con le seguenti varianti di modello:
    • granite-3-2b-instruct
    • granite-3-8b-instruct
  • I modelli Granite Guardian nella regione di Dallas: Utilizzare i nuovi modelli Granite Guardian, che sono modelli Granite Instruct perfezionati, progettati per individuare i rischi nelle richieste e nelle risposte. Funziona con le seguenti varianti di modello:
    • granite-guardian-3-2b
    • granite-guardian-3-8b

Per i dettagli, vedere Modelli di fondazione supportati .

Migliorare le attività di ricerca e recupero con l'API di rerank del testo

21 ottobre 2024

Il metodo text rerank è generalmente disponibile nell'API REST di watsonx.ai. Utilizzare questo nuovo metodo API, insieme ai modelli di fondazione del reranker, come il modello ms-marco-minilm-l-12-v2 recentemente supportato, per riordinare un insieme di passaggi di documenti in base alla loro somiglianza con una query specificata. Il reranking è un modo utile per aggiungere precisione ai flussi di lavoro di recupero delle risposte. Per ulteriori informazioni, consultare la sezione Passaggi di documenti di reranking.

Il nuovo modello Pixtral 12B è disponibile nelle regioni di Francoforte e Londra

21 ottobre 2024

Ora è possibile utilizzare il foundation model Pixtral 12B di Mistral AI su watsonx.ai nei data center di Francoforte e Londra.

Pixtral 12B è un modello nativamente multimodale con capacità di trasmissione da immagine a testo e da testo a testo che è stato addestrato con dati di immagine e testo interfogliati. Il foundation model supporta immagini di dimensioni variabili e si distingue per la capacità di seguire le istruzioni. Per i dettagli, vedere Modelli di fondazione supportati .

Utilizzare i modelli llama-3-2-11b-vision-instruct e llama-guard-11b-vision nelle regioni di Francoforte e Londra

21 ottobre 2024

È ora possibile lavorare con i modelli llama-3-2-11b-vision-instruct e llama-guard-11b-vision nei data center di Francoforte e Londra, oltre che in quello di Dallas. Per i dettagli, vedere Disponibilità regionale per i servizi e le funzioni su IBM Cloud e Chattare con le immagini.

Settimana che termina il 18 ottobre 2024

L'individuazione delle risorse dell'account è abilitata per impostazione predefinita

17 ottobre 2024

L'impostazione " Resource scope per il vostro account è ora impostata di default su " ON. Tuttavia, se in precedenza il valore dell'impostazione Ambito risorse è stato impostato su 'ON o 'OFF, l'impostazione corrente non viene modificata.

Quando la ricerca delle risorse è attivata, non è possibile accedere ai progetti che non sono presenti nell'account IBM Cloud attualmente selezionato. Se si appartiene a più di un account IBM Cloud, è possibile che non si vedano tutti i progetti elencati insieme. Ad esempio, è possibile che non vengano visualizzati tutti i progetti nella pagina Tutti i progetti. È necessario cambiare account per vedere i progetti negli altri account.

Nella regione di Francoforte è disponibile un foundation model Granite Code

15 ottobre 2024

Il foundation model granite-20b-code-instruct di IBM è progettato per rispondere alle istruzioni di codifica. È possibile utilizzare il foundation model nei progetti ospitati nel centro dati di Francoforte per aiutarsi nelle attività di codifica e per creare assistenti di codifica. Per ulteriori informazioni sul modello, vedere Modelli di fondazione supportati.

Settimana che termina l'11 ottobre 2024

Nuovo vantaggio della licenza

10 ottobre 2024

È ora possibile portare la propria licenza (BYOL) per applicare i vantaggi delle licenze on-premises a IBM watsonx.ai e IBM watsonx.governance.

Per ulteriori informazioni, vedere Attivazione della licenza BYOL (Bring Your Own License) per SaaS.

Analizzare i dati di testo giapponesi in SPSS Modeler con Text Analytics

9 ottobre 2024

È ora possibile utilizzare i nodi di Text Analytics di SPSS Modeler, come il nodo Text Link Analysis e il nodo Text Mining, per analizzare i dati di testo scritti in giapponese.

Creare flussi di lavoro conversazionali con l'API di chat watsonx.ai

8 ottobre 2024

Utilizzate l'API di chat watsonx.ai per aggiungere alle vostre applicazioni funzionalità di IA generativa, comprese le chiamate guidate dagli agenti a strumenti e servizi di terze parti.

Per ulteriori informazioni, fare riferimento ai seguenti argomenti:

Nuove specifiche software per i modelli di fondazione personalizzati

7 ottobre 2024

È ora possibile utilizzare una nuova specifica software " watsonx-cfm-caikit-1.1 con le distribuzioni foundation model personalizzato. La specifica si basa sulla libreria vLLM ed è più adatta ai più recenti modelli linguistici di grandi dimensioni con solo decodificatore. Per ulteriori informazioni sulla libreria vLLM, vedere vLLM Per informazioni sull'uso delle specifiche con un foundation model personalizzato, vedere Pianificazione della distribuzione di un foundation model personalizzato.

I modelli di fondazione granite-7b-lab e llama3-llava-next-8b-hf sono deprecati

7 ottobre 2024

Il foundation model granite-7b-lab è deprecato e sarà ritirato il 7 gennaio 2025. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di ammortamento: 7 ottobre 2024
  • Data di ritiro: 7 gennaio 2025
  • Modello alternativo: granite-3-8b-instruct

Anche il foundation model multimodale llama3-llava-next-8b-hf è deprecato e sarà ritirato il 7 novembre 2024. È ora possibile utilizzare uno dei nuovi modelli di visione di Llama 3.2 per la generazione di immagini in formato testo.

  • Data di ammortamento: 7 ottobre 2024
  • Data di ritiro: 7 novembre 2024
  • Modello alternativo: llama-3-2-11b-vision-instruct

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione. Per ulteriori informazioni sui modelli alternativi, vedere Modelli di fondazione supportati.

Settimana che termina il 4 ottobre 2024

Ambienti e specifiche software aggiornati

3 ottobre 2024

Le librerie Tensorflow e Keras incluse in IBM Runtime 23.1 sono ora aggiornate alle versioni più recenti. Questo potrebbe avere un impatto sul modo in cui il codice viene eseguito nei notebook. Per maggiori dettagli, vedere i pacchetti di librerie inclusi nei runtime di watsonx.ai Studio (ex Watson Studio).

Il Runtime 23.1 verrà dismesso a favore del Runtime 24.1 IBM nel corso dell'anno. Per evitare ripetute interruzioni, si consiglia di passare subito a IBM Runtime 24.1 e di utilizzare le relative specifiche software per le implementazioni.

Disponibilità del piano watsonx.governance nella regione di Francoforte e deprezzamento del piano OpenScale legacy

3 ottobre 2024

Il piano legacy watsonx.governance per il provisioning di Watson OpenScale nella regione di Francoforte è deprecato. IBM Watson OpenScale non sarà più disponibile per nuove sottoscrizioni o per il provisioning di nuove istanze. Per le funzionalità OpenScale, sottoscrivete il piano Essentials di watsonx.governance, ora disponibile sia a Francoforte che a Dallas.

Note:

  • Le istanze del piano legacy esistenti continueranno a funzionare e saranno supportate fino alla data di fine del supporto, ancora da stabilire.
  • I clienti esistenti su IBM Watson OpenScale possono continuare ad aprire ticket di assistenza utilizzando IBM Watson OpenScale.

Nuovi termini del menu per aprire la pagina delle connessioni alla piattaforma

3 ottobre 2024

In precedenza il percorso della pagina Connessioni alla piattaforma nel menu di navigazione era Dati > Connessioni alla piattaforma. Il nuovo percorso è Dati > Connettività. La pagina Connettività contiene una scheda per le connessioni della piattaforma.

Settimana che termina il 27 settembre 2024

Llama 3.2, compresi i modelli multimodali 11B e 90B sono disponibili

25 settembre 2024

Con il rilascio odierno, i seguenti modelli di fondazione di Meta AI sono disponibili nella regione di Dallas:

Llama 3.2 modelli istruttori
Modelli linguistici versatili e di grandi dimensioni che supportano input di grandi dimensioni (lunghezza della finestra di contesto di 128.000 token) e sono abbastanza leggeri ed efficienti, con dimensioni di 1B e 3B parametri, da poter essere inseriti in un dispositivo mobile. È possibile utilizzare questi modelli per costruire agenti altamente personalizzati e on-device.
Llama 3.2 modelli di visione
Modelli perfezionati costruiti per casi d'uso di tipo image-in e text-out, come la comprensione a livello di documento, l'interpretazione di grafici e diagrammi e la didascalia delle immagini.
Modello di visione della Guardia del Lama
Potente modello di guardrail progettato per filtrare i contenuti nocivi.

Per ulteriori informazioni, vedi Supported foundation models.

Miglioramenti alla console di governance

25 settembre 2024

Questa versione include miglioramenti e correzioni di bug.

Schede personalizzate sul cruscotto

Il cruscotto può ora contenere fino a tre schede personalizzate.

grafici a barre in pila

È ora possibile configurare un grafico a barre sovrapposte nel dashboard e nel View Designer.

Utilizzare le espressioni per impostare i valori dei campi in base alle risposte dei partecipanti al questionario

È ora possibile inserire un'espressione per il valore di un campo. Ad esempio, si può inserire [$TODAY$] per la data corrente, [$END_USER$] per il nome dell'utente registrato o [$System Fields:Description$] per impostare il campo sul valore del campo Descrizione dell'oggetto.

Miglioramenti alla soluzione di Model Risk Governance watsonx.governance

Questa versione include i seguenti miglioramenti:

  • Il nuovo tipo di oggetto Gruppo di modelli consente di raggruppare modelli simili. Ad esempio, le versioni di un modello che utilizzano un approccio simile per risolvere un problema aziendale possono essere inserite in un Gruppo di modelli.
  • Il nuovo calcolo del punteggio di rischio dei casi d'uso aggrega le metriche per stato di violazione in punteggi di rischio per fornire una visione complessiva delle prestazioni dei modelli sottostanti di un caso d'uso.
  • La nuova business entity Discovered AI library fornisce un luogo predefinito per archiviare tutte le implementazioni di IA che non seguono le pratiche di governance sanzionate all'interno di un'organizzazione (note anche come "IA ombra").
  • I flussi di lavoro, le viste e i dashboard sono stati aggiornati.

Per ulteriori informazioni, vedere Componenti della soluzione in Governance console.

Correzioni di bug e di sicurezza

Sono state applicate correzioni di bug e di sicurezza.

Per ulteriori informazioni, vedere Nuove funzionalità in 9.0.0.4.

Automatizzare i modelli RAG con AutoAI SDK (beta)

23 settembre 2024

Utilizzate l'SDK AutoAI Python per automatizzare e accelerare la progettazione e l'implementazione di un modello ottimizzato di generazione aumentata dal recupero (RAG) basato sui vostri dati e sul vostro caso d'uso. RAG è dotato di molti parametri di configurazione, tra cui il modello linguistico di grandi dimensioni da scegliere, il modo in cui suddividere i documenti di grounding e il numero di documenti da recuperare. AutoAI automatizza l'esplorazione e la valutazione completa di un insieme vincolato di opzioni di configurazione e produce una serie di pipeline di modelli classificati in base alle prestazioni rispetto alla metrica di ottimizzazione.

Nota: Mentre questa funzione è in fase beta, l'esecuzione dell'esperimento non comporta alcun costo e non vengono consumati token. Tuttavia, le chiamate ai modelli RAG e ai loro derivati effettuate dopo il completamento dell'esperimento consumano risorse e comportano costi di fatturazione alle tariffe standard.

Vedere Automazione di uno schema RAG con l'SDK AutoAI (Beta) per i dettagli sulla funzione e le note d'uso per la codifica di un esperimento RAG AutoAI.

Rimozione del runtime di Spark 3.3

23 settembre 2024

Il supporto per il runtime Spark 3.3 in IBM Analytics Engine sarà rimosso entro il 29 ottobre 2024 e la versione predefinita sarà cambiata in Spark 3.4. Per garantire un'esperienza senza interruzioni e per sfruttare le funzioni e i miglioramenti più recenti, passate a Spark 3.4.

A partire dal 29 ottobre 2024, non è più possibile creare o eseguire notebook o ambienti personalizzati utilizzando i runtime di Spark 3.3. Inoltre, non è possibile creare o eseguire distribuzioni con specifiche software basate sul runtime Spark 3.3.

Settimana che termina il 20 settembre 2024

Inferenza di un foundation model multimodale dal Prompt Lab

19 settembre 2024

È ora possibile aggiungere un'immagine in Prompt Lab e chattare sull'immagine richiedendo un foundation model multimodale in modalità chat. Oltre ai documenti di base, è ora possibile caricare immagini e chiedere a un foundation model che supporta le attività da immagine a testo il contenuto visivo dell'immagine. Per ulteriori informazioni, vedere Chattare con documenti e immagini.

Il nuovo modello llama3-llava-next-8b-hf è disponibile nella regione di Dallas

19 settembre 2024

È ora possibile utilizzare il nuovo foundation model multimodale llama3-llava-next-8b-hf su IBM watsonx.ai per aiutarci con le attività image-to-text.

Large Language and Vision Assistant (LLaVa) combina un modello linguistico di grandi dimensioni preaddestrato con un codificatore di visione preaddestrato per casi d'uso di chatbot multimodali. LLaVA NeXT Llama3 è addestrato su dati di immagini e testi più diversi e di alta qualità. Per i dettagli, vedere Modelli di fondazione supportati .

Usare l'SDK watsonx.ai Node.js per codificare applicazioni di IA generativa

18 settembre 2024

Inferenza e messa a punto dei modelli di fondazione in IBM watsonx as a Service in modo programmatico utilizzando il pacchetto watsonx.ai Node.js. Per ulteriori informazioni, vedere Node.js SDK.

Comprendere le politiche di indennizzo della proprietà intellettuale per i modelli di fondazione

18 settembre 2024

Ora è possibile comprendere meglio la politica di indennizzo della proprietà intellettuale di IBM e vedere quali modelli di fondazione hanno una copertura di indennizzo IP in watsonx.ai. Per ulteriori informazioni, vedere Tipi di modello e indennizzo IP.

Settimana che termina il 13 settembre 2024

Creare lavori batch per i flussi di SPSS Modeler negli spazi di distribuzione

10 settembre 2024

È ora possibile creare lavori batch per i flussi SPSS Modeler negli spazi di distribuzione. I flussi offrono la flessibilità di decidere quali nodi del terminale eseguire ogni volta che si crea un lavoro batch da un flusso. Quando si pianificano lavori batch per i flussi, il lavoro batch utilizza le origini dati e i target di output specificati nel flusso. La mappatura di queste sorgenti e uscite di dati è automatica se le sorgenti e i target di dati sono anche nello spazio di distribuzione. Per ulteriori informazioni sulla creazione di lavori batch dai flussi, vedere Creazione di lavori di distribuzione per flussi SPSS Modeler.

Per ulteriori informazioni sui flussi e i modelli negli spazi di distribuzione, vedere Deploying SPSS Modeler di flussi e modelli.

Settimana che termina il 6 settembre 2024

Portate il vostro foundation model all'inferenza da watsonx.ai nella regione di Dallas

3 settembre 2024

Oltre a lavorare con i modelli di fondazione curati da IBM, è ora possibile caricare e distribuire i propri modelli di fondazione. Dopo che i modelli sono stati distribuiti e registrati con watsonx.ai, è possibile creare dei prompt che inferiscono i modelli personalizzati in modo programmatico o dal Prompt Lab. Questa funzione è disponibile solo nella regione di Dallas.

Per saperne di più sul caricamento di modelli di fondazione personalizzati, vedere Deploy di modelli di fondazione personalizzati. Per informazioni sui piani e sui dettagli di fatturazione dei modelli di fondazione personalizzati, vedere i piani diwatsonx.ai Runtime.

Semplificate i documenti aziendali complessi con l'API di estrazione del testo del documento

3 settembre 2024

Applicate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione come parte di un flusso di lavoro di IA generativa. L'API per l'estrazione del testo dei documenti estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non sono in grado di interpretare correttamente. Il metodo di estrazione del testo dell'API REST di watsonx.ai è una funzione beta.

Per ulteriori informazioni, vedere Estrazione di testo dai documenti.

Sono disponibili modifiche e aggiornamenti foundation model Granite Code

3 settembre 2024

Il foundation model granite-20b-code-instruct è stato modificato alla versione 1.1.0. L'ultima modifica è stata addestrata su una miscela di dati di alta qualità provenienti da domini di codice e di linguaggio naturale per migliorare le capacità di ragionamento e di seguire le istruzioni del modello.

I seguenti modelli di fondazione sono stati aggiornati per aumentare la dimensione della lunghezza della finestra di contesto supportata (ingresso + uscita) per i prompt da 8192 a 128.000:

  • granite-3b-code-instruct
  • granite-8b-code-instruct

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina il 30 agosto 2024

I modelli llama-2-13b-chat e llama-2-70b-chat sono deprecati

26 agosto 2024

I modelli di fondazione llama-2-13b-chat e llama-2-70b-chat sono deprecati e saranno ritirati il 25 settembre 2024. Rivedete i suggerimenti che utilizzano questi modelli di base.

llama-2-13b-chat
  • Data di ammortamento: 26 agosto 2024
  • Data di ritiro: 25 settembre 2024
  • Modello alternativo: llama-3.1-8b-instruct
llama-2-70b-chat
  • Data di ammortamento: 26 agosto 2024
  • Data di ritiro: 25 settembre 2024
  • Modello alternativo: llama-3.1-70b-instruct

Le richieste di inferenza inviate ai modelli llama-2-13b-chat e llama-2-70b-chat tramite l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 25 settembre 2024, le richieste API per l'inferenza dei modelli non genereranno output.

Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione.

Settimana che termina il 23 agosto 2024

Aggiungere gruppi di utenti come collaboratori nei progetti e negli spazi

22 agosto 2024

È ora possibile aggiungere gruppi di utenti nei progetti e negli spazi se l'account IBM Cloud contiene gruppi di accesso IAM. L'amministratore dell'account IBM Cloud può creare gruppi di accesso, che sono poi disponibili come gruppi di utenti nei progetti. Per ulteriori informazioni, vedere Lavoro con i gruppi di accesso IAM.

Fine del supporto della funzione di previsione delle anomalie per gli esperimenti di serie temporali AutoAI

19 agosto 2024

La funzione di previsione delle anomalie (outlier) in AutoAI modelli di serie temporali, attualmente in beta, è deprecata e sarà rimossa il 23 settembre 2024. Gli esperimenti standard AutoAI di serie temporali sono ancora pienamente supportati. Per maggiori dettagli, vedere Costruzione di un esperimento di serie temporali.

Settimana che termina il 16 agosto 2024

I nuovi modelli di incorporazione Slate di IBM sono disponibili in tutte le regioni

15 agosto 2024

IBM I modelli di embedding di Slate offrono alle aziende la possibilità di generare embedding per vari input come query, passaggi o documenti. I nuovi modelli slate-125m-english-rtrvr-v2 e slate-30m-english-rtrvr-v2 mostrano miglioramenti significativi rispetto alle loro controparti v1. Se oggi utilizzate i modelli slate-125m-english-rtrvr e slate-30m-english-rtrvr, passate ai nuovi modelli v2 Slate per sfruttare i miglioramenti del modello.

Per ulteriori informazioni, vedere Modelli di fondazioni per encoder supportati.

Configurare i guardrail AI per l'input dell'utente e l'output foundation model separatamente in Prompt Lab

15 agosto 2024

Regolate la sensibilità dei guardrail dell'intelligenza artificiale che individuano e rimuovono i contenuti dannosi quando sperimentate i prompt foundation model nel Prompt Lab. È possibile impostare diversi livelli di sensibilità dei filtri per l'input dell'utente e per il testo di output del modello e salvare le impostazioni dei guardrail AI efficaci nei modelli di prompt.

Per ulteriori informazioni, vedere Rimozione di contenuti dannosi.

Settimana che termina il 9 agosto 2024

Selezionate i dati di test dai progetti per le valutazioni dei modelli di prompt

8 agosto 2024

Quando si valutano i modelli di prompt nei progetti, è ora possibile scegliere le risorse del progetto per selezionare i dati di test per le valutazioni. Per ulteriori informazioni, vedere Valutazione dei modelli di prompt nei progetti.

Il nuovo modello llama-3-1-70b-instruct è ora disponibile su IBM watsonx.ai

7 agosto 2024

È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 70 miliardi di parametri su IBM watsonx.ai.

I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .

Q&A aggiornati con l'acceleratore RAG

6 agosto 2024

Il progetto campione Q&A con acceleratore RAG 1.2 include i seguenti miglioramenti:

  • Chiedete aiuto per la fase successiva dell'implementazione della retrieval-augmented generation (RAG): raccogliere il feedback degli utenti e analizzare la qualità delle risposte. Include analisi con rilevamento non supervisionato degli argomenti per mostrare gli argomenti più popolari, la soddisfazione degli utenti con le risposte generate per argomento e i punteggi di ricerca per argomento.

  • Nuovi modelli di prompt ottimizzati per i modelli di fondazione IBM granite-7b-lab e Meta Llama 3.1.

  • Codice semplificato che utilizza le utilità RAG della libreria watsonx.ai Python e filtri di ricerca vettoriale mirati per la ricerca per prodotto, area e altro.

Vedere Q&A con l'acceleratore RAG.

Nota: Se non si riesce a creare il progetto campione, provare a sostituire il testo del campo descrizione.

Settimana conclusiva del 2 agosto 2024

Il nuovo modello llama-3-1-8b-instruct è ora disponibile su IBM watsonx.ai

1° agosto 2024

È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 8 miliardi di parametri su IBM watsonx.ai.

I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .

Associare gli spazi di lavoro ai casi d'uso dell'intelligenza artificiale

1° agosto 2024

Il flusso per la creazione di un caso d'uso dell'IA è stato modificato per allinearsi maggiormente al ciclo di vita dell'IA. Dopo aver definito gli elementi essenziali di un caso d'uso dell'IA, associate gli spazi di lavoro per organizzare le risorse in modo che si allineino alle fasi di una soluzione di IA. Ad esempio, si può associare un progetto o uno spazio per gli asset della fase di Sviluppo o di Convalida e uno spazio per gli asset della fase di Funzionamento.

Per maggiori dettagli, vedere Associazione di spazi di lavoro con un caso d'uso dell'intelligenza artificiale.

Settimana terminata il 26 luglio 2024

Annuncio del supporto per Python 3.11 E R4.3 framework e specifiche software in fase di runtime 24.1

25 luglio 2024

È ora possibile utilizzare IBM Runtime 24.1, che include i più recenti framework di data science basati su Python 3.11 e R 4.3, per eseguire notebook Jupyter e script R e addestrare modelli. A partire dal 29 luglio, è possibile eseguire anche le distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 24.1.

Versione migliorata di Jupyter Notebook l'editor è ora disponibile

25 luglio 2024

Se utilizzi il tuo notebook in ambienti basati su Runtime 24.1, puoi utilizzare questi miglioramenti per lavorare con il tuo codice:

  • Esegui il debug automatico del tuo codice
  • Genera automaticamente un sommario per il tuo taccuino
  • Attiva/disattiva i numeri di riga accanto al codice
  • Comprimi il contenuto delle celle e utilizza la visualizzazione affiancata per codice e output, per una maggiore produttività

Per ulteriori informazioni, vedere Editor del taccuino Jupyter.

Modelli di incorporamento del trasformatore del processore del linguaggio naturale supportati con Runtime 24.1

25 luglio 2024

Nella nuova runtime 24.1 ambiente, ora puoi utilizzare modelli di incorporamento del trasformatore di elaborazione del linguaggio naturale (NLP) per creare incorporamenti di testo che catturano il significato di una frase o di un passaggio per facilitare le attività di generazione aumentata di recupero. Per ulteriori informazioni, vedere Incorporamenti.

Nuovi modelli NLP specializzati sono disponibili in Runtime 24.1

25 luglio 2024

I seguenti nuovi modelli PNL specializzati sono ora inclusi nel Runtime 24.1 ambiente:

Estrai approfondimenti dettagliati da grandi raccolte di testi utilizzando il riepilogo dei punti chiave

25 luglio 2024

Ora è possibile utilizzare la Riassunzione dei punti chiave nei blocchi note per estrarre informazioni dettagliate e attuabili da grandi raccolte di testi che rappresentano le opinioni delle persone (come le recensioni dei prodotti, le risposte ai sondaggi o i commenti sui social media). Il risultato viene fornito in modo organizzato e gerarchico, facile da elaborare. Per ulteriori informazioni, vedere Riepilogo dei punti chiave

Aggiornamento della versione di RStudio

25 luglio 2024

Per fornire un'esperienza utente coerente tra cloud privati e pubblici, l'IDE RStudio per IBM watsonx sarà aggiornato a RStudio Server 2024.04.1 e R 4.3.1 il 29 luglio 2024. La nuova versione di RStudio offre una serie di miglioramenti e correzioni di sicurezza. Per ulteriori informazioni, consultare le note di rilascio di RStudio Server 2024.04.1. Sebbene non siano previsti grossi problemi di compatibilità, gli utenti dovrebbero essere consapevoli delle modifiche alla versione per alcuni pacchetti descritti nella tabella seguente.

Quando si avvia l'IDE RStudio da un progetto dopo l'aggiornamento, ripristinare l'area di lavoro di RStudio per assicurarsi che il percorso delle librerie per i pacchetti R 4.3.1 venga rilevato dal server RStudio.

Una nuova versione del modello " Mistral Large è ora disponibile su " IBM " watsonx.ai nelle regioni di Dallas, Francoforte e Londra

24 luglio 2024

Ora è possibile utilizzare il 'Mistral Large 2 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Dallas, Francoforte e Londra.

Il modello Mistral Large 2 supporta 11 lingue ed è in grado di comprendere il testo, generare codice e fare ragionamenti avanzati. Per i dettagli, vedere Modelli di fondazione supportati .

Nuovo llama-3-405b-instruct il modello è disponibile nella regione di Dallas

23 luglio 2024

È ora possibile utilizzare il foundation model llama-3-405b-instruct di Meta su IBM watsonx.ai nel data center di Dallas.

Il modello llama-3-405B-instruct (v3.1) fornisce alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello ed è il più grande modello open-sourced mai rilasciato finora. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .

IL merlinite-7b il modello è deprecato

22 luglio 2024

Il foundation model merlinite-7b è deprecato e sarà ritirato il 22 agosto 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di ritiro: 22 luglio 2024
  • Data di ritiro: 22 agosto 2024
  • Modello alternativo: mixtral-8x7b-instruct-v01

Le richieste di inferenza inviate al merlinite-7b modello utilizzando l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 22 agosto 2024, le richieste API per l'inferenza del modello non genereranno output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Settimana terminata il 12 luglio 2024

Il nuovo modello Mistral Large è disponibile nelle regioni di Francoforte e Dallas

9 luglio 2024

È ora possibile utilizzare il 'Mistral Large 'foundation model di Mistral AI sul 'IBM 'watsonx.ai nei data center di Francoforte e Dallas.

Mistral Large offre alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. Questo foundation model può essere utilizzato per compiti complessi di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .

Settimana terminata il 5 luglio 2024

Connettori raggruppati per tipo di origine dati

05 luglio 2024

Quando crei una connessione, i connettori vengono ora raggruppati per tipo di origine dati in modo che siano più facili da trovare e selezionare. Ad esempio, il tipo di origine dati MongoDB include i connettori IBM Cloud Databases for MongoDB e MongoDB.

Inoltre, un nuovo Recenti La categoria mostra gli ultimi sei connettori utilizzati per creare una connessione.

Per istruzioni, vedere Aggiunta di connessioni alle origini dati in un progetto .

Aggiungete informazioni contestuali ai prompt foundation model in Prompt Lab

4 luglio 2024

Aiutate un foundation model a generare risposte concrete e aggiornate nei casi d'uso di generazione aumentata dal reperimento (RAG) aggiungendo informazioni contestuali pertinenti al vostro prompt come dati di base. Puoi caricare rapidamente documenti rilevanti o connetterti a un negozio di vettori di terze parti con dati rilevanti. Quando viene inviata una nuova domanda, la domanda viene utilizzata per interrogare i dati di base per fatti rilevanti. I primi risultati della ricerca e la domanda originale vengono inviati come input del modello per aiutare il foundation model a incorporare i fatti rilevanti nel suo output.

Per ulteriori informazioni, vedere 'Fondare i prompt di 'foundation model su informazioni contestuali.

Cambia inCloud Object Storage Piani leggeri

1 luglio 2024

A partire dal 1 luglio 2024, ilCloud Object Storage Piano Lite che viene fornito automaticamente quando ti iscrivi per una prova di 30 giorniwatsonx.ai Ewatsonx.governance scade al termine del periodo di prova. Puoi aggiornare il tuoCloud Object Storage Lite al piano Standard con l'opzione Livello gratuito in qualsiasi momento durante i 30 giorni di prova.

EsistenteCloud Object Storage le istanze del servizio con piani Lite di cui hai effettuato il provisioning prima del 1° luglio 2024 verranno conservate fino al 15 dicembre 2024. Devi aggiornare il tuoCloud Object Storage servizio a un piano Standard prima del 15 dicembre 2024.

VedereCloud Object Storage piani di servizio .

Settimana che termina il 21 giugno 2024

Crea distribuzioni scollegate per gestire i prompt per LLM (large language models) esterni

21 giugno 2024

Un modello di prompt separato è una nuova risorsa per valutare un modello di prompt per un LLM ospitato da un provider di terze parti, ad esempioGoogle IA del vertice,AzureOpenAI, OAWS Roccia di fondo. L'inferenza che genera l'output per il modello di prompt viene eseguita sul modello remoto, ma è possibile valutare l'output del modello di prompt utilizzando metriche watsonx.governance . È inoltre possibile tenere traccia della distribuzione scollegata e del modello di prompt scollegato in un caso di utilizzo AI come parte della soluzione di governance.

Per ulteriori informazioni, vedere:

Le credenziali dell'attività saranno richieste per le richieste di lavoro di distribuzione

19 giugno 2024

Per migliorare la sicurezza per l'esecuzione dei lavori di distribuzione, l'utente che richiede il lavoro dovrà fornire le credenziali dell'attività sotto forma di una chiave API. Il requisito sarà applicato a partire dal 15 agosto 2024. Consulta Aggiunta delle credenziali dell'attività per i dettagli sulla generazione della chiave API.

Schermata che mostra come creare le credenziali dell'attività da Profilo e impostazioni

Valutare i casi di utilizzo per l'applicabilità dell'EU AI Act

19 giugno 2024

Utilizzando la nuova valutazione dell'applicabilità dell'EU AI Act, è possibile completare un semplice questionario per valutare i casi di uso dell'IA e determinare se rientrano nell'ambito dell'EU AI Act. La valutazione può anche aiutarti a identificare la categoria di rischio che i tuoi casi d'uso allineano a: proibito, alto, limitato o minimo. Per ulteriori informazioni, vedere Valutazione dell'applicabilità in Componenti della soluzione nella console di governance.

Settimana che termina il 7 giugno 2024

Gestisci le attività di rischio e conformità con la console di Governance ( IBM OpenPages)

7 giugno 2024

Watsonx.governance ora supporta l'integrazione opzionale con la console di governance. Se hai installato il modulo Model Risk Governance di IBM OpenPages, puoi configurare i casi d'uso dell'intelligenza artificiale per sincronizzare i fatti di governance con la console di governance. Dalla console di governance è possibile creare casi d'uso, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:

Settimana che termina il 31 maggio 2024

IBM Watson Pipelines è ora IBM Orchestration Pipelines

30 maggio 2024

Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.

Taggare i progetti per un facile recupero

31 maggio 2024

È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.

Connettersi a una nuova fonte di dati: Milvus

31 maggio 2024

Utilizzare la connessione Milvus per memorizzare e confermare l'esattezza delle credenziali e dei dettagli di connessione per accedere a un negozio di vettori Milvus. Per informazioni, consultare la sezione Connessione Milvus.

Settimana che termina il 24 maggio 2024

Nuovo tutorial e video

23 maggio 2024

Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.

Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare una distribuzione negli spazi Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione. Configurare i monitor e valutare un modello in uno spazio di distribuzione.

Il foundation model allam-1-13b-instruct è disponibile nella regione di Francoforte

21 maggio 2024

Il foundation model arabo allam-1-13b-instruct della Saudi Authority for Data and Artificial Intelligence e fornito da IBM è disponibile presso watsonx.ai nel data center di Francoforte. È possibile utilizzare il foundation model allam-1-13b-instruct per compiti generici, tra cui domande e risposte, riassunti, classificazioni, generazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.

Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python

21 maggio 2024

La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.

Settimana che termina il 17 maggio 2024

I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai

16 maggio 2024

I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:

  • all-minilm-l12-v2
  • multilingual-e5-large

Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Per ulteriori informazioni su questi modelli, vedere Modelli di fondazioni per encoder supportati.

Per ulteriori informazioni sulla conversione del testo, consultare Generazione di integrazione del testo.

Settimana che termina il 10 maggio 2024

I nuovi modelli di fondazione Granite Code sono disponibili nella regione di Dallas

9 maggio 2024

Da oggi è possibile fare l'inferenza dei seguenti modelli di Granite Code Foundation forniti da IBM da watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilizzate i nuovi modelli della fondazione Granite Code per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.

Per ulteriori informazioni, vedi Supported foundation models.

I modelli di fondazione InstructLab sono disponibili in watsonx.ai

7 maggio 2024

InstructLab è un'iniziativa open source di Red Hat e IBM che fornisce una piattaforma per aumentare le capacità di un foundation model. I seguenti modelli di base supportano le conoscenze e le competenze fornite da InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

È possibile esplorare i contributi della comunità open source dalla pagina della tassonomia del foundation model.

Per ulteriori informazioni, vedereInstructLab-compatible modelli di fondazione .

Settimana che termina il 3 maggio 2024

Organizzare gli asset del progetto in cartelle

2 maggio 2024

È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).

La scheda Asset con cartelle

Settimana che termina il 26 aprile 2024

IBM watsonx.ai è disponibile nella regione di Londra

25 apr 2023

Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.

  • I modelli di fondazione pienamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o tramite l'API. Le eccezioni sono mt0-xxl-13b e il foundation model llama-2-70b-chat, che è stato sostituito dal modello foundation model llama-3-70b-instruct, ora disponibile.
  • Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
  • Sono supportati i due modelli di integrazione IBM e l'API di integrazione.

Per ulteriori informazioni, vedi Disponibilità regionale per i servizi e le funzioni.

Avviare una chat in Prompt Lab direttamente dalla home page

25 apr 2023

Ora è possibile avviare una conversazione con un foundation model dalla home page di IBM watsonx.ai Immettere una domanda da inviare a un foundation model in modalità chat o fare clic su Apri Prompt Lab per scegliere un foundation model e i parametri del modello prima di inviare l'input del modello.

Settimana che termina il 19 aprile 2024

Nuovi modelli di fondazione Meta Llama 3 sono ora disponibili

18 apr 2024

I seguenti modelli di fondazione Llama 3 forniti da Meta possono essere dedotti da watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.

Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.

Per ulteriori informazioni, vedi Supported foundation models.

Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati

18 apr 2024

È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Sono disponibili i seguenti modelli di integrazione IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Per ulteriori informazioni, consultare Generazione di incorporazione del testo.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

IBM watsonx.governance viene incluso quando ti registri per IBM watsonx.ai

18 apr 2024

Se ti registri per watsonx.ai nella regione Dallas, watsonx.governance viene ora incluso automaticamente. Vedi Registrazione per IBM watsonx as a Service.

Valutazione delle distribuzioni di machine learning negli spazi

18 apr 2024

Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.

Per ulteriori informazioni, vedi Valutazione delle distribuzioni negli spazi.

Nella regione di Tokyo è disponibile un foundation model in lingua coreana

18 apr 2024

Il foundation model llama2-13b-dpo-v7 fornito da Minds & Company e basato sul foundation model Llama 2 di Meta è disponibile nella regione di Tokyo.

Il foundation model llama2-13b-dpo-v7 è specializzato in compiti di conversazione in coreano e inglese. È inoltre possibile utilizzare il foundation model llama2-13b-dpo-v7 per compiti generici in lingua coreana.

Per ulteriori informazioni, vedi Supported foundation models.

Per l'inferenza è disponibile un foundation model mixtral-8x7b-instruct-v01

18 apr 2024

Il foundation model mixtral-8x7b-instruct-v01 di Mistral AI è disponibile per l'inferenza su watsonx.ai Il foundation model mixtral-8x7b-instruct-v01 è un modello generativo preaddestrato che utilizza una rete rada di esperti per generare testo in modo più efficiente.

Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.

Il foundation model mixtral-8x7b-instruct-v01-q è deprecato e sarà ritirato il 20 giugno 2024. Rivedete tutti i suggerimenti che utilizzano questo foundation model.

  • Data di obsolescenza: 19 aprile 2024
  • Data di recesso: 20 giugno 2024
  • Modello alternativo: mixtral-8x7b-instruct-v01

Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Viene introdotta una modifica al foundation model granite-20b-multilingual

18 apr 2024

L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.

Per ulteriori informazioni su questo foundation model, vedere Modelli di fondazione supportati.

Settimana che termina il 12 aprile 2024

Messa a punto del foundation model granite-13b-instruct-v2

11 apr 2024

Il Tuning Studio ora supporta la messa a punto del foundation model granite-13b-instruct-v2, oltre ai modelli di fondazione flan-t5-xl-3b e llama-2-13b-chat. Per ulteriori informazioni, vedere Messa a punto di un foundation model.

Le impostazioni di configurazione dell'esperimento per la messa a punto del foundation model granite-13b-instruct-v2 cambiano per applicare i migliori valori predefiniti a seconda dell'attività svolta. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.

Nella regione di Francoforte è disponibile un foundation model in lingua araba

11 apr 2024

Il foundation model jais-13b-chat fornito da Inception, Mohamed bin Zayed University of Artificial Intelligence e Cerebras Systems è disponibile nella regione di Francoforte.

Il foundation model jais-13b-chat è specializzato in compiti di conversazione in arabo e inglese. È inoltre possibile utilizzare il " jais-13b-chat e il " foundation model per attività generiche in lingua araba, compresa la traduzione tra arabo e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Visualizzare il testo completo di un prompt in Prompt Lab

11 apr 2024

Ora è possibile rivedere il testo completo del prompt che verrà inviato al foundation model, utile quando il prompt include variabili di prompt o quando si lavora in modalità strutturata o in modalità chat.

Per ulteriori informazioni, vedere Prompt Lab.

I modelli Granite versione 1 obsoleti vengono ritirati

11 apr 2024

I seguenti modelli di fondazione vengono ora ritirati:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base IBM Granite v2 . Per ulteriori informazioni sulla deprecazione e sul ritiro dei foundation model, vedere Ciclo di vita dei modelli di fondazione.

Settimana che termina il 5 aprile 2024

Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization

5 aprile 2024

È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.

Settimana che termina il 15 marzo 2024

L'API watsonx.ai è disponibile

14 marzo 2024

L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, consultare il riferimento API.

La versione API è 2024-03-14.

È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.

Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo

14 marzo 2024

I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:

  • granite-20b-multilingual: un foundation model della famiglia IBM Granite che può essere utilizzato per vari compiti generativi in inglese, tedesco, spagnolo, francese e portoghese.

  • codellama-34b-instruct-hf: Un modello di generazione di codice programmatico da Code Llama basato su Llama 2 da Meta. Puoi utilizzare codellama-34b-instruct-hf per creare prompt per la creazione di codici basati su input in linguaggio naturale e per il completamento e il debug del codice.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina l'8 marzo 2024

Tuning Studio è disponibile a Francoforte

7 marzo 2024

Tuning Studio è ora disponibile per gli utenti dei piani a pagamento nella regione di Francoforte. Tuning Studio aiuta a guidare un foundation model per ottenere risultati utili. È possibile accordare sia i modelli di fondazione flan-t5-xl-3b che llama-2-70b-chat quando si utilizza il Tuning Studio di Francoforte.

Per ulteriori informazioni, vedere Tuning Studio.

Messa a punto del foundation model llama-2-13b-chat nella regione di Tokyo

7 marzo 2024

Il Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat nella regione di Tokyo. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot.

Per ulteriori informazioni, vedere Tuning Studio.

Prezzo più basso per modello Mixtral8x7b

5 marzo 2024

Il " foundation model " mixtral-8x7b-instruct-v01-q viene riclassificato dall'unità di classe 2: " $0.0018/Resource all'unità di classe 1: " $0.0006/Resource, rendendo più conveniente l'esecuzione di compiti di inferenza su questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q.

Per ulteriori informazioni, vedi Supported foundation models.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

L'atlante del rischio AI è aggiornato e migliorato

5 marzo 2024

Ora è possibile trovare i seguenti contenuti nuovi e migliorati nell'atlante del rischio AI:

  • Una nuova categoria di rischi non tecnici che comprende la governance, la conformità legale e i rischi di impatto sociale
  • Nuovi esempi di rischi
  • Definizioni più chiare dei rischi

Vedere AI risk atlas.

Nuovi casi di utilizzo per watsonx

5 marzo 2024

I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:

  • Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
  • Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.

Vedi Casi di usowatsonx.

Settimana che termina il 1 marzo 2024

La modalità chat è disponibile in Prompt Lab

29 febbraio 2024

La modalità Chat di Prompt Lab è una semplice interfaccia di chat che facilita la sperimentazione dei modelli di fondazione. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.

Per ulteriori informazioni, vedere Prompt Lab.

Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo

29 febbraio 2024

Il foundation model granite-8b-japanese fornito da IBM è disponibile presso watsonx.ai nella regione di Tokyo. Il foundation model granite-8b-japanese è basato sul modello IBM Granite Instruct ed è addestrato a comprendere e generare testo giapponese.

Il foundation model granite-8b-japanese può essere utilizzato per compiti generici in lingua giapponese, come la classificazione, l'estrazione, la risposta a domande e la traduzione linguistica tra giapponese e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana conclusosi il 23 febbraio 2024

Prezzo più basso per i modelli Granite-13b

21 febbraio 2024

I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Per ulteriori informazioni su questi modelli, vedi Supported foundation models.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

Settimana che termina il 16 febbraio 2024

Nuovo collegamento per iniziare a lavorare su attività comuni

15 febbraio 2024

È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.

Nuovo foundation model mixtral-8x7b-instruct-v01-q per compiti di uso generale

15 febbraio 2024

Il foundation model mixtral-8x7b-instruct-v01-q fornito da Mistral AI e quantizzato da IBM è disponibile su watsonx.ai. Il foundation model mixtral-8x7b-instruct-v01-q è una versione quantizzata del modello foundation model Mixtral 8x7B Instruct di Mistral AI.

È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.

I seguenti modelli sono obsoleti e verranno ritirati a breve. Modificate tutti i prompt che utilizzano questi modelli di base per utilizzare un altro foundation model, ad esempio mixtral-8x7b-instruct-v01-q.

Modelli di fondazione obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
gpt-neox-20b 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 febbraio 2024 11 aprile 2024 mixtral-8x7b-instruct-v01-q

Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

È disponibile una modifica al foundation model granite-13b-chat-v2

15 febbraio 2024

L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Cos'è l'allineamento AI? post del blog di IBM Research.

Nuovo video e esercitazione watsonx

15 febbraio 2024

Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.

Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare un modello di machine learning Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare.

Settimana che termina il 09 febbraio 2024

Altra documentazione Decision Optimization orientata alle attività

9 febbraio 2024

Ora è possibile trovare più facilmente le informazioni corrette per la creazione e la configurazione degli esperimenti di Decision Optimization . Vedere EsperimentiDecision Optimization e relative sottosezioni.

La connessione IBM Cloud Data Engine è obsoleta

8 febbraio 2022

La connessione IBM Cloud Data Engine è deprecata e sarà interrotta in una release futura. Per date e dettagli importanti, consultare la sezione Deprecation of Data Engine.

Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery

9 febbraio 2024

Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.

Ambienti Data Refinery Spark

L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.

Aggiornare i lavori del flusso Data Refinery per utilizzare il nuovo ambiente Default Spark 3.4 & R 4.2 . Per i dettagli, consultare Opzioni di risorse di calcolo per Data Refinery nei progetti.

Settimana che termina il 2 febbraio 2024

Raccolta di esempi ridenominata in hub di risorse

2 febbraio 2024

La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.

IBM Cloud Databases for DataStax è stata interrotta

2 febbraio 2024

La connessione IBM Cloud Databases for DataStax è stata rimossa da IBM watsonx.ai.

La connessione Dremio richiede aggiornamenti

2 febbraio 2024

In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.

Importante: aggiornare le proprietà di connessione. Diverse modifiche si applicano a una connessione per un'istanza Dremio Software (in loco) o un'istanza Dremio Cloud.

Dremio Software: aggiornare il numero di porta.

Il numero di porta predefinito utilizzato da Flight è 32010. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedere Configurazione tramite dremio.conf

Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.

Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.

  1. Accedere a Dremio e generare un token di accesso personale. Per le istruzioni, vedere Token di accesso personale.
  2. In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
  3. Selezionare La porta è abilitata SSL.

Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:

  • Modificare sql.dremio.cloud in data.dremio.cloud
  • Modificare sql.eu.dremio.cloud in data.eu.dremio.cloud

Mettere a punto il foundation model llama-2-13b-chat

1 febbraio 2024

Tuning Studio supporta ora la sintonizzazione del foundation model llama-2-13b-chat. Per prima cosa, nel Prompt Lab è possibile studiare i prompt per il modello più grande llama-2-70b-chat, in modo da trovare input efficaci per il proprio caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot. Il llama-2-13b-model è disponibile per una pronta messa a punto nella regione di Dallas. Per ulteriori informazioni, vedere Tuning Studio.

Settimana che termina il 26 gennaio 2024

AutoAI supporta i dati ordinati per tutti gli esperimenti

25 gennaio 2024

Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.

Q & A con acceleratore RAG

26 gennaio 2024

È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.

Provare Q & A con l'acceleratore RAG.

Imposta su tema scuro

25 gennaio 2024

Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato in RStudio e nei notebook Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.

IBM watsonx.ai è disponibile nella regione di Tokyo

25 gennaio 2024

Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza foundation model sono supportati nella regione di Tokyo per questi modelli:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Disponibile anche nella regione di Tokyo:

  • Messa a punto del foundation model flan-t5-xl-3b con Tuning Studio
  • Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento

Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.

Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo

25 gennaio 2024

Il foundation model elyza-japanese-llama-2-7b-instruct fornito da ELYZA, Inc è disponibile presso le istanze di watsonx.ai nel centro dati di Tokyo. Il modello elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di Meta addestrata a comprendere e generare testo giapponese.

È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.

Settimana conclusosi il 12 gennaio 2024

Supporto per IBM Runtime 22.2 deprecato in watsonx.ai Runtime (ex Watson Machine Learning)

11 gennaio 2024

IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 . Aggiornare gli asset e le distribuzioni per utilizzare IBM Runtime 23.1 prima del 7 marzo 2024.

IBM Granite v1 foundation models sono obsoleti

11 gennaio 2024

I modelli IBM Granite 13 miliardi - parameter v1 foundation sono obsoleti e verranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.

Modelli di base IBM obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
granite-13b-chat-v1 11 gennaio 2024 11 aprile 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 gennaio 2024 11 aprile 2024 granite-13b-instruct-v2

Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sui modelli di fondazione IBM Granite , vedi Modelli di fondazione creati da IBM. Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Settimana che termina il 15 dicembre 2023

Crea chiavi API utente per lavori e altre operazioni

15 dicembre 2023

Alcune operazioni di runtime in IBM watsonx, come lavori e formazione del modello, richiedono una chiave API come credenziale per un'autorizzazione sicura. Con le chiavi API dell'utente, puoi ora generare e ruotare la tua chiave API direttamente in IBM watsonx come necessario per garantire il corretto funzionamento delle tue operazioni. Le chiavi API sono gestite in IBM Cloud, ma puoi facilmente crearle e ruotarle in IBM watsonx.

La chiave API utente è specifica dell'account e viene creata da Profilo e impostazioni nel tuo profilo account.

Per ulteriori informazioni, vedi Gestione della chiave API utente.

Nuove esercitazioni e video watsonx

15 dicembre 2023

Provate i nuovi tutorial watsonx.governance e watsonx.ai per imparare a mettere a punto un foundation model e a valutare e monitorare un modello di prompt.

Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Mettere a punto un foundation model Mettere a punto un foundation model per migliorarne le prestazioni. Utilizzare Tuning Studio per ottimizzare un modello senza codifica.
Valutare e tracciare un modello di prompt Valutare un modello di prompt per misurare le prestazioni del foundation model e seguire il modello di prompt durante il suo ciclo di vita. Utilizzare lo strumento di valutazione e un caso di utilizzo AI per tenere traccia del modello di prompt.

Guarda un video Trovate altri video di watsonx.governance e watsonx.ai nella Videoteca.

Nuova scadenza e disconnessione della sessione di login a causa di inattività

15 dicembre 2023

Sei ora scollegato da IBM Cloud a causa della scadenza della sessione. La sessione può scadere a causa della scadenza della sessione di accesso (24 ore per impostazione predefinita) o dell'inattività (2 ore per impostazione predefinita). Puoi modificare le durate predefinite nelle impostazioni di accesso (IAM) in IBM Cloud. Per ulteriori informazioni, consultare Impostazione della scadenza della sessione di login.

Il connettore IBM Cloud Databases for DataStax è deprecato

15 dicembre 2023

Il connettore IBM Cloud Databases for DataStax è deprecato e sarà interrotto in una release futura.

Settimana che termina il 08 dicembre 2023

Tuning Studio è disponibile

7 dicembre 2023

Tuning Studio aiuta a guidare un foundation model per ottenere risultati utili. Con Tuning Studio, è possibile mettere a punto il foundation model flan-t5-xl-3b per migliorarne le prestazioni in compiti di elaborazione del linguaggio naturale come la classificazione, la sintesi e la generazione. L'ottimizzazione rapida consente ai modelli di base più piccoli e più efficienti dal punto di vista computazionale di raggiungere risultati paragonabili ai modelli più grandi della stessa famiglia di modelli. Ottimizzando e distribuendo una versione ottimizzata di un modello più piccolo, è possibile ridurre i costi di inferenza a lungo termine. Il Tuning Studio è disponibile per gli utenti dei piani a pagamento nella regione di Dallas.

Nuove proprietà client nelle connessioni Db2 per la gestione del workload

8 dicembre 2023

È ora possibile specificare le proprietà nei campi seguenti per scopi di controllo: Nome applicazione, Informazioni sull'account client, Nome host cliente Utente client. Questi campi sono facoltativi e sono disponibili per le seguenti connessioni:

Settimana che termina il 1 dicembre 2023

Watsonx.governance è disponibile!

1 dicembre 2023

Watsonx.governance estende le capacità di governance di Watson OpenScale per valutare gli asset foundation model e quelli di apprendimento automatico. Ad esempio, valutare i modelli di prompt " foundation model per dimensioni come l'accuratezza o per rilevare la presenza di discorsi odiosi e offensivi. È inoltre possibile definire i casi di utilizzo dell'IA per risolvere i problemi di business, quindi tenere traccia dei modelli di prompt o dei dati del modello nei factsheet per supportare gli obiettivi di conformità e governance. I piani e le funzionalità di Watsonx.governance sono disponibili solo nella regione di Dallas.

Esplora con l'atlante del rischio AI

1 dicembre 2023

Ora è possibile esplorare alcuni dei rischi di lavorare con l'intelligenza artificiale generativa, i modelli di base e i modelli di machine learning. Scopri i rischi per privacy, correttezza, esplicabilità, allineamento dei valori e altre aree. Vedere AI risk atlas.

Sono disponibili nuove versioni dei modelli IBM Granite

30 novembre 2023

Le versioni più recenti dei modelli Granite includono queste modifiche:

granite - 13b - chat - v2: ottimizzato per rispondere meglio alle domande - risposta, riepilogo e attività generative. Con un contesto sufficiente, genera risposte con i seguenti miglioramenti rispetto alla versione precedente:

  • Genera risposte più lunghe e di qualità superiore con un tono professionale
  • Supporta le risposte a catena di pensiero
  • Riconosce le citazioni delle persone e può rilevare meglio il tono e il sentimento
  • Gestisce gli spazi vuoti nell'input in modo più grazioso

A causa di modifiche estese, verifica e rivedi tutte le richieste che sono state progettate per v1 prima di passare alla versione più recente.

granite - 13b - instruct - v2: ottimizzato specificamente per attività di classificazione, estrazione e riepilogo. La versione più recente differisce dalla versione precedente nei seguenti modi:

  • Restituisce risposte più coerenti di varie lunghezze e con un vocabolario diverso
  • Riconosce le citazioni delle persone e può riepilogare gli input più lunghi
  • Gestisce gli spazi vuoti nell'input in modo più grazioso

I prompt ingegnerizzati che funzionano bene con v1 probabilmente funzioneranno bene anche con v2 , ma assicurati di eseguire il test prima di passare ai modelli.

Le ultime versioni dei modelli Granite vengono categorizzate come modelli di Classe 2.

Alcuni modelli di fondazione sono ora disponibili a costi inferiori

30 novembre 2023

Alcuni modelli di fondazione popolari sono stati ricategorizzati in classi di fatturazione a basso costo.

I seguenti modelli di fondazione sono stati modificati da Classe 3 a Classe 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Il seguente foundation model è passato dalla Classe 2 alla Classe 1:

  • llama-2-13b

Per ulteriori informazioni sulle classi di fatturazione, vedere i piani di runtimewatsonx.ai.

È disponibile un nuovo notebook di esempio: Introduzione a RAG con Discovery

30 novembre 2023

Utilizza il notebook Introduzione a RAG con rilevamento per informazioni su come applicare il pattern di generazione aumentato del richiamo in IBM watsonx.ai con IBM Watson Discovery come componente di ricerca. Per ulteriori informazioni, vedere Introduzione a RAG con Discovery.

Comprendere le differenze tra watsonx as a service e le distribuzioni software

30 novembre 2023

Puoi ora confrontare le funzioni e l'implementazione di IBM watsonx as a Service e watsonx su software Cloud Pak for Data , versione 4.8. Vedi Differenze funzione tra le distribuzioni watsonx.

Modifica alla modalità di gestione delle sequenze di arresto

30 novembre 2023

Quando nel Prompt Lab viene specificata una sequenza di stop, come ad esempio un carattere newline, il testo di output del modello termina dopo la prima occorrenza della sequenza di stop. L'output del modello si arresta anche se la ricorrenza si trova all'inizio dell'output. In precedenza, la sequenza di arresto veniva ignorata se era stata specificata all'inizio dell'output del modello.

Settimana che termina il 10 novembre 2023

È disponibile una versione più piccola del modello Llama-2 Chat

9 novembre 2023

Puoi ora scegliere se utilizzare le versioni 13b o 70b del modello Llama-2 Chat. Considera questi fattori quando fai la tua scelta:

  • Costo
  • Prestazioni

La versione 13b è un modello Classe 2, il che significa che è più economico da utilizzare rispetto alla versione 70b . Per confrontare i parametri di riferimento e altri fattori, come le emissioni di anidride carbonica per ogni dimensione del modello, consultare la scheda del modello.

Utilizzare le variabili di prompt per creare prompt riutilizzabili

Aggiungi flessibilità ai tuoi prompt con variabili di prompt. Le variabili di prompt funzionano come segnaposto nel testo statico dell'input di prompt che è possibile sostituire dinamicamente con il testo al momento dell'inferenza. È possibile salvare i nomi delle variabili di prompt e i valori predefiniti in un asset del modello di prompt per riutilizzare se stessi o condividere con i collaboratori nel progetto. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.

Annuncio del supporto per i framework Python 3.10 e R4.2 e le specifiche software sul runtime 23.1

9 novembre 2023

È ora possibile utilizzare IBM Runtime 23.1, che include i più recenti framework di data science basati su Python 3.10 e R 4.2, per eseguire notebook Jupyter e script R, addestrare modelli ed eseguire distribuzioni. Aggiornare le risorse e le distribuzioni per utilizzare i framework e le specifiche software di IBM Runtime 23.1.

Utilizzare Apache Spark 3.4 per eseguire notebook e script

Spark 3.4 con Python 3.10 e R 4.2 è ora supportato come runtime per i notebook e gli script RStudio nei progetti. Per i dettagli sugli ambienti notebook disponibili, vedere Opzioni di calcolo delle risorse per l'editor di notebook nei progetti e Opzioni di calcolo delle risorse per RStudio nei progetti.

Settimana che termina il 27 ottobre 2023

Utilizzare un connettore Satellite Connector per connettersi a un database in loco

26 ottobre 2023

Utilizzare il nuovo connettore Satellite per connettersi a un database non accessibile tramite Internet (ad esempio, dietro un firewall). Satellite Connector utilizza una comunicazione leggera basata su Dockerche crea comunicazioni sicure e controllabili dall'ambiente in loco a IBM Cloud. Per istruzioni, vedi Connessione ai dati dietro un firewall.

Secure Gateway è obsoleto

26 ottobre 2023

IBM Cloud ha annunciato l'obsolescenza di Secure Gateway. Per informazioni, consultare la panoramica e la cronologia.

Se attualmente si dispone di connessioni configurate con Secure Gateway, pianificare l'utilizzo di un metodo di comunicazione alternativo. In IBM watsonx, è possibile utilizzare il connettore Satellite come sostituto di Secure Gateway. Consultare Connessione ai dati dietro un firewall.

Settimana che termina il 20 ottobre 2023

Dimensioni massime token aumentate

16 ottobre 2023

I limiti precedentemente applicati al numero massimo di token consentiti nell'output dai modelli di fondazione vengono rimossi dai piani a pagamento. È possibile utilizzare valori massimi di token più grandi durante l'ingegnerizzazione dei prompt sia dal Prompt Lab che dalla libreria Python. Il numero esatto di token consentiti differisce per modello. Per ulteriori informazioni sui limiti di token per i piani a pagamento e Lite, vedi Supported foundation models.

Settimana che termina il 13 ottobre 2023

Nuovi notebook in Esempi

12 ottobre 2023

Sono disponibili due nuovi notebook che utilizzano un database vettoriale da Elasticsearch nella fase di recupero del pattern di generazione aumentato del richiamo. I notebook mostrano come individuare le corrispondenze in base alla somiglianza semantica tra i documenti indicizzati e il testo della query inoltrato da un utente.

Soluzioni intermedie in Decision Optimization

12 ottobre 2023

È ora possibile scegliere di vedere un campione di soluzioni intermedie mentre è in esecuzione un esperimento di Decision Optimization . Ciò può essere utile per il debug o per vedere come il risolutore sta procedendo. Per i grandi modelli che impiegano più tempo a risolvere, con soluzioni intermedie è ora possibile identificare rapidamente e facilmente eventuali problemi potenziali con la soluzione, senza dover attendere il completamento della soluzione. Visualizzazione grafica che mostra le statistiche di esecuzione con soluzioni intermedie. È possibile configurare il parametro Consegna soluzione intermedia nella configurazione di esecuzione e selezionare una frequenza per queste soluzioni. Per ulteriori informazioni, consultare Soluzioni intermedie e Parametri di configurazione di esecuzione.

Finestra di dialogo Nuovo modello salvato Decision Optimization

Quando si salva un modello per la distribuzione dall'interfaccia utente di Decision Optimization , è ora possibile esaminare lo schema di input e output e selezionare più facilmente le tabelle che si desidera includere. È inoltre possibile aggiungere, modificare o eliminare i parametri di configurazione di esecuzione, esaminare l'ambiente e i file di modelli utilizzati. Tutti questi elementi vengono visualizzati nella stessa finestra di dialogo Salva come modello per distribuzione . Per ulteriori informazioni, vedi Distribuzione di un modello Decision Optimization utilizzando l'interfaccia utente.

Settimana che termina il 6 ottobre 2023

Ulteriori modelli di fondazione a Francoforte

5 ottobre 2023

Tutti i modelli di base disponibili nel data center di Dallas sono ora disponibili anche nel data center di Francoforte. Il Prompt Lab watsonx.ai e l'inferenza dei foundation model sono ora supportati nella regione di Francoforte per questi modelli:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.

Per i dettagli sui prezzi, vedere i piani Runtime diwatsonx.ai.

Controllare il posizionamento di una nuova colonna nell'operazione Concatena (Data Refinery)

6 ottobre 2023

Ora sono disponibili due opzioni per specificare la posizione della nuova colonna che risulta dall'operazione Concatena : come la colonna più a destra nel dataset o accanto alla colonna originale.

Concatena posizione colonna operazione

In precedenza, la nuova colonna era posizionata all'inizio del dataset.

Importante:

Modificare l'operazione Concatena in uno dei flussi Data Refinery esistenti per specificare la nuova posizione della colonna. In caso contrario, il flusso potrebbe avere esito negativo.

Per informazioni sulle operazioni Data Refinery , vedere Operazioni GUI in Data Refinery.

Settimana che termina il 29 settembre 2023

Modelli di base IBM Granite per la generazione del linguaggio naturale

28 settembre 2023

I primi due modelli della famiglia Granite di modelli di fondazione IBM sono ora disponibili nella region Dallas:

  • granite - 13b - chat - v1: modello di utilizzo generale ottimizzato per i casi di utilizzo delle finestre di dialogo
  • granite - 13b - instruct - v1: modello di uso generale ottimizzato per la risposta alle domande

Entrambi i modelli sono modelli decoder 13B-parameter in grado di prevedere e generare in modo efficiente la lingua in inglese. Essi, come tutti i modelli della famiglia Granite , sono progettati per le aziende. I modelli Granite vengono preformati su più terabyte di dati provenienti sia da origini in lingua generale, come Internet pubblico, sia da origini dati specifiche di settore provenienti dai campi accademico, scientifico, legale e finanziario.

Provateli oggi stesso nel Prompt Lab o eseguite un notebook di esempio che utilizza il modello granite-13b-instruct-v1 per l'analisi del sentiment.

Leggete il post Building AI for business: I modelli della fondazione Granite di IBM per saperne di più.

Settimana che termina il 22 settembre 2023

Modelli Java Decision Optimization

20 settembre 2023

I modelli Java Decision Optimization possono ora essere distribuiti in watsonx.ai Runtime (ex Watson Machine Learning). Utilizzando l'API del nodo di lavoro Java, è possibile creare modelli di ottimizzazione con API Java OPL, CPLEX e CP Optimizer. Ora è possibile creare facilmente i modelli in locale, confezionarli e distribuirli sul runtime 'watsonx.ai, utilizzando il boilerplate fornito nel file pubblico 'Lavoratore Java 'GitHub. Per ulteriori informazioni, vedere Distribuzione di modelli Java per Decision Optimization.

Nuovi notebook nell'hub di risorse

21 settembre 2023

È possibile utilizzare i seguenti nuovi notebook in Resource hub:

Settimana che termina il 15 settembre 2023

Esercitazioni di avvio rapido di progettazione e dati sintetici

14 settembre 2023

Prova le nuove esercitazioni per imparare a:

  • Sollecitare i modelli di fondazione: Di solito esistono più modi per sollecitare un foundation model per ottenere un risultato di successo. Nel Prompt Lab è possibile sperimentare l'uso di diversi modelli di fondazione, esplorare esempi di prompt, nonché salvare e condividere i propri prompt migliori. Un modo per migliorare l'accuratezza dell'output generato è quello di fornire i fatti necessari come contesto nel testo di prompt utilizzando il modello di generazione incrementato dal richiamo.
  • Genera dati sintetici: puoi generare dati tabulari sintetici in watsonx.ai. Il vantaggio dei dati sintetici è che è possibile procurarsi i dati su richiesta, quindi personalizzare per adattarli al proprio caso d'uso e produrli in grandi quantità.
Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Prompt di un foundation model utilizzando Prompt Lab Sperimenta diversi modelli di base, esplora i prompt di esempio e salva e condividi i tuoi prompt migliori. Fare un prompt di un modello usando Prompt Lab senza codificare.
Promuovere un foundation model con il modello di generazione aumentata dal reperimento Promuovere un foundation model sfruttando le informazioni contenute in una base di conoscenza. Utilizzare il modello di creazione migliorato di richiamo in un notebook Jupyter che utilizza il codice Python .
Genera dati tabulari sintetici Generare dati tabulari sintetici utilizzando un editor di flusso grafico. Selezionare le operazioni per generare i dati.

Comunità Watsonx.ai

14 settembre 2023

È ora possibile entrare a far parte della Comunitàwatsonx.ai per architetti e costruttori di IA per imparare, condividere idee e connettersi con gli altri.

Settimana che termina l'8 settembre 2023

Generare dati tabulari sintetici con Synthetic Data Generator

7 settembre 2023

Ora disponibile nelle regioni di Dallas e Francoforte, Synthetic Data Generator è un nuovo strumento di editor grafico su watsonx.ai che puoi utilizzare per generare dati tabulari da utilizzare per i modelli di addestramento. Utilizzando i flussi visivi e un modello statistico, è possibile creare dati sintetici basati sui propri dati esistenti o su uno schema dati personalizzato. È possibile scegliere di mascherare i dati originali ed esportare i dati sintetici in un database o come file.

Per iniziare, vedi Dati sintetici.

Llama-2 Foundation Model per la generazione del linguaggio naturale e la chat

7 settembre 2023

Il modello di fondazione Llama-2 da Meta è ora disponibile nella regione di Dallas. Llama-2 Il modello di chat è un modello di linguaggio auto - regressivo che utilizza un'architettura di trasformatori ottimizzata. Il modello è preaddestrato con dati online disponibili al pubblico e quindi perfezionato utilizzando l'apprendimento di rinforzo dal feedback umano. Il modello è destinato all'uso commerciale e di ricerca in scenari di chat di tipo assistente in lingua inglese.

Estensione LangChain per la libreria Python dei modelli di base

7 settembre 2023

Puoi adesso utilizzare il framework LangChain con i modelli di base in watsonx.ai con la nuova estensione LangChain per la libreria Python dei modelli di base.

Questo quaderno di esempio mostra come utilizzare la nuova estensione: Taccuino di esempio

Esempio introduttivo per il modello di generazione aumentata di richiamo

7 settembre 2023

La generazione aumentata di recupero è una tecnica semplice e potente per sfruttare una knowledge base per ottenere un output di fatto accurato dai modelli di base.

Consultare: Introduzione al richiamo - generazione aumentata

Settimana che termina il 1 ° settembre 2023

Deprecazione dei commenti nei notebook

31 agosto 2023

A partire da oggi non è possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti sono stati rimossi.

Icona dei commenti nella barra delle azioni del notebook

StarCoder Foundation Model per la generazione e la conversione di codice

31 agosto 2023

Il modello StarCoder di Hugging Face è ora disponibile nella regione di Dallas. Utilizzate StarCoder per creare prompt per la generazione di codice o per trasformare il codice da un linguaggio di programmazione a un altro. Un esempio di prompt dimostra come utilizzare StarCoder per generare codice Python da un insieme di istruzioni. Un secondo esempio dimostra come utilizzare StarCoder per trasformare il codice scritto in C++ in codice Python.

IBM watsonx.ai è disponibile nella regione di Francoforte

31 agosto 2023

Watsonx.ai è ora generalmente disponibile nel data center di Francoforte e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza foundation model sono supportati nella regione di Francoforte per questi modelli:

Settimana che termina il 25 agosto 2023

Ulteriori miglioramenti della cache disponibili per Watson Pipelines

21 agosto 2023

Sono disponibili ulteriori opzioni per personalizzare le impostazioni del flusso della pipeline. Ora puoi esercitare un maggiore controllo su quando la cache viene utilizzata per le esecuzioni della pipeline. Per i dettagli, consultare Gestione delle impostazioni predefinite.

Settimana che termina il 18 agosto 2023

Aggiornamento del nome del piano per il servizio watsonx.ai Runtime (ex Watson Machine Learning)

18 agosto 2023

A partire da subito, i nomi dei piani vengono aggiornati per il servizio IBM watsonx.ai Runtime, come segue:

  • Il piano v2 Standard è ora il piano Essentials . Il piano è progettato per fornire alla tua azienda le risorse necessarie per iniziare a lavorare con i modelli di base e gli asset di machine learning.

  • Il piano Professional v2 è ora il piano Standard . Questo piano fornisce risorse progettate per supportare la maggior parte delle aziende attraverso la creazione di asset per un utilizzo produttivo.

Le modifiche ai nomi dei piani non modificano i termini di servizio. Vale a dire, se sei registrato per utilizzare il piano Standard v2 , ora sarà denominato Essentials, ma tutti i dettagli del piano rimarranno invariati. Allo stesso modo, se sei registrato per utilizzare il piano Professional v2 , non ci sono modifiche oltre alla modifica del nome del piano in Standard.

Per i dettagli su ciò che è incluso in ciascun piano, vedere i piani di runtimewatsonx.ai. Per informazioni sui prezzi, trovare il proprio piano alla pagina del pianowatsonx.ai Runtime nel catalogo IBM Cloud.

Settimana che termina il 11 agosto 2023

Deprecazione dei commenti nei notebook

7 agosto 2023

Il 31 agosto 2023, non sarà più possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti che sono stati aggiunti in questo modo verranno rimossi.

Icona dei commenti nella barra delle azioni del notebook

Settimana che termina il 4 agosto 2023

Limite di token aumentato per il piano Lite

4 agosto 2023

Se stai utilizzando il piano Lite per testare i modelli di base, il limite di token per l'input e l'output prompt è ora aumentato da 25.000 a 50.000 per account al mese. Ciò offre una maggiore flessibilità per l'esplorazione dei modelli di base e la sperimentazione dei prompt.

Modello di analisi del testo personalizzato (SPSS Modeler)

4 agosto 2023

Per SPSS Modeler, è ora possibile caricare un modello di analisi del testo personalizzato in un progetto. Ciò fornisce una maggiore flessibilità per acquisire ed estrarre i concetti chiave in un modo univoco per il proprio contesto.

Settimana che termina il 28 luglio 2023

Libreria Python dei modelli Foundation disponibile

27 luglio 2023

Puoi ora richiedere i modelli di base in watsonx.ai in modo programmatico utilizzando una libreria Python .

Consultare: Foundation models Python library

Settimana che termina il 14 luglio 2023

Controlla guardavia AI

14 luglio 2023

È ora possibile controllare se i guardrail dell'IA sono attivati o disattivati nel Prompt Lab I guardrail AI rimuovono il testo potenzialmente dannoso da entrambi i campi di input e output. Il testo dannoso può includere incitamento all'odio, abuso e volgarità. Per evitare la rimozione di testo potenzialmente dannoso, impostare l'opzione Guardrails AI su off. Vedi Hate speech, abuse e profanity.

Il Prompt Lab con i guardrail dell'AI impostati su

Microsoft Azure SQL Database supporta l'autenticazione Azure Active Directory (Azure AD)

14 luglio 2023

Ora è possibile selezionare Active Directory per la connessione Microsoft Azure SQL Database . L'autenticazione Active Directory è un'alternativa all'autenticazione SQL Server . Grazie a questo miglioramento, gli amministratori possono gestire centralmente le autorizzazioni utente per Azure. Per ulteriori informazioni, vedere Microsoft Azure SQL Database connection.

Settimana che termina il 7 luglio 2023

Benvenuti in IBM watsonx.ai!

7 luglio 2023

IBM watsonx.ai fornisce tutti gli strumenti necessari per utilizzare i modelli di base e di machine learning.

Per iniziare:

Prova generative AI search e rispondi in questa documentazione

7 luglio 2023

È possibile visualizzare l'AI generativa in azione provando la nuova opzione di ricerca e risposta AI generativa nella documentazione watsonx.ai . Le risposte vengono generate da un modello di lingua di grandi dimensioni in esecuzione in watsonx.ai e basato sul contenuto della documentazione. Questa funzione è disponibile solo quando stai visualizzando la documentazione mentre hai eseguito l'accesso a watsonx.ai.

Inserire una domanda nel campo di ricerca della documentazione e fare clic sull'icona Prova a cercare e rispondere con l'intelligenza artificiale generativa alt="". IL Ricerca e risposta con intelligenza artificiale generativa si apre il riquadro e risponde alla tua domanda.

Mostra il riquadro di ricerca e risposta AI generativo

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni