Novità
Torna indietro ogni settimana per scoprire nuove funzioni e aggiornamenti per IBM watsonx.ai e IBM watsonx.governance.
Settimana che termina il 13 settembre 2024
Creare lavori batch per i flussi di SPSS Modeler negli spazi di distribuzione
10 settembre 2024
È ora possibile creare lavori batch per i flussi SPSS Modeler negli spazi di distribuzione. I flussi offrono la flessibilità di decidere quali nodi del terminale eseguire ogni volta che si crea un lavoro batch da un flusso. Quando si pianificano lavori batch per i flussi, il lavoro batch utilizza le origini dati e i target di output specificati nel flusso. La mappatura di queste sorgenti e uscite di dati è automatica se le sorgenti e i target di dati sono anche nello spazio di distribuzione. Per ulteriori informazioni sulla creazione di lavori batch dai flussi, vedere Creazione di lavori di distribuzione per flussi SPSS Modeler.
Per ulteriori informazioni sui flussi e i modelli negli spazi di distribuzione, vedere Deploying SPSS Modeler di flussi e modelli.
Settimana che termina il 6 settembre 2024
Portate il vostro modello di fondazione all'inferenza da watsonx.ai nella regione di Dallas
3 settembre 2024
Oltre a lavorare con i modelli di fondazione curati da IBM, è ora possibile caricare e distribuire i propri modelli di fondazione. Dopo che i modelli sono stati distribuiti e registrati con watsonx.ai, creare i prompt che inferiscono i modelli personalizzati in modo programmatico o dal Prompt Lab. Questa funzione è disponibile solo nella regione di Dallas.
Per saperne di più sul caricamento di modelli di fondazione personalizzati, vedere Deploy di modelli di fondazione personalizzati. Per informazioni sui piani e sui dettagli di fatturazione dei modelli di fondazione personalizzati, vedere Watson Machine Learning.
Semplificate i documenti aziendali complessi con l'API di estrazione del testo del documento
3 settembre 2024
Sfruttate la tecnologia di comprensione dei documenti sviluppata da IBM per semplificare i vostri documenti aziendali complessi in modo che possano essere elaborati da modelli di fondazione nell'ambito di un flusso di lavoro di intelligenza artificiale generativa. L'API per l'estrazione del testo dei documenti estrae il testo da strutture di documenti come immagini, diagrammi e tabelle che spesso i modelli di fondazione non sono in grado di interpretare correttamente. Il metodo di estrazione del testo dell'API REST di watsonx.ai è una funzione beta.
Per ulteriori informazioni, vedere Estrazione di testo dai documenti.
Granite Sono disponibili modifiche e aggiornamenti del modello di fondazione del codice
3 settembre 2024
Il modello di fondazione granite-20b-code-instruct è stato modificato alla versione 1.1.0. L'ultima modifica è stata addestrata su una miscela di dati di alta qualità provenienti da domini di codice e di linguaggio naturale per migliorare le capacità di ragionamento e di seguire le istruzioni del modello.
I seguenti modelli di fondazione sono stati aggiornati per aumentare la dimensione della lunghezza della finestra di contesto supportata (ingresso + uscita) per i prompt da 8192 a 128.000:
- granite-3b-code-instruct
- granite-8b-code-instruct
Per ulteriori informazioni, vedi Supported foundation models.
Settimana che termina il 30 agosto 2024
I modelli llama-2-13b-chat e llama-2-70b-chat sono deprecati
26 agosto 2024
I modelli di fondazione llama-2-13b-chat e llama-2-70b-chat sono deprecati e saranno ritirati il 25 settembre 2024. Rivedete i suggerimenti che utilizzano questi modelli di base.
- llama-2-13b-chat
- Data di ammortamento: 26 agosto 2024
- Data di ritiro: 25 settembre 2024
- Modello alternativo: llama-3.1-8b-instruct
- llama-2-70b-chat
- Data di ammortamento: 26 agosto 2024
- Data di ritiro: 25 settembre 2024
- Modello alternativo: llama-3.1-70b-instruct
Le richieste di inferenza inviate ai modelli llama-2-13b-chat e llama-2-70b-chat tramite l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 25 settembre 2024, le richieste API per l'inferenza dei modelli non genereranno output.
Per i dettagli sulla deprecazione e sul ritiro, vedere Ciclo di vita del modello di fondazione.
Settimana che termina il 23 agosto 2024
Aggiungere gruppi di utenti come collaboratori nei progetti e negli spazi
22 agosto 2024
È ora possibile aggiungere gruppi di utenti nei progetti e negli spazi se l'account IBM Cloud contiene gruppi di accesso IAM. L'amministratore dell'account IBM Cloud può creare gruppi di accesso, che sono poi disponibili come gruppi di utenti nei progetti. Per ulteriori informazioni, vedere Lavoro con i gruppi di accesso IAM.
Fine del supporto della funzione di previsione delle anomalie per gli esperimenti di serie temporali AutoAI
19 agosto 2024
La funzione di previsione delle anomalie (outlier) in AutoAI modelli di serie temporali, attualmente in beta, è deprecata e sarà rimossa il 23 settembre 2024. Gli esperimenti standard AutoAI di serie temporali sono ancora pienamente supportati. Per maggiori dettagli, vedere Costruzione di un esperimento di serie temporali.
Settimana che termina il 16 agosto 2024
I nuovi modelli di incorporazione Slate di IBM sono disponibili in tutte le regioni
15 agosto 2024
IBM I modelli di embedding di Slate offrono alle aziende la possibilità di generare embedding per vari input come query, passaggi o documenti. I nuovi modelli slate-125m-english-rtrvr-v2 e slate-30m-english-rtrvr-v2 mostrano miglioramenti significativi rispetto alle loro controparti v1. Se oggi utilizzate i modelli slate-125m-english-rtrvr e slate-30m-english-rtrvr, passate ai nuovi modelli v2 Slate per sfruttare i miglioramenti del modello.
Per ulteriori informazioni, vedere Modelli di incorporamento supportati.
Configurare i guardrail AI per l'input dell'utente e l'output del modello di fondazione separatamente in Prompt Lab
15 agosto 2024
Regolate la sensibilità dei guardrail dell'intelligenza artificiale che individuano e rimuovono i contenuti dannosi quando sperimentate i prompt dei modelli di fondazione nel Prompt Lab. È possibile impostare diversi livelli di sensibilità dei filtri per l'input dell'utente e per il testo di output del modello e salvare le impostazioni dei guardrail AI efficaci nei modelli di prompt.
Per ulteriori informazioni, vedere Rimozione di contenuti dannosi.
Settimana che termina il 9 agosto 2024
Selezionate i dati di test dai progetti per le valutazioni dei modelli di prompt
8 agosto 2024
Quando si valutano i modelli di prompt nei progetti, è ora possibile scegliere le risorse del progetto per selezionare i dati di test per le valutazioni. Per ulteriori informazioni, vedere Valutazione dei modelli di prompt nei progetti.
Il nuovo modello llama-3-1-70b-instruct è ora disponibile su IBM watsonx.ai
7 agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 70 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Q&A aggiornati con l'acceleratore RAG
6 agosto 2024
Il progetto campione Q&A con acceleratore RAG 1.2 include i seguenti miglioramenti:
Chiedete aiuto per la fase successiva dell'implementazione della retrieval-augmented generation (RAG): raccogliere il feedback degli utenti e analizzare la qualità delle risposte. Include analisi con rilevamento non supervisionato degli argomenti per mostrare gli argomenti più popolari, la soddisfazione degli utenti con le risposte generate per argomento e i punteggi di ricerca per argomento.
Nuovi modelli di prompt ottimizzati per i modelli di fondazione IBM granite-7b-lab e Meta Llama 3.1.
Codice semplificato che utilizza le utilità RAG della libreria watsonx.ai Python e filtri di ricerca vettoriale mirati per la ricerca per prodotto, area e altro.
Vedere Q&A con l'acceleratore RAG.
Settimana conclusiva del 2 agosto 2024
Il nuovo modello llama-3-1-8b-instruct è ora disponibile su IBM watsonx.ai
1° agosto 2024
È ora possibile utilizzare gli ultimi modelli di fondazione Llama 3.1 di Meta nella dimensione di 8 miliardi di parametri su IBM watsonx.ai.
I modelli di fondazione della serie Llama 3.1 sono modelli linguistici di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. I modelli possono essere utilizzati per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Supportano inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese. Per i dettagli, vedere Modelli di fondazione supportati .
Associare gli spazi di lavoro ai casi d'uso dell'intelligenza artificiale
1° agosto 2024
Il flusso per la creazione di un caso d'uso dell'IA è stato modificato per allinearsi maggiormente al ciclo di vita dell'IA. Dopo aver definito gli elementi essenziali di un caso d'uso dell'IA, associate gli spazi di lavoro per organizzare le risorse in modo che si allineino alle fasi di una soluzione di IA. Ad esempio, si può associare un progetto o uno spazio per gli asset della fase di Sviluppo o di Convalida e uno spazio per gli asset della fase di Funzionamento.
Per maggiori dettagli, vedere Associazione di spazi di lavoro con un caso d'uso dell'intelligenza artificiale.
Settimana terminata il 26 luglio 2024
Annuncio del supporto per Python 3.11 E R4.3 framework e specifiche software in fase di runtime 24.1
25 luglio 2024
Ora puoi usare IBM Durata 24.1, che include i più recenti framework di data science basati su Python 3.11 e R 4.3, correre Watson Studio Notebook Jupyter, script R e modelli di training. Dal 29 luglio si può anche correre Watson Machine Learning implementazioni. Aggiorna le tue risorse e distribuzioni da utilizzare IBM Durata 24.1 framework e specifiche del software.
- Per informazioni su IBM Durata 24.1 rilascio e gli ambienti inclusi per Python 3.10 e R 4.2, Vedere Ambienti del notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Versione migliorata di Jupyter Notebook l'editor è ora disponibile
25 luglio 2024
Se utilizzi il tuo notebook in ambienti basati su Runtime 24.1, puoi utilizzare questi miglioramenti per lavorare con il tuo codice:
- Esegui il debug automatico del tuo codice
- Genera automaticamente un sommario per il tuo taccuino
- Attiva/disattiva i numeri di riga accanto al codice
- Comprimi il contenuto delle celle e utilizza la visualizzazione affiancata per codice e output, per una maggiore produttività
Per ulteriori informazioni, vedere Editor del taccuino Jupyter.
Modelli di incorporamento del trasformatore del processore del linguaggio naturale supportati con Runtime 24.1
25 luglio 2024
Nella nuova runtime 24.1 ambiente, ora puoi utilizzare modelli di incorporamento del trasformatore di elaborazione del linguaggio naturale (NLP) per creare incorporamenti di testo che catturano il significato di una frase o di un passaggio per facilitare le attività di generazione aumentata di recupero. Per ulteriori informazioni, vedere Incorporamenti.
Nuovi modelli NLP specializzati sono disponibili in Runtime 24.1
25 luglio 2024
I seguenti nuovi modelli PNL specializzati sono ora inclusi nel Runtime 24.1 ambiente:
- Un modello in grado di rilevare e identificare contenuti odiosi, offensivi o blasfemi (HAP) nei contenuti testuali. Per ulteriori informazioni, vedere Rilevamento HAP.
- Tre modelli pre-addestrati in grado di affrontare argomenti legati alla finanza, alla sicurezza informatica e alla biomedicina. Per ulteriori informazioni, vedere Classificare il testo con un modello di classificazione personalizzato.
Estrai approfondimenti dettagliati da grandi raccolte di testi utilizzando il riepilogo dei punti chiave
25 luglio 2024
Ora puoi utilizzare il riepilogo dei punti chiave in Watson Studio taccuini per estrarre approfondimenti dettagliati e utilizzabili da ampie raccolte di testi che rappresentano le opinioni delle persone (come recensioni di prodotti, risposte a sondaggi o commenti sui social media). Il risultato viene fornito in modo organizzato e gerarchico, facile da elaborare. Per ulteriori informazioni, vedere Riepilogo dei punti chiave
Aggiornamento di RStudio in Watson Studio
25 luglio 2024
Per fornire un'esperienza utente coerente tra cloud privati e pubblici, l'IDE RStudio per IBM Cloud Pak for Data as a Service sarà aggiornato a RStudio Server 2024.04.1 e R 4.3.1 il 29 luglio 2024. La nuova versione di RStudio fornisce una serie di miglioramenti e correzioni di sicurezza. Per ulteriori informazioni, consultare le note di rilascio di RStudio Server 2024.04.1. Sebbene non siano previsti grossi problemi di compatibilità, gli utenti dovrebbero essere consapevoli delle modifiche alla versione per alcuni pacchetti descritti nella tabella seguente.
Quando si avvia l'IDE RStudio da Watson Studio Web UI dopo l'aggiornamento, reimpostare l'area di lavoro RStudio per garantire che il percorso della libreria per R 4.3.1 i pacchetti vengono prelevati dal server RStudio.
Una nuova versione del modello Mistral Large è ora disponibile su IBM watsonx.ai nelle regioni di Dallas, Francoforte e Londra
24 luglio 2024
Ora puoi utilizzare il modello di fondazione Mistral Large 2 da Mistral AI in poi IBM watsonx.ai nei data center di Dallas, Francoforte e Londra.
Il modello Mistral Large 2 supporta 11 lingue ed è esperto nella comprensione del testo, nella generazione di codice e nel ragionamento avanzato. Per i dettagli, vedere Modelli di fondazione supportati .
Nuovo llama-3-405b-instruct il modello è disponibile nella regione di Dallas
23 luglio 2024
Ora puoi utilizzare il file llama-3-405b-instruct modello di fondazione da Meta in poi IBM watsonx.ai nel data center di Dallas.
Il modello llama-3-405B-instruct (v3.1) fornisce alle aziende un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello ed è il più grande modello open-sourced mai rilasciato finora. Questo modello di base può essere utilizzato per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
IL merlinite-7b il modello è deprecato
22 luglio 2024
IL merlinite-7b il modello di fondazione è deprecato e sarà ritirato il 22 agosto 2024. Rivedere eventuali prompt che utilizzano questo modello di base.
- Data di ritiro: 22 luglio 2024
- Data di ritiro: 22 agosto 2024
- Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inviate al merlinite-7b modello utilizzando l'API continuano a generare output, ma includono un messaggio di avviso sull'imminente ritiro del modello. A partire dal 22 agosto 2024, le richieste API per l'inferenza del modello non genereranno output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Settimana terminata il 12 luglio 2024
Il nuovo modello Mistral Large è disponibile nelle regioni di Francoforte e Dallas
9 luglio 2024
Ora puoi utilizzare il modello di fondazione Mistral Large da Mistral AI in poiIBMwatsonx.ai nei data center di Francoforte e Dallas.
Mistral Large fornisce alle imprese un modello linguistico di grandi dimensioni ad alte prestazioni con capacità di ragionamento di alto livello. Questo modello di base può essere utilizzato per complesse attività di ragionamento multilingue, tra cui la comprensione del testo, la trasformazione e la generazione di codice. Per i dettagli, vedere Modelli di fondazione supportati .
Settimana terminata il 5 luglio 2024
Connettori raggruppati per tipo di origine dati
05 luglio 2024
Quando crei una connessione, i connettori vengono ora raggruppati per tipo di origine dati in modo che siano più facili da trovare e selezionare. Ad esempio, il tipo di origine dati MongoDB include i connettori IBM Cloud Databases for MongoDB e MongoDB.
Inoltre, un nuovo Recenti La categoria mostra gli ultimi sei connettori utilizzati per creare una connessione.
Per istruzioni, vedere Aggiunta di connessioni alle origini dati in un progetto .
Aggiungere informazioni contestuali ai prompt del modello di fondazione in Prompt Lab
4 luglio 2024
Aiuta un modello di base a generare risposte concrete e aggiornate nei casi d'uso di retrieval-augmented generation (RAG) aggiungendo informazioni contestuali pertinenti al tuo prompt come dati di base. Puoi caricare rapidamente documenti rilevanti o connetterti a un negozio di vettori di terze parti con dati rilevanti. Quando viene inviata una nuova domanda, la domanda viene utilizzata per interrogare i dati di base per fatti rilevanti. I risultati principali della ricerca più la domanda originale vengono inviati come input del modello per aiutare il modello di fondazione a incorporare fatti rilevanti nel suo output.
Per ulteriori informazioni, vedere Il modello di fondazione di messa a terra richiede informazioni contestuali .
Cambia inCloud Object Storage Piani leggeri
1 luglio 2024
A partire dal 1 luglio 2024, ilCloud Object Storage Piano Lite che viene fornito automaticamente quando ti iscrivi per una prova di 30 giorniwatsonx.ai Ewatsonx.governance scade al termine del periodo di prova. Puoi aggiornare il tuoCloud Object Storage Lite al piano Standard con l'opzione Livello gratuito in qualsiasi momento durante i 30 giorni di prova.
EsistenteCloud Object Storage le istanze del servizio con piani Lite di cui hai effettuato il provisioning prima del 1° luglio 2024 verranno conservate fino al 15 dicembre 2024. Devi aggiornare il tuoCloud Object Storage servizio a un piano Standard prima del 15 dicembre 2024.
Settimana terminata il 28 giugno 2024
Governare i casi d'uso e i modelli con watsonx.governance as a Service su AWS
28 giugno 2024
È ora possibile utilizzare watsonx.governance come servizio su Amazon Web Services (AWS).
È inoltre possibile utilizzare le funzionalità della console di governance di watsonx.governance per i modelli Amazon SageMaker. Con questa integrazione, puoi portare le funzionalità avanzate di governance dell'intelligenza artificiale della soluzione Model Risk Governance sul tuo AmazonSageMaker apprendimento automatico predittivo e modelli di intelligenza artificiale generativa.
Per ulteriori informazioni, vederewatsonx.governance SUAWS .
Settimana che termina il 21 giugno 2024
Crea distribuzioni scollegate per gestire i prompt per LLM (large language models) esterni
21 giugno 2024
Un modello di prompt separato è una nuova risorsa per valutare un modello di prompt per un LLM ospitato da un provider di terze parti, ad esempioGoogle IA del vertice,AzureOpenAI, OAWS Roccia di fondo. L'inferenza che genera l'output per il modello di prompt viene eseguita sul modello remoto, ma è possibile valutare l'output del modello di prompt utilizzando metriche watsonx.governance . È inoltre possibile tenere traccia della distribuzione scollegata e del modello di prompt scollegato in un caso di utilizzo AI come parte della soluzione di governance.
Per ulteriori informazioni, vedere:
Le credenziali dell'attività saranno richieste per le richieste di lavoro di distribuzione
19 giugno 2024
Per migliorare la sicurezza per l'esecuzione dei lavori di distribuzione, l'utente che richiede il lavoro dovrà fornire le credenziali dell'attività sotto forma di una chiave API. Il requisito sarà applicato a partire dal 15 agosto 2024. Consulta Aggiunta delle credenziali dell'attività per i dettagli sulla generazione della chiave API.
Valutare i casi di utilizzo per l'applicabilità dell'EU AI Act
19 giugno 2024
Utilizzando la nuova valutazione dell'applicabilità dell'EU AI Act, è possibile completare un semplice questionario per valutare i casi di uso dell'IA e determinare se rientrano nell'ambito dell'EU AI Act. La valutazione può anche aiutarti a identificare la categoria di rischio che i tuoi casi d'uso allineano a: proibito, alto, limitato o minimo. Per ulteriori informazioni, vedere Valutazione dell'applicabilità in Componenti della soluzione nella console di governance.
Settimana che termina il 7 giugno 2024
Gestisci le attività di rischio e conformità con la console di Governance ( IBM OpenPages)
7 giugno 2024
Watsonx.governance ora supporta l'integrazione opzionale con la console di governance. Se hai installato il modulo Model Risk Governance di IBM OpenPages, puoi configurare i casi d'uso dell'intelligenza artificiale per sincronizzare i fatti di governance con la console di governance. Dalla console di governance è possibile creare casi d'uso, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:
Settimana che termina il 31 maggio 2024
IBM Watson Pipelines è ora IBM Orchestration Pipelines
30 maggio 2024
Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.
Taggare i progetti per un facile recupero
31 maggio 2024
È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.
Connetti a una nuova origine dati: Milvus
31 maggio 2024
Utilizzare la connessione Milvus per memorizzare e confermare l'accuratezza delle credenziali e dei dettagli di connessione per accedere a un archivio vettore Milvus. Per informazioni, vedi Connessione Milvus.
Settimana che termina il 24 maggio 2024
Nuovo tutorial e video
23 maggio 2024
Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Valutare una distribuzione negli spazi | Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione. | Configurare i monitor e valutare un modello in uno spazio di distribuzione. |
Il modello di fondazione allam-1-13b-instruct è disponibile nella regione di Francoforte
21 maggio 2024
Il modello di fondazione arabo allam-1-13b-instruct dell'autorità saudita per dati e intelligenza artificiale e fornito da IBM è disponibile da watsonx.ai nel data center di Francoforte. È possibile utilizzare il modello di base allam-1-13b-instruct per attività di uso generale, inclusi Q & A, riepilogo, classificazione, creazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.
Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python
21 maggio 2024
La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.
Settimana che termina il 17 maggio 2024
I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai
16 maggio 2024
I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:
- all-minilm-l12-v2
- multilingual-e5-large
Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
Per ulteriori informazioni su questi modelli, consultare Supported embedding models.
Per ulteriori informazioni sulla conversione del testo, consultare Generazione di integrazione del testo.
Settimana che termina il 10 maggio 2024
Nuovi modelli di fondazione del codice di Granite sono disponibili nella regione di Dallas
9 maggio 2024
Puoi ora dedurre i seguenti modelli di base del codice Granite forniti da IBM da watsonx.ai:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
Utilizza i nuovi modelli di base del codice Granite per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.
Per ulteriori informazioni, vedi Supported foundation models.
I modelli di fondazione InstructLab sono disponibili in watsonx.ai
7 maggio 2024
InstructLab è un'iniziativa open source di Red Hat e di IBM che fornisce una piattaforma per ampliare le funzionalità di un modello di base. I seguenti modelli di base supportano le conoscenze e le competenze da cui derivano i contributiInstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
È possibile esplorare i contributi della comunità open source dalla pagina di tassonomia del modello di base.
Per ulteriori informazioni, vedereInstructLab-compatible modelli di fondazione .
Settimana che termina il 3 maggio 2024
Organizzare gli asset del progetto in cartelle
2 maggio 2024
È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).
Settimana che termina il 26 aprile 2024
IBM watsonx.ai è disponibile nella regione di Londra
25 apr 2023
Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.
- I modelli di base completamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o utilizzando l'API. Le eccezioni sono mt0-xxl-13b e il modello di base llama-2-70b-chat , che è sostituito dal modello di base llama-3-70b-instruct ora disponibile.
- Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
- Sono supportati i due modelli di integrazione IBM e l'API di integrazione.
Per ulteriori informazioni, vedi Disponibilità regionale per i servizi e le funzioni.
Avviare una conversazione in Prompt Lab direttamente dalla home page
25 apr 2023
Ora puoi iniziare una conversazione con un modello di base dalla home page IBM watsonx.ai . Immettere una domanda da inviare a un modello di fondazione in modalità chat oppure fare clic su Apri Prompt Lab per selezionare un modello di fondazione e i parametri del modello prima di inoltrare l'input del modello.
Settimana che termina il 19 aprile 2024
Nuovi modelli di fondazione Meta Llama 3 sono ora disponibili
18 apr 2024
I seguenti modelli di fondazione Llama 3 forniti da Meta possono essere dedotti da watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.
Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.
Per ulteriori informazioni, vedi Supported foundation models.
Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati
18 apr 2024
È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.
Sono disponibili i seguenti modelli di integrazione IBM Slate:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
Per ulteriori informazioni, consultare Generazione di incorporazione del testo.
Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.
IBM watsonx.governance viene incluso quando ti registri per IBM watsonx.ai
18 apr 2024
Se ti registri per watsonx.ai nella regione Dallas, watsonx.governance viene ora incluso automaticamente. Vedi Registrazione per IBM watsonx as a Service.
Valutazione delle distribuzioni di machine learning negli spazi
18 apr 2024
Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.
Per ulteriori informazioni, vedi Valutazione delle distribuzioni negli spazi.
Un modello di fondazione in lingua coreana è disponibile nella regione di Tokyo
18 apr 2024
Il modello di base llama2-13b-dpo-v7 fornito da Minds & Company e basato sul modello di base Llama 2 di Meta è disponibile nella regione di Tokyo.
Il modello di fondazione llama2-13b-dpo-v7 è specializzato nelle attività di conversazione in coreano e inglese. Puoi anche utilizzare il modello di infrastruttura llama2-13b-dpo-v7 per attività di uso generale in lingua coreana.
Per ulteriori informazioni, vedi Supported foundation models.
È disponibile un modello di fondazione mixtral-8x7b-instruct-v01 per l'inferenza
18 apr 2024
Il modello di infrastruttura mixtral-8x7b-instruct-v01 di Mistral AI è disponibile per l'inferenza da watsonx.ai. Il modello di base mixtral-8x7b-instruct-v01 è un modello generativo preaddestrato che utilizza una rete di esperti sparse per generare testo in modo più efficace.
Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.
Il modello di base mixtral-8x7b-instruct-v01-q è obsoleto e verrà ritirato il 23 maggio 2024. Rivedere eventuali prompt che utilizzano questo modello di base.
- Data di obsolescenza: 19 aprile 2024
- Data di recesso: 20 giugno 2024
- Modello alternativo: mixtral-8x7b-instruct-v01
Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Viene introdotta una modifica al modello di fondazione granite-20b-multilingual
18 apr 2024
L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.
Per ulteriori informazioni su questo modello di base, vedi Supported foundation models.
Settimana che termina il 12 aprile 2024
Ottimizza il modello di fondazione granite-13b-instruct-v2
11 apr 2024
Tuning Studio ora supporta l'ottimizzazione del modello di base granite-13b-instruct-v2 in aggiunta ai modelli di base flan-t5-xl-3b e llama-2-13b-chat . Per ulteriori informazioni, vedi Ottimizzazione di un modello di base.
Le impostazioni di configurazione dell'esperimento per l'ottimizzazione della modifica del modello di fondazione granite-13b-instruct-v2 per applicare i migliori valori predefiniti a seconda della tua attività. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.
Un modello di fondazione in lingua araba è disponibile nella regione di Francoforte
11 apr 2024
Il modello di fondazione jais-13b-chat fornito da Inception, Mohamed bin Zayed University of Artificial Intelligence e Cerebras Systems è disponibile nella regione di Francoforte.
Il modello di fondazione jais-13b-chat è specializzato in attività di conversazione in arabo e inglese. Puoi anche utilizzare il modello di fondazione jais-13b-chat per attività di uso generale in lingua araba, inclusa la traduzione linguistica tra arabo e inglese.
Per ulteriori informazioni, vedi Supported foundation models.
Visualizzare il testo completo di un prompt in Prompt Lab
11 apr 2024
Ora è possibile rivedere il testo completo del prompt che verrà inoltrato al modello di base, che è utile quando il prompt include le variabili del prompt o quando si sta lavorando in modalità strutturata o in modalità chat.
Per ulteriori informazioni, consultare Prompt Lab.
I modelli Granite versione 1 obsoleti vengono ritirati
11 apr 2024
I seguenti modelli di fondazione vengono ora ritirati:
- granite-13b-chat-v1
- granite-13b-instruct-v1
Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base IBM Granite v2 . Per ulteriori informazioni sull'obsolescenza e il ritiro del modello della fondazione, consulta Ciclo di vita del modello della fondazione.
Settimana che termina il 5 aprile 2024
Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization
5 aprile 2024
È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.
Nuovo video e esercitazione watsonx.ai
04 apr 2024
Prova la nuova esercitazione per vedere come utilizzare watsonx.ai in un caso di uso end-to-end dalla preparazione dei dati alla progettazione rapida.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Prova il caso di utilizzo end-to-end watsonx.ai | Seguire un caso di utilizzo dalla preparazione dei dati alla progettazione rapida. | Utilizzare vari strumenti, come notebook e Prompt Lab. |
Settimana che termina il 15 marzo 2024
L'API watsonx.ai è disponibile
14 marzo 2024
L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, consultare il riferimento all'API.
La versione API è 2024-03-14
.
È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.
Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo
14 marzo 2024
I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:
granite-20b-multilingual: un modello di base della famiglia IBM Granite che puoi utilizzare per varie attività generative in inglese, tedesco, spagnolo, francese e portoghese.
codellama-34b-instruct-hf: Un modello di generazione di codice programmatico da Code Llama basato su Llama 2 da Meta. Puoi utilizzare codellama-34b-instruct-hf per creare prompt per la creazione di codici basati su input in linguaggio naturale e per il completamento e il debug del codice.
Per ulteriori informazioni, vedi Supported foundation models.
Settimana che termina l'8 marzo 2024
Tuning Studio è disponibile a Francoforte
7 marzo 2024
Tuning Studio è ora disponibile per gli utenti dei piani a pagamento nella regione di Francoforte. Tuning Studio consente di guidare un modello di base a restituire un output utile. Puoi ottimizzare entrambi i modelli di base flan-t5-xl-3b e llama-2-70b-chat quando utilizzi Tuning Studio a Francoforte.
Per ulteriori informazioni, vedere Tuning Studio.
Richiedi - ottimizza il modello di base llama-2-13b-chat nella regione di Tokyo
7 marzo 2024
Tuning Studio ora supporta l'ottimizzazione del modello di base llama-2-13b-chat nella region Tokyo. In primo luogo, l'ingegnere richiede il modello llama-2-70b-chat più grande nel Prompt Lab per trovare input di prompt efficaci per il tuo caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot.
Per ulteriori informazioni, vedere Tuning Studio.
Prezzo più basso per modello Mixtral8x7b
5 marzo 2024
Il modello base mixtral-8x7b-instruct-v01-q è riclassificato dalla classe 2: $0.0018/Resource Unità alla classe 1: $0.0006/Resource Unità, rendendo più conveniente l'esecuzione di attività di inferenza rispetto a questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q .
Per ulteriori informazioni, vedi Supported foundation models.
Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.
L'atlante del rischio AI è aggiornato e migliorato
5 marzo 2024
Ora è possibile trovare i seguenti contenuti nuovi e migliorati nell'atlante del rischio AI:
- Una nuova categoria di rischi non tecnici che comprende la governance, la conformità legale e i rischi di impatto sociale
- Nuovi esempi di rischi
- Definizioni più chiare dei rischi
Vedere AI risk atlas.
Nuovi casi di utilizzo per watsonx
5 marzo 2024
I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:
- Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
- Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.
Vedi Casi di usowatsonx.
Settimana che termina il 1 marzo 2024
La modalità chat è disponibile in Prompt Lab
29 febbraio 2024
La modalità chat in Prompt Lab è una semplice interfaccia di chat che rende più facile sperimentare con i modelli di base. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.
Per ulteriori informazioni, consultare Prompt Lab.
Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo
29 febbraio 2024
Il modello di fondazione granite-8b-japanese fornito da IBM è disponibile da watsonx.ai nella regione di Tokyo. Il modello di fondazione granite-8b-japanese si basa sul modello IBM Granite Instruct ed è preparato per comprendere e generare testo in giapponese.
Puoi utilizzare il modello di base granite-8b-japanese per attività di uso generale in lingua giapponese, come la classificazione, l'estrazione, la risposta alle domande e per la traduzione della lingua tra giapponese e inglese.
Per ulteriori informazioni, vedi Supported foundation models.
Settimana conclusosi il 23 febbraio 2024
Prezzo più basso per i modelli Granite-13b
21 febbraio 2024
I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
Per ulteriori informazioni su questi modelli, vedi Supported foundation models.
Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.
Settimana che termina il 16 febbraio 2024
Nuovo collegamento per iniziare a lavorare su attività comuni
15 febbraio 2024
È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.
Nuovo modello di base mixtral-8x7b-instruct-v01-q per attività di uso generico
15 febbraio 2024
Il modello di fondazione mixtral-8x7b-instruct-v01-q fornito da Mistral AI e quantificato da IBM è disponibile da watsonx.ai. Il modello di base mixtral-8x7b-instruct-v01-q è una versione quantizzata del modello di base Mixtral 8x7B Instruct di Mistral AI.
È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.
I seguenti modelli sono obsoleti e verranno ritirati a breve. Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare un altro modello di base, come mixtral-8x7b-instruct-v01-q.
Modello obsoleto | Data di deprecazione | Data di ritiro | Modello alternativo |
---|---|---|---|
gpt-neox-20b | 15 febbraio 2024 | 21 marzo 2024 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 15 febbraio 2024 | 21 marzo 2024 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 15 febbraio 2024 | 11 aprile 2024 | mixtral-8x7b-instruct-v01-q |
Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.
Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
È disponibile una modifica al modello di base granite-13b-chat-v2
15 febbraio 2024
L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Che cos'è l'allineamento AI? post del blog di IBM Research.
Nuovo video e esercitazione watsonx
15 febbraio 2024
Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Valutare un modello di machine learning | Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. | Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare. |
Settimana che termina il 09 febbraio 2024
Altra documentazione Decision Optimization orientata alle attività
9 febbraio 2024
Ora è possibile trovare più facilmente le informazioni corrette per la creazione e la configurazione degli esperimenti di Decision Optimization . Vedere EsperimentiDecision Optimization e relative sottosezioni.
La connessione IBM Cloud Data Engine è obsoleta
8 febbraio 2022
La connessione IBM Cloud Data Engine è deprecata e sarà interrotta in una release futura. Vedere Deprecation of Data Engine per date e dettagli importanti.
Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery
9 febbraio 2024
Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.
L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.
Aggiornare i lavori del flusso Data Refinery per utilizzare il nuovo ambiente Default Spark 3.4 & R 4.2 . Per i dettagli, consultare Opzioni di risorse di calcolo per Data Refinery nei progetti.
Settimana che termina il 2 febbraio 2024
Raccolta di esempi ridenominata in hub di risorse
2 febbraio 2024
La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.
IBM Cloud Databases for DataStax è stata interrotta
2 febbraio 2024
La connessione IBM Cloud Databases for DataStax è stata rimossa da IBM watsonx.ai.
La connessione Dremio richiede aggiornamenti
2 febbraio 2024
In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.
Dremio Software: aggiornare il numero di porta.
Il numero di porta predefinito utilizzato da Flight è 32010
. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedere Configurazione tramite dremio.conf.
Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.
Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.
- Accedere a Dremio e generare un token di accesso personale. Per le istruzioni si veda Gettoni di accesso personali.
- In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
- Selezionare La porta è abilitata SSL.
Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:
- Modificare
sql.dremio.cloud
indata.dremio.cloud
- Modificare
sql.eu.dremio.cloud
indata.eu.dremio.cloud
Modello di base llama-2-13b-chat
1 febbraio 2024
Tuning Studio ora supporta l'ottimizzazione del modello di base llama-2-13b-chat . In primo luogo, l'ingegnere richiede il modello llama-2-70b-chat più grande nel Prompt Lab per trovare input di prompt efficaci per il tuo caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot. Il llama-2-13b-model è disponibile per l'ottimizzazione della richiesta nella regione di Dallas. Per ulteriori informazioni, vedere Tuning Studio.
Settimana che termina il 26 gennaio 2024
AutoAI supporta i dati ordinati per tutti gli esperimenti
25 gennaio 2024
Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.
Q & A con acceleratore RAG
26 gennaio 2024
È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.
Provare Q & A con l'acceleratore RAG.
Imposta su tema scuro
25 gennaio 2024
Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato nei notebook RStudio e Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.
IBM watsonx.ai è disponibile nella regione di Tokyo
25 gennaio 2024
Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza del modello di fondazione sono supportati nella regione di Tokyo per questi modelli:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
Disponibile anche nella regione di Tokyo:
- Ottimizzazione del modello di base flan-t5-xl-3b con Tuning Studio
- Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento
Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.
Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo
25 gennaio 2024
Il modello di fondazione elyza-japanese-llama-2-7b-instruct fornito da ELYZA, Inc è disponibile dalle istanze watsonx.ai nel data center di Tokyo. Il modello elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di Meta che è stato preparato per comprendere e generare testo in giapponese.
È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.
Settimana conclusosi il 12 gennaio 2024
Supporto per IBM Runtime 22.2 obsoleto in Watson Machine Learning
11 gennaio 2024
IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 .
- Per ulteriori informazioni sulla migrazione di un asset a un framework supportato e a una specifica software, consultare Gestione di framework o specifiche software obsoleti.
- Per ulteriori informazioni sull'ambiente del notebook, consultare Opzioni di calcolo delle risorse per l'editor del notebook nei progetti.
- Per ulteriori informazioni sulla modifica dell'ambiente, consultare Modifica dell'ambiente di un notebook.
IBM Granite v1 foundation models sono obsoleti
11 gennaio 2024
I modelli IBM Granite 13 miliardi - parameter v1 foundation sono obsoleti e verranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.
Modello obsoleto | Data di deprecazione | Data di ritiro | Modello alternativo |
---|---|---|---|
granite-13b-chat-v1 | 11 gennaio 2024 | 11 aprile 2024 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 11 gennaio 2024 | 11 aprile 2024 | granite-13b-instruct-v2 |
Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.
Per ulteriori informazioni sui modelli di fondazione IBM Granite , vedi Modelli di fondazione creati da IBM. Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.
Settimana che termina il 15 dicembre 2023
Crea chiavi API utente per lavori e altre operazioni
15 dicembre 2023
Alcune operazioni di runtime in IBM watsonx, come lavori e formazione del modello, richiedono una chiave API come credenziale per un'autorizzazione sicura. Con le chiavi API dell'utente, puoi ora generare e ruotare la tua chiave API direttamente in IBM watsonx come necessario per garantire il corretto funzionamento delle tue operazioni. Le chiavi API sono gestite in IBM Cloud, ma puoi facilmente crearle e ruotarle in IBM watsonx.
La chiave API utente è specifica dell'account e viene creata da Profilo e impostazioni nel tuo profilo account.
Per ulteriori informazioni, vedi Gestione della chiave API utente.
Nuove esercitazioni e video watsonx
15 dicembre 2023
Prova le nuove esercitazioni watsonx.governance e watsonx.ai per imparare come ottimizzare un modello di base e valutare e tenere traccia di un modello di prompt.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Ottimizzazione di un modello di base | Ottimizzare un modello di base per migliorare le prestazioni del modello. | Utilizzare Tuning Studio per ottimizzare un modello senza codifica. |
Valutare e tracciare un modello di prompt | Valutare un modello di prompt per misurare le prestazioni del modello di base e tenere traccia del modello di prompt durante il suo ciclo di vita. | Utilizzare lo strumento di valutazione e un caso di utilizzo AI per tenere traccia del modello di prompt. |
Trovate altri video watsonx.governance e watsonx.ai nella videoteca.
Nuova scadenza e disconnessione della sessione di login a causa di inattività
15 dicembre 2023
Sei ora scollegato da IBM Cloud a causa della scadenza della sessione. La sessione può scadere a causa della scadenza della sessione di accesso (24 ore per impostazione predefinita) o dell'inattività (2 ore per impostazione predefinita). Puoi modificare le durate predefinite nelle impostazioni di accesso (IAM) in IBM Cloud. Per ulteriori informazioni, consultare Impostazione della scadenza della sessione di login.
Il connettore IBM Cloud Databases for DataStax è deprecato
15 dicembre 2023
Il connettore IBM Cloud Databases for DataStax è deprecato e sarà interrotto in una release futura.
Settimana che termina il 08 dicembre 2023
Tuning Studio è disponibile
7 dicembre 2023
Tuning Studio consente di guidare un modello di base a restituire un output utile. Con Tuning Studio, è possibile ottimizzare il modello di base flan-t5-xl-3b per migliorarne le prestazioni sulle attività di elaborazione del linguaggio naturale come la classificazione, il riepilogo e la creazione. L'ottimizzazione rapida consente ai modelli di base più piccoli e più efficienti dal punto di vista computazionale di raggiungere risultati paragonabili ai modelli più grandi della stessa famiglia di modelli. Ottimizzando e distribuendo una versione ottimizzata di un modello più piccolo, è possibile ridurre i costi di inferenza a lungo termine. Tuning Studio è disponibile per utenti di piani a pagamento nella regione di Dallas.
- Per ulteriori informazioni, vedere Tuning Studio.
- Per iniziare, vedi Quick start: Tune a foundation model.
- Per eseguire un notebook di esempio, vai a Tune a model to classify CFPB documents in watsonx.
Nuove proprietà client nelle connessioni Db2 per la gestione del workload
8 dicembre 2023
È ora possibile specificare le proprietà nei campi seguenti per scopi di controllo: Nome applicazione, Informazioni sull'account client, Nome host cliente Utente client. Questi campi sono facoltativi e sono disponibili per le seguenti connessioni:
Settimana che termina il 1 dicembre 2023
Watsonx.governance è disponibile!
1 dicembre 2023
Watsonx.governance estende la funzionalità di governance di Watson OpenScale per valutare gli asset del modello di base e gli asset di machine learning. Ad esempio, valutare i modelli di prompt del modello di base per le dimensioni come l'accuratezza o per rilevare la presenza di discorsi odiosi e abusivi. È inoltre possibile definire i casi di utilizzo dell'IA per risolvere i problemi di business, quindi tenere traccia dei modelli di prompt o dei dati del modello nei factsheet per supportare gli obiettivi di conformità e governance. I piani e le funzioni Watsonx.governance sono disponibili solo nella regione di Dallas.
- Per visualizzare i dettagli del piano, vedi i piani watsonx.governance .
- Per i dettagli sulle funzioni di governance, vedi Panoramica diwatsonx.governance.
- Per iniziare, vedi Provisioning e avvio di watsonx.governance.
Esplora con l'atlante del rischio AI
1 dicembre 2023
Ora è possibile esplorare alcuni dei rischi di lavorare con l'intelligenza artificiale generativa, i modelli di base e i modelli di machine learning. Scopri i rischi per privacy, correttezza, esplicabilità, allineamento dei valori e altre aree. Vedere AI risk atlas.
Sono disponibili nuove versioni dei modelli IBM Granite
30 novembre 2023
Le versioni più recenti dei modelli Granite includono queste modifiche:
granite - 13b - chat - v2: ottimizzato per rispondere meglio alle domande - risposta, riepilogo e attività generative. Con un contesto sufficiente, genera risposte con i seguenti miglioramenti rispetto alla versione precedente:
- Genera risposte più lunghe e di qualità superiore con un tono professionale
- Supporta le risposte a catena di pensiero
- Riconosce le citazioni delle persone e può rilevare meglio il tono e il sentimento
- Gestisce gli spazi vuoti nell'input in modo più grazioso
A causa di modifiche estese, verifica e rivedi tutte le richieste che sono state progettate per v1 prima di passare alla versione più recente.
granite - 13b - instruct - v2: ottimizzato specificamente per attività di classificazione, estrazione e riepilogo. La versione più recente differisce dalla versione precedente nei seguenti modi:
- Restituisce risposte più coerenti di varie lunghezze e con un vocabolario diverso
- Riconosce le citazioni delle persone e può riepilogare gli input più lunghi
- Gestisce gli spazi vuoti nell'input in modo più grazioso
I prompt ingegnerizzati che funzionano bene con v1 probabilmente funzioneranno bene anche con v2 , ma assicurati di eseguire il test prima di passare ai modelli.
Le ultime versioni dei modelli Granite vengono categorizzate come modelli di Classe 2.
Alcuni modelli di fondazione sono ora disponibili a costi inferiori
30 novembre 2023
Alcuni modelli di fondazione popolari sono stati ricategorizzati in classi di fatturazione a basso costo.
I seguenti modelli di fondazione sono stati modificati da Classe 3 a Classe 2:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b
Il seguente modello di fondazione è stato modificato da Classe 2 a Classe 1:
- llama-2-13b
Per ulteriori informazioni sulle classi di fatturazione, vedi Piani diWatson Machine Learning.
È disponibile un nuovo notebook di esempio: Introduzione a RAG con Discovery
30 novembre 2023
Utilizza il notebook Introduzione a RAG con rilevamento per informazioni su come applicare il pattern di generazione aumentato del richiamo in IBM watsonx.ai con IBM Watson Discovery come componente di ricerca. Per ulteriori informazioni, vedere Introduzione a RAG con Discovery.
Comprendere le differenze tra watsonx as a service e le distribuzioni software
30 novembre 2023
Puoi ora confrontare le funzioni e l'implementazione di IBM watsonx as a Service e watsonx su software Cloud Pak for Data , versione 4.8. Vedi Differenze funzione tra le distribuzioni watsonx.
Modifica alla modalità di gestione delle sequenze di arresto
30 novembre 2023
Quando una sequenza di arresto, come ad esempio un carattere di nuova riga, viene specificata in Prompt Lab, il testo di output del modello termina dopo la prima ricorrenza della sequenza di arresto. L'output del modello si arresta anche se la ricorrenza si trova all'inizio dell'output. In precedenza, la sequenza di arresto veniva ignorata se era stata specificata all'inizio dell'output del modello.
Settimana che termina il 10 novembre 2023
È disponibile una versione più piccola del modello Llama-2 Chat
9 novembre 2023
Puoi ora scegliere se utilizzare le versioni 13b o 70b del modello Llama-2 Chat. Considera questi fattori quando fai la tua scelta:
- Costo
- Prestazioni
La versione 13b è un modello Classe 2, il che significa che è più economico da utilizzare rispetto alla versione 70b . Per confrontare i parametri di riferimento e altri fattori, come le emissioni di anidride carbonica per ciascuna dimensione del modello, consultare la Carta del modello.
Utilizzare le variabili di prompt per creare prompt riutilizzabili
Aggiungi flessibilità ai tuoi prompt con variabili di prompt. Le variabili di prompt funzionano come segnaposto nel testo statico dell'input di prompt che è possibile sostituire dinamicamente con il testo al momento dell'inferenza. È possibile salvare i nomi delle variabili di prompt e i valori predefiniti in un asset del modello di prompt per riutilizzare se stessi o condividere con i collaboratori nel progetto. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.
Annuncio del supporto per i framework Python 3.10 e R4.2 e le specifiche software sul runtime 23.1
9 novembre 2023
- Per informazioni sulla release IBM Runtime 23.1 e sugli ambienti inclusi per Python 3.10 e R 4.2, vedere Modifica degli ambienti notebook.
- Per i dettagli sui framework di distribuzione, vedi Gestione di framework e specifiche software.
Utilizzare Apache Spark 3.4 per eseguire notebook e script
Spark 3.4 con Python 3.10 e R 4.2 è ora supportato come runtime per notebook e script RStudio nei progetti. Per i dettagli sugli ambienti notebook disponibili, consultare Opzioni di calcolo delle risorse per l'editor di notebook nei progetti e Opzioni di calcolo delle risorse per RStudio nei progetti.
Settimana che termina il 27 ottobre 2023
Utilizzare un connettore Satellite Connector per connettersi a un database in loco
26 ottobre 2023
Utilizzare il nuovo connettore Satellite per connettersi a un database non accessibile tramite Internet (ad esempio, dietro un firewall). Satellite Connector utilizza una comunicazione leggera basata su Dockerche crea comunicazioni sicure e controllabili dall'ambiente in loco a IBM Cloud. Per istruzioni, vedi Connessione ai dati dietro un firewall.
Secure Gateway è obsoleto
26 ottobre 2023
IBM Cloud ha annunciato l'obsolescenza di Secure Gateway. Per informazioni, consultare la sezione Panoramica e cronologia.
Settimana che termina il 20 ottobre 2023
Dimensioni massime token aumentate
16 ottobre 2023
I limiti precedentemente applicati al numero massimo di token consentiti nell'output dai modelli di fondazione vengono rimossi dai piani a pagamento. È possibile utilizzare valori di token massimi più elevati durante la progettazione dei prompt sia da Prompt Lab che dalla libreria Python . Il numero esatto di token consentiti differisce per modello. Per ulteriori informazioni sui limiti di token per i piani a pagamento e Lite, vedi Supported foundation models.
Settimana che termina il 13 ottobre 2023
Nuovi notebook in Esempi
12 ottobre 2023
Sono disponibili due nuovi notebook che utilizzano un database vettoriale da Elasticsearch nella fase di recupero del pattern di generazione aumentato del richiamo. I notebook mostrano come individuare le corrispondenze in base alla somiglianza semantica tra i documenti indicizzati e il testo della query inoltrato da un utente.
Soluzioni intermedie in Decision Optimization
12 ottobre 2023
È ora possibile scegliere di vedere un campione di soluzioni intermedie mentre è in esecuzione un esperimento di Decision Optimization . Ciò può essere utile per il debug o per vedere come il risolutore sta procedendo. Per i grandi modelli che impiegano più tempo a risolvere, con soluzioni intermedie è ora possibile identificare rapidamente e facilmente eventuali problemi potenziali con la soluzione, senza dover attendere il completamento della soluzione. È possibile configurare il parametro Consegna soluzione intermedia nella configurazione di esecuzione e selezionare una frequenza per queste soluzioni. Per ulteriori informazioni, consultare Soluzioni intermedie e Parametri di configurazione di esecuzione.
Finestra di dialogo Nuovo modello salvato Decision Optimization
Quando si salva un modello per la distribuzione dall'interfaccia utente di Decision Optimization , è ora possibile esaminare lo schema di input e output e selezionare più facilmente le tabelle che si desidera includere. È inoltre possibile aggiungere, modificare o eliminare i parametri di configurazione di esecuzione, esaminare l'ambiente e i file di modelli utilizzati. Tutti questi elementi vengono visualizzati nella stessa finestra di dialogo Salva come modello per distribuzione . Per ulteriori informazioni, vedi Distribuzione di un modello Decision Optimization utilizzando l'interfaccia utente.
Settimana che termina il 6 ottobre 2023
Ulteriori modelli di fondazione a Francoforte
5 ottobre 2023
Tutti i modelli di base disponibili nel data center di Dallas sono ora disponibili anche nel data center di Francoforte. Il watsonx.ai Prompt Lab e l'inferenziazione del modello di base sono ora supportati nella regione di Francoforte per questi modelli:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b-chat
- gpt-neox-20b
- mt0-xxl-13b
- starcoder-15.5b
Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.
Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.
Controllare il posizionamento di una nuova colonna nell'operazione Concatena (Data Refinery)
6 ottobre 2023
Ora sono disponibili due opzioni per specificare la posizione della nuova colonna che risulta dall'operazione Concatena : come la colonna più a destra nel dataset o accanto alla colonna originale.
In precedenza, la nuova colonna era posizionata all'inizio del dataset.
Per informazioni sulle operazioni Data Refinery , vedere Operazioni GUI in Data Refinery.
Settimana che termina il 29 settembre 2023
Modelli di base IBM Granite per la generazione del linguaggio naturale
28 settembre 2023
I primi due modelli della famiglia Granite di modelli di fondazione IBM sono ora disponibili nella region Dallas:
- granite - 13b - chat - v1: modello di utilizzo generale ottimizzato per i casi di utilizzo delle finestre di dialogo
- granite - 13b - instruct - v1: modello di uso generale ottimizzato per la risposta alle domande
Entrambi i modelli sono modelli decoder 13B-parameter in grado di prevedere e generare in modo efficiente la lingua in inglese. Essi, come tutti i modelli della famiglia Granite , sono progettati per le aziende. I modelli Granite vengono preformati su più terabyte di dati provenienti sia da origini in lingua generale, come Internet pubblico, sia da origini dati specifiche di settore provenienti dai campi accademico, scientifico, legale e finanziario.
Provateli oggi nel Prompt Lab o eseguite un quaderno di esempio che utilizza il modello granite-13b-instruct-v1 per l'analisi del sentiment.
Leggete il post del blog Costruire l'IA per le aziende: I modelli di fondazione IBM di Granite per saperne di più.
- Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, vedi Sample foundation model prompts for common tasks.
- Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.
Settimana che termina il 22 settembre 2023
Modelli Java Decision Optimization
20 settembre 2023
Decision Optimization I modelli Java possono ora essere distribuiti in Watson Machine Learning. Utilizzando l'API del nodo di lavoro Java, è possibile creare modelli di ottimizzazione con API Java OPL, CPLEX e CP Optimizer. Puoi ora creare facilmente i tuoi modelli localmente, impacchettarli e distribuirli su Watson Machine Learning utilizzando il contenitore tipo fornito nell' operatore Java GitHubpubblico. Per ulteriori informazioni, consultare Distribuzione di modelli Java per Decision Optimization.
Nuovi notebook nell'hub di risorse
21 settembre 2023
È possibile utilizzare i seguenti nuovi notebook in Resource hub:
Settimana che termina il 15 settembre 2023
Esercitazioni di avvio rapido di progettazione e dati sintetici
14 settembre 2023
Prova le nuove esercitazioni per imparare a:
- Modelli di fondazione di prompt: di solito ci sono diversi modi per richiedere un modello di fondazione per un risultato di successo. In Prompt Lab, è possibile sperimentare la richiesta di diversi modelli di base, esplorare i prompt di esempio e salvare e condividere i prompt migliori. Un modo per migliorare l'accuratezza dell'output generato è quello di fornire i fatti necessari come contesto nel testo di prompt utilizzando il modello di generazione incrementato dal richiamo.
- Genera dati sintetici: puoi generare dati tabulari sintetici in watsonx.ai. Il vantaggio dei dati sintetici è che è possibile procurarsi i dati su richiesta, quindi personalizzare per adattarli al proprio caso d'uso e produrli in grandi quantità.
Supporto didattico | Descrizione | Esperienza per l'esercitazione |
---|---|---|
Richiedi un modello di base utilizzando Prompt Lab | Sperimenta diversi modelli di base, esplora i prompt di esempio e salva e condividi i tuoi prompt migliori. | Richiedi un modello utilizzando Prompt Lab senza codifica. |
Richiedi un modello di base con un modello di generazione incrementato dal recupero | Richiedi un modello di base utilizzando le informazioni in una knowledge base. | Utilizzare il modello di creazione migliorato di richiamo in un notebook Jupyter che utilizza il codice Python . |
Genera dati tabulari sintetici | Generare dati tabulari sintetici utilizzando un editor di flusso grafico. | Selezionare le operazioni per generare i dati. |
Comunità Watsonx.ai
14 settembre 2023
È ora possibile unirsi alla watsonx.ai Community per architetti e costruttori di IA per imparare, condividere idee e connettersi con altri.
Settimana che termina l'8 settembre 2023
Generare dati tabulari sintetici con Synthetic Data Generator
7 settembre 2023
Ora disponibile nelle regioni di Dallas e Francoforte, Synthetic Data Generator è un nuovo strumento di editor grafico su watsonx.ai che puoi utilizzare per generare dati tabulari da utilizzare per i modelli di addestramento. Utilizzando i flussi visivi e un modello statistico, è possibile creare dati sintetici basati sui propri dati esistenti o su uno schema dati personalizzato. È possibile scegliere di mascherare i dati originali ed esportare i dati sintetici in un database o come file.
Per iniziare, vedi Dati sintetici.
Llama-2 Foundation Model per la generazione del linguaggio naturale e la chat
7 settembre 2023
Il modello di fondazione Llama-2 da Meta è ora disponibile nella regione di Dallas. Llama-2 Il modello di chat è un modello di linguaggio auto - regressivo che utilizza un'architettura di trasformatori ottimizzata. Il modello è preaddestrato con dati online disponibili al pubblico e quindi perfezionato utilizzando l'apprendimento di rinforzo dal feedback umano. Il modello è destinato all'uso commerciale e di ricerca in scenari di chat di tipo assistente in lingua inglese.
- Per ulteriori informazioni sul modello Llama-2 , vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, vedi Sample foundation model prompts for common tasks.
- Per i dettagli dei prezzi per Llama-2, consulta Piani diWatson Machine Learning.
Estensione LangChain per la libreria Python dei modelli di base
7 settembre 2023
Puoi adesso utilizzare il framework LangChain con i modelli di base in watsonx.ai con la nuova estensione LangChain per la libreria Python dei modelli di base.
Questo blocco note di esempio mostra come utilizzare la nuova estensione: Quaderno di esempio
Esempio introduttivo per il modello di generazione aumentata di richiamo
7 settembre 2023
La generazione aumentata di recupero è una tecnica semplice e potente per sfruttare una knowledge base per ottenere un output di fatto accurato dai modelli di base.
Consultare: Introduzione al richiamo - generazione aumentata
Settimana che termina il 1 ° settembre 2023
Deprecazione dei commenti nei notebook
31 agosto 2023
A partire da oggi non è possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti sono stati rimossi.
StarCoder Foundation Model per la generazione e la conversione di codice
31 agosto 2023
Il modello StarCoder di Hugging Face è ora disponibile nella regione Dallas. Utilizza StarCoder per creare prompt per la creazione di codice o per la trasformazione del codice da un linguaggio di programmazione a un altro. Un prompt di esempio illustra come utilizzare StarCoder per generare il codice Python da una serie di istruzioni. Un secondo prompt di esempio dimostra come utilizzare StarCoder per trasformare il codice scritto in C+ + in codice Python .
- Per ulteriori informazioni sul modello StarCoder , vedi Supported foundation models available with watsonx.ai.
- Per una descrizione dei prompt di esempio, consultare Sample foundation model prompts for common tasks.
IBM watsonx.ai è disponibile nella regione di Francoforte
31 agosto 2023
Watsonx.ai è ora generalmente disponibile nel data center di Francoforte e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza del modello di base sono supportati nella regione di Francoforte per questi modelli:
mpt-7b-instruct2
flan-t5-xxl-11b
flan-ul2-20b
Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.
Settimana che termina il 25 agosto 2023
Ulteriori miglioramenti della cache disponibili per Watson Pipelines
21 agosto 2023
Sono disponibili ulteriori opzioni per personalizzare le impostazioni del flusso della pipeline. Ora puoi esercitare un maggiore controllo su quando la cache viene utilizzata per le esecuzioni della pipeline. Per i dettagli, consultare Gestione delle impostazioni predefinite.
Settimana che termina il 18 agosto 2023
Aggiornamenti del nome piano per il servizio Watson Machine Learning
18 agosto 2023
A partire da subito, i nomi dei piani vengono aggiornati per il servizio IBM Watson Machine Learning , come segue:
Il piano v2 Standard è ora il piano Essentials . Il piano è progettato per fornire alla tua azienda le risorse necessarie per iniziare a lavorare con i modelli di base e gli asset di machine learning.
Il piano Professional v2 è ora il piano Standard . Questo piano fornisce risorse progettate per supportare la maggior parte delle aziende attraverso la creazione di asset per un utilizzo produttivo.
Le modifiche ai nomi dei piani non modificano i termini di servizio. Vale a dire, se sei registrato per utilizzare il piano Standard v2 , ora sarà denominato Essentials, ma tutti i dettagli del piano rimarranno invariati. Allo stesso modo, se sei registrato per utilizzare il piano Professional v2 , non ci sono modifiche oltre alla modifica del nome del piano in Standard.
Per i dettagli su ciò che è incluso con ogni piano, consulta PianiWatson Machine Learning. Per informazioni sui prezzi, trovate il vostro piano nella pagina del piano Watson Machine Learning nel catalogo IBM Cloud.
Settimana che termina il 11 agosto 2023
Deprecazione dei commenti nei notebook
7 agosto 2023
Il 31 agosto 2023, non sarà più possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti che sono stati aggiunti in questo modo verranno rimossi.
Settimana che termina il 4 agosto 2023
Limite di token aumentato per il piano Lite
4 agosto 2023
Se stai utilizzando il piano Lite per testare i modelli di base, il limite di token per l'input e l'output prompt è ora aumentato da 25.000 a 50.000 per account al mese. Ciò offre una maggiore flessibilità per l'esplorazione dei modelli di base e la sperimentazione dei prompt.
- Per i dettagli sui piani watsonx.ai , vedi i piani Watson Machine Learning.
- Per i dettagli sull'utilizzo dei prompt, consultare Engineer prompts with the Prompt Lab.
Modello di analisi del testo personalizzato (SPSS Modeler)
4 agosto 2023
Per SPSS Modeler, è ora possibile caricare un modello di analisi del testo personalizzato in un progetto. Ciò fornisce una maggiore flessibilità per acquisire ed estrarre i concetti chiave in un modo univoco per il proprio contesto.
Settimana che termina il 28 luglio 2023
Libreria Python dei modelli Foundation disponibile
27 luglio 2023
Puoi ora richiedere i modelli di base in watsonx.ai in modo programmatico utilizzando una libreria Python .
Consultare: Foundation models Python library
Settimana che termina il 14 luglio 2023
Controlla guardavia AI
14 luglio 2023
È ora possibile controllare se i guardavi AI sono attivati o disattivati nel Prompt Lab. I guardrail AI rimuovono il testo potenzialmente dannoso da entrambi i campi di input e output. Il testo dannoso può includere incitamento all'odio, abuso e volgarità. Per evitare la rimozione di testo potenzialmente dannoso, impostare l'opzione Guardrails AI su off. Vedi Hate speech, abuse e profanity.
Microsoft Azure SQL Database supporta l'autenticazione Azure Active Directory (Azure AD)
14 luglio 2023
Ora è possibile selezionare Active Directory per la connessione Microsoft Azure SQL Database . L'autenticazione Active Directory è un'alternativa all'autenticazione SQL Server . Grazie a questo miglioramento, gli amministratori possono gestire centralmente le autorizzazioni utente per Azure. Per ulteriori informazioni, vedere Microsoft Azure SQL Database connection.
Settimana che termina il 7 luglio 2023
Benvenuti in IBM watsonx.ai!
7 luglio 2023
IBM watsonx.ai fornisce tutti gli strumenti necessari per utilizzare i modelli di base e di machine learning.
Per iniziare:
Prova generative AI search e rispondi in questa documentazione
7 luglio 2023
È possibile visualizzare l'AI generativa in azione provando la nuova opzione di ricerca e risposta AI generativa nella documentazione watsonx.ai . Le risposte vengono generate da un modello di lingua di grandi dimensioni in esecuzione in watsonx.ai e basato sul contenuto della documentazione. Questa funzione è disponibile solo quando stai visualizzando la documentazione mentre hai eseguito l'accesso a watsonx.ai.
Inserire una domanda nel campo di ricerca della documentazione e fare clic sull'icona Prova la ricerca e la risposta dell'IA generativa . IL Ricerca e risposta con intelligenza artificiale generativa si apre il riquadro e risponde alla tua domanda.