0 / 0
Torna alla versione inglese della documentazione
Novità

Novità

Torna indietro ogni settimana per scoprire nuove funzioni e aggiornamenti per IBM watsonx.ai e IBM watsonx.governance.

Suggerimento: di tanto in tanto, è necessario eseguire un'azione specifica dopo un aggiornamento. Per visualizzare tutte le azioni richieste, cercare in questa pagina "Azione richiesta".

Settimana che termina il 7 giugno 2024

Gestire le attività di rischio e conformità con la Governance Console (IBM OpenPages)

7 giugno 2024

Watsonx.governance ora supporta l'integrazione facoltativa con la console di governance. Se è stato installato il modulo Model Risk Governance di IBM OpenPages, è possibile configurare i casi di utilizzo AI per sincronizzare i fatti di governance con Governance Console. Dalla console di governance, è possibile creare casi di utilizzo, visualizzare attività di governance, gestire attività e implementare flussi di lavoro come parte dei processi di governance e conformità. Per ulteriori informazioni, vedere:

Settimana che termina il 31 maggio 2024

IBM Watson Pipelines è ora IBM Orchestration Pipelines

30 maggio 2024

Il nome del nuovo servizio riflette le capacità per orchestrare parti del ciclo di vita AI in flussi ripetibili.

Taggare i progetti per un facile recupero

31 maggio 2024

È ora possibile assegnare tag ai progetti per renderli più semplici da raggruppare o richiamare. Assegnare i tag quando si crea un nuovo progetto o dall'elenco di tutti i progetti. Filtra l'elenco di progetti per tag per richiamare una serie correlata di progetti. Per ulteriori informazioni, vedere Creazione di un progetto.

Connetti a una nuova origine dati: Milvus

31 maggio 2024

Utilizzare la connessione Milvus per memorizzare e confermare l'accuratezza delle credenziali e dei dettagli di connessione per accedere a un archivio vettore Milvus. Per informazioni, vedi Connessione Milvus.

Settimana che termina il 24 maggio 2024

Nuovo tutorial e video

23 maggio 2024

Prova la nuova esercitazione per vedere come valutare una distribuzione del modello utilizzando la funzionalità in Watson OpenScale in uno spazio di distribuzione.

Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare una distribuzione negli spazi Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello in uno spazio di distribuzione. Configurare i monitor e valutare un modello in uno spazio di distribuzione.

Il modello di fondazione allam-1-13b-instruct è disponibile nella regione di Francoforte

21 maggio 2024

Il modello di fondazione arabo allam-1-13b-instruct dell'autorità saudita per dati e intelligenza artificiale e fornito da IBM è disponibile da watsonx.ai nel data center di Francoforte. È possibile utilizzare il modello di base allam-1-13b-instruct per attività di uso generale, inclusi Q & A, riepilogo, classificazione, creazione, estrazione e traduzione in arabo. Per ulteriori informazioni, vedi Supported foundation models.

Distribuisce asset AI tradizionali e generativi con la libreria client watsonx.ai Python

21 maggio 2024

La libreria client Python di Watson Machine Learning è ora parte di una libreria espansa, la libreria client Python watsonx.ai . Utilizza la libreria watsonx.ai Python per lavorare con gli asset IA generativi e di machine learning tradizionali. La libreria Watson Machine Learning persisterà ma non verrà aggiornata con le nuove funzioni. Per ulteriori informazioni, vedi LibreriaPython.

Settimana che termina il 17 maggio 2024

I modelli di integrazione testo di terze parti sono disponibili in watsonx.ai

16 maggio 2024

I seguenti modelli di incorporazione del testo di terze parti sono ora disponibili in aggiunta ai modelli IBM Slate per il richiamo e la corrispondenza del testo avanzata:

  • all-minilm-l12-v2
  • bge-large-en-v1.5
  • multilingual-e5-large

Inoltra frasi o passaggi a uno dei modelli di incorporazione supportati utilizzando la libreria watsonx.ai Python o l'API REST per convertire il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Per ulteriori informazioni su questi modelli, consultare Supported embedding models.

Per ulteriori informazioni sulla conversione del testo, consultare Generazione di integrazione del testo.

Settimana che termina il 10 maggio 2024

Nuovi modelli di fondazione del codice di Granite sono disponibili nella regione di Dallas

9 maggio 2024

Puoi ora dedurre i seguenti modelli di base del codice Granite forniti da IBM da watsonx.ai:

  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct

Utilizza i nuovi modelli di base del codice Granite per le attività di codifica programmatica. I modelli di base sono ottimizzati su una combinazione di dati di istruzione per migliorare le capacità di seguire le istruzioni, incluso il ragionamento logico e la risoluzione dei problemi.

Per ulteriori informazioni, vedi Supported foundation models.

I modelli di fondazione InstructLab sono disponibili in watsonx.ai

7 maggio 2024

InstructLab è un'iniziativa open source di Red Hat e di IBM che fornisce una piattaforma per ampliare le funzionalità di un modello di base. I seguenti modelli di base supportano le conoscenze e le competenze fornite da InstructLab:

  • granite-7b-lab
  • granite-13-chat-v2
  • granite-20b-multilingual
  • merlinite-7b

È possibile esplorare i contributi della comunità open source dalla pagina di tassonomia del modello di base.

Per ulteriori informazioni, vedi InstructLab-compatible foundation models.

Settimana che termina il 3 maggio 2024

Organizzare gli asset del progetto in cartelle

2 maggio 2024

È ora possibile creare cartelle nei propri progetti per organizzare gli asset. Un amministratore del progetto deve abilitare le cartelle e amministratori ed editor possono crearle e gestirle. Le cartelle sono in versione beta e non sono ancora supportate per l'utilizzo in ambienti di produzione. Per ulteriori informazioni, consultare Organizzazione di asset con cartelle (beta).

La scheda Asset con cartelle

Settimana che termina il 26 aprile 2024

IBM watsonx.ai è disponibile nella regione di Londra

25 apr 2023

Watsonx.ai è ora generalmente disponibile nel data center di Londra e Londra può essere selezionata come regione preferita al momento dell'iscrizione.

  • I modelli di base completamente supportati a Dallas sono disponibili anche per l'inferenza nel data center di Londra dal Prompt Lab o utilizzando l'API. Le eccezioni sono mt0-xxl-13b e il modello di base llama-2-70b-chat , che è sostituito dal modello di base llama-3-70b-instruct ora disponibile.
  • Ottimizza i tre modelli di base regolabili da Tuning Studio o utilizzando l'API.
  • Sono supportati i due modelli di integrazione IBM e l'API di integrazione.

Per ulteriori informazioni, vedi Disponibilità regionale per i servizi e le funzioni.

Avviare una conversazione in Prompt Lab direttamente dalla home page

25 apr 2023

Ora puoi iniziare una conversazione con un modello di base dalla home page IBM watsonx.ai . Immettere una domanda da inviare a un modello di fondazione in modalità chat oppure fare clic su Apri Prompt Lab per selezionare un modello di fondazione e i parametri del modello prima di inoltrare l'input del modello.

Settimana che termina il 19 aprile 2024

Nuovi modelli di fondazione Meta Llama 3 sono ora disponibili

18 apr 2024

I seguenti modelli di fondazione Llama 3 forniti da Meta possono essere dedotti da watsonx.ai:

  • llama-3-8b-instruct
  • llama-3-70b-instruct

I nuovi modelli di base Llama 3 sono modelli di linguaggio ottimizzati per le istruzioni che possono supportare vari casi di utilizzo.

Questa ultima versione di Llama è addestrata con più gettoni e applica nuove procedure post - formazione. Il risultato è un modello di base con una migliore comprensione del linguaggio, ragionamento, generazione di codice e capacità di seguire le istruzioni.

Per ulteriori informazioni, vedi Supported foundation models.

Introduzione al supporto di integrazione IBM per il richiamo e la corrispondenza del testo potenziati

18 apr 2024

È ora possibile utilizzare l'API di incorporazione IBM e i modelli di incorporazione IBM per trasformare il testo di input in vettori per confrontare e richiamare in modo più accurato il testo simile.

Sono disponibili i seguenti modelli di integrazione IBM Slate:

  • slate.125m.english.rtrvr
  • slate.30m.english.rtrvr

Per ulteriori informazioni, consultare Generazione di incorporazione del testo.

Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.

IBM watsonx.governance viene incluso quando ti registri per IBM watsonx.ai

18 apr 2024

Se ti registri per watsonx.ai nella regione Dallas, watsonx.governance viene ora incluso automaticamente. Vedi Registrazione per IBM watsonx as a Service.

Valutazione delle distribuzioni di machine learning negli spazi

18 apr 2024

Configura le valutazioni watsonx.governance nei tuoi spazi di distribuzione per ottenere informazioni dettagliate sulle prestazioni del tuo modello di machine learning. Ad esempio, valutare una distribuzione per la distorsione o monitorare una distribuzione per la deviazione. Quando configuri le valutazioni, puoi analizzare i risultati della valutazione e modellare i record della transazione direttamente negli spazi.

Per ulteriori informazioni, vedi Valutazione delle distribuzioni negli spazi.

Un modello di fondazione in lingua coreana è disponibile nella regione di Tokyo

18 apr 2024

Il modello di base llama2-13b-dpo-v7 fornito da Minds & Company e basato sul modello di base Llama 2 di Meta è disponibile nella regione di Tokyo.

Il modello di fondazione llama2-13b-dpo-v7 è specializzato nelle attività di conversazione in coreano e inglese. Puoi anche utilizzare il modello di infrastruttura llama2-13b-dpo-v7 per attività di uso generale in lingua coreana.

Per ulteriori informazioni, vedi Supported foundation models.

È disponibile un modello di fondazione mixtral-8x7b-instruct-v01 per l'inferenza

18 apr 2024

Il modello di infrastruttura mixtral-8x7b-instruct-v01 di Mistral AI è disponibile per l'inferenza da watsonx.ai. Il modello di base mixtral-8x7b-instruct-v01 è un modello generativo preaddestrato che utilizza una rete di esperti sparse per generare testo in modo più efficace.

Puoi utilizzare il modello mixtral-8x7b-instruct-v01 per attività di uso generale, tra cui classificazione, riepilogo, generazione del codice, traduzione della lingua e altro. Per ulteriori informazioni, vedi Supported foundation models.

Il modello di base mixtral-8x7b-instruct-v01-q è obsoleto e verrà ritirato il 23 maggio 2024. Rivedere eventuali prompt che utilizzano questo modello di base.

  • Data di obsolescenza: 19 aprile 2024
  • Data di recesso: 20 giugno 2024
  • Modello alternativo: mixtral-8x7b-instruct-v01

Le richieste di inferenza inoltrate al modello mixtral-8x7b-instruct-v01-q utilizzando l'API continuano a generare output, ma includono un messaggio di avviso relativo al ritiro del modello imminente. A partire dal 20 giugno 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Viene introdotta una modifica al modello di fondazione granite-20b-multilingual

18 apr 2024

L'ultima versione di granite-20b-multilingual è 1.1.0. La modifica include i miglioramenti che sono stati ottenuti applicando una nuova tecnica di allineamento AI al modello versione 1.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti.

Per ulteriori informazioni su questo modello di base, vedi Supported foundation models.

Settimana che termina il 12 aprile 2024

Ottimizza il modello di fondazione granite-13b-instruct-v2

11 apr 2024

Tuning Studio ora supporta l'ottimizzazione del modello di base granite-13b-instruct-v2 in aggiunta ai modelli di base flan-t5-xl-3b e llama-2-13b-chat . Per ulteriori informazioni, vedi Ottimizzazione di un modello di base.

Le impostazioni di configurazione dell'esperimento per l'ottimizzazione della modifica del modello di fondazione granite-13b-instruct-v2 per applicare i migliori valori predefiniti a seconda della tua attività. Le linee guida di valutazione dell'ottimizzazione consentono di analizzare i risultati dell'esperimento e di regolare le impostazioni di configurazione dell'esperimento in base ai risultati. Per ulteriori informazioni, consultare Valutazione dei risultati di un esperimento di ottimizzazione.

Un modello di fondazione in lingua araba è disponibile nella regione di Francoforte

11 apr 2024

Il modello di fondazione jais-13b-chat fornito da Inception, Mohamed bin Zayed University of Artificial Intelligence e Cerebras Systems è disponibile nella regione di Francoforte.

Il modello di fondazione jais-13b-chat è specializzato in attività di conversazione in arabo e inglese. Puoi anche utilizzare il modello di fondazione jais-13b-chat per attività di uso generale in lingua araba, inclusa la traduzione linguistica tra arabo e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Visualizzare il testo completo di un prompt in Prompt Lab

11 apr 2024

Ora è possibile rivedere il testo completo del prompt che verrà inoltrato al modello di base, che è utile quando il prompt include le variabili del prompt o quando si sta lavorando in modalità strutturata o in modalità chat.

Per ulteriori informazioni, consultare Prompt Lab.

I modelli Granite versione 1 obsoleti vengono ritirati

11 apr 2024

I seguenti modelli di fondazione vengono ora ritirati:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1

Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare i modelli di base IBM Granite v2 . Per ulteriori informazioni sull'obsolescenza e il ritiro del modello della fondazione, consulta Ciclo di vita del modello della fondazione.

Settimana che termina il 5 aprile 2024

Utilizzare le tabelle pivot per visualizzare i dati aggregati negli esperimenti di Decision Optimization

5 aprile 2024

È ora possibile utilizzare le tabelle pivot per visualizzare sia i dati di input che di output aggregati nella vista Visualizzazione negli esperimenti Decision Optimization . Per ulteriori informazioni, consultare Widget di visualizzazione negli esperimenti di Decision Optimization.

Nuovo video e esercitazione watsonx.ai

04 apr 2024

Prova la nuova esercitazione per vedere come utilizzare watsonx.ai in un caso di uso end-to-end dalla preparazione dei dati alla progettazione rapida.

Supporto didattico Descrizione Esperienza per l'esercitazione
Prova il caso di utilizzo end-to-end watsonx.ai Seguire un caso di utilizzo dalla preparazione dei dati alla progettazione rapida. Utilizzare vari strumenti, come notebook e Prompt Lab.

Settimana che termina il 15 marzo 2024

L'API watsonx.ai è disponibile

14 marzo 2024

L'API watsonx.ai è generalmente disponibile. Utilizza l'API watsonx.ai per gestire i modelli di base in modo programmatico. Per ulteriori informazioni, vedi la Guida di riferimento API.

La versione API è 2024-03-14.

È possibile continuare a utilizzare la libreria Python disponibile per utilizzare i modelli di base da un notebook. Per ulteriori informazioni, vedi LibreriaPython.

Nuovi modelli di fondazione sono disponibili a Dallas, Francoforte e Tokyo

14 marzo 2024

I seguenti modelli di base sono ora disponibili per l'inferenza da watsonx.ai:

  • granite-20b-multilingual: un modello di base della famiglia IBM Granite che puoi utilizzare per varie attività generative in inglese, tedesco, spagnolo, francese e portoghese.

  • codellama-34b-instruct-hf: Un modello di generazione di codice programmatico da Code Llama basato su Llama 2 da Meta. Puoi utilizzare codellama-34b-instruct-hf per creare prompt per la creazione di codici basati su input in linguaggio naturale e per il completamento e il debug del codice.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana che termina l'8 marzo 2024

Il Tuning Studio è disponibile a Francoforte

7 marzo 2024

Il Tuning Studio è ora disponibile per gli utenti di piani a pagamento nella regione di Francoforte. Tuning Studio consente di guidare un modello di base a restituire un output utile. Puoi ottimizzare entrambi i modelli di base flan-t5-xl-3b e llama-2-70b-chat quando utilizzi Tuning Studio a Francoforte.

Per ulteriori informazioni, consultare Tuning Studio.

Richiedi - ottimizza il modello di base llama-2-13b-chat nella regione di Tokyo

7 marzo 2024

Tuning Studio ora supporta l'ottimizzazione del modello di base llama-2-13b-chat nella regione di Tokyo. In primo luogo, l'ingegnere richiede il modello llama-2-70b-chat più grande nel Prompt Lab per trovare input di prompt efficaci per il tuo caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot.

Per ulteriori informazioni, consultare Tuning Studio.

Prezzo più basso per modello Mixtral8x7b

5 marzo 2024

Il modello base mixtral-8x7b-instruct-v01-q è riclassificato dalla classe 2: $0.0018/Resource Unità alla classe 1: $0.0006/Resource Unità, rendendo più conveniente l'esecuzione di attività di inferenza rispetto a questo modello. La riclassificazione si applica a tutte le regioni in cui è disponibile mixtral-8x7b-instruct-v01-q .

Per ulteriori informazioni, vedi Supported foundation models.

Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.

L'atlante del rischio AI è aggiornato e migliorato

5 marzo 2024

Ora è possibile trovare i seguenti contenuti nuovi e migliorati nell'atlante del rischio AI:

  • Una nuova categoria di rischi non tecnici che comprende la governance, la conformità legale e i rischi di impatto sociale
  • Nuovi esempi di rischi
  • Definizioni più chiare dei rischi

Vedere AI risk atlas.

Nuovi casi di utilizzo per watsonx

5 marzo 2024

I casi di utilizzo di watsonx sono disponibili per aiutarti a vedere come puoi utilizzare i nostri prodotti, servizi e strumenti:

  • Caso d'uso watsonx.ai : questo caso d'uso descrive come puoi trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale integrando il machine learning e l'intelligenza artificiale generativa nel tuo framework operativo.
  • Caso di utilizzo watsonx.governance : questo caso di utilizzo descrive come è possibile creare flussi di lavoro AI responsabili, trasparenti ed esplicabili con un sistema integrato per la traccia, il monitoraggio e il riaggiornamento dei modelli AI.

Vedi Casi di usowatsonx.

Settimana che termina il 1 marzo 2024

La modalità chat è disponibile in Prompt Lab

29 febbraio 2024

La modalità chat in Prompt Lab è una semplice interfaccia di chat che rende più facile sperimentare con i modelli di base. La modalità chat aumenta le modalità strutturate e in formato libero già disponibili che sono utili quando si creano pochi o molti prompt per attività quali estrazione, riepilogo e classificazione. Utilizzare la modalità chat per simulare le risposte alle domande o le interazioni conversazionali per i casi di utilizzo del chatbot e dell'assistente virtuale.

Per ulteriori informazioni, consultare Prompt Lab.

Un modello Granite in lingua giapponese è disponibile nella regione di Tokyo

29 febbraio 2024

Il modello di fondazione granite-8b-japanese fornito da IBM è disponibile da watsonx.ai nella regione di Tokyo. Il modello di fondazione granite-8b-japanese si basa sul modello IBM Granite Instruct ed è preparato per comprendere e generare testo in giapponese.

Puoi utilizzare il modello di base granite-8b-japanese per attività di uso generale in lingua giapponese, come la classificazione, l'estrazione, la risposta alle domande e per la traduzione della lingua tra giapponese e inglese.

Per ulteriori informazioni, vedi Supported foundation models.

Settimana conclusosi il 23 febbraio 2024

Prezzo più basso per i modelli Granite-13b

21 febbraio 2024

I modelli Granite-13b sono riclassificati dalla Classe 2: $0.0018/Resource alla Classe 1: $0.0006/Resource , rendendo più conveniente l'esecuzione delle attività di deduzione rispetto a questi modelli. La riclassificazione si applica ai seguenti modelli in tutte le regioni in cui sono disponibili:

  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1

Per ulteriori informazioni su questi modelli, vedi Supported foundation models.

Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.

Settimana che termina il 16 febbraio 2024

Nuovo collegamento per iniziare a lavorare su attività comuni

15 febbraio 2024

È ora possibile iniziare un'attività comune nel progetto facendo clic su un riquadro nella sezione Inizia a lavorare della scheda Panoramica . Utilizzare queste scorciatoie per iniziare ad aggiungere collaboratori e dati e per sperimentare e creare modelli. Fare clic su Visualizza tutto per passare a una selezione di strumenti.

Nuovo modello di base mixtral-8x7b-instruct-v01-q per attività di uso generico

15 febbraio 2024

Il modello di fondazione mixtral-8x7b-instruct-v01-q fornito da Mistral AI e quantificato da IBM è disponibile da watsonx.ai. Il modello di base mixtral-8x7b-instruct-v01-q è una versione quantizzata del modello di base Mixtral 8x7B Instruct di Mistral AI.

È possibile utilizzare questo nuovo modello per attività di uso generale, incluse la classificazione, il riepilogo, la generazione del codice, la traduzione della lingua e altro ancora. Per ulteriori informazioni, vedi Supported foundation models.

I seguenti modelli sono obsoleti e verranno ritirati a breve. Rivedi tutti i prompt che utilizzano questi modelli di base per utilizzare un altro modello di base, come mixtral-8x7b-instruct-v01-q.

Modelli di fondazione obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
gpt-neox-20b 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
mpt-7b-instruct2 15 febbraio 2024 21 marzo 2024 mixtral-8x7b-instruct-v01-q
starcoder-15.5b 15 febbraio 2024 11 aprile 2024 mixtral-8x7b-instruct-v01-q

Le richieste di inferenza inoltrate a questi modelli utilizzando l'API continuano a generare l'output, ma includono un messaggio di avviso sul ritiro del modello in arrivo. Una volta raggiunta la data di ritiro, le richieste API per dedurre i modelli non generano output.

Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

È disponibile una modifica al modello di base granite-13b-chat-v2

15 febbraio 2024

L'ultima versione di granite-13b-chat-v2 è 2.1.0. La modifica include i miglioramenti ottenuti applicando una nuova tecnica di allineamento AI al modello della versione 2.0.0 . L'allineamento AI prevede l'utilizzo di tecniche di perfezionamento e rinforzo per guidare il modello a restituire output il più possibile utili, veritieri e trasparenti. Per ulteriori informazioni, consultare la sezione Cos' è l'allineamento AI? post del blog di IBM Research.

Nuovo video e esercitazione watsonx

15 febbraio 2024

Prova la nuova esercitazione watsonx.governance per aiutarti a capire come valutare un modello di machine learning per correttezza, accuratezza, deviazione ed esplicabilità con Watson OpenScale.

Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare un modello di machine learning Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare.

Settimana che termina il 09 febbraio 2024

Altra documentazione Decision Optimization orientata alle attività

9 febbraio 2024

Ora è possibile trovare più facilmente le informazioni corrette per la creazione e la configurazione degli esperimenti di Decision Optimization . Vedere EsperimentiDecision Optimization e relative sottosezioni.

La connessione IBM Cloud Data Engine è obsoleta

8 febbraio 2022

La connessione IBM Cloud Data Engine è obsoleta e verrà interrotta in una release futura. Consultare Deprecation of Data Engine per le date e i dettagli importanti.

Nuovo ambiente Spark 3.4 per l'esecuzione dei lavori del flusso Data Refinery

9 febbraio 2024

Quando si seleziona un ambiente per un lavoro di flusso Data Refinery , è ora possibile selezionare Spark predefinito 3.4 & R 4.2, che include miglioramenti da Spark.

Ambienti Data Refinery Spark

L'ambiente Default Spark 3.3 & R 4.2 è obsoleto e verrà rimosso in un futuro aggiornamento.

Aggiornare i lavori del flusso Data Refinery per utilizzare il nuovo ambiente Default Spark 3.4 & R 4.2 . Per i dettagli, consultare Opzioni di risorse di calcolo per Data Refinery nei progetti.

Settimana che termina il 2 febbraio 2024

Raccolta di esempi ridenominata in hub di risorse

2 febbraio 2024

La raccolta di esempi viene rinominata in hub di risorse per riflettere meglio il contenuto. L'hub di risorse contiene modelli di base e progetti di esempio, dataset e notebook. Vedere hub di risorse.

La connessione IBM Cloud Databases for DataStax è stata interrotta

2 febbraio 2024

La connessione IBM Cloud Databases for DataStax è stata eliminata da IBM watsonx.ai.

La connessione Dremio richiede aggiornamenti

2 febbraio 2024

In precedenza, la connessione Dremio utilizzava un driver JDBC . Ora la connessione utilizza un driver basato su Arrow Flight.

Importante: aggiornare le proprietà di connessione. Diverse modifiche si applicano a una connessione per un'istanza Dremio Software (in loco) o un'istanza Dremio Cloud.

Dremio Software: aggiornare il numero di porta.

Il numero di porta predefinito utilizzato da Flight è 32010. È possibile confermare il numero di porta nel file dremio.conf . Per informazioni, vedi Configurazione tramite dremio.conf .

Inoltre, Dremio non supporta più le connessioni con IBM Cloud Satellite.

Dremio Cloud: aggiorna il metodo di autenticazione e il nome host.

  1. Accedere a Dremio e generare un token di accesso personale. Per istruzioni, consultare Personal Access Tokens.
  2. In IBM watsonx nel modulo Crea connessione: Dremio , modificare il tipo di autenticazione in Personal Access Token e aggiungere le informazioni sul token. L'autenticazione Nome utente e password non può più essere utilizzata per connettersi a un'istanza cloud Dremio .
  3. Selezionare La porta è abilitata SSL.

Se si utilizza il nome host predefinito per un'istanza cloud Dremio , è necessario modificarlo:

  • Modificare sql.dremio.cloud in data.dremio.cloud
  • Modificare sql.eu.dremio.cloud in data.eu.dremio.cloud

Modello di base llama-2-13b-chat

1 febbraio 2024

Tuning Studio ora supporta l'ottimizzazione del modello di base llama-2-13b-chat . In primo luogo, l'ingegnere richiede il modello llama-2-70b-chat più grande nel Prompt Lab per trovare input di prompt efficaci per il tuo caso d'uso. Quindi regolare la versione più piccola del modello Llama 2 per generare output confrontabili, se non migliori, con prompt zero - shot. Il llama-2-13b-model è disponibile per l'ottimizzazione della richiesta nella regione di Dallas. Per ulteriori informazioni, consultare Tuning Studio.

Settimana che termina il 26 gennaio 2024

AutoAI supporta i dati ordinati per tutti gli esperimenti

25 gennaio 2024

Ora è possibile specificare i dati ordinati per tutti gli esperimenti AutoAI anziché solo per gli esperimenti di serie temporali. Specificare se i dati di addestramento sono ordinati in modo sequenziale, in base a un indice di riga. Quando i dati di input sono sequenziali, la prestazione del modello viene valutata sui record più recenti invece che su un campionamento casuale e i dati di holdout utilizzano gli ultimi n record dell'insieme invece di n record casuali. I dati sequenziali sono richiesti per gli esperimenti di serie temporali ma sono facoltativi per gli esperimenti di classificazione e regressione.

Q & A con acceleratore RAG

26 gennaio 2024

È ora possibile implementare una soluzione di domande e risposte che utilizza la generazione aumentata di richiamo importando un progetto di esempio. Il progetto di esempio contiene notebook e altri asset che convertono documenti da HTML o PDF in testo semplice, importano segmenti di documenti in un indice vettore Elasticsearch , distribuiscono una funzione Python che interroga l'indice vettoriale, richiamano i primi N risultati, eseguono l'inferenza LLM per generare una risposta alla domanda e controllano la risposta per le allucinazioni.

Provare Q & A con l'acceleratore RAG.

Imposta su tema scuro

25 gennaio 2024

Puoi ora impostare la tua interfaccia utente di watsonx sul tema scuro. Fai clic sull'avatar e seleziona Profilo e impostazioni per aprire il tuo profilo account. Quindi, impostare l'interruttore del tema Dark su on. Il tema scuro non è supportato nei notebook RStudio e Jupyter. Per informazioni sulla gestione del profilo, consultare Gestione delle proprie impostazioni.

IBM watsonx.ai è disponibile nella regione di Tokyo

25 gennaio 2024

Watsonx.ai è ora generalmente disponibile nel data center di Tokyo e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza del modello di fondazione sono supportati nella regione di Tokyo per questi modelli:

  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • llama-2-70b-chat
  • llama-2-13b-chat

Disponibile anche nella regione di Tokyo:

  • Ottimizzazione del modello di base flan-t5-xl-3b con Tuning Studio
  • Generazione di dati in formato tabella con Synthetic Data Generator da utilizzare per i modelli di addestramento

Per ulteriori informazioni sui modelli supportati, vedi Supported foundation models available with watsonx.ai.

Un modello in lingua giapponese Llama 2 è disponibile nella regione di Tokyo

25 gennaio 2024

Il modello di fondazione elyza-japanese-llama-2-7b-instruct fornito da ELYZA, Inc è disponibile dalle istanze watsonx.ai nel data center di Tokyo. Il modello elyza-japanese-llama-2-7b-instruct è una versione del modello Llama 2 di Meta che è stato preparato per comprendere e generare testo in giapponese.

È possibile utilizzare questo nuovo modello per attività di uso generale. Funziona bene per la classificazione e l'estrazione in lingua giapponese e per la traduzione tra giapponese e inglese.

Settimana conclusosi il 12 gennaio 2024

Supporto per IBM Runtime 22.2 obsoleto in Watson Machine Learning

11 gennaio 2024

IBM Runtime 22.2 è obsoleto e verrà rimosso l'11 aprile 2024. A partire dal 7 marzo 2024, non puoi creare notebook o ambienti personalizzati utilizzando i runtime 22.2 . Inoltre, non è possibile preparare nuovi modelli con specifiche software basate sul runtime 22.2 . Aggiornare gli asset e le distribuzioni per utilizzare IBM Runtime 23.1 prima del 7 marzo 2024.

IBM Granite v1 foundation models sono obsoleti

11 gennaio 2024

I modelli IBM Granite 13 miliardi - parameter v1 foundation sono obsoleti e verranno ritirati l'11 aprile 2024. Se si sta utilizzando la versione 1 dei modelli, passare alla versione 2 dei modelli.

Modelli di base IBM obsoleti
Modello obsoleto Data di deprecazione Data di ritiro Modello alternativo
granite-13b-chat-v1 11 gennaio 2024 11 aprile 2024 granite-13b-chat-v2
granite-13b-instruct-v1 11 gennaio 2024 11 aprile 2024 granite-13b-instruct-v2

Le richieste di inferenza inoltrate ai modelli della versione 1 utilizzando l'API continuano a generare l'output, ma includono un messaggio di avvertenza relativo al ritiro del modello in arrivo. A partire dall ' 11 Aprile 2024, le richieste API per dedurre i modelli non genereranno output.

Per ulteriori informazioni sui modelli di fondazione IBM Granite , vedi Modelli di fondazione creati da IBM. Per ulteriori informazioni sull'obsolescenza e il ritiro, vedi Ciclo di vita del modello Foundation.

Settimana che termina il 15 dicembre 2023

Crea chiavi API utente per lavori e altre operazioni

15 dicembre 2023

Alcune operazioni di runtime in IBM watsonx, come lavori e formazione del modello, richiedono una chiave API come credenziale per un'autorizzazione sicura. Con le chiavi API dell'utente, puoi ora generare e ruotare la tua chiave API direttamente in IBM watsonx come necessario per garantire il corretto funzionamento delle tue operazioni. Le chiavi API sono gestite in IBM Cloud, ma puoi facilmente crearle e ruotarle in IBM watsonx.

La chiave API utente è specifica dell'account e viene creata da Profilo e impostazioni nel tuo profilo account.

Per ulteriori informazioni, vedi Gestione della chiave API utente.

Nuove esercitazioni e video watsonx

15 dicembre 2023

Prova le nuove esercitazioni watsonx.governance e watsonx.ai per imparare come ottimizzare un modello di base e valutare e tenere traccia di un modello di prompt.

Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Ottimizzazione di un modello di base Ottimizzare un modello di base per migliorare le prestazioni del modello. Utilizzare Tuning Studio per ottimizzare un modello senza codifica.
Valutare e tracciare un modello di prompt Valutare un modello di prompt per misurare le prestazioni del modello di base e tenere traccia del modello di prompt durante il suo ciclo di vita. Utilizzare lo strumento di valutazione e un caso di utilizzo AI per tenere traccia del modello di prompt.

Guarda un video Trova altri video watsonx.governance e watsonx.ai nella Libreria di video.

Nuova scadenza e disconnessione della sessione di login a causa di inattività

15 dicembre 2023

Sei ora scollegato da IBM Cloud a causa della scadenza della sessione. La sessione può scadere a causa della scadenza della sessione di accesso (24 ore per impostazione predefinita) o dell'inattività (2 ore per impostazione predefinita). Puoi modificare le durate predefinite nelle impostazioni di accesso (IAM) in IBM Cloud. Per ulteriori informazioni, consultare Impostazione della scadenza della sessione di login.

Il connettore di IBM Cloud Databases for DataStax è obsoleto

15 dicembre 2023

Il connettore IBM Cloud Databases for DataStax è obsoleto e verrà interrotto in una release futura.

Settimana che termina il 08 dicembre 2023

Il Tuning Studio è disponibile

7 dicembre 2023

Tuning Studio consente di guidare un modello di base a restituire un output utile. Con Tuning Studio, puoi richiedere di ottimizzare il modello di base flan-t5-xl-3b per migliorare le sue prestazioni sulle attività di elaborazione del linguaggio naturale come la classificazione, il riepilogo e la creazione. L'ottimizzazione rapida consente ai modelli di base più piccoli e più efficienti dal punto di vista computazionale di raggiungere risultati paragonabili ai modelli più grandi della stessa famiglia di modelli. Ottimizzando e distribuendo una versione ottimizzata di un modello più piccolo, è possibile ridurre i costi di inferenza a lungo termine. Tuning Studio è disponibile per gli utenti dei piani a pagamento nella regione di Dallas.

Nuove proprietà client nelle connessioni Db2 per la gestione del workload

8 dicembre 2023

È ora possibile specificare le proprietà nei campi seguenti per scopi di controllo: Nome applicazione, Informazioni sull'account client, Nome host cliente Utente client. Questi campi sono facoltativi e sono disponibili per le seguenti connessioni:

Settimana che termina il 1 dicembre 2023

Watsonx.governance è disponibile!

1 dicembre 2023

Watsonx.governance estende la funzionalità di governance di Watson OpenScale per valutare gli asset del modello di base e gli asset di machine learning. Ad esempio, valutare i modelli di prompt del modello di base per le dimensioni come l'accuratezza o per rilevare la presenza di discorsi odiosi e abusivi. È inoltre possibile definire i casi di utilizzo dell'IA per risolvere i problemi di business, quindi tenere traccia dei modelli di prompt o dei dati del modello nei factsheet per supportare gli obiettivi di conformità e governance. I piani e le funzioni Watsonx.governance sono disponibili solo nella regione di Dallas.

Esplora con l'atlante del rischio AI

1 dicembre 2023

Ora è possibile esplorare alcuni dei rischi di lavorare con l'intelligenza artificiale generativa, i modelli di base e i modelli di machine learning. Scopri i rischi per privacy, correttezza, esplicabilità, allineamento dei valori e altre aree. Vedere AI risk atlas.

Sono disponibili nuove versioni dei modelli IBM Granite

30 novembre 2023

Le versioni più recenti dei modelli Granite includono queste modifiche:

granite - 13b - chat - v2: ottimizzato per rispondere meglio alle domande - risposta, riepilogo e attività generative. Con un contesto sufficiente, genera risposte con i seguenti miglioramenti rispetto alla versione precedente:

  • Genera risposte più lunghe e di qualità superiore con un tono professionale
  • Supporta le risposte a catena di pensiero
  • Riconosce le citazioni delle persone e può rilevare meglio il tono e il sentimento
  • Gestisce gli spazi vuoti nell'input in modo più grazioso

A causa di modifiche estese, verifica e rivedi tutte le richieste che sono state progettate per v1 prima di passare alla versione più recente.

granite - 13b - instruct - v2: ottimizzato specificamente per attività di classificazione, estrazione e riepilogo. La versione più recente differisce dalla versione precedente nei seguenti modi:

  • Restituisce risposte più coerenti di varie lunghezze e con un vocabolario diverso
  • Riconosce le citazioni delle persone e può riepilogare gli input più lunghi
  • Gestisce gli spazi vuoti nell'input in modo più grazioso

I prompt ingegnerizzati che funzionano bene con v1 probabilmente funzioneranno bene anche con v2 , ma assicurati di eseguire il test prima di passare ai modelli.

Le ultime versioni dei modelli Granite vengono categorizzate come modelli di Classe 2.

Alcuni modelli di fondazione sono ora disponibili a costi inferiori

30 novembre 2023

Alcuni modelli di fondazione popolari sono stati ricategorizzati in classi di fatturazione a basso costo.

I seguenti modelli di fondazione sono stati modificati da Classe 3 a Classe 2:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b

Il seguente modello di fondazione è stato modificato da Classe 2 a Classe 1:

  • llama-2-13b

Per ulteriori informazioni sulle classi di fatturazione, vedi Piani diWatson Machine Learning.

È disponibile un nuovo notebook di esempio: Introduzione a RAG con Discovery

30 novembre 2023

Utilizza il notebook Introduzione a RAG con rilevamento per informazioni su come applicare il pattern di generazione aumentato del richiamo in IBM watsonx.ai con IBM Watson Discovery come componente di ricerca. Per ulteriori informazioni, consultare Introduzione a RAG con il rilevamento.

Comprendere le differenze tra watsonx as a service e le distribuzioni software

30 novembre 2023

Puoi ora confrontare le funzioni e l'implementazione di IBM watsonx as a Service e watsonx su software Cloud Pak for Data , versione 4.8. Vedi Differenze funzione tra le distribuzioni watsonx.

Modifica alla modalità di gestione delle sequenze di arresto

30 novembre 2023

Quando una sequenza di arresto, come ad esempio un carattere di nuova riga, viene specificata in Prompt Lab, il testo di output del modello termina dopo la prima ricorrenza della sequenza di arresto. L'output del modello si arresta anche se la ricorrenza si trova all'inizio dell'output. In precedenza, la sequenza di arresto veniva ignorata se era stata specificata all'inizio dell'output del modello.

Settimana che termina il 10 novembre 2023

È disponibile una versione più piccola del modello Llama-2 Chat

9 novembre 2023

Puoi ora scegliere se utilizzare le versioni 13b o 70b del modello Llama-2 Chat. Considera questi fattori quando fai la tua scelta:

  • Costo
  • Prestazioni

La versione 13b è un modello Classe 2, il che significa che è più economico da utilizzare rispetto alla versione 70b . Per confrontare i benchmark e altri fattori, come le emissioni di CO2 per ciascuna dimensione del modello, consultare la scheda Modello.

Utilizzare le variabili di prompt per creare prompt riutilizzabili

Aggiungi flessibilità ai tuoi prompt con variabili di prompt. Le variabili di prompt funzionano come segnaposto nel testo statico dell'input di prompt che è possibile sostituire dinamicamente con il testo al momento dell'inferenza. È possibile salvare i nomi delle variabili di prompt e i valori predefiniti in un asset del modello di prompt per riutilizzare se stessi o condividere con i collaboratori nel progetto. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.

Annuncio del supporto per i framework Python 3.10 e R4.2 e le specifiche software sul runtime 23.1

9 novembre 2023

Puoi ora utilizzare IBM Runtime 23.1, che include i framework di data science più recenti basati su Python 3.10 e R 4.2, per eseguire i notebook Watson Studio Jupyter e gli script R, addestrare i modelli ed eseguire le distribuzioni Watson Machine Learning . Aggiorna gli asset e le distribuzioni per utilizzare le specifiche software e i framework IBM Runtime 23.1 .

Utilizzare Apache Spark 3.4 per eseguire notebook e script

Spark 3.4 con Python 3.10 e R 4.2 è ora supportato come runtime per notebook e script RStudio nei progetti. Per i dettagli sugli ambienti notebook disponibili, consultare Opzioni di calcolo delle risorse per l'editor di notebook nei progetti e Opzioni di calcolo delle risorse per RStudio nei progetti.

Settimana che termina il 27 ottobre 2023

Utilizzare un connettore Satellite Connector per connettersi a un database in loco

26 ottobre 2023

Utilizzare il nuovo connettore Satellite per connettersi a un database non accessibile tramite Internet (ad esempio, dietro un firewall). Satellite Connector utilizza una comunicazione leggera basata su Dockerche crea comunicazioni sicure e controllabili dall'ambiente in loco a IBM Cloud. Per istruzioni, vedi Connessione ai dati dietro un firewall.

Secure Gateway è obsoleto

26 ottobre 2023

IBM Cloud ha annunciato l'obsolescenza di Secure Gateway. Per informazioni, consultare Panoramica e sequenza temporale.

Se attualmente si dispone di connessioni configurate con Secure Gateway, pianificare l'utilizzo di un metodo di comunicazione alternativo. In IBM watsonx, è possibile utilizzare il connettore Satellite come sostituto di Secure Gateway. Consultare Connessione ai dati dietro un firewall.

Settimana che termina il 20 ottobre 2023

Dimensioni massime token aumentate

16 ottobre 2023

I limiti precedentemente applicati al numero massimo di token consentiti nell'output dai modelli di fondazione vengono rimossi dai piani a pagamento. È possibile utilizzare valori di token massimi più elevati durante la progettazione dei prompt sia da Prompt Lab che dalla libreria Python . Il numero esatto di token consentiti differisce per modello. Per ulteriori informazioni sui limiti di token per i piani a pagamento e Lite, vedi Supported foundation models.

Settimana che termina il 13 ottobre 2023

Nuovi notebook in Esempi

12 ottobre 2023

Sono disponibili due nuovi notebook che utilizzano un database vettoriale da Elasticsearch nella fase di recupero del pattern di generazione aumentato del richiamo. I notebook mostrano come individuare le corrispondenze in base alla somiglianza semantica tra i documenti indicizzati e il testo della query inoltrato da un utente.

Soluzioni intermedie in Decision Optimization

12 ottobre 2023

È ora possibile scegliere di vedere un campione di soluzioni intermedie mentre è in esecuzione un esperimento di Decision Optimization . Ciò può essere utile per il debug o per vedere come il risolutore sta procedendo. Per i grandi modelli che impiegano più tempo a risolvere, con soluzioni intermedie è ora possibile identificare rapidamente e facilmente eventuali problemi potenziali con la soluzione, senza dover attendere il completamento della soluzione. Visualizzazione grafica che mostra le statistiche di esecuzione con soluzioni intermedie. È possibile configurare il parametro di distribuzione della soluzione intermedia nella configurazione di esecuzione e selezionare una frequenza per queste soluzioni. Per ulteriori informazioni, consultare Soluzioni intermedie e Parametri di configurazione di esecuzione.

Finestra di dialogo Nuovo modello salvato Decision Optimization

Quando si salva un modello per la distribuzione dall'interfaccia utente di Decision Optimization , è ora possibile esaminare lo schema di input e output e selezionare più facilmente le tabelle che si desidera includere. È inoltre possibile aggiungere, modificare o eliminare i parametri di configurazione di esecuzione, esaminare l'ambiente e i file di modelli utilizzati. Tutti questi elementi vengono visualizzati nella stessa finestra di dialogo Salva come modello per distribuzione . Per ulteriori informazioni, vedi Distribuzione di un modello Decision Optimization utilizzando l'interfaccia utente.

Settimana che termina il 6 ottobre 2023

Ulteriori modelli di fondazione a Francoforte

5 ottobre 2023

Tutti i modelli di base disponibili nel data center di Dallas sono ora disponibili anche nel data center di Francoforte. Il watsonx.ai Prompt Lab e l'inferenziazione del modello di base sono ora supportati nella regione di Francoforte per questi modelli:

  • granite-13b-chat-v1
  • granite-13b-instruct-v1
  • llama-2-70b-chat
  • gpt-neox-20b
  • mt0-xxl-13b
  • starcoder-15.5b

Per ulteriori informazioni su questi modelli, vedi Supported foundation models available with watsonx.ai.

Per i dettagli sui prezzi, vedi Piani diWatson Machine Learning.

Controllare il posizionamento di una nuova colonna nell'operazione Concatena (Data Refinery)

6 ottobre 2023

Ora sono disponibili due opzioni per specificare la posizione della nuova colonna che risulta dall'operazione Concatena : come la colonna più a destra nel dataset o accanto alla colonna originale.

Concatena posizione colonna operazione

In precedenza, la nuova colonna era posizionata all'inizio del dataset.

Importante:

Modificare l'operazione Concatena in uno dei flussi Data Refinery esistenti per specificare la nuova posizione della colonna. In caso contrario, il flusso potrebbe avere esito negativo.

Per informazioni sulle operazioni Data Refinery , vedere Operazioni GUI in Data Refinery.

Settimana che termina il 29 settembre 2023

Modelli di base IBM Granite per la generazione del linguaggio naturale

28 settembre 2023

I primi due modelli della famiglia Granite di modelli di fondazione IBM sono ora disponibili nella region Dallas:

  • granite - 13b - chat - v1: modello di utilizzo generale ottimizzato per i casi di utilizzo delle finestre di dialogo
  • granite - 13b - instruct - v1: modello di uso generale ottimizzato per la risposta alle domande

Entrambi i modelli sono modelli decoder 13B-parameter in grado di prevedere e generare in modo efficiente la lingua in inglese. Essi, come tutti i modelli della famiglia Granite , sono progettati per le aziende. I modelli Granite vengono preformati su più terabyte di dati provenienti sia da origini in lingua generale, come Internet pubblico, sia da origini dati specifiche di settore provenienti dai campi accademico, scientifico, legale e finanziario.

Provalo oggi nel Prompt Lab o esegui un notebook di esempio che utilizza il modello granite-13b-instruct-v1 per l'analisi delle opinioni.

Leggi il post del blog Building AI for business: IBM's Granite foundation models per saperne di più.

Settimana che termina il 22 settembre 2023

Modelli Java Decision Optimization

20 settembre 2023

Decision Optimization I modelli Java possono ora essere distribuiti in Watson Machine Learning. Utilizzando l'API del nodo di lavoro Java, è possibile creare modelli di ottimizzazione con API Java OPL, CPLEX e CP Optimizer. Puoi ora creare facilmente i tuoi modelli localmente, impacchettarli e distribuirli su Watson Machine Learning utilizzando il contenitore tipo fornito nell' operatore Java GitHubpubblico. Per ulteriori informazioni, consultare Distribuzione di modelli Java per Decision Optimization.

Nuovi notebook nell'hub di risorse

21 settembre 2023

È possibile utilizzare i seguenti nuovi notebook in Resource hub:

Settimana che termina il 15 settembre 2023

Esercitazioni di avvio rapido di progettazione e dati sintetici

14 settembre 2023

Prova le nuove esercitazioni per imparare a:

  • Modelli di fondazione di prompt: di solito ci sono diversi modi per richiedere un modello di fondazione per un risultato di successo. In Prompt Lab, è possibile sperimentare la richiesta di diversi modelli di base, esplorare i prompt di esempio e salvare e condividere i prompt migliori. Un modo per migliorare l'accuratezza dell'output generato è quello di fornire i fatti necessari come contesto nel testo di prompt utilizzando il modello di generazione incrementato dal richiamo.
  • Genera dati sintetici: puoi generare dati tabulari sintetici in watsonx.ai. Il vantaggio dei dati sintetici è che è possibile procurarsi i dati su richiesta, quindi personalizzare per adattarli al proprio caso d'uso e produrli in grandi quantità.
Nuove esercitazioni
Supporto didattico Descrizione Esperienza per l'esercitazione
Richiedi un modello di base utilizzando Prompt Lab Sperimenta diversi modelli di base, esplora i prompt di esempio e salva e condividi i tuoi prompt migliori. Richiedi un modello utilizzando Prompt Lab senza codifica.
Richiedi un modello di base con un modello di generazione incrementato dal recupero Richiedi un modello di base utilizzando le informazioni in una knowledge base. Utilizzare il modello di creazione migliorato di richiamo in un notebook Jupyter che utilizza il codice Python .
Genera dati tabulari sintetici Generare dati tabulari sintetici utilizzando un editor di flusso grafico. Selezionare le operazioni per generare i dati.

Comunità Watsonx.ai

14 settembre 2023

Puoi ora unirti alla Communitywatsonx.ai per architetti e builder AI per imparare, condividere idee e connetterti con altri.

Settimana che termina l'8 settembre 2023

Generare dati tabulari sintetici con Synthetic Data Generator

7 settembre 2023

Ora disponibile nelle regioni di Dallas e Francoforte, Synthetic Data Generator è un nuovo strumento di editor grafico su watsonx.ai che puoi utilizzare per generare dati tabulari da utilizzare per i modelli di addestramento. Utilizzando i flussi visivi e un modello statistico, è possibile creare dati sintetici basati sui propri dati esistenti o su uno schema dati personalizzato. È possibile scegliere di mascherare i dati originali ed esportare i dati sintetici in un database o come file.

Per iniziare, vedi Dati sintetici.

Llama-2 Foundation Model per la generazione del linguaggio naturale e la chat

7 settembre 2023

Il modello di fondazione Llama-2 da Meta è ora disponibile nella regione di Dallas. Llama-2 Il modello di chat è un modello di linguaggio auto - regressivo che utilizza un'architettura di trasformatori ottimizzata. Il modello è preaddestrato con dati online disponibili al pubblico e quindi perfezionato utilizzando l'apprendimento di rinforzo dal feedback umano. Il modello è destinato all'uso commerciale e di ricerca in scenari di chat di tipo assistente in lingua inglese.

Estensione LangChain per la libreria Python dei modelli di base

7 settembre 2023

Puoi adesso utilizzare il framework LangChain con i modelli di base in watsonx.ai con la nuova estensione LangChain per la libreria Python dei modelli di base.

Questo notebook di esempio dimostra come utilizzare la nuova estensione Notebook di esempio

Esempio introduttivo per il modello di generazione aumentata di richiamo

7 settembre 2023

La generazione aumentata di recupero è una tecnica semplice e potente per sfruttare una knowledge base per ottenere un output di fatto accurato dai modelli di base.

Consultare: Introduzione al richiamo - generazione aumentata

Settimana che termina il 1 ° settembre 2023

Deprecazione dei commenti nei notebook

31 agosto 2023

A partire da oggi non è possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti sono stati rimossi.

Icona dei commenti nella barra delle azioni del notebook

StarCoder Foundation Model per la generazione e la conversione di codice

31 agosto 2023

Il modello StarCoder di Hugging Face è ora disponibile nella regione Dallas. Utilizza StarCoder per creare prompt per la creazione di codice o per la trasformazione del codice da un linguaggio di programmazione a un altro. Un prompt di esempio illustra come utilizzare StarCoder per generare il codice Python da una serie di istruzioni. Un secondo prompt di esempio dimostra come utilizzare StarCoder per trasformare il codice scritto in C+ + in codice Python .

IBM watsonx.ai è disponibile nella regione di Francoforte

31 agosto 2023

Watsonx.ai è ora generalmente disponibile nel data center di Francoforte e può essere selezionato come regione preferita al momento dell'iscrizione. Il Prompt Lab e l'inferenza del modello di base sono supportati nella regione di Francoforte per questi modelli:

Settimana che termina il 25 agosto 2023

Ulteriori miglioramenti della cache disponibili per Watson Pipelines

21 agosto 2023

Sono disponibili ulteriori opzioni per personalizzare le impostazioni del flusso della pipeline. Ora puoi esercitare un maggiore controllo su quando la cache viene utilizzata per le esecuzioni della pipeline. Per i dettagli, consultare Gestione delle impostazioni predefinite.

Settimana che termina il 18 agosto 2023

Aggiornamenti del nome piano per il servizio Watson Machine Learning

18 agosto 2023

A partire da subito, i nomi dei piani vengono aggiornati per il servizio IBM Watson Machine Learning , come segue:

  • Il piano v2 Standard è ora il piano Essentials . Il piano è progettato per fornire alla tua azienda le risorse necessarie per iniziare a lavorare con i modelli di base e gli asset di machine learning.

  • Il piano Professional v2 è ora il piano Standard . Questo piano fornisce risorse progettate per supportare la maggior parte delle aziende attraverso la creazione di asset per un utilizzo produttivo.

Le modifiche ai nomi dei piani non modificano i termini di servizio. Vale a dire, se sei registrato per utilizzare il piano Standard v2 , ora sarà denominato Essentials, ma tutti i dettagli del piano rimarranno invariati. Allo stesso modo, se sei registrato per utilizzare il piano Professional v2 , non ci sono modifiche oltre alla modifica del nome del piano in Standard.

Per i dettagli su ciò che è incluso con ogni piano, consulta PianiWatson Machine Learning. Per informazioni sui prezzi, trova il tuo piano nella pagina del piano Watson Machine Learning nel catalogo IBM Cloud .

Settimana che termina il 11 agosto 2023

Deprecazione dei commenti nei notebook

7 agosto 2023

Il 31 agosto 2023, non sarà più possibile aggiungere commenti a un notebook dalla barra delle azioni del notebook. Tutti i commenti esistenti che sono stati aggiunti in questo modo verranno rimossi.

Icona dei commenti nella barra delle azioni del notebook

Settimana che termina il 4 agosto 2023

Limite di token aumentato per il piano Lite

4 agosto 2023

Se stai utilizzando il piano Lite per testare i modelli di base, il limite di token per l'input e l'output prompt è ora aumentato da 25.000 a 50.000 per account al mese. Ciò offre una maggiore flessibilità per l'esplorazione dei modelli di base e la sperimentazione dei prompt.

Modello di analisi del testo personalizzato (SPSS Modeler)

4 agosto 2023

Per SPSS Modeler, è ora possibile caricare un modello di analisi del testo personalizzato in un progetto. Ciò fornisce una maggiore flessibilità per acquisire ed estrarre i concetti chiave in un modo univoco per il proprio contesto.

Settimana che termina il 28 luglio 2023

Libreria Python dei modelli Foundation disponibile

27 luglio 2023

Puoi ora richiedere i modelli di base in watsonx.ai in modo programmatico utilizzando una libreria Python .

Consultare: Foundation models Python library

Settimana che termina il 14 luglio 2023

Controlla guardavia AI

14 luglio 2023

È ora possibile controllare se i guardavi AI sono attivati o disattivati nel Prompt Lab. I guardrail AI rimuovono il testo potenzialmente dannoso da entrambi i campi di input e output. Il testo dannoso può includere incitamento all'odio, abuso e volgarità. Per evitare la rimozione di testo potenzialmente dannoso, impostare l'opzione Guardrails AI su off. Vedi Hate speech, abuse e profanity.

Il Prompt Lab con guardrails AI impostato su

Microsoft Azure SQL Database supporta l'autenticazione Azure Active Directory (Azure AD)

14 luglio 2023

Ora è possibile selezionare Active Directory per la connessione Microsoft Azure SQL Database . L'autenticazione Active Directory è un'alternativa all'autenticazione SQL Server . Grazie a questo miglioramento, gli amministratori possono gestire centralmente le autorizzazioni utente per Azure. Per ulteriori informazioni, vedere Microsoft Azure SQL Database connection.

Settimana che termina il 7 luglio 2023

Benvenuti in IBM watsonx.ai!

7 luglio 2023

IBM watsonx.ai fornisce tutti gli strumenti necessari per utilizzare i modelli di base e di machine learning.

Per iniziare:

Prova generative AI search e rispondi in questa documentazione

7 luglio 2023

È possibile visualizzare l'AI generativa in azione provando la nuova opzione di ricerca e risposta AI generativa nella documentazione watsonx.ai . Le risposte vengono generate da un modello di lingua di grandi dimensioni in esecuzione in watsonx.ai e basato sul contenuto della documentazione. Questa funzione è disponibile solo quando stai visualizzando la documentazione mentre hai eseguito l'accesso a watsonx.ai.

Immetti una domanda nel campo di ricerca della documentazione e fai clic sull'icona Try generative AI search and answer (Icona Prova ricerca e risposta AI generativa). Si apre il riquadro Ricerca e risposta AI generativa e risponde alla domanda.

Mostra il riquadro di ricerca e risposta AI generativo

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni