0 / 0
Torna alla versione inglese della documentazione
Rischio di uso pericoloso per l'IA
Ultimo aggiornamento: 12 dic 2024
Rischio di uso pericoloso per l'IA
Utilizzo non corretto Icona che rappresenta i rischi di abuso.
Rischi associati alla produzione
Utilizzo non corretto
Nuovo per l'AI generativa

Descrizione

I modelli di IA generativa potrebbero essere utilizzati con il solo intento di danneggiare le persone.

Perché l'uso pericoloso è una preoccupazione per i modelli di fondazione?

I modelli linguistici di grandi dimensioni sono spesso addestrati su grandi quantità di informazioni disponibili pubblicamente, che possono includere informazioni sul danneggiamento di altri. Un modello che ha questo potenziale deve essere attentamente valutato per tali contenuti e adeguatamente governato.

Immagine di sfondo per i rischi associati all'input
Esempio

Cyberattacchi basati sull'intelligenza artificiale

Secondo l'articolo della fonte, gli hacker stanno sperimentando sempre più spesso con ChatGPT e altri strumenti di intelligenza artificiale, consentendo a una gamma più ampia di attori di portare a termine attacchi informatici e truffe. Microsoft ha avvertito che gli hacker sostenuti dallo Stato hanno utilizzato gli LLM di OpenAI’s per migliorare i loro attacchi informatici, affinando gli script e perfezionando le loro tecniche mirate. L'articolo parla anche di un caso in cui Microsoft e OpenAI affermano di aver rilevato tentativi di attacco da parte di aggressori e un forte aumento di cyberattacchi che hanno come obiettivo uffici governativi.

Immagine di sfondo per i rischi associati all'input
Esempio

Attacchi biologici basati sull'intelligenza artificiale

Come si legge nell'articolo, i modelli linguistici di grandi dimensioni potrebbero aiutare nella pianificazione e nell'esecuzione di un attacco biologico. Vengono citati diversi scenari di prova, come l'uso dei LLM per identificare gli agenti biologici e le relative possibilità di nuocere alla vita umana. L'articolo ha anche evidenziato una questione aperta, ovvero il livello di minaccia che i LLM rappresentano al di là delle informazioni dannose facilmente disponibili online.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni