0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di evasione per l'IA
Ultimo aggiornamento: 12 dic 2024
Rischio di attacco di evasione per l'IA
Robustezza Icona che rappresenta i rischi di robustezza.
Rischi associati all'input
Inferenza
Affidabilità
Amplificato da AI generative

Descrizione

Gli attacchi di evasione tentano di far sì che un modello produca risultati errati perturbando leggermente i dati di ingresso inviati al modello addestrato.

Perché l'evasione è una preoccupazione per i modelli di fondazione?

Gli attacchi di evasione modificano il comportamento del modello, di solito a beneficio dell'aggressore.

Immagine di sfondo per i rischi associati all'input
Esempio

Attacchi avversari ai veicoli autonomi

Un rapporto dell'Agenzia dell'Unione europea per la sicurezza informatica (ENISA) ha rilevato che i veicoli autonomi sono "altamente vulnerabili a un'ampia gamma di attacchi" che potrebbero essere pericolosi per i passeggeri, i pedoni e le persone su altri veicoli. Il rapporto afferma che un attacco contraddittorio potrebbe essere utilizzato per rendere l'IA "cieca" per i pedoni manipolando il componente di riconoscimento dell'immagine per classificare erroneamente i pedoni. Questo attacco potrebbe portare al caos per le strade, in quanto le auto autonome potrebbero colpire i pedoni sulle strade o sulle passerelle.

Altri studi hanno dimostrato potenziali attacchi contradditori ai veicoli autonomi:

  • Ingannando gli algoritmi di machine learning facendo piccole modifiche alla grafica dei segnali stradali, come l'aggiunta di adesivi.
  • I ricercatori della sicurezza di Tencent hanno dimostrato come l'aggiunta di tre piccoli adesivi in un incrocio potrebbe far sì che il sistema autopilota di Tesla si svii nella corsia sbagliata.
  • Due ricercatori di McAfee hanno dimostrato come l'utilizzo di solo nastro elettrico nero possa ingannare una Tesla del 2016 in una pericolosa esplosione di accelerazione cambiando il limite di velocità da 35 mph a 85 mph.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni