0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di evasione per l'IA

Rischio di attacco di evasione per l'IA

Rischi associati all'input
Inferenza
Affidabilità
Amplificato da AI generative

Descrizione

Tentativo di creare un output del modello con risultati non corretti perturbando i dati inviati al modello sottoposto a training.

Perché l'evasione è una preoccupazione per i modelli di fondazione?

Gli attacchi di evasione modificano il comportamento del modello, di solito a beneficio dell'aggressore. Se non adeguatamente contabilizzate, le entità commerciali potrebbero subire multe, danni reputazionali e altre conseguenze legali.

Immagine di sfondo per i rischi associati all'input
Esempio

Attacchi avversari ai componenti AI dei veicoli autonomi

Un rapporto dell'Agenzia dell'Unione europea per la sicurezza informatica (ENISA) ha rilevato che i veicoli autonomi sono "altamente vulnerabili a un'ampia gamma di attacchi" che potrebbero essere pericolosi per i passeggeri, i pedoni e le persone su altri veicoli. Il rapporto afferma che un attacco contraddittorio potrebbe essere utilizzato per rendere l'IA "cieca" per i pedoni manipolando il componente di riconoscimento dell'immagine per classificare erroneamente i pedoni. Questo attacco potrebbe portare al caos per le strade, in quanto le auto autonome potrebbero colpire i pedoni sulle strade o sulle passerelle.

Altri studi hanno dimostrato potenziali attacchi contradditori ai veicoli autonomi:

  • Ingannando gli algoritmi di machine learning facendo piccole modifiche alla grafica dei segnali stradali, come l'aggiunta di adesivi.
  • I ricercatori della sicurezza di Tencent hanno dimostrato come l'aggiunta di tre piccoli adesivi in un incrocio potrebbe far sì che il sistema autopilota di Tesla si svii nella corsia sbagliata.
  • Due ricercatori di McAfee hanno dimostrato come l'utilizzo di solo nastro elettrico nero possa ingannare una Tesla del 2016 in una pericolosa esplosione di accelerazione cambiando il limite di velocità da 35 mph a 85 mph.

    Argomento principale: Atlas rischio AI

    Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

    Ricerca e risposta AI generativa
    Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni