Atlante del rischio AI

Esplorate questo atlante per comprendere alcuni dei rischi del lavoro con l'IA agenziale, l'IA generativa e i modelli di apprendimento automatico.
Su questa pagina
Nuovi e amplificati rischi dell'IA agenziale

I rischi sono categorizzati con uno dei seguenti tag:
Un agente di IA è un'entità software che impiega tecniche di IA e ha la facoltà di agire nel suo ambiente in base a obiettivi prefissati, il che significa che può decidere quali azioni eseguire e ha la capacità di eseguirle. I sistemi di IA agenziali sono sistemi software che sfruttano gli agenti di IA (insieme ad altri componenti come strumenti, pianificatori, memoria e set di dati), perseguono obiettivi e possono operare autonomamente.
Gli agenti di intelligenza artificiale possono eseguire tre tipi di azioni:
- Compiere azioni che abbiano un impatto sul mondo (fisico o digitale).
- Consultare le risorse e utilizzare gli strumenti.
- Decidere quale processo scegliere nella selezione di risorse/strumenti/altri agenti AI e selezionarli.
I rischi di questa sezione sono specifici o amplificati dall'IA agenziale. Dal momento che gli agenti recenti sono costruiti su modelli linguistici di grandi dimensioni, i rischi dell'IA generativa nella sezione seguente possono essere applicati anche all'IA agenziale.
Equità
Privacy<
Allineamento valore
Affidabilità
Inefficienza computazionale
Governo
Impatto sociale
Esplicabilità
Tutti i rischi

I rischi sono categorizzati con uno dei seguenti tag:
I rischi descritti di seguito sono applicabili ai modelli di IA generativa e ai modelli di IA tradizionale (non generativa). Questi rischi possono essere applicati anche all'IA agenziale, soprattutto nei casi in cui il comportamento o l'output dell'agente sono determinati utilizzando un modello di IA generativa o tradizionale.