Salta al contenuto

Introduzione

report “Agenti IA e Sicurezza: comprendere per governare”

Il Computer Emergency Response Team (CERT) di AgID, Agenzia per l'Italia Digitale, ha pubblicato il report “Agenti IA e Sicurezza: comprendere per governare”, resoconto di un'analisi esplorativa sul comportamento degli agenti di intelligenza artificiale (AI )nei casi di connessione al codice reale, finalizzata alla comprensione di come i sistemi interpretano le funzioni operative e quali vulnerabilità possono esporre.

"Il CERT dell’Agenzia — si legge a riguardo sul sito di AgID — ha realizzato un esperimento con il Software Development Kit (SDK) Gemini per osservare come un agente IA possa dialogare con il sistema operativo e quali rischi si possano nascondere dietro un’apparente semplicità.

Il documento spiega, passo dopo passo, come un agente IA ‘pensa e agisce’, come interpreta le funzioni che gli vengono assegnate e, soprattutto, come può inavvertitamente rivelare informazioni sensibili se le interfacce non sono progettate con attenzione.

La protezione, infatti, non dipende solo dall'efficienza del modello di IA, ma dalla qualità e robustezza del codice e degli strumenti che lo collegano all'ambiente operativo. Non basta che un agente risponda in modo coerente: ciò che conta è come si comporta quando esegue un’azione reale.

Il punto su cui viene posta l’attenzione — prosegue la nota — è quello della prevenzione. Proprio come in medicina, infatti, la diagnosi precoce - che in questo caso equivale a verificare, testare e revisionare il codice ben prima del suo rilascio - è molto più efficace della cura dopo l’incidente.

Se il codice che collega l’agente all’ambiente operativo è vulnerabile o scritto senza adeguate precauzioni, l’agente si limiterà ad eseguire alla lettera l’errore progettuale, senza preoccuparsi degli eventuali rischi.

La sicurezza, in questo scenario, consiste nel costruire infrastrutture digitali più sicure, un codice che agisca come carreggiata, segnaletica e barriera. Prevenire, dunque, è l’unico modo per garantire che l’intelligenza artificiale rimanga sotto il controllo dell’intelligenza umana.

La sicurezza non può più essere considerata un accessorio, ma deve essere parte integrante della sua architettura fin dall'inizio"

Approfondisci sul sito di AgID


Ultimo aggiornamento: 09-12-2025, 16:51