Intelligenza Artificiale, cabina di regia italiana “Necessario un controllo sui sistemi ad alto rischio”

ROMA (ITALPRESS) & Creare strumenti concreti per garantire che l& umano possa intervenire, comprendere e fermare un sistema di intelligenza artificiale quando necessario. È questo il messaggio lanciato dal Comitato italiano Data Governan

24 novembre 2025 11:52
Intelligenza Artificiale, cabina di regia italiana “Necessario un controllo sui sistemi ad alto rischio” -
Condividi

ROMA (ITALPRESS) – Creare strumenti concreti per garantire che l’essere umano possa intervenire, comprendere e fermare un sistema di intelligenza artificiale quando necessario. È questo il messaggio lanciato dal Comitato italiano Data Governance e AI Committee, promosso da SPES Academy, che riunisce istituzioni, imprese e mondo accademico impegnati a rendere operativo l’AI Act europeo in Italia. Il Comitato – di cui fanno parte tra gli altri anche Bruno Frattasi, Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale, Mario Nobile, Direttore Generale dell’Agenzia per l’Italia Digitale e Guido Scorza, Componente del Collegio Garante per la Protezione dei Dati Personali – pone l’attenzione sul tema sull’Art. 14, ossia la capacità dell’uomo di mantenere il potere decisionale e di blocco nei confronti dei sistemi di AI ad alto rischio. Gli esperti propongono un quadro nazionale fondato su cinque pilastri – spiegabilità utile, progettazione by design, formazione multidisciplinare, controllo effettivo e proporzionalità – per assicurare che la macchina resti sempre sotto presidio umano, anche nei processi automatizzati e nelle applicazioni critiche che possono produrre conseguenze rilevanti sulla vita, sui diritti o sulla dignità delle persone. Fondamentale avere una strategia nazionale di formazione sull’AI Literacy, rivolta a funzionari pubblici e manager d’impresa, per dotare l’Italia di competenze critiche e interdisciplinari necessarie a esercitare un controllo umano effettivo sui processi automatizzati.

“L’AI Act ci ricorda che il controllo umano non è un dettaglio tecnico, ma un presidio costituzionale. Significa riconoscere che, anche nell’automazione più spinta, deve esistere sempre uno spazio per l’intervento umano: comprensione, supervisione, possibilità di fermare il sistema quando i diritti o la dignità sono in gioco. La sfida è tradurre questo principio in pratica quotidiana. Per farlo servono competenze, accountability e un’architettura di governance che non rallenti l’innovazione, ma la orienti. Se vogliamo che l’Italia interpreti l’AI non come una minaccia ma come un’occasione, dobbiamo costruire una cultura diffusa dell’AI Literacy e un modello di controllo umano effettivo che sia proporzionato, verificabile e realmente agibile. È qui che si misura la nostra capacità di trasformare la regolazione in valore, e la tecnologia in un fattore di democrazia” le parole di Oreste Pollicino, Coordinatore del Comitato. “L’intelligenza artificiale non può diventare un nuovo potere senza volto: serve un modello di governance che rimetta l’essere umano al centro delle decisioni. Le nostre proposte offrono alla politica una base concreta per costruire una Costituzione digitale italiana, coerente con il quadro europeo ma capace di valorizzare la responsabilità, la trasparenza e la sicurezza come fattori di competitività e democrazia mettendo l’individuo sempre al primo posto” ha commentato Valerio De Luca, Presidente del Comitato e Fondatore della SPES Academy.

– foto di repertorio IPA Agency –

(ITALPRESS).

✅ Fact Check FONTE VERIFICATA

Segui NotiziaOk