AI Act: verso un futuro sicuro e innovativo per l'UE

 

AI Act: verso un Futuro Sicuro e Innovativo per l'UE

Introduzione

Dopo le trattative, Consiglio e Parlamento UE hanno trovato un accordo provvisorio sulle regole sull'intelligenza artificiale, chiamate Artificial Intelligence Act. Questa legge vuole garantire che i sistemi di Intelligenza Artificiale venduti e usati nell'UE siano sicuri e rispettino i diritti umani e i principi dell'UE. È una proposta importante che vuole anche promuovere gli investimenti e l'innovazione nell'IA in Europa.

Contesto

La proposta dell'UE per sistemi di IA sicuri e leciti nel mercato unico è importante per lo sviluppo e l'adozione di tali tecnologie, nel rispetto dei diritti fondamentali.

La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico orizzontale uniforme per l'IA allo scopo di garantire certezza giuridica. L'Atto promuove investimenti e innovazioni nell'IA, migliora la governance e l'applicazione delle leggi sui diritti fondamentali e la sicurezza e facilita lo sviluppo di un mercato unico per le applicazioni di IA.

Il Commento di Carme Artigas

La segretaria di Stato spagnola ha detto che è un traguardo storico e importante per il futuro.

L'accordo affronta in modo efficace una sfida globale in un ambiente tecnologico in rapida evoluzione, focalizzandosi su un'area chiave per il futuro delle nostre società ed economie. Artigas sottolinea l'importanza di mantenere un equilibrio delicato tra l'innovazione e il rispetto dei diritti fondamentali dei cittadini.

Principali Elementi dell'Accordo Provvisorio

Rispetto alla proposta iniziale della Commissione, l'accordo provvisorio introduce nuovi elementi chiave, tra cui:

  • Regole per modelli di IA generale ad alto impatto e sistemi di IA ad alto rischio.
  • Un sistema di governance rivisto con alcuni poteri di applicazione a livello dell'UE.
  • Estensione dell'elenco delle proibizioni, con la possibilità di utilizzare l'identificazione biometrica remota da parte delle autorità di polizia in luoghi pubblici, soggetta a salvaguardie.
  • Migliore protezione dei diritti con obbligo per i responsabili di sistemi di IA ad alto rischio di valutare l'impatto sui diritti prima di usarli.
  • Classificazione dei Sistemi di IA ad Alto Rischio e Pratiche Vietate:

L'accordo protegge i sistemi di IA a basso rischio, evitando che siano inclusi se non violano i diritti fondamentali o presentano rischi significativi. Vengono vietati alcuni utilizzi di IA considerati inaccettabili, come la manipolazione comportamentale cognitiva e il riconoscimento delle emozioni sul luogo di lavoro e nelle istituzioni educative.

Vuoi chiedere un parere ai nostri esperti di Ethic AI?

Eccezioni per le Forze dell'Ordine

Considerando le specificità delle forze dell'ordine, l'accordo apporta modifiche alla proposta della Commissione per consentire l'uso di sistemi di IA ad alto rischio in situazioni di emergenza. Vengono introdotte misure aggiuntive per garantire la protezione dei diritti fondamentali contro possibili abusi di sistemi di IA.

Architettura di Governance e Sanzioni

Viene creato un Ufficio per l'IA nella Commissione. L'Ufficio ha il compito di controllare i modelli di IA più avanzati. Inoltre, aiuta a stabilire standard e test per l'IA.

Infine, l'Ufficio si occupa di far rispettare le regole in tutti gli Stati membri. Sono previste multe proporzionate per le violazioni dell'Atto sull'IA, con limitazioni più moderate per le PMI e le start-up.

Trasparenza e Protezione dei Diritti Fondamentali

L'accordo prevede una valutazione dell'impatto sui diritti fondamentali prima di mettere sul mercato un sistema di IA ad alto rischio. Sono inoltre previste maggiori trasparenze per l'uso di sistemi di IA ad alto rischio, con l'obbligo per le entità pubbliche di registrarsi nel database dell'UE per tali sistemi.

Misure a Supporto dell'Innovazione

Per favorire l'innovazione, vengono fatte modifiche alle misure di sostegno, come i "sandbox" per lo sviluppo di sistemi di IA e la possibilità di testarli in situazioni reali.

Entrata in Vigore e Prossimi Passi

L'accordo provvisorio stabilisce che l'AI Act entrerà in vigore due anni dopo la sua adozione, con alcune eccezioni per disposizioni specifiche. Il lavoro tecnico continuerà nelle prossime settimane per finalizzare i dettagli della nuova normativa prima di sottoporre il testo di compromesso ai rappresentanti degli Stati membri per l'approvazione.

Dopo l'accordo provvisorio, il lavoro procederà a livello tecnico per finalizzare i dettagli della normativa. Il testo di compromesso sarà sottoposto all'approvazione dei rappresentanti degli Stati membri (Coreper) una volta concluso questo lavoro. Sarà necessaria la conferma da parte di entrambe le istituzioni e la revisione legale-linguistica prima dell'adozione formale da parte dei co-legislatori.

Conclusione

L'accordo provvisorio sull'AI Act rappresenta un passo significativo verso un futuro in cui l'IA sia sicura, rispettosa dei diritti fondamentali e promotrice di innovazione. La sua attuazione richiederà collaborazione tra le istituzioni europee, gli Stati membri e gli attori del settore dell'IA. L'UE vuole stabilire un regolamento globale per l'IA, come ha fatto con il GDPR, per influenzare la regolamentazione tecnologica a livello mondiale.