Esteri / Innovazione
AI-Act, l’accordo del Parlamento europeo
Di Luca Carabetta
Giovedì 27 aprile, dopo diversi mesi di trattative, il Parlamento Europeo ha raggiunto un accordo sul cosiddetto AI-Act, il primo regolamento organico sull’Intelligenza Artificiale al mondo. L’approvazione finale è prevista per metà giugno.
Il voto arriva in un momento storico molto importante. La democratizzazione dell’AI generativa ha mostrato concretamente al grande pubblico sia le enormi potenzialità tecnologiche, che i rischi della loro implementazione.
È proprio il concetto di rischio a fare da perno del nuovo regolamento che divide le applicazioni in tre categorie di rischio: basso, alto e inaccettabile.
Le applicazioni si definiscono a rischio inaccettabile se considerate contrarie ai valori dell’Unione in quanto ne violano i diritti fondamentali. Trattasi dell’attribuzione di un punteggio sociale da parte di autorità pubbliche, dell’identificazione biometrica remota in tempo reale in spazi pubblici o di pratiche manipolatorie delle persone con particolare riferimento alla tecniche subliminali nei confronti di gruppi vulnerabili. Queste applicazioni sono vietate.
Le applicazioni ad alto rischio sono quelle che possono causare impatti negativi rispetto alla salute, alla sicurezza o ai diritti fondamentali delle persone. Tali sistemi sono consentiti sul mercato europeo a condizione che siano sottoposti a una valutazione della conformità ex ante e che l’elaborazione dei dati avvenga in ambienti controllati. Nell’ultima bozza sono state inoltre introdotte novità importanti sulla tutela dei dati sensibili come l’orientamento sessuale, politico o religioso.
Le applicazioni che non vengono considerate ad alto rischio o a rischio inaccettabile, rientrano nel perimetro del basso rischio.
Una novità importante introdotta nella nuova bozza riguarda la maggiore regolamentazione dei “foundation models”, quei modelli che analizzano enormi quantità di dati e che possono essere utilizzati per scopi non predeterminati. Ai produttori sarà richiesto di minimizzare i rischi, di verificare la correttezza dei dataset di addestramento e di rispettare i diritti dell’Unione. Ulteriori oneri di trasparenza sono poi previsti per i foundation models alla base dell’Intelligenza Artificiale Generativa. Sarà richiesto in particolare di illustrare nei dettagli le modalità di utilizzo dei dati nell’addestramento dei modelli e di far disclosure su eventuali contenuti protetti da copyright utilizzati.
In conclusione l’AI-Act rappresenta sicuramente un punto di riferimento per la regolazione di questo ambito a livello internazionale. Occorre però riflettere sul fatto che – parlando di tecnologie disruptive e in rapida crescita – il mercato potrebbe cambiare radicalmente nell’arco di pochi mesi e rendere quindi superate alcune disposizioni. Altra questione rilevante da valutare sarà l’impatto dei maggiori oneri su startup e PMI, vero motore di questa rivoluzione.
Le istituzioni europee dovranno quindi monitorare costantemente il settore, mantenendo le dovute interlocuzioni con esperti, accademici e stakeholder ben oltre l’approvazione del regolamento stesso, al fine di intervenire prontamente in caso di necessità.