Innovazione
Approvato l’AI Act, l’UE è la prima a regolamentare l’intelligenza artificiale
Di Alessandro Caruso
L’AI Act è legge europea, il Consiglio dell’Unione Europea ha approvato oggi definitivamente la legge Ue sull’intelligenza artificiale, su cui si dibatteva da mesi. L’indirizzo della legislazione è chiaro: maggiore è il rischio di causare danni alla società, più severe saranno le regole. Si tratta di fatto della prima legislazione sistemica al mondo sul tema e quindi l’auspicio dei legislatori europei è che tale normativa diventi uno standard globale per la regolamentazione dell’intelligenza artificiale, un ambito tecnologico nel quale l’Ue è rimasta indietro rispetto a Usa e Cina.
COSA PREVEDE LA NUOVA LEGGE
La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’Ue da parte di attori pubblici e privati. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’Ue e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge si applica solo ad ambiti soggetti al diritto dell’Ue e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.
La nuova legge classifica i diversi tipi di IA in base al rischio. I sistemi che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, mentre quelli ad alto rischio saranno autorizzati, ma soggetti a una serie di requisiti e obblighi per accedere al mercato dell’Ue. Quando il rischio è inaccettabile, invece, scattano i divieti: è il caso ad esempio delle tecniche manipolative, delle pratiche di polizia predittiva, del riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole. E ancora è il caso del riconoscimento facciale, il cui uso è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose.
L’IA GENERATIVA
Altra novità è il capitolo dedicato all’IA generativa, inserito in corso d’opera con l’obiettivo di dare una prima risposta alla diffusione di sistemi come ChatGPT. I modelli di IA per scopi generali (Gpai) che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio in materia di trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica. La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato. A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe che possono andare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato globale.
DOVE SI APPLICA
L’AI Act si applica solo alle aree che rientrano nel diritto dell’Ue e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa e per la ricerca. Dopo essere stato firmato dai Presidenti del Parlamento europeo e del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta Ufficiale dell’Ue nei prossimi giorni ed entrerà in vigore venti giorni dopo la pubblicazione.