Innovazione
AI Act: trovato accordo sul primo quadro regolatorio sovranazionale sull’Intelligenza Artificiale
Di Luca Carabetta
Dopo oltre due anni di lavori e in particolare a seguito delle ultime intense settimane di negoziati, è stato trovato un accordo politico finale sull’AI Act, il primo quadro regolatorio sovranazionale al mondo sull’intelligenza artificiale.
L’approvazione dell’atto era tutt’altro che scontata, sia per via dei numerosi rallentamenti e strappi derivanti dal continuo evolvere della tecnologia (già a Maggio 2023 era stato trovato un primo accordo che includeva le novità dell’AI generativa), che a causa della recente presa di posizione di Francia, Germania e Italia contro una più rigida regolamentazione europea e a favore di un’autoregolamentazione degli operatori di mercato.
In particolare i tre paesi avevano sollevato questioni sul rischio di over-regulation per gli sviluppatori dei cosiddetti foundation models, modelli avanzati di AI (come GPT-4) e sul meccanismo sanzionatorio stringente.
Le obiezioni sono rientrate nell’arco delle 72 ore di negoziato tra Parlamento Europeo, Commissione Europea e rappresentanti degli Stati Membri.
Per ciò che concerne i modelli di AI, si è scelto di definire due livelli di azioni:
- i modelli di primo livello vengono definiti come “ad alto impatto”. Si tratta di modelli avanzati (al momento il discrimine è sul potere di calcolo, analogamente a quanto previsto dal recente ordine esecutivo del Presidente Biden). Per questi modelli sarà necessaria una validazione preventiva e una valutazione di impatto prima di potere accedere al mercato europeo;
- per i modelli di secondo livello, non ad alto impatto, saranno invece previsti precisi obblighi di trasparenza per potere accedere al mercato europeo.
Importanti novità anche sul fronte del controllo biometrico a distanza: si è deciso di consentirne l’utilizzo alle forze dell’ordine solamente in alcuni casi come la minaccia di un attacco terroristico, la ricerca di vittime, la persecuzione di reati gravi.
Rimangono vietate pratiche manipolatorie, riconoscimento delle emozioni in luoghi critici come scuole o luoghi di lavoro, social scoring e, in generale, le pratiche che consentono di ricavare informazioni private e sensibili dai cittadini europei.
Le sanzioni previste sono considerevoli: da 7,5 a 35 milioni di euro oppure da 1,5% a 7% del fatturato.
Il provvedimento sarà ufficialmente approvato nei prossimi mesi. Dopo sei mesi dall’entrata in vigore sarà già valido per i sistemi vietati mentre per le altre categorie entrerà in vigore dopo due anni. Sin da ora la DG Connect avrà la responsabilità dell’AI Pact, un veicolo che consentirà alle aziende che vorranno volontariamente adeguarsi prima dell’entrata in vigore effettiva, di poterlo fare.
Si prevede inoltre la possibilità di istituire delle regulatory sandboxes per le startup e le PMI in fase di sperimentazione.
Meccanismo virtuoso infine è quello dell’aggiornamento dinamico della normativa. L’AI Act potrà infatti essere aggiornato con modalità alternative a quelle legislative standard di modo da restare al passo con un contesto tecnologico e geopolitico in rapida evoluzione. Sarà inoltre fondamentale valutare l’impatto del provvedimento nel mondo produttivo, con particolare riferimento alle startup.
Il provvedimento pare quindi soddisfare il principio su cui fu concepito nel 2020-2021 e cioè la tutela dei diritti fondamentali dei cittadini europei rispetto a una rivoluzione tecnologica così dirompente. Non è un caso che tutta l’impostazione del provvedimento sia focalizzata sul concetto di rischio.
In conclusione possiamo affermare che l’Europa abbia sicuramente segnato un passaggio storico, nonostante le notevoli difficoltà emerse. Questa normativa potrà certamente tutelare i cittadini europei ma al contempo potrebbe generare un “dumping regolatorio”. È infatti necessario lavorare per un framework globale per il settore, coinvolgendo sia gli Stati Uniti che la Cina, operatori chiave di questa rivoluzione.