Innovazione
Intelligenza artificiale, l’accordo Ue stabilisce i diritti fondamentali
Di Giampiero Cinelli
L’Europa sta per avere la prima normativa al mondo sull’intelligenza artificiale. A Bruxelles infatti è stato trovato un accordo dopo 36 ore di negoziato tra Consiglio, Commissione e Parlamento, il cosiddetto “Trilogo”. Ora si attende il testo definitivo redatto dai tecnici che dovrà essere votato da Consiglio e Parlamento.
Progresso e diritti assieme
Nella lunga trattativa sono emerse visioni differenti e idee diverse, a seconda dei Paesi, su quali priorità individuare e in quali tempistiche inquadrarle. Va detto che la regolamentazione non sarà nero su bianco e approvata almeno fino alla primavera del 2024, e potrebbero passare anche due anni per raggiungere la reale effettività delle leggi. Sul versante del mercato, invece, da quando il testo entrerà in vigore le aziende avranno un tempo minimo di sei mesi per adeguarsi ai principali standard, finestra che poi si amplia nei casi più complessi. Ecco appunto perché si ragiona sui 24 mesi al massimo. Potrebbe sembrare molto, ma in realtà non sarà così semplice per le grandi corporations, specialmente quelle americane (peraltro le più impattanti al momento, si pensi a ChatGPT) le quali ancora non hanno, nel loro territorio, delle linee guida così stringenti. L’obiettivo dell’Unione Europea, infatti, per quanto riguarda lo spazio di sua competenza, era quello di dare un orientamento affinché lo sviluppo di queste promettenti tecnologie non venisse affaticato, pur salvaguardando i diritti fondamentali dei cittadini.
Cosa non si potrà fare
Il quadro, sebbene ancora non si abbia il documento ufficiale, rispecchia i livelli di rischio già elaborati nelle precedenti attività legislative, considerando come pericolo maggiore quello del riconoscimento biometrico e facciale, che infatti resta vietato se serve a reperire dati su idee politiche, religiose, etniche e di orientamento sessuale. Non sarà consentito neppure lo scan delle emozioni nelle scuole e dei dipendenti nel mondo del lavoro o di potenziali candidati, ribadendo che l’accesso a tali informazioni non può determinare vantaggi o svantaggi all’interno delle organizzazioni, o in generale nella società analizzando il comportamento o le caratteristiche personali. Un altro divieto è quello di reperire immagini dal web per creare database di riconoscimento facciale, come pure di usare l’intelligenza artificiale per mostrare le vulnerabilità fisiche e sociali delle persone. Vincoli previsti anche alle IA che possono influenzare le idee e il comportamento dei cittadini in contesti sociali, politici ed elettorali.
Le deroghe per la polizia
I sistemi di riconoscimento facciale sono dunque vietati in toto? No, le forze dell’ordine potranno utilizzarli ma a condizioni ben definite, quando serva individuare delle vittime di crimini (rapimento, sfruttamento sessuale, tratta), individuazione di terroristi, individuazione di soggetti sospettati di aver commesso i crimini sopra menzionati o reati gravi come quelli legati all’associazione mafiosa all’ambiente e le uccisioni).
Standard complessi
Le realtà che utilizzano l’IA nei settori come ad esempio le banche e le assicurazioni, ovvero con sistemi classificati ad alto rischio di violazione di diritti fondamentali, dovranno obbligatoriamente presentare una valutazione di impatto e ai cittadini sarà permesso avere chiarimenti sugli operati e fare reclami. In generale per quanto riguarda le tecnologie ad alto rischio la messa in regola è complessa e saranno necessarie valutazioni, test, dettagliate documentazioni (riguardo pure ai sistemi di mitigazione del rischio) da presentare alla Commissione Europea. Meno stringenti invece gli iter per le IA a basso impatto, a cui si chiedono documenti che attestino la trasparenza nei confronti dell’utente e delucidazioni su quali contenuti sono stati usati per addestrare la macchina.
Il modello di sviluppo
Al fine do incentivare il contributo delle imprese più piccole allo sviluppo dell’intelligenza artificiale. l’accordo Ue promuove degli ambienti controllati (in gergo aziendale “sandbox”), istituiti dalle autorità nazionali, in cui gli attori vigilati possano testare i prodotti nel mondo reale, prima del collocamento sul mercato.