Innovazione / News
Il G7 e la governance dell’intelligenza artificiale: il paper dell’IAI
Di Ilaria Donatio
“Il G7 e la governance dell’intelligenza artificiale: verso un’agenda più profonda e più ampia” è il titolo del paper curato da Francesca Ripamonti, ricercatrice nel programma “Multilateralismo e Governance Globale” presso l’IAI, presentato oggi all’Istituto Affari Internazionali, nell’ambito di un evento in collaborazione con Microsoft.
Negli ultimi decenni, i governi di tutto il mondo hanno iniziato a riconoscere nell’intelligenza artificiale, una risorsa in grado di attivare competitività e innovazione dalla portata rivoluzionaria. Le potenze leader nel digitale si sono impegnate in una corsa per promuovere le rispettive strategie di intelligenza artificiale, radicate in principi diversi e interessi nazionali divergenti.
Gli Stati Uniti, da dove proviene la maggior parte delle aziende di IA, hanno spinto verso un approccio orientato al mercato e impegni di tipo volontario, ritenendo che la regolamentazione inibisca l’innovazione. Al contrario, l’Unione Europea ha promosso un approccio incentrato sull’uomo e basato sulla valutazione dei rischi. Altre potenze come Cina e India hanno avanzato modelli alternativi, focalizzati rispettivamente sull’innovazione controllata dallo Stato e l’intelligenza artificiale mirata al rafforzamento dell’infrastruttura digitale pubblica per ottenere una migliore connettività e inclusione.
Soprattutto Stati Uniti e Cina hanno beneficiato dei vantaggi economici delle tecnologie intelligenti. Il loro potenziale per aumentare la produttività e stimolare la crescita è sconcertante: si prevede che contribuirà per circa 15,7 trilioni di dollari americani al PIL globale, entro il 2030, ma questi guadagni rischiano di rimanere geograficamente concentrati.
Le due sfide
Lo studio di Ripamonti valuta il ruolo del G7 nell’affrontare due distinte sfide di governance: la pronunciata frammentazione del panorama delle politiche sull’intelligenza artificiale e l’aumento del divario digitale tra paesi leader nel digitale e paesi a basso e medio reddito in ritardo.
È probabile che le sfide ostacolino un approccio globale alla regolamentazione e all’alimentazione dell’IA nella crescente disuguaglianza globale.
Il G7 deve far fronte a numerosi ostacoli per una governance digitale globale che funzioni. Le divergenze normative tra gli Stati del Gruppo hanno complicato lo sviluppo di un approccio globale a cui pure tende: nonostante le diversità regolatorie nazionali, i paesi del G7 si allineano sulla condivisione di principi come la trasparenza, un termine generico che si riferisce alla capacità di spiegare come i sistemi di intelligenza artificiale prendono decisioni, perché producono risultati specifici e quali dati vengono utilizzati.
L’Osservatorio sulle politiche sull’intelligenza artificiale sviluppato dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) mappa le iniziative politiche in materia di intelligenza artificiale, le azioni normative e l’attuazione delle legislazioni di oltre 70 paesi. Ciò dimostra che i paesi del G7 sono attivi nel promuovere questo principio, con gli Stati Uniti e il Giappone di gran lunga migliori degli altri nel garantire trasparenza, seguiti da Germania, Canada e Regno Unito.
Questo principio è presente anche nella strategia italiana sull’IA pubblicata durante la sua presidenza del G7, nel luglio 2024: assumendo la presidenza del G7 a gennaio scorso, l’Italia ha individuato come obiettivo fondamentale la promozione di una cooperazione più approfondita nel campo dell’intelligenza artificiale priorità.
Trasparenza
Il principio della trasparenza è stato introdotto per la prima volta dal così detto Hiroshima Process, che contiene undici principi guida internazionali per i sistemi avanzati di IA, lanciati dal Giappone durante la sua presidenza del G7 nell’ottobre 2023. Questo documento è la normativa diventata pietra miliare per quanto riguarda l’intelligenza artificiale, mai raggiunta sotto l’egida del G7.
I principi guida di Hiroshima sono integrati dal Codice di condotta Internazionale per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, una guida volontaria per gli sviluppatori di intelligenza artificiale che mira a “promuovere la sicurezza, la protezione e l’affidabilità”, una misura temporanea in attesa di norme più vincolanti.
I principi normativi stabiliti a livello del G7 hanno il potenziale per informare processo di regolamentazione dell’IA dei membri del G7 a livello nazionale, influenzando anche le scelte dei paesi che la pensano allo stesso modo in questo ambito. Ad esempio, nell’ordine esecutivo di Biden del 2023 sull’intelligenza artificiale e la guida normativa aggiornata sull’IA del Giappone sono stati accolti principi inclusi nel processo di Hiroshima, come la sicurezza e l’affidabilità dell’IA. Inoltre, secondo funzionari dell’UE, il processo di elaborazione della legge europea – l’AI Act – avrebbe tratto ispirazione dallo stesso Hiroshima Process.
Il toolkit per l’IA
Sotto la presidenza italiana, il G7 ha individuato le principali aree politiche su cui costruire maggiori iniziative convergenza, compresi i settori abilitati all’intelligenza artificiale, come le infrastrutture pubbliche digitali (DPI) e servizi governativi digitali. Altre iniziative adottate nel 2024 includono il Toolkit del G7 per l’intelligenza artificiale nel settore pubblico che è stato progettato per aiutare i governi a fornire servizi digitali alle rispettive “economie e società, tutelando nel contempo i diritti umani e le libertà fondamentali”.
Il Toolkit è stato sviluppato dall’OCSE in collaborazione con l’UNESCO, attingendo ai contributi forniti da Paesi del G7: ha lo scopo di aiutare a valutare i diversi approcci all’intelligenza artificiale adozione nel settore pubblico e a identificare le migliori pratiche per sviluppare un approccio coordinato per un’adozione sicura, protetta e affidabile dell’IA nel settore pubblico.
Il ruolo normativo del G7 può essere ostacolato dalla mancanza di organi permanenti per attuare politiche attraverso le diverse presidenze nazionali. Maggiore cooperazione con le organizzazioni internazionali come l’UNESCO e l’OCSE possono facilitare l’attuazione dei principi e la progettazione di meccanismi di monitoraggio per garantire una maggiore continuità attraversi le presidenze che cambiano del G7. Tuttavia, le sfide che si prospettano sono numerose.
Uno sforzo più ampio per il G7
Il potenziale di trasformazione dell’intelligenza artificiale offre enormi opportunità per guidare la cosiddetta quarta rivoluzione industriale nei paesi a basso e medio reddito. Tuttavia, la maggior parte dei paesi del mondo sono alle prese con un divario digitale che potrebbe alimentare disuguaglianza globale.
Il potenziale di innovazione dell’intelligenza artificiale in Africa è sconcertante: si stima che l’intelligenza artificiale potrebbe contribuire per 2,9 trilioni di dollari Usa in valore per l’economia del continente entro il 2030: peccato che il 60% di africani non abbia accesso a Internet. L’intelligenza artificiale può contribuire al raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite (SDG), in particolare, promuovere l’istruzione, l’assistenza sanitaria, lo sviluppo economico e la produttività del lavoro.
Un nuovo ruolo
Il contributo del G7 a una risposta globale all’intelligenza artificiale è stato in gran parte di tipo regolatorio. Inoltre, concentrandosi sulla convergenza tra gli Stati membri, il G7 rischia di trascurare la dimensione globale della sfida dell’intelligenza artificiale. La Cina ha dipinto il G7 come un “club d’élite”, sottolineando la sua scarsa credibilità internazionale agli occhi dei paesi in via di sviluppo.
Nel 2024, la presidenza italiana del G7 ha impresso maggiore consapevolezza sulla necessità di rafforzare la cooperazione sull’IA al di fuori dei confini del Gruppo: ciò ha segnato il potenziale inizio di una nuova fase in cui il G7 può svolgere un ruolo attivo nel colmare il divario digitale globale e promuovere una maggiore inclusività nel panorama dell’intelligenza artificiale. Questo nuovo impegno ha portato al lancio dell’AI Hub per lo sviluppo sostenibile, iniziativa congiunta della Presidenza italiana e del Programma di sviluppo delle Nazioni Unite (UNDP). Coinvolgendo i rappresentanti del settore privato africano, l’AI Hub mira a creare nuove opportunità di mercato in Africa, rafforzare l’ecosistema dell’intelligenza artificiale e dare potere agli innovatori nel continente.
Il futuro
Tra tutte le sfide che l’IA pone, c’è la necessità di un approccio globale alla sua governance e di misure efficaci per colmare il divario digitale che rischia di esacerbare le disuguaglianze globali.
Le passate presidenze del G7 hanno dato priorità allo sforzo di affrontare la prima sfida. Sotto la presidenza italiana nel 2024, il Gruppo dei sette ha integrato la sfida di colmare il divario digitale nella propria agenda. Il suo ruolo si è quindi ampliato, promuovendo la governance dell’IA oltre il proprio perimetro. Guardando al futuro, il G7 dovrebbe integrare il suo ruolo normativo ormai consolidato con quello recentemente ritrovato di promotore di iniziative e accordi più ampi che possano aumentare l’inclusività nella governance.