Innovazione
Intelligenza artificiale, come disciplinarla. L’esempio USA
Di Luca Carabetta*
Lunedì 30 ottobre il Presidente degli Stati Uniti Joe Biden ha firmato un ordine esecutivo sull’intelligenza artificiale e in particolare sui rischi ad essa connessi. Il provvedimento contiene delle linee guida estremamente rilevanti per il settore. Tra le principali troviamo: lo studio di un sistema di filigrana per i contenuti multimediali che consenta di distinguerli tra contenuti reali e contenuti creati da AI generativa, al fine di contenere la diffusione di notizie false o manipolate; l’obbligo di notifica al governo centrale per i produttori di modelli di AI nelle diverse fasi di addestramento e messa in produzione dei modelli stessi. Ciò consentirà alle autorità governative di testare i modelli passo dopo passo, con l’obiettivo di validarne il funzionamento e garantirne – per quanto possibile – la sicurezza secondo le best practices di red teaming. E infine la richiesta alle agenzie federali di sviluppare iniziative e ulteriori linee guida per mitigare gli effetti sociali dell’AI: dai diritti dei lavoratori alla protezione dei consumatori, dalla concorrenza alla privacy e all’utilizzo dei dati in generale.
Sebbene si tratti di un mero indirizzo politico, questo provvedimento costituisce comunque un riferimento internazionale per i governi che intendono affrontare olisticamente il tema dell’intelligenza artificiale, guardando sia alla tutela dei rischi che allo sviluppo di nuove opportunità.
Un passo in avanti sulla questione è in effetti arrivato a distanza di qualche giorno. Nel corso della scorsa settimana il Primo Ministro inglese Rishi Sunak ha tenuto a Londra un evento sul tema con ospiti di eccezione: la vicepresidente degli Stati Uniti Kamala Harris, il ceo di OpenAI Sam Altman, il ceo di Tesla e X Elon Musk e numerosi opinion leader e imprenditori del settore.
Il Financial Times ha poi definito l’evento un “colpo diplomatico” data la presenza a sorpresa di funzionari del governo cinese, funzionari che si sono poi detti favorevoli a iniziative comuni globali per contenere i rischi dell’AI.
La necessità di un framework regolatorio comune e il rapporto stretto tra i governi e i produttori di tecnologia sono gli elementi principali da considerare per affrontare le sfide presenti e future.
Sul fronte privato occorre segnalare l’avvio operativo del “Frontier Model Forum”, un ente attivato con i contributi dei maggiori player dell’AI generativa (OpenAI, Anthropic, Google e Microsoft) con l’obiettivo di favorire lo sviluppo responsabile dell’intelligenza artificiale in stretta connessione con policy makers, università, società civile e altri stakeholder del settore.
In particolare i rischi di frontiera riguardano l’evoluzione dell’Intelligenza Artificiale Generale (AGI), modelli molto più intelligenti e autonomi di quelli attuali, con potenziali conseguenze catastrofiche rispetto a minacce chimiche, biologiche, radiologiche e nucleari (CBRN), alla cybersicurezza e alla perdita di controllo da parte dei sistemi stessi, in grado di adattarsi e replicarsi autonomamente (ARA) oltre i vincoli e le condizioni poste dall’uomo. Uno scenario che oggi appare distopico ma che potrebbe non essere troppo lontano.
A seguito degli ultimi sviluppi internazionali risulta più che mai fondamentale accelerare sul piano europeo. L’iniziativa pionieristica dell’AI Act rischia di essere già obsoleta. La rapidissima evoluzione tecnologica richiede una legislazione più agile, capace di adattarsi in tempo reale alle novità. La stessa OpenAI promuove ad esempio un meccanismo virtuoso di Risk-Informed Development Policy (RDP) che garantisce costante monitoraggio e valutazione dei modelli di AI e che ha come obiettivo quello di proporre uno schema agile di mitigazione del rischio.
Il nuovo Parlamento e la nuova Commissione, forti anche di una rinnovata spinta propulsiva, avranno l’onere di raccogliere il testimone e di spingere sul pedale dell’acceleratore, promuovendo nuove iniziative nell’ottica agile richiesta per rimanere al passo con i tempi e competitivi a livello internazionale.
Venendo al contesto italiano è importante sottolineare come già a partire dal 2018 l’Esecutivo avesse preso a cuore la tematica, attraverso la nomina di trenta esperti di una task force presso il Ministero dello Sviluppo Economico, gruppo che poi elaborò la prima Strategia Italiana sull’AI (2020).
Il rinnovato impegno del Governo si è concretizzato nella nomina di un nuovo gruppo di tredici esperti presso il Dipartimento per la Trasformazione Digitale a fine Ottobre 2023 con l’obiettivo di aggiornare la strategia entro il 31 gennaio 2024, in vista dell’appuntamento internazionale previsto in occasione del G7 a presidenza italiana.
È fondamentale che l’Italia – intesa come sistema-Paese – faccia la sua parte tenendo ben presente i due piani: la discussione attorno a un necessario framework regolatorio condiviso a livello globale da una parte e la definizione di iniziative specifiche per il contesto socio-economico nazionale dall’altra. In particolare l’Esecutivo dovrà considerare gli effetti sociali di una sempre maggiore automazione nel mondo del lavoro, promuovere la nascita di nuove professioni, favorire l’adozione dell’AI per la competitività del sistema produttivo (Attualmente per il 45% delle pmi del Nord Est il digitale è marginale o troppo costoso), spingere l’acceleratore su ricerca, sviluppo e investimenti nel settore. Tutto questo senza dimenticare la più che mai necessaria connessione con l’accademia e con il privato.
*Consulente e imprenditore – trasformazione digitale e intelligenza artificiale