Top News

IA: tra regolamentazione, sovranità digitale e opportunità economiche

08
Febbraio 2025
Di Virginia Caimmi

L’Intelligenza artificiale è oggi al centro delle strategie economiche globali e l’Europa tenta a fatica di recuperare un ruolo di leadership anche nel settore tecnologico. È uscita in questi giorni una nuova bozza del programma di lavoro della Commissione europea per il 2025. Il programma ufficiale sarà presentato martedì prossimo al Collegio dei Commissari e poi al Parlamento europeo a Strasburgo durante la sessione plenaria. In agenda ci sono iniziative di carattere legislativo e non che saranno presentate entro la fine dell’anno. In particolare, c’è un aggiornamento sul pacchetto Omnibus: una prima proposta legislativa sulla sostenibilità sarà presentata il 26 febbraio; mentre nel secondo trimestre, una seconda proposta riguarderà le piccole società a media capitalizzazione e l’eliminazione dei requisiti cartacei e una terza proposta si concentrerà sulla semplificazione degli investimenti. Altre iniziative contenute nella bozza sono la revisione del regolamento sulla divulgazione della finanza sostenibile (terzo trimestre del 2025), il Clean Industrial Deal (la cui presentazione è prevista per il 26 febbraio), un piano d’azione sull’energia a prezzi accessibili (primo trimestre del 2025), un piano di investimenti per i trasporti sostenibili (terzo trimestre del 2025) e la tabella di marcia per porre fine alle importazioni di energia russa (prevista per il primo trimestre del 2025). Il futuro del nostro Vecchio Continente dipenderà molto dalle scelte strategiche che verranno definite in questi mesi, cercando di far valere il proprio peso in un delicato equilibrio tra due o più blocchi, non da ultimo, nel contesto tecnologico. La Commissione europea ha da pochi giorni pubblicato nuove linee guida sulle pratiche vietate dall’AI Act. Tra queste rientrano sistemi che manipolano il comportamento umano in modo dannoso o che sfruttano vulnerabilità personali per influenzare le scelte degli utenti. La sfida ora è rendere il quadro normativo accessibile e applicabile, evitando eccessivi vincoli burocratici che potrebbero rallentare l’innovazione. Urge la necessità di maggiore chiarezza, per imprese e investitori, al fine di interpretare, in maniera condivisa, l’enorme corpus normativo.

L’importanza della cooperazione multilaterale per garantire uno sviluppo responsabile dell’Intelligenza artificiale è stato l’argomento al centro del dibattito organizzato dalla Presidenza del Consiglio dei Ministri che ha ospitato in questi giorni un evento dedicato al Reporting Framework del G7 HAIP Code of Conduct. Frutto dei lavori del Digital & Tech Working Group (DTWG), il framework è un’iniziativa per la governance dell’intelligenza artificiale a livello internazionale che mira a stabilire principi condivisi per uno sviluppo responsabile dell’IA. Si tratta di un documento di orientamento volontario, un punto di partenza utile per indirizzare aziende e organizzazioni verso pratiche sicure e trasparenti. Tuttavia, il vero impatto dell’operazione dipenderà dalla sua integrazione nei framework normativi nazionali e internazionali. L’incontro ha visto, assieme alle principali aziende tecnologiche del settore, la partecipazione di rappresentanti istituzionali di primo piano, tra cui delegati del G7, dell’OCSE e di importanti centri di ricerca. Elissa Goldberg, ambasciatrice del Canada in Italia, ha ribadito il valore strategico del Code of Conduct, evidenziando il ruolo centrale che il G7 può giocare nel definire principi condivisi per un’intelligenza artificiale sostenibile e sicura. Tracey Forrest, direttrice della ricerca presso il Centre for International Governance Innovation (CIGI), ha posto l’accento sull’importanza dell’innovazione responsabile e dell’adozione di tecnologie emergenti come il quantum computing in un’ottica di sviluppo sostenibile. Tra gli altri interventi, Audrey Plonk dell’OCSE ha annunciato il lancio di un nuovo portale dedicato al monitoraggio dell’implementazione del Code of Conduct che vedrà la luce a fine mese, mentre Yoichi Iida del Ministero giapponese delle Comunicazioni ha sottolineato il ruolo dell’AI nella tutela dei diritti umani e nella promozione di un approccio sicuro e trasparente. Josie Brocca, in rappresentanza del governo canadese, ha ricordato l’importanza dell’adozione volontaria di standard di trasparenza e accountability, ribadendo l’impegno del Canada per un’intelligenza artificiale inclusiva e accessibile. Il percorso intrapreso è ancora e non potrà che continuare ad essere in continua evoluzione. La collaborazione internazionale sarà determinante per affrontare le nuove sfide poste dall’Intelligenza artificiale. L’evento ha confermato il valore del dialogo tra governi, istituzioni e comunità scientifica per costruire un modello di governance globale dell’intelligenza artificiale, capace di bilanciare innovazione, sicurezza e diritti fondamentali.

Se da un lato la spinta regolatoria europea impone chiarezza nell’applicazione dei sistemi di Intelligenza artificiale, alcuni dati ci ricordano come questa innovazione sia sempre più pervasiva nel mondo del lavoro tanto da considerarla, a pieno titolo, una rivoluzione. Secondo dati Istat ed Eurostat, l’adozione dell’IA nelle imprese italiane è ancora limitata: solo il 5% delle aziende la utilizza, contro una media europea dell’8%. Il potenziale di miglioramento della produttività è tuttavia enorme. Il mercato italiano dell’IA vale già 760 milioni di euro, con una crescita del 52% nell’ultimo anno, e la Generative AI rappresenta un segmento in espansione. Un punto critico, come ribadito a più riprese dalle stesse istituzioni, è la necessità di competenze adeguate. In Italia, iniziative come la Settimana nazionale delle discipline STEM, istituita con la legge 24 novembre 2023, n. 187 tentano di colmare il gap e mirano a promuovere le discipline scientifiche e tecnologiche, affrontando le disparità di genere ancora fortemente presenti nel settore delle discipline sempre più al centro dei cambiamenti dei nostri sistemi economici, sociali e produttivi. Nonostante i progressi, è fondamentale continuare a incentivare la partecipazione femminile in queste discipline per garantire una rappresentanza equilibrata e valorizzare il potenziale di tutti i talenti. Secondo la Banca Mondiale, l’80% della ricchezza delle Nazioni più avanzate è rappresentata dal sapere. In questo scenario, le materie STEM stanno assumendo un ruolo sempre più determinante e offrono grandi opportunità e prospettive. Purtroppo, in Italia gli indicatori descrivono un disallineamento tra domanda e offerta. Per l’Istat solo un quarto dei laureati italiani tra i 25 e i 34 anni ha studiato materie STEM, e le imprese italiane dichiarano di avere difficoltà a trovare profili professionali con preparazione in queste discipline. La formazione mirata sarà essenziale per colmare il divario e garantire un’adozione diffusa dell’IA nel tessuto produttivo. 

I risultati di una nuova ricerca dell’Osservatorio Artificial Intelligence del Politecnico di Milano confermano che il guanto di sfida della cinese DeepSeek alla Silicon Valley ha dato una scossa al settore dell’Intelligenza artificiale già in rapida evoluzione. E anche il mercato italiano registra un record: nel 2024 ha toccato quota 1,2 miliardi di euro con una crescita del +58% rispetto all’anno precedente. A trainare lo sviluppo – si evince dal report – sono soprattutto le realtà che usano l’IA generativa, il 59% delle grandi imprese ha un progetto attivo e il 99% degli italiani ne ha sentito parlare. L’analisi mostra tuttavia come le imprese italiane si stanno approcciando all’IA più lentamente rispetto ad altri Paesi europei (il 59% delle grandi realtà ha già un progetto attivo contro una media europea del 69%, ultimo posto tra i Paesi analizzati) ma chi la utilizza l’ha integrata nei processi. In ritardo le Pmi (solo il 7% delle piccole e il 15% delle medie imprese ha avviato progetti). Guardando la spesa media per azienda, i settori più attivi sono Telco&Media e assicurazioni, seguiti da Energia e Finanza. La Pubblica Amministrazione ha il 6% del mercato, con un tasso di crescita superiore al 100%. Secondo la ricerca, inoltre, le grandi aziende italiane si mostrano consapevoli dei rischi di un utilizzo non governato: in più di quattro su 10 realtà ci sono linee guida e regole per l’utilizzo dell’IA e nel 17% dei casi è stato vietato l’uso di strumenti non approvati. In generale, tra le diverse soluzioni di intelligenza artificiale, la quota più elevata del mercato (34%) viene dai progetti di previsione della domanda, ottimizzazione dei flussi e identificazione di attività anomale; quelle con la crescita più elevata (88%) sono le soluzioni di analisi del testo. 

In risposta a queste sfide, l’Europa nel tentativo di recuperare terreno nella corsa all’Intelligenza artificiale, sta investendo in progetti come OpenEuroLlm, un’alleanza che riunisce oltre 20 tra i principali centri di ricerca, aziende e istituti di calcolo ad alte prestazioni europei. L’obiettivo è rivendicare la sovranità digitale del continente nel campo dell’IA attraverso lo sviluppo di modelli linguistici etici, di nuova generazione e open-source, creando un’infrastruttura digitale che consenta alle aziende europee di innovare e competere a livello globale. A guidare l’iniziativa sono Jan Hajič, linguista computazionale dell’Università di Praga, e Peter Sarlin, co-fondatore di Silo AI, il più grande laboratorio privato di intelligenza artificiale in Europa, recentemente acquisito dal produttore di chip americano Amd. Il progetto, che potrebbe diventare la più grande iniziativa di Intelligenza artificiale mai finanziata dalla Commissione Europea, ha un budget di 52 milioni di euro. “Un unico sforzo mirato” dunque, “anziché avere molti piccoli progetti frammentati”, come definito da chi guiderà l’iniziativa.

In parallelo, i colossi tecnologici americani e cinesi avanzano rapidamente. Mentre la Cina ha recentemente lanciato DeepSeek-V2, un modello avanzato con costi ridotti, dimostrando, ancora una volta al mondo, il valore del suo peso tecnologico, gli Stati Uniti hanno annunciato 500 miliardi di dollari di investimenti in infrastrutture di Intelligenza artificiale. La Casa Bianca ha iniziato a chiedere, in questi giorni, contributi dal pubblico sulla misure che dovrebbe intraprendere per l’intelligenza artificiale. Attraverso questa operazione l’amministrazione Trump punta a ottenere indicazioni su cosa dovrebbe contenere il suo “AI Action Plan”, l’iniziativa varata per sostituire il precedente decreto esecutivo di Joe Biden sull’intelligenza artificiale. La richiesta di commenti pubblici è rivolta al mondo accademico, alle aziende, al settore privato e alle autorità statali e locali. In questo contesto globale si inquadra l’Artificial Intelligence Action Summit previsto a Parigi il 10 e 11 febbraio che vedrà, sotto la regia francese, la partecipazione del vicepresidente degli Stati Uniti, JD Vance, del vicepremier cinese Ding Xuexiang assieme a rappresentanti di più alto profilo di 80 paesi. Tra gli ospiti europei confermati, la presidente della Commissione europea Ursula von der Leyen e il cancelliere tedesco Olaf Scholz. L’Eliseo spera che il summit possa contribuire a dare il via alla sua visione di un’Intelligenza artificiale più etica, accessibile e meno dispendiosa in termini di risorse. L’obiettivo è discutere le prospettive future dell’Intelligenza artificiale tra le quali l’istituzione di una fondazione di interesse pubblico per la quale Parigi mira a raccogliere 2,5 miliardi di euro in cinque anni. Lo sforzo sarebbe “una partnership pubblico-privata tra vari governi, aziende e fondazioni filantropiche di diversi paesi”, ha affermato l’ufficio di Macron.

La Cina si trova al centro di una crescente tensione internazionale sull’intelligenza artificiale, con diversi Paesi, tra cui Italia, Stati Uniti, Giappone e Australia, che hanno imposto restrizioni o divieti all’utilizzo del modello di linguaggio DeepSeek. Pechino ha reagito con fermezza, dichiarando di voler difendere i diritti delle proprie aziende e accusando l’Occidente di politicizzare le questioni tecnologiche. Il governo cinese ha inoltre ribadito il proprio impegno nella protezione della privacy e della sicurezza dei dati, sottolineando che non impone alle imprese pratiche di raccolta illecita di informazioni. Questa vicenda riflette il crescente scontro tra le grandi potenze sulla sovranità digitale e il controllo delle tecnologie avanzate in un nuovo contesto geopolitico. Negli ultimi anni, le tensioni tecnologiche tra Cina e Stati Uniti si sono intensificate, con Washington che ha imposto divieti su semiconduttori e tecnologie avanzate, cercando di limitare l’accesso di Pechino a componenti chiave per lo sviluppo dell’IA. Il blocco a DeepSeek potrebbe dunque rappresentare un ulteriore passo verso una frammentazione tecnologica globale, con il rischio di una divisione tra ecosistemi digitali distinti e incompatibili. Per l’Italia, questa situazione apre interrogativi importanti sulle scelte strategiche nel campo dell’intelligenza artificiale. Da un lato, il blocco di DeepSeek si inserisce in un contesto di allineamento con gli alleati occidentali, dall’altro il mercato italiano dell’IA è in forte espansione e potrebbe risentire di eventuali ritorsioni economiche da parte della Cina. Inoltre, il dibattito sulla regolamentazione dell’IA e sulla protezione dei dati personali sta diventando sempre più centrale, con la necessità di bilanciare innovazione, sicurezza e sovranità digitale in un contesto globale sempre più frammentato.