Innovazione / The Watcher Photos

L’Intelligenza artificiale deve essere al servizio dell’uomo, non viceversa

17
Luglio 2024
Di Ilaria Donatio

L’Intelligenza artificiale deve essere comprensibile, trasparente e partecipata. Deve inoltre mantenere la sua natura di strumento utile a servire l’umanità e non viceversa. È l’indicazione centrale emersa dal convegno “Intelligenza artificiale, innovazione avanzata al servizio dell’uomo” che si è svolto stamane a Montecitorio. A introdurlo, Giorgio Mulè (FI), vicepresidente della Camera: “Sono necessarie politiche di sostegno all’innovazione con un’attenzione alla formazione e alla ricerca”, ha segnalato Mulè. Per poi sollevare la questione fondamentale della personalità giuridica collegata all’IA”. Che è: “Può l’intelligenza artificiale esserne dotata nel momento in cui viene applicata a settori produttivi? Che tipo di personalità deve avere? Chi ne risponde dal punto di vista della responsabilità? Chi ne deve rispondere non solo sotto il profilo aziendale ma anche economico e sociale?”.

A promuovere il dibattito, Alberto Luigi Gusmeroli (Lega), presidente commissione Attività produttive Camera secondo cui “l’IA è un dominio che può abilitare importanti opportunità per il nostro sistema produttivo, pur in presenza di potenziali rischi da affrontare. È necessario essere consapevoli di entrambi, in modo tale da governare la transizione digitale e tecnologica in corso, massimizzando i benefici per le nostre imprese”.

Centemero (Lega): scettico su “Ai Act” ma soddisfatto investimento governo
“Sono molto scettico sulla regolazione comunitaria”, ha spiegato Giulio Centemero (Lega), commissione Finanze e per “un motivo preciso: è divisa in due livelli, la definizione della cornice di rischio e gli spazi di sperimentazione. Secondo me invece si doveva partire dagli spazi di sperimentazione e solo dopo un paio d’anni, semmai, definire la cornice di rischio. Stabilirla a priori significa limitare molto le imprese europee rispetto a competitor che sono già molto più forti di noi”.

Centemero invece segnala “positivamente” che il Ddl approvato dal governo sull’IA (assegnato alle Commissioni 8 e 10 al Senato per l’iter di approvazione) preveda “due spazi di sperimentazione, uno in seno alla futura Agenzia sull’intelligenza artificiale e l’altro gestito in maniera più generale del Governo: per me è motivo di soddisfazione anche che il governo abbia stanziato dei fondi in materia, circa un miliardo di euro”. Tuttavia, bisogna fare attenzione a come gestire questi soldi: “Dobbiamo usare bene il denaro stanziato a livello statale, concentrandoci su filiere come le biotecnologie, il manifatturiero avanzato, la space economy e la meccanica”, ha concluso.

Frattasi (Acn): Agenzia ha compito di garantire sicurezza dispositivi
Del tema della sicurezza dei dispositivi digitali ha parlato Bruno Frattasi, direttore generale dell’Agenzia per la cyber security nazionale (Acn): “Ogni prodotto digitale e ogni sistema che sfrutta dispositivi digitali deve porsi il problema della sicurezza per l’intero ciclo di vita del prodotto: dalla fase di progettazione alla fase di realizzazione, fino a tutto il ciclo di durata del dispositivo. Tutti questi dispositivi dovranno pur essere controllati dal punto di vista della sicurezza. Ecco che si spiega come questa Agenzia sia stata officiata, con un provvedimento del Governo, dei compiti di garantire il controllo di sicurezza dei dispositivi e dei modelli di IA”, ha aggiunto.  

“Come Agenzia, a novembre 2023, abbiamo dato la nostra adesione a una dichiarazione di Londra con cui diversi Paesi, non solo europei, hanno condiviso che lo sviluppo dell’Intelligenza artificiale non può avvenire al di fuori di un cornice che metta in conto la capacità di condivisione della conoscenza”. 

“La nostra capacità di investimento è anche legata al riuscire o meno a intercettare risorse che anche l’Europa mette a disposizione dello sviluppo dell’intelligenza artificiale”. Tra un po’, ha infine segnalato Frattasi, “l’Europa pubblicherà un bando con cui metterà a disposizione risorse importanti perché ciascun Paese possa sviluppare le cosiddette fattorie di intelligenza artificiale, che sono fabbriche di intelligenza artificiale”.

Cingolani: pericolo sta in utenti, non in intelligenza artificiale
“Oggi il rischio dell’intelligenza artificiale è di dargli un corpo” capace di interagire fisicamente con l’ambiente circostante. Lo ha detto Roberto Cingolani, Amministratore delegato di Leonardo.

Cingolani ha fatto l’esempio delle pochissime corsie riservate alle auto a guida autonoma. A prescindere dai problemi regolatori, dare un corpo all’intelligenza artificiale – nel caso un automobile – e pretendere che interagisca con altre auto guidate dagli esseri umani porta al vero problema: “Nessuna automobile autonoma sarà sicura finché interagisce con automobili guidate da esseri umani”. “È il problema dell’embodiment, ossia di dare un corpo all’intelligenza artificiale che interagisca con la stupidità naturale – ha proseguito Cingolani – Qualsiasi intelligenza artificiale con un corpo dovrà operare da sola nell’universo vuoto, ma se dovesse interagire con noi è meglio che rimanga come un software che dialoga con noi”.

Quanto alla “space economy” non si deve badare a spese. Si tratta di un “dominio dove sono necessarie tutte le tecnologie assistite dall’Ia, dalla capacità di calcolo elevata e da quella predittiva”. E ha fatto l’esempio della guerra in Ucraina che è stata “sostenuta addirittura utilizzando satelliti civili e telefoni cellulari che guidavano droni: un livello di digitalizzazione che nessuno si aspettava”. 

Quello che ci resta da fare, dunque, ha spiegato Cingolani, “è difenderci da noi stessi perché non esiste un ‘pericolo IA’: il computer si spegne, il controllo della macchina c’è, il discernimento del risultato che l’IA ci dà, è lasciato all’utente che è un essere umano. Se questo è un imbecille, non è educato e non è cresciuto digitale e quindi non è reso consapevole della capacità previsionale dell’IA, siamo nei guai. Ma non mi dite che il pericolo è l’IA: è l’utente inesperto, incolto o violento”.

Benanti: tante sfide ma Italia sta reagendo
Abbiamo “sfide che richiedono soluzioni di Made in Italy, di tipo nostrano che consentano di andare avanti. L’Italia sta già reagendo, è la strategia che abbiamo messo a terra con tante iniziative e nel ddl: è una sfida in corso che stiamo portando avanti”. Lo ha detto Paolo Benanti, presidente della Commissione sull’Ia per l’informazione.

“ChatGPT improvvisamente ci ha fatto accorgere che esiste l’Intelligenza artificiale, solo che questa forma di IA sfoca il confine di quali processi accadono nel mio potere computazionale personale e quali all’interno di un potere computazionale centralizzato che si chiama cloud e ora rischia di aspirare tutti quei processi che abbiamo costruito e affidato al potere computazionale degli individui. È una testimonianza dello sforzo fatto in Commissione per un piano di sviluppo per l’Intelligenza artificiale in Italia, che ci ha visto attivi, perchè chiederci come dovremo vivere questi dieci anni sarà chiederci cosa vogliamo che rimanga della società che abbiamo davanti”, ha aggiunto Benanti. 

Fotografie, riprese e montaggio a cura di Simone Zivillica

Articoli Correlati