Innovazione
Intelligenza artificiale, che paura! Geoffrey Hinton lascia Google, ma il colosso non tentenna
Di Giampiero Cinelli
Non è una cosa da poco che la principale figura che si occupa di sviluppare l’intelligenza artificiale all’interno di un’azienda decida di lasciarla proprio perché preoccupato dai rischi del suo “giocattolo”. Ancora più eco fa questo avvenimento se stiamo parlando di Alphabet, ovvero Google, e se chi gira i tacchi è Geoffrey Hinton, uno dei più famosi psicologi-informatici, considerato il padre dell’IA grazie ai suoi studi sulle reti neurali. Tuttavia, il futuro di Bard, l’intelligenza artificiale di Google, non sembra in pericolo (oggi il titolo di Alphabet ha aperto in positivo) e anzi gli investimenti sull’IA andranno avanti poderosamente, al netto delle invocazioni di Elon Musk e degli atteggiamenti minacciosi dei governi. Infatti prima di tutto il resto c’è una regola non scritta nel mondo Tech: non si può rimanere indietro. Sei costretto a sviluppare ciò su cui altri stanno studiando, altrimenti arrivi tardi. A rassicurare gli estimatori dei prodotti di Google, anche post sponsorizzati sui social in cui si afferma che Bard supererà di dieci volte le prestazioni di ChatGPT, dispositivo ideato dalla società OpenAI.
I motivi
Ma il punto chiave è perché Hinton abbia deciso di lasciare Google, dove faceva da consulente per la progettazione dei sistemi intelligenti. L’uomo ha affermato di essere troppo vecchio per un lavoro tecnico e di aver bisogno di qualcosa di più filosofico. E su cosa vuole riflettere e dialogare? Proprio sulla pericolosità dei sistemi generativi. Il britannico-canadese ha parlato al New York Times, affermando di sentirsi sorpreso dai progressi di certi prodotti. Credeva che per arrivare al livello di linguaggio di un essere umano ci sarebbero voluti decenni, oggi invece il traguardo è quantomai vicino. Per non parlare della mole di dati, dunque di conoscenza, che un’intelligenza artificiale è in grado di trattenere. Molto maggiore rispetto alle capacità di un uomo. Dunque il problema più immediato è la potenziale perdita di posti di lavoro. Ma a preoccupare massimamente Hinton sono le ricadute nella sfera sociale e politica: «Non saremo più in grado di distinguere il vero dal falso e lo spazio web sarà inondato di immagini e contenuti alterati» (un esempio è la foto perfetta del Papa con in dosso un giubbotto sportivo). E poi aggiunge: «Pensate che se Putin volesse uccidere tutti gli ucraini non creerebbe dei robot capaci di farlo? Ma non vogliamo governare tutti i micro-processi, vogliamo che le macchine li capiscano da sole».
La speranza che deve guidare
Il fatalismo con cui gli addetti ai lavori più affermati trattano il tema dell’interazione tra IA e uomo è forse eccessivo. Hinton è poco fiducioso che si possa trovare un quadro legislativo adatto perché «negli Usa non siamo neppure capaci di far in modo che dei ragazzi non prendano in mano fucili». Ad ogni modo, questo tutti i visionari dovrebbero ricordarlo, le intelligenze artificiali per quanto enormemente dotate non fanno nulla che i programmatori non vogliono che facciano. Con buona pace degli scenari alla Matrix.