Dopo una dozzina di diagnosi con medici specialisti, rivelatisi inconcludenti, una madre, Courtney, ha deciso di chiedere a ChatGPT quale male avesse suo figlio Alex di 4 anni. Durante il culmine della pandemia Covid, Alex, ha iniziato a sviluppare sintomi sconcertanti. Soffriva molto, masticava ogni genere di cose e aveva smesso di crescere. Courtney ha rifiutato di rivelare il suo cognome per proteggere la privacy della sua famiglia. Nel 2021, Alex sembrava avere degli squilibri tra il lato sinistro e quello destro: «Si portava avanti con il piede destro trascinando il piede sinistro», ha detto la donna, ma nessuno sembrava riuscire a individuare cosa stesse succedendo. ChatGPT pensava che Alex avesse un’anomalia del midollo spinale e alla fine aveva ragione.
Seguendo riga per riga tutto ciò che c’era nelle cartelle cliniche, Courtney si rende conto che la diagnosi dell’AI è corretta. Alex non riusciva a sedersi e ChatGPT l’ha spiegato come “sindrome del midollo ancorato”, una sindrome neurologica in cui il midollo spinale è attaccato ai tessuti circostanti della colonna vertebrale.
Ulteriori consulti vengono cercati su un gruppo Facebook per famiglie di bambini affetti dalla sindrome e molte storie rispecchiavano ciò che aveva Alex. Courtney ha parlato del risultato di ChatGPT durante un appuntamento con un nuovo neurochirurgo, il quale ha confermato che il ragionamento era giusto. Il medico è riuscito a individuare il punto in cui il midollo e la colonna vertebrale di Alex si toccavano sulla sua risonanza magnetica. Alex ha recentemente subito un intervento chirurgico per sistemare la colonna e ora si sta riprendendo, ha riferito la donna al sito Today.com.
Sebbene ChatGPT abbia aiutato Courtney a identificare la diagnosi di Alex, i medici avvertono che ChatGPT può ancora commettere errori. «ChatGPT di OpenAI e altri prodotti di intelligenza artificiale generativa attualmente presentano problemi noti e non sono esenti da errori», ha dichiarato a Today.com il dottor Jesse M. Ehrenfeld, presidente del principale gruppo di medici statunitensi dell’American Medical Association.
Un problema è che ChatGPT è noto per mettere insieme delle risposte, un processo noto come “allucinazione”, che può essere un processo abbastanza logico ma non è affidabile su quesiti rigorosi. Il bot è anche soggetto a semplici errori di calcolo, come quando risolve in modo impreciso un Sudoku o calcola erroneamente un Bmi che aveva calcolato correttamente pochi istanti prima. Tuttavia, alcuni medici sono impressionati dalla capacità del programma di diagnosticare le malattie. Nel suo libro “The AI Revolution in Medicine”, il dottor Isaac Kohane, medico e informatico di Harvard, ha testato l’ultima iterazione di ChatGPT, GPT-4. Ha scritto che la nuova versione di ChatGPT potrebbe essere migliore di molti medici che ha osservato. Inoltre, risponde correttamente alle domande sulle licenze degli esami medici statunitensi più del 90% delle volte. Attualmente, GPT-4 è disponibile solo per gli abbonati a pagamento.