Un nuovo studio ha confermato il timore che utilizzare chatbot basati sull'intelligenza artificiale (IA) per cercare consigli medici può essere "pericoloso".
La ricerca ha scoperto che l'uso dell'intelligenza artificiale per prendere decisioni mediche presenta dei rischi per i pazienti , a causa della sua "tendenza a fornire informazioni imprecise e incoerenti".
Ricorrere all'Ia per curarsi può essere pericolo
Lo studio è stato condotto da ricercatori dell'Oxford Internet Institute e del Nuffield Department of Primary Care Health Sciences dell'Università di Oxford ed è stato pubblicato sulla rivista scientifica Nature Medicine.
La dottoressa Rebecca Payne, coautrice dello studio, ha affermato che "nonostante tutto il clamore, l'intelligenza artificiale non è ancora pronta ad assumere il ruolo del medico".
"I pazienti devono essere consapevoli che chiedere a un modello linguistico di grandi dimensioni informazioni sui propri sintomi può essere pericoloso, poiché può fornire diagnosi errate e non riconoscere quando è necessario un aiuto urgente", ha aggiunto Payne, che è anche medico di base.
Nello studio, i ricercatori hanno chiesto a circa 1.300 partecipanti di identificare potenziali condizioni di salute e un piano d'azione consigliato utilizzando diversi scenari.
Alcuni partecipanti hanno utilizzato software di intelligenza artificiale basati su modelli linguistici di grandi dimensioni per ricevere una potenziale diagnosi e i passaggi successivi, mentre altri hanno utilizzato metodi più tradizionali, come consultare un medico di base.
I ricercatori hanno poi valutato i risultati e hanno scoperto che l'intelligenza artificiale spesso forniva un "mix di informazioni buone e cattive" che gli utenti facevano fatica a distinguere.
Hanno scoperto che, sebbene i chatbot basati sull'intelligenza artificiale ora "eccellano nei test standardizzati di conoscenza medica", il loro utilizzo come strumento medico "comporterebbe dei rischi per gli utenti reali che cercano aiuto per i propri sintomi medici".
"Questi risultati evidenziano la difficoltà di costruire sistemi di intelligenza artificiale in grado di supportare realmente le persone in settori delicati e ad alto rischio come la salute", la dottoressa Payne.
L'autore principale dello studio, Andrew Bean dell'Oxford Internet Institute, ha affermato che lo studio ha dimostrato che "interagire con gli esseri umani rappresenta una sfida" anche per gli LLM (i modelli avanzati di intelligenza artificiale) più performanti.
"Ci auguriamo che questo lavoro contribuisca allo sviluppo di sistemi di intelligenza artificiale più sicuri e utili", ha aggiunto.