Una ricerca dell’Università di Sharjah avverte dei potenziali danni che l’uso di ChatGPT può causare nella gestione di patologie complesse come il diabete e le anomalie metaboliche, evidenziando la necessità di consultare sempre professionisti sanitari qualificati.


L’intelligenza artificiale e i rischi per la salute: ChatGPT sotto accusa

Nell’era digitale, l’intelligenza artificiale (AI) sta rivoluzionando numerosi settori, inclusa la sanità. Tuttavia, uno studio recente, condotto dall’Università di Sharjah, mette in guardia contro l’eccessiva dipendenza da strumenti come ChatGPT per fornire consigli medici. Pubblicato sull’European Journal of Clinical Nutrition, lo studio solleva preoccupazioni riguardo all’accuratezza e alla sicurezza delle informazioni fornite dall’AI in contesti clinici.

I rischi di affidarsi a ChatGPT nella gestione delle malattie metaboliche

Secondo i ricercatori, ChatGPT potrebbe fornire consigli dannosi per la gestione di patologie complesse come il diabete e le anomalie metaboliche. Il team, composto da esperti provenienti dagli Emirati Arabi Uniti, dal Libano, dal Bahrein e dalla Turchia, ha analizzato le risposte di ChatGPT in relazione a tre ambiti chiave: gestione dietetica, processo di cura nutrizionale e pianificazione di un menu per una dieta da 1.500 calorie.

Il risultato è stato allarmante: in molti casi, le risposte del chatbot non erano allineate con le linee guida mediche. “ChatGPT potrebbe fornire consigli errati, incompleti o dannosi, mettendo a repentaglio la qualità dell’assistenza medica e di conseguenza la salute e la sicurezza dei pazienti”, ha affermato la Prof.ssa Farah Naja, autrice principale dello studio.

Un’analisi approfondita delle risposte di ChatGPT

L’indagine ha coinvolto un totale di 63 prompt inseriti in ChatGPT, ciascuno relativo alla gestione del diabete di tipo 2, della sindrome metabolica e dei suoi componenti. Le risposte del chatbot sono state valutate da due dietologi esperti, confrontando gli output con le linee guida dell’Academy of Nutrition and Dietetics. I risultati hanno mostrato gravi lacune, specialmente per quanto riguarda la perdita di peso e le raccomandazioni dietetiche essenziali per i pazienti affetti da queste condizioni.

In particolare, ChatGPT non ha fornito indicazioni adeguate per raggiungere un deficit energetico, un fattore cruciale per la gestione del diabete e delle anomalie metaboliche. Allo stesso modo, le raccomandazioni sui nutrienti erano incomplete, trascurando aspetti fondamentali come l’aumento dell’assunzione di fibre o il consumo di prodotti integrali, entrambi elementi chiave nel trattamento di tali patologie.

Le conseguenze per la salute pubblica

Il diabete e le anomalie metaboliche, come l’iperglicemia e l’ipertrigliceridemia, sono tra le principali cause di malattie non trasmissibili a livello globale. Secondo l’Organizzazione Mondiale della Sanità (OMS), il diabete è responsabile di circa 2 milioni di decessi ogni anno, rappresentando una sfida enorme per i sistemi sanitari di tutto il mondo. Le modifiche dello stile di vita, inclusa la gestione nutrizionale, sono considerate fondamentali per la prevenzione e la gestione di queste malattie, ma i consigli forniti da ChatGPT non sempre riflettono queste priorità.

Lo studio sottolinea che, nonostante l’American Heart Association e l’American Diabetes Association raccomandino la gestione nutrizionale come terapia di prima linea, ChatGPT non è stato in grado di fornire consigli coerenti con tali raccomandazioni. Il chatbot ha mancato di includere raccomandazioni cruciali per il controllo del peso e per l’attività fisica, due aspetti fondamentali nella lotta contro il diabete.

Il potenziale e i limiti dell’AI nella consulenza sanitaria

Nonostante le criticità emerse, i ricercatori riconoscono che l’AI ha un potenziale significativo nel campo dell’educazione alimentare e della consulenza sanitaria. ChatGPT è stato elogiato per la sua capacità di fornire una conversazione dinamica e coinvolgente, e molte piattaforme di salute e fitness stanno iniziando a integrarlo nelle loro applicazioni. Tuttavia, lo studio mette in guardia sull’uso indiscriminato dell’intelligenza artificiale nella pratica clinica, evidenziando la necessità di ulteriore ricerca per valutare l’affidabilità di questi strumenti.

Il Prof. Naja ha sottolineato che ChatGPT, pur avendo un potenziale trasformativo, presenta limitazioni che non possono essere ignorate. “I risultati di ChatGPT erano incompleti in termini di indicazioni su nutrienti specifici … e non affrontavano la necessità di aumentare l’assunzione di fibre o di consumare prodotti integrali per tutte le condizioni considerate,” ha spiegato Naja. Questo dimostra che, nonostante le capacità dell’AI, essa non può sostituire il giudizio critico e l’esperienza di dietisti e altri professionisti della salute.

Conclusioni dello studio: cautela nell’uso dell’AI in ambito sanitario

Lo studio conclude con un monito per i medici e gli operatori sanitari che utilizzano strumenti di intelligenza artificiale come ChatGPT. Sebbene questi strumenti possano offrire supporto in alcune aree della pratica clinica, è essenziale che non sostituiscano mai il giudizio critico di professionisti qualificati. Il rischio di fornire ai pazienti consigli errati o incompleti è troppo elevato per affidarsi esclusivamente all’AI.

Gli autori auspicano che i risultati dello studio contribuiscano a sensibilizzare il pubblico e i professionisti della salute sui rischi connessi all’uso dell’intelligenza artificiale nella consulenza medica, promuovendo un uso responsabile e consapevole di questi strumenti.


In sintesi, mentre l’intelligenza artificiale come ChatGPT sta aprendo nuove possibilità nel campo della consulenza sanitaria, questo studio evidenzia la necessità di approcci cauti e ben ponderati. La tecnologia non può sostituire l’esperienza umana, specialmente quando si tratta della salute delle persone.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.