Tecno

L’integrazione dei chatbot nell’assistenza sanitaria

Mentre la tecnologia per lo sviluppo di chatbot basati sull’intelligenza artificiale esiste da qualche tempo, un nuovo punto di vista pubblicato ieri in JAMA definisce gli aspetti clinici, etici e legali che devono essere considerati prima di applicarli in ambito sanitario. E mentre l’emergere di COVID-19 e il distanziamento sociale che lo accompagna ha spinto più sistemi sanitari a esplorare e applicare chatbot automatizzati, gli autori continuano a sollecitare cautela e premurosità prima di procedere.

“Dobbiamo riconoscere che questa è una tecnologia relativamente nuova e anche per i sistemi più vecchi che erano in atto, i dati sono limitati”, ha detto l’autore principale del punto di vista, John D. McGreevey III, MD, professore associato di Medicina nel Perelman School of Medicine presso l’Università della Pennsylvania. “Qualsiasi sforzo deve anche rendersi conto che gran parte dei dati che abbiamo provengono dalla ricerca, non da una diffusa implementazione clinica. Sapendo che, la valutazione di questi sistemi deve essere solida quando entrano nello spazio clinico e coloro che li utilizzano dovrebbero essere abbastanza agili da adattarsi rapidamente al feedback “.

McGreevey, affiancato da C. William Hanson III, MD, Chief Information Medical Officer presso Penn Medicine, e Ross Koppel, PhD, FACMI, senior fellow presso il Leonard Davis Institute of Healthcare Economics presso Penn e professore di Informatica medica, hanno scritto “Clinical, Legal, and Ethical Aspects of AI-Assisted Conversational Agents.” In esso, gli autori delineano 12 diverse aree di interesse che dovrebbero essere prese in considerazione quando pianificano di implementare un chatbot o, più formalmente, “agente di conversazione”, nelle cure cliniche.

I chatbot sono uno strumento utilizzato per comunicare con i pazienti tramite messaggi di testo o voce. Molti chatbot sono alimentati dall’intelligenza artificiale (AI). Questo documento discute in particolare i chatbot che utilizzano l’elaborazione del linguaggio naturale, un processo di intelligenza artificiale che cerca di “comprendere” il linguaggio utilizzato nelle conversazioni e ne trae discussioni e connessioni per fornire risposte utili e significative.

Con l’assistenza sanitaria, quei messaggi e le reazioni delle persone ad essi sono estremamente importanti e portano conseguenze tangibili.

“Siamo sempre più in diretta comunicazione con i nostri pazienti attraverso cartelle cliniche elettroniche, dando loro accesso diretto ai risultati dei test, diagnosi e note dei medici”, ha detto Hanson. “I chatbot hanno la capacità di migliorare il valore di tali comunicazioni da un lato, o di causare confusione o addirittura danno, dall’altro.”

Ad esempio, il modo in cui un chatbot gestisce qualcuno che gli dice qualcosa di grave come “Voglio farmi del male” ha molte implicazioni diverse.

Nell’esempio di autolesionismo, ci sono diverse aree di attenzione definite dagli autori che si applicano. Ciò tocca innanzitutto la categoria “Sicurezza del paziente”: chi controlla il chatbot e con quale frequenza lo fa? Tocca anche “Fiducia e trasparenza”: questo paziente prenderebbe davvero sul serio una risposta da un chatbot noto? Sfortunatamente, solleva anche domande nella categoria “Legale e licenze” del documento: chi è responsabile se il chatbot fallisce nel suo compito. Inoltre, qui può applicarsi anche una domanda nella categoria “Scope”: si tratta di un’attività più adatta per un chatbot o è qualcosa che dovrebbe essere ancora totalmente gestito dall’uomo?

Secondo il loro punto di vista, il team ritiene di aver delineato considerazioni chiave che possono informare un quadro per il processo decisionale quando si tratta di implementare chatbot nell’assistenza sanitaria. Le loro considerazioni dovrebbero applicarsi anche quando è richiesta una rapida implementazione per rispondere a eventi come la diffusione di COVID-19.

“Fino a che punto i chatbot dovrebbero estendere le capacità dei clinici, che chiameremmo intelligenza aumentata o sostituirli con un’intelligenza totalmente artificiale?” Koppel ha detto. “Allo stesso modo, dobbiamo determinare i limiti dell’autorità del chatbot da eseguire in diversi scenari clinici, ad esempio quando un paziente indica di avere una tosse, qualora il chatbot rispondesse solo facendo sapere a un’infermiera o scavando ulteriormente:” Puoi dirlo me più sulla tua tosse? ‘”

I chatbot hanno l’opportunità di migliorare in modo significativo i risultati sanitari e ridurre i costi operativi dei sistemi sanitari, ma la valutazione e la ricerca saranno fondamentali in tal senso: sia per garantire un funzionamento regolare che per mantenere la fiducia sia dei pazienti che degli operatori sanitari.

“Riteniamo che il lavoro non venga svolto quando viene distribuito l’agente di conversazione”, ha affermato McGreevey. “Queste saranno tecnologie sempre più impattanti che meritano di essere monitorate non solo prima del loro lancio, ma continuamente per tutto il ciclo di vita del loro lavoro con i pazienti.”

Categorie:Tecno

Con tag:,,