Tecno

Eliminare i pregiudizi dall’intelligenza artificiale sanitaria è fondamentale per migliorare l’equità nella salute

L’assistenza sanitaria basata sull’intelligenza artificiale (AI) ha il potenziale per trasformare il processo decisionale e il trattamento medico, ma gli algoritmi di intelligenza artificiale devono essere accuratamente testati e monitorati continuamente per evitare conseguenze indesiderate per i pazienti. In JAMA Network Open, il presidente del Regenstrief Institute Peter Embí, MD, chiede algoritmovigilanza (un termine che ha coniato per metodi scientifici e attività relative alla valutazione, monitoraggio, comprensione e prevenzione degli effetti avversi degli algoritmi in sanità) per affrontare i pregiudizi intrinseci negli algoritmi sanitari e la loro distribuzione.
CREDITO Istituto Regenstrief

Gli algoritmi devono essere testati e continuamente monitorati per valutare l’impatto del bias

INDIANAPOLIS – L’assistenza sanitaria basata sull’intelligenza artificiale (AI) ha il potenziale per trasformare il processo decisionale e il trattamento medico, ma questi algoritmi devono essere accuratamente testati e monitorati continuamente per evitare conseguenze indesiderate per i pazienti.

Pubblicità e progresso

In un commento su invito in JAMA , Peter Embí, MD, MS, presidente e amministratore delegato del Regenstrief Institute e Associate Dean for Informatics and Health Services Research, ha affermato con forza l’importanza dell’algoritmovigilanza per affrontare i pregiudizi intrinseci negli algoritmi sanitari e la loro distribuzione. Algorithmovigilance, un termine coniato dal Dr. Embí, può essere definito come i metodi scientifici e le attività relative alla valutazione, monitoraggio, comprensione e prevenzione degli effetti avversi degli algoritmi in sanità.

“Non penseremmo di trattare i pazienti con un nuovo farmaco o dispositivo senza prima garantirne l’efficacia e la sicurezza”, ha affermato il dott. Embí. “Allo stesso modo, dobbiamo riconoscere che gli algoritmi hanno il potenziale per grandi benefici e danni e, quindi, richiedono uno studio. Inoltre, rispetto ai farmaci o ai dispositivi, gli algoritmi hanno spesso complessità e variazioni aggiuntive, come il modo in cui vengono implementati, chi interagisce con loro e i flussi di lavoro clinici in cui avvengono le interazioni con gli algoritmi “.

Il commento era in risposta a uno studio di scienziati IBM che valutava diversi approcci allo svalutazione degli algoritmi sanitari sviluppati per prevedere la depressione postpartum. Il dott. Embí ha affermato che lo studio suggerisce che i metodi di debiasing possono aiutare ad affrontare le disparità sottostanti rappresentate nei dati utilizzati per sviluppare e distribuire gli approcci di intelligenza artificiale. Ha anche affermato che lo studio dimostra che la valutazione e il monitoraggio di questi algoritmi per l’efficacia e l’equità è necessaria e anche eticamente richiesta.

“Le prestazioni algoritmiche cambiano quando vengono distribuite con dati diversi, impostazioni diverse e interazioni uomo-computer diverse. Questi fattori potrebbero trasformare uno strumento utile in uno che causa danni non intenzionali, quindi questi algoritmi devono essere continuamente valutati per eliminare le disuguaglianze intrinseche e sistemiche che esistono nel nostro sistema sanitario “, ha continuato il dott. Embí. “Pertanto, è imperativo continuare a sviluppare strumenti e capacità per consentire la sorveglianza e la vigilanza sistematiche nello sviluppo e nell’uso di algoritmi in ambito sanitario”.

###

“Algorithmovigilance – Advancing Methods to Analyse and Monitor for Artificial Intelligence-Driven Health Care for Effectiveness and Equity” è stato pubblicato in JAMA Network Open .

Categorie:Tecno

Con tag:,