Tecno

I ricercatori chiedono un’intelligenza artificiale priva di pregiudizi

In un nuovo studio, i docenti di Stanford discutono di pregiudizi legati a sesso, genere e razza nelle tecnologie mediche. I pulsossimetri, ad esempio, hanno maggiori probabilità di riportare in modo errato i livelli di gas nel sangue negli individui di pelle scura e nelle donne. (Credito immagine: Biju Nair)

Medici e chirurghi utilizzano sempre più dispositivi medici basati sull’intelligenza artificiale. Questi dispositivi di intelligenza artificiale, che si basano su algoritmi basati sui dati per informare le decisioni sanitarie, attualmente aiutano nella diagnosi di tumori, condizioni cardiache e malattie dell’occhio, con molte altre applicazioni in arrivo.

Dato questo aumento di intelligenza artificiale, due membri della facoltà della Stanford University chiedono sforzi per garantire che questa tecnologia non esacerbi le disparità esistenti nella cura della salute.

Pubblicità e progresso

In un nuovo documento prospettico, la facoltà di Stanford discute il sesso, il genere e il pregiudizio razziale in medicina e come questi pregiudizi potrebbero essere perpetuati dai dispositivi di intelligenza artificiale. Gli autori suggeriscono diversi approcci a breve e lungo termine per prevenire i pregiudizi legati all’IA, come cambiare le politiche presso le agenzie di finanziamento medico e le pubblicazioni scientifiche per garantire che i dati raccolti per gli studi siano diversi e incorporare una maggiore consapevolezza sociale, culturale ed etica nell’università. curricula.

“Il corpo bianco e il corpo maschile sono stati a lungo la norma nella medicina che guida la scoperta di farmaci, il trattamento e gli standard di cura, quindi è importante non lasciare che i dispositivi di intelligenza artificiale rientrino in quel modello storico”, ha affermato Londa Schiebinger, John L. Hinds Professor in the History of Science presso la School of Humanities and Sciences e autore senior dell’articolo pubblicato il 4 maggio sulla rivista EBioMedicine .

“Mentre stiamo sviluppando tecnologie di intelligenza artificiale per l’assistenza sanitaria, vogliamo assicurarci che queste tecnologie abbiano ampi vantaggi per diversi dati demografici e popolazioni”, ha affermato James Zou, assistente professore di scienza dei dati biomedici e, per gentile concessione, di informatica e di elettricità ingegneria a Stanford e coautore dello studio.

La questione del bias diventerà solo più importante con la crescita della medicina di precisione personalizzata nei prossimi anni, hanno affermato i ricercatori. La medicina personalizzata, che è adattata a ciascun paziente in base a fattori come i dati demografici e la genetica, è vulnerabile all’ineguaglianza se i dispositivi medici IA non sono in grado di tenere adeguatamente conto delle differenze degli individui.

“Speriamo di coinvolgere la comunità biomedica dell’IA nella prevenzione dei pregiudizi e nella creazione di equità nella progettazione iniziale della ricerca, piuttosto che dover aggiustare le cose dopo il fatto”, ha detto Schiebinger.

Costruttivo – se costruito in modo appropriato

In campo medico, l’IA comprende una suite di tecnologie che possono aiutare a diagnosticare i disturbi dei pazienti, migliorare la fornitura di assistenza sanitaria e migliorare la ricerca di base. Le tecnologie coinvolgono algoritmi, o istruzioni, eseguiti da software. Questi algoritmi possono agire come un set aggiuntivo di occhi che esaminano i test di laboratorio e le immagini radiologiche; ad esempio, analizzando le scansioni TC per forme e densità di colore particolari che potrebbero indicare malattie o lesioni.

Tuttavia, in varie fasi dello sviluppo e della distribuzione di questi dispositivi, possono emergere problemi di bias, ha spiegato Zou. Uno dei fattori principali è che i dati per la formazione dei modelli utilizzati dagli algoritmi come linee di base possono provenire da set di dati dei pazienti non rappresentativi.

Non riuscendo a prendere adeguatamente in considerazione razza, sesso e status socioeconomico, questi modelli possono essere cattivi predittori per alcuni gruppi. A peggiorare le cose, i medici potrebbero non essere consapevoli dei dispositivi medici IA che potenzialmente producono risultati distorti.

Come esempio illustrativo di potenziale bias, Schiebinger e Zou discutono dei pulsossimetri nel loro studio. Brevettati per la prima volta circa 50 anni fa, i pulsossimetri possono segnalare in modo rapido e non invasivo i livelli di ossigeno nel sangue di un paziente. I dispositivi si sono dimostrati di fondamentale importanza nel trattamento del COVID-19, in cui i pazienti con bassi livelli di ossigeno dovrebbero ricevere immediatamente ossigeno supplementare per prevenire danni agli organi e insufficienza.

I pulsossimetri funzionano facendo brillare una luce attraverso la pelle del paziente per registrare l’assorbimento della luce da parte dei globuli rossi ossigenati e deossigenati. La melanina, il pigmento principale che conferisce alla pelle il suo colore, assorbe anche la luce, tuttavia, le letture potenzialmente rimescolanti nelle persone con pelle altamente pigmentata. Non sorprende, quindi, che gli studi abbiano dimostrato che i saturimetri standard del settore odierni hanno una probabilità tre volte maggiore di riportare in modo errato i livelli di gas nel sangue nei pazienti neri rispetto ai pazienti bianchi. Inoltre, i saturimetri hanno un pregiudizio sessuale, che tende a livelli errati nelle donne più spesso rispetto agli uomini. Questi pregiudizi del saturimetro indicano che gli individui dalla pelle scura, in particolare le femmine, sono a rischio di non ricevere ossigeno supplementare di emergenza.

“Il pulsossimetro è un esempio istruttivo di come lo sviluppo di una tecnologia medica senza una raccolta di dati demografici diversificati possa portare a misurazioni distorte e quindi a risultati peggiori per i pazienti”, ha affermato Zou.

Questo problema si estende alla valutazione dei dispositivi dopo l’approvazione per l’uso clinico. In un altro studio recente, pubblicato su Nature Medicine e citato nel documento EBioMedicine , Zou e colleghi di Stanford hanno esaminato i 130 dispositivi medici di intelligenza artificiale approvati all’epoca dalla Food and Drug Administration degli Stati Uniti. I ricercatori hanno scoperto che 126 dei 130 dispositivi sono stati valutati utilizzando solo dati raccolti in precedenza, il che significa che nessuno ha valutato l’efficacia degli algoritmi di intelligenza artificiale sui pazienti in combinazione con l’input di un medico umano attivo. Inoltre, meno del 13% dei riepiloghi pubblicamente disponibili delle prestazioni dei dispositivi approvati riportava sesso, sesso o razza / etnia.

Zou ha affermato che questi problemi legati alla necessità di una raccolta di dati e di un monitoraggio più diversificati delle tecnologie di intelligenza artificiale in contesti medici “sono tra i frutti più bassi nell’affrontare i pregiudizi”.

Affrontare i pregiudizi a livello macro

A lungo termine, lo studio esplora come i cambiamenti strutturali alla più ampia infrastruttura biomedica possono aiutare a superare le sfide poste dalle disuguaglianze dell’IA.

Un punto di partenza sono le agenzie di finanziamento, come il National Institutes of Health. Negli ultimi anni sono stati compiuti alcuni progressi, ha affermato Schiebinger, indicando come nel 2016 il NIH ha iniziato a richiedere ai richiedenti di finanziamenti di includere il sesso come variabile biologica nella loro ricerca, se pertinente. Schiebinger prevede che i NIH istituiscano una politica simile per il genere, la razza e l’etnia. Il suo gruppo a Stanford, nel frattempo, sta sviluppando il genere come variabile socioculturale durante gli studi clinici, come riportato in uno studio di febbraio su Biology of Sex Differences.

“Vogliamo iniziare con la politica in anticipo nelle agenzie di finanziamento per impostare la direzione della ricerca”, ha detto Schiebinger. “Queste agenzie hanno un ruolo importante da svolgere perché distribuiscono il denaro dei contribuenti, il che significa che la ricerca finanziata deve avvantaggiare tutte le persone nell’intera società”.

Un’altra area di opportunità è incentrata sulle pubblicazioni biomediche, comprese riviste e rapporti di conferenze. Gli autori dello studio di Stanford suggeriscono che le pubblicazioni stabiliscano politiche per richiedere analisi di sesso e genere, ove appropriato, insieme a considerazioni etiche e conseguenze per la società.

Per le scuole di medicina, gli autori suggeriscono di migliorare i programmi di studio per aumentare la consapevolezza di come l’IA potrebbe rafforzare le disuguaglianze sociali. Stanford e altre università stanno già facendo passi da gigante verso questo obiettivo incorporando il ragionamento etico nei corsi di informatica.

Un altro esempio di utilizzo di un approccio interdisciplinare per ridurre i pregiudizi è la collaborazione in corso tra Schiebinger, che ha insegnato a Stanford per 17 anni ed è una delle principali autorità internazionali su genere e scienza, e Zou, esperto di informatica e intelligenza artificiale biomedica.

“Riunire un umanista e un tecnologo è qualcosa in cui Stanford è bravo e dovrebbe fare di più”, ha detto Schiebinger. “Siamo orgogliosi di essere in prima linea negli sforzi per debias AI in medicina, tanto più importante considerando i molti altri aspetti della vita umana che l’IA alla fine avrà un impatto”.

Categorie:Tecno

Con tag:,