Diritti e rovesci

L’intelligenza artificiale in medicina solleva preoccupazioni legali ed etiche

Gli scienziati stanno lavorando con l’intelligenza artificiale nella speranza di essere in grado di rilevare meglio il cancro.

L’uso dell’intelligenza artificiale in medicina sta generando grande eccitazione e speranza per i progressi del trattamento.

L’intelligenza artificiale generalmente si riferisce alla capacità dei computer di imitare l’intelligenza umana e di apprendere. Ad esempio, utilizzando l’apprendimento automatico, gli scienziati stanno lavorando allo sviluppo di algoritmi che li aiuteranno a prendere decisioni in merito al trattamento del cancro. Sperano che i computer siano in grado un giorno  di analizzare immagini radiologiche e discernere quali tumori cancerosi risponderanno bene alla chemioterapia e quali no .

Ma l’IA in medicina solleva anche importanti sfide legali ed etiche. Molte di queste preoccupazioni riguardano la privacy, la discriminazione, i danni psicologici e la relazione medico-paziente. In un altro articolo, sostengo che i responsabili politici dovrebbero stabilire una serie di salvaguardie intorno all’intelligenza artificiale, proprio come quando i test genetici divennero comuni.

Potenziale di discriminazione

L’intelligenza artificiale comporta l’analisi di grandi quantità di dati per discernere i modelli, che vengono quindi utilizzati per prevedere la probabilità di eventi futuri. In medicina, i set di dati possono provenire da cartelle cliniche elettroniche e dichiarazioni di assicurazione sanitaria, ma anche da diverse fonti sorprendenti. L’intelligenza artificiale può attingere a documenti di acquisto , dati sul reddito , precedenti penali e persino sui social media per informazioni sulla salute di un individuo.

I ricercatori stanno già utilizzando l’IA per prevedere una moltitudine di condizioni mediche. Questi includono malattie cardiache , ictus , diabete , declino cognitivo , futuro abuso di oppioidi e persino suicidio. Ad esempio, Facebook utilizza un algoritmo che effettua previsioni di suicidio basate su post con frasi come “Stai bene?” abbinato a “Arrivederci” e “Per favore, non farlo.”

Questa capacità predittiva dell’IA solleva importanti preoccupazioni etiche nella sanità  Se l’IA genera previsioni sulla tua salute, credo che un giorno le informazioni potrebbero essere incluse nelle tue cartelle cliniche elettroniche .

Chiunque abbia accesso ai tuoi dati sanitari potrebbe quindi vedere le previsioni sul declino cognitivo o sull’abuso di oppiacei. Dozzine o persino centinaia di medici e amministratori hanno consultato le cartelle cliniche dei pazienti nel corso del trattamento medico. Inoltre, i pazienti stessi spesso autorizzano gli altri ad accedere ai loro registri: ad esempio, quando fanno domanda per l’assunzione o l’assicurazione sulla vita .

Anche i giganti del settore dei broker di dati come LexisNexis e Acxiom stanno estraendo dati personali e svolgendo attività di intelligenza artificiale. Potrebbero quindi vendere previsioni mediche a terze parti interessate, inclusi operatori di marketing, datori di lavoro, istituti di credito, assicuratori sulla vita e altri. Poiché queste aziende non sono fornitori di servizi sanitari o assicuratori, la regola sulla privacy HIPAA non si applica a loro. Pertanto, non devono chiedere ai pazienti l’autorizzazione per ottenere le loro informazioni e possono divulgarle liberamente.

Tali divulgazioni possono portare a discriminazioni. I datori di lavoro, ad esempio, sono interessati ai lavoratori che saranno sani e produttivi, con poche assenze e bassi costi medici. Se ritengono che alcuni richiedenti svilupperanno malattie in futuro, probabilmente le respingeranno. I finanziatori, i proprietari terrieri, gli assicuratori sulla vita e altri potrebbero anche prendere decisioni avverse sugli individui in base alle previsioni dell’IA.

Mancanza di protezioni

L’ Americans with Disabilities Act non proibisce la discriminazione basata su futuri problemi di salute. Si applica solo ai disturbi attuali e passati. In risposta ai test genetici, il Congresso ha emanato la legge sulla non discriminazione delle informazioni genetiche . Questa legge vieta ai datori di lavoro e agli assicuratori sanitari di prendere in considerazione le informazioni genetiche e di prendere decisioni basate su ipotesi correlate sulle condizioni di salute future delle persone. Nessuna legge impone un divieto simile per quanto riguarda i dati predittivi non genetici.

La previsione della salute dell’IA può anche portare a danni psicologici. Ad esempio, molte persone potrebbero essere traumatizzate se apprendono che probabilmente subiranno un declino cognitivo più avanti nella vita. È anche possibile che le persone ottengano previsioni sulla salute direttamente dalle entità commerciali che hanno acquistato i loro dati. Immagina di ottenere la notizia che sei a rischio di demenza attraverso una pubblicità elettronica che ti spinge ad acquistare prodotti che migliorano la memoria.

Quando si tratta di test genetici, si consiglia ai pazienti di cercare una consulenza genetica in modo da poter decidere attentamente se sottoporsi al test e comprendere meglio i risultati del test. Al contrario, non abbiamo consulenti di intelligenza artificiale che forniscono servizi simili ai pazienti.

Ancora un’altra preoccupazione riguarda la relazione medico-paziente. L’intelligenza artificiale diminuirà il ruolo dei medici? Saranno i computer a fare previsioni, diagnosi e suggerimenti di trattamento, in modo che i medici implementino semplicemente le istruzioni dei computer? Come si sentiranno i pazienti nei confronti dei loro medici se i computer avranno più voce in capitolo nel prendere decisioni mediche?

Queste preoccupazioni sono esacerbate dal fatto che le previsioni dell’IA sono tutt’altro che infallibili. Molti fattori possono contribuire agli errori. Se i dati utilizzati per sviluppare un algoritmo sono difettosi, ad esempio se utilizzano cartelle cliniche che contengono errori, l’output dell’algoritmo sarà errato. Pertanto, i pazienti possono subire discriminazioni o danni psicologici quando in realtà non sono a rischio dei disturbi previsti.

Una richiesta di cautela

Cosa si può fare per proteggere il pubblico americano? Ho sostenuto in passato lavori per l’ampliamento della Privacy con la regola HIPAA in modo che copra tutti coloro i quali si occupano di informazione sanitaria per motivi di lavoro. Le protezioni della privacy dovrebbero applicarsi non solo agli  sanitari e agli assicuratori, ma anche alle imprese commerciali. Ho anche sostenuto che il Congresso dovrebbe modificare l’American with Disabilities Act per vietare la discriminazione basata sulle previsioni di malattie future.

I medici che forniscono ai pazienti previsioni sull’intelligenza artificiale dovrebbero assicurarsi di essere completamente istruiti sui pro e contro di tali previsioni. Gli esperti dovrebbero consigliare i pazienti sull’intelligenza artificiale proprio come fanno i professionisti qualificati sui test genetici.

La prospettiva dell’IA può sovrastare le persone. Tuttavia, per garantire che l’IA promuova veramente il benessere dei pazienti, i medici, i ricercatori e i responsabili politici devono riconoscere i suoi rischi e procedere con cautela.

Autore:

Sharona Hoffman
Professore di diritto sanitario e bioetica, Case Western Reserve University