Video deepfake sfruttano la credibilità di noti esperti medici per promuovere cure miracolose e pericolose. Gli esperti avvertono: la vita delle persone è in pericolo.
Negli ultimi anni, i social media sono stati invasi da video “deepfake” che sfruttano le identità di medici famosi per promuovere pericolose cure miracolose. Questi video, realizzati grazie ai recenti progressi nell’intelligenza artificiale, imitano perfettamente i volti e le voci di noti professionisti della salute, ingannando il pubblico e mettendo a rischio la vita delle persone. Secondo gli esperti, il fenomeno dei deepfake è diventato un’arma letale nelle mani di truffatori che diffondono false informazioni su cure non verificate, manipolando la fiducia che molti ripongono in medici televisivi e personalità sanitarie di fama.
Il fenomeno è preoccupante per la facilità con cui questi video riescono a raggiungere milioni di utenti attraverso piattaforme come Facebook e Instagram. Famosi medici televisivi sono stati inconsapevolmente trasformati in promotori di sciroppi “naturali” non testati per malattie croniche come il diabete. Alcuni di questi video arrivano persino a sconsigliare farmaci ampiamente testati, come la metformina, un medicinale di prima linea contro il diabete, sostenendo falsamente che “potrebbe uccidere” i pazienti.
Medici Famosi nel Mirino dei Deepfake
Tra le vittime di queste truffe vi è il dottor Michael Mosley, noto medico e presentatore televisivo britannico, che è stato protagonista di numerosi video falsi creati per promuovere cure non testate. Mosley è scomparso all’inizio dell’anno, ma la sua immagine continua a essere sfruttata dai truffatori per ingannare gli utenti. Altri medici di fama internazionale, come il dottor John Cormack, hanno lanciato l’allarme sui rischi di queste truffe, evidenziando come molti utenti siano pronti a credere a qualsiasi affermazione fatta da volti noti del mondo sanitario.
“Molti di questi medici hanno costruito la loro reputazione basandosi sulla fiducia del pubblico. Purtroppo, questo li rende vulnerabili a truffatori che usano le loro immagini per diffondere affermazioni incredibili e potenzialmente pericolose”, ha dichiarato il dottor Cormack, che ha collaborato con il British Medical Journal (BMJ) per sensibilizzare il pubblico su questo problema crescente.
Il Ruolo dell’Intelligenza Artificiale nei Video Deepfake
Secondo Henry Ajder, esperto di intelligenza artificiale, il 2023 ha visto un’impennata nella produzione di video deepfake che utilizzano l’immagine di medici famosi per truffare gli utenti. Questo tipo di video è particolarmente mirato a un pubblico più anziano, spesso meno avvezzo a riconoscere i contenuti digitali manipolati. Ajder ha sottolineato come la qualità di questi deepfake sia notevolmente migliorata grazie all’uso dell’IA generativa, che sfrutta enormi database di immagini per creare video estremamente realistici.
“Le persone tendono a fidarsi dei volti che vedono spesso in televisione, soprattutto se si tratta di medici che parlano di salute”, ha affermato Ajder. “Purtroppo, questo li rende bersagli perfetti per truffe di questo tipo.”
Un esempio eclatante è quello del medico francese Michel Cymes, la cui immagine è stata utilizzata in numerosi video deepfake per promuovere cure miracolose non testate. Cymes ha denunciato pubblicamente il fenomeno, annunciando l’intenzione di intraprendere un’azione legale contro Meta, la società madre di Facebook, per aver permesso la diffusione di queste truffe.
La Battaglia Contro i Deepfake: Un Gioco del Gatto e del Topo
Nonostante gli sforzi per combattere questa minaccia digitale, la lotta contro i deepfake si sta rivelando estremamente complessa. Il dottor Hilary Jones, un altro medico britannico frequentemente vittima di deepfake, ha addirittura assunto un investigatore privato per cercare di individuare e rimuovere i video che lo coinvolgono. Tuttavia, come ha spiegato lo stesso Jones, anche quando i video vengono rimossi, riappaiono poco dopo con nuovi nomi e account falsi, rendendo difficile eliminarli definitivamente.
Frederic Jurie, accademico francese esperto di intelligenza artificiale, ha spiegato che l’AI generativa, utilizzata per creare questi video, ha reso i deepfake sempre più realistici e difficili da distinguere dai contenuti autentici. Jurie ha descritto la situazione come un “gioco del gatto e del topo”, in cui i truffatori riescono a rimanere sempre un passo avanti rispetto ai sistemi di rilevamento attualmente disponibili.
“Oggi abbiamo accesso a decine di miliardi di immagini, e con gli algoritmi di intelligenza artificiale possiamo modellare qualsiasi contenuto e rigenerarlo con una qualità impressionante”, ha dichiarato Jurie. Questo rende quasi impossibile identificare manualmente tutti i video deepfake in circolazione.
Soluzioni e Prospettive per il Futuro
Nonostante la crescente minaccia rappresentata dai deepfake, gli esperti stanno cercando di sviluppare nuovi strumenti per contrastare il fenomeno. Tra le soluzioni proposte vi è l’implementazione di tecnologie che garantiscano l’autenticità dei contenuti, come sistemi di firma digitale in grado di certificare che un video non sia stato alterato. Tuttavia, l’efficacia di queste soluzioni è ancora in fase di valutazione e non è chiaro se saranno sufficienti a contrastare la diffusione di video falsi su larga scala.
Nel frattempo, gli esperti continuano a sensibilizzare il pubblico sull’importanza di verificare l’origine delle informazioni prima di fidarsi di cure miracolose o di affermazioni sensazionalistiche legate alla salute. La raccomandazione principale è di affidarsi sempre a fonti mediche affidabili e di diffidare di video che promettono soluzioni rapide a problemi complessi.
Conclusione
I video deepfake che coinvolgono famosi medici rappresentano una grave minaccia per la salute pubblica. Queste truffe, che sfruttano la fiducia costruita nel tempo da medici stimati, rischiano di indurre molte persone a seguire cure non testate e potenzialmente pericolose. La battaglia contro i deepfake è in corso, ma il pubblico deve essere informato e vigile per evitare di cadere in queste trappole digitali.