Ora diciamo che in qualche modo avevi un cervello superpotente in grado di leggere e comprendere tutte quelle informazioni. Avresti ancora un problema: non sapresti cosa non è stato trattato in quei libri – a quali domande non hanno risposto o quali esperienze hanno tralasciato.Allo stesso modo, i ricercatori di oggi hanno un’incredibile quantità di dati da esaminare. Tutti gli studi peer-reviewed del mondo contengono più di 34 milioni di citazioni. Milioni di set di dati in più esplorano come cose come analisi del sangue, storia medica e familiare, genetica e tratti sociali ed economici influiscono sui risultati dei pazienti.L’intelligenza artificiale ci consente di utilizzare più che mai di tutto questo materiale. I modelli emergenti possono organizzare in modo rapido e accurato enormi quantità di dati, prevedendo potenziali risultati per i pazienti e aiutando i medici a effettuare chiamate per trattamenti o cure preventive.La matematica avanzata ha grandi promesse. Alcuni algoritmi – istruzioni per la risoluzione dei problemi – possono diagnosticare il cancro al seno con maggiore precisione rispetto ai patologi. Altri strumenti di intelligenza artificiale sono già in uso in ambito medico, consentendo ai medici di cercare più rapidamente la storia medica di un paziente o di migliorare la loro capacità di analizzare le immagini radiologiche.Ma alcuni esperti nel campo dell’intelligenza artificiale in medicina suggeriscono che mentre i vantaggi sembrano ovvi, i pregiudizi meno noti possono minare queste tecnologie. In effetti, avvertono che i pregiudizi possono portare a un processo decisionale inefficace o addirittura dannoso nella cura dei pazienti.Nuovi strumenti, stessi pregiudizi?Mentre molte persone associano il “pregiudizio” a pregiudizi personali, etnici o razziali, ampiamente definiti, il pregiudizio è una tendenza a inclinarsi in una certa direzione, a favore o contro una cosa particolare.In senso statistico, il bias si verifica quando i dati non rappresentano in modo completo o accurato la popolazione che si intende modellare. Ciò può accadere a causa di dati scarsi all’inizio o può verificarsi quando i dati di una popolazione vengono applicati per errore a un’altra.Entrambi i tipi di pregiudizio – statistico e razziale/etnico – esistono nella letteratura medica. Alcune popolazioni sono state studiate di più, mentre altre sono sottorappresentate. Ciò solleva la domanda: se costruiamo modelli di intelligenza artificiale dalle informazioni esistenti, stiamo solo passando i vecchi problemi alla nuova tecnologia?
“Beh, questa è sicuramente una preoccupazione”, afferma David M. Kent, MD, Direttore del Predictive Analytics and Comparative Effectiveness Center presso il Tufts Medical Center.In un nuovo studio, Kent e un team di ricercatori hanno esaminato 104 modelli che predicono le malattie cardiache, modelli progettati per aiutare i medici a decidere come prevenire la condizione. I ricercatori volevano sapere se i modelli, che avevano funzionato accuratamente in precedenza, avrebbero funzionato anche se testati su un nuovo set di pazienti.Le loro scoperte?
I modelli “hanno fatto peggio di quanto la gente si aspetterebbe”, dice Kent. Non sono sempre stati in grado di distinguere i pazienti ad alto rischio da quelli a basso rischio. A volte, gli strumenti sopravvalutavano o sottovalutavano il rischio di malattia del paziente. In modo allarmante, la maggior parte dei modelli aveva il potenziale di causare danni se utilizzata in un contesto clinico reale.
Perché c’era una tale differenza nelle prestazioni dei modelli rispetto ai loro test originali, rispetto ad ora? Distorsioni statistiche.
“I modelli predittivi non si generalizzano così come le persone pensano di generalizzare”, afferma Kent. Quando si sposta un modello da un database all’altro, o quando le cose cambiano nel tempo (da un decennio all’altro) o nello spazio (da una città all’altra), il modello non riesce a cogliere queste differenze.Ciò crea pregiudizi statistici. Di conseguenza, il modello non rappresenta più la nuova popolazione di pazienti e potrebbe non funzionare altrettanto bene.“Ciò non significa che l’IA non dovrebbe essere utilizzata nell’assistenza sanitaria”, afferma Kent. “Ma mostra perché la supervisione umana è così importante. Lo studio non mostra che questi modelli siano particolarmente cattivi. Evidenzia una vulnerabilità generale dei modelli che cercano di prevedere il rischio assoluto. Dimostra che è necessario un migliore controllo e aggiornamento dei modelli”.Ma anche la supervisione umana ha i suoi limiti, come avvertono i ricercatori in un nuovo articolo che si argomenta a favore di un processo standardizzato. “Senza un tale quadro, possiamo solo trovare il pregiudizio che pensiamo di cercare”, osservano. “Ancora una volta, non sappiamo cosa non sappiamo”.Bias nella “scatola nera”
La razza è una miscela di attributi fisici, comportamentali e culturali. È una variabile essenziale nell’assistenza sanitaria. Ma la razza è un concetto complicato e possono sorgere problemi quando si utilizza la razza negli algoritmi predittivi. Sebbene ci siano differenze di salute tra i gruppi razziali, non si può presumere che tutte le persone in un gruppo avranno lo stesso risultato di salute. David S. Jones, MD, PhD, Professore di cultura e medicina all’Università di Harvard e coautore di Hidden in Plain Sight – Reconsidering the Use of Race Correction in Algorithms, afferma che “molti di questi strumenti [algoritmi analogici] sembrano indirizzare le risorse sanitarie verso i bianchi”.Più o meno nello stesso periodo, i ricercatori Ziad Obermeyer, MD, ed Eric Topol, MD, hanno identificato pregiudizi simili negli strumenti di intelligenza artificiale.La mancanza di diversità negli studi clinici che influenzano la cura dei pazienti è stata a lungo motivo di preoccupazione. “Una preoccupazione ora”, afferma Jones, “è che l’utilizzo di questi studi per costruire modelli predittivi non solo trasmette questi pregiudizi, ma li rende anche più oscuri e più difficili da rilevare”.Prima dell’alba dell’IA, gli algoritmi analogici erano l’unica opzione clinica. Questi tipi di modelli predittivi sono stati calcolati manualmente anziché automatici.“Quando si utilizza un modello analogico”, afferma Jones, “una persona può facilmente guardare le informazioni e sapere esattamente quali informazioni sul paziente, come la razza, sono state incluse o non incluse”.Vedi anche:Medicina personalizzata: e se conoscessi il tuo rischio unico per ogni malattia?Ora, con gli strumenti di apprendimento automatico, l’algoritmo potrebbe essere proprietario, il che significa che i dati sono nascosti all’utente e non possono essere modificati. È una “scatola nera”. Questo è un problema perché l’utente, un fornitore di cure, potrebbe non sapere quali informazioni sul paziente sono state incluse o in che modo tali informazioni potrebbero influenzare le raccomandazioni dell’IA.“Se utilizziamo la razza in medicina, deve essere totalmente trasparente in modo da poter capire ed esprimere giudizi ragionati sull’adeguatezza dell’uso”, afferma Jones. “Le domande a cui è necessario rispondere sono: come e dove utilizzare le etichette di razza in modo che facciano del bene senza fare del male”.Dovresti preoccuparti dell’IA nell’assistenza clinica?
Nonostante il diluvio di ricerca sull’IA, la maggior parte dei modelli clinici deve ancora essere adottata nell’assistenza nella vita reale. Ma se sei preoccupato per l’uso della tecnologia, Jones suggerisce di essere proattivo. Puoi chiedere al fornitore: “Ci sono modi in cui il tuo trattamento nei miei confronti si basa sulla tua comprensione della mia razza o etnia?” Questo può aprire il dialogo sulle decisioni del fornitore.Nel frattempo, il consenso tra gli esperti è che i problemi relativi ai pregiudizi statistici e razziali all’interno dell’intelligenza artificiale in medicina esistono e devono essere affrontati prima che gli strumenti siano utilizzati su larga scala.”Il vero pericolo è che tonnellate di denaro vengano riversate in nuove società che stanno creando modelli di previsione che sono sotto pressione per un buon [ritorno sull’investimento]”, afferma Kent. “Ciò potrebbe creare conflitti per diffondere modelli che potrebbero non essere pronti o sufficientemente testati, il che potrebbe peggiorare la qualità dell’assistenza anziché migliorarla”. Fonte:webMD