AI-Image Credit: Have a nice day Photo/Shutterstock.com.
La maggior parte delle cause non penali verte su chi pagherà per cattiva condotta, e entrambe le parti sembrano ritenersi innocenti. Con il crescente utilizzo dell’intelligenza artificiale (IA) in medicina, sempre più persone sembrano porsi la stessa domanda: se i medici utilizzano sistemi di AI medica per diagnosi e trattamenti e commettono un errore che alla fine danneggia il paziente, chi dovrebbe essere ritenuto responsabile?
Questo articolo si concentra sulle implicazioni legali dell’uso dell’intelligenza artificiale nelle diagnosi mediche e nelle raccomandazioni terapeutiche.
L’aumento dell’uso dell’intelligenza artificiale in medicina
La tecnologia dell’intelligenza artificiale, inclusi i modelli di apprendimento automatico (ML) e di apprendimento profondo (DL), è stata ampiamente applicata negli Ospedali e nelle Cliniche di tutto il mondo per diverse applicazioni, tra cui il rilevamento degli ictus, lo screening della retinopatia diabetica e la previsione dei ricoveri ospedalieri .
Numerose indagini hanno dimostrato che questa tecnologia ha apportato notevoli benefici al sistema sanitario, facilitando soluzioni più intelligenti e rapide sia per i medici che per i pazienti. .
Analizzando in modo rapido ed efficiente grandi set di dati, gli strumenti di intelligenza artificiale consentono una diagnosi accelerata delle malattie e il monitoraggio della risposta al trattamento.
Per la diagnosi e la diagnosi precoce del cancro, i radioligi utilizzano questi algoritmi basati sull’intelligenza artificiale per identificare pattern nelle immagini radioligiche impercettibili all’occhio umano.
Ad esempio, sono stati progettati algoritmi di intelligenza artificiale per analizzare le immagini della tomografia computerizzata (TC) e i dati della risonanza magnetica (RM) per sottoporre i pazienti a screening per il cancro ai polmoni e alla prostata, rispettivamenre.
La strategia basata sulla DL è stata utilizzata nella diagnosi precoce del cancro al seno attraverso l’interpretazione di immagini mammografiche bidimensionali e tridimensionali. Diversi studi hanno dimostrato che l’intelligenza artificiale ha migliorato la precisione complessiva quando utilizzata come strumento aggiuntivo dai radiologi nell’interpretazione delle mammografie.
Attualmente, molti algoritmi disponibili in commercio non funzionano in modo efficiente a causa della mancanza di dati completi sull’efficacia clinica.
Gli scienziati hanno utilizzato l’intelligenza artificiale per facilitare la caratterizzazione automatizzata dell’eterogeneità intratumorale, contribuendo a prevedere la progressione della malattia e l’efficacia del trattamento. L’algoritmo DL è stato utilizzato per valutare le immagini di TC, RM e tomografia a emissione di positroni (PET).
La valutazione radiomica della morfologia tumorale ha portato a un monitoraggio più preciso della risposta al trattamento dei tumori solidi.
Gli strumenti di intelligenza artificiale in ambito sanitario, come IBM Watson Health, Google DeepMind Health, Eyenuk, IBEX Medical Analytics, Aidoc e Butterfly iQ, sono tra le piattaforme più diffuse utilizzate da medici, radiologi, psicologi e altri operatori sanitari per la diagnosi delle malattie e la pianificazione del trattamento di varie patologie.
Chi è il responsabile? Una lunga discussione
Se un errore dell’IA dovesse causare un effetto indesiderato, i medici potrebbero trasferire agli sviluppatori la responsabilità delle prestazioni errate dell’IA e l’azienda potrebbe sottolineare che le decisioni in merito alle cure mediche spettano in ultima analisi ai medici.
Nell’era del continuo aumento dell’uso dell’intelligenza artificiale nel settore sanitario, è importante capire chi dovrebbe assumersi la responsabilità, ovvero lo sviluppatore dell’intelligenza artificiale, l’operatore sanitario o qualsiasi altro soggetto interessato, quando una diagnosi o un piano di trattamento basato sull’intelligenza artificiale danneggia un paziente.
Attualmente, non esiste una chiara linea di responsabilità tra operatori sanitari, sviluppatori di sistemi di intelligenza artificiale e autorità di regolamentazione che li supervisionano in merito a giudizi errati che danneggiano i pazienti.
Pertanto, sono necessarie politiche complete per assegnare la responsabilità della protezione dei pazienti. Inoltre, è necessaria maggiore chiarezza per comprendere se vi siano responsabilità lungo tutta la filiera dell’IA.
Considerazioni legali sull’uso dell’intelligenza artificiale in ambito sanitario
Sebbene l’applicazione dell’intelligenza artificiale nelle diagnosi e nei trattamenti medici abbia avuto effetti estremamente positivi, questa tecnologia è anche associata a valide preoccupazioni legali in materia di responsabilità, privacy e conformità normativa .
Ad esempio, gli strumenti di intelligenza artificiale si basano sull’accesso ai dati sanitari dei pazienti, il che ha sollevato la questione della protezione della privacy dei dati e della trasparenza nel loro utilizzo. Per proteggere le informazioni sanitarie sensibili dalla divulgazione, nel 1996 sono state istituite normative come l’Health Insurance Portability and Accountability Act (HIPAA).
I sistemi di intelligenza artificiale opachi possono perpetuare le preferenze attraverso squilibri nei dati di addestramento, il che potrebbe portare lo strumento di intelligenza artificiale ad aggravare i pregiudizi esistenti. I sistemi di intelligenza artificiale possono generare raccomandazioni terapeutiche ingiuste o discriminatorie se addestrati con dati relativi a specifiche caratteristiche demografiche dei pazienti, riducendone la generalizzabilità.
Nella maggior parte dei sistemi di intelligenza artificiale, il loro funzionamento interno rimane inspiegato, come se fossero “scatole nere”, il che riduce la responsabilità nelle decisioni guidate dall’intelligenza artificiale.
Una maggiore trasparenza. Gli sviluppatori di intelligenza artificiale devono garantire la trasparenza in merito al meccanismo del dispositivo, ai limiti e alla convalida clinica.
I medici sono liberi di utilizzare l’intelligenza artificiale, ma molti scelgono di non farlo, pur comprendendone i vantaggi, per paura che eventuali errori commessi tramite strumenti di intelligenza artificiale possano indurli a praticare una medicina al di sotto degli standard di cura.
È probabile che la maggior parte degli strumenti di intelligenza artificiale in ambito sanitario non siano compatibili con le normative della Food and Drug Administration (FDA) statunitense, poiché il quadro normativo attuale si concentra sui dispositivi medici anziché sugli algoritmi software adattivi.
Pertanto, è necessario formulare nuove normative specifiche per affrontare l’intelligenza artificiale in medicina. Ciò promuove l’innovazione per migliorare l’efficacia e garantire la sicurezza degli utenti.
Considerazioni future per risolvere la questione relativa alle passività
Le posizioni normative sugli strumenti di intelligenza artificiale in medicina variano da paese a paese, in base a fattori come la tolleranza al rischio e il desiderio di stimolare l’innovazione. La collaborazione internazionale in corso tra governance e intelligenza artificiale in ambito sanitario svolgerà un ruolo cruciale nel superare questo ostacolo e promuovere l’innovazione e il benessere pubblico.
Sono urgentemente necessari regolamenti precisi, meccanismi di responsabilità e standard tecnici per supportare l’uso dell’intelligenza artificiale in medicina.
Scienziati e responsabili politici ritengono che l’analisi continua delle distorsioni, della trasparenza e della privacy dei dati sarà fondamentale per migliorare l’accuratezza e l’utilizzo degli strumenti di intelligenza artificiale nel settore medico.
Leggi anche:AI rivoluziona le scansioni TC
I sistemi di intelligenza artificiale devono fornire le motivazioni alla base di una diagnosi. Questo aiuterà i medici a valutare se le caratteristiche chiave siano state considerate per la diagnosi di una malattia. Inoltre, gli enti regolatori devono stabilire un meccanismo per valutare le prestazioni reali dei sistemi di intelligenza artificiale e rilevare eventuali errori nel dispositivo.