AI & ROBOTICA

Di chi è la colpa?

Partendo da un lavoro pubblicato su JAMA, ragioniamo con il medico legale Michelangelo Casali sulle tematiche relative a colpa e Intelligenza Artificiale in medicina

Price e colleghi hanno pubblicato sulla prestigiosa rivista Journal of the American Medical Academy un interessante lavoro intitolato “Potential Liability for Physicians Using Artificial Intelligence” (Colpa potenziale dei medici che usano IA). Con tutti i limiti di un lavoro scritto tenendo in mente il sistema sanitario e legale Statunitense, queste riflessioni potrebbero tornare utili anche da questo lato dell’oceano. Da Ottobre, quando è apparso per la prima volta online, questo lavoro è stato citato dieci volte dando origine ad un interessante filone di ragionamento.

In quest’articolo di opinione, gli autori sottolineano un punto importante: rispetto ad altri mezzi di supporto decisionale usati in clinica, le IA possono comunicare all’équipe sanitaria decisioni di cui non sanno spiegare le ragioni alla base della proposta.
Potrebbero esserci delle imperfezioni nella definizione dei training set usati in fase di addestramento. Anche se l’addestramento venisse condotto a regola d’arte, potrebbero comunque commettere errori nelle loro mansioni specifiche (come ad esempio consigliare il dosaggio di un farmaco o interpretare un esame radiologico). Da questi possibili errori, potrebbe derivare un danno al paziente. 

Dunque, in che modo mitigare questi rischi e sviluppare politiche che mettano in sicurezza pazienti e medici? Come risultato della loro analisi, gli autori sostengono un ruolo attivo della comunità medica di fronte a questa criticità e propongono alcune strategie:

  • I medici dovrebbero imparare a valutare caso per caso l’uso di IA nella loro pratica, includendo in questa valutazione se e quando implementare strumenti di supporto decisionale e quanto fidarsi dei consigli forniti. Data la scarsezza attuale di strumenti di monitoraggio e verifica, gli autori individuano questo punto come molto critico.
  • A livello di società scientifiche e associazioni professionali, consigliano di intraprendere studi indipendenti di valutazione a lato di quelli condotti dall’FDA. Questo in analogia con il classico modo di procedere nella stesura di linee guida specifiche, anche nei casi in cui le IA non sono coinvolte.
  • A livello di governo clinico delle singole istituzioni, gli autori caldeggiano una collaborazione tra il corpo medico e quello amministrativo. L’implementazione di IA nella pratica dovrebbe essere valutata con la stessa attenzione con cui si valuta l’introduzione di un qualsiasi nuovo dispositivo medico nelle pratiche abituali dell’istituzione.
  • Inoltre, secondo gli autori, i medici dovrebbero confrontarsi con le loro Assicurazioni per definire puntualmente la copertura dei loro interventi basati sull’uso di strumenti di supporto decisionali basati su IA. In caso di litigio, questi interventi verranno trattati in modo uguale o diverso da quelli attuati senza supporto?

Gli autori concludono puntualizzando la complessità del tema trattato e introducendo il concetto di “liability ecosystem”: non solo il medico è coinvolto in questa dinamica, ma anche l’istituzione in cui presta servizio, i produttori di IA e, addirittura gli stessi pagatori dei sevizi. Con l’entrata delle IA nella pratica medica, i medici devono conoscere come la legge assegna le colpe che possono sorgere dall’interazione tra clinici e algoritmi. E questi problemi probabilmente verranno fuori più presto di quanto si possa immaginare oggi.

Su consiglio della presidenza della Società Italiana di Medicina Legale e delle Assicurazioni, abbiamo contattato il Dr. Michelangelo Casali, medico legale all’università di Milano ed esperto del settore (non coinvolto al lavoro pubblicato), per un commento indipendente: “Dal punto di vista medico legale le considerazioni principali sono queste: prima cosa, le aspettative dei pazienti. Più si parla di tecnologia, più si parla di automatismi più le aspettative salgono. Possiamo quindi immaginare che ci sarà sempre meno tolleranza per un risultato differente rispetto a quello atteso. Secondo aspetto, quello effettivamente più delicato: queste nuove tecnologie portano ad avere degli output sicuramente molto prestazionali, senza però offrire all’interpretazione esterna una chiara comprensione del processo che ha portato a quel determinato output.
Finché l’output è quello atteso, non ci sono problemi; qualora si verificasse un output che si può considerare errore, cioè un output differente da quello originariamente atteso, gli strumenti dell’indagine medico legale tradizionale dovranno cambiare: non si potrà più indagare su quale anello della catena produttiva sia stato fallace.  Quindi bisognerà trovare delle nuove coordinate di indagine medico legale che al momento non sono chiare, solo l’esperienza potrà dire come la medicina legale farà ad interpretare le nuove ipotesi di “malasanità”, per usare un termine generalista. La terza è che finché agisce il fattore umano, vale la regola de “La gatta frettolosa e dei gattini ciechi”: oggi fare molto in fretta può essere comprensibilmente nemico della qualità del prodotto ma, una volta che si entrerà nell’era di questa rivoluzione tecnologica, le esigenze dei pazienti saranno la massima prestazione con la massima velocità. Direi che dal punto di vista strettamente metodologico, questi sono gli aspetti medico legali di massimo rilievo in previsione di questa rivoluzione tecnologica.”

Tags
Back to top button
Close
Close