
Un preambolo dovuto: in quest’articolo userò il concetto di “recente” per due lavori pubblicati lo scorso Ottobre. Nella ricerca scientifica i tempi sono lunghi e le opinioni ponderate…
In un recente fascicolo di Lancet Digital Health sono comparsi un articolo e un commento molto interessanti, rispettivamente: ”A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis” e “Human versus machine in medicine: can scientific literature answer the question?”.
Questo grandioso progetto di ricerca ha portato all’analisi
di più di 20500 lavori scientifici pubblicati tra Gennaio 2012 e Giugno 2019
che trattavano la comparazione tra medici “in carne e ossa” e modelli di deep
learning (un tipo particolare di intelligenza artificiale, o “AI”)
nell’interpretare immagini radiologiche, come ad esempio lastre, TAC o
risonanze, foto e materiale istologico (i vetrini che si guardano al
microscopio).
Di questo enorme corpus, secondo i criteri stabiliti dagli autori, meno di 100
lavori meritavano di essere inclusi nella revisione critica della bibliografia
disponibile sull’argomento e solo 25 nella meta-analisi dei dati.
Di questi 25 articoli in meta-analisi, solo 14 hanno usato lo stesso set di
dati per valutare sia i medici che l’AI.
L’analisi dei dati presentati in questi 14 pubblicazioni ha mostrato: una sensibilità combinata dell’87,0% per i modelli di deep learning vs 86,4% per i medici ed una specificità combinata del 92,5% per i modelli di deep learning vs 90,5% per i medici. Quindi le performances sono praticamente sovrapponibili.
Inoltre, gli autori hanno sottolineato come i lavori esaminati valutassero le AI al di fuori del contesto clinico in cui i medici di solito lavorano.
Abbiamo contattato uno dei massimi esperti sull’argomento per commentare questa notizia, il Prof. Carlo Nicola de Cecco, docente di radiologia e informatica medica della Emory University di Atlanta.
“…è un lavoro molto interessante, e la prima solida meta-analisi. A partire da questi dati si possono fare alcune considerazioni importanti: punto primo, le AI hanno un ruolo e avranno un ruolo sempre maggiore. Come si vede in questi studi gli algoritmi già ad oggi pareggiano e, a volte, surclassano la performance del professionista per quanto riguarda il riconoscimento e la diagnosi nel caso particolare, ad esempio classificare la gravità di un nodulo polmonare. Siamo in una fase ancora molto acerba: gli algoritmi che sono stati analizzati sono narrow, ossia sono in grado di dare risultati su problemi molto specifici e determinati. La sfida è arrivare a applicazioni broad: abbiamo bisogno di AI che sappiano leggere una lastra del torace, dove posso trovare un nodulo polmonare ma anche molte altre cose.
Inoltre è molto importante un altro discorso: l’implementazione nella pratica clinica. Come integrare gli algoritmi in modo da arrivare ad una diagnostica più raffinata? Ci servono algoritmi in grado di riconoscere tante diverse condizioni e che aiutino i medici, che spesso lavorano in contesti affollati, a dare risposte veloci e accurate.
Oltretutto molti degli studi analizzati, per stessa affermazione degli autori, presentano bias importanti e applicazioni di ricerca che non rispecchiano la pratica clinica.
Concludendo, il mondo dell’AI biomedicale sta crescendo e sta portando risultati importanti e che aprono scenari affascinanti e grandi opportunità per il futuro. C’è molto lavoro per portare questi nuovi strumenti nella pratica quotidiana reale. Sicuramente non andranno a rimpiazzare il medico, ma lo aiuteranno e coadiuveranno a dare risposte sempre più tempestive, accurate ed affidabili.
Le AI non vanno temute, ma è uno strumento che deve essere sviluppato e ci porterà ad ottenere risultati migliori di quelli che abbiamo oggi”.