Ultimo aggiornamento: 23 gennaio 2020
Sono in molti a essere convinti che l’intelligenza artificiale rivoluzionerà la medicina, e quindi anche l’oncologia. Diagnostica, terapia e sviluppo di nuovi farmaci sono solo alcuni dei campi in cui computer e algoritmi possono fare la differenza. L’entusiasmo per la novità non deve però fare dimenticare i limiti di questa tecnologia, che va presa con qualche cautela.
Un gruppo di ricercatori del Dipartimento di ricerca di Google ha inserito in un computer oltre 42.000 immagini acquisite mediante tomografia computerizzata (TAC) del torace per “allenarlo” a riconoscere le lesioni polmonari che possono nascondere un tumore. La macchina ha quindi elaborato un algoritmo con il quale è in grado di valutare se un certo paziente ha un tumore del polmone.
I ricercatori hanno scoperto che l’algoritmo permette di ottenere l’11 per cento di risultati falsi positivi in meno (paziente sano a cui viene erroneamente diagnosticato un tumore) e il 5 per cento di falsi negativi in meno (paziente con tumore che viene classificato come sano) rispetto a quando le stesse immagini sono state analizzate da un radiologo esperto. I risultati dello studio sono stati pubblicati su Nature Medicine, un’importante rivista medica, e confermano quanto riscontrato in altri ambiti dell’oncologia: le macchine sembrano essere più efficaci degli esseri umani nell’interpretare le immagini anche nel caso di alcuni tumori cerebrali e della pelle.
Possiamo quindi mandare in pensione i radiologi? Non proprio, perché la superiorità della macchina sull’uomo si conferma solo quando viene analizzata una immagine per volta. Quando si devono invece confrontare una TAC recente e una più vecchia (quindi quando si devono scovare le differenze tra due immagini), la performance dell’algoritmo e quella del radiologo esperto si equivalgono. Non a caso gli autori hanno concluso dicendo che la loro ricerca “crea l’opportunità per ottimizzare il processo di screening per il tumore del polmone mediante assistenza da parte del computer e automazione”. Assistenza e non sostituzione, e solo in fase di screening, ovvero nel momento in cui si esamina una persona che non presenta sintomi e che non si è sottoposta in precedenza ad altre analisi.
Di intelligenza artificiale, abbreviata in AI dall’inglese artificial intelligence, si sente parlare sempre più spesso nei convegni scientifici e ogni mese escono molti articoli in cui se ne discutono le potenzialità in medicina. L’uso dell’AI per la diagnostica è stato un tema al centro di diverse sessioni di ASCO, il congresso di oncologia clinica più importante del mondo, che raccoglie oltre 40.000 esperti e che si è tenuto all’inizio di giugno 2019 a Chicago.
Come hanno spiegato i ricercatori riuniti sulle rive del lago Michigan (tra i quali vi erano anche gli scienziati di Google che hanno condotto lo studio di cui sopra), l’AI cerca di riprodurre i processi mentali complessi caratteristici dell’intelligenza umana mediante l'uso di algoritmi sviluppati e computer addestrati a imparare da successi ed errori. In genere, infatti, quando si parla di intelligenza artificiale ci si riferisce anche al machine learning (letteralmente “apprendimento della macchina”), la branca dell’AI in cui si progettano computer e software in grado di processare moltissimi dati e migliorare la propria performance accumulando esperienza di successi ed errori di valutazione, idealmente senza la supervisione dell’uomo. Il prodotto del machine learning è un algoritmo, ovvero un insieme di istruzioni che il computer segue per dare una soluzione a un determinato problema.
I nodi aperti riguardo all’uso dell’AI in medicina sono però ancora numerosi. Un primo punto critico riguarda la validazione degli algoritmi (cioè la determinazione degli ambiti in cui sono effettivamente affidabili). Servono studi che provino che lo strumento sviluppato possa essere utilizzato nella vita reale. I modelli creati dall’AI, infatti, potrebbero non essere applicabili a tutti i gruppi di pazienti che un medico incontra nella propria pratica quotidiana. Inoltre i dati prodotti dalle diverse istituzioni possono essere eterogenei o di scarsa qualità: la bontà del risultato dell’apprendimento della macchina dipende anche dal materiale con cui viene istruita.
Inoltre la logica dei modelli predittivi del machine learning resta in gran parte ignota. Nella pratica medica le decisioni cliniche sono da sempre prese sulla base di un razionale (nel caso delle immagini, per esempio, si guarda la forma della lesione, il colore, la densità e altri parametri oggettivi). Spesso invece i parametri che hanno avuto un peso più o meno rilevante nella creazione dell’algoritmo non sono necessariamente evidenti, per cui non sembra ragionevole formulare diagnosi o proporre terapie senza un sufficiente grado di comprensione e trasparenza del sistema.
Infine la condivisione dei dati e la tutela della privacy dei pazienti rappresentano un problema pratico non indifferente di cui si dovranno occupare le istituzioni nazionali e internazionali incaricate della regolamentazione.
“Sebbene queste tecnologie promettano di aumentare la produttività e migliorare i risultati, bisogna ricordare che, proprio come i loro creatori umani, non sono infallibili” ha spiegato Benjamin H. Kann della Yale School of Medicine. “È necessario introdurle con un occhio critico, tenendo a mente i loro limiti, che devono essere conosciuti anche dalle autorità responsabili dei processi decisionali e dell’organizzazione dei sistemi sanitari.”
Agenzia Zoe