Google e il cancro

Un algoritmo creato da Google sembra individuare le metastasi del cancro al seno nei linfonodi con una precisione di poco superiore a quella di un gruppo di 6 patologi umani. Ai tumori alla prostata assegna il grado, una misura dell’aggressività, con altrettanta bravura – pare – di 8 patologi specializzati. In velocità però la macchina batte i medici.

Il progetto ha confrontato l’accuratezza diagnostica dei patologi rispetto a quella di un computer su immagini ingrandite di un vetrino contenenti biopsie. I risultati preliminari di questo studio sono stati presentati al meeting annuale dell’American Association for Cancer Research ad aprile 2018 a Chicago e sono parte delle attività di ricerca di Google sull’intelligenza artificiale e sulla capacità delle macchine di apprendere.

 

 

Come ha fatto Google a mettere a punto questo software? Un gruppo di patologi con ampia esperienza, casistica, conoscenza alle spalle ha passato in rassegna milioni di immagini e ha istruito le macchine sull’aspetto che hanno le cellule tumorali in diverse circostanze e preparati. Gli informatici hanno quindi tradotto quelle istruzioni in un modello di comportamento, che è sintetizzato in un algoritmo. La macchina deve utilizzare questo algoritmo sia per decidere se si tratta o meno di un tipo di cancro, sia per imparare ulteriormente dall’esperienza accumulata.

È un po’ come chiedere, nel dubbio, una seconda opinione, solo che la domanda è posta a una macchina anziché a un collega. Potrebbe rendere il lavoro dei patologi più veloce, accurato ed efficace, a beneficio dei pazienti. L’obiettivo è aumentare l’accesso nel mondo a diagnosi di qualità e salvare più vite umane.

Per l’informatica si tratta di risolvere “un problema da ago in un pagliaio” secondo il biofisico Martin Stumpe, responsabile tecnico di Google. L’ago sono le eventuali, rare cellule tumorali da individuare; il pagliaio è il gigantesco numero di altre cellule, non troppo diverse da quelle dell’eventuale tumore (si tratta pur sempre di cellule umane!).

Quando cercate il negozio di pizzi di Pina in una viuzza di Vimercate su una mappa del mondo, state chiedendo al navigatore di fare qualcosa di analogo. Con Google Maps, Street view e programmi simili, Google ha sviluppato algoritmi straordinari che setacciano per noi informazioni dentro immagini dense, complicate, ricchissime di dati.

Vaste quantità di informazioni più o meno recondite si celano nei campioni di tessuto umano prelevati con una biopsia o durante un’operazione. Fino a oggi, e ancora per un po’, sta all’abilità del patologo far sì che la natura sputi il rospo.

Nessun tumore può essere curato efficacemente senza un patologo esperto che abbia osservato un pezzo di tessuto al microscopio e abbia capito, studiando cellula dopo cellula, di quale malanno si tratta.

Per distinguere le cellule in base alla forma basta qualche colorazione convenzionale, con sostanze che usiamo da qualche secolo (grazie professor Ehrlich!). Ma ci sono tumori che si comportano diversamente pur avendo lo stesso aspetto. La parola cancro racchiude in sé centinaia di malattie diverse.

I patologi cercano di individuare ulteriori differenze che precisino la diagnosi. Lo fanno con procedimenti sofisticati, per esempio usando speciali coloranti legati ad anticorpi monoclonali che a loro volta si legano in modo abbastanza specifico a speciali strutture sulla superficie delle cellule, chiamate marcatori. La presenza di uno o più marcatori, per esempio un recettore degli ormoni, può precisare di che tipo di tumore si tratta, indicare quanto è aggressivo, suggerire come meglio curarlo.

Il mestiere del patologo è considerato difficile e ingrato. Distante anni luce dall’aura di gloria che esalta il grande chirurgo, o dal contatto con i pazienti che gratifica l’oncologo medico, il patologo sta chiuso in un laboratorio mai troppo riscaldato (i campioni al caldo si degradano). Qui osserva vetrini per ore e ore al microscopio e soltanto nelle strutture ospedaliere più moderne le immagini sono scandite e visualizzate su uno schermo di un computer.

Un bravo patologo, e sulle piante ne crescono pochi, è un medico di immensa cultura ed esperienza, infinita memoria, notevolissima acuità visiva e straordinaria capacità di fare collegamenti arditi fra casi e immagini. Queste qualità sono tanto più rare e difficili da trovare oggi in una sola persona, data la continua crescita di informazioni da associare a ciascuna diagnosi. Non a caso i patologi si specializzano sempre più in una determinata malattia.

Accuratezza e velocità raramente vanno d’accordo e un bravo patologo ha bisogno soprattutto di tempo per fare diagnosi meticolose e precise. L’intelligenza artificiale lo potrà aiutare a diventare più veloce?

I patologi hanno di frequente opinioni diverse e non è detto che uno abbia ragione e un altro torto. Prendete ad esempio l’assegnazione del grado a un tumore: si tratta di scegliere un numero in una scala che di solito va da 1 a 4, quale indice di aggressività. In gran parte questo è un giudizio soggettivo, fatto non di bianchi e di neri ma di toni di grigio. È un giudizio che si forma in base alla conoscenza, all’esperienza, al numero di casi e al pensiero del singolo medico, come ha dichiarato Jason Hipp, il patologo che ha coordinato i medici coinvolti del progetto di Google.

La sfida per l’intelligenza artificiale è inventare algoritmi sempre più efficaci, che aiutino i patologi a formulare più rapidamente una diagnosi. L’algoritmo deve imitare e superare l’intelligenza umana in un compito complesso: fare il confronto e la sintesi fra le informazioni contenute in un vetrino e quelle di altri milioni di vetrini, conservate sotto forma di immagini digitali in grandi banche dati e farlo alla massima velocità.

Un ostacolo da superare è l’organizzazione ospedaliera. In molti reparti di patologia i vetrini con i campioni di tessuto da analizzare non sono mai scanditi e trasformati in immagini digitali, per mancanza di tempo e risorse. Per questo Google ha progettato un’unità di calcolo collegata a una videocamera che può essere adattata alla maggior parte dei microscopi. Il risultato è un microscopio a realtà aumentata, in cui l’unità di calcolo è in grado di analizzare il campione, identificare le possibili aree cancerose in tempo reale e scattare una foto del campione stesso in modo che possa essere memorizzato e condiviso digitalmente.

Nell’immagine, a sinistra una fotocamera digitale acquisisce lo stesso campo visivo (FoV) dell’utente e passa l’immagine a un’unità di calcolo collegata che è in grado di eseguire in tempo reale una forma di apprendimento automatico. I risultati sono riportati in un display personalizzato di realtà aumentata collegato con la lente oculare e in grado di proiettare il risultato ottenuto dalla macchina sullo stesso piano della diapositiva. A destra: un’immagine del prototipo che è stata adattata a un tipico microscopio ottico per uso clinico. Fonte: Google.

Il microscopio a realtà aumentata potrebbe portare l’intelligenza artificiale al servizio di tutti i patologi e ricercatori che studiano il cancro, secondo Martin Stumpe, che nelle conclusioni alla sua presentazione all’AACR ha parlato anche di “democratizzazione” della tecnologia.

Anni fa avevo assistito a un consulto telematico via satellite da Roma a Baghdad, dove medici italiani aiutavano medici in Irak a stabilire diagnosi e cure per bambini malati di tumore. Se i risultati del microscopio a realtà aumentata si confermeranno in studi clinici più ampi e se i costi saranno accessibili, questa tecnologia potrebbe davvero cambiare in meglio la vita dei patologi e dei pazienti, soprattutto nei centri ospedalieri più poveri e svantaggiati, dove le diagnosi potrebbero diventare più precise, accurate, rapide.

La tecnologia potrà essere applicata anche ad altri tipi di tumore? Per ora gli algoritmi sono stati sperimentati per le diagnosi di cancro al seno metastatico e della prostata. In principio si potranno creare algoritmi per ogni tipo di tumore o di malattia che richieda l’esame di un tessuto. Basta che siano disponibili dati e conoscenze sufficienti, e patologi esperti con cui addestrare e istruire una macchina.

Nella presentazione di Google mancano però alcune questioni a mio avviso cruciali. Le foto digitali dei campioni ottenute con il microscopio a realtà aumentata e le informazioni sulle diagnosi potrebbero via via andare a riempire un grande repertorio di immagini e dati diagnostici. Forse il più grande al mondo, se la tecnologia sarà adottata ampiamente. A chi apparterrà quel repertorio? A Google? Che diritti avranno i pazienti e i loro familiari sui dati ottenuti dai propri campioni biologi? E che ruolo avranno i medici e gli ospedali che li hanno avuti in cura? Il repertorio sarà accessibile a tutti? A quali condizioni? Chi garantirà la privacy?

E poi, se la macchina sbaglia? In caso di errore grave, con chi se la dovrà prendere un paziente: con Google che ha suggerito una diagnosi fantasiosa o con il patologo che l’ha sottoscritta? E ancora, le macchine impareranno davvero da successi ed errori?

Infine una domanda da sindacalista: di quanti patologi avrà bisogno il mondo con l’introduzione di queste macchine? Pochi, solo i più bravi, capaci di istruire e controllare le macchine di Google dai centri ospedalieri più grandi e importanti? Nei piccoli ospedali basteranno tecnici in grado di preparare i campioni?

Anni fa Google ha tentato di costruire la biblioteca digitale più grande al mondo. Con Google Books gli ingegneri di Mountain View volevano portare i libri ovunque nel mondo, a chi non li aveva. Volevano cambiare in meglio la vita delle persone. Questo progetto bellissimo e potente, dopo un investimento di milioni di dollari, si è arenato fra dispute legali, complicate catene di diritti, ire di autori ed editori. Tanto rumore per dei libri. Cosa succederà con la salute?

Il microscopio a realtà aumentata ha un potenziale grande ed entusiasmante di salvare tante vite umane. I patologi, gli oncologi, i pazienti vanno aiutati ad accettare questa tecnologia con le dovute risposte e rassicurazioni.

 

Per scrivere questo post ho ascoltato la presentazione di Martin Stumpe al congresso dell’AACR a Chicago (16/4/2018) e ho consultato questo articolo: Kevin McLaughlin, Artificial Intelligence Characterizes Cancer, Cancer Today (16/4/18). In apertura, Jason Hipp e Martin Stumpe mentre presentano all’AACR (Fonte: AACR/Phil McCarten 2018).

Per la lezione

Prosegui la lettura

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *