le critiche

L’AI medica di Google è “poco trasparente”, lo dicono i ricercatori

di |

A inizio anno Google Health ha pubblicato uno studio su un sistema di computer vision che secondo i risultati sarebbe più accurato dei radiologi umani nel riconoscere i tumori al seno dall'analisi delle mammografie. La ricerca però è stata accolta da numerose critiche, ecco perché.

Vi è un interessante dibattito in corso sulla riproducibilità e quindi sulla trasparenza delle ricerche AI in ambito medico.

A inizio anno Google Health ha pubblicato International evaluation of an AI system for breast cancer screening, uno studio su un sistema di computer vision che secondo i risultati sarebbe più accurato dei radiologi umani nel riconoscere i tumori al seno dall’analisi delle mammografie.

A parte le obiezioni su come sia possa stabilire il ground truth per poter fare affermazioni del genere, argomento per il quale vi rimando alla sempre attualissima intervista di Federico Cabitza, la ricerca è stata accolta da numerose critiche perché impossibile da riprodurre.

Per i ricercatori che hanno fatto sentire la loro voce, provenienti da istituzioni come la Johns Hopkins University, l’Harvard University School of Public Health, il Massachusetts Institute of Technology, l’Università di Stanford, il Princess Margaret Cancer Centre e l’Università di Toronto solo per citarne alcune, Google Health avrebbe tenuto riservate le informazioni necessarie a consentire la riproducibilità della ricerca da parte di altri esperti, fra le quali il modello addestrato vero e proprio, dati fondamentali su come è stato eseguito l’addestramento di tale modello, nonché le tecniche per arricchire i dataset usati.

Fra i dati omessi vi sono anche quelli sui pazienti, che Google Health per ragioni di privacy considera riservati, ma che secondo i critici avrebbero potuto essere sostituiti da informazioni sulle analisi predittive dei modelli e sulle etichettature dei dati, cosa che avrebbe almeno consentito ad altri ricercatori di eseguire analisi statistiche.

Nella risposta alle critiche i ricercatori di Google (qui per i fortunati che riescono a oltrepassare il paywall di Nature), oltre a minimizzare l’importanza scientifica dei dati omessi, sottolineano quanto segue: “Inoltre, lo sviluppo di tecnologie mediche d’impatto deve rimanere un’impresa sostenibile per promuovere un ecosistema vivace che sostenga l’innovazione futura. Può essere utile prendere in considerazione a questo proposito parallelismi con i dispositivi medici e i prodotti farmaceutici.

Per Google le ricerche generano profitto

In altre parole, se posso parafrasare: Ricerche del genere sono coperte da segreto perché generano profitto. Se pubblicassimo i nostri modelli per garantirne la riproducibilità, tutti ne potrebbero usufruire gratuitamente, e senza speranze di profitto crollerebbero i finanziamenti sulla ricerca medica in questo ambito.

Per i ricercatori che hanno protestato, studi come quello di Google Health hanno uno scarso valore scientifico se non forniscono codice, dataset e informazioni necessarie alla riproducibilità. Le riviste scientifiche, inoltre, dovrebbero adottare standard di trasparenza più elevati quando danno spazio a ricerche su AI e medicina.

Sull’argomento della riproducibilità dei “tool AI” ho voluto sentire il parere del Prof. Federico Cabitza, professore associato di Interazione Uomo-Machina per il Corso di Laurea in Informatica e docente titolare di Data Visualization per il Corso di Laurea Magistrale in Data Science presso l’Università degli Studi di Milano-Bicocca citato all’inizio, che ha commentato: “Nessuno chiede a Siemens il blueprint di una RMN per pubblicare uno studio che dimostri l’efficacia dell’uso di questa metodica per la diagnosi della patologia x. Perché dovrebbero chiederlo di un modello di ML? L’equivoco è il replacement dell’umano. C’è qualcosa di profondamente sbagliato in come questi strumenti forniscono il loro output. Non deve essere una diagnosi o un giudizio automatico, ma elementi per il giudizio del medico. Questo è poco, ma fondamentale.

Dunque è sbagliato considerare l’AI in campo medico – ma non solo – come un oracolo che va a sovrapporsi al giudizio umano, come questo tipo di paragoni (“il modello di machine learning è più accurato degli umani“) potrebbe suggerire.

Le indicazioni dell’intelligenza artificiale devono andare ad aiutare la decisione del medico in carne e ossa, e non sostituirlo. Solo imparando a bilanciare sapientemente il rapporto e l’interazione fra esperto umano e strumento informatico – per quanto complesso ed efficace possa sembrare – saremo in grado di trarre il massimo vantaggio dall’intelligenza artificiale.