Dottor ChatGPT più rischioso di Dottor Google? Non è escluso, e di certo sta cercando di capirlo il Garante per la Protezione dei Dati Personali, che ha lanciato l’allarme sull’abuso delle piattaforme di AI in ambito sanitario. “È sempre più diffusa la prassi di caricare analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa chiedendo interpretazioni e diagnosi”, si legge in una nota pubblicata oggi dal Garante, che definisce il fenomeno allarmante. Sempre più spesso gli Italiani si affidano a ChatGPT, ad altre piattaforme di AI e non al medico di base o a qualche specialista in carne ed ossa per ottenere diagnosi e pareri.
Il rischio è che le piattaforme AI non siano progettate per diagnosi mediche
“Si tratta di un fenomeno allarmante sia per il rischio di perdita di controllo su dati sanitari di straordinaria importanza per le persone, sia per il rischio che soluzioni di intelligenza artificiale non specificamente progettate allo scopo di fornire le indicazioni richieste e non rese disponibili al pubblico come dispositivi medici a valle dei necessari test e controlli previsti dalla disciplina di settore forniscano indicazioni errate”, si legge.
Valutare condivisione dati sanitari e fiducia nelle risposte
Il Garante della privacy lancia un allarme e invita gli utenti di tali piattaforme a valutare con attenzione l’opportunità di procedere alla condivisione di dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa e quella di fare affidamento sulle risposte generate automaticamente da tali servizi, risposte che dovrebbero sempre essere verificate con un professionista medico.
Dati sanitari sono cancellati o conservati dall’AI per addestrare i suoi algoritmi?
Sotto il primo profilo, in particolare, il Garante richiama l’attenzione sull’opportunità di leggere le informative sulla privacy che i gestori della piattaforme hanno l’obbligo di pubblicare al fine di verificare se i dati sanitari contenuti negli esami clinici caricati online ai fini della richiesta di interpretazione e/o diagnosi siano destinati a essere cancellati a seguito della richiesta medesima, in un momento successivo o a essere conservati dal gestore del servizio ai fini dell’addestramento dei propri algoritmi.
Molti dei più noti servizi di intelligenza artificiale generativa, infatti, consentono agli utenti di decidere la sorte dei dati e documenti caricati online nell’ambito dell’utilizzo del servizio.
Supervisione umana qualificata obbligatoria in ambito sanitario
L’Autorità richiama quindi l’attenzione sull’importanza, riconosciuta sia dal Regolamento europeo sull’IA sia dal Consiglio Superiore di Sanità, di garantire sempre un’intermediazione umana qualificata nell’elaborazione dei dati sanitari tramite sistemi di IA.
L’intervento umano è essenziale per prevenire rischi che potrebbero incidere direttamente sulla salute della persona (cfr. art. 14 Regolamento IA e parere “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica”, Consiglio Superiore di Sanità, Sez. V, 9 novembre 2021).
La “supervisione umana qualificata”, tra l’altro, deve essere garantita in tutte le fasi del ciclo di vita del sistema di IA: dallo sviluppo all’addestramento, fino ai test e alla convalida, prima della sua immissione sul mercato o nel suo utilizzo.
Il tema era stato già anticipato dall’Autorità nel decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di IA adottato nel mese di ottobre del 2023 (doc. web n. 9938038) nell’ambito del quale erano stati evidenziati anche ulteriori aspetti di protezione dei dati personali che devono essere assicurati anche nella realizzazione di tali sistemi a supporto della comprensione di referti diagnostici: come la presenza di un idoneo presupposto di liceità; la necessaria e preventiva valutazione d’impatto; gli obblighi di trasparenza e sicurezza.
Il Garante richiama infine gli sviluppatori dei sistemi di IA e gli operatori del settore sanitario sui rischi che comporta il fenomeno della raccolta massiva di dati personali dal web per finalità di addestramento dei modelli di intelligenza artificiale generativa che sono stati evidenziati nel documento pubblicato a maggio 2024 sul web scraping (doc. web n.10020334).