salute

OpenAI vuole sostituire i medici, ecco ChatGPT Salute. I rischi di errori o interpretazioni fuorvianti

di |

Il servizio, per ora disponibile solo con lista d’attesa e fuori da Unione Europea, Regno Unito e Svizzera, consente di collegare cartelle cliniche e app di monitoraggio come Apple Salute o MyFitnessPal. Ma quanto può essere davvero sicuro affidare a un chatbot informazioni sanitarie e decisioni, anche indirette, sulla propria salute?

OpenAI apre un nuovo capitolo nell’uso dell’AI per la salute e presenta ChatGPT Salute, un’esperienza dedicata dentro ChatGPT pensata per integrare le informazioni sanitarie. L’obiettivo, nelle parole dell’azienda, è aiutare le persone a sentirsi più informate, preparate e sicure quando devono gestire la propria salute, interpretare dati, prepararsi a una visita o orientarsi tra documenti e app.

Il servizio, per ora disponibile solo con lista d’attesa e fuori da Unione Europea, Regno Unito e Svizzera, consente di collegare cartelle cliniche e app di monitoraggio come Apple Salute o MyFitnessPal, mantenendo le conversazioni separate dal resto dell’esperienza e dichiaratamente escluse dall’addestramento dei modelli.

Ma proprio perché entra in un ambito ad alto rischio, la novità porta con sé una domanda inevitabile: quanto può essere davvero sicuro affidare a un chatbot informazioni sanitarie e decisioni, anche indirette, sulla propria salute?

Rischio di errori o interpretazioni fuorvianti

Anche con una modalità dedicata, ChatGPT resta un sistema probabilistico: può sbagliare, semplificare troppo o dare risposte convincenti ma non corrette. Nel contesto sanitario questo è particolarmente pericoloso, perché l’utente può prendere decisioni basandosi su un’informazione letta “in buona fede”.

Rischio di falsa sicurezza e autodiagnosi

La stessa promessa di “sentirsi più preparati” può trasformarsi in un effetto collaterale: l’utente si affida al chatbot più di quanto dovrebbe, ritarda una visita, cambia terapia senza consulto o interpreta segnali clinici come meno urgenti. È un rischio noto in tutte le tecnologie di supporto alla salute: più l’esperienza è fluida e credibile, più può aumentare la fiducia anche quando non dovrebbe.

Dati personali esposti

Collegare cartelle cliniche e app rende le risposte più pertinenti, ma aumenta la superficie d’attacco. Più dati entrano nel sistema, più diventa delicata la protezione: basta un accesso non autorizzato all’account, una password debole, un dispositivo condiviso o compromesso, per trasformare quell’area “separata” in un bersaglio ad alto valore.

Sicurezza e dipendenza da terze parti

Le integrazioni con EHR e app passano inevitabilmente da soggetti esterni: sistemi sanitari, piattaforme di connessione, provider di app. In pratica, i dati non sono solo “in ChatGPT”, ma viaggiano tra più attori. Ogni attore aggiunge un punto potenziale di vulnerabilità: bug, errori di configurazione, violazioni, o policy non perfettamente allineate. Anche se l’integrazione avviene con consenso esplicito, l’ecosistema è più complesso e quindi più fragile.

Profilazione e usi indiretti

OpenAI dichiara che le conversazioni in Salute non vengono usate per addestrare i modelli di base. È un punto importante. Ma per l’utente medio resta difficile capire la differenza tra training, log, retention tecnica, gestione degli incidenti, controlli interni e analisi aggregate. In generale, ogni volta che una piattaforma gestisce dati sanitari, il rischio non è solo l’abuso diretto, ma anche l’uso indiretto: analytics, trend, segmentazioni, o interazioni con servizi collegati. Per questo la trasparenza sulle policy e la capacità di controllo reale (eliminazione, revoca accessi, gestione delle memorie) diventano centrali.

Bias e mancanza di personalizzazione clinica reale

Anche con dati personali, un chatbot non sostituisce una valutazione clinica: manca l’esame obiettivo, non conosce davvero la storia medica completa, non vede il contesto sociale e familiare, non “misura” i sintomi. Inoltre i modelli possono incorporare bias: ad esempio risposte meno accurate su alcune popolazioni, condizioni rare o casi atipici. Qui il rischio è ricevere indicazioni “standard” su situazioni che standard non sono.

Confini di responsabilità ancora grigi

Quando l’AI entra in un’area come la sanità, la domanda diventa anche: chi risponde se qualcosa va storto? L’azienda specifica che non è un sistema di diagnosi o trattamento, ma nella pratica l’utente può usarlo comunque come se lo fosse. Questa distanza tra “uso dichiarato” e “uso reale” è uno dei punti più delicati e probabilmente sarà oggetto di attenzione regolatoria.

Come può proteggersi un utente (senza demonizzare lo strumento)

  • Usarlo come supporto per capire e preparare domande, non per decidere terapie.
  • Verificare sempre con un medico quando compaiono sintomi nuovi, intensi o persistenti.
  • Non inserire dati identificativi superflui e fare attenzione ai dettagli.
  • Attivare l’autenticazione a più fattori e proteggere l’account.
  • Valutare se collegare davvero cartelle cliniche e app: è utile, ma va fatto sapendo che si sta aumentando l’esposizione.
  • Conservare un’abitudine “critica”: se una risposta sembra troppo netta o rassicurante, è proprio lì che serve il secondo controllo.

Leggi le altre notizie sull’home page di Key4biz