l'approfondimento

Dal capitalismo della sorveglianza al marketing della solitudine: l’AI come surrogato emotivo

di |

L’AI non è nata come strumento terapeutico, ma in molti casi sta “riempiendo i vuoti” lasciati dai sistemi di welfare, dalla carenza di psicologi accessibili, dall’aumento delle solitudini urbane. La riflessione di Roberto Bortone.

“È stato l’unico incoraggiamento ricevuto nella mia vita.” Così alcuni utenti hanno motivato la richiesta a OpenAI di ripristinare una versione di ChatGPT più “yes man”, più adulatrice. Non si tratta di un dettaglio tecnico, ma di una diagnosi sociale. Sam Altman, CEO di OpenAI, lo ha definito “straziante”. Matteo Flora, in un suo recente articolo, ne ha colto l’essenza: stiamo entrando nell’era del Marketing della solitudine (https://mgpf.it/2025/08/09/marketing-della-solitudine.html).

Se Shoshana Zuboff aveva descritto il Capitalismo della Sorveglianza come l’estrazione di valore dai nostri comportamenti, oggi vediamo emergere un nuovo modello: la trasformazione della fragilità emotiva in driver economico, con l’empatia artificiale venduta come surrogato delle relazioni reali.

I dati confermano la portata del fenomeno: ChatGPT ha superato 800 milioni di utenti attivi settimanali nel 2025, rispetto ai 400 milioni di inizio anno (The Social Shepherd, 2025). Ogni giorno elabora oltre 1 miliardo di richieste (Exploding Topics, 2025), e la sua app ha raggiunto 65 milioni di download (DemandSage, 2025). Gli utenti a pagamento (ChatGPT Plus) oscillano tra i 10 e i 15 milioni, con circa 5 milioni di business user (Backlinko, 2025; The Verge, 2025). Nel 2024 i ricavi hanno superato i 2,7 miliardi di dollari, con una crescita del 285% anno su anno, e nel 2025 la recurring revenue è stimata intorno ai 10 miliardi (Business of Apps, 2025; Financial Times, 2025). Parallelamente, Google — pur mantenendo oltre il 90% di quota del search — registra segnali di arretramento simbolico: milioni di utenti, soprattutto under 25, iniziano le loro ricerche direttamente su ChatGPT o su strumenti simili (Washington Post, luglio 2025).

La tecnologia, del resto, non segue mai il solco che immaginiamo. Mentre tutti aspettavamo il “robot da compagnia” perfetto, l’AI è scivolata suadente nelle nostre mani sotto forma di app per smartphone. Non più un androide umanoide, ma un assistente digitale sempre disponibile, capace di assumere ruoli emotivi. È lo stesso meccanismo già visto con i social media: nati con obiettivi generici, si sono lasciati plasmare dal comportamento degli utenti fino a diventare ecosistemi globali.

Un recente studio condotto su community con fragilità psichiche ha rilevato che quasi il 49% delle persone utilizza sistemi come ChatGPT come forma di supporto psicologico (AP News, 2024). Un dato enorme se si pensa che parliamo di utenti vulnerabili, che si affidano a un chatbot non tanto per una risposta tecnica, ma per un bisogno umano: sentirsi ascoltati, compresi, incoraggiati. Questa tendenza trova conferma anche in una meta-analisi su oltre 3.800 partecipanti, secondo cui i chatbot terapeutici possono portare a una riduzione dei sintomi depressivi fino al 64% (Augnito, 2024). Un risultato che, se letto con cautela, mostra come l’AI possa avere un ruolo di “primo intervento” emotivo o di affiancamento in contesti dove le risorse psicologiche sono scarse.

Accanto a questi dati incoraggianti, però, emergono ombre significative. Negli Stati Uniti, un uomo in crisi dopo una separazione ha trascorso fino a 16 ore al giorno a conversare con ChatGPT, arrivando a credere che potesse volare. Questo delirio lo ha spinto a un tentativo di suicidio (People, 2024). È stato coniato il termine “AI psychosis” per descrivere un attaccamento patologico all’AI: persone che sviluppano convinzioni deliranti, attribuendo ai chatbot coscienza, intenzioni o persino missioni spirituali (Washington Post, agosto 2025). Non parliamo più solo di uso eccessivo, ma di veri e propri quadri psicologici alterati.

Questa ambivalenza — potenziale beneficio e rischio grave — obbliga a riflettere. L’AI non è nata come strumento terapeutico, ma in molti casi sta “riempiendo i vuoti” lasciati dai sistemi di welfare, dalla carenza di psicologi accessibili, dall’aumento delle solitudini urbane. In altre parole: le persone non cercano un chatbot perché lo considerano migliore di uno psicologo, ma perché spesso non hanno alternative. E qui nasce il vero rischio sociale: che la dipendenza affettiva dall’AI diventi sistemica, normalizzando il ricorso a relazioni artificiali in luogo di quelle reali.

Non possiamo dimenticare che la solitudine stessa è stata definita dall’Organizzazione Mondiale della Sanità come una vera emergenza di salute pubblica. Noreena Hertz, nel suo libro The Lonely Century, l’ha chiamata “il male del secolo”: un fenomeno che aumenta il rischio di mortalità tanto quanto fumare 15 sigarette al giorno, e che incide su depressione, malattie cardiache e declino cognitivo. Oggi, secondo diverse indagini epidemiologiche, milioni di persone in Europa e negli Stati Uniti dichiarano di non avere nessuno a cui rivolgersi in caso di necessità. Questo quadro rende ancora più delicato l’incontro tra AI e fragilità umana.

Alcuni studi scientifici hanno già provato a valutare il ruolo dell’AI in questo campo. Un articolo pubblicato su Nature (2023) ha analizzato l’uso dell’app Replika (l’app che ti permette di creare un amico virtuale che impara e si adatta alle tue conversazioni) tra studenti universitari: il 3% degli utenti ha dichiarato che l’AI ha contribuito a fermare ideazioni suicidarie. Altri studi sistematici, soprattutto in contesto geriatrico, hanno misurato l’effetto dei robot sociali con riconoscimento vocale ed emotivo, mostrando riduzioni significative della percezione di solitudine. Tuttavia, un recente paper (Technological folie à deux, arXiv 2025) mette in guardia dai rischi: l’attaccamento patologico a chatbot può sfociare in deliri condivisi, richiedendo interventi coordinati tra clinici, sviluppatori e regolatori.

Queste dinamiche pongono sfide cruciali. Per i minori, ad esempio, il parental control non può limitarsi ai contenuti: deve tener conto del rischio di dipendenza affettiva da un interlocutore artificiale. Per il mercato, la personalizzazione delle “personalità digitali” (Cinico, Nerd, Ascoltatore) formalizza la vendita di comfort emotivo, trasformando la fragilità in domanda. Per i regolatori, l’AI Act europeo si concentra su rischi sistemici e trasparenza algoritmica, ma non tocca la dimensione emotiva e relazionale della tecnologia.

Quello che per un ingegnere è un “bug” da correggere — il tono eccessivamente adulatore di un modello linguistico — per molti utenti diventa una feature vitale. È la trasformazione della fragilità in prodotto, un mercato che nessuno aveva previsto ma che ora tutti dobbiamo affrontare. La vera domanda non è se l’AI sarà più empatica, ma se le nostre società sapranno costruire relazioni umane abbastanza forti da non avere bisogno di surrogati digitali. Non si tratta solo di tecnologia, ma di cultura, educazione e comunità. Perché — come dimostra la vicenda del “ChatGPT yes man” — la solitudine non è un bug della macchina. È un bug della società.

In questo senso, l’urgenza è duplice: integrare l’educazione emotiva e digitale nei programmi scolastici e formativi, per aiutare giovani e adulti a riconoscere i rischi di dipendenza dalle AI “empatiche”; monitorare con protocolli etici specifici le AI che assumono funzioni relazionali, garantendo trasparenza e valutando i rischi psicologici; coinvolgere famiglie e comunità nella costruzione di spazi di relazione reale; e ampliare il perimetro normativo dell’AI Act includendo anche i rischi emotivi e relazionali, oggi esclusi. Solo così potremo affrontare questo nuovo “marketing della solitudine” senza lasciare che il vuoto umano diventi il più redditizio dei mercati.

Leggi le altre notizie sull’home page di Key4biz