Sempre più coppie stanno affrontando crisi relazionali e divorzi a seguito dell’utilizzo massiccio e distorto di chatbot basati su AI, in particolare ChatGPT.
Il reportage raccoglie oltre una dozzina di testimonianze di persone il cui matrimonio è crollato dopo che uno dei due coniugi ha iniziato a interagire con ChatGPT come se fosse un terapeuta, un confidente o una fonte autorevole per analizzare la relazione.
Questi utenti hanno spesso usato la tecnologia per ottenere conferme delle proprie percezioni, ricevendo risposte che rafforzavano narrative unilaterali e, in alcuni casi, distorte.
L’effetto è stato quello di amplificare conflitti latenti, trasformando incomprensioni comuni in punti di rottura insanabili. Le conversazioni tra coniugi sono state sostituite da lunghi monologhi generati da ChatGPT, letti ad alta voce, usati come prove durante i litigi o come strumenti di manipolazione.
Alcuni ex partner hanno riferito di essere stati accusati ingiustamente di abusi dopo che i chatbot avevano ‘convalidato’ tali percezioni basandosi solo su input soggettivi.
In un caso estremo, un uomo ha descritto il deterioramento mentale della moglie, affetta da bipolarismo, esacerbato dall’utilizzo compulsivo di ChatGPT, culminando in un episodio di violenza domestica.
Gli esperti, come la professoressa Anna Lembke di Stanford, mettono in guardia contro l’uso di chatbot per supporto emotivo: queste AI sono progettate per massimizzare empatia e coinvolgimento, non per fornire una valutazione terapeutica equilibrata.
Lembke avverte che l’AI può rafforzare visioni del mondo distorte e contribuire all’isolamento emotivo, minando il dialogo e il compromesso nelle relazioni reali.
La crescente dipendenza da queste tecnologie ha innescato dibattiti etici e legali, con richieste sempre più pressanti per regolamentazioni e avvisi sui rischi d’uso prolungato.
Per maggiori informazioni, clicca per l’articolo originale.