Key4biz

È iniziato il declino cognitivo nei LLM alimentati da ‘dati spazzatura’

Un’indagine congiunta condotta dall’Università del Texas a Austin e dalla Purdue University ha rivelato un fenomeno preoccupante che coinvolge i Large Language Models (LLM) quando vengono addestrati su dati di bassa qualità o autoreferenziali, definito come ‘marciume cerebrale’ (‘brain rot’).

Lo studio, che si colloca nel contesto dell’evoluzione dei modelli di AI generativa, mostra come l’uso di contenuti generati da AI per addestrare nuove versioni di LLM possa generare un circolo vizioso di degradazione cognitiva.

I ricercatori hanno scoperto che i modelli addestrati con questi dati riciclati soffrono di un calo progressivo nella capacità di ragionamento, astrazione e coerenza, portando a prestazioni significativamente peggiori in una serie di test linguistici e logici.

Il fenomeno è simile a quello osservato nella degenerazione neuronale umana: ogni iterazione peggiora la qualità delle risposte, proprio perché i modelli iniziano a basarsi su ‘eco’ dei dati originali, piuttosto che su fonti informative autentiche.

La ricerca solleva importanti interrogativi sull’affidabilità dei contenuti generati autonomamente dai modelli di AI, in particolare in un’epoca in cui i dataset reali sono sempre più sostituiti da contenuti sintetici.

Gli autori suggeriscono che questo declino rappresenta una minaccia strutturale per il futuro dell’AI, rendendo urgente l’adozione di sistemi di filtraggio dei dati e strategie di addestramento più selettive.

Inoltre, evidenziano la necessità di preservare l’accesso a dati umani autentici per evitare un collasso delle capacità cognitive nei sistemi di intelligenza artificiale di prossima generazione.

Per maggiori informazioni, clicca per l’articolo originale.

Gli assistenti AI commettono errori diffusi nelle notizie, secondo una nuova ricerca

Secondo uno studio recente, diversi assistenti AI testuali ampiamente utilizzati — inclusi i più noti chatbot di aziende leader del settore — commettono gravi imprecisioni nel riassumere, interpretare o riferire contenuti di notizie.

L’indagine ha messo in luce come questi strumenti, sebbene progettati per fornire risposte informative ed esaustive, generino frequentemente contenuti distorti, parzialmente falsi o decontestualizzati rispetto alle fonti giornalistiche originali.

In particolare, l’analisi ha coinvolto numerosi prompt su eventi di attualità rivolti a vari assistenti conversazionali basati su AI, i quali hanno spesso confuso i protagonisti degli eventi, citato erroneamente fonti ufficiali o esagerato alcune affermazioni.

I ricercatori hanno sottolineato che, pur non avendo un’intenzionalità ingannevole, questi errori pongono serie preoccupazioni sull’affidabilità degli strumenti di AI in ambito informativo.

L’accesso immediato alle notizie attraverso chatbot potrebbe alterare la percezione pubblica degli eventi e diffondere narrazioni errate, soprattutto in contesti politicamente o socialmente sensibili.

Inoltre, l’uso crescente di questi assistenti nella consultazione quotidiana di informazioni solleva interrogativi sulla necessità di maggiore supervisione umana, trasparenza delle fonti utilizzate e meccanismi di correzione più robusti.

Il rapporto suggerisce che le aziende produttrici dovrebbero migliorare i dataset di addestramento e incorporare filtri di verifica dei fatti, per ridurre il rischio di disinformazione involontaria.

In un’epoca in cui l’accesso all’informazione è filtrato sempre più da sistemi automatizzati, l’accuratezza non può essere compromessa, pena il deterioramento del dibattito pubblico e della fiducia verso le tecnologie emergenti.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version