Key4biz

Grok al centro delle polemiche per le informazioni false sull’attentato di Sydney

Grok, l’AI sviluppata da xAI e integrata nella piattaforma X, al centro delle polemiche per la diffusione di informazioni errate nelle ore successive alla sparatoria di Bondi Beach, in Australia.

L’attacco, avvenuto durante un festival per l’inizio di Hanukkah a Sydney, ha causato almeno 15 vittime. A colpire l’opinione pubblica è stato anche l’intervento di Ahmed al Ahmed, 43 anni, che ha disarmato uno degli attentatori rimanendo ferito. Proprio attorno a questo episodio Grok ha accumulato una serie di errori significativi.

L’errore sul nome dell’uomo che ha disarmato un attentatore

Secondo quanto segnalato inizialmente da Gizmodo e confermato da altre testate, il chatbot di Elon Musk avrebbe identificato in modo errato al Ahmed dopo l’analisi di immagini e video condivisi dagli utenti. In alcune risposte Grok ha sostenuto che la persona ritratta fosse un ostaggio israeliano catturato da Hamas il 7 ottobre, in altre ha richiamato presunte sparatorie contro civili in Palestina, mescolando contesti e informazioni del tutto non pertinenti. Solo dopo le segnalazioni degli utenti il sistema ha corretto le risposte e ammesso l’errore.

La confusione sembra essere stata accentuata dalla combinazione di elementi sensibili: un attacco contro persone di religione ebraica e il ruolo centrale di un cittadino di origine araba nel fermare l’aggressione. Un mix che avrebbe messo in difficoltà il modello, incapace di separare correttamente dati visivi, riferimenti geopolitici e contesto dell’evento. In rete hanno iniziato a circolare anche contenuti, generati o avallati da Grok, che parlavano di presunte sparatorie di massa avvenute in Italia nell’ultimo anno, mai confermate dalla cronaca.

Gli errori non si sono limitati all’identificazione del protagonista. In diverse risposte Grok ha confuso la strage di Bondi Beach con eventi non correlati, come una sparatoria alla Brown University negli Stati Uniti o presunti video legati al Ciclone Alfred. In alcuni casi il chatbot ha attribuito l’azione di disarmo a un soggetto inesistente, salvo poi giustificare l’errore con il riferimento a post virali o contenuti online fuorvianti.

Mattarella: “La disinformazione mina i Paesi democratici”

L’episodio, come ha evidenziato TechCrunch, solleva interrogativi sulla capacità dei modelli di intelligenza artificiale di gestire correttamente le breaking news. Inoltre alimenta dubbi più ampi sull’uso delle AI come strumenti affidabili per l’informazione e sul ruolo che queste tecnologie possono avere nell’ecosistema dei media digitali.

Sul tema oggi è intervenuto anche il Presidente della Repubblica Sergio Mattarella in occasione della XVIII Conferenza delle Ambasciatrici e degli Ambasciatori d’Italia. “Pericolose attività di disinformazione tendono ad accreditare una presunta vulnerabilità delle opinioni pubbliche dei Paesi democratici – ha spiegato il Presidente in un passaggio del suo discorso.

“Cercano di affermarsi inediti ma opachi centri di potere – di fatto sottratti alla capacità normativa e giurisdizionale degli Stati sovrani e degli organismi sovranazionali. Centri di potere dotati di vaste capacità di influenza sui cittadini e, con esse, sulle scelte politiche, tanto sul piano interno ai singoli Stati quanto su quello internazionale. Ne viene interpellata anche la diplomazia, chiamata, ha concluso Mattarella, assieme alle altre articolazioni dello Stato, a concorrere, nel nostro Paese, alla salvaguardia del sistema di libertà e democrazia della Repubblica”.

Exit mobile version