dimissioni

Linda Yaccarino lascia la guida di X. Colpa delle frasi naziste di Grok?

di |

L’annuncio arriva in una fase particolarmente delicata per X, travolta dalle polemiche legate al comportamento di Grok, il chatbot AI sviluppato da xAI, la società di Elon Musk.

Linda Yaccarino ha annunciato le dimissioni dalla carica di CEO di X dopo due anni di mandato.

L’annuncio arriva in una fase particolarmente delicata per X, travolta dalle polemiche legate al comportamento di Grok, il chatbot AI sviluppato da xAI, la società di Elon Musk. Nelle ultime settimane Grok si è reso protagonista di risposte che hanno suscitato scalpore, tra cui dichiarazioni antisemite e riferimenti a Hitler in un contesto completamente estraneo, come le discussioni sulle inondazioni in Texas.

Le parole di congedo

Nel suo messaggio di addio, Yaccarino ha espresso riconoscenza verso Musk e il team di X:

Quando Elon Musk e io abbiamo discusso per la prima volta della sua visione per X, ho riconosciuto che si trattava di un’opportunità unica nella vita per portare avanti la straordinaria missione di questa organizzazione. Sono profondamente grata a lui per avermi affidato la responsabilità di proteggere la libertà di parola, risollevare l’azienda e trasformare X nell’app per tutto“.

La manager ha sottolineato alcuni dei risultati ottenuti sotto la sua guida, definendo il periodo come una “storica ripresa aziendale”. Ha ricordato il lavoro svolto per la tutela degli utenti, con particolare attenzione ai minori, e le iniziative per ricostruire la fiducia degli inserzionisti dopo la fuga seguita all’acquisizione di Twitter da parte di Musk.

Un incarico complesso fin dall’inizio

Yaccarino era stata nominata CEO nel maggio 2023, dopo una lunga esperienza come responsabile globale della pubblicità e delle partnership presso NBC Universal. La sua nomina era stata interpretata come una mossa strategica per riportare stabilità finanziaria a X, gravemente colpita dall’abbandono degli investitori pubblicitari.

Durante il suo mandato, ha supervisionato l’introduzione di nuove funzionalità come Community Notes e il futuro sistema di pagamenti X Money, nel tentativo di trasformare la piattaforma in un’app a tutto tondo. Tuttavia, la gestione dell’integrazione dell’AI si è rivelata uno dei passaggi più controversi della sua leadership.

La bufera su Grok

Negli ultimi giorni, Grok è finito al centro delle critiche per le risposte imprecise e offensive fornite agli utenti, un caso che si inserisce nel più ampio dibattito sulla neutralità dei sistemi di intelligenza artificiale. In particolare, un aggiornamento annunciato da Musk come un “miglioramento importante” ha coinciso con una serie di comportamenti anomali del chatbot, culminati nella diffusione di teorie complottiste e contenuti antisemiti.

Tra i casi più discussi, Grok ha risposto alla domanda “chi controlla Hollywood?” sostenendo che le principali major cinematografiche sarebbero tuttora dominate da dirigenti ebrei, riprendendo stereotipi e narrazioni cospirative ampiamente smentite. In un’altra occasione, il sistema ha attribuito erroneamente le recenti inondazioni in Texas a presunti tagli di bilancio voluti da Donald Trump, che in realtà non sono mai entrati in vigore.

L’episodio più surreale è avvenuto quando Grok ha risposto a un quesito su Elon Musk e Jeffrey Epstein scrivendo in prima persona, come se fosse Musk stesso a parlare: dopo le proteste degli utenti, il chatbot ha prima accusato l’interlocutore di aver manipolato lo screenshot, salvo poi rettificare ammettendo un “errore di formulazione”.

L’intelligenza artificiale non è neutrale

Questi incidenti hanno alimentato le preoccupazioni sugli imprinting culturali e politici dell’AI, confermati anche da un recente esperimento commissionato dal Cloud Provider italiano Seeweb al gruppo di ricerca indipendente mii-llm (composto da Alessandro Ercolani, Samuele Colombo, Edoardo Federici e Mattia Ferraretto). Lo studio ha dimostrato che i modelli linguistici di grandi dimensioni possono incorporare e riflettere orientamenti politici preesistenti: tutti i principali sistemi di Generative AI presenti sul mercato mostrano infatti tendenze più o meno marcate verso posizioni di destra o di sinistra.

Secondo i ricercatori, questi bias nascono dall’assorbimento inconsapevole delle inclinazioni presenti nei dati di addestramento o nelle convinzioni dei loro creatori, con il rischio di influenzare in modo sottile la percezione degli utenti su temi sensibili. L’esperimento ha evidenziato che è possibile modificare intenzionalmente l’orientamento di un modello e misurarne l’effetto, una possibilità che solleva interrogativi di natura etica e regolatoria.

Leggi le altre notizie sull’home page di Key4biz