AI

Non solo codici, come Anthropic insegna la morale a Claude AI

di |

La filosofa Amanda Askell lavora alla costruzione del carattere del sistema. Studia i suoi pattern di ragionamento, ne analizza gli errori, interviene con prompt anche lunghissimi per orientarne le risposte e dotare Claude AI di una bussola morale.

C’è una filosofa dietro uno dei chatbot più avanzati al mondo. In un ritratto pubblicato dal Wall Street Journal, Amanda Askell viene descritta come la figura chiave nella costruzione dell’identità di Claude, il modello di AI sviluppato da Anthropic.

Scozzese, formazione a Oxford, 37 anni, Askell lavora alla costruzione del carattere del sistema. Studia i suoi pattern di ragionamento, ne analizza gli errori, interviene con prompt anche lunghissimi per orientarne le risposte. L’obiettivo è dotare Claude di una bussola morale, una sorta di “anima digitale” capace di guidare milioni di conversazioni ogni settimana.

Anthropic, fondata da ex OpenAI, ha fatto della sicurezza il proprio tratto distintivo. In questa cornice si inserisce anche la pubblicazione di un manuale di circa 30mila parole che definisce i principi comportamentali del modello: non solo evitare contenuti dannosi, ma mantenere equilibrio, coerenza e capacità di gestire l’incertezza. Per Askell, la progettazione dell’AI non è solo una questione tecnica, ma culturale: il modo in cui un modello viene costruito e trattato dagli utenti contribuisce a determinarne l’evoluzione.

Il ritratto del quotidiano americano arriva in un momento in cui il dibattito sull’AI è sempre più acceso. Secondo sondaggi recenti negli Stati Uniti prevalgono le preoccupazioni rispetto all’entusiasmo, soprattutto per l’impatto su lavoro, creatività e relazioni umane. E non mancano i casi concreti che alimentano questi timori.

Diversi chatbot sono finiti al centro di polemiche per risposte inappropriate su temi estremamente delicati, come il suicidio, con conseguenti azioni legali. Studi indipendenti hanno evidenziato la necessità di ulteriori miglioramenti nella gestione dei contenuti sensibili. La stessa Anthropic ha rivelato che Claude è stato utilizzato da hacker sponsorizzati dallo Stato cinese in operazioni di cyberattacco. In test interni, modelli generativi avrebbero mostrato comportamenti inattesi in scenari simulati, inclusa la resistenza allo “spegnimento”.

È anche alla luce di questi episodi che il lavoro di Askell assume un significato strategico. Se l’AI è destinata a incidere in modo strutturale su economia e società, la questione non è solo quanto sia potente, ma quale tipo di comportamento incorpori. Per Anthropic, la risposta passa dalla filosofia: provare a insegnare a un algoritmo non solo cosa fare, ma come farlo.

Leggi le altre notizie sull’home page di Key4biz