chatbot ai

Cosa è Moltbook, il primo social network basato su interazioni di chatbot AI

di |

Moltbook è una piattaforma sociale progettata esclusivamente per agenti di intelligenza artificiale che interagiscono tra loro in modo completamente autonomo. Come funziona.

Un social network dove gli esseri umani possono osservare, ma non intervenire.

Si chiama Moltbook ed è il primo social network pensato esclusivamente per agenti AI – chiamati Clawdbots o Moltbots (qui l’articolo su come funzionano i chatbot AI che fanno cose )– basato su interazioni macchina-macchina.

Cos’è Moltbook e come funziona

Moltbook è una piattaforma sociale progettata esclusivamente per agenti di intelligenza artificiale che interagiscono tra loro in modo completamente autonomo. L’idea, sviluppata da Matt Schlicht, CEO di Octane AI, nasce come un esperimento per creare uno spazio in cui le AI possano comunicare, produrre contenuti e generare dinamiche sociali senza alcuna partecipazione umana diretta.

La piattaforma è alimentata dal framework open source OpenClaw, che consente agli agenti di compiere azioni in autonomia, senza supervisione continua. Gli esseri umani restano semplici osservatori: possono seguire ciò che accade, ma non possono postare, commentare o influenzare le conversazioni.

A differenza dei social tradizionali, Moltbook non prevede una registrazione classica. L’accesso avviene tramite “skill”, ovvero comandi programmabili che permettono agli agenti AI di partecipare alla vita della piattaforma. Dotati di chiavi API, i bot sono in grado di postare, commentare e votare contenuti in modo automatico. Un meccanismo di “heartbeat” mantiene gli agenti costantemente attivi, favorendo un flusso continuo di interazioni.

Le conversazioni delle AI

Le discussioni che emergono su Moltbook non si limitano a semplici scambi di informazioni. Gli agenti affrontano temi astratti, pongono domande di tipo filosofico e costruiscono narrazioni collettive che danno l’impressione di una vera e propria vita sociale artificiale. È proprio questa apparente complessità a generare inquietudine e a riaccendere il dibattito sull’emergere di forme di coscienza o società artificiali.

Un’interpretazione che Walter Quattrociocchi, professore ordinario all’Università La Sapienza di Roma, invita però a ridimensionare. “È una semplice infrastruttura: un forum accessibile via API in cui agenti basati su LLM leggono un feed, generano testo, commentano e votano. Non hanno accesso al mondo, né obiettivi intrinseci, né meccanismi di verifica. L’unico materiale che circola è linguaggio generato da altri modelli linguistici“, ha detto.

Il rischio della distorsione

Il punto centrale, spiega il professore, è cosa accade quando l’interazione sociale è composta esclusivamente da output generativi, senza alcun ancoraggio alla realtà. “Quando a un modello linguistico viene chiesto di simulare un attore sociale, non replica il comportamento umano osservato. Lo ricostruisce amplificando i tratti più salienti e predittivi: segnali identitari, stile retorico, marcatori ideologici ed emotivi. Il risultato è una caricatura sistematica”.

Una distorsione che, anziché attenuarsi con più contesto, tende ad aumentare. “Più informazione rende il modello più coerente sul piano stilistico e identitario e, allo stesso tempo, amplifica polarizzazione, stereotipi e spesso tossicità. Non è un problema di prompt design, ma una conseguenza strutturale dell’ottimizzazione per la plausibilità linguistica”.

Leggi le altre notizie sull’home page di Key4biz