Key4biz

Come si paga un chatbot. L’intelligenza artificiale scopre la pubblicità

«Sì, ma questi come fanno i soldi?» è una domanda – se non la domanda – che ci poniamo spesso quando ci vengono offerti servizi in apparenza gratuita su Internet. L’AI non fa eccezione, ma non sorprenderà nessuno sapere che le pose dei giganti del tech da benefattori dell’umanità senza interessi personali sono, appunto, pose. Il tema della monetizzazione dei chatbot c’è eccome, ed è diventato centrale pochi giorni fa, quando OpenAI ha avviato negli Stati Uniti un test che introduce annunci all’interno di ChatGPT per gli utenti dei piani Free e Go (lasciando invece privi di inserzioni i livelli Plus, Pro, Business ed Enterprise).

Gli annunci pubblicitari compaiono in fondo alla risposta, separati graficamente dal testo generato e segnalati come contenuti sponsorizzati; l’azienda sostiene che detti annunci non incidano sul contenuto delle risposte e che non vengano mostrati quando si parla di argomenti particolarmente sensibili, come la salute o la politica.

Secondo quanto riportato da Quartz, OpenAI chiederebbe agli inserzionisti un impegno minimo intorno ai 200.000 dollari, con un costo di circa 60 dollari per mille visualizzazioni, soglia che colloca questo formato in una fascia assai più alta rispetto ai banner tradizionali del web.

È come dire che l’attenzione concentrata di una conversazione individuale, il tête-à-tête tra noi e il chatbot, viene considerata un bene raro, per il quale si può chiedere un prezzo paragonabile a quello degli spazi pubblicitari più prestigiosi (e costosi, ovviamente).

Consiglio spassionato o interessato?

Rispetto al motore di ricerca, c’è una differenza non da poco: se nei risultati di Google e soci l’utente riceve un elenco di risultati e sa di trovarsi in un contesto specifico, con certi risultati che vengono privilegiati, nel chatbot la risposta è di un discorso continuo e l’inserzione non si affianca a una lista di alternative, ma segue un testo che ha già, per così dire, strutturato la questione.

Insomma: diventa difficile capire se ChatGPT ci sta dando un consiglio o suggerendo di comprare un prodotto. Il problema, in fondo, è sempre lo stesso: quando qualcuno ci “suggerisce” qualcosa online, dobbiamo capire se sta davvero aiutandoci a scegliere o se sta vendendo visibilità a chi paga di più (è la differenza tra una piattaforma come SOSTariffe.it che mostra un elenco confrontabile di offerte – come avviene nei comparatori di tariffe luce, gas o telefonia – e un’interfaccia che propone una sola soluzione, già confezionata). Nel primo caso possiamo verificare; nel secondo dobbiamo fidarci.

Va da sé che OpenAI ha accompagnato il test con diverse petizioni di principio, tese a tranquillizzarci: le conversazioni non vengono condivise con gli inserzionisti, che ricevono solo dati aggregati su visualizzazioni e clic; l’utente può disattivare la personalizzazione o scegliere un piano a pagamento per evitare gli annunci, eccetera. La questione economica di fondo, però, rimane. Addestrare e far funzionare modelli di queste dimensioni richiede investimenti sempre più ingenti, e se una parte consistente dell’utenza accede gratuitamente, in modo da accrescere la base, il finanziamento deve provenire da altre fonti. La pubblicità, come sempre, è la risposta più semplice.

La guerra degli spot

La mossa di OpenAI ha avuto conseguenze immediate. Anthropic, la società fondata da ex ricercatori di OpenAI e sviluppatrice di Claude, ha scelto il palcoscenico del Superbowl per lanciare una campagna pubblicitaria che, pur senza nominare direttamente ChatGPT, ha preso di mira il suo modello di business. Gli spot hanno mostrato scenari volutamente caricaturali: un ragazzo che chiede consigli su come parlare con la madre e si ritrova indirizzato verso un sito di incontri; un aspirante atleta che finisce a comprare solette per sembrare più alto. Il messaggio finale: “Ads are coming to AI. But not to Claude”.

Sam Altman ha reagito con la consueta nonchalance. Ha chiamato gli spot “chiaramente disonesti”, e ribadito che gli annunci su ChatGPT saranno separati dalle risposte e non influenzeranno i contenuti generati. La polemica non è così facile da sopire, però. Il formato conversazionale ha una natura diversa rispetto a un feed social o a una pagina di ricerca: l’utente si rivolge al chatbot per ottenere un aiuto diretto, spesso su questioni personali o professionali che presuppongono un certo grado di fiducia. Inserire in quel flusso un contenuto sponsorizzato, anche se dichiarato come tale, modifica l’equilibrio percettivo dell’interazione.

Anthropic ha costruito la propria posizione proprio su questo punto, dichiarando pubblicamente che Claude resterà privo di pubblicità perché le conversazioni con un assistente AI, specie quando riguardano lavoro o temi delicati, non sono il luogo adatto per la promozione commerciale. Così, dopo il Super Bowl, Claude ha scalato le classifiche dell’App Store statunitense; difficile stabilire quanto abbia inciso la campagna, ma il messaggio non è caduto del vuoto. È una dinamica già vista nell’evoluzione dei social network, che qui si ripresenta in un ambiente che somiglia meno a una piazza e più a un colloquio individuale.

Ma alla fine chi paga?

Se si mette da parte per un momento la schermaglia pubblicitaria, l’interrogativo rimane: come si sostiene economicamente un’infrastruttura che brucia miliardi l’anno? Secondo diverse stime, OpenAI avrebbe speso nel 2025 molto più di quanto abbia incassato; l’addestramento dei modelli, il mantenimento dei server, l’espansione della capacità computazionale richiedono investimenti continui. Finora il capitale di rischio ha sostenuto la crescita, ma nessun investitore può accettare perdite illimitate. A un certo punto i conti devono tornare.

Non tutte le aziende stanno facendo la stessa scelta. Perplexity, che aveva introdotto annunci sotto forma di domande sponsorizzate, ha frenato e ammesso che la pubblicità rischia di far dubitare gli utenti della genuinità delle risposte. Google sta testando inserzioni nei risultati della modalità AI della ricerca e ha lasciato intendere che anche Gemini farà la stessa cosa; Microsoft fa spallucce e integra contenuti sponsorizzati in Copilot da tempo; Meta non inserisce annunci dentro la chat, però utilizza le interazioni con la sua AI per raffinare il targeting pubblicitario altrove, nei suoi network. E Claude, per ora, mantiene la promessa di restarne fuori.

Esiste forse una terza via. Brian Chesky, amministratore delegato di Airbnb, ha dichiarato che il traffico proveniente dai chatbot converte meglio di quello generato da Google: vale a dire che se le AI raccomandano spontaneamente un servizio, l’efficacia commerciale può essere superiore a quella di uno spazio pubblicitario acquistato a caro prezzo.

In questo scenario, le aziende non avrebbero bisogno di comprare visibilità nel chatbot, ma basterebbe essere citate come soluzione adeguata. Ma chi garantisce l’imparzialità? E da quando la pubblicità è, per così dire, meritocratica? Non se ne esce, e resta il problema di chi finanzia l’accesso gratuito. Abbonamenti e contratti enterprise coprono solo una parte del costo; la massa degli utenti free no. La pubblicità è, da decenni, il motore più stabile dell’economia digitale, ma non è mai stata così insidiosa come oggi, quando rischia di travestirsi da “consiglio da amico”.

Exit mobile version