assistenza al cliente

Chatbot. Quanto manca per una Customer Care senza stress?

di |

I Chatbot che sono oggi in circolazione sono in grado di sostituire in maniera apprezzabile il lavoro umano?

Digital Customer Experience (DCX) è una rubrica settimanale dedicata alla Digital Experience a cura di Dario Melpignano, Ceo di Neosperience. Per consultare gli articoli precedenti, clicca qui. Per la versione inglese vai al blog.

Negli ultimi anni abbiamo assistito a un vero e proprio boom nell’utilizzo dei chatbot da parte delle aziende. La tendenza si è andata a sviluppare di pari passo con la tecnologia legata al machine learning, nello specifico al Natural Language Processing, o NLP. L’utilizzo maggiore che viene fatto di questi strumenti è legato principalmente al customer service, reparto essenziale per ogni azienda, ma caratterizzato da costi di gestione particolarmente elevati.

Uno dei pregi dei chatbot, infatti, è il prezzo di sviluppo che, anche se ancora non alla portata di ogni azienda, se confrontato con il mantenimento di un reparto di customer service è decisamente minore. Senza dubbio un vantaggio economico per il business aziendale, ma la domanda che ci dobbiamo porre è se i Chatbot che sono oggi in circolazione sono in grado di sostituire in maniera apprezzabile il lavoro umano e, soprattutto, il rapporto che un operatore può instaurare con il cliente.

Non c’è modo migliore di scoprirlo se non provando di persona alcuni chatbot.

Cominciamo con TOBi, strumento sviluppato da Vodafone per il proprio customer service.

Ad un primo approccio, si nota subito che il tone of voice è poco empatico. Tende spesso a bloccarsi, sia a causa di problemi tecnici, sia perché, una volta entrato in un ramo conversazionale, non riesce a gestire richieste diverse da quelle iniziali.

Da sottolineare è che spesso propone di continuare la conversazione con un operatore umano.

Se da un lato può essere una strategia positiva, diminuendo lo stress degli utenti che non riescono a trovare risposta alle loro domande, dall’altro invece è un’ammissione di “incompletezza” da parte dello strumento, che anche per questioni molto semplici tende a rifugiarsi dietro ad un operatore.

Un chatbot che invece ci ha piacevolmente stupiti è Cora della Royal Bank of Scotland. É basato sul sistema NLP sviluppato da IBM, chiamato amichevolmente Watson.

Con Cora abbiamo iniziato subito con un approccio particolarmente polemico, chiedendo se fosse possibile chiudere il conto corrente. La risposta è stata molto più “umana” di quanto ci aspettassimo: si è detta dispiaciuta e ha provveduto immediatamente ad aiutarci.

Abbiamo poi cambiato discorso, chiedendo quali fossere le percentuali di trattenuta per l’utilizzo della carta di credito in Italia. Ha risposto a tutte queste domande con competenza e precisione, suggerendo anche prodotti e servizi aggiuntivi, di supporto alle richieste.

Quando poi le è stato comunicato un trasferimento al conto in Italia, ha provveduto immediatamente a passare la conversazione a un operatore umano; giustamente, ha riconosciuto la complessità della richiesta e trasferito la conversazione a un essere umano.

In definitiva l’esperienza con Cora è stata molto interessante; per prima cosa, il suo Tone of Voice è empatico ma formale, come la sua posizione in banca richiede. Ha risposto, inoltre, al 90% delle domande in maniera coerente,  mantenendo il controllo sulle richieste più semplici e trasferendo la conversazione all’essere umano nel momento opportuno.

È il miglior Chatbot con cui ci siamo relazionati? Probabilmente sì.

Riesce a sostituire il rapporto con un operatore umano? No, ma lo imita molto bene.

Quindi, quale potrebbe essere il futuro del customer care? Oggi i Chatbot possono sostituire il tradizionale servizio clienti per una considerevole quantità di task, tra le più semplici e ripetitive. Ma al momento la possibilità di comprendere e risolvere in autonomia problemi più complessi è ancora molto limitata.

Il natural language processing è, infatti, l’applicazione del machine learning che forse è rimasta più inespressa, anche a causa dell’enorme difficoltà di insegnare a uno strumento il valore del contesto e, di conseguenza, la capacità di inferire significati diversi alle espressioni verbali. Questo, però, non esclude la possibilità che fra qualche anno potremo parlare del più e del meno con il nostro assistente virtuale, anche se quel futuro sembra ancora piuttosto distante.

Oggi viviamo in una società che ricerca costantemente l’ultima innovazione tecnologica, in cui il piacere di una conversazione empatica è ormai diventato una rarità. Preferiamo scrivere messaggi che chiamare, parlare con un robot piuttosto che con una persona. Ma, finché non avremo il giusto livello di innovazione tecnologica, saremo ancora costretti ad entrare in relazione con altri esseri umani. Fortunatamente.