analisi

I conversational agent (Alexa e Siri) e la loro influenza sui giovanissimi

di |

Parlare con i “robot” - anche se magari non ce ne rendiamo conto - fa ormai parte della vita quotidiana di molte famiglie, il tutto grazie alla grandissima diffusione di conversational agent come Siri di Apple o Alexa di Amazon.

Digital Customer Experience (DCX) è una rubrica settimanale dedicata alla Digital Experience a cura di Dario Melpignano, Ceo di Neosperience. Per consultare gli articoli precedenti, clicca qui. Per la versione inglese vai al blog.

Parlare con i “robot” – anche se magari non ce ne rendiamo conto – fa ormai parte della vita quotidiana di molte famiglie, il tutto grazie alla grandissima diffusione di conversational agent come Siri di Apple o Alexa di Amazon.

L’uso massivo di questi dispositivi ha fatto nascere però alcune riserve sulla loro influenza rispetto all’educazione dei bambini. Sebbene le ricerche abbiano dimostrato che i bambini sono felici di relazionarsi con i propri compagni di giochi artificiali, allo stesso tempo alcuni studiosi si sono posti la domanda se l’assertività e l’apatia dei conversational agent possano influenzare negativamente la loro crescita.

Ovvero: parlare con Alexa o Siri influenza il modo in cui i bambini comunicano con gli altri esseri umani? È possibile che comincino a trattare familiari, amici e sconosciuti come robot di servizio?

La ricerca

A questa domanda ha cercato una risposta il recento studio condotto dall’Università di Washington.

“Eravamo curiosi di sapere se i bambini stavano prendendo l’abitudine di conversare con gli umani come fanno con Alexa e altri agenti conversazionali“, ha detto Alexis Hiniker, assistente professore dell’Università di Washington.

Ma vediamo come è stato condotto lo studio, diviso in 5 parti, per cui i ricercatori hanno reclutato 22 famiglie.

Nella prima parte, tutti i bambini che sono stati scelti dovevano parlare con un robot animato che veniva mostrato sullo schermo di un tablet. Sul retro della sala, nascosto, un ricercatore faceva domande a ogni bambino, che l’app attraverso il robot traduceva in una voce sintetica.

All’inizio, quando i bambini parlavano con il robot sul tablet, questo diceva loro: “A volte comincio a parlare molto lentamente. Puoi dire “bungo” per ricordarmi di parlare di nuovo normalmente.”

Dopo alcuni minuti di chiacchierata con il bambino, l’app rallentava periodicamente il discorso del robot fino a quando il bambino non avesse detto “bungo.” Quando ciò avveniva il ricercatore premeva un pulsante per riportare immediatamente il discorso del robot alla velocità normale.

La maggior parte dei bambini, il 64%, si è ricordata di usare il bungo la prima volta che l’agente ha rallentato il suo discorso, e tutti hanno imparato la routine alla fine di questa sessione.

Poi i bambini sono stati presentati a un agente conversazionale vero e proprio. Anche questo dispositivo – sempre collegato via voce al ricercatore nell’altra stanza – ha iniziato a parlare lentamente dopo una breve conversazione a velocità normale. Una volta che il bambino diceva “bungo” cinque volte, o lasciava che il robot continuasse a parlare lentamente per cinque minuti, il ricercatore concludeva la conversazione.

Alla fine di questa sessione, il 77% dei bambini aveva usato con successo bungo.

A questo punto, il bambino è stato lasciato solo con il genitore, che nel frattempo l’aveva raggiunto nella stanza. Una volta da solo, il genitore ha chiacchierato con il bambino e poi, come nei casi precedenti, ha iniziato a parlare lentamente.

19 genitori hanno condotto questa parte dello studio. Dei bambini che hanno completato questa parte, il 68% ha usato “bungo” nella conversazione con i genitori. Molti di loro lo usavano con affetto. Alcuni bambini lo facevano con entusiasmo, spesso interrompendo il genitore a metà frase. Altri hanno espresso esitazione o frustrazione, chiedendo ai loro genitori perché si comportavano come robot.

Finita questa fase, un ricercatore entrava nella stanza e cominciava a parlare con il bambino: come negli altri casi, normalmente in un primo momento, e dopo lentamente. In questa situazione, solo il 18% dei 22 bambini ha usato “bungo” con il ricercatore. Nessuno di loro ha commentato il discorso del ricercatore.

“I bambini hanno mostrato una consapevolezza sociale davvero sofisticata”, ha detto Hiniker. “Vedevano la conversazione con il robot come un luogo in cui era appropriato usare la parola bungo. Con i genitori, la vedevano come un’opportunità per legare e giocare. E poi con il ricercatore, che era uno sconosciuto, hanno invece preso la strada socialmente sicura di usare la più tradizionale norma di non interrompere qualcuno che sta parlando con te.”

Dopo questa sessione in laboratorio, i ricercatori volevano sapere come sarebbe andato il “bungo” in natura, quindi hanno chiesto ai genitori di provare a rallentare il loro discorso nelle successive 24 ore.

Dei 20 genitori che hanno provato a casa, 11 hanno riferito che i bambini hanno continuato a usare “bungo”. Questi genitori hanno descritto le esperienze come giocose e divertenti: un inside joke, se così si può dire. I bambini che hanno espresso scetticismo in laboratorio hanno invece continuato a chiedere ai loro genitori di smettere di comportarsi come robot.

“C’è consapevolezza nei bambini che i robot non sono persone, e non volevano che la linea tra umano e artificiale si confondesse” ha detto Hiniker. “Invece per i bambini che usavano bungo con i genitori questa esperienza voleva dire qualcosa di nuovo. Non era come se stessero iniziando a trattare i loro genitori come robot. Stavano giocando con loro e connettendosi con qualcuno che amavano.”

Conclusioni

Sebbene i risultati sembrano affermare che i bambini non sono influenzati dai virtual agent, c’è sempre il dubbio che un minimo di influenza avvenga, attraverso l’uso di un particolare tipo di linguaggio o tono di conversazione – quando i bambini parlano con altre persone.

Allo stesso tempo, ci viene naturale sottolineare un’altra tipologia di influenza, secondo noi molto importante: insegnare l’empatia.

Consideriamo per un attimo l’empatia come una skill che si può affinare nel tempo, attraverso l’esercizio: in questo senso, metterla alla prova nel rapporto con i dispositivi tecnologici, grazie ai quali i bambini possono comprendere la differenza tra umano e artificiale, è un eccezionale esercizio per imparare i concetti di identità e umanità.

Questo può essere il ruolo quindi degli agenti conversazionali: far vedere l’umanità e ciò che ci rende unici sotto un nuovo punto vista. Questo è in linea con ciò che per noi significa “portare l’empatia nella tecnologia”, ovvero la reale ricchezza dell’innovazione.