Key4biz

Uncanny Valley: come non avere paura della macchina

Le soluzioni tecnologiche di oggi sono sempre più realistiche. Quando ci troviamo a progettarle dobbiamo però tenere conto dell’Uncanny Valley: la sensazione di disagio e repulsione che si prova davanti a un oggetto o sistema così realistico da replicare in modo quasi perfetto l’aspetto umano.

È possibile aggirare questo problema e progettare un’intelligenza artificiale empatica, capace di entrare in sintonia con gli utenti…senza spaventarli?

Uncanny Valley, la “valle oscura” della percezione umana

Il termine “Uncanny Valley” è stato coniato nel 1970 dal professore di robotica Masahiro Mori. Riprendendo la categoria del “perturbante” teorizzata da Sigmund Freud a inizio ‘900, Masahiro riassume in un grafico il rapporto tra la somiglianza tra un oggetto e un essere umano e il grado di affinità che si prova nei suoi confronti.

Fino a un certo punto gli osservatori provano maggiore empatia nei confronti degli automi più simili agli esseri umani, come i robot giocattolo, che evocano le fattezze umane pur senza riprodurle con fedeltà.

Quando la somiglianza si fa più precisa, tuttavia, la curva della risposta emotiva precipita bruscamente.

Gli osservatori provano infatti un senso di disagio e inquietudine nei confronti di oggetti che a un primo sguardo sembrano reali, per poi rivelarsi invece artificiali.

Gli esempi di Uncanny Valley che Masahiro riporta spaziano dalle applicazioni della robotica industriale ad altri tipi di oggetti inanimati, come bambole e burattini del teatro giapponese. Nel corso degli ultimi decenni l’Uncanny Valley si è rivelata più attuale che mai di fronte agli ultimi progressi nel campo della robotica, dell’Intelligenza Artificiale e del Machine Learning.

Allo stesso modo il concetto di Uncanny Valley è stato applicato trasversalmente anche a diverse forme di arte e cultura popolare, in particolare nel caso dei prodotti cinematografici che fanno uso di effetti di computer grafica (CGI).

Uncanny Valley e Intelligenza Artificiale

Il panorama della tecnologia offre diverse occasioni di spunto sulla possibilità di incorrere nell’effetto di Uncanny Valley, in particolare se si considerano le diverse applicazioni della robotica e dell’Intelligenza Artificiale.

Per esempio Sophia è un robot umanoide dotato di Intelligenza Artificiale, grazie a cui riesce a riprodurre le espressioni facciali con un alto grado di fedeltà. Ai-Da invece è un’Intelligenza Artificiale che produce opere d’arte figurativa e performance art, spingendo il pubblico a porsi quesiti sul rapporto tra umano e macchina e sulla natura dell’arte stessa.

La riproduzione artificiale delle espressioni umane è infine al centro della tecnica dei deepfake. Un deepfake può replicare a tutti gli effetti le fattezze e la voce di una persona grazie al Generative Adversarial Network, una branca del Machine Learning attraverso cui la macchina apprende le caratteristiche e i pattern del personaggio da riprodurre.

Anche prodotti come gli assistenti vocali e i chatbot corrono il rischio di rientrare nell’Uncanny Valley, nonostante la mancanza di un’interfaccia visiva. Grazie al Natural Language Processing questi riproducono in modo sempre più fedele la voce e le strutture linguistiche del discorso umano.

In un’intervista a Wired del 2019 la studiosa di robotica Aleksandra Przegalinska fa luce sulla possibilità di incorrere in un effetto di Uncanny Valley anche in questo tipo di prodotti, che non a caso gli utenti trattano spesso con ostilità.

Come uscire dalla valle del perturbante?

Supereremo mai l’Uncanny Valley? Nel prossimo futuro l’interazione con robot e AI diventerà parte della nostra quotidianità e forse supereremo la paura degli automi. Nel frattempo gli assistenti virtuali come Sofia, l’intelligenza artificiale di Neosperience, risolvono questo problema con la trasparenza nelle interazioni uomo-macchina.

Se un’Intelligenza Artificiale, nonostante faccia uso di tecnologie sofisticate di Machine Learning ed elaborazione del linguaggio naturale, presenta un aspetto inconfondibilmente meccanico, non si corre infatti il rischio di ingannare l’utente o metterlo a disagio e si favorisce la formazione di un legame di sicurezza e fiducia.

Exit mobile version