Scenari

La tecnologia in grado di leggere le emozioni potrebbe impedirvi di trovare lavoro

di Giulia Dettori, dottoranda in filosofia alla Sapienza e aspirante giornalista pubblicista |

Ci sono prove e studi, che indicano come i sistemi di rilevazione delle emozioni potrebbero procurare più danni che benefici, in particolare in ambito lavorativo.

È vero che le macchine non possono provare emozioni, ma questo non significa che non siano in grado di riconoscerle. Le macchine possono infatti identificare differenti sentimenti, come rabbia, paura, disgusto o tristezza. Si tratta di un settore molto appetibile e capace di attrarre un considerevole flusso di investimenti dall’industria tecnologica o finanziamenti per startup del settore.

Il “rilevamento delle emozioni” è, in sostanza, passato in poco tempo dall’essere una semplice prospettiva di ricerca ad una vera e propria industria da 20 miliardi di dollari.

Da startup ai grandi nomi del Big Tech come Amazon e Microsoft, sono diverse le aziende che offrono ora prodotti di “emotion analysis“, sistemi progettati ad esempio per analizzare il volto di una persona al fine di determinare i sentimenti che si nascondono dietro la sua espressione. Ci sono però prove e studi, che indicano come questi sistemi di rilevazione delle emozioni potrebbero procurare più danni che benefici, in particolare in ambito lavorativo, quando vengono applicati nell’assunzione di personale e nel campo dell’istruzione o in ambiti più specifici come quando sono impiegati per prendere decisioni sugli studenti.

Secondo un recente articolo del Guardian, i sistemi di rilevamento delle emozioni sono frutto della combinazione di due tecnologie.

La prima è una tecnica di “computer vision”, in grado di studiare il volto di una persona in un’immagine o in un video, rilevandone i lineamenti e le espressioni. La seconda è un’intelligenza artificiale, in grado di analizzare le informazioni ricavate dalla prima tecnologia, per interpretare il contenuto emotivo di questi tratti facciali.

Tale sistema potrebbe, per semplificare, definire qualcuno con le sopracciglia abbassate e gli occhi sporgenti come “arrabbiato”, e qualcuno con un ampio sorriso come, invece, “felice”.

Si tratta si tecnologie utilizzate per una miriade di applicazioni e, come per prime hanno fatto IBM e Unilever, per la selezione dei candidati, una modalità oggi in voga in un esercito di imprese. Ma c’è anche altro. La Disney, ad esempio, sta usando un sistema di rilevamento delle emozioni per studiare le sensazioni e gli stati d’animo degli spettatori durante la proiezione dei suoi film.

Sin qui i benefici, ma non sempre la narrazione si ferma alle opportunità del nuovo sistema di rilevazione. I sentimenti, si sa, sono cosa delicata.
Nello scorso mese di dicembre, i ricercatori della Wake Forest Universityhanno infatti pubblicato uno studio, in cui sono stati testati diversi sistemi di rilevamento delle emozioni, come ad esempio quelli della Microsoft, scoprendo così che questi sistemi sono più propensi ad associare emozioni negative a foto che mostrano persone di colore, piuttosto che a foto che ritraggono le controparti bianche, anche quando entrambi i soggetti presi in esame sorridono nello stesso modo. Così facendo questi sistemi si sono rivelati inficiati dagli stessi pregiudizi razziali che sembrano caratterizzare altre tipologie di intelligenze artificiali (AI).

Secondo Meredith Whittaker, co-direttore dell’istituto di ricerca AI-Now della New York University, tali sistemi difettosi potrebbero nuocere piuttosto che apportare benefici, almeno per quanto riguarda le persone che si stanno analizzando.

Queste informazioni potrebbero anche essere usate in modo inappropriato, al punto da impedire alle persone di trovare lavoro o potrebbero determinare in maniera negativa il trattamento e la valutazione di uno studente a scuola” ha riferito al Guardian “… e se l’analisi non è estremamente accurata, può derivarne un danno materiale concreto“.

Del resto le emozioni sono ancora cosa troppo complessa per essere affidate in via esclusiva ad una lettura automatizzata, quando non ci è ancora del tutto chiaro il modo in cui il nostro cervello le genera.