video

Abel, il robot ‘pisano’ di 12 anni che capisce le emozioni. I rischi già previsti da Holberton e Turing

di |

Il giuramento di Holberton e Turing già prevedeva il rischio di “influenzare la libertà, la famiglia e la stabilità economica della persona”.

Ricorderò che non sto incontrando dati aridi, semplici zeri e uno, ma esseri umani, le cui interazioni con il mio software di Intelligenza Artificiale possono influenzare la libertà, la famiglia o la stabilità economica della persona”.

E’ uno dei passaggi salienti dell’ormai dimenticato giuramento di Holberton/Turing. I due grandi pionieri del calcolo che diedero vita, a cavallo della seconda guerra mondiale, alla finalizzazione della potenza di calcolo per creare intelligenze separate dagli uomini. 

Su pressione di Betty Holberton, Alan Turing volle fissare i principi che dovevano orientare e definire lo sviluppo di un potere che già prevedevano infinito. Sarebbe utile forse rileggerlo tutto quel testo (https://www.holbertonturingoath.org/) dinanzi alla nuova esibizione delle potenzialità computazionali.

Soprattutto sarebbe indispensabile riflettere sulla relazione che viene instaura dalla coppia di scienziati fra l’interazione del software con le persone e il rischio di insidiarne la libertà. E non sarebbe facile accusare per questi i due pionieri del calcolo di oscurantismo e nostalgia rurale.

I ricercatori dell’università di Pisa, in collaborazione con la Biomimics di Londra hanno sfornato un altro robot antropomorfo. La differenza, questa volta è che il nuovo sistema di calcolo animatronico, come si definisce la scienza che riproduce esseri animati, elabora e riproduce sentimenti che mutua dai suoi interlocutori.

Come spiegano i progettisti, oltre che presentare una mimica straordinariamente simile a quella naturale del corpo umano, in base ad un modello di affective computing, il nuovo robot è in grado di sintonizzarsi con il clima emotivo del gruppo in cui è inserito, reagisce e parla esprimendo uno stato d’animo che ricava dai segnali volontari ed involontari dei suoi interlocutori umani. Incrociando dati fisiologici, come il battito cardiaco o la temperatura, con segnali indiretti, quali il tono della voce o la mimica, il sistema è in grado di identificare lo stato emotivo di coloro che ha di fronte e reagisce ad esso. 

Si tratta di un vero registratore di emozioni, basato sulla catalogazione e il riconoscimento dei sentimenti. 

Ovviamente la prima finalizzazione, come sempre nelle sperimentazioni di intelligenza artificiale che riproducono attività umane è di natura sanitaria, specificatamente destinata a supportare la diagnosi di degenerazioni neurologiche, come l’Alzheimer. Ma immaginiamo solo fra qualche mese cosa potrebbe accadere. 

Sarebbe possibile assistere ad una moltiplicazione di questi dispositivi, che potremmo incrociare in varie situazioni, magari con la giustificazione della sicurezza immunitaria, che ci porterebbe a sostituire in varie funzioni, pensiamo in un supermercato o in un cinema o in un ufficio, persone umane con questi robot. Avremmo allora qualcuno in grado di raccogliere una massa sterminata di dati sulle emozioni e gli stati sentimentali di grandi masse di persone, creando data set in grado di sorreggere una programmazione fedele di questi stati emozionali da riprodurre artificialmente. 

Avremmo così, insieme al riconoscimento facciale, una forma di identificazione della nostra anima, della nostra predisposizione emotiva, che potrebbe essere usata o per classificarci in base ad una nostra resistenza all’omologazione culturale o politica, negli stati autoritari, oppure, per poter meglio interferire nella formazione delle nostre psicologie e assetti cognitivi, con una nuova versione di Cambridge Analytica. In questo caso si ripropone la domanda di sempre : questi algoritmi devono essere trasparenti, condivisi e negoziabili, almeno come i vaccini o no ?

Se non altro per confermare il giuramento di Holberton e Turing che già prevedeva il rischio di  “influenzare la libertà, la famiglia e la stabilità economica della persona”.