l'analisi

Interpretare l’intelligenza artificiale? Una sfida per il futuro

di |

L’Intelligenza Artificiale ha dimostrato negli ultimi anni molte delle sue potenzialità in numerosi campi applicativi: dal riconoscimento facciale, alla creazione di vere e proprie opere d’arte, alla sua grandissima abilità strategica nei giochi da tavolo.

Digital Customer Experience (DCX) è una rubrica settimanale dedicata alla Digital Experience a cura di Dario Melpignano, Ceo di Neosperience. Per consultare gli articoli precedenti, clicca qui. Per la versione inglese vai al blog.

L’Intelligenza Artificiale ha dimostrato negli ultimi anni molte delle sue potenzialità in numerosi campi applicativi: dal riconoscimento facciale, alla creazione di vere e proprie opere d’arte, alla sua grandissima abilità strategica nei giochi da tavolo.

Tuttavia, il modo in cui l’Intelligenza Artificiale arriva ai suoi straordinari risultati rimane – in alcuni casi – un mistero anche per gli stessi programmatori che ne sviluppano la capacità di “apprendere.”

I suoi meccanismi interni non sono trasparenti, e sfuggono intrinsecamente alla comprensione per la loro complessità. Questo è un problema. Se ci sono degli errori, questi rimarranno nascosti all’interno, e il rischio è che un risultato venga ritenuto valido anche quando non lo è.

Ma di quale tipologia di errori stiamo parlando?

In particolare di quelli che chiamiamo pregiudizi funzionali.

Alcuni episodi degli ultimi anni, come algoritmi incapaci di riconoscere i visi più scuri o di origine asiatica, o che discriminano le donne quando richiedono un mutuo, hanno dimostrato che – per quanto si dica che gli algoritmi siano neutri – i pregiudizi umani possono essere incorporati facilmente anche nelle macchine.

Ad esempio, per allenare un’Intelligenza Artificiale che analizzi volti di persone, facilmente vengono utilizzate le informazioni che si credono rappresentative di una popolazione: il problema è che così facendo la macchina finisce per ignorare, e quindi discriminare, le minoranze, che in questo modo diventano “invisibili.”

Gli algoritmi infatti amplificano “naturalmente” i pregiudizi perché sono progettati per massimizzare l’accuratezza della previsione: man mano che l’apprendimento automatico diventa essenziale per numerosi processi decisionali, ecco che questa sua caratteristica diventa un problema non più ignorabile. 

Per cercare di risolvere questo problema, i professionisti del settore hanno cominciato a sviluppare sistemi in grado di interpretare i meccanismi nascosti dell’Intelligenza Artificiale.

Partendo dalla depurazione dei dati stessi, e passando per la creazione di sistemi di monitoraggio e comprensione dei risultati – sia gestiti da umani, sia dalle stesse macchine – si è in grado di migliorare la comprensione dei meccanismi interni di un sistema intelligente.

Sebbene spesso si discuta dei vantaggi e dei costi di un’analisi più approfondita del funzionamento dei sistemi di Machine Learning, in alcuni contesti la posta in gioco è semplicemente troppo alta per non portare avanti tali attività.

Di conseguenza negli ultimi anni sono nate numerose piattaforme finalizzate a monitorare il funzionamento dei sistemi di Machine Learning.

Facebook e Google sono state le prime società a dotarsi di strumenti utili a rilevare pregiudizi, questo a causa degli scandali che sono scoppiati negli ultimi anni sulle loro piattaforme.

Ultimamente molte startup stanno cominciando a offrire servizi di monitoraggio per la trasparenza dell’Intelligenza Artificiale, puntando su tecnologie proprietarie e uniche: la cosa interessante è che un servizio 
di questo tipo non solo è utile alle aziende in termini economici indiretti (meno scandali, migliore immagine del brand, etc.), ma è anche un’attività etica e umanamente necessaria.

Oggi la fiducia delle persone sulle possibilità e sull’impatto positivo dell’Intelligenza Artificiale è in crisi: se vogliamo che l’IA venga accettata, è necessario garantirne il corretto funzionamento e la trasparenza.