Key4biz

Intelligenza artificiale, chi controlla cosa?

L’inarrestabile sviluppo della tecnologia, in particolare dei sistemi di Intelligenza Artificiale, fa presagire scenari innovativi, ma pone questioni etiche e sociali di estrema rilevanza, considerato che sempre più nel prossimo futuro le persone si troveranno ad interagire con tali sistemi. Questo richiede necessariamente di ampliare le attività di ricerca su questi aspetti e intensificare il dibattito su problematiche che riguardano l’essere umano e il suo futuro. Se, infatti, i profitti spingono sempre più il mercato dell’Intelligenza Artificiale, esaltandone i tanti pregi, non si dedica la stessa attenzione ai rischi inerenti la sfera dei diritti umani derivante dal loro impiego incontrollato.

Sembra persino che venga ostacolata la diffusione di ricerche in controtendenza, come è accaduto – stando alle notizie riportate da vari media – alla ricercatrice Timnit Gebru, co-leader del team “etica e intelligenza artificiale” di Google e tra le scienziate più accreditate nel campo dell’etica delle tecnologie, che la sera del 2 dicembre 2020 ha annunciato via Twitter il suo allontanamento dal lavoro per volontà dell’azienda.

IA e Google

Da una serie di informazioni riprese dai media di molti paesi, il fatto sarebbe conseguente alla decisione aziendale di “non autorizzare” la pubblicazione di un articolo che la Gebru, con altri colleghi, intendeva presentare ad una conferenza prevista a marzo 2021, dopo un processo di peer review. Più di 1.400 collaboratori di Google, e altri 1.900 sostenitori, hanno firmato una lettera di protesta rivolta al gigante di Internet e lanciato un appello affinché l’azienda rafforzi, anziché ostacolarlo,  il suo impegno per l’integrità della ricerca.

Il documento oggetto del contendere «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?» illustra i rischi dei modelli linguistici di grandi dimensioni basati su una quantità impressionante di dati testuali. Ancorché non pubblicato, lo scritto è circolato tra gli ambienti scientifici e l’essenza del contenuto è disponibile presso la MIT Technology Review.

Nella parte introduttiva del documento gli studiosi si chiedono “se si è riflettuto abbastanza sui potenziali rischi associati al loro sviluppo e sulle strategie per mitigarli”.

Tra i pericoli evidenziati, risulta essere centrale quello della difficoltà di poter cogliere appieno tutte le sfumature dei linguaggi di regioni e popoli con scarso accesso a Internet e quindi con una minore impronta linguistica online, con l’evidente distorsione che la lingua considerata dai sistemi di IA potrebbe riflettere solo le pratiche di alcuni paesi.

Ma vi è di più. Dal momento che i modelli intelligenti di elaborazione del linguaggio si basano su una quantità sempre più crescente di testi in rete, c’è il concreto rischio che l’impossibilità di verificare la totale assenza di pregiudizi finisca con l’inglobare nella formazione dei modelli anche il linguaggio razzista, sessista e violento. Di fronte ad una mole di dati sempre più ampia da verificare, sono più che normali i dubbi sull’efficacia della metodologia e sulla sua pericolosità.

A tutto ciò si aggiunga che le variazioni nel linguaggio, che giocano un ruolo importante nel cambiamento sociale, potrebbero non venir percepite nella loro sostanza, in quanto difficilmente si potrà riuscire a tenere conto, per l’enormità dei dati in gioco, dei mutamenti linguistici realizzati in questi anni attraverso la comunicazione sociale da movimenti che hanno cercato di stabilire un nuovo vocabolario di genere e antirazzista. Un modello di intelligenza artificiale addestrato su vaste fasce di Internet rischia di non essere in grado di registrare tali variazioni e di non produrre modelli in linea con il nuovo lessico prodotto da un cambiamento culturale.

Data la portata e l’impatto sulla società, non sorprende che le nuove tecnologie, e soprattutto l’uso dell’IA e degli algoritmi nel processo decisionale, sollevino una serie di preoccupazioni relative ai diritti umani (in proposito si veda la pubblicazione delle autrici di questo articolo per la Franco Angeli, Diritti umani, tecnologie e responsabilità sociale)  

Man mano che si perfeziona e si espande, l’intelligenza artificiale si fonde con le nostre esperienze e diventa un facilitatore che media le interazioni in un modo conveniente, anche se non sempre percettibile. Se è vero che essa crea nuove opportunità, dall’altro interferisce con l’autodeterminazione dell’individuo, ponendo questioni di natura etica e sociale spesso sottovalutate. E’, infatti, ormai noto che se gli algoritmi – che comunque sono prodotti dall’essere umano e quindi passibili di errore – sono elaborati con pregiudizi di fondo, possono agire in modo fuorviante e produrre conseguenze rilevanti. Una sfida, quindi, alla nostra capacità di comprendere come e perché è stata presa una decisione.

Intelligenza artificiale e diritti umani

La conseguenza logica è la difficoltà di garantire i valori fondamentali della società, come l’equità, la giustizia e diritti. A livello europeo è ormai da qualche anno riconosciuta l’importanza di agire sulla regolamentazione dell’Intelligenza Artificiale, al punto che si sta discutendo di specifiche norme per gestire le opportunità ed i rischi di una tecnologia che ormai viene ritenuta indispensabile per il futuro del lavoro.

Pur liberando opportunità per aziende e comunità in tutto il mondo, quindi, questi nuovi impatti sollevano una serie di importanti questioni generali che vanno al di là del mondo accademico e dei centri di ricerca portando i governi, le imprese stesse e il pubblico a chiedere una maggiore responsabilità nel modo in cui queste tecnologie vengono utilizzate.

Un tema sempre più discusso e che richiede necessariamente competenze multidisciplinari per analizzarlo e gestirlo, perché, indipendentemente dalle novità e dai progressi, la tutela dell’essere umano, in ogni sua forma, è un principio inderogabile.

Exit mobile version