l'analisi

Perché dobbiamo scongiurare la retorica sull’intelligenza artificiale

di |

Talvolta gli esperti veri si lamentano di questo andazzo, ma in diversi contesti istituzionali, politici o professionali sembra si preferisca i tanti che parlano forbito di sistemi ICT di ultima generazione pur avendo idee vaghe sulle reali caratteristiche di un sistema o di un algoritmo di IA.

Negli ultimi anni l’esercizio retorico sta riguardando troppo spesso il contesto del dibattito pubblico sull’uso delle nuove tecnologie digitali. Il largo uso e il grande impatto sociale di queste tecnologie ha aumentato di molto l’interesse delle persone e sono in troppi a esibirsi in ruoli di esperti facendosi aiutare da una retorica priva, tuttavia, di informazioni e di conoscenze ben fondate. Per evitare i rischi e limitare i danni di questa tendenza sempre più diffusa è importante essere consapevoli dei diversi modi in cui la retorica può essere utilizzata per discutere delle innovazioni tecnologiche, avendo cura di intervenire per formare opinioni ben informate su temi scientifici e tecnologici che, da un lato richiedono competenze specialistiche, mentre dall’altro hanno ambiti di applicazione vastissimi che coinvolgono una grande maggioranza dei cittadini.

Di recente si discute molto di intelligenza artificiale (IA) soprattutto grazie alle nuove scoperte, per alcuni aspetti straordinarie, e ai nuovi sistemi di IA che permettono di realizzare azioni prima impossibili e anche grazie anche al largo uso che molti cittadini fanno di sistemi software e app che usano tecniche di IA. Insieme alla discussione, anche la retorica sull’AI è cresciuta in maniera preoccupante. Sebbene le tecnologie di intelligenza artificiale siano un argomento tecnico-scientifico complesso e le opinioni sui suoi usi e sulle tante potenzialità possono anche essere controverse, ormai accade quotidianamente che le persone esprimano opinioni forti e convinte su di esse, sulla loro reale natura, sulle loro caratteristiche, i loro limiti e anche sugli sviluppi futuri.

I social media, il Web, le televisioni, i giornali, i discorsi pubblici di politici e di tanti sedicenti esperti in molti eventi pubblici e anche le chiacchiere al bar sono tante, forse troppe, fonti di retorica sull’IA. Pur considerando che bisogna evitare la retorica degli esperti, è utile stare molto attenti alla forma di retorica più dannosa che è quella che si mostra convinta mentre è incompetente, imprecisa, fuorviante, talvolta entusiasta, altre volte eccessivamente negativa. Questo tipo di retorica porta quasi sempre a una cattiva comprensione dell’IA, genera comportamenti non appropriati ed inefficaci degli utenti e sicuramente conseguenze negative per la società. Ad esempio, la retorica che sostiene che l’IA è in grado di sostituire tutti o la gran parte dei lavori umani è imprecisa, non è fondata su dati certi. Sappiamo che sono stati effettuati degli studi che hanno mostrato un impatto certo sul mondo del lavoro, ma nessuno di questi ha potuto stabilire effetti di totale sostituzione.

L’IA è una tecnologia potente, ma, come tutte le cose prodotte dagli umani, ha anche dei limiti. Non è corretto sottovalutare le sfide e i cambiamenti che lavoratori, manager, dirigenti dovranno affrontare, ma teorizzare una loro quasi completa sostituzione è errato. Anche se tanti posti di lavoro esistenti potranno essere automatizzati, è anche vero che l’IA continuerà a creare nuovi posti di lavoro, nuove figure professionali in un mondo del lavoro che cambia. Un’altra forma di retorica sull’IA è quella che vorrebbe sostenere il fatto che i nuovi sistemi di intelligenza automatica in pochi anni distruggeranno il mondo, mentre, dall’altro lato si ha una retorica che pretende di convincerci che l’IA possa risolvere tutti i problemi che gli esseri umani affrontano quotidianamente. In tutti questi casi bisognerebbe ricordare la frase che Manzoni mette in bocca al cancelliere Ferrer, il quale rivolgendosi al suo cocchiere durante la peste di Milano, dice: «Pedro, adelante con juicio».

Anche se, come già detto, l’ampollosità retorica dei competenti è fastidiosa, porta a future disillusioni e contribuisce alla diffusione di atteggiamenti antitecnologici, purtroppo la retorica non informata sull’IA è peggiore e crea conseguenze molto negative per la società in diversi modi. Ad esempio, induce le persone (e anche i politici) a prendere decisioni avventate sull’IA, genera bolle di disinformazione, può limitare l’innovazione, la crescita economica e più in generale il progresso nell’uso delle nuove tecnologie. A volte genera entusiasmi ingiustificati e adozioni in contesti non appropriati (non si può pensare di usare sistemi di IA per ogni cosa come fossero una moderna panacea). È importante essere consapevoli di questa retorica e fare affidamento su fonti affidabili per le informazioni sull’IA, allo stesso tempo è importante essere critici nei confronti dei vari retori dell’IA che si ascoltano o si leggono e in generale verso chi esprime ferme certezze su questo tema che al momento è in continua evoluzione.

Dunque, non siamo soltanto di fronte alla retorica dei tecno-entusiasti che semplificano una materia molto complessa, c’è anche una retorica dell’ignoranza che si nutre di idee vaghe, di mancata competenza, di fake news e volontà di parlarne ad ogni costo perché è socialmente rilevante mostrarsi competenti di un tema di moda. Eppure, i modelli di IA non sono meno complessi del modello standard della fisica delle particelle o della neurofisiologia del tronco encefalico, argomenti sui quali, al contrario, per fortuna sono rari quelli che hanno l’ardire di avventurarsi. Talvolta gli esperti veri si lamentano di questo andazzo, ma in diversi contesti istituzionali, politici o professionali sembra si preferisca i tanti che parlano forbito di sistemi ICT di ultima generazione pur avendo idee vaghe sulle reali caratteristiche di un sistema o di un algoritmo di IA.

Il dibattito su questi temi non può fare a meno degli esperti, ma, allo stesso tempo, non deve essere lasciato ai soli esperti. Nelle discussioni sull’uso e anche sullo sviluppo di sistemi di IA che compiono azioni complesse e con capacità decisionali, devono essere coinvolte diverse competenze insieme a quelle informatiche. Tuttavia, ognuno deve intervenire per quello che sa, non per quello che pretende di sapere. Per realizzare sistemi di intelligenza artificiale utili alla società serve il contributo di filosofi, umanisti, economisti, giuristi, antropologi e di altre competenze da unire a quelle degli informatici, ma ognuno di questi non può prescindere dai principi dell’informatica e dell’IA e deve contribuire con le proprie competenze senza sostituirsi a un ingegnere informatico specialista in IA.

Invece, purtroppo, sono tanti i filosofi, gli avvocati, gli influencer, i politologi, addirittura i teologi o i commercialisti che di recente intervengono come fossero diventati improvvisamente esperti di intelligenza artificiale e invece di interagire con gli informatici esperti di quella disciplina, si improvvisano professionisti di algoritmi di machine learning e tecniche software simili. Senza preoccuparsi di studiare come l’IA sta cambiando le loro professioni, si avventurano in conferenze, trasmissioni e partecipazioni a commissioni varie parlando e scrivendo del presente e del futuro di una tecnologia estremamente sofisticata, che anche gli esperti informatici hanno difficoltà a conoscere in dettaglio. Le loro ambizioni retoriche sorvolano le nozioni tecniche come fossero materia secondaria. Non avvertono il bisogno di confrontarsi con gli esperti, fanno dibattiti tra di loro, sono consulenti di sottosegretari o di parlamentari ed emettono giudizi privi di conoscenze tecniche e così contribuiscono a disinformare le persone, gli utenti e anche i decisori pubblici.

In questa tendenza generale, va considerato che nel 2024 l’Italia sarà alla guida del G7 e, come promesso dal Premier Meloni, si avvia a stimolare e a gestire il dibattito sulle innovazioni dell’IA e sulla sua necessaria regolamentazione. Le soluzioni basate sull’IA hanno un grande potenziale e potrebbero generare un impatto significativo sullo sviluppo socio-economico globale, per questa ragione e per la necessità di regolamentare i suoi usi, sarà tra uno dei temi principali del prossimo G7.

I processi decisionali a livello del Gruppo dei 7 potranno contribuire a definire una governance globale dell’IA insieme ai principi relativi ai rischi, agli impatti e agli aspetti legali e di sicurezza su algoritmi e dati usati per l’IA.

È dunque evidente quanto sia necessario che quelli che saranno chiamati a discutere, a consigliare e a decidere su un tema così delicato debbano rifuggire ogni forma di retorica sull’IA e devono disporre delle necessarie conoscenze su questa particolare tecnologia che definirà tanti aspetti del nostro futuro.