Innovazione

Democrazia Futura. La primavera dell’intelligenza artificiale e la bozza di regolamento europeo AI Act

di Pieraugusto Pozzi, segretario generale Infocivica – Gruppo di Amalfi |

L'articolo esamina "Le politiche europee per l’intelligenza artificiale" e nella fattispecie il Libro Bianco sull'intelligenza artificiale.

Pieraugusto Pozzi

Lungo ed accurato contributo di Pieraugusto Pozzi dedicato a “La primavera dell’intelligenza artificiale e la bozza di regolamento europeo AI Act” . “L’intelligenza artificiale è infatti progredita rapidamente e potentemente non più su basi logico-simboliche, ma adottando un approccio completamente diverso, quello statistico. A partire da architetture logico-computazionali dette reti neurali, si è sviluppato il cosiddetto statistical machine learning (deep learning quando le informazioni trattate sono non strutturate) o apprendimento automatico, con il quale una enorme base di dati, continuamente aggiornata e accresciuta, è scandagliata per rilevare pattern (strutture) di prossimità alla soluzione del problema che si vuole risolvere: a chi o a che cosa assomiglia questa immagine? Qual è la risposta più probabile (nell’impossibilità di definire quella esatta) a questa domanda?”. L’articolo esamina “Le politiche europee per l’intelligenza artificiale” e nella fattispecie il  Libro Bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia   dal quale derivano “Le linee guida dell’Artificial Intelligence Act (AI Act)” evidenziando quindi “Le questioni ancora in discussione” prima di trrre alcune conclusioni soprattutto che – a parere dell’Ingegner Pozzi –  Andrebbero quindi evitati nei confronti di queste nuove applicazioni, come sempre, atteggiamenti entusiastici (spinti spesso da manovre di marketing) e atteggiamenti incuranti (“non c’è niente di nuovo”) [… evidenziando invece]  i limiti dello strumento informatico rispetto alla ragione umana. Limiti che l’attuale straordinario sviluppo dell’intelligenza artificiale sembra, di nuovo, portarci a dimenticare”.

La primavera dell’intelligenza artificiale

Lo studio tecno-scientifico sull’intelligenza artificiale prende avvio nell’estate del 1956 negli Stati Uniti, nel famoso seminario[1] di Dartmouth, proposto, un anno prima, da un gruppo di ricercatori per discutere la possibilità che macchine informatiche, opportunamente programmate, potessero essere “intelligenti”. Come era già accaduto, qualche anno prima, con la cibernetica di Norbert Wiener che analizzava comportamento e controllo di animali e macchine, il programma dell’intelligenza artificiale aveva forti connotazioni interdisciplinari che andavano dall’informatica (hardware e software) alla sensoristica, agli attuatori, alle interfacce, dalla filosofia alla linguistica, alle scienze cognitive. Certamente, quando le prestazioni dell’intelligenza artificiale fossero state davvero interessanti, le conseguenze avrebbero riguardato la condizione umana ancora prima della società, dell’economia o della politica. Lo pensava per esempio Irving Good, che aveva lavorato durante il secondo conflitto mondiale alla decrittazione dei messaggi della macchina cifrante tedesca Enigma con Alan Turing, padre fondatore dell’informatica e degli studi sulle “macchine intelligenti”. Good ipotizzò nel 1965 uno scenario nel quale le macchine IA sarebbero state l’ultima invenzione dell’uomo, che avrebbe dovuto cautelarsi (o sperare) che esse rimanessero docili al suo controllo[2]:

«Let an ultra-intelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultra-intelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. Thus the first ultra-intelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control».

Una preoccupazione non condivisa da altri scienziati dell’intelligenza artificiale come Marvin Minsky e Hans Moravec che pensavano sistemi di intelligenza artificiale e robot come “figli della nostra mente” e quindi ottimi prototipi di una nuova tappa dell’evoluzione della specie, mentre la preoccupazione di Irving è stata attualizzata e amplificata da Nick Bostrom[3] nel 2014 come super-intelligenza e con la metafora del “treno dell’intelligenza artificiale”:

«The next stop, just a short distance farther along the tracks, is superhuman-level machine intelligence. The train might not pause or even decelerate at Humanville Station. It is likely to swoosh right by».

Questo dibattito teorico e filosofico è diventato attuale, politico economico e industriale, perché l’intelligenza artificiale, i suoi sistemi e le sue tecniche, dopo avere affrontato quello che è stato definito, a posteriori, il loro “lungo inverno” (il periodo che va dagli anni Cinquanta al primo decennio del XXI secolo) conoscono oggi uno sviluppo, un’attenzione e una diffusione impressionante, conseguente ad un decisivo cambio di paradigma tecnologico. Durante il “lungo inverno” l’approccio tecnico-applicativo seguito era “linguistico” o “logico-simbolico”: era la stagione della cosiddetta Good Old Fashioned AI. Nella quale si tentava di formalizzare processi informatici che riproducessero i processi umani di comprensione e decisione, etichettando e riversando regole e relazioni di senso dentro la macchina di intelligenza artificiale: con la manipolazione di simboli si riproduceva il ragionamento formale.

Un metodo che dava buoni risultati in sistemi a informazione perfetta, come il gioco degli scacchi, mentre nel mondo reale ci sono eventi inattesi e ci sono sfumature e ambiguità di linguaggio e di aspetto che complicano lo svolgimento di compiti o di azioni. In ogni caso, l’approccio logico- programmatico, per alcune applicazioni e in alcuni settori, aveva dato risultati interessanti: per esempio, i cosiddetti sistemi esperti. Automi in grado di fornire valutazioni sui casi di un certo ambito specialistico (medico, ingegneristico, finanziario), formulate confrontando le informazioni del caso in esame con la base di conoscenze deduttive e procedurali e con l’uso di un motore inferenziale che formalizzava l’expertise umana (per esempio, in medicina, le conoscenze specialistiche di certe patologie). Di fatto, erano elevati sia il costo di investimento, sia il tempo necessario per lo sviluppo di tali sistemi e la loro vocazione specialistica ne limitava fortemente lo sviluppo e l’impatto.

Si preparava però la rivoluzione statistica delle tecnologie dell’intelligenza artificiale, che negli ultimi dieci anni ha cambiato drasticamente e velocemente lo scenario. L’intelligenza artificiale è infatti progredita rapidamente e potentemente non più su basi logico-simboliche, ma adottando un approccio completamente diverso, quello statistico. A partire da architetture logico-computazionali dette reti neurali, si è sviluppato il cosiddetto statistical machine learning (deep learning quando le informazioni trattate sono non strutturate) o apprendimento automatico, con il quale una enorme base di dati, continuamente aggiornata e accresciuta, è scandagliata per rilevare pattern (strutture) di prossimità alla soluzione del problema che si vuole risolvere: a chi o a che cosa assomiglia questa immagine? Qual è la risposta più probabile (nell’impossibilità di definire quella esatta) a questa domanda?

In sostanza, si tratta della novità dataistico-algoritmica delle nuove tecniche dell’intelligenza artificiale, che Nello Cristianini[4] indica come “scorciatoia”. Infatti, in mancanza di una teoria compiuta del linguaggio e del comportamento umano “intelligente”, le tecniche statistiche operano, in virtù della progressiva digitalizzazione e datificazione delle attività umane (culturali, scientifiche, economiche, editoriali e giornalistiche, relazionali) su enormi quantità di dati (i contenuti dell’intero web, a partire dai giacimenti noti di informazione e conoscenze come Wikipedia, le collezioni di giornali, i saggi pubblicati, gli articoli specialistici) e su opinioni, scelte, comportamenti, attitudini, reazioni di miliardi di utenti dei servizi online (motori di ricerca, social, app) continuamente osservati per capirne (o carpirne) linguaggio, richieste, obiettivi, soddisfazione.

Così sono nati gli agenti intelligenti e gli algoritmi che apprendono, che in simbiosi con gli umani, popolano l’universo digitale. Algoritmi che, paradossalmente, scrivono o disegnano su richiesta dell’utente umano (come le I intelligenze artificiali generative, come ChatGPT o Dall-E) e, in altri contesti, indirizzano gli utenti digitali a contenuti (testi, immagini, video) sulla base delle preferenze e del profilo dello stesso utente, come fanno gli algoritmi proprietari delle piattaforme.

Le conseguenze di questo cambiamento sono straordinarie e molteplici.

È vero che si tratta di automi che, allo stato delle cose, comprendono il mondo in modo statistico e hanno quindi una percezione della realtà totalmente diversa da quella intuitiva e culturale tipicamente umana[5]. E, sebbene non comprendano le motivazioni delle richieste che esaudiscono o il significato del proprio funzionamento, per il successo crescente delle loro prestazioni, suggeriscono all’interlocutore umano di poter avere, presto o tardi, tali capacità. Anche perché l’interlocutore umano è sempre più coinvolto in una realtà-virtualità digitale, quella che è visibile attraverso i sistemi digitali che si usano attimo per attimo, a partire dallo smartphone e dalle sue applicazioni. E la tendenza ad “innamorarsi” degli strumenti tecnologici, sempre più avanzati, è stata recentemente accentuata dall’avvento e dall’apertura al largo pubblico delle applicazioni di IA generativa come quelle indicate ed altre che presto si affiancheranno.

È quindi davvero il momento di considerare seriamente le implicazioni sociali, culturali, giuridiche della diffusione di tali sistemi di intelligenza artificiale. Infatti, le loro applicazioni già spaziano dalla pubblica sicurezza alla giustizia, dalla sanità all’istruzione, dal reclutamento, valutazione e gestione del personale ai servizi di consulenza bancaria e finanziaria (per non parlare, nell’attuale congiuntura bellica, dei robot soldato e delle armi autonome) e pongono quesiti fondamentali, non solo di tutela dei soggetti deboli e vulnerabili, ma della società nel suo complesso, per evitare eccessi e derive di potere economico, tecnologico, anti-democratico.

Le politiche europee per l’intelligenza artificiale

Molti paesi europei si sono dati politiche di intervento e sviluppo dell’intelligenza artificiale sul piano economico-industriale che si sono affiancate alle iniziative dei programmi industriali e di ricerca europei. In Italia, il Ministero per lo Sviluppo economico ha elaborato, con la collaborazione di gruppi di esperti, nel 2020 il documento Proposte per una strategia italiana per l’intelligenza artificiale, al quale è seguito nel 2021 il Programma strategico nazionale, curato dal Ministero dell’Università e della Ricerca, dal Ministero dello Sviluppo Economico e del Ministro per l’Innovazione tecnologica e la Transizione Digitale[6].

Con un percorso avviato qualche anno fa, l’approccio regolamentare europeo sull’intelligenza artificiale si distacca notevolmente dall’approccio statunitense e da quello cinese. I due colossi hanno fatto dell’intelligenza artificiale un terreno di confronto e di scontro geopolitico, che l’Europa cerca di normare almeno al proprio interno, non disponendo di piattaforme di raccolta dati e di tecnologie primarie di elaborazione, strategiche nel nuovo paradigma dell’intelligenza artificiale.

La tecnologia non è neutrale e nella trasformazione digitale ci sono vincitori e vinti. Per ora vincono le piattaforme, mentre perdono professionisti, lavoratori e imprese dell’editoria, dei media, e gli operatori delle telecomunicazioni e dell’informatica che non hanno saputo adeguarsi al nuovo ambiente competitivo, nel quale hanno subito una costante contrazione delle risorse, una severa regolamentazione da parte delle Autorità Nazionali, di settore e Antitrust, e della stessa Commissione europea.

Tali soggetti regolatori non hanno potuto finora imporre obblighi realmente cogenti ai Big Tech in una de-regolamentazione di fatto del web e delle sue applicazioni. Un’anomia dell’universo digitale che l’Europa cerca di superare con i regolamenti sui servizi e sui mercati digitali che formano il digital package. Che eredita la spinta del «Regolamento generale sulla Protezione dei Dati» (GDPR) e, in senso stretto, è costituito dai regolamenti DSA (Digital Services Act) e DMA (Digital Markets Act).

Definitivamente approvati, saranno pienamente vigenti entro i primi mesi del 2024 per garantire agli utenti europei garanzie sui servizi digitali e agli operatori economici di non essere soffocati dai giganti digitali. In senso più ampio, il pacchetto normativo europeo sul digitale comprende i regolamenti sull’uso e la condivisione dei dati pubblici (Data Act e Data Governance Act) e l’Artificial Intelligence Act, che è l’oggetto principale di questo testo.

Il complesso di queste misure delinea una politica normativa che si potrebbe definire di “costituzionalizzazione dello spazio digitale”: una politica che assegna all’Europa un primato a livello globale e che ha superato, finalmente, il carattere economicista del disegno del mercato unico europeo del digitale. Una costituzionalizzazione “non politico-programmatica” ma “tecnico-digitale”, quasi silente, che sconta le battute d’arresto e la carenza di consensi che la costruzione costituzionale europea ha subito in anni ormai non più recenti e che si rintraccia nel richiamo, quasi incidentale, a concetti e valori profondamente costituzionali come “umano” e “dignità”.

L’ iniziativa dell’Unione europea sull’’Intelligenza Artificiale

La storia della bozza di regolamento europeo sull’Intelligenza Artificiale si può datare dal febbraio 2020, quando la Commissione ha pubblicato un Libro Bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia[7], nel quale si evidenziava la necessità di una regolamentazione europea dell’intelligenza artificiale, cui hanno fatto eco varie risoluzioni del Parlamento europeo, in particolare, le questioni etiche, la responsabilità e la proprietà intellettuale dei sistemi di intelligenza artificiale.

Tali risoluzioni hanno messo in luce che le regolamentazioni dell’intelligenza artificiale e dei suoi prodotti applicativi avrebbero dovuto assicurare sicurezza, trasparenza, assunzione di responsabilità, evitare pregiudizi e discriminazioni, stimolare la responsabilità sociale e ambientale, assicurare il rispetto dei diritti fondamentali. Venivano indicati come principi essenziali ed auspicabili della regolamentazione la dignità della persona e regimi differenziati basati sul profilo di rischio dei sistemi di intelligenza artificiale, distinguendoli in sistemi «ad alto rischio», sistemi «non ad alto rischio» e in «pratiche di intelligenza artificiale vietate».

Sulla scia di questi lavori preparatori, la Commissione ha presentato, il 21 aprile 2021, una proposta di regolamento (atto giuridico europeo che non richiede recepimenti nazionali una volta terminato l’iter di approvazione) volto a fornire un quadro armonizzato di regole vincolanti per lo sviluppo, l’immissione sul mercato e l’utilizzo dl sistemi di intelligenza artificiale nell’Unione conforme «ai valori, ai diritti fondamentali e ai principi dell’Unione», composto da 85 articoli e vari allegati, in discussione da oltre due anni fra Parlamento europeo, Consiglio europeo e soggetti della società civile.

Nel Parlamento europeo, il testo è stato affidato alla commissione per il mercato interno e la protezione dei consumatori (IMCO, relatore Brando Benifei, S&D, Italia) e alla commissione per le libertà civili, la giustizia e gli affari interni (LIBE, relatore Dragos Tudorache, Renew, Romania) nell’ambito di una procedura di commissione mista.

Altre commissioni sono state coinvolte nell’iter: la commissione per l’industria, la ricerca e l’energia (ITRE, relatore Eva Maydell, PPE, BG), la commissione giuridica (JURI, relatore Axel Voss, PPE, Germania), la commissione cultura (CULT relatore Marcel Kolaja, Verdi/Alleanza libera europea), la commissione trasporti e turismo (TRAN, relatore Josianne Cutajar, S&D, Malta) la commissione ambiente, sicurezza e salute (ENVI, relatore Susana Solís Pérez, Renew, ES). In numeri, le proposte di emendamento esaminate erano oltre tremila ad aprile 2022, mentre il lettore più attento può trovare, nei lavori parlamentari, contenuti di alto livello politico, tecnico e strategico nella Risoluzione del Parlamento europeo del 3 maggio 2022 sull’intelligenza artificiale in un’era digitale[8], davvero interessante per completezza e rilevanza.

Le linee guida dell’Artificial Intelligence Act (AI Act)

Seguendo la prassi dei documenti normativi europei, l’articolo 3 contiene le definizioni dei concetti usati nel seguito del testo, in particolare, la definizione di “sistema di intelligenza artificiale”: un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti (sistemi di intelligenza artificiale generativi), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di intelligenza artificiale interagisce. Una definizione che restringe fortemente il focus sui sistemi IA di apprendimento automatico o machine learning e comprende esplicitamente i sistemi di IA generativa, come ChatGPT, assenti nella proposta del 2021. 

In generale, il regolamento sull’intelligenza artificiale adotta la linea di protezione nei confronti dei cittadini dei regolamenti sul digitale, in particolare dal «Regolamento generale sulla Protezione dei Dati» (Gdpr) ed è significativo che l’approccio adottato divida le intelligenze artificiali in diverse categorie di rischio e le regoli in funzione di tale caratterizzazione. Le categorie di rischio delle applicazioni di intelligenza artificiale sono definite nel modo seguente:

  • Rischio intelligenza artificiale inaccettabile. Le applicazioni dell’intelligenza artificiale che violano valori dell’Unione europea (per esempio, il punteggio sociale usato da parte di alcuni governi) saranno vietate perché implicano un rischio inaccettabile;
  • intelligenza artificiale ad alto rischio. Una serie di sistemi di intelligenza artificiale (espressamente elencati) che stanno creando un impatto negativo sulla sicurezza delle persone o sui loro fondamentali diritti, sono considerati ad alto rischio. Al fine di garantire la fiducia e un livello elevato e costante di protezione della sicurezza e dei diritti fondamentali, diversi requisiti saranno obbligatori (a partire da una valutazione della conformità) per tutti i sistemi ad alto rischio;
  • intelligenza artificiale a rischio limitato. Alcuni sistemi di intelligenza artificiale saranno soggetti a una serie limitata di obblighi (ad esempio la trasparenza);
  • intelligenza artificiale a rischio minimo. Tutti gli altri sistemi di intelligenza artificiale potranno essere sviluppati e utilizzati nell’Unione europea senza ulteriori obblighi giuridici rispetto a quelli esistenti nella legislazione vigente.

Da un punto di vista strategico, il regolamento tenta di offrire nello spazio europeo un vantaggio strategico ed economico alle imprese europee.

Di più, il regolamento intende l’etica non come un limite allo sviluppo tecnologico o industriale ma come un’istanza in grado di aggiungere valore ai prodotti e all’economia di quelle aziende che sapranno incorporare princìpi etici nei loro prodotti e di quei Paesi che svilupperanno strategie di sviluppo di matrice etica.

Sul piano attuativo, il regolamento istituisce un Comitato europeo per l’intelligenza artificiale, composto da un rappresentante per ogni Stato membro e, come osservatori, dal Garante europeo della protezione dei dati e dalla Commissione (art. 54). Il Comitato europeo per l’intelligenza artificiale dovrebbe operare sia per tutelare i diritti definiti nel regolamento, sia per gestire un registro centralizzato per le soluzioni di intelligenza artificiale, sollevando i singoli Stati dal doverlo fare in proprio.

Ad oggi (marzo 2023), l’iter legislativo[9] tra Consiglio, Parlamento e Commissione ha prodotto innumerevoli dibattiti, commenti e interventi sul testo. Il 6 dicembre 2022, il Consiglio europeo ha definito la propria posizione[10] (“orientamento generale”), indicando alcuni emendamenti:

1) restrizione della definizione di intelligenza artificiale ai sistemi sviluppati attraverso approcci di apprendimento automatico (machine learning) e basati sulla logica e sulla conoscenza;

2) estensione agli attori privati del divieto di utilizzare l’intelligenza artificiale per social scoring o punteggio sociale;

3) aggiunta di uno strato ulteriore di classificazione dei sistemi ad alto rischio per garantire che tali sistemi non possano causare gravi violazioni dei diritti fondamentali o nel caso che altri rischi significativi non siano stati precedentemente rilevati;

4) chiarimento sui requisiti per i sistemi di intelligenza artificiale ad alto rischio;

5) aggiunta di nuove disposizioni per tenere conto delle situazioni in cui i sistemi di intelligenza artificiale possano essere utilizzati per molti ambiti diversi (intelligenza artificiale per scopi generali);

6) esclusione esplicita dall’ambito di applicazione del regolamento sull’intelligenza artificiale (AI Act) dei settori della sicurezza nazionale e della difesa;

7) semplificazione del quadro di conformità per le applicazioni di intelligenza artificiale;

8) aggiunta di nuove disposizioni per aumentare la trasparenza e facilitare i reclami degli utenti;

9) modifica sostanziale delle disposizioni a sostegno dell’innovazione (i cosiddetti sandbox normativi per l’intelligenza artificiale).

Le questioni ancora in discussione

Quanto è distante il traguardo dell’approvazione del regolamento? Ne danno conto un paio di articoli usciti a fine febbraio 2023. Luca Tremolada[11] scrive in particolare della questione delle scatole nere. Ovvero della caratteristica comportamentale, esibita dai sistemi di intelligenza artificiale, di presentarsi come black box, che non rendono visibili all’utente o ad altre parti (inclusi gli stessi programmatori), gli input effettivamente utilizzati dagli automi di intelligenza artificiale e i processi che generano gli output, determinando problemi di trasparenza, affidabilità ed etica nell’uso dell’intelligenza artificiale.

Per questo motivo, si stanno sviluppando strumenti di Explanaible AI, cioè strumenti che aiutano a rendere trasparente il modo nel quale un sistema IA prenda una determinata decisione. Ma la questione è rilevante anche dal punto di vista industriale e geopolitico, perché oggi i maggiori fornitori di sistemi di intelligenza artificiale sono extra-europei: un regolamento che imponga trasparenza nelle black box potrebbe essere un modo per favorire la concorrenza europea.

Altra questione delicata riguarda l’impatto dell’intelligenza artificiale in Europa sui sistemi di pubblica sicurezza e, in particolare il riconoscimento facciale, aggiunge Tremolada:

“nel 22 dicembre 2022 il governo francese ha depositato un disegno di legge sui giochi olimpici del 2024 che intende […] potenziare la sicurezza attraverso videocamere dotate di intelligenza artificiale. Se sarà approvata, la legge permetterà di installare […] telecamere in grado di riconoscere in tempo reale, attraverso l’intelligenza artificiale. La misura ha suscitato e sta suscitando proteste da parte di associazioni di cittadini e partiti politici anche fuori dalla Francia che temono l’adozione massiva di strumenti di sorveglianza al di fuori della legge”.

Infine va considerato “un capitolo dedicato all’uso di chatbot sul modello di ChatGpt per [..] avvertire l’utente se il contenuto è generato da una macchina o da un essere umano”. Tema particolarmente importante per la tutela del diritto d‘autore: se un sistema di intelligenza artificiale produce un contenuto basato su testi protetti, come tutelarli, sia dal punto di vista autoriale che commerciale?

Ludovica Jona[12] su Wired ha intervistato sull’iter del provvedimento Brando Benifei, relatore del provvedimento al Parlamento europeo per la Commissione IMCO e Patrick Breyer, europarlamentare del Partito pirata tedesco, componente della Commissione LIBE:

«il Consiglio europeo ha idee diverse da quelle del Parlamento sul riconoscimento facciale in tempo reale, mentre all’interno dello stesso Europarlamento ci sono posizioni contrastanti sui sistemi di identificazione delle emozioni […] i dieci punti più controversi: riconoscimento facciale in tempo reale, analisi delle emozioni, poligrafi e macchine della verità, verifica di impatto sui diritti fondamentali, il social scoring, punteggio sociale “di fatto”, repressione di una società libera e diversa, rischio disinformazione con Chat GPT, rischio di sostenere regimi che usano l’intelligenza artificiale per la repressione, rischio di fermare un gran numero di innocenti (soprattutto tra migranti e minoranze)».

Conclusioni

A metà degli anni Ottanta, lavorando nel centro sulle reti di calcolatori del Politecnico di Milano, fondato e diretto da Gesualdo Le Moli, conobbi Marco Somalvico, pioniere dell’intelligenza artificiale, primo cattedratico della materia in un‘epoca avara di soddisfazioni, come si è detto, a causa dell’approccio logico-simbolico e della limitatezza delle risorse informatiche. Due tecno-scienziati umanisti, prima che tecnologi, come testimonia, per esempio, la definizione che Marco Somalvico dava dell’intelligenza artificiale nel 1987[13], che traggo dalla sua allieva Viola Schiaffonati[14]:

“L’intelligenza artificiale è quella disciplina, appartenente all’informatica, che studia i fondamenti teorici, le metodologie e le tecniche che consentono di progettare sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana”.

Una definizione molto interessante perché dista con evidenza da quella adottata nell’AI Act citata in precedenza. Una distanza “tecnologica” notevolissima che si è marcata in un tempo brevissimo: ciò testimonia la rapidità dell’innovazione digitale e, quindi, il feroce adattamento richiesto a tutti: società, tecnologi, utenti.

Al momento, nei confronti dei sistemi di intelligenza artificiale e delle loro applicazioni, preso atto delle loro tecniche di sviluppo, in particolare di quelli generativi, è interessante la sintesi culturale proposta da Nancy Crawford[15]: “né artificiale, né intelligente”.

Non solo perché tutto ciò che ha “addestrato” l’intelligenza artificiale è stato ed è ovviamente umano: i contenuti enciclopedici, artistici e letterari catturati sul web, le relazioni e le espressioni umane catturate sui social, accoppiati all’immenso contributo operativo, specificamente richiesto all’intelligenza umana, per migliorare lo sviluppo dell’intelligenza artificiale, ottenuto spezzettando massive attività in micro-compiti lavorativi, somministrati ed eseguiti su piattaforme di crowdworking come Mechanical Turk ed altre.

Ma soprattutto, come si è detto, perché l’intelligenza dell’intelligenza artificiale è statistica e algoritmica, certamente dissimile dai processi intellettuali tipicamente umani, come quelli intuitivi e dotati di coscienza.

Altri autori, tra i quali Timnit Gebru e Margaret Mitchell (scienziate dell’informazione costrette a lasciare il gruppo Ethical Artificial Intelligence che avevano fondato in Google per aver contestato i pregiudizi presenti nei giacimenti di dati utilizzati per l’addestramento dell’intelligenza artificiale), hanno definito le intelligenze artificiali generative “pappagalli stocastici[16].

Andrebbero quindi evitati nei confronti di queste nuove applicazioni, come sempre, atteggiamenti entusiastici (spinti spesso da manovre di marketing) e atteggiamenti incuranti (“non c’è niente di nuovo”). Come sempre, sono utili i confronti storici. Torna in mente Eliza, la “psicologa computazionale” sviluppata da Joseph Weizenbaum al Massachusetts Institute of Technlogy (MIT) negli anni Sessanta. Nonostante l’interfaccia di comunicazione fosse una primitiva telescrivente, il “sistema intelligente” ebbe una straordinaria accoglienza, soprattutto, da parte delle associazioni professionali degli psicologi.

Qualche anno dopo Weizenbaum[17], in un grande classico sulle prospettive dell’intelligenza artificiale volle chiarire, da scienziato dell’informazione, i limiti dello strumento informatico rispetto alla ragione umana. Limiti che l’attuale straordinario sviluppo dell’intelligenza artificiale sembra, di nuovo, portarci a dimenticare.

Mentre dovremmo occuparci di “moralizzare le tecnologie”, come dice Viola Schiaffonati, e di “negoziare l’algoritmo”, come propone da tempo Michele Mezza[18].

Senza dimenticare tre lezioni. La lezione sulla mancanza di coscienza delle macchine intelligenti di Federico Faggin[19], grande protagonista dello sviluppo dei microprocessori: “il mio pensiero è che la vera intelligenza richiede coscienza, e che la coscienza è qualcosa che le nostre macchine digitali non hanno, e non avranno mai”.

La lezione su ragione, sentimenti e biologia dell’umano del neuroscienziato Antonio Damasio[20]

«la ragione può non essere così pura come la maggior parte di noi ritiene che sia, o vorrebbe che fosse; i sentimenti e le emozioni possono non essere affatto degli intrusi entro le mura della ragione: potrebbero essere intrecciati nelle sue reti, per il meglio e per il peggio. Sia nell’evoluzione sia in ogni singolo individuo, le strategie della ragione umana probabilmente non si sono sviluppate senza la forza guida dei meccanismi di regolazione biologica dei quali emozione e sentimento sono espressioni notevoli. Per di più, anche dopo che le strategie del ragionamento si sono assestate, negli anni della formazione, il loro effettivo dispiegamento dipende in larga misura dalla ininterrotta capacità di provare sentimenti».

E la lezione di Gerd Gigerenzer[21] sulla necessità di restare al di sopra della tecnologia:

«restare intelligenti significa comprendere le potenzialità e i rischi delle tecnologie digitali, ed essere determinati a mantenere il controllo in un mondo popolato da algoritmi».

Infine, molte grazie all’ingegnere Angelo Luvison, autore di molti saggi innovativi e di riflessione sul digitale, per il costante scambio di idee e per i preziosi e puntuali suggerimenti.


[1] John McCarthy, Marvin Minsky, Nathan Rochester, Claude Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence; http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf.

[2]Irving Good, Speculations Concerning the First Ultra intelligent Machine, in «Advances in Computers», Volume 6, 1965 

[3] Nick Bostrom, Superintelligence. Paths, Dangers, Strategies, Oxford, Oxford University Press, 2014, 352 p.; ed. it. Superintelligenza: tendenze, pericoli, strategie, Torino, Bollati-Boringhieri, 2018, 528 p.

[4]Nello Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, Mulino, 2023, 216 p.

[5] Pieraugusto Pozzi, “Metamorfosi digitale, poteri senza limiti dei dati e crisi della ragione umana”, Democrazia futura, I (1), gennaio-marzo 2021, pp. 39-45; Angelo Luvison, Maurizio Molinaro, “Dilemmi etici dell’intelligenza artificiale e Pieraugusto Pozzi, Dopo il Bit Bang: dalla conoscenza umana a quella digitale”, in «Le frontiere dell’IA», Rivista AEIT, CVI (1-2), gennaio- febbraio 2020, pp. 24-29.

[6] Proposte per una Strategia italiana per l’intelligenza artificiale, MISE, 25 luglio 2020, https://www.mise.gov.it/images/stories/documenti/Proposte_per_una_Strategia_italiana_AI.pdf. Programma strategico Intelligenza Artificiale 2022-2024, 24 novembre 2021, https://assets.innovazione.gov.it/1637777289- programma-strategico-iaweb.pdf.

[7] https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52020DC0065&from=IT.

[8] https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_IT.pdf.

[9] https://eur-lex.europa.eu/legal-content/IT/HIS/?uri=CELEX:52021PC0206#2022-12-06_DIS_byCONSIL.

[10] https://eur-lex.europa.eu/legal-content/EN/AUTO/?uri=consil:ST_15698_2022_INIT.

[11] Luca Tremolada, “Stretta finale per l’Ai Act: cosa chiede l’Europa all’intelligenza artificiale”, Il Sole24Ore, 27 febbraio 2023, https://www.ilsole24ore.com/art/stretta-finale-l-ai-act-cosa-chiede-europa-all-intelligenza-artificiale–AEPW7RqC.

[12] Ludovica Jona, “I 10 punti ancora irrisolti del regolamento europeo sull’intelligenza artificiale”, Wired, 26 febbraio 2023, https://www.wired.it/article/intelligenza-artificiale-regolamento-europeo-punti-irrisolti/.

[13]Marco Somalvico, Intelligenza Artificiale, in Jader Jacobelli, Aspettando Robot: il futuro prossimo dell’intelligenza artificiale, Laterza, 1987, 244 p.

[14] Viola Schiaffonati, “Le frontiere dell’IA: la questione morale”, in «Le frontiere dell’IA», Rivista AEIT, CVI (1-2), gennaio-febbraio 2020

[15] Kate Crawford, Né artificiale, né intelligente. Il lato oscuro dell’IA, Mulino, 2022, 320 p.

[16] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Margaret Mitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big”; FAccT 2021: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March 2021, https://dl.acm.org/doi/10.1145/3442188.3445922

[17] Joseph Weizenbaum, Computer Power and Human Reason. From Judgment to Calculation, New York W. H. Freeman and Company, 1976, 300 p. Traduzione italiana: Il potere del computer e la ragione umana. I limiti dell’Intelligenza Artificiale, Torino, Edizioni Gruppo Abele, 1987, 264 p.

[18] Michele Mezza, Algoritmi di libertà.  La potenza di calcolo tra dominio e conflitto, Roma, Donzelli, 2018, XVIII-278 p.

[19] Federico Faggin, “La differenza fondamentale tra intelligenza umana e intelligenza artificiale, Conferenza sul futuro”, Santiago del Cile, 2016, https://disf.org/faggin-intelligenza-artificiale; Federico Faggin, Irriducibile. La coscienza, la vita. i computer e la nostra natura, Milano, Mondadori, 2022, 300 p.; Federico Faggin, Silicio. Dall’invenzione del microprocessore alla nuova scienza della consapevolezza, Milano, Mondadori, 2019, 336 p.

[20] Antonio Damasio, L’errore di Cartesio. Emozione, ragione e cervello umano, Milano, Adelphi, 1995, 404 p. [la citazione è a p. 18].

[21] Gerd Gigerenzer, Perché l’intelligenza umana batte ancora gli algoritmi, Milano, Raffaello Cortina Editore, 2023, 376 p.