Key4biz

Siamo ancora utili? La grande domanda dell’era AI, tra chi la teme e chi la spinge. L’analisi ASviS

L’intelligenza artificiale, da essere uno degli argomenti del nostro tempo, è diventato quello che li ricomprende tutti. Dal lavoro alla sanità, dalla psicologia all’istruzione, dall’informazione alla guerra, ogni settore della società è stato coinvolto in questa rivoluzione. Se l’effetto varia, non lo fanno le reazioni, che si dividono in due blocchi: chi promuove l’AI e chi la teme. In mezzo tante posizioni intermedie, fatte di risposte controverse o semplicemente moderate, alla ricerca di una combinazione tra accelerazione tecnologica e rispetto dei valori etici. E l’intelligenza artificiale, intanto, procede spedita. 

Saremo sostituiti?

Qualche settimana fa, il professor Pietro Speroni di Fenizio, matematico, curatore del blog AI Visions sul nostro sito ed esperto di intelligenza artificiale – le sperimenta in combinazione tra loro, come potete vedere qui – ha tenuto un interessante seminario nella sede ASviS sull’AI per agenti, e sul suo utilizzo in campo lavorativo. “Il prompt di una persona è in grado di produrre un lavoro che richiederebbe quanto tempo a un essere umano? Di quali grandezze stiamo parlando?”, si è chiesto in apertura di lezione.

Secondo Speroni di Fenizio, si tratta di un numero molto alto. Quello di cui bisogna tenere conto, infatti, non è solo “quanto lavoro possa produrre l’intelligenza artificiale”, ma a quanto lavoro equivalga ogni singolo prompt. Se a oggi una persona può svolgere un’occupazione in cinque ore e il prompt in mezz’ora, in futuro questo rapporto potrebbe corrispondere “all’equivalente di lavoro di una persona per tre mesi”. Tutto questo utilizzando il deep search, che permette di ottenere risposte approfondite (anziché un “semplice” elenco di link) grazie all’uso di modelli di linguaggio avanzati. E bisogna anche considerare che l’AI non riposa mai, o quasi. È di qualche giorno fa la notizia che Claude Sonnet 4.5, il nuovo modello di intelligenza artificiale targato Anthropic e pensato per coding, agenti autonomi e utilizzo avanzato del computer, può lavorare per 30 ore consecutive.

L’intelligenza artificiale, a oggi, ha però una serie di colli di bottiglia, tra cui la precisione delle informazioni che produce. A volte dà risposte caotiche, inconcludenti, contraddittorie (anche se è sempre molto più raro). Ma siamo sicuri che sarà ancora così in futuro? Se includiamo nel discorso l’intelligenza artificiale per agenti la risposta potrebbe essere no. Si parla di AI per agenti riferendosi alle intelligenze artificiali composte: si discute con una singola AI, ma al suo interno diverse intelligenze artificiali collaborano per completare lo stesso lavoro. O ognuna con un compito diverso. “Per esempio una pensa cosa fare, una seconda esegue i compiti e una terza legge quello che c’è da fare, analizza il risultato e coordina i passi successivi”, spiega Speroni di Fenizio. Le AI si danno feedback a vicenda, discutono e correggono i propri errori, elaborano soluzioni. “Alcune pensano mentre altre eseguono. Se hai il project manager e hai il programmatore, non è detto che il project manager debba saper programmare o abbia in memoria tutto il codice. Il project manager supervisiona”. Le AI diventano così molto più precise, e il compito degli esseri umani si concentra soprattutto su input e coordinamento. Microsoft, nel suo Work trend index 2025, chiama questi lavoratori del futuro “agent boss”. E le startup da loro guidate, in cui gran parte del lavoro è svolto dalle AI, “Frontier firms”. Per i più ottimisti, questo vorrà dire maggiore tempo libero e creatività. Per i pessimisti, sostituzione.

Panorama artificiale

C’è poi chi pensa che questa rivoluzione non sarà così rivoluzionaria, o almeno non nei termini in cui la pensiamo oggi. Uno studio del Mit di due mesi fa ha rilevato che il 95% delle aziende che hanno scommesso sull’integrazione AI-essere umano non ha registrato una crescita significativa del fatturato. Un’altra ricerca, che esplora l’utilizzo degli assistenti di programmazione basati sull’intelligenza artificiale, ha dimostrato che i programmatori diventano più lenti quando dipendono dagli strumenti di AI. E negli ultimi mesi si sono susseguite notizie di aziende che prima licenziano i propri dipendenti, e poi li riassumono quando capiscono che non possono essere sostituiti completamente. Ma perché, questi intoppi?

Un nuovo report dei ricercatori di Stanford e dell’azienda BetterUp Labs prova a rispondere proprio a questa domanda. In un sondaggio ancora in corso, il team ha esaminato le risposte di 1.150 dipendenti a tempo pieno negli Stati Uniti, appartenenti a diversi settori, per comprendere come i contenuti di intelligenza artificiale vengono utilizzati sul posto di lavoro. La loro conclusione è che le persone sfornano lavori di bassa qualità, che poi devono essere rivisti dai loro colleghi, andando a rallentare la produttività. “I dipendenti utilizzano strumenti di intelligenza artificiale per creare prodotti che richiedono poco sforzo e che sembrano passabili, ma che alla fine creano più lavoro”, ha dichiarato Kate Niederhoffer, psicologa sociale e vicepresidente di BetterUp Labs. Il team di ricerca ha chiamato questo lavoro di bassa qualità “workslop”, un gioco di parole con “AI slop”, slang utilizzato per descrivere testi e immagini scadenti prodotti dall’AI e pubblicati sui social. Il workslop è un prodotto generato dall’intelligenza artificiale che “si maschera da buon lavoro, ma manca della sostanza necessaria per portare avanti in modo significativo un determinato compito”. A questo si aggiungono chiamate per chiarire la questione tra colleghi (lo dico per esperienza), mail, discussioni varie. Tutto tempo perso.

Stessa questione, tema diverso. Durante il convegno “Futuro chiuso/Futuri aperti” dell’Italian institute for the future (25-27 settembre, Napoli), in uno dei seminari a cui ha partecipato anche Futura Network – con l’intervento “Le nuove applicazioni delle intelligenze artificiali nelle ricerche sui futuri” – il professor Lorenzo Fattori ha dedicato il suo approfondimento all’intelligenza artificiale applicata alla produzione e revisione di paper scientifici. In particolare, ha portato il caso di una celebre rivista internazionale come Frontiers che, appaltando i paper al controllo dell’AI, ha pubblicato studi smaccatamente falsi come questo qui. Un altro caso di workslop

I risvolti psicologici

L’integrazione dell’AI nella nostra routine sta scatenando un acceso dibattito. Anche per i suoi effetti sulla salute. Abbiamo già letto dei casi di suicidio o omicidio dietro cui dietro c’era (anche) un fitto dialogo con l’AI. E un recente reportage di Wired ha fatto il punto su un fenomeno in crescita nel settore psichiatrico: disturbi amplificati dall’utilizzo intensivo dei chatbot. Keith Sakata, psichiatra della University of California San Francisco, ha dichiarato alla rivista di aver contato nell’ultimo anno una dozzina di casi di ricovero ospedaliero in cui l’intelligenza artificiale “ha svolto un ruolo significativo”. Hamilton Morrin, ricercatore psichiatrico presso il King’s College di Londra, ha detto al Guardian di aver co-firmato un articolo di ricerca sull’effetto dell’AI sui disturbi psicotici dopo aver incontrato pazienti che avevano sviluppato malattie legate a un utilizzo intensivo dell’intelligenza artificiale. Nella maggior parte dei casi, gli utenti condividevano pensieri deliranti o paranoici con il chatbot, e questo, confermandoli, li amplificava. Le persone vulnerabili che si rivolgono alle AI anziché a terapisti professionisti, ha aggiunto la dottoressa Lisa Morrison Coulthard della British association for counselling and psychotherapy, potrebbero “scivolare in un pericoloso abisso”. Un abisso fatto per lo più di solitudine.

La grande differenza tra l’intelligenza artificiale e internet è che, mentre la prima in fondo è solo uno strumento, il secondo è anche un luogo. Per quanto vituperato nel corso degli anni, in particolare dopo la nascita dei social network, internet è un posto fatto di persone che vogliono sapere cosa pensano o fanno altre persone. Nella solitudine degli smartphone c’è sempre una sorta di contatto – irreale, intangibile, virtuale – con altri utenti nascosti dietro altri schermi. ChatGPT, in parte, recide quel collegamento. Il chatbot è la persona con cui parliamo, l’unica e spesso l’ultima. Ed è meglio di qualsiasi altro essere umano – e di internet, i cui motori di ricerca stanno infatti morendo, dal momento che sempre più utenti consultano solo l’AI. Mostruosamente intelligente. Sempre presente. Sempre disponibile. Solo per me.

Quanto questa rivoluzione sta facendo bene al nostro cervello? Secondo alcuni studi, molto poco. Proprio come il Gps ha danneggiato il nostro senso di cognizione spaziale e la nostra memoria, l’intelligenza artificiale potrebbe compromettere la capacità di prendere decisioni. In un’intervista su PsyPost dove ci si chiede “Può l’AI renderci imbecilli?” – una domanda che fa eco al celebre saggio dello scrittore Nicholas Carr “Is Google making us stupid?”pubblicato nel 2008 su The Atlantic – l’esperto di neuropsicologia Umberto León Domínguez dell’Università di Monterrey in Messico ha spiegato che l’intelligenza artificiale, agendo da “protesi cognitiva” per l’essere umano, potrebbe fornire uno “scarico cognitivo” che alla lunga atrofizzerà la nostra abilità di risolvere problemi. “Proprio come non è possibile diventare bravi nel basket senza giocare”, ha detto, “lo sviluppo di capacità intellettuali complesse richiede una partecipazione attiva e non può fare affidamento esclusivamente sull’assistenza tecnologica”. In poche parole, delegando si perde la capacità di fare.

Un altro studio del Mit ha chiesto a 54 studenti di scrivere un saggio, alcuni con ChatGPT altri senza. Gli studenti sono stati poi collegati a elettroencefalogrammi per misurare la loro attività cerebrale durante lo sforzo. In generale, gli utenti che utilizzavano l’AI hanno mostrato un’attività neurale “notevolmente inferiore” nelle aree del cervello associate alle funzioni creative e a quelle dell’attenzione. Il campione però era abbastanza esiguo, e i ricercatori hanno messo le mani avanti, dichiarando che ci vorrà del tempo per capire quanto l’intelligenza artificiale influenzerà le nostre capacità cognitive.

La questione, comunque, non è tanto la possibilità di alleggerire il carico di lavoro – altrimenti non dovremmo più utilizzare nemmeno le calcolatrici – ma, come ha spiegato Evan Risko, professore di psicologia all’Università di Waterloo, all’Economist, se l’AI generativa consentirà di “scaricare un insieme di processi molto più complessi”. Delegare un po’ di calcolo mentale non è la stessa cosa che affidare ai chatbot un interno processo cognitivo (come la scrittura) o la risoluzione di problemi. E una volta che il cervello sviluppa il gusto di delegare, potremmo prenderci il vizio. L’attitudine a cercare il sistema meno faticoso per risolvere un problema, conosciuta come “avarizia cognitiva”, potrebbe innescare secondo alcuni studiosi un circolo vizioso. Più delego e più il mio cervello potrebbe diventare “avaro” e più sarei portato a delegare. Esistono però delle alternative: secondo Barbara Larson, professoressa di management alla Northeastern University, si potrebbero percorrere con l’AI, passo dopo passo, i vari processi del ragionamento. Quindi, piuttosto che domandare “dove andare per una vacanza al sole”, chiedere semplicemente “dove le temperature sono migliori” e procedere da lì. Oppure, alternativa più ostica, i chatbot potrebbero essere programmati per chiedere agli utenti di dare risposte autonome, di tanto in tanto.

Ma non facciamo troppo i tecnopessimisti. Restando in ambito medico, l’intelligenza artificiale è anche un grande acceleratore. L’AI può decodificare i dati memorizzati dal Dna in dieci minuti, anziché in giorni. Ed è di pochi giorni fa la notizia di un gruppo di ricercatori di Stanford che avrebbe creato per la prima volta un virus capace di infettare e uccidere i batteri. Una novità, riportata da Nature, spaventosa ed elettrizzante al tempo stesso, e che segna un passo in avanti cruciale verso la creazione di forme di vita sintetica. I finanziamenti nel settore non stanno tardando ad arrivare. Per fare un esempio, Lila Sciences, azienda biotecnologica statunitense che promette di accelerare il ritmo delle scoperte scientifiche utilizzando l’AI – settore che Bloomberg ha definito “il nuovo unicorno” – ha raccolto nell’ultimo round di finanziamenti 235 milioni di dollari (raggiungendo una valutazione di circa 1,23 miliardi). L’intelligenza artificiale è anche di grande supporto per l’elaborazione di diagnosi, strumenti di prevenzione e chirurgia robotica.

Le risposte degli Stati

Quindi, come gestire l’AI? L’approccio dei Paesi varia. Mentre l’Unione europea ha avviato una stretta attraverso l’AI Act, classificando i sistemi di AI in quattro categorie di rischio, gli Stati Uniti stanno cavalcando l’onda della deregolamentazione, accelerando lo sviluppo ma esponendo la società al rischio di enormi disuguaglianze. E i diversi approcci fanno nascere due interrogativi. Il primo: se le regole sono nazionali (o continentali) e non valgono per tutto il mondo, il rischio è che qualche Paese vada avanti mentre gli altri si legano le mani, restando indietro. Il secondo: capire quale sia il livello di regolamentazione adeguato. Se è giusto porre dei limiti all’AI, è anche vero che per favorirne lo sviluppo serve un certo grado di libertà.

A interrogarsi sulla questione c’è stato ultimamente anche il gruppo di lavoro sull’intelligenza artificiale che si è riunito in Vaticano in occasione del World meeting on human fraternity (12-13 settembre).

Il working group, coordinato dal giornalista Riccardo Luna e composto da numerosi esperti, tra cui lo psicologo, informatico e premio Nobel Geoffrey Hinton, ha sottoscritto un appello in cui vengono elencate le sfide poste dall’intelligenza artificiale al futuro dell’umanità, raccomandando una serie di interventi legislativi ed etici per evitare che questa nuova tecnologia sfugga al controllo umano, e soprattutto appellandosi all’autorità morale del Papa per un accordo internazionale vincolante tra tutti i Paesi del mondo. Senza bloccarne lo sviluppo, ma provando a gestirlo.

L’Italia, intanto, sta seguendo la strada tracciata dall’Europa. Il Senato ha recentemente approvato in via definitiva la legge italiana sull’intelligenza artificiale. Si tratta del primo quadro normativo nazionale (in Europa) che disciplina sviluppo, adozione e governance dei sistemi di AI nel rispetto dei principi costituzionali e dei diritti fondamentali, in coerenza con l’AI Act europeo.

È una notizia abbastanza rilevante, anche se bisognerà testarla sul campo. La legge si fonda su principi di uso antropocentricotrasparente e sicuro dell’intelligenza artificiale, concentrandosi soprattutto su innovazione, cybersicurezza, accessibilità e tutela della riservatezza.

Nei settori che beneficeranno maggiormente di questa tecnologia – tra cui sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – la legge prevede garanzie di tracciabilità, responsabilità umana e centralità della decisione finale della persona fisica. Per accelerare competitività e adozione, lo Stato ha messo in campo un programma di investimenti da un miliardo di euro a favore di startup e Pmi nei campi dell’AI, della cybersicurezza e delle tecnologie emergenti.

Gli Stati Uniti stanno procedendo nella direzione opposta. Nonostante la rapida integrazione di questa tecnologia nelle aziende americane – oltre il 25% delle imprese la utilizza e un ulteriore 43% sta valutando di farlo – il Paese non ha ancora una regolamentazione completa. A differenza dell’AI Act europeo, il quadro normativo statunitense è frammentato. Alcuni Stati – come Colorado, Texas e California – hanno introdotto regolamentazioni proprie. Mentre a livello federale gli interventi si sono limitati a linee guida non vincolanti.

Joe Biden aveva cominciato con tutt’altro piglio: la sua amministrazione si era concentrata su considerazioni etiche e controllo normativo. Approccio smantellato da Donald Trump, che ha ridotto al minimo le tutele e scommesso sull’accelerazione tecnologica. Il tycoon ha più volte chiarito la sua intenzione di voler portare avanti uno sviluppo “imparziale e senza agenda”, allentando ogni forma di restrizione. Il suo vice J.D. Vance aveva già chiarito la questione lo scorso febbraio in occasione dell’AI Action Summit di Parigi, precisando che l’obiettivo dell’amministrazione era “dare priorità al dominio dell’AI rispetto alla regolamentazione”. La Cina per ora segue un approccio ibrido: libertà di sviluppo, ma con regolamenti settoriali (abbastanza frammentati) per gestire le questioni più critiche.

L’AI è ormai tra noi, che lo si voglia o no. E la domanda da porsi per il prossimo futuro non è più se ci resterà o meno. Ma come, e come cambieremo noi.

Exit mobile version