Key4biz

Intelligenza artificiale, lettera aperta di Musk e altri mille ricercatori: “Fermiamo lo sviluppo per 6 mesi, a rischio l’umanità”

L’intelligenza artificiale (AI) pone “profondi rischi per la società e l’umanità” e per questo servirebbe una “pausa” di almeno sei mesi nell'”addestramento” dei sistemi più avanzati.

L’allarme è di Elon Musk e di altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto ‘scenario Terminator’ e consentire lo sviluppo di protocolli di sicurezza condivisi.

La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente.

A sottoscriverla infatti ci sono il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai. Oltre ovviamente al miliardario visionario patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver, con la sua spinta all’innovazione, contribuito a trasformare radicalmente l’industria dello spazio con SpaceX e rivoluzionare quella dell’auto spianando la strada già più di un decennio fa alle vetture elettriche che si guidano da sole.

Fanatico della tecnologia, Musk ha investito in società di intelligenza artificiale ed era anche nel consiglio di amministrazione di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari. Investimenti, ha spiegato più volte, non per guadagnare ma per tenersi al passo con i tempi e quindi conoscere queste tecnologie.

Nel mirino dei big non c’è tutta l’intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI. “I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera in cui si parla di una “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”.

Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica ‘Skynet’ protagonista dei film di James Cameron e la sua decisione di distruggere l’umanità; oppure, più prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino – ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina – vede l’intelligenza artificiale come uno “strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria”.

Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell’hi-tech a chiedere una pausa di sei mesi da usare per lo “sviluppo congiunto e l’implementazione di protocolli condivisi” che assicurino la “sicurezza” dei sistemi “al di là di ogni ragionevole dubbio”, prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più “accurati, trasparenti, credibili e leali” gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti.

“La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici – prosegue la lettera –. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, e non corriamo impreparati verso l’autunno”.

Secondo Goldman Sachs rischiano di scomparire 300 milioni di posti di lavoro nei prossimi 10 anni a causa dell’AI

Operatori di cassa, commessi e impiegati amministrativi. Ma anche avvocati e contabili. Sono tanti, 300 milioni secondo uno studio condotto da Goldman Sachs pubblicato questa settimana. I posti di lavoro a rischio a causa della diffusione dell’Intelligenza Artificiale.

Nei prossimi 7 anni le professioni maggiormente in pericolo saranno quelle che richiedono competenze ripetitive e di routine, i lavori manuali ma anche quelli altamente specializzati. La ricerca, tuttavia, ha anche sottolineato che l’adozione dell’AI potrebbe portare a una crescita del PIL globale del 7% nei prossimi 10 anni, creando nuove opportunità di lavoro in altri settori.

L’Europol: con ChatGPT aumento di crimini informatici

A lanciare un allarme sui rischi dell’AI di nuova generazione anche l’Europol. Secondo il rapporto dell’ufficio europeo di polizia in relazione all’utilizzo di ChatGPT c’è il rischio concreto di un aumento di crimini informatici come frodi e disinformazione.

Il rapporto, che raccoglie le riflessioni emerse in una serie di seminari dedicati al potenziale uso illegale di ChatGPT, sottolinea come il chatbot sia già in grado di “facilitare un numero significativo di attività criminali, che vanno dalla garanzia di anonimato dei criminali a crimini specifici tra cui il terrorismo e lo sfruttamento sessuale dei minori“. La capacità di ChatGPT di redigere testi altamente autentici lo rende uno “strumento estremamente utile per scopi di phishing”, si osserva nel rapporto, aggiungendo che la produzione di e-mail di phishing, così come di comunicazioni simili a quelle umane e di disinformazione, è “già preoccupantemente sofisticata”.

I modelli di linguaggio di grandi dimensioni intelligenti (LLM) come ChatGPT, impiegati per attività illecite, potrebbero diventare un “modello di business criminale chiave del futuro”, avverte Europol, sottolineando infine come ciò ponga “una nuova sfida per le forze dell’ordine”.

Per approfondire

Exit mobile version