L'indagine

L’IA potrebbe davvero causare una catastrofe di livello nucleare?

di |

La pensa così un terzo dei ricercatori della Stanford University, secondo cui l’IA potrebbe portare ad una escalation nucleare se non adeguatamente regolata.

Secondo un sondaggio condotto dall’Institute for Human-Centered AI della Stanford University, il 36% dei ricercatori ritiene che l’IA potrebbe causare una “catastrofe a livello nucleare”. Grande.

L’indagine è stata condotta nel quadro del report annuale dell’istituto per il suo annuale AI index, che di fatto rappresenta la bibbia sullo stato dell’arte dell’industria.

E se da un lato il report indica un interesse crescente della politica per l’IA, non passa certamente inosservato quel 36% di ricercatori che considera l’IA una potenziale minaccia a livello nucleare.

Se può consolare, c’è da dire che recentemente un utilizzatore stava tentando di crearsi da solo un sistema di IA battezzato ChaosGPT allo scopo di distruggere l’umanità. Non è andato molto lontano, però è indicativo.

Più modi

Quella cifra del 36% arriva con un avvertimento importante. Si riferisce solo al processo decisionale dell’IA – come in un’IA che fa una scelta da sola che alla fine provoca una catastrofe – e non all’abuso umano dell’IA, una minaccia crescente che il rapporto ha affrontato separatamente in seguito.

“Secondo il database AIAAIC… il numero di incidenti e controversie sull’IA è aumentato di 26 volte dal 2012”, si legge nel rapporto. “Alcuni incidenti degni di nota nel 2022 includevano un video deepfake della resa del presidente ucraino Volodymyr Zelenskyy e le prigioni statunitensi che utilizzavano la tecnologia di monitoraggio delle chiamate sui loro detenuti”.

“Questa crescita è la prova sia di un maggiore utilizzo delle tecnologie di intelligenza artificiale sia della consapevolezza delle possibilità di uso improprio”, hanno scritto i ricercatori.

In altre parole: ci sono altri modi in cui l’IA può e sta causando danni, se non per sua stessa proverbiale mano.

Nonostante queste preoccupazioni, secondo il rapporto, solo il 41% dei ricercatori sull’elaborazione del linguaggio naturale (PNL) pensava che l’intelligenza artificiale dovesse essere regolamentata.

Allaccia le cinture

Il sondaggio serve come uno sguardo affascinante nella mente collettiva del settore dell’intelligenza artificiale, che nel complesso sembra avere una certa ambivalenza sul futuro della tecnologia. Solo il 57 percento dei ricercatori, ad esempio, pensa che i “recenti progressi della ricerca” stiano aprendo la strada all’intelligenza artificiale generale.

Gli intervistati avevano un notevole punto di accordo: il 73% dei ricercatori “ritiene che l’intelligenza artificiale potrebbe presto portare a un cambiamento sociale rivoluzionario”.

Quindi, se stiamo andando verso una catastrofe a livello nucleare, o qualcosa di completamente diverso, potresti voler allacciare le cinture.