Key4biz

L’ex Ceo di Google contro la lettera di Musk & Co. sul blocco dell’IA: “Sarebbe solo a vantaggio della Cina”

Eric Schmidt dice che la moratoria di sei mesi sullo sviluppo dell’IA sostenuta da Elon Musk, Steve Wozniak e altri leader tecnologici “sarebbe solo a vantaggio della Cina” e ha invece chiesto una regolamentazione più rigorosa.

L’ex CEO di Google, amministratore delegato tra 2001 e 2011, ha detto all’Australian Financial Review di essere preoccupato per lo sviluppo rapido dell’AI e che “le preoccupazioni potrebbero essere sottovalutate”.

“Credo che… le cose potrebbero essere peggio di quanto dicono le persone”, ha detto, notando che all’aumentare delle dimensioni dei grandi modelli di linguaggio si manifestano “comportamenti emergenti che non comprendiamo”.

L’uso dell’AI generativa è esploso negli ultimi mesi con il lancio di ChatGPT di OpenAI, Bard di Google e il motore di ricerca Bing di Microsoft, nonché piattaforme di generazione di immagini come DALL-E e Midjourney.

Le persone hanno utilizzato l’AI generativa sia nella vita personale che professionale per scrivere saggi, ideare ricette, riassumere e-mail, pubblicare articoli e redigere curriculum e lettere di presentazione. Oltre a risparmiare tempo e comunicare informazioni in modo conciso, Bill Gates dice che l’AI potrebbe anche trasformare la sanità e l’istruzione.

Ma le preoccupazioni etiche sulla tecnologia stanno aumentando dopo esempi che mostrano come essa possa plagiare materiale, sviluppare pregiudizi, litigare con gli utenti e persino formulare accuse false.

“La domanda è quale sia la risposta giusta”, ha detto Schmidt al Financial Review. “Non sono favorevole a una pausa di sei mesi perché sarebbe solo a vantaggio della Cina”.

Invece di una pausa, i leader dovrebbero invece discutere collettivamente delle adeguate “misure di sicurezza prima possibile”, ha detto Schmidt. I ricercatori dovrebbero rilasciare solo programmi AI con “qualche tipo di mitigazione per le cose che potrebbe fare che sono negative”, ha detto.

Schmidt ha osservato che la risposta del governo oggi sarebbe goffa perché nelle istituzioni mancano persone capaci di comprendere effettivamente i pericoli correlati alle IA. Dovrà essere l’industria ad agire in maniera coordinata, dunque, guidando le decisioni delle autorità.

La Lettera di Musk e di altri mille ricercatori e scienziati contro l’IA

L’allarme di Elon Musk e di altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto ‘scenario Terminator’ e consentire lo sviluppo di protocolli di sicurezza condivisi, ha provocato un allarme in tutto il mondo.

La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente.

A sottoscriverla infatti sono stati il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai.

Nel mirino dei big non c’è tutta l’intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI. “I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera in cui si parla di una “corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare”.

Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica ‘Skynet’ protagonista dei film di James Cameron e la sua decisione di distruggere l’umanità; oppure, più prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino – ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina – vede l’intelligenza artificiale come uno “strumento o un’arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria”.

Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell’hi-tech a chiedere una pausa di sei mesi da usare per lo “sviluppo congiunto e l’implementazione di protocolli condivisi” che assicurino la “sicurezza” dei sistemi “al di là di ogni ragionevole dubbio”, prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più “accurati, trasparenti, credibili e leali” gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti.

Exit mobile version