Key4biz

Il padre di ChatGPT ‘supplica’ il Senato Usa di varare regole stringenti sull’IA. “Leggi forti come con le armi nucleari” (Video)

“L’IA è uno strumento e non una creatura che va tenuto a bada, limitato per legge, controllato da un’agenzia internazionale che fissi regole per tutti, come è stato fatto con gli armamenti nucleari. Perché potrebbe manipolare le menti, inondare i social di contenuti pensati dai robot, intossicare le elezioni con informazioni false”.

La tocca piano il fondatore di OpenAI, Sam Altman, dove ieri nelle quasi tre ore di audizione al Senato Usa, ha chiesto esplicitamente regole severissime per l’intelligenza artificiale generativa. Altman ha affermato di accogliere favorevolmente una legislazione in questo settore e ha esortato il Congresso a collaborare con OpenAI e altre aziende del settore per definire regole e linee guida.

L’Ia può fare male al mondo

“La mia più grande paura è che il campo dell’IA possa fare davvero del male al mondo. Se questa tecnologia prende la direzione sbagliata, diventa veramente sbagliata”, ha dichiarato Altman.

L’impatto sulle elezioni, a cominciare dalle presidenziali americane del 2024, ha ammesso, “è un’area di grande preoccupazione. Il rischio, ha aggiunto, è che possano essere prodotte notizie false per avvelenare il dibattito, influenzare le masse, ma su questo ha detto che stanno lavorando per limitare il rischio. È cruciale che l’Intelligenza artificiale venga sviluppata con valori democratici. Penso, ha insistito, che abbiamo anche bisogno di regole, linee guida. Questa cosa mi toglie serenità”.

Altman ha detto di voler lavorare con il governo per prevenire un uso distorto, pensa a organismi esterni ma non ha promesso di rallentare il processo di ricerca, come chiedevano molti scienziati. Gli Stati Uniti, ha sottolineato, dovrebbero considerare la possibilità di dare licenze per sviluppare modelli di Intelligenza artificiale, ma anche di ritirarle per evitare che finiscano in mano alle persone sbagliate. Il Ceo ha invocato una regolamentazione a livello mondiale, suggerito che sarebbe utile immaginare una gestione come è stato fatto con gli armamenti nucleari. Servirebbe, ha fatto capire, un organismo tipo l’International Atomic Energy Agency, ma applicato ai robot.

Intanto l’Europa prepara il regolamento

Intanto l’Unione europea è sul punto di mettere in atto una legislazione storica e la prima al mondo sul governare l’intelligenza artificiale. Con specifici casi in cui vietare l’IA. L’11 maggio è stato dato il via libera – con 84 voti a favore, 7 contrari e 12 astensioni – dalle commissioni per il Mercato interno (Libe) e Giustizia (Libe) del Parlamento Ue al mandato negoziale sul regolamento sull’Intelligenza artificiale, il cosiddetto Artificial Intelligence Act, proposto dalla Commissione Ue ad aprile 2021. 

Prima che possano iniziare i negoziati con il Consiglio Ue sulla forma finale della legge, il mandato negoziale deve ora essere approvato dall’intero Parlamento, con il voto previsto durante la sessione del 12-15 giugno. Mentre l’approvazione finale del Regolamento è prevista per i primi mesi del 2024, ma la sua piena applicazione in tutti gli Stati dell’Ue richiederà tempo. Solo allora avremo nell’Unione Europea le prime regole al mondo per governare l’Intelligenza artificiale generativa.

Exit mobile version