Strategie

AI contro AI: la corsa continua agli armamenti digitali

di |

Con l’avvento della guerra informatica guidata dall’intelligenza artificiale, è iniziata una nuova corsa agli armamenti.

La rapida crescita dell’intelligenza artificiale generativa ha creato una competizione tra gli stakeholder della sicurezza informatica e gli hacker. Questo dinamismo ha portato il presidente degli Stati Uniti Joe Biden a emettere in ottobre un ordine esecutivo (EO) incentrato sullo sviluppo e sull’uso sicuro, protetto e affidabile dell’intelligenza artificiale.

Chi avrà la meglio, i difensori o gli attaccanti, nei prossimi cinque anni? A questo punto non esiste ancora una risposta certa.

La corsa agli armamenti informatici

L’intelligenza artificiale generativa dà potere sia ai difensori che agli aggressori, offrendo velocità e potenza senza precedenti agli attacchi di ingegneria sociale e personificazione.

Per gli aggressori, le campagne di phishing rivolte a individui di alto profilo diventano estremamente scalabili poiché l’intelligenza artificiale imita rapidamente gli stili di comunicazione, consentendo l’esecuzione di numerose campagne di minaccia contemporaneamente. Ciò rappresenta una grande sfida per i difensori a causa della maggiore intensità e gravità degli attacchi.

In risposta a questi attacchi, il settore della sicurezza informatica utilizza l’intelligenza artificiale per rilevarli e contrastarli. Tuttavia, la creazione di contromisure efficaci richiede tempo, lasciando le aziende esposte nel frattempo.

Si tratta di una dinamica di corsa agli armamenti che ricorda da vicino un ciclo continuo di innovazione, in cui attaccanti e difensori cercano di superarsi a vicenda.

Il ruolo della legislazione nell’adattamento all’evoluzione dell’AI

In questo panorama la collaborazione pubblico-privato è essenziale. L’ordine esecutivo della Casa Bianca offre un punto di partenza per la regolamentazione mentre rimane necessaria la collaborazione continua tra l’industria tecnologica e il governo.

Quando i prodotti basati sull’intelligenza artificiale iniziano a uscire dalle aziende tecnologiche, il feedback dei clienti diventa prezioso per modellare normative che bilanciano la protezione dei dati sull’innovazione e le preoccupazioni della società.

I partenariati pubblico-privato sono molto importanti quando si tratta di creare un ambiente sicuro che coltivi l’innovazione dell’intelligenza artificiale e affronti le questioni relative alla sicurezza.

È tuttavia degno di nota il fatto che le cornici legislative dovrebbero tenere il passo con la natura mutevole della tecnologia dell’intelligenza artificiale, come sostenuto nell’ordine esecutivo.

Filigrane digitali contro la contraffazione

Ad esempio, nell’ambito dell’etichettatura dei contenuti, il Dipartimento del Commercio degli Stati Uniti sta sviluppando linee guida sulla filigrana e sull’autenticazione per i contenuti generati dall’intelligenza artificiale. Alphabet, Meta e OpenAI sono ottimi esempi di grandi aziende tecnologiche che si impegnano a intraprendere azioni simili a quelle adottate dai servizi segreti statunitensi includendo filigrane digitali nelle fotocopiatrici e nelle stampanti a colori per combattere la contraffazione.

Per essere proattivi nello sviluppo e nell’implementazione dell’AI è necessario un impegno a lungo termine per la trasparenza, la visibilità e la comprensione. Con l’avvento della guerra informatica guidata dall’intelligenza artificiale, è iniziata una nuova corsa agli armamenti.

Mentre i difensori dell’industria e del governo entrano in un territorio inesplorato, lo sforzo congiunto per migliorare le strategie difensive dell’AI diventa importante.

Lo stato della sicurezza informatica è a un punto cruciale, con la capacità e la possibilità dell’intelligenza artificiale generativa di cambiare il corso di questa disciplina. La corsa è ancora in moto, il che evidenzia l’importanza di misure olistiche e cooperative per garantire che le tecnologie basate sull’intelligenza artificiale siano progettate e utilizzate in modo responsabile.