Si rinnova per i prossimi tre anni l’accordo tra Aruba e il Politecnico di Torino volto a promuovere la generazione di nuove idee e progetti, con un approccio aperto al trasferimento tecnologico e all’open innovation. Quattro le aree di ricerca: Software Engineering, sicurezza ICT, IT Infrastructure & Networking ed Artificial Intelligence & Machine Learning.
In particolare, Aruba e il Politecnico di Torino lavoreranno insieme su diversi progetti di ricerca in ambiti strategici come cyber security e intelligenza artificiale, tecnologie di crittografia omomorfica e confidential computing. Ne abbiamo parlato con Marco Mangiulli, Chief Innovation Officer di Aruba, che ci ha illustrato i principali campi di collaborazione individuati dall’accordo.

Key4Biz. In quali settori di ricerca Aruba e il Politecnico di Torino proseguiranno la collaborazione per i prossimi tre anni? Ci può anticipare qualche idea o progetto a cui state lavorando?
Marco Mangiulli. Anche per il triennio 2025–2027 la collaborazione si articolerà su quattro macro-aree strategiche: ingegneria del software, sicurezza, infrastrutture e networking, intelligenza artificiale e machine learning. All’interno di questi ambiti sono stati individuati filoni di ricerca di particolare interesse, tra cui architetture e soluzioni per il cloud, crittografia e sicurezza dei dati e l’applicazione dell’intelligenza artificiale in contesti e casi d’uso specifici.
Proseguiremo la collaborazione sullo sviluppo di soluzioni cloud-native, in continuità con il percorso avviato con la nascita della spin-off ArubaKube, originata da un progetto open source sviluppato dal Politecnico di Torino. L’attività di ricerca continuerà a cocentrarsi sui temi del cloud continuum e della federazione di infrastrutture complesse, che spaziano dai cloud tradizionali alle infrastrutture on-premise e agli ambienti edge, fino ad includere quello che definiamo edge estremo. Quest’ultimo può essere rappresentato, ad esempio, da un drone, da un mezzo operativo sul campo o da un’antenna 5G.
Per quanto riguarda l’ambito della sicurezza, riteniamo di trovarci in una fase in cui il quantum computing sta assumendo un ruolo sempre più rilevante. La gestione della transizione verso la post-quantum cryptography è una delle tematiche per noi più importanti, insieme alla protezione dei dati, con particolare attenzione alla gestione della sicurezza dei dati in uso, alla crittografia omomorfica e al confidential computing.
Key4Biz. La sicurezza dei dati è centrale nell’accordo: che ruolo avranno tecnologie come la crittografia e il confidential computing nelle future infrastrutture digitali?
Marco Mangiulli. Nel mondo del cloud computing abbiamo ormai consolidato i concetti di crittografia dei dati a riposo: quando i dati sono fermi, le tecniche di cifratura e protezione sono mature e affidabili. Allo stesso modo, risultano consolidate anche le tecniche di protezione dei dati in transito: il trasferimento delle informazioni avviene attraverso canali sicuri basati sulla crittografia tradizionale.
Il tassello mancante, nella maggior parte delle applicazioni – soprattutto in ambiente cloud – è la protezione dei dati in uso. Anche se oggi i dati sono adeguatamente protetti quando sono a riposo o in transito, nel momento in cui vengono elaborati restano tipicamente in chiaro nella memoria degli elaboratori. Per garantire la protezione dei dati in uso esistono due principali approcci tecnologici: la crittografia omomorfica e il confidential computing.
La crittografia omomorfica consente di eseguire operazioni direttamente su dati cifrati, senza la necessità di decifrarli. In un certo senso rappresenta l’obiettivo ideale di chi punta a mantenere una confidenzialità totale delle informazioni. Tuttavia, allo stato attuale, questa tecnologia permette di effettuare solo operazioni semplici e con prestazioni limitate: l’impatto sui tempi di elaborazione è molto significativo.
Il confidential computing, invece, è un paradigma più complesso da spiegare, ma consente di raggiungere obiettivi analoghi facendo leva su specifiche tecnologie hardware. Riteniamo che, nell’ecosistema dei servizi digitali, queste soluzioni – e più in generale la protezione dei dati in uso – siano destinate a giocare un ruolo fondamentale. Non è più pensabile offrire servizi a grandi organizzazioni o imprese senza garantire la protezione dei dati anche durante il loro utilizzo. Nessun attacco, anche il più sofisticato, deve consentire l’accesso ai dati sfruttando proprio la fase di elaborazione, spesso l’anello più debole della catena.
In questo scenario vediamo un forte collegamento con la post-quantum cryptography. Abbiamo parlato della sicurezza dei dati in transito, a riposo e in uso, che oggi viene messa in discussione dall’avvento dei computer quantistici, capaci di compromettere la solidità degli schemi crittografici tradizionali.
Per questo motivo, affianchiamo alla ricerca sulla crittografia omomorfica e sul confidential computing anche quella sulla crittografia post-quantum, con particolare attenzione alle strategie di transizione. Gli algoritmi post-quantum sono stati standardizzati dal NIST, ma devono ancora affrontare la prova dell’impiego nel mondo reale: sarà necessario verificare non solo la reale resistenza ai computer quantistici, ma la loro robustezza rispetto agli attacchi condotti con sistemi tradizionali. Nel frattempo, però, è fondamentale predisporre tutto ciò che serve per progettare e governare questo processo di transizione, non solo per chi offre i servizi, ma anche per i clienti che li utilizzeranno. Se da un lato mettiamo a disposizione gli strumenti, dall’altro è essenziale che vengano effettivamente adottati: in caso contrario, la catena della sicurezza rischia di spezzarsi.
Key4Biz. L’impiego dell’AI nella cybersecurity è un tema molto attuale: quali soluzioni basate su AI state esplorando e quali vantaggi portano in termini di prevenzione e resilienza degli attacchi?
Marco Mangiulli. La sicurezza tradizionale si basa storicamente su elementi statici. Sistemi come intrusion detection e antivirus fanno riferimento a ciò che è già noto: regole predefinite, pattern riconosciuti, firme e indicatori di compromissione. In questo contesto, l’intelligenza artificiale introduce un cambio di paradigma, consentendo di rilevare le anomalie in maniera adattativa. Analizzando i dati storici, flussi di traffico e il comportamento complessivo dei sistemi, l’intelligenza artificiale può infatti contribuire a individuare o persino anticipare attacchi non ancora conosciuti, i cosiddetti zero-day, che difficilmente potrebbero essere rilevati tramite metodologie di sicurezza tradizionali.
Potremmo trovarci di fronte ad un attacco del tutto nuovo, per il quale non esistono ancora firme o regole specifiche. In questi casi, l’intelligenza artificiale può segnalare comportamenti anomali, come variazioni inattese del traffico in una determinata fascia oraria su un sistema di posta o flussi inconsueti su specifici apparati di rete. Tali anomalie potrebbero essere innocue — ad esempio un semplice picco di traffico non malevolo — oppure indicare un comportamento effettivamente ostile. In entrambi i casi, la capacità di rilevarle consente di attivare misure preventive, anche senza conoscere in anticipo il vettore di attacco, dando priorità alla protezione dei dati e all’integrità dei sistemi. L’analisi approfondita dell’evento può poi avvenire in un secondo momento, con maggiore consapevolezza e controllo.
Infine, l’intelligenza artificiale può accelerare e rendere più efficaci i processi di verifica della compliance: controlli sulle configurazioni, analisi dei log, verifica delle policy e individuazione di accessi non conformi alle regole aziendali. In questo modo è possibile identificare tempestivamente le non conformità, spesso dovute a errori o dimenticanze, e intervenire rapidamente per correggerle.
Key4Biz. In che modo l’intelligenza artificiale può contribuire all’ottimizzazione delle infrastrutture IT e quali sono le applicazioni su cui state già lavorando?
Marco Mangiulli. Anche in questo ambito, così come nel caso della sicurezza, le infrastrutture IT generano e gestiscono un’enorme mole di dati. L’analisi dello storico del traffico di rete, insieme ai dati relativi all’utilizzo dell’hardware, dei server e degli apparati di rete, consente di abilitare approcci di manutenzione predittiva.
Analizzando enormi quantità di dati, i sistemi di intelligenza artificiale sono in grado di individuare pattern che spesso sfuggono all’osservazione umana. Se questi pattern indicano, ad esempio, che un determinato apparato è destinato ad avere un guasto, è possibile intervenire in anticipo, pianificando attività di manutenzione preventiva prima che il problema si manifesti.
Un filone di ricerca molto promettente riguarda l’uso dell’intelligenza artificiale per gestire e distribuire i carichi di lavoro nei data center. Analizzando i momenti di maggiore utilizzo delle infrastrutture e le caratteristiche dei vari task, gli algoritmi di machine learning possono organizzare il lavoro in modo più efficiente, migliorando le prestazioni e l’utilizzo delle risorse.

