I rischi tecnologici di oggi e la necessità di indipendenza tecnologica
In un contesto in cui l’intelligenza artificiale (AI) sta ridefinendo in profondità il modo in cui la Pubblica Amministrazione (PA) gestisce dati, servizi e processi decisionali, il tema dell’infrastruttura cloud assume una valenza sempre più strategica. Di questo si è parlato al Tecnopolo Roma in occasione di un evento organizzato da Aruba, in collaborazione con Assinter Academy, dal titolo “Sovranità, interoperabilità e continuità nell’era dell’AI: l’evoluzione dell’infrastruttura cloud della PA”, per un confronto e un momento di approfondimento rivolto a istituzioni, società in-house, mondo della ricerca e operatori del settore.
Al centro degli interventi i dati strategici della Pubblica Amministrazione, con l’adozione dell’AI che rende ancora più evidente la necessità di scelte infrastrutturali e di governance consapevoli. Decisioni non adeguate, infatti, rischiano di amplificare l’esposizione dei dati, trasformando il rischio da puramente tecnologico a istituzionale. Da qui l’esigenza di infrastrutture cloud progettate per garantire sovranità operativa e del dato, interoperabilità e continuità dei servizi, non come meri adempimenti normativi, ma come condizioni abilitanti per l’innovazione e la resilienza del sistema pubblico.
In questo quadro, l’evento ha rappresentato anche un’occasione per rafforzare il dialogo sul ruolo dell’AI, in particolare della private AI, e sul valore di modelli infrastrutturali coerenti con le esigenze della PA, in continuità con il percorso avviato dall’Accordo Quadro Consip IaaS/PaaS, mantenendo un approccio formativo e di sistema.
“Da più di un anno con Key4Biz portiamo avanti la battaglia per l’Indipendenza digitale. Ecco la differenza. Se Trump dovesse dalla sera alla mattina con ordine esecutivo chiudere il “rubinetto” di Internet dei servizi digitali erogati da aziende USA verso l’Europa vivremmo una sorta di incubo.
Per questo dobbiamo alimentare prima la cultura verso l’Indipendenza digitale, ossia puntare e far crescere le eccellenze, che già esistono, in Italia e in Europa: almeno in settori chiavi e strategici. Come il cloud, i data center, l’AI, la Cybersecurity”, ha detto il moderatore dell’evento e Direttore responsabile Key4Biz e Cybersecurity Italia, Luigi Garofalo, in apertura di convegno.
“E oltre ad alimentare la cultura per l’Indipendenza digitale”, ha aggiunto Garofalo, “come crearla concretamente? Il primo passo è dar vita al procurement pubblico con il principio ‘buy european’ è la vera svolta. È il vero game changer per l’indipendenza digitale.
Il primo febbraio il commissario europeo con delega all’Industria ha firmato un Manifesto con oltre 1.000 dirigenti di azienda dicendo: “È ora del made in Europe per l’Innovazione, lanciando l’appello a favore della preferenza europea negli appalti pubblici, senza penalizzare il mercato, ma iniziando a ridurre le dipendenze tecnologiche. Forse non lo avete letto perché la stampa italiana generalista non l’ha pubblicato. Noi sì”.
“Secondo voi”, ha concluso il nostro direttore, “possiamo stare al ricatto quotidiano ormai di Cloudflare, che dopo la multa di 14 milioni da parte di Agcom, minaccia: “Vi stacco i servizi di cybersecurity alle Olimpiadi di Milano-Cortina, agli eventi e al resto del Paese”?
Governare i dati attraverso una “Schengen digitale” europea
“Oggi, in Europa, una vera sovranità digitale non esiste ancora”, ha detto Pier Paolo Greco, Presidente Assinter e AU di Liguria Digitale. “È quasi un miracolo che si stia iniziando a prenderne coscienza. E ci siamo arrivati anche grazie a quello che, paradossalmente, è stato un grande “promotore commerciale”, che si chiama Donald Trump, che sta facendo una straordinaria opera di sensibilizzazione sull’importanza delle attività digitali europee. È proprio lì che l’esperienza deve essere trasferita. Perché l’Europa non tornerà più indietro nel tempo: le condizioni che rendono questo passaggio necessario e urgente non si ripeteranno. Serve piuttosto un sistema di federazione del digitale tra i diversi Paesi europei, capace di mettere a fattor comune competenze, infrastrutture e risorse, superando tutte le resistenze, gli ostacoli e i blocchi che oggi esistono all’interno delle varie Commissioni e dei meccanismi decisionali europei”.
Se riuscissimo a farlo, ha spiegato Greco, “potremmo diventare un acceleratore formidabile verso quello che probabilmente sarà il futuro: una sorta di “Schengen digitale”, uno spazio digitale europeo, per delimitare e governare in modo condiviso tutto ciò che riguarda i dati sensibili e le infrastrutture strategiche. Uno spazio digitale in grado di tutelare gli asset strategici e le infrastrutture critiche comuni, distinguendo ciò che è sensibile e imprescindibile per l’Europa da ciò che non lo è. Una condizione necessaria per affrontare in modo equilibrato e consapevole il confronto con gli Stati Uniti e con la Cina.
La trasformazione digitale del Paese richiede oggi un salto di qualità che metta al centro flessibilità, velocità e capacità di esecuzione. L’Europa, pur avendo una visione strategica avanzata, fatica spesso a rispondere con tempi adeguati alla rapidità delle dinamiche tecnologiche e geopolitiche in atto. Per questo è necessario ripensare i modelli di cooperazione e governance”.
“Assinter ritiene strategica la costruzione di una federazione digitale europea, capace di mettere a fattor comune competenze, infrastrutture, regole e strumenti operativi tra i diversi Paesi membri. Un sistema che riduca frammentazioni, vincoli procedurali e blocchi normativi che oggi rallentano l’azione pubblica, anche nei processi decisionali della Commissione Europea.
Le società in house e gli operatori pubblici dell’ICT rappresentano un fattore abilitante fondamentale di questo processo. Grazie alla loro natura, alla prossimità con le amministrazioni e alla capacità di operare in logica di sistema – ha proseguito Greco – essi possono agire come acceleratori della trasformazione digitale, garantendo sicurezza, interoperabilità e continuità operativa.
Tuttavia, la tecnologia non è il fine: il vero obiettivo è difendere e rafforzare il patrimonio digitale pubblico, assicurando sovranità, resilienza e capacità di governo dei dati e dei sistemi”.
“Sono quattro i fattori chiave per cui l’Europa ha guardato all’Italia e ci ha scelto, in particolare nell’ambito dello European Digital Infrastructure Consortium: la digitalizzazione della Pubblica Amministrazione, la capacità di legiferare sull’intelligenza artificiale, la cybersecurity e il modello del Polo Strategico Nazionale, quale riferimento per un cloud sovrano europeo”, ha dichiarato Serafino Sorrenti, Capo della Segreteria Tecnica del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri.
“L’indipendenza digitale è un obiettivo che perseguiamo fin dall’inizio. Il posizionamento dell’Italia è oggi a un buon punto – ha proseguito Sorrenti – e il ruolo di Assinter è determinante nel lavoro che sta svolgendo. Allo stesso modo, Aruba si conferma un pilastro fondamentale della trasformazione digitale del Paese.
È evidente che l’Europa sconti ancora un ritardo, sia dal punto di vista organizzativo sia su quello dell’implementazione, come dimostrano le difficoltà e i ritardi accumulati dal progetto Gaia-X. Proprio per questo, la possibilità che l’Italia venga oggi osservata come un modello di riferimento a livello europeo rappresenta un motivo di grande orgoglio”.
“Si tratta di un risultato raggiunto grazie al lavoro del Dipartimento e di tutti gli stakeholder che hanno aderito a questo percorso, reso possibile anche dall’impegno delle Regioni, che attraverso i bandi di finanziamento hanno messo le Pubbliche Amministrazioni locali nelle condizioni di adottare soluzioni innovative”, ha detto Sorrenti.
Per la sovranità tecnologica serve un’infrastruttura di qualità
“La compromissione del dato non rappresenta soltanto un problema di interruzione del servizio, ma costituisce una vera e propria minaccia per l’intera comunità. Il divario da colmare è ancora significativo, ma qualcosa si sta muovendo. Nei giorni scorsi il Parlamento europeo ha adottato una risoluzione dal titolo ‘European technological sovereignty and digital infrastructure’, che introduce in modo esplicito una tesi di fondo chiara: la sovranità tecnologica europea richiede una base infrastrutturale concepita come un’architettura di sistema, fondata su priorità pubbliche definite e su un perimetro operativo ben delineato”, ha dichiarato Andrea Miele, Head of Sales di Aruba Enterprise.
“Questa è la direzione lungo cui investire, sia in infrastrutture sia in servizi. In questo quadro, Aruba ha investito in modo significativo nello sviluppo di infrastrutture e servizi digitali, promuovendo da sempre il principio dell’indipendenza digitale e assumendosi la responsabilità di accompagnare la Pubblica Amministrazione nell’adozione sicura di queste tecnologie.
Questo obiettivo può essere raggiunto solo attraverso la collaborazione – ha precisato Miele – mettendo a fattor comune competenze, conoscenze dei processi e capacità operative di soggetti come le Regioni, le società in house e le istituzioni”.
“La finalità di questo evento è proprio quella di avvicinare tutti gli attori che possono contribuire a fare sistema, l’unica strada possibile per colmare un gap che è già oggi rilevante. Gettare le basi di questa collaborazione – ha aggiunto Miele – rappresenta già un primo passo concreto verso una maggiore resilienza delle infrastrutture digitali”.
Dati sanitari e cybersecurity
“Esistono meccanismi concreti che favoriscono la sovranità digitale. Un passaggio fondamentale è stato l’avvio, nel 2022, del Polo Strategico Nazionale; dal 2023 abbiamo iniziato a collaborare attivamente, con l’ospitalità di due data center in modalità colocation. La collaborazione prosegue e prevede l’avvio di un percorso di full outsourcing infrastrutturale.
Si tratta di un cammino complesso e di lungo periodo, in un contesto che cambia rapidamente, sia dal punto di vista tecnologico sia in termini di scala e di volumi. La Regione Lombardia ha investito in modo significativo: nel 2019 il budget annuo per l’infrastruttura digitale era pari a 19 milioni di euro, mentre oggi si avvicina ai 160 milioni di euro l’anno”, ha affermato Roberto Nocera, Head of Digital Delivery & Operations di Aria SpA.
“ARIA gestisce complessivamente circa 2.600 servizi diversificati, tra servizi propri e quelli delle aziende sanitarie, oltre a 30 petabyte di dati, in costante crescita anno dopo anno. Gestisce inoltre due data center e realizza mediamente 26 rilasci di nuovi servizi all’anno. Sono numeri rilevanti, che richiedono una governance attenta e strutturata.
In questo contesto, è legittimo interrogarsi sull’effettiva convenienza del cloud rispetto a una gestione on-premise, come avveniva in passato. Oggi il tema centrale non è più se adottare il cloud, ma come governarne la spesa, attraverso progetti di controllo continuo dei costi, consapevoli che la spesa cloud è, per sua natura, ottimizzabile.
Il tema della sovranità digitale è per noi centrale. Stiamo valutando il modello più adeguato da applicare, verificando se quello attuale sia sufficientemente efficiente, anche alla luce delle indicazioni normative che spingono in questa direzione. Parallelamente, la sicurezza rappresenta un altro pilastro fondamentale: nel 2025 abbiamo bloccato oltre 2.000 attacchi informatici e formato circa 3.000 persone sui temi della cybersicurezza.
L’infrastruttura che gestiamo tratta dati sanitari – ha proseguito Nocera – e in questo ambito la cybersicurezza è cruciale, poiché si tratta di informazioni particolarmente appetibili per i mercati criminali. La rete su cui transitano i dati è costantemente aggiornata in termini di connettività, grazie a soluzioni software-defined, che affiancano e integrano le infrastrutture fisiche con sistemi basati su software”.
“Un altro progetto strategico è quello della centralizzazione dei data center della sanità regionale. In Lombardia operano circa 40 aziende sanitarie e l’obiettivo è trasferire i dati su un’unica piattaforma. Si tratta di un percorso da completare entro il 2026, per il quale è stato utilizzato anche il PNRR, con un investimento di circa 55 milioni di euro, sebbene la Regione abbia avviato questo processo ben prima.
Il quadro complessivo è in costante evoluzione: cambiano le tecnologie, i partner, il contesto geopolitico. Oggi – ha aggiunto Nocera – si parla sempre più di geopatriation, un processo che deve svilupparsi all’interno di un quadro normativo e politico più ampio, da governare a livello nazionale e non solo locale. In questo scenario, il tema dell’approvvigionamento assume un ruolo centrale, perché richiede indirizzi chiari e coordinati a un livello più generale”.
Dare vita a “Data Center Campus” per attrarre talenti e per innovare
Il Prof. Marco Pironti, nel duplice ruolo di Vicerettore per l’Innovazione dell’Università degli studi di Torino e membro del Comitato Tecnico Scientifico di Assinter ha riassunto alcune riflessioni che partono dai principali trend che osserviamo oggi, in particolare sui temi dell’outsourcing e del cloud: “Sono trend ben noti, ma che hanno mostrato anche alcune criticità: al di là dell’aver interpretato il cloud come un modello in grado di “riscrivere” il mondo, molte organizzazioni si sono interrogate sul perché non abbia sempre prodotto i miglioramenti di efficienza e le opportunità che inizialmente si aspettavano. A questo si collega un tema che è già emerso oggi e che considero centrale: quello della sovranità. Meglio declinarlo come tema di governance. Le città non sono fatte dalle mura che le difendono, ma dalle regole che le governano. Ed è proprio questo il punto: una governance regolatoria credibile, capace di orientare le scelte tecnologiche.
Accanto a questo, oggi emerge con forza anche il tema della sostenibilità. Sempre più settori industriali chiedono un cloud certificato, affidabile, specializzato. È il momento in cui il cloud deve essere customizzato, interpretato sulle esigenze specifiche di alcuni ambiti. Pensiamo, ad esempio, al mondo della ricerca: qui il tema è estremamente complesso, perché i dati trattati sono tra i più critici in assoluto, legati alla sicurezza e alla tutela della vita delle persone. Questa complessità, se non governata, rischia di bloccare enormi potenzialità di ricerca e innovazione. Il filo giuridico che lega tutti questi aspetti conduce, a mio avviso, a due grandi questioni che vorrei condividere: i dati e le competenze”.
“Sul tema dei dati, il dibattito è ampio e ancora aperto. Ma ciò che spesso sottovalutiamo non è tanto la quantità, quanto la qualità del dato. Nella mia esperienza di amministratore pubblico e assessore all’innovazione e ai sistemi informativi della Città di Torino – ha spiegato Pironti – è emerso con forza che tutto il meccanismo di creazione di valore, dall’intelligenza artificiale all’innovazione digitale, funziona solo se parte bene, e parte bene dalla qualità, dalla correttezza e dall’utilizzabilità dei dati.
Negli ultimi anni ci siamo concentrati molto sulla fase finale della catena del valore: l’integrazione, il business, le applicazioni. Ci siamo chiesti chi stesse già monetizzando e dove fossero le opportunità. Ma ci siamo, in parte, dimenticati che senza dati di qualità tutto questo non regge. Nel mondo universitario questo sta creando problemi enormi: spesso mancano le competenze e la sensibilità per valutare se i dati siano davvero affidabili e utilizzabili, con il rischio di bloccare, per paura o incertezza, potenzialità enormi”.
“L’Università italiana è stata pioniera su molti fronti, ma oggi è chiamata a rafforzare ulteriormente questa consapevolezza, perché dall’idea alla realizzazione concreta, fino all’infrastruttura che la sostiene – ha sostenuto Pironti – il valore si crea solo quando i progetti escono dai nostri uffici e diventano servizi per la collettività. Qui entra in gioco il concetto di ecosistema, richiamato anche in precedenza. Quando parliamo di infrastrutture tecnologiche, l’ecosistema non è solo tecnologia: è qualcosa di molto più complesso, materiale e umano insieme, e soprattutto più difficile da governare.
Lo abbiamo sperimentato anche come Università e come Assinter durante il processo di costruzione delle politiche digitali e delle normative di riferimento. Spesso il dibattito si è concentrato sul data center come mero oggetto fisico, come questione di real estate o di spazi. Ma un data center non è solo questo: è governance, sono scelte tecnologiche, è il modo in cui le tecnologie entrano e operano all’interno delle nostre infrastrutture. Ed è qui che emerge il secondo grande tema: le competenze. Il capitale umano è il vero fattore abilitante di tutti i trend di cui stiamo parlando. L’università dovrebbe essere il primo luogo in cui queste competenze si creano, ma sappiamo quanto siano complesse le dinamiche di formazione, aggiornamento e comunicazione”.
“Il valore del tempo che investiamo in un campus tecnologico, in un luogo in cui accade qualcosa, è ciò che oggi può fare davvero la differenza rispetto ad altri contesti tecnologici. È qui che entrano in gioco le università e il mondo della ricerca, ma soprattutto le imprese private. Mettere insieme, dalla stessa parte, soggetti diversi ha prodotto momenti di confronto anche complessi, talvolta non facili, ma un rapporto trasparente e collaborativo è essenziale in questi ecosistemi.
È fondamentale, inoltre, mantenere attenzione verso il nuovo. Le innovazioni spesso nascono nelle università, nelle imprese, nelle società in house, ma anche in organizzazioni e soggetti con professionalità diverse. Dobbiamo essere capaci di valorizzare queste differenze e costruire un sistema che le riconosca e le integri, senza disperderle. Tutti questi attori condividono una sfida comune: possiedono competenze diverse e operano con tempi diversi. Il vero lavoro sta nel creare quella che potremmo chiamare consonanza, ovvero portare tutti sullo stesso ritmo, come in un’orchestra. In questo quadro, le infrastrutture cloud di cui stiamo parlando hanno un ruolo chiave: non sono solo piattaforme tecnologiche, ma spazi abilitanti in cui può accadere qualcosa di concreto, fisico e al tempo stesso connesso a dinamiche molto più ampie. Se questo accade nel nostro Paese, il beneficio è per tutti”, ha spiegato Pironti.
Tavola rotonda: “Dati, AI e sovranità: come costruire modelli affidabili per la PA nei comparti sensibili”. Il lavoro “sartoriale” di Aruba
“Esiste oggi un tema centrale legato a un’intelligenza artificiale controllata, efficiente e proporzionata, basata su servizi calibrati e su un’AI indipendente dai singoli provider, quindi più flessibile. È in questo modo che ci si avvicina concretamente al concetto di sovranità. Parlare di indipendenza nell’AI significa garantire piena autonomia operativa e, di conseguenza, la massima performance.
In questa prospettiva, portiamo sulle nostre piattaforme modelli open source e ci impegniamo a mantenere il controllo dell’intero stack tecnologico: dall’hardware alla piattaforma, fino ai modelli e alle modalità con cui questi vengono interrogati”, ha detto Francesco Tarasconi, Artificial Intelligence Manager presso Aruba.
“È fondamentale poter contare su un partner che disponga di un catalogo di servizi in grado di supportare sia l’uso interno sia la trasformazione di queste soluzioni in servizi selezionabili da Pubbliche Amministrazioni e imprese, in base al modello più adatto allo specifico caso d’uso.
Un’azienda come Aruba sta investendo fortemente nello sviluppo delle competenze necessarie per affrontare la sfida tecnologica posta dall’intelligenza artificiale. Conoscere a fondo il funzionamento dei processori, valutarne la robustezza e governare il servizio fino al livello applicativo – ha precisato Tarasconi – consente di realizzare un lavoro realmente sartoriale, capace di combinare servizi diversi per generare valore aggiunto”.
“La protezione dei dati è, prima di tutto, una questione di governance. Il nodo centrale riguarda la scelta di quali dati affidare e a quali hyperscaler. Se parliamo, ad esempio, di dati sanitari, il tema diventa particolarmente delicato. Dal punto di vista della governance, è possibile aumentare il valore e l’intelligenza dei dati attraverso strumenti che ne migliorano la qualità. Ma questo deve andare di pari passo con misure di sicurezza adeguate, come la cifratura, che consente di garantire un livello di protezione elevato: anche nel caso in cui un cloud provider esterno abbia accesso ai dati, questi non risultano manipolabili. In alternativa, o in modo complementare, i dati possono essere localizzati in ambienti protetti, all’interno di un perimetro europeo”, ha affermato nel suo intervento Piero Vicari, Partner at Nimbus Reply.
“Le partnership pubblico-private devono essere virtuose per entrambe le parti. Il mondo della ricerca e le imprese innovative possono supportare i soggetti che sviluppano le tecnologie, contribuendo ad affrontare le sfide future e a garantire ai cittadini l’accesso a servizi di qualità.
Come cittadini, ci aspettiamo di poter accedere ai nostri dati in modo sicuro, in Italia e in Europa. È in questa direzione che si sta muovendo lo sviluppo di un ecosistema federato dei dati sanitari – ha proseguito Vicari – pensato non solo per rafforzare la tutela e la sovranità del dato, ma anche per favorire la nascita di nuovi servizi. Un processo che passa dall’accesso regolato ai dati da parte delle imprese e dei centri di ricerca, con una chiara classificazione in termini di sicurezza e privacy, consapevoli che solo una parte di questi dati potrà essere resa accessibile a soggetti terzi”.
“La tendenza a utilizzare data center locali si fonda sulla percezione di una maggiore sicurezza del dato. Avere i dati sotto un controllo diretto rassicura rispetto alle modalità di accesso e di utilizzo. Tuttavia, il rispetto delle normative, a partire dal Regolamento europeo GDPR, introduce ulteriori complessità. I grandi provider globali, infatti, possono essere soggetti anche a normative extraeuropee, con potenziali implicazioni in termini di sicurezza nazionale, come nel caso del Cloud Act statunitense. In questo senso, il data center regionale rappresenta una scelta percepita come più sicura, ma non priva di limiti: la scalabilità è ridotta, la gestione dei picchi di carico è meno efficiente e le possibilità di garantire elevati livelli di ridondanza e di disaster recovery risultano più contenute”, ha dichiarato Marcello Di Pasquale, Client Manager – Head of Market Innovation Unit Healthcare Exprivia.
“Per queste ragioni, le soluzioni ibride appaiono oggi come le più equilibrate. Le società in-house possono assumere decisioni più efficaci, mantenendo il controllo dei dati strategici e delegando ai provider esterni le logiche di scalabilità, resilienza e disaster recovery, dove questi possono offrire un valore aggiunto significativo.
In questo quadro – ha continuato Di Pasquale – il nuovo Spazio Europeo dei Dati Sanitari rappresenta un’opportunità importante. Un’infrastruttura chiave dell’UE per facilitare lo scambio transfrontaliero di dati sanitari, garantendo ai cittadini controllo e promuovendo ricerca e innovazione in modo sicuro. Punta a creare un’economia dei dati competitiva, con piena conformità GDPR. La collaborazione tra Aruba e le società in-house contribuisce allo sviluppo di un modello virtuoso, capace di coniugare una protezione avanzata dei dati con la realizzazione di servizi digitali evoluti, in una chiave pienamente pubblica e orientata al cittadino”.
Un data center oggi deve essere AI-ready, scalabile e sostenibile
“Quando si parla di intelligenza artificiale e cloud, è fondamentale partire dal primo anello della catena, l’abilitatore primario: l’infrastruttura fisica, ovvero il data center. Un data center che oggi deve essere AI-ready, scalabile e progettato per consentire espansioni modulari, con impianti in grado di gestire livelli di potenza sempre più elevati. Centrale è anche il tema delle partnership strategiche con gli enti erogatori, in particolare per l’approvvigionamento energetico, un tema oggi più che mai cruciale. Gli aspetti da considerare nella progettazione di un nuovo data center sono numerosi e, una volta definiti, in larga parte irreversibili. Proprio per questo è necessario progettare infrastrutture con una visione di lungo periodo, capaci di garantire una lunga vita operativa e di assorbire i rapidi cambiamenti tecnologici che caratterizzano il nostro tempo”, ha detto Prisca Mariotti, Program & Contract Manager – Data Center & Infrastructures di Aruba, nell’intervento conclusivo della mattinata.
“La progettazione dei data center di Aruba nasce esattamente con questa impostazione. Il campus di Ponte San Pietro, avviato nel 2017, incarna questo approccio fin dall’origine, con un mindset avanzato che ha poi portato allo sviluppo del campus di Roma nel 2024. Si tratta di infrastrutture progettate con il massimo livello di ridondanza e con i più avanzati modelli di sicurezza, interamente di proprietà italiana e concepite in modo sartoriale, cioè costruite sulle reali esigenze della domanda e non semplicemente sull’adozione di standard internazionali.
Tra i pilastri fondamentali vi è la sostenibilità. I nostri data center sono caratterizzati da un’elevata efficienza energetica e da un impatto ambientale estremamente ridotto. Sono alimentati esclusivamente da energia pulita garantita all’origine. Aruba è inoltre proprietaria di otto centrali idroelettriche, una delle quali si trova in prossimità del campus di Ponte San Pietro a Bergamo.
Il modello tecnologico adottato si fonda su resilienza, modularità e ridondanza, che rappresentano i pilastri dell’approccio Aruba. Seguendo gli standard della normativa ANSI/TIA-942 Rating 4, il livello più elevato di affidabilità per i data center, garantiamo la fault tolerance, ovvero la tolleranza ai guasti. Questa certificazione assicura che il data center possa affrontare guasti in qualsiasi punto dell’infrastruttura elettrica o meccanica senza causare disservizi, garantendo downtime zero e la massima protezione anche in caso di eventi fisici critici”, ha precisato Mariotti.
“La connettività è carrier neutral: i data center ospitano i principali operatori di rete. In particolare, il polo di Roma si configura come il principale hub di connettività per il Centro-Sud Italia. Il campus di Ponte San Pietro ospita inoltre una centrale di alta tensione che consente di disporre di 60 megawatt per l’intera infrastruttura. Tutti i nostri data center sono dotati delle principali certificazioni di settore – ha concluso Mariotti – a garanzia dei più alti standard di qualità, sicurezza e affidabilità”.
La giornata è proseguita con la visita dell’Hyper Cloud Data Center di Aruba a Roma, un punto di riferimento nella crescita del panorama digitale italiano, ponendosi come un hub strategico e iperconnesso del centro-Sud Italia.
Situato proprio nel Tecnopolo, l’infrastruttura si estende su 74.000 m² e ospiterà a pieno regime cinque data center indipendenti, con una potenza totale di 30 MW IT, erogati con un livello di ridondanza 2N o superiore. Questa infrastruttura di livello hyperscaler è stata progettata per soddisfare le esigenze sia di aziende di piccole dimensioni che delle più grandi e della Pubblica Amministrazione, offrendo soluzioni scalabili e flessibili.
Il campus, con il suo approccio carrier neutral, permette ai clienti di scegliere in totale autonomia la soluzione di connettività che meglio risponde alle loro esigenze, accedendo a servizi di rete affidabili e ad alte prestazioni. Il data center Aruba a Roma è stato progettato per sfruttare tutte le possibili soluzioni per ridurre al minimo il suo impatto sull’ambiente, senza compromettere i massimi standard garantiti di affidabilità e prestazioni. È alimentato da energia elettrica la cui provenienza da fonti rinnovabili è certificata dalla Garanzia di Origine (GO).
