8° Seminario Bordoni: ‘Fotonica, banda larga, NGN’. L’Italia della comunicazione globale, tra sfide e nuove realtà sociali

di Flavio Fabbri |

Italia


NGN

La crescita del sistema paese Italia necessita, sia da un punto di vista economico che culturale, di una profonda e diffusa innovazione in termini di ICT e di reti di nuova generazione. Questo il messaggio che sembra racchiudere il titolo del nuovo appuntamento del ciclo di seminari organizzato dalla Fondazione Ugo BordoniFotonica, Larga Banda, NGN” e svoltosi con il consueto contributo tecnico organizzativo dell’Isimm. Sistemi in fibra ottica e tecnologia fotonica, strumenti che permettono di colmare il digital dividend, portare a tutti gli utenti una vera Banda Larga e in generale preparare la realizzazione delle reti di nuova generazione NGN (Next Generation Networks). Necessità e urgenze di un Paese, l’Italia, che rischia seriamente di rimanere ai margini di un cambiamento importantissimo a livello europeo e globale.

Le video interviste

Maurizio Dècina
(FUB)

Enzo Savarese
(AgCom)

Carlo Mannoni
(Tiscali)

Joy Marino
(AIIP)

A richiamare l’attenzione su questo tema è proprio il Presidente della FUB Maurizio Dècina, che nell’aprire il seminario, invita a riflettere sulla diffusione reale di queste tecnologie, la concreta possibilità di sviluppare un’eSociety del futuro e più in generale sui dati provenienti da altri Paesi del mondo, Giappone in testa: “… Reti ottiche e tecnologie fotoniche, queste le chiavi del futuro e queste le sfide che attendono l’Italia e l’Europa. Soluzioni avanzate di cablaggio in fibra di aree metropolitane, o reti wireless diffuse in aree periferiche. Queste le dinamiche con cui la NGN o rete di nuova generazione vedrà nascere una nuova realtà sociale e tecnologica, una nuova piattaforma di comunicazione globale“. “Reti e tecnologie– prosegue Dècina- che chiedono altrimenti investimenti forti e politiche regolatorie moderne, in grado di infondere sicurezza e certezze sia ai carriers, sia all’utenza. In Europa esistono realtà locali fortemente differenziate che impongono delle scelte a livello centrale su piani regolatori precisi, anche in termini di concertazione tra le parti. I piani a breve termine, di fronte a una criticità ben delineata, puntano ancora a una copertura molto modesta e in Italia siamo appena al 10% contro il 100% del Giappone“.

Ospiti centrali della sessione mattutina sono stati Leo Spiekman della Alphion Corporation e Scott Marcus del WIK. Due nomi di assoluto rilievo a livello internazionale nel campo delle reti di telecomunicazioni NGN, che la Fondazione Ugo Bordoni ha invitato per definire e spiegare quelli che sono i dettami tecnici legati allo sviluppo di tali reti. Il primo ad essere presentato da Dècina è Leo Spiekman, direttore tecnico della Alphion Corporation, che, illustrando gli aspetti relativi alla progettazione, realizzazione e applicazione dei dispositivi optoelettronici operanti ad elevatissimo bit rate, ha presentato il lavoro svolto dalla sua azienda in relazione alle produzione dei componenti abilitanti le tecnologie utili al dispiegamento della NGN: ” … Quando si parla di NGN ci possono essere diverse definizioni e, grazie ai processi di standardizzazione in atto, ci possono essere diverse tecnologie a disposizione, ma rimane il punto fermo e imprescindibile della necessità di un’unica rete su cui lavorare, un’unica piattaforma per la trasmissione dati a pacchetto. Sia perché l’adozione di tecnologie digitali è in crescita esponenziale, sia perché il mix di servizi e dispositivi a disposizione dell’utente stanno creando una situazione di forte stress sulla rete“. “Tali tecnologie di trasmissione dati a pacchetto– continua Spiekman- ha superato la modalità voice nel 2002, evidenziando il bisogno di un aumento del livello di integrazione della rete. Per ottenere questo ci sono tre strade: aumentare i bit, aumentare le fibre e aumentare la banda. L’aumento dei bit comporta un aumento di velocità della rete, della sua complessità, con la necessità di ridurre errori, resistenze, latenze della trasmissione fisica del segnale. Internet ha dato dei grandi risultati negli ultimi venti anni, dall’Ethernet al World Wide Web, con le ultime realizzazioni come Google“.

Spiekman si è poi soffermato su due layers di internet: Ethernet/IP e Sonet/SDH. Perché l’obiettivo da raggiungere nel breve periodo sarà proprio la convergenza tra i due livelli, anche considerando il maggior successo della prima sulla seconda per una serie di considerazioni tecniche: “… Ethernet/IP dimostra di possedere delle proprietà tecnologiche che le permettono performance importanti, in ordine di flessibilità, di standardizzazione, di compatibilità, interoperabilità, potenziale evolutivo, velocità di trasmissione. Tutte caratteristiche che favoriscono il flusso dei dati di traffico a pacchetto, ma che richiedono anche un aumento di banda a disposizione e, nel caso dello streaming per i video content, alta qualità unitamente a velocità del flusso dati, quindi bassa latenza“. “L’obiettivo delle reti NGN – spiega il Direttore- è arrivare a un regime standardizzato di attività sui 100 Gb/s. Il processo già viene portato avanti da un Istituti quali l’IEEE (Institute of Electrical and Electronics Engineers), l’OIF (Optical Internetworking Forum) e l’ITU (International Telecommunication Union). Ovviamente le dinamiche di tale progetto sono molte, perché bisogna considerare le diverse lunghezze d’onda da modulare con l’elettronica veloce, c’è bisogno di particolari chip, sfruttare tutto lo spettro disponibile e sviluppare trasmissioni multilivello per aumentare i canali a disposizione“.

Spiekman si è poi soffermato su quelle che sono le ulteriori prospettive future della ricerca con progetti di banda larga ottica da 1 Tb/s (Terabyte per secondo), che comunque richiedono grandi quantità di banda e molta fibra a disposizione. In Europa per il momento l’operatore telefonico inglese BT sta portando avanti i suoi piani di convergenza di servizi su reti IP con tecnologia MPLS Core (Multiprotocol Label Switching), a garanzia di elevata standardizzazione. Ma c’è anche l’Olanda con la KPN, che lavora sempre su rete Ethernet, caratterizzata da multi layers di acesso, tecnologia MPLS Core e piattaforme Multi Play Services. Anche in questo caso si evidenzia l’importanza della tecnologia MPLS, in grado di instradare più tipi di traffico (dati, voce, video) sullo stesso canale, consentendo di differenziare la banda di trasmissione in base al tipo di traffico e di aggirare le zone congestionate e i collegamenti interrotti, garantendo alti livelli di prestazione finali. In parallelo le reti ottiche permettono un’ulteriore diminuzione di consumo elettrico e di complessità, con un aumento della capacità di trasmettere dati su reti a commutazione di pacchetto. Parliamo di reti PON (Passive Optical Network), un’unica fibra multiaccess con terminazioni ottiche diversificate, accessi e codici multipli WDMA (Wavelength Division Multiple Access). Questa nuova formula ci permette di ridurre il numero di centrali aumentando l’area di utenza servita, come sta verificando in via sperimentale BT Group.

Ma come implementare questa NGN e quali politiche economiche sono necessarie per tali sviluppi affinché la migrazione verso queste nuove piattaforme abbia una ricaduta anche sulle politiche sociali? A tale complessa domanda ha risposto Scott Marcus, del WIK– Dipartimento ‘NGN and Internet Economics’, che ha spiegato come la realizzazione d’infrastrutture comprendenti tecnologie fotoniche riguarda sia la core network che la rete di accesso. Evidenziando come queste attività richiedono soluzioni innovative nella regolamentazione delle TLC, conferendo certezze e garanzie di redditività ai massicci investimenti necessari, garantendo al contempo la concorrenza del mercato e una copertura territoriale che riduca sostanzialmente il digital divide presente nelle attuali reti: “ …Parliamo di bisogni sociali che vanno soddisfatti e che il mercato altrimenti non considererebbe. Fornire servizi fondamentali come IPTV, VoIP, P2P per file sharing, etc,.Tutto questo è reso possibile dalle reti NGN, dove i livelli della struttura (pc, server, router) devono essere in grado di comunicare tra loro e di interconnettere le applicazioni. Ovviamente dobbiamo verificare quali sono gli aspetti regolatori ed economici di tali operazioni, anche perché lo sviluppo dell’industria IT e dell’offerta di prodotti e servizi derivati determina un aumento di competitività sul mercato“. “C’è la possibilità eventuale di ricevere servizi da terzi– continua Markus- che non necessariamente hanno bisogno di una rete propria e questo concorre a generare una diversificazione dei business possibili. Compito del regolamentatore è quello di seguire gli sviluppi di questi nuovi modelli, come delle strategie che li sottendono, finalizzando le sue politiche a una più agevole pianificazione di gestione della transizione in atto con la diffusione progressiva della NGN. La possibilità della rete unica a riguardo è una realizzazione auspicabile, facendo convergere dati diversi su un’unica piattaforma. L’interconnessione, invece, è fondamentale in questo panorama, con una continua richiesta di velocità e di bit. Anche perché possiamo constatare come e quanto l’utilizzo della rete da parte dell’utente medio sia aumentato con un upload sempre più elevato e, soprattutto, di contenuti video. Questo è un altro aspetto del problema: quando si passa da un network tradizionale a uno di nuova generazione, cioè i costi e i loro aumenti. È per questo che l’Ue ha deciso di controllarne l’andamento con policies adeguate“.

A chiudere la mattinata è arrivato l’intervento di Francesco Matera, responsabile area tecnologica NGN della FUB, che ha mostrato i percorsi delle reti di nuova generazione attraverso una pezzo di storia della Fondazione: ” … La fotonica per la FUB ha sempre avuto un ruolo chiave nella pianificazione delle aree di ricerca. Fin dai primi anni ’90, con lo studio degli effetti non lineari nei semiconduttori e nella fibra ottica, col progetto europeo ESTHER, in cui troviamo la Fondazione stessa, la Pirelli, l’Università di Padova, l’ISCTI (Istituto Superiore delle Comunicazioni e delle Tecnologie dell’Informazione) e tanti altri. Per poi passare ai primi anni 2000, con li progetto IST ATLAS, sempre con gli stessi partner, con la commutazione dei canali dall’elettronico alle tecnologie ottiche per la sperimentazione di sistemi di trasmissione ottica ad altissima capacità. È del 2003 la realizzazione del primo rigeneratore completamente ottico 3R a realizzazione FUB e ISCOM. Quest’ultimo è stato testato per l’analisi delle qualità dei servizi QoS per aumentare il numero di applicativi disponibili su rete fissa al Ministero della Comunicazioni, ma anche nel circuito delle industrie, testimonianze di quanto in Italia la sperimentazione delle tecnologie ottiche sia arrivata, grazie a centri di eccellenza come Pirelli Optical Innnovation o la divisione di Alcatel-Lucent che lavora proprio qui sul nostro territorio, ad un livello molto alto per lo standard europeo“.

Ospite della sessione pomeridiana è stato Enzo Savarese dell’Autorità per le Garanzie nelle Comunicazioni (AGCOM), che centra il suo intervento sul digital divide e sull’importanza dell’attività regolatoria: “… La rete italiana è caratterizzata da diverse tipologie di linee, molte delle quali di servizio (almeno 10.000). Un asset che necessita di un ulteriore intervento perché il digital divide è una realtà, tra zone di eccellenza e zone prive di una copertura adeguata. I comuni di quest’ultimo tipo, senza copertura DSL sono più di 3000 e 2000 presentano una copertura parziale. La rete in rame, eredità del vecchio monopolio, oggi non è più in grado di reggere al flusso dei dati che tra contenuti video e voce si è fatto sempre più grande“. “C’è inoltre una mancanza di investimenti in infrastrutture e in ricerca– continua Savarese- anche per la natura dei mercati tendenzialmente integrati, dove il rapporto tra stato e operatori si sono fatti più stretti. Quello che si chiede è uno sforzo di sistema, un piano regolatorio, anche in vista del ritorno degli investimenti a garanzia di un completo sviluppo del mercato e della rete. Sulla separazione di quest’ultima l’Autorità deve garantire sicurezza e certezza delle condizioni in essere, con l’impegno a definire un accordo da tutti condiviso“.

E’ seguita poi la consueta tavola rotonda, dal titolo “Lo sviluppo di reti di nuova generazione: tecnologie e regole“, a cui hanno preso parte i responsabili tecnici dei principali gestori di telecomunicazioni, i costruttori e le associazioni di settore. Attori che hanno discusso del quadro evolutivo della rete italiana attuale verso la NGN, nella consapevolezza che una infrastruttura di rete fissa ad altissima velocità renderà efficacemente fruibili non solo i servizi accessibili da piattaforma fissa, ma anche quelli offerti da piattaforme wireless, mobili e nomadiche. Moderatore della tavola è stato Guido Vannucchi del Consiglio Superiore delle Comunicazioni, che ha sottolineato come quello affrontato già in mattinata sia un tema davvero complesso, sia per le componenti tecniche che regolatorie del discorso, con molte domande lasciate inevase sul tappeto. Soprattutto riguardo la situazione italiana, il suo panorama, gli scambi in atto tra operatori e autorità competenti. Vannucchi ha evidenziato come: “… L’NGN rivoluzionerà il sistema delle comunicazioni, con le sue proprietà di diffusione, in real time, perché in grado di virtualizzare le risorse infrastrutturali all’interno di una rete di distribuzione. È inoltre unicasting e multicasting e soprattutto è velocissima. Con le NGNs avremmo accessi alla rete percorribili tramite dispositivi standardizzati, di cui rimarrà solo il problema della separazione della rete che a sua volta apre il dibattito su chi si approprierà di tali porzioni“. “Problemi a cui necessariamente– continua Vannucchi- bisognerà trovare una soluzione per non rimanere indietro, attuando politiche specifiche di investimento nel settore che vedano coinvolti a pari modo operatori e istituzioni. C’è inoltre da tener presente che la forte velocità della NGN creerà le condizioni per un aumento del gap digitale, soprattutto tra le aree urbane e quelle rurali, un altro punto da evidenziare in agenda“.

Dal mondo delle Università e dei centri di ricerca il CNIT, Consorzio Nazionale Interuniversitario per le Telecomunicazioni, nella persona di Giancarlo Prati, evidenzia lo stato dell’arte italiano a partire da due iniziative del Centro: centrare l’obiettivo della velocità di 10 Gb/s in accesso e raggiungere le velocità del Tb/s. In relazione all’accesso, si prospetta il superamento dell’xDSL con la migrazione al WDMA-PON e, per lo meno agli inizi, l’utente finale sarà difficilmente l’utenza domestica. La rete di trasporto, il Core, secondo Prati, sarà invece fotonica: “… Nuove tecniche di trasporto dell’informazione a larghissima banda che consentiranno la diffusione su rete di un gran numero di servizi. Molti di essi utilizzeranno architetture SOA, architetture software atte a supportare l’uso di servizi Web per soddisfare le richieste degli utenti così da consentire l’utilizzo delle singole applicazioni come componenti del processo di business, in cui end users e applicativi dovranno necessariamente interagire sul piano della rete“. “Il CNIT– conclude Prati- ha portato avanti negli anni due importanti case study: il TERIT (TElecommunication Research in Italy) sul sistema di rete nazionale, pubblico e privato, in relazione alle NGN e il PHORIT, piattaforma fotonica a tecnologia italiana per l’implementazione di sottosistemi fotonici digitali e analogici in grado di interagire“.

Dal lato dei costruttori, prende la parola Alberto Lotti di Alcatel-Lucent divisione ottica italiana, che senza indugi indica alcuni punti chiave: larga banda, separazione della rete, sistema paese. Quindi più banda, la possibilità di gestire la rete in modi diversi a seconda delle esigenze specifiche e un piano regolatorio certo: “… La banda cresce perché c’è internet. Sia a livello tecnologico che economico, con servizi fruibili da tutti in modalità flat. Una misura necessaria per evitare la saturazione della rete sempre più congestionata da utilizzi di diversa natura: eCommerce, Entertainment, eGovernment, ecc. Sono fenomeni che all’interno del processo di separazione della rete e dello sviluppo delle NGNs trovano una collocazione nuova. A riguardo bisogna considerare anche il peso e il ruolo delle comunicazioni mobili. Ecco che allora è proprio a livello infrastrutturale che bisogna anticipare tali tematiche, stringendosi attorno al sistema paese, pianificando nuove strategie di lavoro sulla tecnologia della fibra“.

Sull’impegno verso la banda larga e le fibre ottiche, sia in termini di investimenti che di sistema interviene Ezio Zerbini della Ericsson: “… Le tecnologie a larga banda e quelle ottiche sono ormai pronte alla messa in opera, semmai il problema è nei volumi di dati da gestire e nel mercato e la sua regolamentazione. La rete Ethernet è il luogo della competizione, dove i livelli di standardizzazione richiesti sono alti e l’impegno è massimo per un operatore in termini di convergenza. Quello che si chiede è mettere sul campo un mix di tecnologie molto ampio per rendere effettivamente difficile il lavoro di una compagnia in termini di facilitazione dell’accesso, in termini di riduzione del digital divide, con tecnologie wireless, larga banda e LTE, tutti obiettivi condivisi ma dalla complessità evidente“.

Per Giorgio Grasso della Pirelli Optical Innovation i punti chiave sono ovviamente un aumento di banda, ormai un presupposto che ottiene larghi consensi a ogni intervento, con la riduzione dei costi che ne deriva e un aumento dell’utenza raggiungibile: “… Lo sviluppo delle tecnologie WDMA-PON delle reti di accesso permettono il raggiungimento dei tre obiettivi primari in questa prima fase delle NGN. Una fase ulteriore sarà una diversificazione dei servizi integrati con tecnologie TDMA (Time Division Multiple Access) e OCDMA (Optical Code Division Multiple Mccess). I problemi maggiori saranno legati ai costi iniziali dovuti all’alto numero di interfacce, al trasmettitore e all’OPEX, i costi operativi. Un ulteriore impulso sarà dato dallo sviluppo dei circuiti PIK con tecnologie al silicio e impiego di tecnologie al laser“.

Sul problema dell’accesso torna anche Stefano Nocentini di Telecom Italia, concordando sul fatto che le tecnologie ci sono, anche in Italia, dove il manifatturiero è d’eccellenza, e che semmai il vero elemento critico è nella scarsità dell’ARPU, dei ricavi rispetto alla crescita della domanda di banda e in relazione agli ingenti investimenti necessari: “… Quando parliamo di servizi, bisogna pensare alla loro natura simmetrica e asimmetrica, alla tecnologia che li può abilitare o meno. Quali servizi sono utili o meno? Chi lo decide? In quali zone si può avere o meno una o più tipologie di servizi? Queste sono le domande che un costruttore si deve porre. Il digital divide nasce perché l’operatore si muove sempre verso il guadagno, come normale esigenza da soddisfare per sopravvivere sul mercato“.

Fastweb con Guido Roda punta sul ruolo pubblico del regolatore e dello stato investitore: “…Per noi le reti NGN sono viste sia nell’ottica della rete fissa che in quella della rete mobile, su cui far fluire pacchetti di servizi diversificati. Ci muoviamo su territori metropolitani, rurali e misti, puntando, per quanto riguarda le aree metropolitane, a una rete capillare. Ovviamente la fibra presenta molti vantaggi rispetto al rame, di stabilità, potenza, accesso, interoperabilità, resistenza, ecc. Per questo è un asset fondamentale che richiede un intervento da parte dello stato, coordinando enti pubblici e privati, assieme agli operatori, in un serio piano di infrastrutture per il paese“.

Meno ottimista sulla rete d nuova generazione è sembrato Carlo Mannoni di Tiscali: “… Le soluzioni possibili sono varie e tutte valide. Mi chiedo: è possibile che il rame non sia più sfruttabile? Da un punto di vista economico ha dato risultati ottimali. Il piano regolatorio che verrà dovrà confrontarsi con le aspettative di tutti, operatori e utenti finali. Ci sono poi le convergenze tra piattaforme che ancora devono essere valutate nell’impatto economico, che peraltro non è per niente chiaro nei volumi relativi alla realizzazione della NGN“. Anche Raffaele Mosca della Wind sottolinea l’elemento spesa: “… L’accesso alla larga banda chiede uno sforzo in termini di infrastrutture nell’ordine di 10-12 miliardi euro. Numeri notevoli che verranno recuperati sul lungo termine, ma che saranno la spina dorsale di questo Paese, senza la quale non stiamo in piedi. Bisognerà pianificare il numero di reti utilizzabili entro i vincoli economici e urbanistici presenti già da ora, temporali anche, fissando degli step intermedi. Ovviamente un altro punto critico sarà la nascita e lo sviluppo di un mercato concorrenziale e della sua regolamentazione“.

Sul digital divide torna Maria Luisa Cesaro di Vodafone, che pone l’accento non solo sull’elemento sociale del fenomeno, ma anche geografico: “…Perché molte aree non sono tutt’ora raggiunte dai servizi di rete fissa, o eventualmente ad essa preferiscono quelli di rete mobile. Questo ci dimostra quanto la larga banda sia soggetta alle esigenze dell’utenza e quanto la rete debba essere flessibile nella risposta, con un’assegnazione totale dello spettro, lo sviluppo di politiche regolatorie e la neutralità. Interventi evidentemente di lungo periodo, anche per la realizzazione dell’Open Access e un assetto più concorrenziale del settore“.

Partire in svantaggio, come è accaduto all’Italia, ndietro rispetto ai vicini europei, per Joy Marino dell’AIIP (Associazione Italiana Internet Provider) potrebbe essere in realtà un vantaggio: “… Arrivando dopo si può già godere dello sforzo precedente degli altri. Quindi si possono acquisire delle tecnologie già testate e funzionali agli obiettivi preposti. Ora, per supportare i 100 Gb/s che si vogliono raggiungere, le tecnologie che abbiamo a disposizione, per quanto se ne dica, non sono sufficienti e gli investimenti messi in campo non sono utili che per una o due generazioni. Le reti di nuova generazione possono essere considerate un passo intermedio, non certo definitivo e con tempi lunghi. La fibra inoltre va portata in tutte le case, anche dove al mercato non conviene, e questo genera grandi investimenti da alimentare, con conseguente necessità di aumentare la concorrenza e coinvolgimento dei mercati finanziari“.

In conclusione del lungo dibattito pomeridiano interviene ancora Guido Vannucchi, ritornando sul problema degli sforzi finanziari e sottolineando che c’è una rete ADSL da poter e dover continuare a sfruttare, cercando poi di valutare non tanto la criticità della fibra quanto quella delle condotte oggi disponibili e del loro stato fisico. La manutenzione, ricorda Vannucchi, è un altro tassello imprescindibile nei calcoli degli investimenti necessari al sistema paese. Quindi, riprende Maurizio Dècina per concludere il seminario e salutare gli ospiti, occorre utilizzare tutti i canali disponibili come tutta la rete, sia mobile che fissa: “… Perché le soluzioni ci sono, sono molte e tutte perseguibili, come anche l’HSPA o la larga banda mobile, ma il Paese necessita una reingegnerizzazione delle linee o delle celle in chiave ottica. Saranno le grandi città i luoghi dove si giocherà la partita delle NGN. L’interconnessione delle reti di nuova generazione sarà una delle operazioni più complesse degli ultimi tempi“.

Dopo aver salutato i numerosi partecipanti al seminario, lo stesso Dècina ha ricordato il prossimo appuntamento del ciclo dei Seminari Bordoni del 30 giugno con Nigel Laflin della BBC sul tema della “Radio digitale“.


Building the fibre nation

Alberto Lotti

Fotonica, larga banda, NGN

Ezio Zerbini

La fotonica nella Fondazione Ugo Bordoni

Francesco Matera

Lo sviluppo direti di nuova generazione. Tecnologie e regole

Giancarlo Prati

Next Generation PON Enabling Technologies

Giorgio Grasso

Fotonica, larga banda, NGN

Guido Roda

Photonics in Broadband Access and the Next Generation Network

Leo Spiekman

Implementing the NGN: regulatory and economic aspects

J. Scott Marcus