18° Seminario Bordoni: lo spettro radio e suoi utilizzi. Dibattito su tecnologie radio e sviluppo della banda larga in Italia

di Flavio Fabbri |


Spettro radio

La gestione dello spettro radio è stato uno degli argomenti di maggiore interesse negli ultimi tempi, sia per il mondo delle telecomunicazioni, sia per quella parte della politica che guarda al settore delle comunicazioni elettroniche con attenzione crescente, tanto da impegnare la Comunità Europea in diversi round di incontri e tavoli decisionali. Le scelte prese sono state successivamente indirizzate verso un utilizzo della banda più flessibile e orientato al mercato. Un cambiamento epocale che ha spostato l’attenzione dei regolatori da una ripartizione definita rigida, in cui ad ogni tecnologia era assegnata una quota fissa di banda, a una più morbida, aperta alla concorrenza e alla pluralità degli operatori e delle applicazioni.

 

Il XVIII Seminario Bordoni, tenutosi a Roma il 18 giugno, è stato dedicato proprio a questo cambiamento di orientamento nelle politiche comunitarie in tema di gestione dello spettro, con lo scopo di aprire una riflessione sulle “Nuove frontiere nella gestione dello spettro radio“, tra tecnologie emergenti e limiti delle politiche regolatorie.

Un nuovo appuntamento con il ciclo dei Seminari Bordoni, realizzato con il contributo tecnico organizzativo dell’Isimm, in cui si è dibattuto su questioni inerenti l’innovazione tecnologica e i nuovi assetti politici ed economici che si sono venuti a creare, anche come conseguenza dell’evoluzione  sempre più rapida del panorama delle comunicazioni elettroniche.

Tra i tanti scenari evocati, emerge quello relativo al modello delle Cognitive Radio, coniato alla fine degli anni Novanta dal Dr. Joseph Mitola III, discussant d’eccezione ospitato dalla FUB e in forze allo Stevens Institute of Technology. Al professore del New Jersey, infatti, è stata affidata la presentazione di tali nuovi sistemi di comunicazione wireless pensati per lo sfruttamento più efficiente delle “fette” di spettro non ancora utilizzate.

 

Grandi aspettative accompagnate da un certo ottimismo tecnologico, anche se Enzo Pontarollo, Consigliere di amministrazione della Fondazione Ugo Bordoni e moderatore dell’incontro, ricorda che “Per ottenere risultati concreti bisogna che tali sistemi abbiano una conoscenza adeguata dell’ambiente radio in cui operano e che vi si adattino in modo ottimale“.

Il risultato, quindi, è quello più vicino agli ambienti intelligenti della domotica, in cui gli oggetti che li abitano sono in grado di interagire, comunicare e apprendere. Ovviamente l’aspetto regolatorio ha un’enorme importanza, come ha ricordato in apertura di convegno Pontarollo, “Perché l’evoluzione tecnologica è sempre più veloce, la legislazione non riesce a mantenere il passo dell’innovazione e ricordiamoci che stiamo parlando sempre di risorse pubbliche che vanno gestite in maniera responsabile per onorare il contratto sociale da cui emanano“.

 

Proprio dal concetto di pubblico si è mosso nel suo intervento anche Mitola, perché “Negli Stati Uniti si è scelto di partire dal sociale, per poi passare al livello regolatorio e quindi del mercato“. “Negli anni Novanta – ha spiegato Mitola – è stato necessario spostarsi da una gestione rigida dello spettro ad una più flessibile, più vicina a quella che poi è stata definita dal Dinamic Spectrum Management (DSM), orientata a risolvere i problemi di affollamento di banda che venivano registrati in alcune ore, su determinati servizi e in specifiche aree. Tramite questo nuovo approccio si è riusciti a gestire in modo intelligente la banda e a ridurre sensibilmente i costi a carico delle aziende e delle agenzie governative, con un’accurata pianificazione degli investimenti in infrastrutture e una migliore copertura delle aree, come conseguenza diretta di un utilizzo più efficiente dello spettro“.

 

Soffermandosi poi più propriamente sul modello delle Cognitive Radio, Mitola ha mostrato come si possa anche pensare di intervenire in modo più proficuo nell’uso dei ‘White space’, o buchi di banda, cioè pezzi di spettro lasciati vuoti dalle bande televisive come conseguenza della loro migrazione al digitale. La Federal Communications Commission (FCC) – l’Authority Usa per le tlc –  ha proposto, ad esempio, di servirsi di tali buchi per recuperare frequenze da dirottare verso servizi nuovi, come Internet mobile, banda larga wireless e altre modalità di accesso alla rete. Una strada che l’Europa sembra non voler scartare a priori, anche se l’Italia come vedremo non è dello stesso avviso. “Le Cognitive Radio  ha spiegato Mitola – sono dei sistemi molto intelligenti, in grado di trasformare gli ambienti in cui si muovono, di adattare tali spazi a nuove forme di comunicazione non solo tra uomo e macchina, ma anche tra macchine, scambiandosi dati e monitorando in continuazione l’ambiente in cui sono immersi“. E qui si arriva a un punto importante della questione, perché il linguaggio diventa argomento di riflessione complessa. Come comunicano questi sistemi? Quali logiche sottostanno a al meccanismo delicato di osservazione e orientamento dei dispositivi? Qual è la gerarchia di ragionamento?

 

La maggiore mobilità delle persone ha determinato dei cambiamenti epocali nel modo di stare assieme, di relazionarsi e di agire. Il mondo del lavoro si sta trasformando velocemente e con esso il mercato, a cui Mitola aggiunge il contratto sociale: “…L’autorità regolatoria deve saper gestire tali processi tecnologici dalle profonde ricadute sociali ed economiche, anche arrivando a intervenire sul mercato, sugli aspetti legali e sull’uso pubblico delle frequenze, perché stiamo ragionando su uno spettro che per il 50% è ancora da utilizzare“. “Sono tante le possibili assegnazioni di frequenze – ha continuato il professore – dal WiMAX, che utilizza la tecnologia OFDM warer filling, ai modelli MIMO, efficaci in area urbana e negli usi secondari voluti dall’FCC. Modelli anch’essi intelligenti, ma che necessitano di un accesso a Internet per l’aggiornamento della base dati“. “Le grandi sfide che stanno lì ad attenderci – ha sottolineato Mitola – sono legate alle diverse modalità di sfruttamento dello spettro, in un quadro di abbattimento dei costi generalizzato, di massima attenzione alla privacy, di comunicazioni su multipiattaforme e di ricezione multisensoriale“.

  

Cambiamenti incisivi, sia da un punto di vista delle politiche di gestione dello spettro, sia dal lato più propriamente del mercato. I protocolli, ci assicura Mitola, già esistono, come già sono pronte le piattaforme tecnologiche, armonizzate e interscambiabili, in grado quindi di gestire i picchi di traffico sopra descritti e di effettuare shift di destinazione d’uso a seconda delle esigenze. I terminali sono sempre più evoluti, intelligenti e in grado di rispondere a diversi livelli di sollecitazioni, pur sempre con un problema di linguaggio alla base. Il linguaggio, infatti, serve come nell’uomo a dare ordine alle cose, agli oggetti, ai pensieri e lo stesso vale per questi modelli intelligenti che tutti insieme concorrono alla creazione di una ‘rete semantica’. Le Cognitive Radio che vi si appoggiano, ha spiegato Mitola, saranno indispensabili per una gestione più efficiente dello spettro, anche tramite l’intelligenza dei terminali più sviluppata, grazie ai quali si potrà arrivare ad un uso più ampio della banda e in un ambiente totalmente sicuro, dove avremo: ” …Più servizi, meno spese per infrastrutture e maggiore flessibilità nell’uso delle frequenze, distribuendo traffico in eccesso su spazi meno utilizzati e nel rispetto del contratto sociale“.

 

Di ‘White spaces” e di neutralità delle reti si è parlato anche nell’intervento di Guido Riva della FUB, tutto rivolto all’importanza dell’evoluzione tecnologica e alle difficoltà delle politiche regolatorie a tenere il passo evolutivo delle piattaforme: “..C’è il bisogno di far coesistere tecnologie diverse – ha affermato Riva – perché così facendo si moltiplicano gli usi della banda e si abbassano i livelli di interferenza. C’è da chiedersi quale regolamentazione adottare però. Stringente o più flessibile?“. “Diversi sono gli scenari legati agli ambienti delle comunicazioni digitali – ha spiegato – dal segnale alla ricezione. I sistemi radio mobili oggi si avvalgono del refarming della banda a 900 Mhz, che è la più utilizzata dalle Tlc mobili di seconda generazione, ma le stesse frequenze potrebbero essere utilizzate in contemporanea anche dall’UMTS. Ci sono quindi da armonizzare gli standard e le scelte degli operatori, perché in questa coesistenza di tecnologie c’è spazio anche per il broadcasting, il DVB-H e altre aree adiacenti“.

 

Temi di estrema importanza, soprattutto in prospettiva di una nuova proposta della Commissione Europea in tema di gestione dello spettro, perché con il Digital Dividend (DD) molte risorse sono state liberate e saranno rese utilizzabili a breve. Il problema, come si è chiesto Riva, è in che modo utilizzarle? Dirottandole sul mobile o più sul broadcasting?

Ecco perché parlare di una rete a banda larga che sia priva di restrizioni arbitrarie sui dispositivi connessi e sul modo in cui essi operano, o più semplicemente di neutralità e flessibilità, sono argomenti davvero importanti che meriterebbero maggiore attenzione e riflessione, sia per i problemi che pongono, sia per le grandi opportunità che offrono.

 

Argomenti che sono rimasti aperti e che di fatto sono passati poi nella consueta Tavola rotonda dei Seminari Bordoni, questa volta titolata “Il ruolo delle tecnologie radio per lo sviluppo della banda larga” e condotta da Guido Riva. Un pomeriggio dedicato ai vantaggi delle tecnologie radio nello sviluppo delle NGN, Next Generation Networks, reti a banda larga che vengono spesso concepite come lo sviluppo delle reti fisse tradizionali verso tecnologie innovative.

La parte fissa delle reti potrebbe avere un possibile complemento e una preziosa integrazione nell’uso di tecnologie wireless, magari per tutte quelle aree in cui l’impiego di fibra e rame risultasse di più difficile applicazione e di maggiore impatto economico. Un uso più flessibile dello spettro radio, quindi, come anticipato dall’intervento di Mitola, potrebbe avere evidenti ricadute socio-economiche, importanti per lo sviluppo dell’intero Paese. A tal proposito si è parlato anche di Software Defined Radio (SDR), cioè di quella tecnologia che permette di realizzare ricevitori Radio a partire dal software e non dall’hardware e che in più sono multistandard. Standardizzazione che, come ha ricordato Enrico Buracchini di TILab: “… A livello mondiale sta procedendo molto velocemente verso nuovi livelli di efficienza e ottimizzazione delle specifiche, anche grazie a progetti come l’E3, o End-to-End Efficiency. Un progetto a cui hanno aderito Alcatel-Lucent, Nokia, Ericsson, Nec e Telecom Italia. Noi, a riguardo, abbiamo provveduto allo sviluppo del Wp5 e Wp3, anche conosciuto come Work Package, cioè lo studio di quegli algoritmi necessari allo sviluppo delle diverse modalità di gestione dello spettro e delle reti eterogenee. Tecnologie utili alla realizzazione di sistemi radio flessibili, riconfigurabili e riprogrammabili via software“.

 

Come si passa dall’SDR alla Cognitive Radio? E quali sono le principali applicazioni?

L’SDR si basa sostanzialmente, come ci ha spiegato Buracchini, proprio sulle caratteristiche di intelligenza e di adattamento semantico delle Cognitive Radio, mentre per le applicazioni abbiamo molti esempi, che vanno dalle antenne avanzate al MULTI RAT, dalle multiple connection al Cognitive Pilot Channel (CPC). Non mancano anche le applicazioni in campo militare, il cui utilizzo è stato illustrato da Giovanni Guidotti di Selex Communication, sia in una situazione di guerra, sia di gestione della sicurezza pubblica, con la dotazione di tali tecnologie da parte della Protezione Civile, della Polizia di Stato o degli addetti all’assistenza sanitaria: “…Per questi usi abbiamo ideato piattaforme standardizzatte multiuso, software radio per ampliare la banda e facilitare l’interazione tra tecnologie eterogenee. Soluzioni altamente efficienti, ma che necessitano di una gestione dello spettro più flessibile“. Posizione a cui sostanzialmente si è affiancata quella di Alberto Lotti di Alcatel-Lucent, che ha sottolineato l’utilizzo limitato della rete allo stato attuale e il bisogno di una banda più ampia di frequenze, “Altrimenti i benefici delle tecnologie radio mobili non saranno capitalizzabili, come non si potranno sfruttare tali potenzialità di efficienza nella guerra al digital divide, in cui il WiMAX di certo avrà un ruolo assolutamente di rilievo“.

 

Restando in tema di digital divide, anche Alessio Zagaglia di Ericsson, ha riproposto non solo la soluzione del broadband mobile, ma anche l’idea del mix di tecnologie fisso-mobile, come strumento certamente valido per affrontare sfide imposte dal presente economico e politico: “…Mi riferisco alle reti mobili HSPA, High Speed Packet Access, a 42 Mbps e alla LTE, con i suoi 100Mbps. Questi sono i trend del mercato, sempre più orientati alla soddisfazione della domanda di servizi altamente personalizzati, per l’utente mobile, in continuo movimento e non localizzabile. Lo testimonia anche la progressiva sostituzione del laptop con gli smartphone. L’unico limite ad oggi evidenziabile è ancora una volta la scarsità di banda e di assegnazione delle frequenze. Si potrebbe a riguardo spostare le frequenze mobili sull’UHF, operazione in cui si calcola ci sarebbe un ritorno economico di circa 120 miliardi di euro“.

 

Più deciso a delineare un chiaro concetto di digital divide è stato l’intervento di Saverio Orlando di Telecom Italia, per il quale la divisione digitale in Italia è caratterizzata da più livelli, a seconda delle aree interessate: “…Non riguarda più solamente il problema dell’accesso alla rete, ma anche la mancata copertura DSL o in fibra, perché il digital divide evolve con la tecnologia e in tal senso sarebbe più utile considerare la rete mobile complementare, invece che sostitutiva, della rete fissa“. “Sulla presunta scarsità di frequenze, invece – ha sottolineato Orlando – direi che è più un problema di limiti di banda e di cattiva gestione dello spettro, che di reale mancanza di risorse“.

 

La rete mobile come panacea dei mali che affliggono il sistema italiano di telecomunicazioni?

Sicuramente no, perché il problema è a monte, nelle normative lacunose e poco lungimiranti o nella gestione poco efficiente delle bande. Ma è indubbio che le tecnologie Radio saranno uno strumento molto utile nel portare la banda larga a tutti nel paese e nel fornire anche la banda ultra larga. Giulio Maselli di Vodafone ha fatto presente nel suo intervento che oltre alla fibra ottica: “… Tramite le tecnologie Radio è possibile passare anche ai servizi HSPA e LTE, con piattaforme multitecnologiche  in grado di ottimizzare i costi di gestione e aumentare notevolmente il grado di qualità dei servizi. Specialmente la LTE è in grado di generare economie di scala, con grande vantaggio per l’industria, ma tutto andrebbe sprecato se alle opportunità tecnologiche non si affiancasse un deciso processo di liberalizzazione e assegnazione delle frequenze, anche con una nuova analisi di fattibilità sull’utilizzo della banda UHF“.

 

Tra le diverse alternative tecnologiche introdotte dalle piattaforme Radio c’è sicuramente il WiMAX, di cui Aria è in Italia uno dei fornitori più importanti. Alessandro Stagni ha spiegato i vantaggi di tale tecnologia, partendo da alcune considerazioni: ” …Non esistono delle tecnologie che più di altre sono adatte alla riduzione del digital divide, perché molto dipende dal livello di divisione digitale e dalle caratteristiche del luogo e della popolazione da coprire. La vera dicotomia, semmai, è tra reti fisse e reti wireless. Le prime sono senza futuro ormai, mentre per le seconde si sta aprendo uno scenario interessante, ricco di prospettive, in cui i servizi mobili saranno utilizzati praticamente da tutti. Intel entro il prossimo anno lancerà i primi laptop con WiMAX embedded. Le stesse NGN passeranno per il wireless, con la possibilità di moltiplicare l’uso delle picocelle e ottimizzando i costi infrastrutturali, ma è ovvio che c’è bisogno di una gestione più efficiente dello spettro“.

 

Sullo spettro come risorsa scarsa o meno, è intervenuta Laura Rovizzi di Open Gate Italia, società specializzata in attività di public affairs, regolamentazione e comunicazione strategica, che non crede all’idea di un volume di frequenze troppo esiguo, quanto semmai a una eccessiva frammentazione dello spettro e una sua cattiva gestione: “…Ragionando sulla parte di spettro che allo stato attuale è utilizzabile, non c’è dubbio sull’enorme potenziale che tali risorse esprimono in termini di riduzione dei costi, di capacità di copertura, di economie di scala e per tutte le applicazioni wireless possibili“. “Sul come sono state assegnate le frequenze poi – ha continuato la Rovizzi – bisogna sottolineare che non c’è stata molta trasparenza, ne un ampio dibattito, con un solo Piano frequenze nazionale, il PNRF, che ha deciso di assegnare tutte le frequenze da 200Mhz a 1Ghz per la Televisione Digitale Terrestre, assicurando un guadagno di circa 13 miliardi di euro provenienti dall’UMTS e di 136 milioni di euro dall’assegnazione delle licenze WiMAX. In tutto ci sono a disposizione 448 Mhz di banda, senza lasciare spazio a tecnologie diverse dalla radiodiffusione digitale. In Italia non c’è Digital Dividend e questo allontana il nostro mercato dalle tanto desiderate economie di scala“.

 

Un quadro, quello presentato da Open Gate Italia, che apre a molte considerazioni e soprattutto a riflessioni sui limiti delle nostre politiche regolatorie, sul piano nazionale frequenze e sul ruolo degli operatori nelle scelte finali. Dubbi che rimangono irrisolti, per certi versi, anche nelle conclusioni di Francesco Troisi del Ministero dello Sviluppo Economico, Dipartimento Comunicazioni, il quale si pone sostanzialmente sulle stesse posizioni della Rovizzi, in termini di frequenze e loro gestione: “… Come si fa a dire che le frequenze sono scarse? Bisogna prima di tutto contestualizzare. In Italia, ad esempio, più che poche, le frequenze sono gestite in maniera ancora rigida, basta guardare a come è stato affrontato il Digital Dividend, praticamente tutto sbilanciato sulla TDT, non lasciando spazio ad altre tecnologie dalle caratteristiche magari più adatte alla geografia e alle esigenze del nostro paese“. “Per affrontare le sempre diverse sfide portate dal digital divide – ha affermato Troisi – l’SDR potrebbe invece rivelarsi una tecnologia fondamentale, grazie alla possibilità di affiancarvi il mix fisso-mobile e la tecnologia LTE, con tutte le proprietà gestionali riconosciutegli e così tanto importanti per l’industria“.

Key4Biz

Quotidiano online sulla digital economy e la cultura del futuro

Direttore: Luigi Garofalo

© 2002-2024 - Registrazione n. 121/2002. Tribunale di Lamezia Terme - ROC n. 26714 del 5 ottobre 2016

Editore Supercom - P. Iva 02681090425

Alcune delle foto presenti su Key4biz.it potrebbero essere state prese da Internet e quindi valutate di pubblico dominio. Se i soggetti o gli autori avessero qualcosa in contrario alla pubblicazione, lo possono segnalare alla redazione inviando una email a redazione@key4biz.it che provvederà prontamente alla rimozione delle immagini utilizzate.

Netalia