L’accesso mobile a Internet: successi e criticità nel contesto italiano

di Cinzia Guadagnuolo |

Una pluralità di voci e orientamenti, nel corso del seminario di studi dell’ISIMM, fa il punto su potenzialità, risorse, quadro regolamentare e modelli di acquisizione delle frequenze.

Italia


Internet mobile

L’Italia è ai primi posti per l’accesso  mobile alla rete Internet. I consumi accelerano l’offerta di nuovi servizi e di terminali adeguati. Tutto ciò è fattore di sviluppo, ma pone alcune criticità soprattutto per quanto riguarda la disponibilità di risorse frequenziali, le potenziali interferenze con altri servizi, il rapporto con gli utenti.

Queste criticità sono state affrontate stamani nel corso del seminario di studi ISIMM “L’accesso mobile a Internet“, che si è tenuto a Roma, nella Sala Minghetti, Monte dei Paschi di Siena. Come ha spiegato Vincenzo Zeno-Zencovich, dell’Università Roma Tre, nei lavori del workshop si è cercato di mettere a confronto le diverse voci, nell’intento di offrire utili orientamenti alle istituzioni che sono preposte alle complesse procedure di distribuzione del “dividendo esterno” derivante dal pieno passaggio alla televisione digitale terrestre. Zeno-Zencovich, nell’apertura del seminario, ha richiamato i temi principali sul tavolo: la sostenibilità della rete e i costi di accesso e dei terminali; il tema della qualità e ampiezza dei servizi che gli utenti consumano in modalità fissa e di cui ora chiedono l’accesso mobile (pensiamo alle operazioni bancarie online o alla biglietteria ferroviaria); la tutela contrattuale e la tutela degli utenti, i quali esigono determinati servizi e sono disposti a pagare purché siano sicuri che ciò che si paga corrisponda al prezzo giusto; le esigenze di qualità di servizio;il tema del dividendo esterno e del pagamento delle frequenze; infine, quindi, il tema della neutralità della Rete, che secondo Zeno-Zencovich è “una etichetta dietro la quale si nascondono molte cose non del tutto chiare“.

 

Sulle potenzialità dell’accesso mobile sono intervenuti, nel corso del seminario, Guido Giacomo Ponte, di Telecom Italia, e Valerio Zingarelli, di TS&C.

Dei modelli economici dell’accesso mobile si è occupato Guido Giacomo Ponte, di Telecom Italia. “Sono molto contento che se ne parli oggi – ha esordito Ponte – perché negli ultimi periodi i dibattiti pubblici si sono concentrati soprattutto sull’accesso fisso. Il mondo sta cambiando per quanto riguarda la piattaforma mobile e l’evoluzione nel mercato arriverà soprattutto da lì. Su questo manca una riflessione adeguata”.

Per quanto riguarda l’accesso mobile, Ponte ha sottolineato come il mercato italiano primeggi sia a livello europeo che a livello internazionale. Si tratta di un mercato competitivo sotto quattro aspetti: innovazione tecnologica, ampia diffusione dei servizi, domanda avanzata e forte pressione sui prezzi. I dati che Ponte ha analizzato derivano dal rapporto OFCOM del 2010. In Italia i prezzi dell’accesso mobile son diminuiti del 24% tra il 2009 e 2010. Per quanto riguarda l’innovazione tecnologia, come reti siamo tra i primi in Europa, infatti il 95% del territorio italiano è coperto nonostante la particolare conformazione orografica. Siamo tra i primi anche come velocità di accesso: è del 152% la penetrazione di internet mobile nella popolazione (in UK e Germania è 130%). Infine, il 26% degli italiani ha uno smartphone (penetrazione più alta in Ue). Il 66% degli utenti internet italiani utilizza i social network (negli USA è il 64%).

Quali sono i fattori di crescita del mercato? Sicuramente, secondo Ponte, la rapida diffusione di nuovi devices internet-enabled, un’ampia offerta di applicazioni digitali accessibili in mobilità, lo sviluppo di nuovi servizi che spingono i clienti ad essere sempre connessi.

Infine, Guido Giacomo Ponte ha analizzato l’ecosistema del mercato mobile, che presenta oggi un equilibrio instabile in larga parte influenzato dalla capacità di pressione degli ‘Over the Top’ (OTT). Sull’altro piatto della bilancia pendono i punti di forza delle telcos, ovvero “la presenza radicata sul territorio, la garanzia e l’affidabilità, la cura del cliente, i servizi complementari“. I punti di forza degli OTT, al contrario, sono: scala globale, gratuità, time to market, regole di privacy meno stringenti.

Vediamo dunque, ha evidenziato Ponte, che “tutti gli attori cercano di aggredire lo ‘spazio vitale’ degli altri operatori per conquistare gli spazi del mercato nei diversi segmenti dell’ecosistema“. È evidente nelle strategie dei costruttori di hardware e device (esempio Nokia, Samsung, Apple), nei telecoms operators, nei costruttori di software e services (Google, Youtube, Skype, Apple, Microsoft), nei Social Networks.

Dunque, ha concluso Ponte, “siamo in presenza di un mercato molto dinamico e complicato da comprendere. Sicuramente gli OTT hanno dei vantaggi. Ma è tutto vero? C’è infatti uno spostamento dei servizi: anche nel mobile la frontiera futura è quella dei servizi accessibili ‘in the cloud’ e non più residenti nei terminali“. Il mobile cloud services, secondo Ponte, potranno modificare i rapporti di forza nell’ecosistema mobile e rafforzare il ruolo degli operatori di rete.

 

A parlare più specificatamente dei servizi offerti dal mobile è stato Valerio Zingarelli, di TS&C. “Gli smartphone consumano 5 volte la capacità di rete rispetto agli utenti tradizionali. Il numero di smartphone passerà da 500 milioni a 2 miliardi nel 2015. Già nel 2011 è prevista la vendita di 308 milioni di smartphone“. A fronte di ciò, la reazione dei principali otto operatori, come ha spiegato Zingarelli, è stata la costituzione di WAC (Wholesale Application Community): 12mila applicazioni e widgets e l’accordo con 5 costruttori telefonici.

Ma quali sono i servizi significativi per i clienti? E quanto questi servizi consumano la larghezza di banda di reti disponibili? Il video streaming ha avuto il 92% di aumento di consumo della banda della rete, seguono il voip o istant messaging che hanno avuto l’84% di crescita, poi il web browsing, il file sharing, e infine le altre applicazioni.

Zingarelli, nel suo intervento, ha ipotizzato gli scenari possibili nel mercato, a breve termine. Per i  terminali mobili, Google è primo competitore di Apple, con versioni aggiornate di Android e Honeycomb O, grazie ai prezzi minori e all’Open Source; perciò i prezzi, secondo Zingarelli, scenderanno. Microsoft è in ritardo, ma in lotta con Sony e Nintendo sul fronte interfacce e “gestual control” per le consolle giochi. Il 2011 si prevede anche un allargamento della competizione, con diversi costruttori di Tablets, con Apple ancora dominante. “La partnership strategica tra Nokia e Microsoft è vista con scetticismo circa la competizione contro Android e iOS. Dopo il fallimento di Buzz e Wave, Google ritenterà il settore del social network su Android, sfruttando la custode base di 190 milioni di utenti regolari di Gmail?”

 

Il tema della risorse di rete è stato affrontato da Mario Frullone della Fondazione Ugo Bordoni, Guido Riva, sempre della Fub, e Paolo Tavazzini di Fastweb.

Il Direttore delle Ricerche di FUB, Mario Frullone, è intervenuto sulle frequenze utilizzabili. La necessità di oggi, visto il consumo esponenziale di Smartphone, è quella di trovare delle nuove capacità di banda, per sopperire alla crisi (“pensiamo ad alcune reti che sono collassate“, ha detto). Fino a quando, si è chiesto Frullone, la banda attuale è in grado di sopperire a queste necessità crescenti? Con la presenza di 33,6 milioni  di dispositivi, oltre la metà degli italiani è in possesso di un terminale in grado di supportare applicazioni evolute. Le SIM attivate in Italia alla fine del 2009 erano circa 88 milioni per 47,1 milioni di utenti stimati. Il peso dei servizi broadband è in aumento, ma il traffico voce e gli SMS rappresentano ancora il 70% della spesa finale complessiva degli utenti. “L’adozione massiccia di politiche di pricing innovative può contribuire in prospettiva – secondo Frullone – a mutare la distribuzione e il volume di traffico dati sulle reti“.

Per effetto della Direttiva 299/114/CE, nota anche come Direttiva Repealing, la banda a 900 MHz è stata aperta all’UMTS.  “Attualmente è in corso un piano di riorganizzazione della banda che porterà a liberare 5 MHz su tutto il territorio nazionale alla fine del 2013“. La Decisione 2009/766/CE fissa i parametri tecnici al fine di consentire la co-esistenza dei sistemi GSM e UMTS (banda a 900MHz e 1800MHz).

Le strategie per migliorare l’efficienza delle reti e aumentare la capacità sono diverse, tra cui una ottimizzazione progettuale per la gestione dei terminali e delle applicazioni all’interno della rete mobile e l’evoluzione verso sistemi ad alta efficienza spettrale.

 

Stiamo assistendo a sostanziali modifiche nelle comunicazioni mobili sia per quanto riguarda le tecnologie che le reti, secondo Guido Riva, della FUB, che nel suo intervento si è concentrato sulla qualità dell’accesso mobile. Tra le problematiche specifiche del mobile, Riva ha sottolineato l’aspetto della variabilità della risorsa radio che cambia nel tempo, perché il segnale subisce fluttuazioni e affievolimenti; inoltre ha evidenziato la problematica relativa all’accesso, in quanto la risorsa radio viene usata contemporaneamente da più utenti. “È essenziale cercare di suddividere il problema, che è complesso, in problemi di complessità minore, così da avere modalità più coerenti per affrontare le cose. Io spezzerei il problema in tre blocchi: quello che riguarda la qualità del servizio mobile,  ciò che la rete mobile è in grado di offrire all’utente; il problema del terminale dell’utente; in ultimo il problema della qualità dei servizi offerti da Internet“. Prendiamo la qualità offerta all’utente, per fare un esempio. Secondo Riva può essere molto diversa in funzione delle tecnologie (UMTS, GSM, HSPA, LTE) e bande utilizzate, in funzione della tipologia del terminale (cellulare, tablet, chiavetta), in funzione della marca e il modello del terminale, infine in funzione del sistema operativo usato (Android, iOS). Dunque, come confrontare la varietà di situazioni nel futuro? E così via si aprono tanti scenari diversificati per gli altri due aspetti, tutti molto complessi e di non facile soluzione.

 

Il compito di analizzare il rapporto tra fisso e mobile e la loro integrazione è stato assegnato a Paolo Tavazzini, della Technology Division di Fastweb. “Non è stata ancora realizzata questa integrazione – ha esordito – ma è potenzialmente realizzabile già da anni. Già dal 2000 noi avevamo in mano tutti i requisiti tecnici per realizzare la convergenza“. Cosa incide allora? “Conta molto l’aspettativa dell’utente, che si aspetta un certo tipo di qualità; l’aspettativa viene creata dalla conoscenza diffusa che ha l’utente del potenziale della tecnologia“. C’è una sottintesa domanda da parte del cliente, e dall’altro lato la tecnologia lo consente, ma allora perché al momento non esiste in Italia? Secondo Tavazzini i limiti da considerare sono: una banda mobile limitata rispetto alla rete fissa, la copertura non ottimale al chiuso, il mezzo trasmissivo è condiviso, problemi di banda al backhauling, Premium Price Mobilità come limite per la sostituzione dell’accesso fisso.  Gli operatori di rete fissa hanno pure loro problemi simili: la banda fissa non è mobile, le soluzioni wireless alternative non garantiscono diffusione e copertura, infine occorre considerare l’ottima esperienza broadband. 

 

Il tema delle istituzioni e il quadro regolamentare è stato affrontato da Federico Flaviano dell’Agcom, Mario Libertini, dell’Università di Roma La Sapienza, e da Eugenio Prosperetti, dello Studio legale Prosperetti.

 

Il ruolo dell’Autorità per le Garanzie nelle Comunicazioni nello sviluppo del mercato del mobile è stato analizzato da Federico Flaviano. “L’Agcom ha partecipato attivamente alla consultazione pubblica avviata dalla Comunità Europea nell’ambito della periodica revisione dei contenuti del servizio universale. L’autorità  si impegna per assicurare la tutela dei diritti degli utenti su tre ambiti di intervento: la trasparenza tariffaria e il controllo della spesa, l’integrità e la neutralità della rete e dei servizi, la qualità dei servizi“.

Il regolatore, secondo quanto ha dichiarato Flaviano, dovrà mediare tra l’esigenza di preservare la libertà di accesso ed utilizzo a tutti i servizi e le applicazioni disponibili, e quella di garantire l’integrità e la sicurezza delle reti, ad esempio evitando congestioni e blocchi. “Proprio su questo noi stiamo aprendo un dibattito, con una consultazione pubblica. È una delle dieci domande della delibera 40/11/CONS“.

La rete mobile necessita di nuove risorse. In attesa della messa a disposizione di queste bande radio, liberate dal passaggio al digitale terrestre (il cosiddetto dividendo digitale), le soluzioni adottate dagli operatori per salvaguardare le proprie reti sono: limitazione di applicazioni ‘bandwidth hungry’, miglioramento del ‘backhauling’, utilizzo di femtocelle.

Infine, ha concluso Flaviano, “nel mondo di internet sta progressivamente sfumando la filosofia del ‘tutto gratis’ e l’asse si sta spostando dai servizi free ai servizi freemium; si offrono delle caratteristiche di base gratuite, ma si chiede un pagamento per fruirne completamente“. Sono prospettive che cambieranno significativamente il mercato di domani.

 

Oggi è stata superata l’idea che la Rete dovesse essere una “autostrada” libera a tutti, secondo Mario Libertini, dell’Università di Roma La Sapienza, che ha sviluppato il tema della neutralità della rete e dei servizi. “Nel momento in cui la congestione si è rivelata come fatto reale – ha detto Libertini –  si è posto il problema della gestione del traffico. Oggi il tema è quello della qualità della regolazione della gestione del traffico, in primo luogo sulle reti mobili. E un punto sicuramente fermo ma da perfezionare è quello dell’obbligo di trasparenza dell’operatore nei confronti dell’utente. Si impongono regole di tipo contenutistico agli operatori che offrono accessi a internet“. Abbiamo un primo modello, adottato dalla Federal Communication Commission negli Usa nel dicembre scorso, che costituisce un disegno avente già una sua compiutezza. Un modello di regolazione interessante, che lascia uno spazio di discrezionalità amministrativa. C’è anche il Libro Bianco sui contenuti, che lascia tuttavia maglie “eccessivamente larghe“. Per questo, secondo Libertini, “occorre delineare lo spazio di autonomia in cui gli operatori potranno legittimamente muoversi e stabilire i modelli di offerta di modalità di accesso che potranno realizzare“.  
Gli OTT si sono mossi in “maniera un po’ borderline“, ma le loro azioni sono state tollerate per “la grande novità e innovazione culturale che hanno offerto al mondo“. Tuttavia, secondo Libertini, le loro articolazioni sono “opache”; su Internet, ha concluso, non è normale la gratuità, e non può essere considerata un valore da difendere nel futuro. 

 

In Italia abbiamo una tutela dell’utente più elevata dello standard europeo“, secondo Eugenio Prosperetti, dello Studio legale Prosperetti, al quale è andato il compito di relazionare, appunto, sulla tutela degli utenti. Un dato che è legato, ovviamente, ai tassi di sviluppo del mobile nel nostro Paese rispetto alla media europea. La criticità da segnalare, tuttavia, è che viene tutelato un utente tipo, cioè quello che va ad acquistare uno smartphone e potrebbe non conoscerne la potenzialità. È una tutela efficace per gli utenti che utilizzano voce/dati, alcuni dei quali non potrebbero avere necessaria esperienza.

 

I Modelli di acquisizione delle risorse frequenziali, nelle esperienze europee, sono stati analizzati da Margherita Colangelo, dell’Università Roma Tre. “Il dibattito sull’allocazione del dividendo digitale a servizi mobili è molto acceso anche a livello europeo, le autorità di regolazione nazionali si sono affidate a economisti del settore“. La Francia, in questo processo, si è distinta per essersi ritagliata un ruolo centrale.

L’Inghilterra, invece, si è distinta per i ritardi rispetto all’asta sulla banda a 800 e 2600MHz, che avverrà entro la fine del 2011; sul dividendo digitale esterno si è sviluppato un forte confronto, si è sollevato il dissenso degli operatori mobili per un presunto svantaggio proprio sugli operatori televisivi. Per quanto riguarda il caso tedesco, l’asta si è svolta tra l’aprile e il maggio dello scorso anno, ma le consultazioni hanno avuto inizio nel 2005; grazie a un forte supporto politico a livello federale e locale, non erano ammessi a partecipare soggetti associati tra loro, i partecipanti erano sottoposti a un forte controllo dell’Agenzia federale che valutava, in maniera rigorosa, una serie di caratteristiche.

La Spagna ha confermato la destinazione delle frequenze tra 790 e 862MHz entro il primo gennaio del 2015 ad altri servizi, in particolare mobili; anche qui si prevede l’assegnazione delle frequenze entro il 2011 e, ha concluso Colangelo, c’è un forte ottimismo sugli introiti.