11° Seminario Bordoni: dal multimediale all’interattivo, ecco come cambia la qualità del servizio audio-video nell’era dei media digitali  

di Flavio Fabbri |

Italia


New Media

La diffusione delle piattaforme digitali e l’impiego delle tecnologie più avanzate per la produzione e la diffusione di contenuti audiovisivi, pongono la necessità di nuovi standard di codifica per ottenere livelli di qualità del servizio (QoS) tali da soddisfare le esigenze del pubblico. Le aspettative degli utenti negli ultimi anni sono aumentate e gli acquisti crescenti di televisori di ultima generazione testimoniano l’attenzione del consumatore al mercato del digitale: DTT, trasmissioni via cavo, via satellite, fino alle più recenti trasmissioni su rete Internet (IPTV) e radiomobile (Mobile Tv).

 

L’ XI Seminario Bordoni, tenutosi a Roma lo scorso 4 novembre presso la Sala delle Conferenze di Piazza Montecitorio e intitolato “Le nuove frontiere della qualità nei media digitali“, ha affrontato le tematiche relative alla qualità delle trasmissioni, concentrando l’attenzione sui processi di codifica delle immagini, di compressione dei dati e degli standard relativi. Un nuovo incontro all’interno del ciclo dei Seminari Bordoni, organizzato dalla Fondazione Ugo Bordoni con il contributo tecnico organizzativo dell’ISIMM (Istituto per lo studio dell’innovazione nei Media e per la Multimedialità ), che analizza lo sviluppo attuale delle nuove tecniche di compressione e dei nuovi standard di codifica, tendenti alla massima riduzione del bit-rate necessario per trasferire il materiale audiovisivo a un determinato livello di qualità percettiva.

 

Obiettivo del dibattito che ne è nato è stato evidenziare un punto fondamentale nella ricerca di equilibri tra il crescente volume di traffico dei contenuti audiovisivi, le risorse di memoria e di rete e il soddisfacimento dei requisiti dell’utenza. L’attività della Fondazione Ugo Bordoni è molto intensa sul panorama dei media e delle piattaforme digitali. Il suo impegno nel settore dimostra la volontà concreta di contribuire allo studio dei nuovi processi in atto, come nel caso dello switch-off sardo, con un ruolo di assoluto rilievo al fianco delle istituzioni. Le parole di apertura di Mario Frullone, direttore della ricerca FUB, spiegano proprio tale vocazione della Fondazione tutta rivolta verso un livello di comunicazione costante a supporto del ministero della Comunicazione e tesa ad informare il cittadino sui grandi cambiamenti in atto a tutti i livelli: “…Nuovi scenari che il digitale sta disegnando sul tutto il territorio e che vedono il consumatore e gli operatori sul campo, attori di primo piano nel profondo processo di trasformazione che ci riguarda così da vicino. Gli stessi processi di codifica che conosciamo lasceranno spazio a nuovi tecniche di elaborazione e codifica delle immagini, perché l’innovazione è il fattore chiave dello sviluppo e del cambiamento“.

 

Speaker d’eccezione del Seminario è stato Touradj Ebrahimi, professore presso la Ecole Polytechnique Fédérale de Lausanne (EPFL) e direttore del gruppo Multimedia Signal Processing. Massimo esperto nel campo della elaborazione e codifica di immagini fisse, in movimento e 3D, il professor Ebrahimi ha lavorato per i laboratori di ricerca della Sony a Tokyo e per i Laboratori della AT&T Bell, firmando le più prestigiose riviste scientifiche a livello mondiale. Nel suo intervento ha focalizzato alcuni aspetti delle tecniche di codifica, soffermandosi sui concetti di standardizzazione e sulle metriche di qualità. “…Ci troviamo di fronte a un cambiamento tecnologico di portata storica – ha affermato Ebrahimi – i cui risvolti, di natura anche politico-economica e sociale, coinvolgeranno il globo intero nel giro di pochi anni. Tre sono gli aspetti chiave per comprendere i fenomeni in atto: nuove tecniche di codifica, di standardizzazione e di gestione delle metriche di qualità. I contenuti su cui si agisce, audio e video, costituiscono il flusso dei dati del multimediale odierno, ovvero il segno chiaro di una rivoluzione tecnologica in atto e ben lungi dall’aver mostrato tutti i risultati. Le sue proprietà più evidenti sono: facilità di manipolazione dei contenuti stessi, potenziamento della capacità di fare ricerca, nel trasmettere i dati, nel riprodurli e nel contenimento dei costi. Gordon Moore predisse in tempi non sospetti che molto presto si sarebbe ottenuta una crescita di transistor su chip ti tipo esponenziale, raddoppiando ogni 18 mesi. Di fatto è ciò che è accaduto negli ultimi 45 anni ed è ciò che accadrà nei prossimi 30. La stessa legge trova incredibile conferma anche nei media digitali, nella crescita della banda larga e nell’aumento del flusso dei dati disponibili, ovvero dei contenuti. Nel prossimo futuro, secondo molti esperti, dal raddoppiamento dei dati si passerà nello stesso periodo di riferimento alla loro quadruplicazione”. “I media – ha continuato nel suo intervento Ebrahimi – sono sempre più accessibili, permettono sempre più applicazioni e presentano sempre nuove sfide, tra cui: sicurezza, privacy, copyright. La quantità dei contenuti trasmessi dalla rete è tale che l’esigenza di una loro compressione aumenta giorno dopo giorno. Un processo fondamentale, fanno notare da più parti, perché tali algoritmi, sempre più complessi, permettono al flusso di muoversi in avanti e di alimentare la rete utilizzando tutte le piattaforme in uso. Ecco quindi che emerge una nuova esigenza, che prende il nome di standardizzazione, cioè di condivisione di tecnologia e di regole di funzionamento a livello internazionale, che garantiscano qualità, protezione dei dati e sicurezza dei media. Possiamo inoltre pensare all’era del digitale come ad un orizzonte diviso in cinque fasi temporali. La prima fase, detta ‘Tutto digitale’, ha riguardato la totalità delle piattaforme di fruizione: musica, radio, cinema, televisione, telefono fisso e mobile, video, ecc. Un momento anche caratterizzato dal dilagare degli acronimi: DAB(Digital Audio Broadcasting), DVB (Digital Video Broadcasting), ISDN (Integrated Services Digital Network), GSM (Global System for Mobile communications), UMTS (Universal Mobile Telecommunications System), ecc. Praticamente si è assistito alla digitalizzazione del mondo analogico. Nella seconda fase, detta del ‘Multimediale’, si è assistito all’acquisizione della realtà da parte dei media digitali, in forme di riproduzione integrale, di missaggio tra virtuale e reale (Mixed reality) e di reinvenzione della realtà attraverso il virtuale (Virtual reality). Oggi sono queste due realtà ad emergere: la Mixed reality, in cui la realtà fisica è invasa da oggetti virtuali, e la Virtual rality, tipo Second life. La gran parte dei contenuti trasmessi dai New media e i Reach media sono costituiti da produzioni di Mixed reality. La terza fase, detta dell’Interfaccia, si concentra sullo sviluppo di interfacce evolute in grado di semplificare la comunicazione uomo-macchina, integrando tutti i livelli della comunicazione scritta, verbale e corporale. La quarta fase, dell’Interazione avanzata, si caratterizza per la multimodalità sensoriale, ovvero la comunicazione verticale dei cinque sensi: olfatto, tatto, gusto, udito, vista. Soprattutto per i primi tre si assisterà alla nascita di nuovi prodotti e di una nuova dimensione del digitale, più completa e interattiva. Il passaggio tra la seconda e la terza fase è individuabile proprio nel biennio 2008-2009. La quinta fase, invece, l’abbiamo tenuta ai margini, perché più legata alla ricerca avanzata e al mondo della letteratura scientifica. L’abbiamo chiamata della Simbiosi, cioè della fusione uomo-macchina immaginata in tanti racconti e film, ma concretamente studiata da discipline scientifiche, come per gli impianti neurali di chip al silicio e al carbonio che interagiscono con i neuroni stimolando funzioni uditive e visive“.

 

Anche per il pensiero stesso – ha continuato Ebrahimi- ci sono delle applicazioni specifiche come quelle offerte dalle Brain computer interface, che in futuro potrebbero avere grandi utilizzi negli studi delle dinamiche motorie e percettive. Alla base di questi processi storici e tecnologici ci sono gli sviluppi degli standard, cioè di quelle convenzioni internazionali che ci permettono di condividere comunicazioni e trasmissioni dati, livelli di interoperabilità che vengono decisi da qualifiche ISO/IEC o ITU-T e che ci permettono di implementare la rete globale. Accordi difficili e complessi che molto spesso non riescono a stare al passo con la velocità dell’innovazione tecnologica, anche perché ad ogni standard è collegata la tutela del diritto di proprietà e una nutrita letteratura giuridica. Altra caratteristica fondamentale sono i processi di compressione legati ai New media e ai Reach media, perché la banda è in continua crescita e così la necessità di efficienza di tutte le sue parti. Gli algoritmi di compressione variano a seconda delle piattaforme tecnologiche, quindi abbiamo l’approccio MPEG o anche dell’H.26x, accompagnati dagli standard di codifica che dal 1988 sono stati JPEG, H.201, MPEG-1, RH.262-263, MPEG-4, ecc. Ogni quattro o cinque anni la velocità di compressione raddoppia e per affrontare il tema della distribuzione video sempre crescente serve una progressiva flessibilità dei sistemi di distribuzione. Una possibilità può essere quella del principio di scalabilità offerta dallo stream codificato, oppure la codifica H.264 o 265, conosciuta anche come Scalable Video Coding. Un’altra possibilità è data dai sistemi video a cui viene aggiunto il 3D e che vengono supportati da tecnologia Multi View Coding (MVC) con un risparmio di bitstream del 50%. Parlare di QoS significa parlare di Quality of Experience, cioè di ambienti sensoriali in cui l’utente fruisce di contenuti digitali ad alta fedeltà inseriti in flussi di dati sempre più veloci che necessitano di strumenti sempre più sofisticati e innovativi, ma soprattutto multidimensionali e multisensoriali. Ecco perché si parla tanto di interfacce e di interfacce emotive, perchè i nuovi linguaggi da codificare sono quelli che permetteranno alle macchine di comunicare con l’uomo e viceversa“.

 

Quando si parla di contenuti audio-video, si intendono generalmente musica e video di diverso tipo, cioè tantissime immagini in cui i due livelli sensoriali si miscelano. La loro classificazione comporta la gestione di archivi molto vasti, in cui classificare, ordinare, gestire e recuperare quando serve, mentre gli strumenti di cui si fa uso in questi casi sono chiamati dalla ricerca scientifica: tecnologie semantiche. Nell’intervento successivo a quello di Ebrahimi, la dottoressa Licia Capodiferro , responsabile del settore elaborazioni digitali audio video della FUB, ha mostrato proprio in che modo la ricerca si è impegnata in tale ambito: “…La qualità di un video e di un’immagine si raggiunge passaggio dopo passaggio, codifica dopo codifica. Si tratta di diversi stadi di codifica, ognuno dei quali lascia un segnale di disturbo e quindi una cattiva risoluzione. Un disturbo che potremmo definire come perdita di dati dovuta alla stratificazione delle codifiche, a cui contribuiscono anche le condizioni ambientali e la capacità stessa a livello cognitivo e percettivo dell’utente finale. Spesso, infatti, nei nostri laboratori, l’utente viene chiamato a valutare la qualità di un contenuto video, proprio come elemento di comparazione con le tecniche di valutazione automatiche standard. Le valutazioni possono essere soggettive e oggettive, le prime vengono elaborate con l’aiuto di enormi database di sostegno ai calcoli di valutazione, mentre le seconde servono a calcolare la bontà delle prime. Collaboriamo inoltre a diversi progetti, tra cui quello con la Rai , in collaborazione anche con La Sapienza , in ambienti di alta qualità, con metriche oggettive e sistemi di modellatura elettronica

 

Durante la tavola rotonda pomeridiana, dal titolo “La qualità audio-video nei media digitali“, di cui Mario Frullone è stato moderatore e coordinatore degli interventi, esperti provenienti da vari settori istituzionali e industriali e dal mondo accademico hanno approfondito il problema della qualità nell’intrattenimento audiovisivo e l’impatto delle nuove tecnologie sui contenuti e sulla qualità di fruizione. Il primo ha prendere la parola è stato Giovanni Jacovitti, professore all’Università La Sapienza , che ha centrato la sua presentazione sulla qualità tecnologica e dei contenuti: “… Con l’introduzione delle nuove tecnologie Ultra High Definition TV (UHDTV) sono diversi gli interventi tecnici apportati, sia nella dimensione dello schermo con l’aumento dell’ampiezza di visuale, che nell’acquisizione dell’audio. In questo modo l’orizzonte percettivo si avvicina alla massima ampiezza ed è quindi in grado di restituire una realtà sensoriale più completa: colore, prospettiva, contrasto, profondità, 3D, ecc. Quando si parla di misura della qualità si parte sempre dalla nozione analogica di segnale in uscita, che deve arrivare il più possibile uguale a quello trasmesso, le uniche interferenze erano individuate nel rumore e nella distorsione, peraltro identificabili e riducibili. Su piattaforma digitale, le trasmissioni sono numeriche e quindi non sottoponibili a deterioramento del segnale, semmai sono soggette a perdita di dati dovuta alle continue codifiche legate al processo di trasmissione e alle caratteristiche fisiche del canale, come ad esempio l’ampiezza. Tale problema, comunque, è misurabile nei passaggi tra encoder e decoder, tra i processi di codifica e decodifica“. Per l’Istituto Superiore delle Comunicazioni è intervenuta Rita Forsi, che ha illustrato le tecniche di valutazione adottate dall’Istituto: “… Gli studi mandati avanti negli ultimi venti anni ci hanno portato a valutare l’aspetto della percezione umana come fondamentale nel giudizio finale della qualità, sia soggettiva che oggettiva. Il godimento sensoriale dell’utente va ottimizzato con il supporto di servizi e prodotti che ne stimolino la User Experience. Nei laboratori dell’ISCOM ci siamo inoltre convinti a dare molta più attenzione all’addestramento dei valutatori che al solo campione di riferimento, concentrandosi sui processi di training, sulla conoscenza del questionario da sottoporre al campione e sulle tecniche di somministrazione dello stesso“.  Parlando dell’importanza della qualità nei servizi, Luigi Rocchi della Rai, ha sostenuto il bisogno di trovare una comune intesa tra tutti gli operatori del settore, compresi broadcaster, regolatori, installatori e consumatori finali: “… La Rai ha digitalizzato le sue trasmissioni su tutte le piattaforme, IPTV, Satellite, Mobile Tv, DUB-T, DAB-DMB-DRM, HDTV e 3D. Il problema grosso oggi è che la domanda di alta definizione è nettamente superiore all’offerta. Basta pensare che sono più di 8 milioni i televisori a schermo piatto già acquistati dalle famiglie italiane a cui non è erogata un’adeguata programmazione. Il satellite ha completato la sua offerta in tutta Europa con 201 canali in 16:9, 124 in HDTV e 297 in dolby Digital. La Rai si è molto impegnata sull’SHV e sugli standard di braodcasting correnti, con il raggiungimento di una compressione del segnale a 140 mbps. Collaboriamo allo sviluppo degli standard T2 e S2, che rispettivamente ottimizzano le capacità di trasmissione del 50% e del 30%. Noi crediamo che l’ammodernamento dei mercati e del servizio pubblico siano elementi strategici indispensabili non solo per l’azienda, ma per tutto il Sistema Paese“.

 

Sulla scia del collega della Rai, ha parlato Marco Pellegrinato di Mediaset, per il quale è sulla qualità che si gioca la competizione futura tra i player del mercato dei media: “… Il digitale ci assicura un livello di qualità nei servizi davvero alto. L’unica sua vulnerabilità sta nell’estrema malleabilità dei dati, nella loro facilità di manipolazione. Sono i codificatori a trasformare i pacchetti dati ad ogni slot, a cui corrispondono un certo numero di canali e un certo livello di qualità. Analizzando il territorio italiano vediamo bene che ancora il 90% dei televisori e del segnale trasmesso sono in analogico, mentre il digitale comincia solo ora a diffondersi e già si parla di SHDTV, Super Ultra High Definition TV . Nel breve periodo la domanda di servizi digitali di qualità aumenterà necessariamente e il broadcaster dovrà adeguarsi anche cercando di migliorare la QoS , vulnerabile proprio nel passaggio obbligatorio per le decine di encoder di un’emittente. In ogni passaggio di codifica c’è perdita di dati. Probabilmente ci sarà bisogno di diminuire gli encoder e cercare di lavorare in real time, grazie a tecnologie quali il mix-PEG che, però, ancora sono lontane dal loro utilizzo a livello industriale“. Di qualità dell’esperienza ha parlato anche Alberto Marinelli dell’Università La Sapienza di Roma: “… Sulla qualità dell’esperienza c’è ancora molto da lavorare. Quando parliamo di qualità bisogna ricordare che ci si riferisce a un valore di relazione tra dimensione soggettiva e oggettiva dello spettatore, un modello di eccellenza/qualità individuato nel mix di customer satisfaction, capacità d’innovare i prodotti e di raggiungere i risultati economici prefissati. Ne deriva che l’utenza è un valore fondamentale. Ad esempio, nel progetto sperimentale ‘T-Informo’ sulla televisione digitale terrestre realizzato dal Comune di Roma in collaborazione con Provincia di Roma, Regione Lazio e Università La Sapienza , si sono evidenziate due prospettive di valutazione: qualità del servizio e dell’uso. La globalità quindi degli aspetti di un servizio e delle sue capacità di soddisfare un bisogno. Il metodo della Task analisys si basa su criteri di efficienza, produttività, sicurezza e soddisfazione. Una serie di operazioni di valutazione che rilevano tempi, codifica, segnale, affaticamento, percezione, gradevolezza, ecc. Nuovi processi di valutazione della QoS in cui rilevare anche il grado comunicazione pubblica e di autorevolezza, l’impatto sulla dieta mediale e sugli atteggiamenti, il rapporto tra le aspettative dell’utente e i suoi giudizi finali“.

 

Partendo dal recente switch-off in Sardegna e i primi problemi rilevati nel nuovo canale digitale Rai4, Francesco De Domenico di RAI WAY, ha affermato che: “…Dopo la paura dei primi giorni, con uno share che non superava il 20%, invece dei soliti 25-27%, ecco che alla prima programmazione di qualità che abbiamo offerto, abbiamo immediatamente potuto tirare un respiro di sollievo, con un bel 30% di audience. Questo perché un contenuto di qualità, come il Commissario Montalbano, ha subito incontrato i criteri di qualità che l’utenza si aspettava dalla Rai, premiandola. Un italiano tiene accesa la tv per una media di 4,3 ore al giorno, contro le 6,3 degli americani. Come accaduto negli USA, è stata la competizione tra operatori e piattaforme a cambiare l’offerta in meglio, aumentandone la qualità dei contenuti e della trasmissione. Ora negli USA anche il PC è acceso quasi 4 ore al giorno. La digitalizzazione della piattaforma televisiva, insieme alle altre tecnologie di trasmissione, porterà dei grandi risultati e incontrerà anche il favore del pubblico. L’unico media che ancora soffre delle limitazioni analogiche preesistenti è la radio in FM, una piattaforma ascoltatissima e seguitissima dagli italiani, soprattutto in movimento. Il digitale si paga e il broadcaster è costretto quindi a investire o sul servizio o sui programmi e di conseguenza sui contenuti. Dopo la riduzione delle frequenze e l’aumento di canali che ne è seguito, raccogliere tutto l’audience delle trasmissioni analogiche e trasportarlo su piattaforma digitale significa affrontare uno sforzo in termini di tecnologie e risorse di diverso genere davvero notevole. La scommessa che abbiamo di fronte è riuscire a fare questo e cercare di far congiungere la qualità con la quantità“.

 

A chiusura della tavola rotonda pomeridiana, Frullone ha chiamato per le conclusioni di questo XI Semiario Bordoni Francesco Troisi del Dipartimento Comunicazioni del Ministero per lo Sviluppo Economico, il quale ha sottolineato la grande importanza storica offerta dallo Switch-off appena iniziato in Sardegna: “… Bisogna sostenere i processi di migrazione dall’analogico al digitale in cui l’utenza televisiva italiana è oggi coinvolta. È un momento importantissimo, in cui anche gli stessi servizi di trasmissione e i relativi contenuti veicolati devono poter sostenere la richiesta di qualità che proviene dall’audience. Quasi tutte le piattaforme di comunicazione sono ormai coinvolte nei processi di digitalizzazione, tranne una: la radio. Uno strumento che ancora si mostra seguitissimo, con un ascolto medio giornaliero di 3 ore. Questione di tempo, ma siamo sicuri che anche questo media, uno dei più antichi e pur sempre popolare mezzo di comunicazione, troverà la sua strada verso la digitalizzazione. Ciò che conta, in questa delicata fase storica, è rimanere agganciati al mercato e al motore dello sviluppo economico globale, che solo l’innovazione tecnologica rende possibile“. Nel salutare il numerosissimo pubblico presente in sala, infine, Mario Frullone ha ricordato il prossimo appuntamento del ciclo dei Seminari Bordoni del 18 novembre prossimo, dal titolo: “L’identità digitale: tecnologie e sfide“.

Vedi anche le slide di seguito:

New coding techniques, standardisation, and quality metrics“, di Touradj Ebrahimi

Il ruolo dell’ISCTI nella qualità dei media digitali“, di Rita Forsi

Audio video signal processing“, di Licia Capodiferro

Le qualità che si vede“, di Luigi Rocchi

Alla ricerca della qualità dell’esperienza. T-Informo e le esperienze sulla Tv digitale interattiva“, di Alberto Marinelli

 

Key4Biz

Quotidiano online sulla digital economy e la cultura del futuro

Direttore: Luigi Garofalo

© 2002-2024 - Registrazione n. 121/2002. Tribunale di Lamezia Terme - ROC n. 26714 del 5 ottobre 2016

Editore Supercom - P. Iva 02681090425

Alcune delle foto presenti su Key4biz.it potrebbero essere state prese da Internet e quindi valutate di pubblico dominio. Se i soggetti o gli autori avessero qualcosa in contrario alla pubblicazione, lo possono segnalare alla redazione inviando una email a redazione@key4biz.it che provvederà prontamente alla rimozione delle immagini utilizzate.

Netalia