19° Seminario Bordoni: scenari, sviluppi e possibili applicazioni della neurolinguistica in Italia

di Flavio Fabbri |

Italia


19° Seminario FUB

Una tematica sicuramente affascinante e piena di incognite quella della neuroscienza cognitiva e della produzione e percezione del linguaggio parlato, che il XIX appuntamento del ciclo dei Seminati Bordoni ha voluto affrontare e discutere con il direttore del CNS Speech Lab della Boston University, Frank H. Guenther. Un incontro, quello tenutosi a Roma il 22 settembre, organizzato dalla Fondazione Ugo Bordoni (FUB) e dal titolo quanto mai esplicativo: “Neurolinguistica: produzione e percezione del parlato e controllo senso motorio“. Argomenti difficili, a metà strada tra tecnologie dell’informazione e medicina, neuroscienze e linguistica, psicologia e antropologia culturale, affrontati nel tentativo di rappresentare un vissuto tecnologico ancora troppo spesso percepito come distante dalla società e che invece ci riguarda sempre più da vicino. Il Seminario Bordoni, con tutti i suoi ospiti, ha offerto in tal senso un inusuale specchio sul futuro prossimo delle neuroscienze, in cui la realtà ha ridotto sensibilmente le distanze dalla fantasia.

 

Tecnologie e tecniche di riproduzione del parlato e dei suoi processi neuronali rese accessibili dalla disponibilità di dispositivi elettronici e informatici di ultima generazione che, come ha spiegato in apertura di Seminario il presidente della Fondazione Ugo Bordoni Enrico Manca, consentiranno a milione di persone affette da disturbi loco-motori e del parlato di vedere finalmente superati i limiti imposti da tali disfunzioni, o almeno una loro considerevole riduzione. “Si preannuncia un era in cui il cervello riuscirà a dialogare direttamente con le macchine – ha affermato Manca – superando la dimensione fisica del nostro comunicare, del nostro parlare e del nostro muoverci nello spazio, grazie al promettente sviluppo delle neuroscienza e delle tecnologie del linguaggio che avviano la ricerca lungo sentieri fino a ieri ignoti, destinati a rivoluzionare il rapporto e la comunicazione uomo-macchina a partire dai processi neurali più profondi“.

 

Affezioni anche gravi nell’articolazione dei suoni e nella produzione del linguaggio, che l’utilizzo delle interfacce uomo-macchina o uomo-computer permetteranno di superare. La FUB ha già affrontato, in un seminario del marzo 2008 con Renato De Mori, alcuni aspetti legati alle neuroscienze e al linguaggio, andando ad approfondire l’argomento della comunicazione uomo-macchina e inserendo da tempo nei sui programmi di ricerca tali campi di studi. Un esempio ne è il Forum TAL (Trattamento Automatico della Lingua) presieduto da Andrea Paoloni, che si pone come obiettivo lo studio e la ricerca sul trattamento automatico del linguaggio utilizzando le interfacce informatiche applicate al riconoscimento del parlato e alla sua riproduzione.

 

Quali saranno le potenzialità di queste nuove tecnologie? In che modo influenzeranno la nostra vita? Domande che Sebastiano Bagnara del Comitato Scientifico FUB ha affrontato nel suo intervento più dal punto di vista storico e sociale che tecnologico: “Durante gli anni Ottanta negli Stati Uniti si sono investiti molti soldi nello studio del cervello umano e i risultati non si sono fatti attendere, come anche gli effetti indesiderati di tali ricerche“. “Oggi parliamo di neuroscienze e di interfacce informatiche per il superamento di handicap molto diffusi e socialmente penalizzanti – ha detto Bagnara – ma tali studi sono progrediti anche in altri settori prettamente economici, con il cosiddetto neuromarketing, o anche militari, ambiti che forse poco hanno a che spartire con il miglioramento delle umane sorti“. Comunicare è un bisogno primario dell’uomo che la tecnologia ci ha dato la possibilità di soddisfare moltiplicandone le potenzialità. Ciò che poi si è cercato di fare, andando oltre la dimensione propria dell’individuo, nel tentativo di pianificarne una pratica di massa dai risvolti economici o militari, sono esempi assolutamente privi di interesse scientifico e dai presupposti sociali certamente discutibili.

 

Anche Frank H. Guenther ha iniziato il suo intervento sottolineando di nuovo l’importanza degli investimenti che soprattutto negli anni Ottanta si sono riversati sugli studi del cervello umano e nello sviluppo dei processi che sottostanno il linguaggio e il parlato. Diverse realtà scientifiche e accademiche che oggi si impegnano in una nuova fase della ricerca, con l’approfondimento degli studi della neurolinguistica e della neuroscienza cognitiva, fino alla costituzione della recente neurolinguistica. Grazie a tali percorsi interdisciplinari si sono potuti nel tempo realizzare modelli in grado di riprodurre il sistema neurale che sta alla base del nostro ‘parlare’ e un esempio ne è il DIVA. “Grazie a questo modello – ha spiegato Frank H. Guenther – possiamo comprendere in che modo le aree del cervello preposte al linguaggio funzionano quando un individuo cerca di elaborare un discorso e quindi di parlare“. “Ogni volta che ci esprimiamo – ha continuato il professore di Boston – che cerchiamo di comunicare qualcosa, altro non facciamo che mettere insieme suoni e movimenti fisici, gesti e parole, fino al punto di esprimerci attraverso un sistema complesso di segni e fonemi che poi diventa linguaggio parlato“.

 

Il modello DIVA, quindi, riproduce tali dinamiche permettendo così alla macchina di apprendere, elaborare e classificare tali dati, imput e stimoli senso-motori, di modo che sia in grado successivamente di riprodurli con il minor numero di errori possibili. Grazie alle interfacce informatiche sempre più sofisticate e sviluppate è poi possibile applicare tali studi agli individui affetti da afasia, aprassia o balbuzie, con l’aggiunta delle protesi neurali di nuova generazione che ne migliorano sensibilmente i risultati. Tali modelli inoltre lavorano in ambienti sempre più tecnologici e digitalizzati, con l’ausilio di piattaforme wireless, decoder e sintetizzatori elettronici, a testimonianza di un forte coinvolgimento dell’informatica e della telematica e di una sempre maggiore interdisciplinarietà delle neuroscienze cognitive e linguistiche con diversi segmenti delle tecnologie dell’informazione e della comunicazione.

 

Anche in Italia tali studi procedono e raccolgono attorno a se consensi e contributi da diversi ambiti del sapere. Piero Cosi del CNR ha mostrato lo stato della ricerca nel nostro paese soprattutto nel campo delle interfacce, del riconoscimento della voce e delle tecniche di riproduzione del parlato: “Tanti progetti e un nuovo orizzonte per le applicazioni neuroscientifiche nell’healthcaring, come nell’animazione in 3D, nei programmi di formazione dedicati ai più piccoli o per individui affetti da disfunzioni linguistiche e dell’apprendimento“. Esempio pratico in tal senso è il progetto LUCIA, basato sulla realizzazione di ‘facce parlanti virtuali (Facial Animation Engine) ottenute da una simulazione grafica di modellizzazioni muscolari e dotate di capacità text-speech e di sviluppo visuale delle emozioni. Studi a cui le tecnologie dell’informazione e della comunicazione hanno sicuramente dato un grande apporto negli ultimi dieci anni, ha affermato Cosi, ricordando in conclusione di intervento, l’importante appuntamento dell’Internet Speech Congress nel 2011.

 

Un impegno, quello della ricerca italiana e nella fattispecie della Fondazione Ugo Bordoni, che per Andrea Paoloni della FUB deriva proprio dalla tradizione scientifica europea dei primi del XIX secolo, quando Pierre Paul Broca e Karl Wernicke hanno dato il via agli studi sul linguaggio e sui centri cerebrali da cui si origina la parola. “Il meccanismo che presiede alla produzione e alla comprensione del linguaggio parlato – ha spiegato Paoloni – non è ancora del tutto noto, perché va a coinvolgere numerosi processi cognitivi, la cui modellizzazione non è sempre facile“.  In soccorso della ricerca arrivano oggi nuovi strumenti, tecnologie sempre più specifiche e precise, in grado trasformare i processi neuronali in immagini (neuroimaging), o con l’utilizzo di analisi non invasive come l’elettro-encelografia (EEG), la magento-encelografia (MEG), le immagini funzionali a risonanza magnetica (fMRI) e la tomografia a emissioni di positroni (PET). Tutti strumenti, ci ha ricordato Paoloni nel suo intervento, finalizzati alla ‘lettura’ del cervello e alla ricerca delle aree correlate ai processi di elaborazione del parlato.

 

Nella consueta tavola rotonda dei Seminari Bordoni, moderata da Carlo Umiltà dell’Università di Padova e dedicata a “Sviluppi e applicazioni della neurolinguistica in Italia“, si è avuta poi la possibilità di scoprire come tali ricerche e i loro risultati trovino effettivo impiego e in quali ambiti. Ricercatori e specialisti di diversi campi hanno mostrato i risultati delle ricerche e discusso su come poter applicare tali modelli e tecnologie, ma con un monito: “Non ci dimentichiamo che alla base delle neuroscienze c’è sempre la neuropsicologia“. Un punto importante che Umiltà ha voluto ulteriormente ribadire: “La mente risiede nel cervello, un presupposto oggi che se ribadito sfiorerebbe la banalità, ma che duecento anni fa non era così scontato, neanche dalla scienza ufficiale“. “Ci sono voluti molti secoli – ha affermato Umiltà – prima che durante il Novecento ci si trovasse tutti d’accordo nell’affermare che la mente trova collocazione fisica nel cervello e non magari nel cuore. È da questo presupposto scientifico e culturale che ha origine lo studio del cervello, del linguaggio, del parlato e del pensiero, processi cognitivi che proprio la neuropsicologia nascente ha permesso di rendere comprensibili nel tempo e successivamente materia di studio per altre discipline“.

 

Grazie a tali percorsi di ricerca duranti decenni si è cosi arrivati a quei modelli applicativi che in un linguaggio più semplice Fabio Babiloni, dell’Università La Sapienza di Roma – Fondazione Santa Lucia, ha definito “BCI, Brain-Compueter-Interface, Intefacce uomo-macchina o cervello-computer per applicazioni reali in contesti sociali definiti“. Una grande quantità di dispositivi utilizzabili sia in un ambiente domestico, sia in strada, in cui il cervello comunica con un frigorifero, con un televisore o con il sistema di videosorveglianza della casa, solamente tramite un’interfaccia informatica avanzata. Una frontiera della ricerca che, come tiene a specificare Babiloni, permetterà in un lasso di tempo ragionevole di rimediare alle disfunzioni tipiche delle persone portatrici di handicap.

 

Altri esempi di cosa si può fare in ambito medico e sanitario sono quelli riportati da Gabriele Giovannini di Siemens, in cui sistemi prototipali denominati UHF o modelli avanzati di fMRI sono impiegati sempre più spesso nelle sale operatorie come quella dell’Ospedale Sant’Andrea di Roma: “Tecnologie che permettono di osservare come il cervello lavora o risponde agli stimoli esterni grazie a rappresentazioni in 3D di spettrografie cerebrali e all’utilizzo di modelli di neuroimaging“. Ancora soluzioni cliniche arrivano dai laboratori di ricerca della Philips, che Paolo Sessa ha mostrato attraverso il modello ‘7T (Tesla)‘: “Tecniche spettroscopiche in ambienti 3D in cui non c’è intervento dell’operatore umano, con significativa riduzione degli errori“. “La macchina, infatti, presenta un sistema interno di apprendimento degli errori – ha spiegato Sessa – che un algoritmo tridimensionale analizza progressivamente e permette di eliminare, unitamente a un sistema di visualizzazione grafica Esys in grado di acquisire le neuroimmagini e trasmetterle all’operatore per utilizzi ulteriori“. Non mancano gli elementi critici, come ha sostenuto Mirko Grimaldi dell’Università di Lecce, evidenziati anche negli studi portati avanti dal Centro di Ricerca Interdisciplinare sul Linguaggio (CRIL): ” Il rapporto tra neuroscienza e neurolinguistica passa per un approccio necessariamente interdisciplinare e comunque non mancano dei punti interrogativi su cui discutere, come ad esempio la relazione che si crea tra il livello teorico-linguistico e quello empirico della ricerca neuroscientifica, alla base delle difficoltà epistemologiche che sono rilevate nel lavoro interdisciplinare della raccolta e del confronto dati“.

 

Un Seminario Bordoni ricco di contenuti e sicuramente di stimoli, in cui si è voluto mostrare un volto diverso della scienza e della ricerca, meno frequentato dall’informazione e su cui invece ricadono le speranze di milioni di individui affetti da disfunzioni di varia natura. La tecnologia è di per se una protesi del nostro intelletto, della mente, delle nostre capacità fisiche, tale da permetterci di superare fatiche fino a pochi decenni fa inimmaginabili. “Anche la neuroscienza – ha tenuto ha sottolineare Carlo Umiltà a chiusura della tavola rotonda – si inserisce in tale solco, pur con tutti gli aspetti critici che oggi abbiamo avuto modo di sottolineare e che in futuro non mancheremo di discutere ulteriormente“. Prossimo appuntamento del ciclo dei Seminati Bordoni è infine fissato per il 20 ottobre, quando si affronterà il rapporto tra televisione e Internet, analizzandone le nuove applicazioni e i possibili sviluppi nell’era del digitale.

Key4Biz

Quotidiano online sulla digital economy e la cultura del futuro

Direttore: Luigi Garofalo

© 2002-2024 - Registrazione n. 121/2002. Tribunale di Lamezia Terme - ROC n. 26714 del 5 ottobre 2016

Editore Supercom - P. Iva 02681090425

Alcune delle foto presenti su Key4biz.it potrebbero essere state prese da Internet e quindi valutate di pubblico dominio. Se i soggetti o gli autori avessero qualcosa in contrario alla pubblicazione, lo possono segnalare alla redazione inviando una email a redazione@key4biz.it che provvederà prontamente alla rimozione delle immagini utilizzate.

Netalia