Un dispositivo che trasforma l’attività del cervello in parole

Sulle pagine di Nature un’interfaccia cervello-computer che potrebbe rivoluzionare il modo di esprimersi di chi non può.

Prima legge l’attività del cervello per estrapolare una mappa dei movimenti del sistema vocale, e poi traduce questi in parole.

n maniera del tutto spontanea, praticamente senza che ne abbiamo coscienza, quando parliamomuoviamo qualcosa come cento muscoli. Un intero sistema – dalla laringe, alla mascella, alla lingua alle labbra – si coordina per produrre i suoni che nascono nel cervello. Alcune malattie (come ictus o sclerosi laterale amiotrofica), possono compromette tutto questo, rendendo difficile se non impossibile a chi ne soffre parlare. E così esprimersi, comunicare, interagire. Esistono sistemi che in qualche misura permettono di recuperare queste abilità, sfruttando i movimenti della testa o degli occhi e interfacce cervello-computer per controllare un cursore, selezionare delle lettere e permettere così di esprimersi (cosiddetti spelling-based approaches). Ma si tratta di dispositivi lontani dal mimare il naturale flusso di un discorso. Oggi, sulle pagine di Nature, un team di ricercatori presenta i primi risultati relativi a un sistema che promette di ristabilire la capacità di parlare, in modo più fluente e naturale. L’idea arriva dal team di Edward Chang della University of California di San Francisco che è riuscito a mettere a punto un sintetizzatore vocalein grado di trasformare l’attività del cervello in parole e frasi.

I partecipanti allo studio hanno ripetuto decine di frasi ad alta voce mentre in contemporanea veniva registrata la loro attività cerebrale corrispondente, che è stata utilizzata per creare unarappresentazione dei movimenti del tratto vocale associati, grazie all’utilizzo di una rete neurale artificiale (e grazie alle informazioni provenienti da una libreria di dati simili collezionati in precedenza). Ed è stato dunque a partire dalla decodifica di questi movimenti, spiegano i ricercatori, che è stato possibile sintetizzare le frasi corrispondenti, trasformando in voce i segnali acustici estrapolati dalla lettura dell’attività cerebrale, in un processo appunto a due fasi. La caratteristica distintiva del loro decoder, puntualizzano infatti gli scienziati, è la rappresentazione articolare intermedia, che fa come da ponte tra l’attività neurale e quella acustica.

Non mancano certo tentativi e strategie per mettere insieme parole direttamente a partire dalla registrazione delle attività cerebrale (e persino le conversazioni interne), ricordano Chethan Pandarinath e Yahia Ali della Emory University e del Georgia Institute of Technology di Atlanta, in un commento al paper. L’approccio di Chang e colleghi a due fasi però, continuano i due, risponde alle osservazioni secondo cui“l’attività nelle aree del cervello collegate al parlare sono più legate ai movimenti dell’apparato vocale che ai segnali acustici prodotti mentre si parla”.

La rappresentazione acustica risultante dall’approccio di Chang e colleghi è stata abbastanza soddisfacente, come è possibile ascoltare. Tanto che alcuni se le frasi venivano fatte ascoltare ad alcuni volontari questi riuscivano a identificare e trascrivere quanto ascoltato.

CONTINUA SU GALILEONET.IT

Redazione People For Planet

Redazione People For Planet

Redazione centrale: Gabriella Canova, Simone Canova caporedattore centrale, Miriam Cesta settore Persona, Maria Cristina Dalbosco settore Società, Michela Dell’Amico settore Green

Redazione People For Planet

Redazione People For Planet

Redazione centrale: Gabriella Canova, Simone Canova caporedattore centrale, Miriam Cesta settore Persona, Maria Cristina Dalbosco settore Società, Michela Dell’Amico settore Green