Segnali cerebrali tradotti in parole

pubblicato in: AltreViste 0

Segnali cerebrali tradotti in parole

29 gennaio 2019

Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è
riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato
sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici (red)

da lescienze.it/mente-e-cervello

Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano
schemi di attivazione specifici. Dopo decenni di ricerche, i neuroscienziati sono riusciti a
registrare e decodificare questi schemi. E l’ultimo risultato è di un gruppo di neuroingegneri della
Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.

Descritto in un articolo sulla rivista Scientific Reports, il sistema si basa su un algoritmo
chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.

Il sistema è in grado di emettere una voce sintetizzata dopo un’opportuna fase di addestramento con registrazioni di persone che parlano.

In questo caso, l’addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti
periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di
ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.

Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha
prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta
a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d’intelligenza
artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l’accuratezza
della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.

“Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi,
un valore decisamente migliore rispetto a quelli ottenuti in ogni precedente ricerca”, ha
sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato
particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su
tecnologie differenti. “La sensibilità del vocoder e la potenza delle reti neurali riproducevano i
suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza”.

Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di
ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus.

“La voce ci consente di comunicare con i nostri amici, con la famiglia e con il mondo che ci
circonda: perderla a causa di lesioni o malattie è devastante”, ha concluso Mesgarani. “Noi abbiamo
dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore”.

https://www.nature.com/articles/s41598-018-37359-z

0 0 vote
Voto Articolo
Sottoscrivi Notifiche
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments