Translate

Πέμπτη 31 Ιανουαρίου 2019

Segnali cerebrali tradotti in parole

Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici(red)


Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano schemi di attivazione specifici. Dopo decenni di ricerche, i neuroscienziati sono riusciti a registrare e decodificare questi schemi. E l'ultimo risultato è di un gruppo di neuroingegneri della Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.


Segnali cerebrali tradotti in parole
Science Photo Library RF / AGF
 
Descritto in un articolo sulla rivista “Scientific Reports”, il sistema si basa su un algoritmo chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.

Il sistema è in grado di emettere una voce sintetizzata dopo un'opportuna fase di addestramento con registrazioni di persone che parlano.

In questo caso, l'addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.

Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d'intelligenza artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l'accuratezza della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.

"Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi, un valore decisamente migliore rispetto
a quelli ottenuti in ogni precedente ricerca", ha sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su tecnologie differenti. "La sensibilità del vocoder e la potenza delle reti neurali riproducevano i suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza".

Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus.

"La voce ci consente di comunicare con i nostri amici, con la famiglia e con il mondo che ci circonda: perderla a causa di lesioni o malattie è devastante", ha concluso Mesgarani. "Noi abbiamo dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore".

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Αρχειοθήκη ιστολογίου

Translate