Madrid. I ricercatori dell’Università della California, San Francisco (UCSF) e dell’Università di Berkeley negli Stati Uniti hanno sviluppato un’interfaccia cervello-computer (BCI) che consente a una donna gravemente paralizzata da un ictus di conversare attraverso un avatar digitale.

Questa è la prima volta che il linguaggio e le espressioni facciali vengono sintetizzati a partire dai segnali cerebrali, hanno riferito i ricercatori sulla rivista Nature. Il sistema può anche decodificare questi segnali in testo a circa 80 parole al minuto. Si tratta di un miglioramento significativo rispetto alla tecnologia disponibile in commercio.

Edward Chan, professore di neurochirurgia presso l’UCSF che ha lavorato sulla tecnologia, nota come interfaccia cervello-computer (BCI), per più di un decennio, spera che la ricerca porti a scoperte nel prossimo futuro. Connettiti a un sistema che abilita i segnali vocali provenienti dal cervello approvati dalla Food and Drug Administration.

“Il nostro obiettivo è recuperare una forma di comunicazione arricchita che sia in realtà il modo più naturale di parlare con gli altri”, afferma Gene Robertson, ricercatore di psichiatria presso il Weill Institute for Neuroscience dell’UCSF. Chan, un illustre professore, ha aggiunto.

Questi sviluppi, ha sottolineato, ci avvicinano molto a soluzioni reali per i pazienti.

Il team di Chang aveva precedentemente dimostrato di poter decifrare i segnali cerebrali nel testo di un uomo che aveva subito un’improvvisa interruzione della circolazione cerebrale nel tronco cerebrale (ictus) molti anni fa. La ricerca attuale suggerisce qualcosa di più ambizioso. È la decodificazione dei segnali cerebrali in un linguaggio ricco, insieme ai movimenti che animano il volto di una persona durante una conversazione.

La dottoressa Chan ha impiantato 253 elettrodi sottilissimi ad angolo retto rispetto alla superficie del cervello della donna in aree che il suo team ha ritenuto importanti per il linguaggio.

banca informatica

Gli elettrodi bloccavano i segnali cerebrali che sarebbero stati inviati alla lingua, alla mascella e ai muscoli laringei, nonché al viso, se l’ictus non si fosse verificato. Un cavo collegato a una porta montata sulla testa collegava gli elettrodi a un computer.

Per diverse settimane, i partecipanti hanno lavorato con il team per addestrare gli algoritmi di intelligenza artificiale (AI) del sistema a riconoscere segnali cerebrali unici nel parlato. Per fare ciò, ha ripetuto diverse frasi del suo vocabolario di 1.024 parole più e più volte finché il computer non ha riconosciuto i modelli di attività cerebrale associati ai suoni.

Invece di addestrare l’intelligenza artificiale a riconoscere parole intere, gli esperti hanno creato sistemi in grado di decifrare le parole dai fonemi. Si tratta di subunità sonore che compongono la lingua parlata nello stesso modo in cui le lettere compongono la lingua scritta. Ad esempio, Hola contiene quattro fonemi: HH, AH e L y OW.

Usando questo metodo, un computer deve imparare solo 39 fonemi per decifrare qualsiasi parola inglese. Ciò ha migliorato la precisione del sistema e ne ha triplicato la velocità.

La precisione, la velocità e il vocabolario sono importanti. Ciò consente agli utenti nel tempo di comunicare quasi con la stessa rapidità con cui facciamo noi e di avere una conversazione più naturale e normale. Shawn Metzger, che ha sviluppato il decodificatore di testo con Alex Silva, ha dichiarato: Entrambi sono studenti laureati presso l’Università della California, Berkeley. Programma cooperativo di biotecnologia dell’UCSF.

Per creare la voce, il team ha ideato un algoritmo per sintetizzarla, utilizzando una registrazione del suo discorso al matrimonio e adattandola in modo che suoni come la voce di Ann prima del suo infortunio.

Il team ha animato gli avatar utilizzando il software sviluppato da Speech Graphics, una società che crea animazioni facciali basate sull’intelligenza artificiale, per simulare e muovere i muscoli facciali.

I ricercatori hanno sviluppato un processo di apprendimento automatico personalizzato che consente al software dell’azienda di utilizzare i segnali che il cervello di una donna invia quando cerca di parlare e di tradurli nei movimenti facciali di un avatar. Ciò fa sì che le mascelle si aprano e si chiudano, le labbra sporgono, le rughe e la lingua si muovano su e giù e movimenti facciali di gioia, tristezza e sorpresa.

Ripristiniamo le connessioni tra il cervello e il tratto vocale danneggiate dall’ictus. La prima volta che un soggetto ha parlato con questo sistema e allo stesso tempo ha mosso il volto del proprio avatar, sapevo che avrebbe avuto un grande impatto. Cairo Littlejohn e il Prof. Gopala Anumanthipalli, studenti laureati che lavorano con il Prof. Chan, hanno detto: Ha conseguito una laurea in ingegneria elettrica e informatica presso l’Università della California, Berkeley.

Un importante passo successivo per il team è creare una versione wireless che non richieda che gli utenti siano fisicamente collegati alla BCI.

David Mo ha concluso che se questa tecnologia potesse essere utilizzata per dare alle persone un maggiore controllo sui propri computer e telefoni, avrebbe un profondo impatto sull’indipendenza delle persone e sulle interazioni sociali.

Lascia un commento