Um implante cerebral que usa inteligência artificial conseguiu transformar quase simultaneamente em fala os pensamentos de uma mulher paralisada. O anúncio foi feito por pesquisadores americanos nesta segunda-feira (31).
Embora só tenha sido testado em uma pessoa até agora, o novo avanço com um implante que conecta as ondas cerebrais a um computador gerou a esperança de que outras pessoas que perderam completamente a capacidade de se comunicar possam recuperar sua voz.
A equipe de cientistas, baseada na Califórnia, havia usado anteriormente uma interface cérebro-computador (BCI, na sigla em inglês) para decodificar os pensamentos de Ann, uma mulher tetraplégica de 47 anos, e traduzi-los em fala.
No entanto, havia um atraso de oito segundos entre a geração dos pensamentos e a produção da fala lida em voz alta por um computador.
Isso significava que manter um diálogo fluido estava fora do alcance para Ann, uma professora de matemática do ensino médio, que não consegue falar desde que sofreu um AVC (acidente vascular cerebral) há 18 anos.
Mas o novo modelo do dispositivo, descrito na revista Nature Neuroscience, transformou os pensamentos de Ann em uma versão do que era a sua voz com um atraso de apenas 80 milissegundos.
"Nossa nova abordagem em tempo real transforma os sinais cerebrais em sua voz personalizada quase que imediatamente em menos de um segundo desde que ela tenta falar", disse à AFP o principal autor do estudo, Gopala Anumanchipalli, da Universidade da Califórnia, em Berkeley.
Anumanchipalli acrescentou que a meta de Ann é se tornar conselheira universitária.
"Embora ainda estejamos longe de conseguir isso para Ann, esse avanço nos aproxima mais ao melhorar drasticamente a qualidade de vida das pessoas com paralisia vocal", afirmou o pesquisador.
'Emocionada ao escutar sua voz'
Durante o estudo, Ann podia ver orações em uma tela, que ela dizia para si própria mentalmente.
Os sinais cerebrais eram rapidamente transformados em voz, que os pesquisadores reconstruíram a partir de gravações prévias à sua lesão.
Ann ficou "muito emocionada ao escutar sua voz e reportou uma sensação de corporalidade", segundo Anumanchipalli.
O modelo utiliza um algoritmo baseado em uma técnica de inteligência artificial (IA) denominada aprendizado profundo, que foi treinado anteriormente com base em milhares de frases que Ann tentou pronunciar silenciosamente.
Ele não é totalmente preciso e o vocabulário é limitado por enquanto a 1.024 palavras.
Patrick Degenaar, especialista em neuropróteses na Universidade de Newcastle, no Reino Unido, que não participou do estudo, destacou que a pesquisa é uma "prova muito precoce" da eficácia do método. Mesmo assim, ele a considerou genial.
Degenaar afirmou que o sistema usa uma série de eletrodos que não entram no cérebro, diferentemente do BCI, utilizado pela empresa Neuralink, de Elon Musk.
O método para instalar os eletrodos é relativamente comum em hospitais onde é diagnosticada a epilepsia, o que significa que a tecnologia poderia ser facilmente implementada em larga escala.