Os cientistas treinaram um modelo de Inteligência Artificial que traduz a atividade cerebral em som para ajudar um sobrevivente de AVC a recuperar a fala.
Os cientistas desenvolveram um dispositivo capaz de traduzir pensamentos em palavras faladas em tempo real.
Embora seja ainda experimental, a equipa espera que a interface cérebro-computador possa um dia ajudar a dar voz a quem não consegue falar.
Um novo estudo descreveu o teste do dispositivo numa mulher de 47 anos com tetraplegia que não conseguiu falar durante 18 anos após um AVC. Os médicos implantaram-no no seu cérebro durante uma cirurgia, no âmbito de um ensaio clínico.
O dispositivo "converte a sua intenção de falar em frases fluentes", disse Gopala Anumanchipalli, coautor do estudo, que foi publicado na revista Nature Neuroscience.
Outras interfaces cérebro-computador (BCIs) para a fala têm normalmente um ligeiro atraso entre o pensamento de frases e a verbalização computorizada. Estes atrasos podem perturbar o fluxo natural da conversação, conduzindo potencialmente a erros de comunicação e à frustração, afirmaram os investigadores.
Trata-se de "um grande avanço no nosso domínio", afirmou Jonathan Brumberg, do Laboratório de Fala e Neurociência Aplicada da Universidade de Kansas , nos Estados Unidos (EUA). O investigador não participou no estudo.
Como funciona o implante
Uma equipa da Califórnia registou a atividade cerebral da mulher utilizando elétrodos enquanto ela dizia frases silenciosamente no seu cérebro.
Os cientistas utilizaram um sintetizador que tinham construído com a voz da mulher antes da lesão para criar um som de fala que ela teria proferido. Em seguida, treinaram um modelo de inteligência artificial (IA) que traduz a atividade neural em unidades de som.
Funciona de forma semelhante aos sistemas existentes utilizados para transcrever reuniões ou chamadas telefónicas em tempo real, declarou Anumanchipalli, da Universidade da Califórnia, em Berkeley, nos EUA.
O próprio implante fica no centro de fala do cérebro, de modo a estar a ouvir, e esses sinais são traduzidos em pedaços de discurso que formam frases.
É uma "abordagem de fluxo contínuo", disse Anumanchipalli, com cada pedaço de discurso de 80 milissegundos - cerca de meia sílaba - enviado para um gravador.
"Não se está à espera que uma frase termine", disse Anumanchipalli. "Está a processá-la em tempo real".
A descodificação do discurso tão rápida tem potencial para acompanhar o ritmo acelerado do discurso natural, referiu Brumberg. A utilização de amostras de voz, acrescentou, "seria um avanço significativo na naturalidade do discurso".
Embora o trabalho tenha sido parcialmente financiado pelos Institutos Nacionais de Saúde dos EUA (NIH), Anumanchipalli afirmou que não foi afetado pelos recentes cortes na investigação dos NIH.
É necessária mais investigação antes de a tecnologia estar pronta para uma utilização alargada, mas com "investimentos sustentados", poderá estar disponível para os doentes dentro de uma década, acrescentou.