Inteligência artificial avança na tradução de pensamentos em texto e voz

Mercado Financeiroagora mesmo7 Visualizações

Pesquisadores de universidades dos Estados Unidos, do Japão e de Israel alcançaram novos marcos na decodificação da atividade cerebral, aproximando a ciência da comunicação direta entre cérebro e computador. Os estudos mais recentes mostram sistemas capazes de converter tanto a tentativa de fala quanto o chamado “monólogo interno” em frases legíveis, além de reconstruir imagens vistas ou imaginadas e trechos de música ouvidos pelos participantes.

Dispositivo permite exibir pensamentos em tempo real

Em agosto de 2025, uma equipe da Universidade de Stanford, na Califórnia, publicou resultados de um experimento com quatro voluntários — três deles com esclerose lateral amiotrófica (ELA) e uma mulher de 52 anos que perdeu a fala após um AVC. Identificada como T16, a paciente recebeu cirurgicamente um pequeno conjunto de microeletrodos no lóbulo frontal. Enquanto ela apenas imaginava pronunciar palavras, um algoritmo de aprendizado de máquina transformava os sinais neuronais em texto exibido num monitor.

Na mesma pesquisa, os cientistas testaram a detecção da “fala interior”. Em tarefas de contagem silenciosa, o sistema alcançou até 74% de acerto em tempo real; nos exercícios que estimulavam pensamentos espontâneos, a precisão caiu, mas ainda superou o nível do acaso. Quando os voluntários pensavam livremente em frases — como relembrar falas de filmes —, a decodificação ficou incompreensível, indicando limitações atuais da técnica.

Velocidade e entonação se aproximam da fala natural

Outro avanço veio do laboratório de neuropróteses da Universidade da Califórnia em Davis. Em 2024, a equipe conseguiu converter tentativas de fala de um homem de 45 anos com ELA em cerca de 32 palavras por minuto, com 97,5% de precisão. No ano seguinte, o mesmo grupo demonstrou a reprodução não só de palavras, mas também de elementos prosódicos, como tom e ritmo. O participante conseguiu imprimir entonação de pergunta no fim de frases e até cantar melodias, com 60% das palavras consideradas inteligíveis.

A neuroengenheira Maitreyee Wairagkar, que lidera o trabalho em Davis, destaca que a fala humana envolve muito mais que texto. Segundo ela, incrementar o número de eletrodos — hoje limitado a 256 no experimento — pode ampliar a riqueza de dados neuronais coletados e tornar a comunicação gerada por BCI (interface cérebro-computador) mais próxima da fala cotidiana.

Reconstrução de imagens e sons

Pesquisadores japoneses apresentaram em 2025 um método apelidado de “legenda da mente”, que combina três modelos de IA a imagens de ressonância magnética funcional (fMRI) para descrever com detalhes aquilo que a pessoa vê ou imagina. A técnica não é invasiva e emprega variações no fluxo sanguíneo cerebral como base para a decodificação.

No campo visual, o professor Yu Takagi, do Instituto de Tecnologia de Nagoya, utilizou em 2023 o gerador Stable Diffusion para recriar figuras visualizadas por voluntários. O treinamento se baseou em um banco de 10 mil fotos observadas por quatro pessoas enquanto seus cérebros eram escaneados. O algoritmo gerou representações adequadas da maioria das imagens, embora tenha falhado em casos específicos, como uma tigela de salada.

Ainda em 2025, Takagi aplicou um sistema proprietário do Google para tentar reconstruir músicas ouvidas por participantes durante exames de fMRI. Apesar das limitações de tempo de varredura (um segundo por imagem), o processo conseguiu recuperar características básicas e o gênero das faixas. O estudo indicou que, diferentemente das imagens, informações musicais de baixo e alto nível não se separam em áreas cerebrais distintas.

Próximos passos e expectativas comerciais

Empresas como a Neuralink, de Elon Musk, já buscam levar esses chips do laboratório ao mercado. Para a pesquisadora Wairagkar, soluções comerciais devem surgir “nos próximos anos”. Frank Willett, do laboratório de próteses neurais de Stanford, planeja investigar regiões além do córtex motor, como o giro temporal superior, envolvidas nas representações auditivas internas — avanço que poderia beneficiar pacientes com lesões motoras causadas por AVC.

Apesar dos progressos, especialistas apontam que questões éticas e de direitos humanos sobre privacidade mental ainda precisam de debate aprofundado antes da adoção em larga escala.

0 Votes: 0 Upvotes, 0 Downvotes (0 Points)

Deixe um Comentário

Pesquisar tendência
Redação
carregamento

Entrar em 3 segundos...

Inscrever-se 3 segundos...

Todos os campos são obrigatórios.