IA já consegue “gerar legendas” do pensamento; avanço impressiona e reacende alerta sobre privacidade mental

IA lê pensamento
Ferramenta analisa assinaturas semânticas para reconstruir frases a partir da atividade neural: consentimento, controle e futuro da comunicação reacende debate sobre controle, consentimento e futuro da comunicação (www.freepik.com).

Nova técnica usa ressonância magnética funcional para transformar atividade cerebral em descrições completas e detalhadas de memórias. A novidade amplia possibilidades clínicas, mas também intensifica discussões sobre responsabilidade da pesquisa e da inovação


Quando a Nature, uma das revistas mais conceituadas do mundo, destaca um experimento que parece saído de ficção científica, é melhor olhar com atenção. Foi o que fizemos. O repórter científico Max Kozlov publicou na revista uma reportagem especial sobre o avanço de uma técnica chamada mind-captioning.

Essa tecnologia, que usa ressonância magnética funcional (fMRI) para capturar atividade cerebral e gerar descrições completas do que uma pessoa está vendo ou imaginando, oferece uma precisão tão grande que surpreende até os cientistas.

Como funciona a leitura do invisível

A técnica usada para isso é chamada mind-captioning. Ela faz mais do que registrar sinais do cérebro. Os pesquisadores usam ressonância magnética funcional (fMRI), um método que capta mudanças na atividade cerebral ao longo do tempo e mostra quais áreas ficam mais ou menos ativas durante uma tarefa.

Com esse mapeamento, o sistema consegue gerar frases completas sobre o que alguém vê ou imagina.

O processo funciona em duas etapas. Primeiro, a fMRI registra os padrões de atividade cerebral enquanto a pessoa observa uma cena ou cria uma imagem mental. Depois, esses padrões são comparados a um grande conjunto de assinaturas de significado extraídas de milhares de vídeos legendados.

O modelo cruza as informações, testa combinações e se aproxima da frase que melhor representa o conteúdo mental. Por isso, ele é capaz de produzir sentenças inteiras — não apenas palavras soltas — sobre o que está sendo percebido ou lembrado.

Segundo o autor da notícia, Kozlov, que conversou com o neurocientista Alex Huth, da Universidade da Califórnia, em Berkeley, o modelo prevê “com muito detalhe” o que o participante observa, algo difícil de alcançar devido à própria complexidade dos sinais cerebrais.

Do estímulo ao significado

É fato que os pesquisadores já conseguiam prever estímulos simples há mais de uma década, como cores ou sons. No entanto, gerar descrições contextuais, com ações e relações de significado, sempre foi um ponto cego.

A equipe liderada por Tomoyasu Horikawa construiu assinaturas numéricas de significado a partir das legendas de mais de 2 mil vídeos, conta Max Kozlov. Depois, ele relacionou essas assinaturas aos padrões cerebrais registrados em seis voluntários enquanto assistiam ao mesmo material.

A partir disso, um segundo modelo passou a buscar frases que se aproximavam do padrão decodificado. O sistema começou com descrições vagas, mas, após inúmeras tentativas, produziu sentenças quase idênticas às cenas reais.

Em busca de memória, imaginação e linguagem internas, os cientistas convidaram os voluntários a recordar vídeos já vistos anteriormente. Os modelos de IA geraram descrições dessas lembranças, demonstrando que o cérebro parece usar uma representação semelhante. E, tanto para visualizar quanto para lembrar.”

Isso sugere que ver e lembrar compartilham formas de organização no cérebro, uma hipótese discutida há vários anos, agora reforçada por evidências experimentais mais diretas. O resultado indica ainda que o mind-captioning pode decodificar não só percepções visuais, mas também imagens mentais relacionadas à memória e à imaginação.

Aplicações clínicas e dilemas éticos

Além do interesse científico, a técnica abre possibilidades clínicas reais. Por ser não invasiva, diferentemente dos implantes neurais, ela pode ajudar pessoas que perderam a fala por AVC ou doenças neurodegenerativas.

Mas todo este avanço traz principalmente dilemas. Mesmo com salvaguardas, como consentimento explícito, longos períodos de treinamento e estímulos controlados, a preocupação com usos futuros sem regulação clara vem crescendo.

O próprio Alex Huth, que criou outro decodificador em 2023, reforça, na notícia, que ninguém está “lendo pensamentos secretos”. Ainda assim, reconhece que a fronteira entre neuroleitura e invasão mental exige atenção ética permanente.

O que vem a seguir

O mind-captioning representa um salto técnico real. Ele mostra como a neurociência e a IA começam a traduzir o idioma interno da mente. A próxima etapa, porém, será social: proteger o indivíduo diante de tecnologias capazes de revelar conteúdos mentais antes mesmo de serem verbalizados.

Transformar atividade cerebral em frases já é possível. Tornar isso seguro, ético e socialmente aceitável continua sendo o próximo capítulo dessa história científica, ainda em construção. O que reforça a urgência de discutir neurotecnologias com responsabilidade.

O INCT NeuroTec-R monitora riscos, analisa impactos sociais e orienta práticas de pesquisa responsáveis. Além disso, o instituto ajuda a traduzir avanços sensíveis para o debate público. Assim, amplia a proteção da privacidade mental em um cenário científico que evolui rápido.

[Leia o artigo original]

Mind-captioning’ AI decodes brain activity to turn thoughts into text
Max Kozlov. Nature. News. 647, 297. 5 novembro 2025. doi: https://doi.org/10.1038/d41586-025-03624-1



O que você achou dessa notícia?

Deixe seu comentário!

inctneurotecr@gmail.com
No nosso Instagram
@inctneurotecr
No LinkedIn do INCT NeuroTec-R

Explore mais sobre neurotecnologia e pesquisa responsável aqui no site do NeuroTec-R.

Texto: Marcus Vinicius dos Santos – jornalista CTMM Medicina UFMG