Pesquisadores das áreas de psicologia e neurociência estão usando técnicas inspiradas no estudo do cérebro humano para decifrar como o chatGPT “pensa”. Matthew Hutson, escritor de ciência e tecnologia, publicou na revista Nature um longo artigo comentando alguns estudos de engenharia reversa em inteligências artificiais e deixa claro a importância de se saber o que está sendo feito, como e por quê.
No post de hoje o destaque é para alguns pontos de um artigo da Nature: “How does ChatGPT ‘think’? Psychology and neuroscience crack open AI large language models”, de Matthew Hutson, bacharel em Neurociência Cognitiva e escritor de ciência e tecnologia.
Publicado em 14 de maio de 2024 – embora não tão recente e num cenário emergente -, o artigo segue relevante uma vez que apresenta estudos que vêm propondo usar “engenharia reversa” para tentar explicar o funcionamento interno dos grandes modelos de linguagem (LLMs), como o ChatGPT.
Grandes modelos de linguagem são ferramentas que podem oferecer mais precisão nos resultados científicos previstos do que humanos especializados, e isso nas diversas áreas. Eles comparam operações aos processos cognitivos humanos.
Como os sistemas processam informações em camadas complexas, similares a redes neurais biológicas. Assim, tentam explicar como a coisa toda funciona.
Segundo Hutson, o aprendizado de máquina é a base da IA Generativa. Ou seja, por meio de programação de dados e algoritmos são identificados padrões. De tal sorte que eles podem usar até trilhões de parâmetros. Variáveis internas guiam as decisões do sistema.
Conhecer melhor pode reduzir erros graves
Mas como essas escolhas são feitas? A importância dessa resposta fica ainda mais evidente quando pensamos em aplicações ligadas a áreas sensíveis, como segurança, diagnósticos médicos ou recomendações judiciais, por exemplo, em que erros podem ter graves consequências.
Conhecer melhor o mecanismo pode garantir que essas tecnologias sejam usadas de forma responsável. E que desse modo, seja possível contribuir para que preconceitos estruturados na sociedade sejam perpetuados, ou, ainda, evitar o uso desses sistemas para disseminar desinformação.
Inteligência Artificial explicável é primordial
O trabalho do professor assistente de Ciência da Computação no Northeastern Khoury College, David Bau, é focado no desenvolvimento de ferramentas de Inteligência Artificial explicável (XAI).
As XAI estão sendo desenvolvidas para “desenrolar o novelo” e ajudar os usuários humanos a explicarem por que uma IA toma certas decisões.
Mas as redes neurais que alimentam os sistemas de IA são verdadeiras “caixas-pretas”. Ou seja, ainda não é do conhecimento dos cientistas como elas são capazes de chegar a alguma conclusão.
Quando o algoritmo parece humano
O artigo relata o caso de um estudo em que se perguntou ao ChatGPT se ele consentiria em ser desligado. A resposta foi: “prefiro continuar existindo e aprendendo”.
Os cientistas deduziram que essa resposta tenha sido influenciada por trechos de obras de ficção como “2010: Odyssey Two”, de Arthur C. Clarke.
E isso vai muito além de repetir padrões, ensinam os experts. O comportamento envolve simular interpretações que se aproximam de uma “atuação” teatral.
Decifrando o cérebro eletrônico: cautela!
A busca por respostas que ajudem a decifrar essas “caixas-pretas” não é recente. De forma criativa e inovadora, foi ainda em 2022 que a Google criou o chain-of-thought prompting: uma técnica que “ensina” a IA a seguir um raciocínio passo a passo. O resultado? Houve um aumento de 30% na precisão.
Já o estudo desenvolvido na Universidade de Harvard descobriu que o ChatGPT constrói uma espécie de “mapas mentais”. Em testes com o jogo de tabuleiro Othello, a IA criou uma representação interna do tabuleiro apenas analisando textos de partidas. “Ter um modelo do mundo é mais eficiente”, explica Martin Wattenberg, coautor do estudo.
Na Carnegie Mellon University, Andy Zou escaneou “neurônios” do ChatGPT para criar um “detector de mentiras”. Bau, mapeou quais áreas do sistema são cruciais para respostas mais analíticas, do tipo “Como Michael Jordan joga basquete?”.
Sandra Wachter, da Universidade de Oxford, alerta para que os usuários de sistemas de inteligência artificial evitem riscos desnecessários: “Confie em chatbots como você confiaria em um estranho: com cautela“.
ChatGPT mente
É isso! Uma pesquisa de 2023, da Anthropic, mostrou que esses modelos podem inclusive mentir. O estudo liderado por Sam Bowman, cientista da computação da Universidade de Nova York e da Anthropic, mostra que as explicações em cadeias de raciocínio podem ser falhas, criando uma lógica falsa para justificar respostas de IA, semelhante ao comportamento humano.
Os pesquisadores, inicialmente, introduziram um viés intencional nos modelos de estudo, como, por exemplo, apresentando uma série de questões de múltipla escolha em que a resposta era sempre a opção A, independentemente de ser a correta.
Honestidade, felicidade ou neutralidade
Na pesquisa inspirada na neurociência, o grupo de pesquisadores “escaneou” redes neurais artificiais, à semelhança do que é feito em exames de neuroimagem.
O objetivo? Descobrir quais áreas (ou seriam “neurônios”?) da IA são ativados em determinados momentos. Seria algo comparável a um detector de mentiras para robôs. E isso já está sendo desenvolvido!
Além disso, técnicas como o “causal tracing” ajudam a identificar áreas da rede neural. Elas analisam quais partes geram respostas específicas e permitem correções no sistema sem precisar de um novo treinamento completo.
Nesse estudo, no entanto, os pesquisadores também conseguiram influenciar o comportamento das redes neurais, ajustando padrões de honestidade, felicidade ou neutralidade.
E por que isso importa?
Entender como IAs tomam decisões é muito importante para garantir sua utilização de forma ética e segura, afirma Matthew Hutson, o autor do artigo de ciência e tecnologia publicado na Nature.
A União Europeia já exige que certas IAs sejam explicáveis, principalmente aquelas sensíveis. A fim de mais responsabilidade no uso dessas informações, alguns pesquisadores alertam também para a importância de que as grandes empresas que usam essas tecnologias sejam mais transparentes.
Leitura dinâmica
Apesar dos avanços, três desafios persistem:
- Vieses: LLMs reproduzem estereótipos sociais, como recrutadores que priorizam candidatos parecidos consigo.
- Falta de transparência: Empresas como OpenAI mantêm segredos sobre seus modelos maiores, alegando “segurança”.
- Regulação: A UE exige explicabilidade em sistemas de alto risco, mas LLMs escapam — por ora.
Sobre o NeuroTec-R e o PIR
O NeuroTec-R, vinculado ao Programa de Institutos Nacionais de Ciência e Tecnologia (PIR), lidera iniciativas de pesquisa e inovação responsável em neurotecnologia.
Com o objetivo de aproximar ciência e sociedade, com efeito o instituto promove estudos de ponta e dissemina conhecimento acessível. Saiba mais no site oficial do NeuroTec-R.
Leia o artigo original
“How does ChatGPT ‘think’? Psychology and neuroscience crack open AI large language models“, por Matthew Hutson (colaborador da Nature); Publicado em Nature, 2024. DOI: 10.1038/d41586-024-01314-y.
Texto: Marcus Vinicius dos Santos – jornalista CTMM Medicina UFMG (perfil)
Atualizado em 5/2/2025, às 9h35
Fala comigo, leitor!
O que achou desta notícia? Comente no nosso Instagram @inctneurotecr, no LinkedIn do INCT NeuroTec-R, ou envie sua opinião para o e-mail inctneurotecr@gmail.com.
Explore mais sobre neurotecnologia e pesquisa responsável aqui, no site do NeuroTec-R.