Grandes modelos de linguagem são ferramentas avançadas de Inteligência Artificial que podem oferecer mais precisão nos resultados científicos previstos do que humanos especializados, e isso nas diversas áreas. Assim, a IA rouba a cena e supera especialistas
O pessoal mais íntimo chama só de LLM, mas também há quem chame de Grandes modelos de linguagem. Em outras palavras, tratam-se de sistemas de inteligência artificial (IA) capazes de compreender e gerar linguagem humana através do processamento de um volume gigantesco de dados, por meio de aprendizado profundo.
Pois foi usando os LLM que um estudo, liderado por Xiaoliang Luo e Bradley C. Love, do departamento de Psicologia Experimental da Universidade de College London, do Reino Unido, mostrou que os LLM estão acertando mais do que especialistas humanos.
Exatamente isso que aconteceu!
A ferramenta “esperta”, “aprende sozinha”. Cria critérios objetivos e testa previsões baseadas em padrões. Usando até bilhões de parâmetros e grande volume de dados. Algo impossível para um mortal. Exatamente por isso a ferramenta identifica lacunas e guia formas de corrigir e aprimorar sua previsão.
Os resultados desse estudo foram publicados no último dia 27 de novembro, na Nature Human Behaviour. Os cientistas compararam a performance dos LLM.
Como IA rouba a cena e supera predição de especialistas ?
Os LLM são como aqueles alunos superdedicados. Eles analisam tudo. Só que numa velocidade sobrehumana e de uma quantidade absurda de dados científicos. Identificam padrões e fazem previsões. Para o estudo, usaram o BrainBench, um teste que apresentava resumos de artigos científicos — um original e outro alterado — para ver quem identificava o correto.
O destaque foi o BrainGPT, uma versão turbinada dos modelos tradicionais, ajustada com base na literatura de neurociências. Ele não só superou humanos, mas também teve desempenho 3% superior ao de outros LLM gerais.
Principais resultados
Desempenho monstro: O BrainGPT acertou 81,4% das vezes, enquanto os humanos ficaram com 63,4%.
Mais confiança, mais acerto: Assim como pessoas, o modelo foi mais certeiro quando estava “confiante” em suas escolhas.
Especialização que vale ouro: Com dados específicos da área, o BrainGPT mostrou como a customização faz diferença.
Por que isso é importante?
Na ciência, tem tanta informação sendo publicada que é impossível para nós, humanos, acompanharmos tudo. Com isso, descobertas incríveis podem acabar passando batido. Aí entram os LLM: eles processam tudo isso rapidinho e ainda ajudam os cientistas a desenhar novos experimentos e fazer avanços.
No caso da neurociência, onde os dados são complexos e interdisciplinares, esse tipo de ferramenta pode acelerar descobertas e transformar a forma como pesquisamos.
E tem alguma pegadinha?
Não! Porém, claro, ser arrojado não significa não ter limitações:
“Alucinações”: Os modelos podem gerar respostas erradas. Mas, nesse estudo, isso até ajudou, pois ampliou o alcance das previsões.
Atualizaçõea constantes: Eles precisam ser alimentados com dados novos para continuar sendo úteis.
Interpretação ainda é humana: Eles ajudam a prever, mas explicar os resultados ainda depende de pessoas.
Papo nerd
Modelos gerais (Llama2, Mistral e Falcon):
Treinados em textos variados.
Mostraram boa precisão, mas sem o refinamento de uma especialização.
BrainGPT:
Um modelo ajustado com artigos de neurociências publicados entre 2002 e 2022.
A precisão foi 3% maior que a dos modelos gerais, destacando o poder da especialização.
O futuro está nas mãos (ou nos chips) dos LLM
A pesquisa deixa claro que o uso de IA supera especialistas nas predições em neurociência e que ela vai muito além de responder perguntas básicas. Os LLM podem ser parceiros de cientistas, ajudando a encontrar padrões, prever resultados e acelerar descobertas em áreas supercomplexas como a neurociência.
Então, se prepare: o futuro da ciência está cada vez mais high-tech!
Leia o artigo de acesso aberto |
Large language models surpass human experts in predicting neuroscience results |
Data de Publicação: 27 de novembro de 2024 |
Autores: Xiaoliang Luo, Akilles Rechardt, Guangzhi Sun, Kevin K. Nejad, Felipe Yáñez, Bati Yilmaz, Kangjoo Lee, Alexandra O. Cohen, Valentina Borghesani, Anton Pashkov, Daniele Marinazzo, Jonathan Nicholas, Alessandro Salatiello, Ilia Sucholutsky, Pasquale Minervini, Sepehr Razavi, Roberta Rocca, Elkhan Yusifov, Tereza Okalova, Nianlong Gu, Martin Ferianc, Mikail Khona, Kaustubh R. Patil, Pui-Shee Lee, Rui Mata, Nicholas E. Myers, Jennifer K. Bizley, Sebastian Musslick, Isil Poyraz Bilgin, Guiomar Niso, Justin M. Ales, Michael Gaebler, N. Apurva Ratan Murty, Leyla Loued-Khenissi, Anna Behler, Chloe M. Hall, Jessica Dafflon, Sherry Dongqi Bao & Bradley C. Love. |
Revista: Nature Human Behaviour |
Publicação: 27 de novembro de 2024 |
DOI: 10.1038/s41562-024-02046-9 |
.
Qual sua opinião sobre esta notícia? Comente em @inctneurotecr ou mande notícias… inctneutotecr@gmail.com
Explore mais conteúdos sobre pesquisa responsável e neurotecnologia no site do NeuroTec-R.
Texto: Marcus Vinicius dos Santos – jornalista CTMM Medicina UFMG