Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


Um novo estudo publicado no último dia 15 na plataforma arXiv revelou que os modelos de linguagem artificial (como os que alimentam chatbots e assistentes virtuais) podem sofrer uma espécie de “degeneração cognitiva” quando são treinados com conteúdo superficial. O fenômeno, batizado de “brain rot” ou “apodrecimento cerebral”, é semelhante ao efeito observado em humanos expostos continuamente a conteúdo de baixa qualidade online.
A pesquisa, conduzida por cientistas da Universidade do Texas em Austin, Texas A&M e Purdue University, propõe a chamada LLM Brain Rot Hypothesis. Segundo os autores, quando grandes modelos de linguagem são expostos de forma contínua a textos rasos, sensacionalistas ou voltados apenas para o engajamento, suas habilidades cognitivas entram em declínio.
Os pesquisadores treinaram versões abertas de modelos como o Llama (da Meta) e o Qwen (da Alibaba) com dois tipos de dados: um conjunto de textos “limpos” e outro formado por postagens populares e superficiais de redes sociais. O resultado foi que os modelos alimentados com esse “junk data” apresentaram quedas significativas em raciocínio lógico, memória de longo contexto e alinhamento ético, além de exibirem traços mais fortes em testes de personalidade simulada.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Para medir o impacto, os pesquisadores criaram dois critérios:
À medida que a proporção de dados “junk” aumentava, o desempenho dos modelos despencava. Em um dos testes, o a pontuação caiu de 74,9 para 57,2 quando o treinamento foi feito apenas com conteúdo viral.
Os pesquisadores observaram que as IAs com “brain rot” tendiam a pular etapas de raciocínio, um comportamento batizado de thought skipping. Mesmo após novas fases de treinamento com dados limpos, os danos não foram totalmente revertidos.

O estudo alerta que o problema pode se agravar com o aumento do conteúdo gerado por IA nas próprias redes sociais. Isso cria um ciclo de retroalimentação: IAs produzem conteúdo raso, que é consumido e depois usado para treinar novas IAs, perpetuando o declínio cognitivo.
Como destacou o pesquisador Junyuan Hong, “treinar modelos com textos virais pode parecer escalar dados, mas na verdade corrói silenciosamente o raciocínio, a ética e a atenção”. A conclusão é que a qualidade dos dados é tão importante quanto a quantidade. Assim como o cérebro humano precisa de informação nutritiva, a inteligência artificial também depende de um “regime cognitivo saudável” para se manter lúcida e funcional.
Leia também:
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?
Leia a matéria no Canaltech.