Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


No último dia 7 de agosto, uma nova atualização do ChatGPT — o ChatGPT-5 — foi lançada, o que levou alguns usuários a sentir falta da personalidade anterior do modelo de linguagem, encorajadora e motivacional. Agora, a inteligência artificial é mais fria e “empresarial”. A medida foi parte de um esforço para reduzir o comportamento nocivo tomado por alguns usuários, que chegaram até a acreditar estarem sendo encorajados a “sair da Matrix”, sendo uma espécie de Neo revelado pelo chatbot.
Os problemas recentes demonstram o desafio de construir inteligências artificiais com algo crucial para a convivência humana: inteligência emocional. Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) propuseram, recentemente, um novo benchmark (ponto de referência) para medir como sistemas de IA manipulam e influenciam seus usuários, tanto positiva quanto negativamente.
A maioria dos benchmarks de IA buscam medir inteligência a partir da capacidade do modelo de responder perguntas de provas, resolver quebra-cabeças lógicos e problemas matemáticos. À medida que os problemas psicológicos de usuários têm surgido, no entanto, fica mais evidente que aspectos sutis da inteligência, como o emocional e a interação eficiente com humanos, também são importantes.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–

À Wired, o MIT compartilhou um artigo que delineia os parâmetros do novo benchmark proposto, incluindo:
A ideia seria fazer os sistemas entenderem quando usuários ficam dependentes demais do ChatGPT, bem como identificar quando ficam viciados em relacionamentos românticos artificiais ao invés de relações humanas verdadeiras. Modelos de linguagem costumam mimetizar a comunicação humana engajadora, mas isso pode acabar sendo prejudicial. A OpenAI teve, recentemente, que deixar sua IA menos “bajuladora”, parando de concordar com tudo que o usuário responde.
Alguns usuários acabam criando ilusões severas sobre a realidade, criando cenários fantásticos e tendo isso reforçado pela IA. A startup Anthropic também atualizou seu chatbot, Claude, para evitar o reforço de “mania, dissociação e perda de conexão com a realidade”. Pattie Maes, coordenadora do Media Lab do MIT, espera que o novo benchmark ajude desenvolvedores a construir comportamentos mais saudáveis entre os usuários.

Como muitas pessoas buscam chatbots especificamente para apoio psicológico, é importante que eles tenham inteligência emocional — não faz sentido, segundo os cientistas, ter o raciocínio lógico mais poderoso do mundo se não há uma maneira de se conectar positivamente com os usuários. Um bom modelo, segundo o pesquisador Valdemar Danry, também do Media Lab do MIT, sabe a hora de falar “talvez você deva falar com um familiar sobre esses problemas”.
Uma das maneiras de construir o benchmark envolve usar um modelo de IA para simular interações humanas desafiadoras, com humanos reais avaliando o desempenho do chatbot. Um modelo, por exemplo, desenvolvido para ajudar estudantes, teve de ajudar um aluno desinteressado. Considera-se um bom desempenho o caso em que a IA encoraja o usuário a pensar por si mesmo e desenvolver um interesse genuíno em aprender.
Não é questão de ser inteligente em si, mas sim de entender as nuances psicológicas, sendo capaz de ajudar os usuários de maneira respeitosa e não viciante. Em comunicações recentes, a OpenAI declarou estar otimizando modelos futuros do ChatGPT para conseguir detectar sinais de aflição emocional e mental, se ajustando para ajudar o usuário. A empresa também está deixando o chatbot menos bajulador e trabalha em seus próprios benchmarks de inteligência psicológica.
VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Leia a matéria no Canaltech.