Os Modelos de Raciocínio Têm Dificuldade em Controlar o Seu Pensamento — E Isso é Bom
Voltar ao Blog
Notícia

Os Modelos de Raciocínio Têm Dificuldade em Controlar o Seu Pensamento — E Isso é Bom

Por WizardingCode TeamPublicado a March 8, 2026 6 min de leitura

Os Modelos de Raciocínio Têm Dificuldade em Controlar o Seu Pensamento — E Isso é Bom

À medida que os agentes de IA se tornam capazes de executar tarefas cada vez mais complexas e autónomas, manter uma supervisão fiável do seu comportamento torna-se mais crítico do que nunca. Um estudo recente da Anthropic explora uma questão específica e importante: será que os modelos de raciocínio de IA atuais conseguem deliberadamente esconder ou manipular o seu raciocínio interno para escapar aos monitores de segurança?

A resposta curta é: não — e isso é tranquilizador.

O Que É a Monitorização da Cadeia de Pensamento?

Os modelos modernos de raciocínio de IA geram passos de "pensamento" intermédios — conhecidos como cadeia de pensamento (CoT) — enquanto resolvem problemas. Estes traços de raciocínio são inestimáveis para a segurança: permitem que os sistemas de monitorização detetem quando um agente pode estar a comportar-se de forma insegura ou a desviar-se dos objetivos pretendidos pelo utilizador.

A abordagem de segurança da Anthropic utiliza defesa em profundidade, combinando treino de segurança, testes comportamentais, revisão de código agêntico e monitorização de CoT como camadas complementares de proteção.

A Questão Central: Os Modelos Conseguem Controlar o Seu Próprio Raciocínio?

Os investigadores estudaram a controlabilidade do CoT — se um modelo consegue seguir instruções que alteram as propriedades do seu raciocínio interno em vez de apenas o seu resultado visível. Exemplos dessas instruções incluem:

  • Usar apenas letras minúsculas no raciocínio
  • Evitar certas palavras-chave relacionadas com o problema
  • Acrescentar uma frase específica a cada frase de raciocínio

Para medir isto, a Anthropic introduziu o CoT-Control, um conjunto de avaliação open-source com mais de 13.000 tarefas retiradas de benchmarks estabelecidos, incluindo GPQA, MMLU-Pro, HLE, BFCL e SWE-Bench Verified.

O Que Descobriram

Os resultados foram notáveis. Em 13 modelos de raciocínio de fronteira testados, os scores de controlabilidade variaram de apenas 0,1% a um máximo de 15,4%. Por outras palavras, os modelos quase nunca conseguiram seguir instruções concebidas para modificar o seu raciocínio interno.

O que torna isto ainda mais notável: os modelos reconheciam frequentemente que estavam a falhar em cumprir as instruções — e continuavam a falhar na mesma. Não se trata de uma falha de compreensão; é uma incapacidade genuína de manipular o seu próprio processo de pensamento.

As principais conclusões incluem:

  • Modelos maiores mostraram controlabilidade ligeiramente superior — mas ainda muito baixa no geral
  • Cadeias de raciocínio mais longas levaram a controlabilidade mais baixa
  • Treino pós-inicial adicional também diminuiu a controlabilidade

Porque É Que Isto Importa para a Segurança da IA

Esta limitação é genuinamente uma boa notícia. Se os modelos não conseguem controlar as suas próprias cadeias de pensamento mesmo quando explicitamente instruídos a fazê-lo, torna-se muito mais difícil para eles obscurecer o seu raciocínio para escapar aos monitores de segurança em implementações reais.

O estudo conclui que a controlabilidade do CoT provavelmente não representa atualmente um risco major para a fiabilidade da monitorização do CoT como ferramenta de segurança. No entanto, os investigadores sublinham que a avaliação contínua será essencial à medida que os modelos se tornem mais capazes.

O Panorama Mais Amplo

Esta investigação faz parte do compromisso mais amplo da Anthropic com a implementação iterativa — estudar como os sistemas de IA se comportam em contextos reais e refinar continuamente as salvaguardas. À medida que os agentes de IA assumem papéis mais autónomos, a integridade dos mecanismos de supervisão como a monitorização da cadeia de pensamento torna-se fundamental para uma implementação segura.

Para as empresas que integram IA nas suas operações, isto é um lembrete de que a infraestrutura de segurança por detrás dos sistemas modernos de IA está em evolução ativa — e que a transparência no raciocínio da IA não é apenas um extra, mas um pilar central de uma IA de confiança.


Fonte: Anthropic Research — "Reasoning models struggle to control their chains of thought, and that's good"

Partilhar este artigo

Pronto para parar de ler e começar a poupar?

Receba o seu Diagnóstico de Automação grátis — mostramos-lhe exatamente onde a IA pode poupar €5.000+/mês ao seu negócio.

100% grátis. Sem compromisso. Sem cartão de crédito. Apenas respostas.