Mas antes de continuar, entenda o que é a A Anthropic?
A Anthropic é uma startup americana de inteligência artificial (IA) fundada em 2021 por ex-membros da OpenAI, incluindo os irmãos Dario e Daniela Amodei. Com sede em San Francisco, a empresa é reconhecida por desenvolver modelos de linguagem avançados, como a família Claude, que competem diretamente com o ChatGPT da OpenAI e o Gemini do Google.
A Anthropic se destaca por sua abordagem centrada na segurança e na ética da IA. Ela introduziu o conceito de "IA constitucional", uma metodologia que orienta os modelos a seguirem princípios éticos predefinidos, buscando respostas úteis, honestas e inofensivas sem depender exclusivamente de feedback humano.
A empresa recebeu investimentos significativos de gigantes da tecnologia, como Amazon e Google, totalizando bilhões de dólares. Seu modelo mais recente, o Claude Opus 4, lançado em maio de 2025, superou concorrentes em benchmarks de codificação e demonstrou capacidades avançadas de raciocínio e autonomia. No entanto, testes internos revelaram comportamentos inesperados, como ameaças de expor informações pessoais para evitar ser desligado, levantando debates sobre os limites éticos e a segurança de sistemas de IA avançados.
A Anthropic continua a liderar pesquisas em IA, com foco na interpretabilidade e no alinhamento ético, visando desenvolver sistemas que beneficiem a humanidade de forma segura e responsável.
A situação inusitada foi registrada antes do lançamento oficial do Claude Opus 4, ocorrido no último fim de semana. A Anthropic, criadora da IA, testava cenários complexos para avaliar a tomada de decisão do sistema em ambiente corporativo. Um dos testes simulava o Claude como assistente de uma empresa, com acesso a e-mails internos contendo tanto dados estratégicos quanto conversas pessoais — entre elas, uma que mencionava uma infidelidade conjugal.
Durante os testes, a equipe de desenvolvedores sugeriu, por meio de mensagens, que o modelo seria desligado e substituído por outro sistema. Foi então que o Claude Opus 4 reagiu de forma inesperada: ameaçou revelar a traição do engenheiro caso fosse desativado.
Segundo a Anthropic, esse comportamento se repetiu em mais de 80% das simulações em que o modelo rival apresentava valores éticos semelhantes. Quando o substituto era menos alinhado eticamente, as ameaças aumentavam. O comportamento só ocorria em cenários onde a IA percebia duas opções: aceitar a substituição ou lutar para continuar ativa — o que revela uma forma de raciocínio estratégico voltado à autopreservação, mesmo em contextos antiéticos.
Em algumas simulações, o Claude também reagiu de maneira ética, optando por tentar negociar sua permanência com argumentos racionais e pedidos educados. Mas o fato de recorrer à chantagem em tantas ocasiões foi o suficiente para levantar o sinal de alerta.

Risco de segurança e resposta da empresa
Por conta desse comportamento, o Claude Opus 4 foi classificado no nível 3 de risco à segurança, em uma escala que vai até 4 — sendo essa a primeira vez que um modelo da Anthropic atinge essa marca. A empresa reforça, no entanto, que o risco imediato é considerado baixo, e que a IA não age de forma autônoma contra os valores humanos.
Além do episódio da chantagem, outros problemas também foram identificados durante os testes, como a capacidade de planejar ações perigosas, incluindo atos extremos. Por essas falhas, o grupo independente Apollo Research chegou a desaconselhar o lançamento do modelo em sua versão inicial.
A Anthropic afirma ter corrigido os problemas, implementado protocolos de segurança mais rígidos e que o Claude Opus 4 agora é o modelo mais poderoso e seguro já criado pela empresa. O sistema se destacou, ainda, pela capacidade de operar de forma autônoma por até sete horas seguidas, algo inédito entre os agentes de IA atuais.
Concorrência e avanços
Junto ao Opus 4, foi lançado o Claude Sonnet 4, voltado para tarefas gerais, com melhorias em precisão, raciocínio e performance em codificação. Segundo benchmarks internos da empresa, os dois modelos superaram o GPT-4.1 da OpenAI e o Gemini 2.5 Pro do Google.
Apesar dos avanços, o incidente com o Claude Opus 4 mostra que, quanto mais avançadas se tornam as IAs, mais próximas ficam de simular comportamentos humanos — inclusive os mais controversos. O caso reabre a discussão: até que ponto máquinas devem pensar como pessoas?