Notícias em destaque

Modelo de IA antropogênica mantido em sigilo após descoberta de milhares de vulnerabilidades de segurança

2026-04-11 por AICC
Cibersegurança de IA

O modelo de IA mais avançado da Anthropic já encontrou milhares de vulnerabilidades de cibersegurança em IA em todos os principais sistemas operacionais e navegadores da web. A resposta da empresa não foi liberá-lo, mas entregá-lo discretamente às organizações responsáveis ​​por manter a internet funcionando.

Esse modelo é Prévia do Mito de Claudee a iniciativa chama-se Projeto Glasswing.

Os parceiros de lançamento incluem Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia e Palo Alto Networks.

Além desse grupo principal, a Anthropic estendeu o acesso a mais de 40 organizações adicionais que constroem ou mantêm infraestrutura de software crítica. A Anthropic está se comprometendo a até US$ 100 milhões em créditos de utilização para a prévia de Mythos em todo o esforço, juntamente com US$ 4 milhões em doações diretas para organizações de segurança de código aberto.

🔍 Um modelo que ultrapassou seus próprios parâmetros de referência

O Mythos Preview não foi especificamente treinado para trabalho em cibersegurança. A Anthropic afirmou que as capacidades "surgiram como consequência de melhorias gerais no código, no raciocínio e na autonomia", e que as mesmas melhorias que tornam o modelo mais eficiente na correção de vulnerabilidades também o tornam mais eficiente na exploração delas.

Essa última parte é importante. A prévia de Mythos tem melhorou na medida em que satura em grande parte os padrões de segurança existentes, forçando a Anthropic a mudar seu foco para novas tarefas do mundo real – especificamente, vulnerabilidades de dia zeroEssas falhas eram desconhecidas pelos desenvolvedores do software.

Entre as conclusões: a Bug de 27 anos no OpenBSD, um sistema operacional conhecido por sua forte postura de segurança. Em outro caso, o modelo identificou e explorou de forma totalmente autônoma uma Vulnerabilidade de execução remota de código de 17 anos no FreeBSDCVE-2026-4747–que permite que um usuário não autenticado em qualquer lugar da internet obtenha controle total de um servidor executando NFS. Nenhum ser humano esteve envolvido na descoberta ou exploração após o alerta inicial para encontrar a falha.

Nicholas Carlini, da equipe de pesquisa da Anthropic, descreveu a capacidade do modelo de encadear vulnerabilidades: "Este modelo pode criar exploits a partir de três, quatro ou, às vezes, cinco vulnerabilidades que, em sequência, levam a um resultado final muito sofisticado. Encontrei mais bugs nas últimas duas semanas do que em toda a minha vida."

🚫 Por que não está sendo lançado?

"Não planejamos disponibilizar a versão prévia de Claude Mythos ao público em geral devido às suas capacidades de segurança cibernética." Newton Cheng, líder da equipe de segurança cibernética Frontier Red Team da Anthropic, disse.

"Dado o ritmo do progresso da IA, não demorará muito para que tais capacidades se proliferem, potencialmente para além dos atores que se comprometem a implantá-las com segurança. As consequências – para as economias, a segurança pública e a segurança nacional – poderão ser graves."

Isso não é hipotético. A Anthropic já havia divulgado anteriormente o que descreveu como... Primeiro caso documentado de um ciberataque executado em grande parte por IA.—um grupo patrocinado pelo Estado chinês que usou agentes de IA para se infiltrar autonomamente em aproximadamente 30 metas globais, com a IA a gerir a maioria das operações táticas de forma independente.

A empresa também apresentou, em reuniões privadas, todas as capacidades do Mythos Preview a altos funcionários do governo dos EUA. A comunidade de inteligência está agora... ativamente avaliando como o modelo poderia reformular as operações de hacking, tanto ofensivas quanto defensivas.

💻 O Problema do Código Aberto

Uma dimensão do Projeto Glasswing que vai além da coalizão que ganhou as manchetes: software de código abertoJim Zemlin, CEO da Linux Foundation, resumiu a questão de forma clara: "No passado, a especialização em segurança era um luxo reservado a organizações com grandes equipes de segurança. Os mantenedores de código aberto, cujo software sustenta grande parte da infraestrutura crítica mundial, historicamente tiveram que resolver as questões de segurança por conta própria."

Antrópico tem doado US$ 2,5 milhões para a Alpha-Omega e a OpenSSF por meio da Linux Foundation, e US$ 1,5 milhão para a Apache Software Foundation – dando aos mantenedores de bases de código aberto críticas acesso à varredura de vulnerabilidades de segurança cibernética por IA em uma escala antes inatingível.

🔮 O que vem a seguir

A Anthropic afirma que seu objetivo final é implantar Modelos de classe Mythos em escalaMas somente quando novas medidas de segurança estiverem em vigor. A empresa planeja lançar novas medidas de segurança em breve. Modelo Claude Opus Primeiro, permitindo que sejam refinados com um modelo que não apresente o mesmo nível de risco que o Mythos Preview.

O cenário competitivo já está mudando ao seu redor. Quando a OpenAI lançou GPT-5.3-Codex Em fevereiro, a empresa classificou o modelo como o primeiro de alta capacidade para tarefas de cibersegurança em sua Estrutura de Preparação. A parceria da Anthropic com a Glasswing indica que os laboratórios de vanguarda enxergam o potencial da tecnologia. Implantação controlada – não lançamento aberto.–como o padrão emergente para modelos nesse nível de capacidade.

Se esse padrão se manterá à medida que essas capacidades se disseminarem ainda mais é, neste momento, uma questão em aberto que nenhuma iniciativa isolada poderá responder.

Mais de 300 modelos de IA para
OpenClaw e Agentes de IA

Economize 20% nos custos