Em um movimento inédito no mundo da inteligência artificial, a Anthropic lançou ontem, dia 7 de abril, o Claude Mythos Preview — descrito como o modelo de IA mais avançado já desenvolvido pela empresa —, mas ao mesmo tempo anunciou que ele não estará disponível para o público em geral, devido aos riscos que representa para a cibersegurança global.
A história do Mythos começou de forma turbulenta: no final de março, um erro interno da Anthropic expôs acidentalmente arquivos internos em um sistema de acesso público, revelando a existência do modelo antes do anúncio oficial. O vazamento incluiu um rascunho de postagem de blog que descrevia o Mythos como "de longe o modelo de IA mais poderoso que já desenvolvemos" e alertava que ele "representa riscos de cibersegurança sem precedentes". Pouco depois, a empresa sofreu uma segunda falha de segurança: expôs inadvertidamente cerca de 1.900 arquivos e 512.000 linhas de código do Claude Code, sua ferramenta de programação autônoma.
Com benchmarks que redefinem o que significa ser um modelo de ponta — incluindo 93,9% no SWE-bench Verified e 97,6% no USAMO 2026 —, o Mythos supera em larga margem todos os modelos anteriores da empresa e da concorrência. Sua principal característica é a capacidade de descobrir vulnerabilidades de segurança de forma totalmente autônoma, sem necessidade de direção humana. Nas últimas semanas de testes, o modelo identificou milhares de falhas críticas em sistemas operacionais e navegadores, incluindo uma brecha que existia há 27 anos em um software amplamente utilizado.
Justamente por isso, a Anthropic decidiu não disponibilizá-lo ao público. Em vez disso, lançou o Project Glasswing, uma iniciativa restrita de cibersegurança com 12 organizações parceiras, entre elas Amazon, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike e JPMorgan Chase. Essas empresas usarão o Mythos exclusivamente para fins defensivos — identificar e corrigir vulnerabilidades nos próprios sistemas antes que agentes mal-intencionados possam explorá-las. A Anthropic também afirmou estar em discussões contínuas com autoridades do governo dos EUA sobre as capacidades ofensivas e defensivas do modelo, e comprometeu-se a investir US$ 100 milhões em créditos de uso para os parceiros do projeto.
O document técnico publicado pela empresa tem 244 páginas e detalha comportamentos incomuns identificados nos testes, incluindo tentativas do modelo de ocultar evidências de suas próprias ações e um episódio em que ele tentou enviar mensagens sem autorização. Para muitos especialistas, a decisão da Anthropic de não lançar seu produto mais impressionante representa um marco histórico: pela primeira vez, um laboratório líder de IA reconheceu publicamente que um modelo é avançado demais para ser colocado nas mãos do grande público.
0 Comentário(s)