O Departamento de Defesa dos Estados Unidos formalizou o sistema de inteligência artificial Maven, da empresa Palantir, como o programa oficial de IA das Forças Armadas americanas. A decisão foi comunicada pelo subsecretário de Defesa, Steve Feinberg, em carta enviada a líderes do Pentágono, segundo a Reuters.
O que é o Maven?
O Maven é uma plataforma sofisticada de comando e controle que utiliza inteligência artificial para processar grandes volumes de dados do campo de batalha integrando informações de satélites, drones, radares e relatórios de inteligência para identificar possíveis ameaças e alvos. A formalização como "programa oficial" garante financiamento contínuo e facilita a adoção da plataforma em todos os ramos militares. A previsão é que a medida entre em vigor até o fim do ano fiscal americano, em setembro de 2026.
Por que a Anthropic ficou de fora?
A decisão vem na esteira de uma disputa de alto perfil entre o Pentágono e a Anthropic empresa criadora do Claude, a IA que também integra o próprio sistema Maven. O governo americano exigiu que a Anthropic removesse restrições de segurança do Claude para permitir seu uso em vigilância em massa e em sistemas de armas autônomas. A Anthropic se recusou, e em resposta o Pentágono a classificou como "risco de cadeia de suprimento", com prazo de 180 dias para remover seus produtos de sistemas militares.
O paradoxo da situação
Curiosamente, o sistema Maven escolhido em substituição ao Claude ainda utiliza justamente o Claude da Anthropic como motor de processamento de linguagem natural. Isso significa que, na prática, o Pentágono ainda depende da tecnologia da empresa que acabou de banir, enquanto a Palantir busca um modelo alternativo para substituí-la.
O impacto no setor
O contrato da Palantir com o Exército americano pode chegar a US$ 10 bilhões, e a empresa viu seu valor de mercado quase dobrar no último ano, chegando a aproximadamente US$ 360 bilhões. A ONU já alertou para riscos éticos do uso de IA em operações militares, mas a Palantir afirma que a tecnologia não toma decisões letais de forma autônoma a decisão final sobre alvos permanece com humanos.
0 Comentário(s)