O Pentágono formaliza o Sistema Inteligente Maven da Palantir como um programa oficial de registro, garantindo financiamento plurianual para a plataforma de mira com IA. Já implantada em todos os comandos de combate dos EUA, a designação assegura “financiamento e recursos estáveis” para seu desenvolvimento e uso contínuo.
Maven agora é um item protegido no Programa de Defesa, conferindo-lhe visibilidade e estabilidade orçamentária. O Exército dos EUA gerenciará todos os contratos futuros, e a supervisão será transferida para o Chief Digital and AI Officer.
Iniciado em 2017 para aplicar aprendizado de máquina em filmagens de drones. Google foi o parceiro tecnológico original, mas se retirou em 2018 após protestos de funcionários.
A Palantir desenvolveu uma plataforma completa de comando e controle que ingere dados de mais de 150 fontes (imagens de satélite, vídeos de drones, radar, sensores infravermelhos, etc.). Algoritmos de visão computacional detectam e classificam objetos no campo de batalha, propondo alocação de armas e munições para cada alvo.
Maven pode gerar 1.000 recomendações de mira por hora. Com mais de 20.000 usuários ativos, a plataforma foi usada no transporte aéreo de Cabul (2021), no apoio às forças ucranianas (2022) e na Operação Epic Fury (2026). A OTAN adquiriu uma versão em 2025.
Um contrato inicial de US$ 480 milhões em 2024 subiu para US$ 1.3 bilhão em 2025, complementado por um acordo-quadro de US$ 10 bilhões com o Exército dos EUA.
O orçamento de defesa de 2026 atingiu US$ 1.01 trilhão, com uma linha orçamentária dedicada à IA e autonomia de US$ 13.4 bilhões. O Pentágono supervisiona mais de 685 projetos de IA ligados a sistemas de armas.
Um memorando de estratégia de IA de janeiro de 2026 declara o militar como uma “força de combate ‘AI-first'”, com projetos para enxames de drones autônomos e execução de cadeias de extermínio por IA. O objetivo é ter mais de 200.000 drones de ataque unidirecional até 2027.
Modelos Claude da Anthropic foram integrados ao Maven, mas a empresa se recusou a permitir armas totalmente autônomas. O Pentágono a classificou como “risco na cadeia de suprimentos”, levando a processos judiciais e um acordo da OpenAI com o Pentágono.
Uma diretiva do DoD exige julgamento humano no uso da força, mas a estratégia de 2026 prioriza a velocidade, tratando os requisitos de teste como “bloqueadores” sujeitos a dispensa.
Um relatório do Brennan Center for Justice critica a falta de urgência em lidar com os perigos da IA militar, citando cortes em órgãos de teste operacional e proteção civil.
Pesquisa do CSIS quantificou a propagação de erro de mira assistida por IA em 25%. Em breve, Maven começará a transmitir inteligência “100% gerada por máquina” aos comandantes, sem intervenção humana.
O “AI Guardrails Act” propõe proibir o uso de armas autônomas letais sem autorização humana e a vigilância em massa por IA.
China busca “guerra inteligente” com foco em IA militar, visando capacidade decisiva até 2027. A Rússia usa sistemas autônomos na Ucrânia e votou contra a resolução da ONU sobre armas autônomas letais, que não é vinculativa.
Pesquisadores da Universidade de Georgetown notaram que a China desenvolve sistemas de apoio à decisão e manipulação de informações com IA, sem restrições éticas equivalentes às da Anthropic.