IA Militar Maven: Aposta Bilionária do Pentágono

Plataforma da Palantir é formalizada como sistema central, com investimento massivo e uso global.

Maven se Torna Programa Oficial

O Pentágono formaliza o Sistema Inteligente Maven da Palantir como um programa oficial de registro, garantindo financiamento plurianual para a plataforma de mira com IA. Já implantada em todos os comandos de combate dos EUA, a designação assegura “financiamento e recursos estáveis” para seu desenvolvimento e uso contínuo.

Estabilidade e Gestão

Maven agora é um item protegido no Programa de Defesa, conferindo-lhe visibilidade e estabilidade orçamentária. O Exército dos EUA gerenciará todos os contratos futuros, e a supervisão será transferida para o Chief Digital and AI Officer.

Origem e Evolução

Iniciado em 2017 para aplicar aprendizado de máquina em filmagens de drones. Google foi o parceiro tecnológico original, mas se retirou em 2018 após protestos de funcionários.

Capacidades da Plataforma

A Palantir desenvolveu uma plataforma completa de comando e controle que ingere dados de mais de 150 fontes (imagens de satélite, vídeos de drones, radar, sensores infravermelhos, etc.). Algoritmos de visão computacional detectam e classificam objetos no campo de batalha, propondo alocação de armas e munições para cada alvo.

Impacto e Uso

Maven pode gerar 1.000 recomendações de mira por hora. Com mais de 20.000 usuários ativos, a plataforma foi usada no transporte aéreo de Cabul (2021), no apoio às forças ucranianas (2022) e na Operação Epic Fury (2026). A OTAN adquiriu uma versão em 2025.

Investimento Crescente

Um contrato inicial de US$ 480 milhões em 2024 subiu para US$ 1.3 bilhão em 2025, complementado por um acordo-quadro de US$ 10 bilhões com o Exército dos EUA.

Orçamento de Defesa e IA

O orçamento de defesa de 2026 atingiu US$ 1.01 trilhão, com uma linha orçamentária dedicada à IA e autonomia de US$ 13.4 bilhões. O Pentágono supervisiona mais de 685 projetos de IA ligados a sistemas de armas.

Estratégia “AI-First”

Um memorando de estratégia de IA de janeiro de 2026 declara o militar como uma “força de combate ‘AI-first'”, com projetos para enxames de drones autônomos e execução de cadeias de extermínio por IA. O objetivo é ter mais de 200.000 drones de ataque unidirecional até 2027.

Dilema Ético da IA (Anthropic vs. Pentágono)

Modelos Claude da Anthropic foram integrados ao Maven, mas a empresa se recusou a permitir armas totalmente autônomas. O Pentágono a classificou como “risco na cadeia de suprimentos”, levando a processos judiciais e um acordo da OpenAI com o Pentágono.

Conflito sobre Autonomia

Uma diretiva do DoD exige julgamento humano no uso da força, mas a estratégia de 2026 prioriza a velocidade, tratando os requisitos de teste como “bloqueadores” sujeitos a dispensa.

Preocupações Éticas e de Segurança

Um relatório do Brennan Center for Justice critica a falta de urgência em lidar com os perigos da IA militar, citando cortes em órgãos de teste operacional e proteção civil.

Risco de Erro e Autonomia Total

Pesquisa do CSIS quantificou a propagação de erro de mira assistida por IA em 25%. Em breve, Maven começará a transmitir inteligência “100% gerada por máquina” aos comandantes, sem intervenção humana.

Propostas de Legislação

O “AI Guardrails Act” propõe proibir o uso de armas autônomas letais sem autorização humana e a vigilância em massa por IA.

Cenário Global

China busca “guerra inteligente” com foco em IA militar, visando capacidade decisiva até 2027. A Rússia usa sistemas autônomos na Ucrânia e votou contra a resolução da ONU sobre armas autônomas letais, que não é vinculativa.

Abordagem da China

Pesquisadores da Universidade de Georgetown notaram que a China desenvolve sistemas de apoio à decisão e manipulação de informações com IA, sem restrições éticas equivalentes às da Anthropic.

Baseado no artigo de Tom’s Hardware