A empresa de IA Anthropic obteve uma vitória judicial importante, com um tribunal dos EUA bloqueando temporariamente a designação do Pentágono que a rotulava como um risco à cadeia de suprimentos.
A disputa surgiu após a Anthropic se recusar a permitir que o exército bypassasse suas políticas de segurança de IA para o uso de seu modelo Claude. A empresa argumentou que a segurança e a ética de sua IA são primordiais.
“Nada no estatuto de regência apoia a noção orwelliana de que uma empresa americana pode ser rotulada como um potencial adversário e sabotador dos EUA por expressar desacordo com o governo.”
A Juíza Lin enfatizou que a decisão não era sobre como o Pentágono queria usar Claude, mas sobre a resposta do departamento à recusa da Anthropic. Ela sugeriu que as medidas pareciam projetadas para punir a empresa.
Dario Amodei, CEO da Anthropic, explicou a recusa, citando preocupações com:
A postura da Anthropic provocou a ira do ex-presidente Donald Trump, que criticou a empresa como “radical de esquerda” e “woke”. Ele ordenou que todas as agências federais cessassem imediatamente o uso da tecnologia da Anthropic.
Apesar da vitória temporária, a batalha legal da Anthropic contra a administração continua. A empresa argumenta que a designação de “risco à cadeia de suprimentos” violou seus direitos da Primeira Emenda e não concedeu o devido processo.
Em contraste, a OpenAI firmou um acordo com o Pentágono para implantar seus modelos de IA na rede classificada dos militares, evidenciando diferentes abordagens no setor de IA e defesa.