
Por Amy Thomson, Bloomberg
O Pentágono está perto de cortar relações com a Anthropic e pode rotular a empresa de inteligência artificial como um risco para a cadeia de abastecimento, depois de ficar frustrado com as restrições sobre como pode usar a tecnologia, relata Axios.
O colapso ocorre após meses de discussões controversas sobre como os militares poderiam usar ferramentas de nuvem, disse Axios, citando uma fonte familiarizada com as discussões que não o identificou. Em particular, a Anthropic quer garantir que a sua IA não seja usada para espionar cidadãos em grande escala ou para criar armas que possam ser utilizadas sem envolver um ser humano, afirma o artigo. O governo busca permissão para usar o torrão para “todos os fins legítimos”, afirmou.
Se a empresa de IA for considerada um risco para a cadeia de abastecimento, qualquer empresa que queira fazer negócios com os militares terá que cortar relações com a Anthropic, disse Axios, citando um alto funcionário do Pentágono. O porta-voz do Pentágono, Sean Parnell, disse à Axios que o relacionamento está sob revisão. Um porta-voz da Antrópico disse à Axios que está tendo “conversas produtivas, de boa fé” com o Departamento de Guerra e disse que a empresa está comprometida em usar IA para segurança nacional.
Um representante da Anthropic não respondeu imediatamente ao pedido de comentários da Bloomberg.
A Anthropic ganhou um contrato de dois anos com o Departamento de Defesa dos EUA no ano passado envolvendo o modelo Cloud Gov de IA e um protótipo Cloud for Enterprise. As discussões antropológicas poderiam dar o tom para as discussões com OpenAI, Google e xAI, que ainda não são usados para trabalhos classificados, disse Axios.
A Anthropologie, fundada por ex-pesquisadores da OpenAI, posiciona-se como uma empresa de IA mais responsável que visa evitar qualquer dano catastrófico de tecnologias avançadas.
Mais histórias como esta estão disponíveis bloomberg. com
©2026 Bloomberg LP



