
Por Matt O’Brien e Konstantin Toropin, Associated Press
A administração Trump está a prosseguir com ameaças de designar a empresa de inteligência artificial Anthropic como um risco na cadeia de abastecimento, num movimento sem precedentes que poderia forçar outros contratantes do governo a parar de usar chatbots de IA Claude.
O Pentágono disse em comunicado na quinta-feira que “informou formalmente a liderança civil de que a empresa e seus produtos são considerados um risco na cadeia de abastecimento, com efeito imediato”.
A decisão fecha a porta para novas negociações com a Anthropic, quase uma semana depois que o presidente Donald Trump e o secretário de Defesa Pete Hegseth acusaram a empresa de colocar em risco a segurança nacional.
Trump e Hegseth anunciaram uma série de ameaças de sanções na sexta-feira passada, às vésperas da guerra do Irã, depois que o CEO da Antrópico, Dario Amodei, se recusou a recuar diante das preocupações de que os produtos da empresa pudessem ser usados para vigilância em massa de americanos ou armas autônomas.
Amodei a declaração Quinta-feira que “não acreditamos que esta ação seja legalmente correta e não vemos outra opção a não ser contestá-la em tribunal”.
“Trata-se de um princípio fundamental: os militares são capazes de usar a tecnologia para todos os fins legais. Os militares não permitirão que um fornecedor se insira na cadeia de comando, limitando o uso legal de uma capacidade crítica e colocando os nossos combatentes em risco”, afirmou o comunicado do Pentágono.
Amodei respondeu que as excepções restritas que procuravam limitar a vigilância antrópica e as armas autónomas “relacionam-se com casos de utilização de alto nível, e não com a tomada de decisões operacionais”.
Ele disse que houve “conversas produtivas” com o Pentágono nos últimos dias sobre se poderia continuar usando Claud ou estabelecer uma “transição suave” se nenhum acordo fosse alcançado. Trump deu aos militares seis meses para eliminarem gradualmente a nuvem, que já está amplamente incorporada em plataformas militares e de segurança nacional. Amodei disse que garantir que os combatentes “não sejam privados de equipamentos críticos no meio de grandes operações de combate” é uma prioridade.
Alguns empreiteiros militares já estão a cortar relações com a Anthropic, uma estrela em ascensão na indústria tecnológica que vende Cloud a várias empresas e agências governamentais. A Lockheed Martin disse que iria “seguir a direção do Presidente e do Departamento de Guerra” e procurar outros fornecedores de grandes modelos de linguagem.
“Esperamos um impacto mínimo porque a Lockheed Martin não depende de nenhum fornecedor LLM para qualquer parte do nosso trabalho”, disse a empresa.
Não está claro como o Departamento de Defesa interpretará o escopo da designação de risco. Amodei disse que um aviso que a Anthropic recebeu do Pentágono na quarta-feira mostra que isso se aplica apenas ao uso de clados pelos clientes como uma “parte direta” de seus contratos militares.
A Microsoft disse que seus advogados estudaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados à defesa”.
O Pentágono criticou sua decisão
A decisão do Pentágono de implementar uma regra para fazer face às ameaças de abastecimento por parte de adversários estrangeiros foi amplamente criticada. Os códigos federais definem o risco da cadeia de suprimentos como um “risco de que um adversário possa sabotá-la, introduzir maliciosamente funções indesejadas ou de outra forma interrompê-la, degradá-la ou espioná-la”.
A senadora norte-americana Kirsten Gillibrand, democrata de Nova York e membro do Comitê de Serviços Armados do Senado e do Comitê de Inteligência do Senado, chamou isso de “um uso indevido perigoso de uma ferramenta para combater a tecnologia controlada pelo adversário”.
“Este movimento imprudente é míope, contraproducente e um presente para os nossos adversários”, disse ele numa declaração escrita quinta-feira.
Neil Chilson, ex-tecnólogo-chefe republicano da Comissão Federal de Comércio que agora lidera a política de IA no Abundance Institute, disse que a decisão “parece um enorme exagero que prejudicará tanto o setor de IA dos EUA quanto a capacidade dos militares de adquirir a melhor tecnologia para o combatente dos EUA”.
No início do dia, um grupo de ex-funcionários da defesa e da segurança nacional enviou uma carta aos legisladores dos EUA expressando “grave preocupação” com a designação.
“O uso desta autoridade contra uma empresa nacional americana é um afastamento profundo do seu propósito e estabelece um precedente perigoso”, dizia a carta a ex-funcionários e especialistas em política, incluindo o ex-diretor da CIA Michael Hayden e líderes aposentados da Força Aérea, do Exército e da Marinha.
Acrescentaram que tal designação “destina-se a proteger os Estados Unidos da intrusão de adversários estrangeiros – de empresas vistas em Pequim ou Moscovo, e não de inovadores americanos que operam de forma transparente sob o Estado de direito. Somos totalmente autónomos na aplicação desta ferramenta para punir uma empresa dos EUA por se recusar a remover protecções contra a vigilância interna generalizada, e para alargar esta secção de forma totalmente autónoma”.
Consumidores antropogênicos veem um aumento nos downloads
Ao perder parcerias importantes com empreiteiros de defesa, a Anthropic experimentou um aumento nos downloads de consumidores na semana passada, mantendo sua postura ética. Mais de um milhão de pessoas se inscreveram no Cloud todos os dias esta semana, disse a empresa, ultrapassando o ChatGPT da OpenAI e o Gemini do Google como o principal aplicativo de IA em mais de 20 países na App Store da Apple.
O conflito com o Pentágono aprofunda a rivalidade acirrada da Anthropic com a OpenAI, que começou quando ex-líderes da OpenAI, incluindo Amody, fundaram a Anthropic em 2021.
Horas depois de o Pentágono ter castigado a Anthropic na última sexta-feira, a OpenAI anunciou um acordo para substituir efetivamente a Anthropic pelo ChatGPT em um ambiente militar classificado.
A OpenAI disse que queria proteções semelhantes contra vigilância doméstica e armas totalmente autônomas, mas mais tarde teve que revisar seus contratos, com o CEO Sam Altman dizendo que não deveria ter entrado em um acordo que “parece oportunista e desleixado”.
Amodei lamentou sua própria participação naqueles “dias difíceis para a empresa”, dizendo na quinta-feira que queria “pedir desculpas diretamente” por um memorando interno enviado aos funcionários da Anthropic que atacava o comportamento da OpenAI e sugeria que a Anthropic estava sendo punida por não dar a Trump “um elogio ditatorial”.



