
Por recentemente Parnell, Bloomberg
O PBC antropogênico, que durante anos se considerou uma alternativa segura aos rivais da inteligência artificial, afrouxou sua promessa de manter as cercas, uma das mudanças políticas mais dramáticas na indústria de IA, mesmo quando as startups antes se concentravam em humanizar seus lucros e sucesso.
Em 2023, a empresa disse na sua política de escalonamento responsável que atrasaria o desenvolvimento de IA que poderia ser perigoso. Em uma postagem no blog na terça-feira, a Anthropic disse que atualizou suas regras para dizer que não o faria mais se acreditasse que não tinha uma vantagem significativa sobre um concorrente.
“O ambiente político mudou no sentido de dar prioridade à concorrência da IA e ao crescimento económico, enquanto as discussões orientadas para a segurança ainda não ganharam força significativa a nível federal”, disse a Anthropic no seu post.
A decisão da empresa ilustra como os objectivos nobres que guiaram as startups de IA nos seus primeiros anos colidiram cada vez mais com a pressão para ganhar dinheiro e vencer a concorrência. OpenAI é uma corrida antropomórfica para dominar a tecnologia revolucionária contra muitos rivais poderosos, incluindo o Google da Alphabet Inc. e a XAI Corporation de Elon Musk.
O CEO da Anthropic, Dario Amodei, trabalhou na OpenAI e saiu em 2020, em parte por causa de suas preocupações de que a startup estava priorizando a comercialização e a velocidade em vez da segurança.
A OpenAI começou como uma organização sem fins lucrativos e no ano passado fez a transição para um empreendimento com fins lucrativos mais tradicional. Atualizou a sua declaração de missão em 2024, retirando a palavra “com segurança” do seu objetivo de garantir que a inteligência artificial geral beneficie a humanidade.
Ambas as empresas estão agora a pressionar por ofertas públicas iniciais já este ano para explorar o interesse dos investidores na IA. A Anthropic foi recentemente avaliada em US$ 380 bilhões, enquanto a OpenAI está levantando dinheiro com uma avaliação de mais de US$ 850 bilhões.
“Desde o início, dissemos que a velocidade da IA e a incerteza no campo exigem que iteremos e melhoremos rapidamente as políticas”, disse um porta-voz da Antropologia.
A política atualizada coincide com uma disputa crescente com o Departamento de Defesa dos EUA sobre a insistência da Anthropic em proteger o uso de ferramentas de IA em nuvem. O Pentágono ameaçou na terça-feira invocar uma lei da era da Guerra Fria para permitir que a Antrópico usasse a tecnologia da startup para os militares dos EUA se a empresa não cumprir os termos do governo até sexta-feira.
Durante a reunião de terça-feira entre Amodei e o secretário de Defesa Pete Hegseth, autoridades dos EUA levantaram vários resultados, incluindo ameaças de declarar a Antrópica um risco para a cadeia de suprimentos e apelos para que a Lei de Produção de Defesa use software de IA de qualquer maneira, mesmo que a empresa não concorde, informou a Bloomberg.
Mrinanka Sharma, pesquisador sênior de segurança, disse no início deste mês que estava deixando a Anthropic. “Estou constantemente avaliando a nossa situação”, escreveu ele em uma carta aos colegas que postou no X.
“O mundo está em perigo”, escreveu ele. “E não apenas da IA ou das armas biológicas, mas de toda uma série de crises interligadas que estão a emergir neste momento.”
Ele não respondeu imediatamente a um pedido de comentário sobre as mudanças na política de segurança da empresa.
Não foram apenas a Antropologia e a OpenAI que lutaram com salvaguardas adequadas para a IA. No início deste mês, a Bloomberg informou que a SpaceX de Elon Musk e a subsidiária xAI estavam competindo em uma nova competição secreta do Pentágono para desenvolver tecnologia de enxame de drones autônomos e controlados por voz, uma saída potencialmente controversa para Musk, que estava entre aqueles que argumentavam contra a criação de “novas ferramentas para matar pessoas”. Musk processou a OpenAI, que ele havia apoiado com milhões de dólares, na esperança de que continuasse sendo uma organização sem fins lucrativos comprometida com a criação de IA segura para o benefício do público.
A OpenAI está apoiando envios da Applied Insights para a competição de drones, informou a Bloomberg anteriormente, embora a OpenAI limite suas contribuições para o projeto ao componente de “controle de missão” que converte as vozes dos comandantes do campo de batalha e outras instruções em comandos digitais.
O conflito entre Amodei e o CEO da OpenAI, Sam Altman, ocasionalmente se tornou público. Durante uma cimeira da AI em Nova Deli na semana passada, os dois homens ficaram lado a lado juntamente com o primeiro-ministro Narendra Modi e recusaram-se a apertar as mãos enquanto todos os outros faziam fila no palco.
-Assistido por Vlad Savov e Lynn Doan.
(Atualizações com contexto adicional)
Mais histórias como esta estão disponíveis bloomberg. com
©2026 Bloomberg LP



