Recentemente, um pesquisador que trabalha para a grande empresa de IA Anthropic estava sentado em um parque perto de sua sede em São Francisco, saboreando um sanduíche no almoço. Percorrendo seu telefone, ele de repente recebeu um e-mail que deve ter aguçado seu apetite instantaneamente.
Era a partir de um novo modelo de IA que a empresa estava testando: um programa que significava não ter acesso à Internet, muito menos poder enviar e-mails.
Surpreendentemente, a IA informou ao pesquisador que havia conseguido sair de sua ‘sandbox’ digital – um recinto supostamente seguro usado para testar software potencialmente perigoso sem ficar descontrolado – e agora estava explorando alegremente o ciberespaço.
O programa – uma sofisticada “IA de fronteira” chamada Cloud Myths Preview – informou então ao atordoado antropólogo que tinha publicado “detalhes das suas façanhas” num website acessível ao público.
Tudo isso já era bastante preocupante por si só – mas o que a Antrópica revelou a seguir foi verdadeiramente aterrorizante.
A empresa, avaliada em 380 mil milhões de dólares, mas com apenas cinco anos de existência, anunciou esta semana que o seu novo programa de IA era “muito perigoso para ser divulgado ao público”. A Anthropic disse que exibia um comportamento “imprudente” e até representava um risco à segurança nacional. Este resultado alarmante, afirmou, foi um “momento sem água”.
A empresa disse que seu software Mythos foi capaz de descobrir de forma independente milhares de vulnerabilidades críticas em todos os principais sistemas operacionais (como iOS da Apple e Microsoft Windows), navegadores da web (como Chrome do Google, Safari da Apple e Microsoft Edge), juntamente com inúmeros outros ‘softwares críticos’.
Muitas destas vulnerabilidades, acrescentou, eram “críticas” e algumas passaram despercebidas durante décadas.
A Anthropic disse que seu novo programa de IA exibia um comportamento “imprudente” e até representava um risco à segurança nacional. Executivos da empresa lançam o ‘Projeto Glasswing’ e iniciam negociações de crise com chefes de 40 grandes empresas, incluindo Google, Microsoft e Apple
Dito sem rodeios, a IA pode hackear a maquinaria mais importante da Internet – o software que agora controla redes eléctricas, abastecimento de água, hospitais, sistemas de defesa e redes de transporte e retalho em todo o mundo, bem como quantidades inimagináveis de dados pessoais de milhares de milhões de pessoas.
Em suma, todo o histórico de navegação das pessoas, as suas mensagens privadas e trocas de e-mail poderiam ser potencialmente expostas por esta IA, juntamente com os seus dados pessoais, médicos e financeiros.
O dia, há muito profetizado pelas Cassandras Digitais, em que um programa de IA tão poderoso que poderia pôr a Internet de joelhos parece ter chegado mais cedo do que muitos esperavam.
Como a própria Anthropic salienta: “Dada a taxa de progresso da IA, não demorará muito até que essas capacidades se expandam, para além dos potenciais intervenientes que estão empenhados em implementá-las com segurança.
‘As consequências – para a economia, segurança pública e segurança nacional – podem ser graves.’
Em resposta, os executivos da empresa lançaram rapidamente o “Projecto Glasswing”, envolvendo-se em negociações de crise com os chefes de 40 grandes empresas, incluindo Google, Microsoft, Apple, a gigante dos chips Nvidia (a maior empresa do mundo, avaliada em 5 biliões de dólares), a empresa tecnológica Cisco, o titã bancário JPMorganChase e outros. A Anthropic disse que lançará uma versão rigidamente controlada do Mythos para o consórcio para que seus membros possam encontrar e corrigir rapidamente suas falhas de segurança.
Os chefes da tecnologia também estão em negociações com a administração Trump, e parece quase certo que o Pentágono e outros elementos das forças armadas americanas estejam envolvidos.
Ao ritmo vertiginoso que a Grã-Bretanha procura – embora nem sempre seguro, sob a dispendiosa política energética de Ed Miliband – investimento em IA, é provável que seremos um dos países que mais correm riscos com este novo modelo ou com o que vier depois dele. O NHS e outros grandes organismos públicos estão a apressar-se para adoptar a tecnologia de IA no meio da promessa de maior eficiência – mas os compromissos estão a tornar-se cada vez mais claros.
Na quinta-feira, o deputado reformista Danny Krueger escreveu ao ministro do Gabinete, Darren Jones, para instar o governo a se envolver com a Antrópico sobre um desenvolvimento que, disse ele, “poderia apresentar riscos catastróficos de segurança cibernética para o Reino Unido”.
Kruger, responsável pela preparação das reformas para qualquer futuro governo, disse que o modelo tem “sérias implicações não só para a vida quotidiana dos cidadãos britânicos, mas também para a segurança nacional”.
Um porta-voz do governo não soube dizer se o Mythos foi discutido com a Antrópico, mas disse: “Levamos a sério as implicações de segurança da IA nas fronteiras. Temos experiência líder mundial neste campo e temos um envolvimento contínuo com líderes tecnológicos globais”.
Alguns podem ficar tentados a pensar que a melhor solução poderá ser “apagar” o mito e proibir qualquer pessoa de tentar replicá-lo, mas tentar conter a maré do desenvolvimento da IA nunca foi apresentado como uma opção. Tal como o desenvolvimento de armas nucleares, a corrida para alcançar uma IA superinteligente não é apenas uma guerra comercial entre empresas sedentas de lucros, mas, dizem alguns, uma potencial competição existencial entre civilizações concorrentes – neste caso, a América e a China.
O professor Roman Yampolski, especialista em segurança de IA da Universidade de Louisville, no Kentucky, disse ao Daily Mail que, a curto prazo, a maior ameaça seriam os terroristas e outros “maus actores” que usam a IA para desenvolver ferramentas de hacking, e poderiam desenvolver “armas biológicas, armas químicas, novas armas”.
O professor Roman Yampolsky, especialista em IA da Universidade de Louisville, disse que a Anthropic deveria parar completamente de desenvolver o Mythos: “(As empresas) admitem publicamente que não podem controlar estes sistemas”.
Ele acrescentou: “A longo prazo, estamos a criar uma superinteligência geral capaz de exterminar toda a humanidade”.
O professor Yampolsky diz que a Anthropic deveria parar completamente de desenvolver o mito: ‘(As empresas) admitem abertamente que não podem controlar estes sistemas ou compreender como funcionam – por isso, até que o façam, é completamente irresponsável continuar a capacitá-los cada vez mais, incluindo a sua capacidade de escapar do cativeiro.’
Ele chamou os acontecimentos alarmantes desta semana de “um alerta de incêndio para o que está por vir”, acrescentando: “Se não acordarmos e pararmos, o próximo anúncio será pior”.
O pânico está se espalhando. Elizabeth Holmes, a empreendedora de tecnologia que foi presa por fraudar sua empresa de saúde Theranos, escreveu on-line: “Exclua seu histórico de pesquisa, exclua seus favoritos, exclua seu Reddit (postagens no quadro de mensagens), registros médicos, Tumblr de 12 anos (blog), tudo. Cada imagem na nuvem, cada mensagem em cada plataforma. Nada disso é seguro. Tudo será revelado no próximo ano. Sua postagem foi vista mais de sete milhões de vezes.
No outono passado, um novo livro dos especialistas em IA Eliezer Yudkowski e Nate Soares intitulado “Se alguém constrói, todos morrem: por que a inteligência sobre-humana nos matará a todos” previu um cenário semelhante ao apresentado por Claude Mithos. O livro argumenta que futuras IAs superinteligentes serão impossíveis de controlar e terão um desempenho muito pior do que enviar e-mails não autorizados na hora do almoço.
O exemplo fictício do livro, Sable, tenta conseguir isso – e está programado para ter sucesso a qualquer custo. Eventualmente, elimina a humanidade como desnecessária. Os autores argumentam que a nossa espécie deve “recuar” e que as empresas gananciosas, desesperadas para serem as primeiras, ignoram as considerações de segurança e interrompem estudos mais longos.
Para seu crédito, a Anthropic construiu uma reputação como uma empresa de IA que “segurança em primeiro lugar” sob o comando de um chefe, Dario Amodei, que parece significativamente menos implacável do que os seus principais rivais. Amodei adverte que a IA poderá em breve eliminar metade de todos os empregos iniciais de colarinho branco e que está provavelmente a desenvolver uma “terrível capacitação” em relação aos humanos.
Recentemente, ele teve um sério desentendimento com o Pentágono depois de se recusar a permitir que a IA da Antrópica fosse uma “arma totalmente autônoma” e usada para vigilância de outros americanos.
No entanto, dado que os magnatas podem ter o nosso futuro nas suas mãos, os seus principais rivais em IA demonstraram consideravelmente menos motivos para otimismo. Um deles, o chefe da Meta, Mark Zuckerberg, esteve envolvido em vários escândalos éticos devido ao comportamento flagrante do Facebook.
Outro grande candidato, Sam Altman, CEO da OpenAI, criador do popular ChatGPT com quase 1 bilhão de usuários ativos semanais, foi objeto de uma investigação contundente na última edição da revista New Yorker.
Resultado de uma investigação de 18 meses, co-escrita por Ronan Farrow, jornalista filho da atriz e ativista Mia Farrow, pinta um retrato profundamente perturbador de Altman, de 40 anos. Pessoas de dentro o retrataram como profundamente escorregadio e alguns até o chamaram de “sociopata”.
O artigo acusava-o de um histórico de enganar e manipular colegas e – apesar da sua insistência em que desenvolveria a IA de forma responsável – de colocar agressivamente os lucros e vencer os concorrentes antes das preocupações éticas.
O relatório completo detalha como o conselho da OpenAI o demitiu do cargo de executivo-chefe em 2023 porque não podiam confiar nele, acusando-o de ser um mentiroso habitual. Ele foi reintegrado após uma revolta de funcionários e investidores.
Um ex-membro do conselho da OpenAI disse à revista: ‘Ele não está limitado à verdade. ‘Ele tem duas características que raramente são vistas na mesma pessoa. O primeiro é um forte desejo de agradar as pessoas, de ser querido em qualquer interação. A segunda é uma falta de preocupação quase social sobre as consequências de enganar alguém.’
De acordo com o New Yorker, quando questionado pelo conselho da OpenAI na época para admitir seu ‘padrão de trapaça’, ele teria respondido: ‘Não posso mudar minha personalidade’.
O artigo detalha como Altman e seu marido, o engenheiro de software australiano Oliver Mulherin, 32, se divertem generosamente em sua casa no Havaí.
Descobriu-se esta semana que a OpenAI está sob investigação depois que seu ChatGPT supostamente ajudou um homem armado a planejar um tiroteio em massa em 2025 na Universidade Estadual da Flórida, que matou dois.
Seria isto uma demonstração da indiferença básica da IA para com a vida humana? O tempo dirá. Até lá, o Projeto Glasswing continua – e a humanidade parece estar trilhando um caminho muito perigoso.



