
No mês passado, quando vi uma peça off-Broadway sobre a crise moral dos trabalhadores de empresas de inteligência artificial como a Palantir, fiquei impressionado com a sua subtileza. É sobre um programador de computador brilhante e em conflito envolvido em um projeto secreto – pare de ler aqui se quiser evitar spoilers – para ganhar um contrato do Departamento de Segurança Interna para um banco de dados que rastreia imigrantes. Um thriller teatral de ritmo acelerado, a peça capta perfeitamente a linguagem elegante e grandiosa com que os titãs da tecnologia justificam os seus projetos potencialmente totalitários ao público e, talvez, a si próprios.
“Os dados são a linguagem do nosso tempo”, diz um gerente de análise de dados chamado Alex, parecendo muito com o chefe da Palanti, Alex Karp. “E como todas as línguas, as suas narrativas serão escritas pelos vencedores. Portanto, se aqueles que são fluentes na língua não ajudarem a democracia a florescer, nós prejudicamo-la.
Estou sempre em busca de arte que busque dar sentido ao nosso momento político de crise e de carreira e que incentive o drama. Mas nas últimas duas semanas, eventos do mundo real ecoaram alguns dos pontos da trama de “Data”, quase começando a parecer proféticos.
Algoritmo assustador
Seu protagonista, Manesh, criou um algoritmo com a capacidade de fazer previsões terrivelmente precisas. Quando vi a peça, não tinha ideia se essa tecnologia estava realmente no horizonte. Mas esta semana, o The Atlantic noticiou sobre a Mantic, uma startup cujo motor de IA superou muitos dos melhores previsores humanos em domínios que vão da política ao desporto e ao entretenimento.
Também fiquei surpreso com o fato de muitas das pessoas que nos trouxeram ferramentas de IA realmente compartilharem a angústia de Manish e de seu colega, Riley, que lamenta: “Venho aqui todos os dias e estou tornando o mundo um lugar pior”. Penso que é isso que a maioria das pessoas que trabalham com IA estão a fazer, mas é difícil imaginar que muitos deles sintam que estão imersos numa cultura que os aclama como exploradores heróicos à beira de avanços inspiradores na possibilidade humana – ou talvez pós-humana. Como disse a crítica de “Data” da revista New York: “Quem chega tão longe no trabalho sem pensar – e justificar por muito tempo – as consequências?”
Mas na semana passada, Mrinanka Sharma, investigadora de segurança da Anthropic, demitiu-se com uma carta aberta que pareceria repleta de um guião teatral. “O mundo está em perigo”, escreveu ele, descrevendo a pressão constante do trabalho “para deixar de lado as coisas mais importantes”. A partir de então, disse Sharma, ele se dedicaria à “construção de comunidades” e à poesia. Dois dias depois, um dos pesquisadores da OpenAI, Joe Hitzig, anunciou sua demissão no The New York Times, descrevendo como a ferramenta poderia usar informações íntimas para atingir as pessoas com anúncios.
Procurei Matthew Libby, autor de “Data”, porque estava curioso para saber como ele se tornou tão preciso, e descobri que antes de trabalhar no teatro, ele estudou ciências cognitivas na Universidade de Stanford. Mais especificamente, ele é formado em Sistemas Simbólicos, um programa interdisciplinar que combina disciplinas como ciência da computação, filosofia e psicologia. Ele sempre quis ser escritor, disse ele, mas queria ter certeza de que teria algo sobre o que escrever.
Não é de surpreender que Libby, que se formou em 2017, tenha sentido a atração do Vale do Silício, a certa altura sendo entrevistada para um estágio na Palantir. Não entendendo, ele ficou chateado. Mas quando se deparou com uma matéria do Intercept de 2017 intitulada “Palenty fornece motor para a máquina de deportação de Donald Trump”, ele se perguntou o que faria se trabalhasse lá, assim nasceu “Data”.
Talvez a coisa mais interessante sobre os “dados” não seja a visão das pessoas que deixam as empresas criando IA perigosa, mas as histórias que elas contam a si mesmas sobre o que a maioria fica e o que estão criando. “Minha experiência na indústria de tecnologia mostra que sempre existe esse ar de inevitabilidade”, disse Libby. “Você sabe, ‘Não podemos impedir nada disso porque está acontecendo de qualquer maneira, e você não quer ser a pessoa que está fazendo isso?'”
o fim do mundo
Entre as tecnologias, a IA é única na medida em que aqueles que a criam — e lucram com ela — avisam de vez em quando que ela pode destruir a humanidade. Como Sam Altman disse em 2015, pouco antes de ajudar a fundar a OpenAI: “Acho que a IA provavelmente levará ao fim do mundo. Mas, enquanto isso, grandes empresas serão construídas com aprendizado de máquina sério”. Uma versão ligeiramente truncada dessa citação aparece como epígrafe no manuscrito de Libby.
No mês passado, Dario Amodei, chefe da Antropologia, o mais ostensivamente responsável pelos gigantes da IA, publicou um ensaio intitulado “Adolescência da Tecnologia” sobre o potencial apocalipse da IA. Os sistemas de IA, escreveu ele, poderiam voltar-se contra a humanidade ou ajudar a desenvolver armas biológicas. Podem ser usados para criar um panóptico digital que é mais massivo do que qualquer coisa que existe hoje ou podem ser usados para criar propaganda tão perfeitamente adaptada aos seus utilizadores que equivaleria a uma lavagem cerebral.
Mas, na opinião de Amodei, estas possibilidades infernais são menos uma razão para abrandar o desenvolvimento da IA ou mantê-la fora das mãos dos Estados vigilantes, do que para garantir que os EUA permanecem à frente da China. “Faz sentido usar a IA para fortalecer a democracia e resistir à ditadura”, escreveu ele. “É por isso que a Anthropic considera importante fornecer IA às comunidades de inteligência e defesa dos Estados Unidos e seus aliados democráticos.” O seu argumento seria ainda mais forte se os Estados Unidos ainda fizessem, em qualquer sentido significativo, parte de uma coligação de democracias, em vez de uma nação governada por um aspirante a ditador, sem o mínimo apoio da indústria tecnológica.
Alex em “Data” apresenta um argumento semelhante para licitações em contratos do Departamento de Segurança Interna. “Somos combatentes que defendem a democracia”, disse ele. “A China já tem um sistema de crédito social automatizado que está a exportar para países em desenvolvimento. A Rússia tem a infra-estrutura de distracção mais direccionada que o homem conhece. É aí que estão a inovar. Se pararmos de inovar? Perderemos a nossa liderança.” A ameaça do autoritarismo no exterior tornou-se a justificativa para a construção das ferramentas do autoritarismo digital no país. Pena que não seja apenas ficção.
Michelle Goldberg é colunista do The New York Times.



