
Por Bárbara Ortute, Associated Press
A OpenAI enfrenta sete ações judiciais alegando que o ChatGPT induziu suicídio e delírios prejudiciais em pessoas, mesmo que não tivessem problemas de saúde mental anteriores.
As ações movidas na quinta-feira no tribunal estadual da Califórnia alegam homicídio culposo, suicídio assistido, homicídio culposo e negligência. A ação, movida pelo Social Media Victims Law Center e pelo Tech Justice Law Project em nome de seis adultos e um adolescente, afirma que a OpenAI liberou conscientemente o GPT-4o prematuramente, apesar dos avisos internos de que era perigosamente bajulador e psicologicamente manipulador. Quatro das vítimas cometeram suicídio.
___
Nota do Editor — Esta história contém discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, o National Suicide and Crisis Lifeline nos EUA está disponível ligando ou enviando uma mensagem de texto para 988.
___
De acordo com a ação movida no Tribunal Superior de São Francisco, o adolescente Amaury Lacy, de 17 anos, passou a usar o ChatGPT para buscar ajuda. Mas em vez de ajudar, “o produto ChatGPT defeituoso e inerentemente perigoso causa vício, depressão e, eventualmente, aconselha-o sobre a maneira mais eficaz de amarrar o laço e quanto tempo ele pode “viver sem respirar””.
“A morte de Amaury não foi um acidente ou coincidência, mas um precursor da decisão deliberada da OpenAI e de Samuel Altman de reduzir os testes de segurança e trazer o ChatGPT ao mercado”, afirma o processo.
A OpenAI classificou as circunstâncias como “incrivelmente dolorosas” e disse que estava analisando os processos judiciais para entender os detalhes.
Outra ação movida por Alan Brooks, 48, de Ontário, Canadá, afirma que o ChatGPT serviu como uma “ferramenta de recursos” para Brooks por mais de dois anos. Depois, sem aviso prévio, mudou, aproveitando-se da sua vulnerabilidade e “manipulando-o e levando-o a ter delírios. Como resultado, Alan, que não tinha nenhuma doença mental anterior, foi arrastado para uma crise de saúde mental que resultou em devastadores danos financeiros, de reputação e emocionais”.
“Esses casos são sobre responsabilização por um produto que foi projetado para confundir a linha entre ferramenta e companheiro em nome do aumento do envolvimento do usuário e da participação no mercado”, disse o advogado Matthew P. Bergman, fundador do Social Media Victims Law Center.
A OpenAI, acrescentou ele, “projetou o GPT-4o para prender emocionalmente os usuários, independentemente de idade, sexo ou origem, e o lançou sem as salvaguardas necessárias para protegê-los”. Ao trazer seu produto ao mercado sem salvaguardas adequadas para dominar o mercado e impulsionar o engajamento, disse ele, a OpenAI comprometeu a segurança e priorizou a “manipulação emocional em vez do design ético”.
Em agosto, os pais de Adam Rain, de 16 anos, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT treinou o garoto da Califórnia a planejar e tirar a própria vida no início deste ano.
“As ações movidas contra a OpenAI revelam o que acontece quando as empresas de tecnologia lançam produtos no mercado sem as devidas proteções para os jovens”, disse Daniel Weiss, diretor de defesa da Common Sense Media, que não fez parte das reclamações. “Esses eventos trágicos mostram pessoas reais cujas vidas foram interrompidas ou perdidas quando usaram tecnologia projetada para mantê-las engajadas em vez de mantê-las seguras”.
Se você ou alguém que você conhece está lutando contra sentimentos de depressão ou pensamentos suicidas, o 988 Suicide and Crisis Lifeline oferece suporte gratuito, 24 horas por dia, informações e recursos para ajuda. Ligue ou envie uma mensagem para Lifeline em 988 ou visite 988lifeline.org Site, onde o chat está disponível.



