
Por Claire Duffy, CNN
Nova Iorque – Os executivos da Meta testemunharam em um tribunal de Los Angeles no início deste mês que, embora o uso da plataforma da empresa possa ser problemático, não pode ser considerado um vício. Mas dentro da empresa, os pesquisadores tentaram estudar se certos recursos do Facebook podem contribuir para um comportamento “viciante” ou “semelhante ao vício” entre os usuários.
Isso está de acordo com novos documentos internos divulgados em processos judiciais em outro processo contra a Meta.
Os arquivos, divulgados na sexta-feira, levantam novas questões sobre o que a Meta sabe sobre os riscos de suas plataformas, especialmente para os jovens – uma questão atualmente no centro de uma batalha legal em curso contra a empresa. Recursos que os pesquisadores da empresa questionaram, incluindo reprodução automática e feeds de rolagem infinita, são recursos que os processos judiciais agora afirmam que contribuem para o vício e os danos aos jovens.
Funcionários da empresa, então conhecida como Facebook, propuseram uma auditoria pública dos recursos de design que poderiam contribuir para o uso forçado da plataforma no outono de 2018, citando a crescente preocupação pública de que as empresas de tecnologia estivessem manipulando intencionalmente os usuários, de acordo com os documentos.
Eles sugeriram trabalhar com pesquisadores externos para conferir conhecimento e credibilidade ao esforço. Um especialista sugerido foi Tristan Harris, que na época estava Recentemente deixei o emprego Como especialista em ética do Google, ele procurou o Center for Humane Technology para abordar preocupações sobre mídias sociais e vício em smartphones. Mas os documentos mostram que os funcionários estão preocupados com a possibilidade de Harris sugerir mudanças no Facebook com as quais as equipes de produto da empresa não concordarão.
Os pesquisadores levantaram a hipótese de que certos recursos poderiam “promover comportamentos frequentes, automáticos e indesejados” que os usuários não desejam ou desejam.
“Isso pode incluir sentimentos de manipulação, percepção de falta de controle associada a certos comportamentos e sentimentos de dependência ao verificar ou visitar o Facebook, que podem estar relacionados a um menor bem-estar – e podem promover a experiência subjetiva e conversacional de se sentir ‘viciado’ no Facebook”, escreveram eles.
Os documentos foram divulgados como prova em uma ação movida por centenas de distritos escolares e procuradores-gerais nos Estados Unidos contra Meta, Snap, TikTok e Google, controlador do YouTube, no Tribunal Distrital do Norte da Califórnia. O caso será julgado até o final deste ano.
Isso ocorrerá após a conclusão de um processo de dependência de mídia social contra a Meta e o YouTube atualmente pendente em Los Angeles, o primeiro de mais de 1.500 processos movidos por indivíduos contra as empresas. Meta negou as alegações do processo.
Os pais e os defensores da segurança levantaram preocupações durante anos de que as plataformas de mídia social são projetadas para prender os usuários e mantê-los navegando o maior tempo possível para veicular-lhes mais anúncios. O CEO da Meta, Mark Zuckerberg, contestou a afirmação em seu depoimento no julgamento de Los Angeles na semana passada, dizendo que a empresa estava focada em maximizar o “valor” para os usuários.
A Meta nunca conduziu a auditoria proposta, embora a porta-voz da Meta, Lisa Crenshaw, tenha dito que conduziu outras pesquisas sobre o tema que informaram as mudanças de design introduzidas nos últimos anos, como ferramentas de controle parental e configurações padrão de segurança para adolescentes.
“Projetamos intencionalmente padrões automáticos, como o modo de suspensão, que incentivam os adolescentes a sair do aplicativo e pausar as notificações à noite”, disse Crenshaw em comunicado. “Os pais podem ir ainda mais longe, limitando o tempo total de seus filhos adolescentes a 15 minutos por dia ou definindo intervalos programados quando os adolescentes precisarem sair do nosso aplicativo.”
A divulgação de sexta-feira é apenas o último lote de documentos internos a ser tornado público no caso do Norte da Califórnia.
Documentos publicados anteriormente também levantaram preocupações sobre o uso forçado de metapesquisadores em um bate-papo interno, dizendo: “IG (Instagram) é uma droga… somos basicamente traficantes”. Documentos internos de outras empresas de tecnologia sugerem da mesma forma que as empresas estavam cientes de que seus aplicativos poderiam prejudicar adolescentes. As empresas disseram na época que os documentos pintavam uma imagem enganosa de suas plataformas e esforços de segurança.
‘Qual é o verdadeiro problema humano neste espaço?’
A Meta e outras empresas de tecnologia há muito argumentam publicamente que não há evidências conclusivas que liguem as mídias sociais ao vício ou a outros desafios de saúde mental.
“Acho importante distinguir entre dependência clínica e uso problemático, portanto, usar mais do que você acha que é bom”, testemunhou o chefe do Instagram, Adam Mosseri, no início deste mês em Los Angeles.
“Às vezes usamos a palavra ‘vício’ para significar as coisas de forma mais casual”, disse ele. “Tenho certeza de que disse que sou viciado em um programa da Netflix, você sabe, quando cheguei muito tarde uma noite, mas não acho que seja a mesma coisa que um vício clínico.”
Mas o documento de 2018 sugere que os investigadores da empresa acreditam que algumas das funcionalidades do Facebook contribuem para o uso repetido que faz com que os utilizadores se sintam mal, ou que tenham pouco controlo sobre o seu comportamento. Na proposta, os pesquisadores sugeriram estender o estudo ao Instagram.
“Dado que atualmente não existe um transtorno de dependência de FB clinicamente definido – quais são os verdadeiros problemas humanos neste espaço?” Eles escreveram. “A equipa de saúde reformulou a descrição da dependência para que o FB possa contribuir para a utilização de padrões que as pessoas consideram difíceis de controlar, apesar do impacto negativo que têm nas suas vidas, e para identificar e corrigir esses factores contribuintes”.
Os pesquisadores expressaram o desejo de identificar e alterar recursos problemáticos – como reprodução automática de vídeo, notificações de contagem de “curtidas” e “rolagem infinita” – e observaram que a plataforma promoveria apenas comportamentos “frequentes” que fornecessem valor real aos usuários.
Um documento separado descreve “considerações menores” em torno da auditoria proposta, incluindo a oportunidade de abordar alegações “extremos” na mídia de que o Facebook está “aspergindo cocaína comportamental” em seus produtos e “anulando qualquer regulamentação”. O documento observa que as auditorias podem melhorar o bem-estar dos utilizadores, mas diz que as equipas devem considerar potenciais compensações, incluindo a redução do envolvimento.
A empresa não realizou a auditoria proposta. Harris, do Center for Humane Technology, não respondeu imediatamente a um pedido de comentário sobre se havia discutido o estudo com a empresa.
Mas Crenshaw, da Meta, diz que os pesquisadores da empresa continuam as pesquisas com a intenção de melhorar as experiências potencialmente negativas dos usuários em sua plataforma. Ele disse que os pesquisadores do Meta também se reuniram com outros acadêmicos que trabalham na área, incluindo os psicólogos britânicos e pesquisadores de psicologia digital Doria Kuss e Mark Griffiths, que foram mencionados junto com Harris na proposta de 2018.
Vários meses após a proposta, em maio de 2019, Meta Um estudo separado foi publicado publicamente “Compreendendo as percepções do uso problemático do Facebook”, conduzido por pesquisadores internos.
O Estudo Público de 2019, que envolveu uma pesquisa com 20.000 usuários do Facebook, descobriu que cerca de 3% dos usuários do Facebook nos EUA experimentaram “uso problemático”, definido como sensação de falta de controle sobre seu uso e problemas de sono, trabalho ou relacionamento devido à plataforma. O uso problemático foi maior entre adolescentes e adultos jovens. Os pesquisadores concluíram que o Facebook deveria considerar facilitar a pausa das pessoas na plataforma e reduzir a frequência de notificações, especialmente para adolescentes.
Em 2021, a Meta lançou lembretes de “faça uma pausa” para adolescentes no Instagram. Adicionou ferramentas de controle parental – incluindo a opção de definir um limite de tempo para rolagem – no próximo ano. Em 2024, a Meta consolidou muitos de seus recursos de segurança para adolescentes em “contas de adolescentes”, que aplicam configurações padrão de privacidade e segurança para adolescentes, como pausar notificações durante a noite.
O-CNN-Wire
™ & © 2026 Cable News Network, Inc., uma empresa Warner Bros. Todos os direitos reservados



