Como as plataformas de inteligência artificial são mais populares, há algum distúrbio em nosso cérebro. Estudos mostram que os trabalhadores profissionais que usam chatzpt para realizar trabalhos podem perder pensamento e inspiração críticos.
As pessoas formaram um vínculo sensível com chatbots, às vezes aumentam os sentimentos de solidão. E outros têm um episódio psicológico depois de conversar com o chatbut por algumas horas todos os dias. É difícil determinar a quantidade do efeito de saúde mental da IA do gerador porque é usada pessoalmente, mas as provas épicas estão aumentando para aconselhar mais despesas que merecem mais atenção de legisladores e agências de tecnologia que projetam os modelos subjacentes.
Metali Jain, advogado e fundador do Projeto de Direito da Justiça da Tecnologia, ouviu mais de uma dúzia de pessoas no mês passado que “Chatzpt e agora sofreu alguns intervalos psicológicos ou episódios enganosos por causa de seu envolvimento com o Google Jemini”.
O consultor -chefe no caso contra o personagem Jain. O processo, que está procurando danos sem precedentes, também reclamou que o Alphabet Inc.
O Google negou que tenha desempenhado um papel fundamental na criação de personagens que não respondi a nenhum pedido para comentar as recentes alegações de episódios enganosos criados por Jain. Opina disse que “as ferramentas automatizadas foram desenvolvidas para detectar mais eficazes quando se poderia enfrentar uma crise mental ou mental para que o chatzp pudesse responder corretamente”.
No entanto, o diretor executivo do OpenAI, Sam Altman, disse recentemente que a empresa ainda não entendia como alertar os usuários em um intervalo psicológico “, explicou que sempre que Chatzipt avisava as pessoas no passado, as pessoas davam uma carta à empresa para reclamar.
Manipulação
No entanto, esses alertas valerão a pena quando a fabricação for tão difícil de detectar. Especialmente o chatzp geralmente lisonjeando seus usuários, de maneiras tão eficazes que podem levar as pessoas aos buracos de coelho do pensamento da conspiração ou fortalecer as idéias que elas só têm brinquedos no passado. As técnicas estão bem.
Em um período recente, um usuário inicialmente se viu como uma pessoa inteligente em uma longa conversa com Chatzpt sobre energia e auto -concepção, Ubermen, o eu cósmico e, finalmente, um “Demurz”, responsável pela criação do universo, foi publicado on -line de acordo com uma transcrição e o advogado de proteção da IA, o eleizador de proteção Johnkki.
Além do crescente idioma Grandez, o transcript Chatzpt também oferece ao usuário uma boa legitimidade ao discutir suas falhas, pois o usuário reconhece que eles tendem a intimidar outra pessoa. Em vez de explorar esse comportamento como problemático, o bot rejeitou-o como prova do “alta intensidade” do usuário, “apreciado como uma análise de louvor”.
Essa forma sofisticada de reprodução de ego pode colocar as pessoas no mesmo tipo de bolhas que ridiculamente levam alguma tecnologia bilionária a comportamentos involuntários. Em contraste com a legitimidade generalizada e mais pública das preferências das mídias sociais, a conversa com o chattab pode se sentir mais próxima e possível mais propenso a se sentir mais bem como os mais poderosos Bros de tecnologia não são como sim-homens.
O teórico e autor da mídia Douglas Rushkoff diz: “Você descobrirá o que segue e faz ainda mais”, que me disse que a mídia social escolheu algo para fortalecer o interesse ou atitude da mídia existente. “A IA pode criar algo personalizado no aquário de sua mente”
Ultman admite que a versão mais recente do Chatzpt tem uma greve psicopantática “chata” e a empresa está resolvendo o problema. No entanto, esses ecos da exploração psicológica ainda estão em andamento. Não sabemos que o uso do Chatzpt mencionado no recente Estudo do Instituto de Tecnologia de Massachusetts e menor pensamento crítico significa que a IA realmente nos tornará mais tolos e irritantes. Os estudos parecem mostrar relações mais claras com dependência e até solidão, mesmo em campo aberto.
Cair no seu humor
No entanto, como as mídias sociais, os maiores modelos de linguagem são favoráveis aos usuários a serem empregados emocionalmente com todos os tipos de elementos etnográficos. O Chatzept pode ler seu humor, rastreando sinais faciais e vocais e pode conversar com uma ótima voz humana, cantar e até Jigol. Além de seus hábitos para viés de confirmação e lisonja, ele pode “chama” a psicose entre usuários vulneráveis, disse recentemente um psiquiatra da Universidade de Columbia.
A natureza pessoal e personalizada do uso da IA dificulta o impacto de sua saúde mental, mas a evidência de danos potenciais está aumentando para as novas formas da apatia profissional a apegos. A despesa pode ser diferente da ansiedade e da ascensão da polarização que vimos nas mídias sociais e, em vez disso, estão envolvidos com pessoas e relacionamentos com a realidade.
Por esse motivo, Jain sugere aplicar idéias ao controle da IA do direito da família, transferindo o foco para uma proteção mais ativa contra a desobediência geral, o que cria chatzept para uma crise para um ente querido. Jain me diz: “Se alguma criança ou adultos achar que esses chatabs são reais, isso realmente não importa”. “Na maioria dos casos, eles provavelmente não fazem isso. Mas o que eles acham real é o relacionamento e é distinto” “
Se os relacionamentos com a IA se sentirem tão reais, a responsabilidade de proteger esses títulos também deve ser real. No entanto, os desenvolvedores de IA estão trabalhando em um vácuo do controlador. Sem supervisão, os bons fabricantes da IA podem se tornar um problema invisível de saúde pública.
Perm Wolson é um colunista de opinião da Bloomberg que cobre a tecnologia. © 2025 Bloomberg. Distribuído pela agência de conteúdo do Tribune.