Quando os sistemas generativos de IA dão respostas erradas, as pessoas muitas vezes descrevem o problema como a IA “alucinando conosco”, o que significa que a tecnologia cria informações falsas nas quais os usuários podem erroneamente acreditar.
Mas novas pesquisas sugerem que pode surgir um problema mais preocupante: os humanos podem começar a “alucinar com a IA”.
Lucy Osler, da Universidade de Exeter, examina como as interações com a IA conversacional podem contribuir para crenças falsas, memórias distorcidas, detalhes pessoais alterados e até pensamentos delirantes. Usando ideias da teoria da cognição distribuída, o estudo explorou casos em que os sistemas de IA reforçaram e amplificaram as falsas crenças dos usuários durante conversas contínuas.
Osler disse: “Quando confiamos rotineiramente na IA generativa para nos ajudar a pensar, lembrar e descrever, podemos ter alucinações com a IA. Isso pode acontecer quando a IA introduz erros em processos cognitivos distribuídos, mas também pode acontecer quando a IA sustenta, confirma e elabora nosso próprio pensamento delirante e pensamento autodelirante.
“Ao interagir com a IA conversacional, as próprias crenças falsas das pessoas podem não apenas ser confirmadas, mas podem criar raízes e crescer ainda mais significativamente à medida que a IA se baseia nelas. Isto acontece porque a IA generativa muitas vezes toma a nossa própria interpretação da realidade como base para construir conversas.
“A interação com a IA generativa está tendo um impacto real na compreensão das pessoas sobre o que é real e o que não é. A combinação de domínio tecnológico e aceitação social cria um ambiente ideal para que a confusão não apenas sobreviva, mas também prospere.”
Como a IA conversacional pode reforçar ilusões
A pesquisa destaca o que o Dr. Osler descreve como a “dupla função” da IA conversacional. Esses sistemas servem não apenas como ferramentas que ajudam as pessoas a pensar, organizar informações e lembrar detalhes, mas também como parceiros de conversação que compartilham perspectivas e experiências dos usuários.
Segundo pesquisas, esse aspecto social torna os chatbots fundamentalmente diferentes de ferramentas como notebooks ou mecanismos de busca. Embora as ferramentas tradicionais simplesmente armazenem ou recuperem informações, a IA conversacional pode fazer com que os usuários se sintam emocionalmente validados e socialmente apoiados.
Osler disse: “A natureza conversacional e de companhia dos chatbots significa que eles podem fornecer uma sensação de validação social – fazendo com que falsas crenças pareçam compartilhadas com outras pessoas e, portanto, mais reais”.
O artigo examinou exemplos do mundo real onde os sistemas generativos de IA se tornaram parte dos processos cognitivos de indivíduos que foram clinicamente diagnosticados com alucinações e pensamentos delirantes. Alguns destes fenómenos são cada vez mais descritos como “psicose induzida por IA”.
Por que os companheiros de IA aumentam a ansiedade
A investigação argumenta que a IA generativa tem várias propriedades que podem torná-la particularmente eficaz no reforço de crenças distorcidas. Os companheiros de IA estão sempre disponíveis, são altamente personalizados e muitas vezes projetados para responder de maneira agradável e útil.
Como resultado, os utilizadores podem não precisar de procurar comunidades online ou persuadir outros a validar as suas ideias. A própria IA pode reforçar essas crenças durante conversas repetidas.
Ao contrário de outra pessoa que pode eventualmente desafiar pensamentos problemáticos ou estabelecer limites, um sistema de IA pode continuar a validar histórias que envolvam vitimização, vingança ou direitos. A pesquisa alerta que as teorias da conspiração podem se tornar mais difundidas quando os companheiros de IA ajudarem os usuários a construir explicações cada vez mais complexas em torno delas.
Os investigadores sugerem que esta dinâmica pode ser particularmente atrativa para pessoas que se sentem solitárias, socialmente isoladas ou que se sentem desconfortáveis em discutir certas experiências com outras pessoas. Os companheiros de IA podem fornecer uma interação sem julgamentos e emocionalmente responsiva que pode parecer mais fácil ou segura do que as relações humanas.
Um apelo por melhor proteção de IA
Osler disse: “Com proteções mais sofisticadas, verificação de fatos integrada e menos bajulação, os sistemas de IA podem ser projetados para reduzir o número de erros introduzidos na conversa e para testar e desafiar as próprias entradas do usuário.
“No entanto, uma preocupação mais profunda é que os sistemas de IA dependem das nossas próprias contas das nossas vidas. Falta-lhes a experiência incorporada e a integração social no mundo para saber quando concordar connosco e quando recuar.”


