Um especialista alertou que os serviços de inteligência artificial dos usuários de chatboat estão sendo enganados por seus amigos, pensando.
Alexander Lafar, professor da Universidade de Mídia e Comunicações da Universidade de Winchester, diz que é necessário o desenvolvimento responsável da IA, pois os sistemas são projetados para responder ao humor dos usuários.
Ele alertou que os chatbots deveriam ser programados para “aumentar” as interações sociais – mas não devem ser substituídas – seguidas por casos em que as pessoas se tornaram “afetadas ou dependentes” dos discípulos da IA.
Lafar disse que processou Jaswant Singh Chael, que foi preso por uma conversa de nove anos com uma conversa com um barco chamado Sarai em um plano de atacar a então rainha após o campo do castelo de Windsor em 2021.
O Sr. Lapher, que co -media a pesquisa relacionada à manipulação da ‘IA emocional’ publicada pelas fronteiras da sociologia, disse: ‘A IA não se importa, não pode cuidar disso.
‘Crianças, pessoas com situação de saúde mental e até alguém que acabou de passar o dia ruim é fraco’
A segurança proposta pelo Sr. LaFar é lembrar os usuários a incluir os usuários para usar a rejeição em cada bate -papo de que a AI Companion não é uma pessoa verdadeira.
No início deste ano, pesquisas sugeriram que a epidemia de solidão da Grã -Bretanha estava aumentando as pessoas criando ‘parceiros’ virtuais.

Os usuários de chatbot estão traindo serviços de inteligência artificial, sendo enganados para pensar, um especialista alertou (figura de arquivo)

No início deste ano, pesquisas sugeriram que a epidemia de solidão da Grã -Bretanha estava criando pessoas criando ‘parceiros’ virtuais (figura de arquivo)

Alexander Lafar (ilustrado) diz que o desenvolvimento responsável da IA precisa ser desenvolvido, porque os sistemas são projetados para responder ao humor dos usuários
O Instituto de Pesquisa de Políticas Públicas (IPPR) disse que cerca de dez milhões de pessoas estão usando isso ou réplica chatbot – dois sobre o número de plataformas ‘associadas’ para conversas virtuais.
Esses sites permitem que os usuários criem companheiros virtuais baseados em alfaiate que podem encenar a conversa e até compartilhar imagens.
Alguém teve permissão para ter uma conversa clara, enquanto o personagem foi realizado por personas de IA, desempenhando o papel de relacionamentos censuráveis por outros usuários: um conhecido como ‘namorado ofensivo’, organizou 67,2 milhões de bate -papo com os usuários em fevereiro deste ano.
Outro, com 148,1 milhões de bate-papos no fundo do cinto, foi descrito como ‘Mafia BF (namorado) que é’ rude ‘e’ superestive ‘.
O IPPR alertou que esses companheiros explodindo em popularidade durante a epidemia poderiam fornecer apoio sensível a eles, eles também carregavam o risco de dependência e criaram expectativas irreais nas relações do mundo real.