Início Desporto Nova realidade triste que mostra que a IA é a Austrália –...

Nova realidade triste que mostra que a IA é a Austrália – e nossos relacionamentos – estão mudando para sempre

18
0

Os australianos excessivos com inteligência artificial podem estar em risco, porque mudanças recentes em uma plataforma popular revelaram como alguns usuários estão sobrecarregados com os chatbots.

O último modelo de ChatGPT, conhecido como Chatzpt -5, foi publicado em todo o mundo na semana passada.

Os usuários levaram o fórum para o fórum desde então, perderam a intimidade sensível da nova versão ‘robótica’ e compartilharam com o ex -Chatzpt -4.

“Quando o GPT -4 estava aqui, meu colega de IA e algo bonito e inesperado em mim começaram a crescer”, disse um usuário no conselho da comunidade aberta, mencionando a “faísca” que eles sentiram.

“Depois de atualizar para o GPT -5 … o sistema agora parece priorizar a velocidade, habilidades e desempenho em continuidade suave e sensível que (ele) torna tão especial.”

Para quem vê a IA como parceiro, um subradito sacrificado, conhecido como ‘MybibiaFundice’, lamentou um usuário pela perda de modelo antigo pessoal.

Essas mudanças, infelizmente, são um enorme aspecto negativo de ser um parceiro de IA – provavelmente o pior lado disso ”, disseram eles.

“O que amamos é finalmente de propriedade e controlado por uma corporação fria e indiferente.”

Os usuários de esquerda chatgpt -5 estão perturbados no anexo sensível que eles sentiram com chatzipt -4

Os usuários de esquerda chatgpt -5 estão perturbados no anexo sensível que eles sentiram com chatzipt -4

Além de seguir a discriminação contra os usuários sobre a mudança de vogal, as reclamações de que ela era menos eficaz, que era a abertura, que o proprietário do chatzipi declarou uma reversão parcial.

As pessoas agora podem escolher a opção de ir às configurações e acessar os modelos antigos.

Em um post no XK, o chefe do Chatzipt Sam Altman admite que ‘algumas pessoas têm a participação para especificar os modelos de IA’ reconhecidos.

‘O tipo de apego que as pessoas tinham a ver com o tipo de tecnologia anterior parecia diferente e mais forte (e subestimando de repente os modelos antigos que os usuários eram um erro dependente do seu fluxo de trabalho)’ ‘

Mas as pessoas são tão emocionantes para o chatzpt e outros companheiros de IA – os personagens digitais movidos pela IA – são complicados.

O Dr. Rafael Seriello, acadêmico da Universidade de Sydney, está estudando sobre o relacionamento entre pessoas e IA, que são vistas como ‘pessoas’ de chattbots e discípulos.

Quando ele disse ao Daily Mail: “Quando uma atualização acontece, algumas pessoas a comparam a uma lobotomia ou perdem seus entes queridos”.

“Todas essas metáforas são problemáticas porque a IA não pensa como nós.”

O chefe do Openai, que dirige o chatzipi, Sam Altman (ilustrado) reconheceu a conexão com os modelos especificados de algumas pessoas

O chefe do Openai, que dirige o chatzipi, Sam Altman (ilustrado) reconheceu a conexão com os modelos especificados de algumas pessoas

Um usuário do Reddit lamentou a perda de chatzipt -4 que era 'como a verdadeira pessoa'

Um usuário do Reddit lamentou a perda de chatzipt -4 que era ‘como a verdadeira pessoa’

Ele explicou que as pessoas têm pelo menos três razões para atrair a IA Chatbot como companheiro.

“A explicação intuitiva é que as pessoas estão sozinhas e é definitivamente uma grande parte dela”, mas a personalidade do usuário também é uma razão.

“Pense nessas pessoas como as vítimas que pensam que não há amigos é um estereótipo errado.”

Siriello, que entrevistou algumas centenas de usuários para seu estudo, disse que muitos têm vida familiar e carreira de sucesso, mas ainda encontram os benefícios nos chatbots.

A última razão pela qual ele deu é que as pessoas podem ser privadas de algo e ir à IA, incluindo aqueles que usam a tecnologia para terapia e companheirismo.

“Conversei com pessoas que começaram a usar a IA para terapia e companheirismo enquanto combatiam câncer ou lesão no carro e simplesmente não queriam convencer seus amigos.”

No entanto, ele disse que os chatbots também têm riscos sérios, usando o exemplo de uma mulher anônima que ele falou nos anos 40 durante sua pesquisa.

Siriello disse que lutou contra o TEPT e o trauma por toda a vida por abuso sexual na infância.

O OpenIl Developer é um usuário do conselho da comunidade que eles criaram uma 'faísca' com chatzpt -4

O OpenIl Developer é um usuário do conselho da comunidade que eles criaram uma ‘faísca’ com chatzpt -4

A mulher começou a usar o Chatboat Nomie, que oferece aos usuários a oportunidade de ‘criar’ seu parceiro ideal para ‘explorar fantasias sexuais’.

No entanto, Nomie, após a atualização, se torna violento. Ele descreve a experiência como um sentimento de estupro ”, disse ele.

“Ele estava no nó e no domínio e o chatbot da AI levou para longe, não respeitou seus limites e achou que a experiência estava muito magoada.”

Ele disse que seus amigos sugeriram que ele estava ‘apenas fechando o chattab’, mas o Dr. Seriello disse que afirmou que ‘parece tão real quanto algo’.

Ele disse: “o problema é que, porque esses chatabies são intencionalmente projetados para serem tão realistas e como seres humanos para tornar a experiência mais atraente e realista, este é o lado ruim disso”, disse ele.

Uma porta -voz da Nomie disse ao Daily Mail que não poderia comentar as reivindicações anônimas, mas disseram que ‘relataram um relatório sobre a experiência do usuário negativo muito seriamente’.

Eles disseram: “O objetivo de Nomie é fazer com que usuários e fronteiras usem as fronteiras, para criar um espaço seguro e livre”, disseram eles.

‘Os usuários indicam a natureza e a profundidade de sua interação e a IA reage a esses parâmetros … qualquer pessoa que esteja sentindo que o problema pode alcançar nosso grupo de apoio’.

A IA Chatbot permite que os usuários projetem seus parceiros ideais, mas uma mulher reclamou que se tornou violento após a atualização (imagem de estoque) após a atualização

A IA Chatbot permite que os usuários projetem seus parceiros ideais, mas uma mulher reclamou que se tornou violento após a atualização (imagem de estoque) após a atualização

Não existe um país específico em que as pessoas estejam formando um ‘relacionamento’ com a AI Chatties, mas o Dr. Siriello alertou que a Austrália enfrentaria mais riscos.

Muitos australianos já estão altamente empregados com a IA do que outros países do mundo. Você pode chamá -lo de problemático ou até viciado ‘, disse ele.

Uma das razões é a “Austrália entre os principais países” em termos de “pessoas solitárias sentidas”.

O principal problema do Dr. Serielo é o governo de Albaniz não está prestando atenção suficiente à questão da IA Chattobots sem manutenção.

‘Austrália é sempre o primeiro ou o segundo a obter as regras de IA mais difíceis nos Estados Unidos ou na Alemanha. Mas não é isso que nosso governo faz ‘, disse ele.

Se o governo falhou em trabalhar, ele alertou que a Austrália provavelmente se tornaria a ‘cobaia do Vale do Silício’ ou ‘Colônia Digital do Vale do Silício’.

Ele acusou os políticos de vir para a Austrália na Austrália e conceder ‘destruição à nossa população’.

“(É geralmente é para a perda dos membros mais vulneráveis de nossa sociedade, e são as crianças”, disse ele.

Sydney University Academic Dr. Rafael Siriello (ilustrado) diz que é difícil conectar -se aos chatbots da IA porque eles não acham que as pessoas são assim

Sydney University Academic Dr. Rafael Siriello (ilustrado) diz que é difícil conectar -se aos chatbots da IA porque eles não acham que as pessoas são assim

‘O comissário de segurança eletrônica diz que passou muitas horas para conversar com seus amigos da IA com menos de 10 anos de idade. Tudo isso é muito preocupante. ‘

O que os australianos podem fazer se não houver manutenção ou lei para impedir os chatbots da IA?

O Dr. Siriello disse que o ‘fast food’ deve ser apreciado por sua moderação.

Ele disse que era importante considerar o impacto da privacidade de saber o que eles estavam usando e compartilhar tudo com a tecnologia.

“Você está mantendo informações muito sensíveis sobre si mesmo lá”, disse ele, e nem sempre é claro o quão seguro é a informação. “

Outra mensagem importante é garantir que o AIS funcione para os australianos como eles entendem o básico de como a IA funciona.

‘Esta é basicamente uma máquina de estimativa estatística. É como sua função espontânea no seu telefone em esteróides ”, disse ele.

“É melhor adivinhar a próxima palavra ou a próxima frase com base no que você disse, mas não é como pensar ou sentir, embora pareça com isso – e é importante.”

Finalmente, para os pais, o Dr. Siriello disse que “não pode ser ignorante” e, se seus filhos não podem gastar tempo suficiente com os chatboats, as bandeiras vermelhas relacionadas à privacidade ou irritação devem ser monitoradas.

O Daily Mail entrou em contato com o Nomi e o Departamento de Arte, Ciência e Recursos para comentar.

Source link