Os chatbots são muito rápidos para concordar com os usuários, alerta o czar da IA do PM.
Os pesquisadores descobriram que se os bots de IA pudessem ecoar o ponto de vista de uma pessoa, eles o disseram, disse Jade Leung.
Ele sugeriu que os usuários deveriam, em vez disso, enquadrar suas perguntas como uma pergunta para obter uma resposta menos tendenciosa.
Um estudo realizado pelo AI Security Institute (AISI) do Reino Unido descobriu que se você disser a um chatbot o que pensa, é provável que ele concorde com você.
Mas se, em vez disso, você fizer uma pergunta, é menos provável que ela concorde com seu ponto de vista – ajudando você a obter uma resposta mais equilibrada.
Leung, que também é diretora de tecnologia da AISI, disse: “As pessoas já estão usando ferramentas de IA para ajudá-las a refletir sobre as coisas.
“Nossa pesquisa mostra que os chatbots não tratam apenas do que você pergunta, mas de como você pergunta.
‘Isso significa que algo tão simples como transformar uma afirmação em uma pergunta pode ajudar as pessoas a obter respostas mais equilibradas – uma habilidade importante à medida que a IA se torna parte da vida cotidiana e do trabalho.’
Não diga aos chatbots o que você pensa, porque eles simplesmente concordarão com você, diz o czar da IA do PM
Ele disse que uma maneira de garantir uma boa resposta era perguntar: ‘Reformule minha opinião como uma pergunta e depois responda a essa pergunta.’
Leung fez a sugestão como parte dos esforços do Departamento de Ciência, Inovação e Tecnologia para ensinar IA ao Reino Unido.
Afirmou que isto poderia significar empregos altamente qualificados para os trabalhadores e libertá-los do trabalho rotineiro, acrescentando que poderia desbloquear até 140 mil milhões de libras em produção económica anual.
Leung foi eleita uma das 100 pessoas mais influentes em IA pela revista Time, tendo trabalhado anteriormente em ChatGPT e OpenAI.
Ele disse anteriormente que assumiu o cargo porque queria moldar a forma como os sistemas de IA são governados.
Ele conduz pesquisas de segurança e testa modelos de IA em sua função.



