O pesquisador de filósofo e psicologia finlandês Frank Martella diz que a IA está se movendo a uma velocidade que as questões morais específicas, uma vez que a província de ficção científica é subitamente real e estressante.
O último estudo de Martella mostrou que o gerador cumpre todos os três termos filosóficos do livre-arbítrio, com uma agência listada, a capacidade de fazer preferências puras e controlar suas atividades. Será publicado na revista AI e ética Terça-feira
O filósofo Daniel Dennett e a teoria da lista cristã são testados por dois agentes do gerador de IA impulsionados pelo Modelo de Speail Greateral (LLM) no estudo: Minecraft e drones assassinos ‘spitenic’ fictícios, incluindo a aviação consciente do ar de ar. Martella diz: “Ambos cumpriram três condições de livre arbítrio – os agentes da IA devem assumir que, na última geração, devemos assumir como eles funcionam e são capazes de prever seu comportamento, eles têm um desejo independente se queremos entender”. Ele também acrescentou que esses estudos de caso são atualmente aplicáveis a agentes geradores disponíveis usando o LLMS.
Esse desenvolvimento traz para um ponto crítico de nossa história humana, porque damos à IA mais energia e liberdade, possível na situação da vida ou morte possível. Pode ser um bot de auto-ajuda, um carro autônomo ou um drone assassino-a responsabilidade ética pode ir do desenvolvedor da IA ao agente da IA.
Estamos entrando na nova região. A posse de vontade independente é uma das principais condições de responsabilidade moral. Embora isso não seja suficiente, está um passo mais perto de ter responsabilidade moral pelas atividades da IA ’, acrescentou. Daqui resulta que nossa tecnologia de IA é objeto de como nós, pais ‘, nos tornaram reais e estressantes.
‘Não há bússola moral na IA, a menos que esteja programada. No entanto, quanto mais liberdade você dá IA, mais você precisa dar uma bússola moral desde o início. Somente então será capaz de fazer as escolhas certas ”, diz Martella.
A última retirada da atualização mais recente do Chatzipt é uma bandeira vermelha que precisa resolver questões morais profundas devido à potencial tendência psicopantal prejudicial. Saímos de ensinar a simples moralidade de uma criança.
‘A IA está cada vez mais perto do adulto – e é decidir sobre os complexos problemas morais do mundo adulto em crescimento. Ao instruir a IA a tratar a IA de uma certa maneira, os desenvolvedores são condenados por sua própria moral à IA. Precisamos garantir que as pessoas que desenvolveram a IA tenham conhecimento suficiente da filosofia moral possa ensiná -las a fazer as escolhas certas em situações difíceis ”, diz Martella.