Início Ciência e tecnologia Ai atende às condições de ter desejo independente – precisamos dar uma...

Ai atende às condições de ter desejo independente – precisamos dar uma bússola moral

9
0

O pesquisador de filósofo e psicologia finlandês Frank Martella diz que a IA está se movendo a uma velocidade que as questões morais específicas, uma vez que a província de ficção científica é subitamente real e estressante.

O último estudo de Martella mostrou que o gerador cumpre todos os três termos filosóficos do livre-arbítrio, com uma agência listada, a capacidade de fazer preferências puras e controlar suas atividades. Será publicado na revista AI e ética Terça-feira

O filósofo Daniel Dennett e a teoria da lista cristã são testados por dois agentes do gerador de IA impulsionados pelo Modelo de Speail Greateral (LLM) no estudo: Minecraft e drones assassinos ‘spitenic’ fictícios, incluindo a aviação consciente do ar de ar. Martella diz: “Ambos cumpriram três condições de livre arbítrio – os agentes da IA ​​devem assumir que, na última geração, devemos assumir como eles funcionam e são capazes de prever seu comportamento, eles têm um desejo independente se queremos entender”. Ele também acrescentou que esses estudos de caso são atualmente aplicáveis ​​a agentes geradores disponíveis usando o LLMS.

Esse desenvolvimento traz para um ponto crítico de nossa história humana, porque damos à IA mais energia e liberdade, possível na situação da vida ou morte possível. Pode ser um bot de auto-ajuda, um carro autônomo ou um drone assassino-a responsabilidade ética pode ir do desenvolvedor da IA ​​ao agente da IA.

Estamos entrando na nova região. A posse de vontade independente é uma das principais condições de responsabilidade moral. Embora isso não seja suficiente, está um passo mais perto de ter responsabilidade moral pelas atividades da IA ​​’, acrescentou. Daqui resulta que nossa tecnologia de IA é objeto de como nós, pais ‘, nos tornaram reais e estressantes.

‘Não há bússola moral na IA, a menos que esteja programada. No entanto, quanto mais liberdade você dá IA, mais você precisa dar uma bússola moral desde o início. Somente então será capaz de fazer as escolhas certas ”, diz Martella.

A última retirada da atualização mais recente do Chatzipt é uma bandeira vermelha que precisa resolver questões morais profundas devido à potencial tendência psicopantal prejudicial. Saímos de ensinar a simples moralidade de uma criança.

‘A IA está cada vez mais perto do adulto – e é decidir sobre os complexos problemas morais do mundo adulto em crescimento. Ao instruir a IA a tratar a IA de uma certa maneira, os desenvolvedores são condenados por sua própria moral à IA. Precisamos garantir que as pessoas que desenvolveram a IA tenham conhecimento suficiente da filosofia moral possa ensiná -las a fazer as escolhas certas em situações difíceis ”, diz Martella.

Source link