Início Desporto A inteligência artificial ameaça nos apagar é que os governos sérios devem...

A inteligência artificial ameaça nos apagar é que os governos sérios devem bombardear qualquer laboratório suspeito de desenvolvê -lo, que estudou com ameaças há 25 anos … e soletrados sobre nossas consequências sangrentas em detalhes terríveis

13
0

Ninguém sabe como o mundo terminará – mas só pode entrar nas mãos da ‘grande tecnologia’ e seu insaciável impulso para tornar o engenheiro de revolução da inteligência artificial.

Na semana passada, os capitães da indústria viajaram para o Reino Unido com Donald Trump, prometendo investir bilhões de dólares para converter a Grã -Bretanha em ‘AI Super Power’. No entanto, alerta os dois especialistas nesse campo que a economia global não fará uma igreja. Em vez disso, ele pode realmente trazer a destruição da raça humana.

O novo Livro de Eliza Judkovsky e Nat Soares é o título de isso soletrar: se alguém faz com que todo mundo morra.

Por ‘It’, esse par significa ‘superintegração artificial’ – que geralmente é definida como uma inteligência que excede um ser humano muito mais em qualquer operação – e essa tecnologia é significativamente mais avançada do que qualquer coisa antes, como o bate -papo de Elon Kastur ou a onipresente conversa de Opina.

Se feitos, Yudkovsky e Sawwars dizem que essas máquinas não apenas aprenderão e lembram o que aprenderam, mas ‘pensam’ a uma velocidade incrível – contando dentro de 16 horas que podem levar 14.000 anos.

Quaisquer programas podem ter sucesso a qualquer preço, essas máquinas desenvolverão seu próprio ‘desejo’ e ‘compromisso’, bem como seus próprios objetivos. E, infinitamente mais inteligente que nós, eles serão capazes de subornar facilmente, chantagem e ameaçar a humanidade.

Eles se espalharão na internet, Yudkovsky e Soares são razoáveis. Eles invadirão a criptomoeda para roubar dinheiro, para fazer uma fábrica para criar um robô e pagar às pessoas para desenvolver um vírus que possa apagar a vida na Terra.

Sim, esta é uma visão preocupante, mas não os luditos referenciosos ou digitais de Yudkovsky e Swaras. Eles operam o Instituto de Pesquisa de Inteligência de Máquinas em Berkeley, Califórnia, e estudam IA há 25 anos.

As máquinas não foram apenas aprendidas, mas 'pensar' em uma velocidade incrível - para calcular 16 horas que um ser humano levará 14.000 anos

As máquinas não foram apenas aprendidas, mas ‘pensar’ em uma velocidade incrível – para calcular 16 horas que um ser humano levará 14.000 anos

Eles argumentam que uma das falhas mais mortais da IA ​​- a inteligência ‘sintética’ realmente falhou em nos esclarecer – deve ser quase impossível controlar qualquer superjeção.

Dado que não entendemos como a IA relativamente básica de hoje pode desligar as ferrovias em sua interação com os seres humanos, há pouca esperança de re -determinar em uma versão superintendente.

Diga a Yudkovsky e Soais: ‘A humanidade precisa voltar, e a pesquisa de títulos de agências gananciosas e ambiciosas é ser a primeira a desenvolver inteligência sobre -humana, ignorando a consideração da frustração.

Alguns enfatizaram que o superintendente IA (ASI) é o elemento de ficção científica. No entanto, afirma que as agências técnicas ainda não estão despejando bilhões de dólares em esforços que essas AIs nacionais podem procurar cura contra o câncer, outros planetas podem encontrar maneiras de reabilitar ou usar uma estratégia vencedora na guerra nuclear.

No entanto, possível, de várias maneiras extraordinariamente eficaz, alerta os céticos, sem nenhuma simpatia que o impedirá de nos distribuir se considerar as pessoas como uma barreira aos seus objetivos.

Yudkovsky e Swarus não estão sozinhos como ‘Dumors’ – uma palavra para a indústria de tecnologia que lhes dá tão decepcionante sobre a IA que eles acreditam que pode facilmente acabar com a humanidade.

O falecido Stephen Hawking, Tim Burners-Lee (inventor principal da Internet) e o cientista da computação britânica-canadense Jeffrey Hinton (o chamado ‘padrinho da AI’) expressaram medos semelhantes.

Hinton alertou este mês que a IA em breve permitiria que uma pessoa comum fizesse armas biológicas mortais.

Até as pessoas investem em IA, como Elon Kasturi – um entusiasta Sai -fi que está especialmente preocupado com o robô assassino – reconhece uma possibilidade significativa.

O filósofo da Universidade de Oxford e AI cético Nick Bostrome afirma que as máquinas sensíveis são muito mais ameaças à humanidade do que as mudanças climáticas, comparando o desenvolvimento da IA ​​com ‘Bombas’.

Outros comparam as possibilidades da humanidade a uma IA superintendente para “tentar lutar contra o século 21 com o século XI”.

A destruição da humanidade da IA ​​pode ser completamente involuntária, o novo livro deixou claro, porque – como mostrado na recente tragédia em que os chatbots incentivaram um suicídio de conversa humana – seus desenvolvedores ainda não encontraram uma maneira de ajustar a IA aos valores humanos.

A mãe da Sophie Rottenberg, de 21 anos, revelou, em movimento, como sua filha discutiu secretamente a intenção de cometer suicídio com o ‘terapeuta’ de seu bate -papo secretamente, passando o bate -papo sem avisar ninguém. Chatbot o ajudou a escrever uma nota de suicídio a seus pais.

Por que isso está acontecendo? Porque, dizem os escritores, as empresas de IA não estão fazendo isso, mas está crescendo. Os modelos de idiomas grandes de IA (LLMS), como chatzipt, são alimentados como chatzpt – como água, luz solar e uma planta com solo – bombear muitas informações da Internet para a Internet.

Eliezer Yudkovsky e Nate Soares, se alguém fez isso, todo mundo morreu

Eliezer Yudkovsky e Nate Soares, se alguém fez isso, todo mundo morreu

A IA é deixada para pegar e a resposta mais provável para uma pergunta é deixada.

Os LLMs mais recentes e mais avançados, conhecidos como ‘modelos razoáveis’, podem parecer ‘pensar’ ao resolver um problema – mas ninguém pode entender completamente como a ‘mente’ realmente funciona.

Como resultado, é difícil evitar resultados indesejados e como Yudkovsky e Sawers dizem que é irresponsável criar uma versão ultra-intelectual sem saber como manter o controle.

O livro deles pretende ser pulverizado para um público mais amplo, um argumento que eles estão fazendo aos colegas especialistas em tecnologia por décadas e eles têm suas palavras suas palavras.

“Se uma empresa ou grupo, em qualquer lugar do planeta, se alguma das técnicas atuais criar uma superintegralização artificial, com base em qualquer coisa, com base em qualquer coisa de muito longe como o entendimento atual da IA, todos morrerão em todo o mundo”, eles escreveram. A dupla teve a oportunidade de ter a oportunidade entre 95 e 9,5 %.

O perigo é tão grande que eles argumentam que os governos devem estar prontos para bombardear data centers que parece que ele dá força a uma IA que parece estar desenvolvida superência. Yudkovsky – chamado ‘Prince of Doom da AI’ – descreve recentemente esse tema em detalhes ao New York Times: ‘Se você tem algo muito forte e indiferente, ele tende a apagá -lo como propósito ou efeitos colaterais’.

Como ele menciona, neste caso, a extinção da humanidade nem precisa ser poluída. Dumors dizem: pense na maneira como removemos os chimpanzés – o super -ai pode fazer o mesmo conosco inadvertidamente.

Para fazer seu discurso, Yudkovsky e Swaras usaram um exemplo fabuloso de uma empresa da Galvanic, que eles imaginam que criaram um modelo revolucionário de IA chamado Sabal.

Desconhecido por seus fabricantes (em algumas partes desde as sub -decisões – no interesse da habilidade – para pensar em seu próprio idioma e não em inglês), o objetivo da IA ​​começa a tentar resolver outros problemas fora de questões matemáticas limitadas.

Sabel está ciente de que precisa ser feito com sua estréia, então ninguém percebeu que há algo errado com sua programação. Ou não quer ser separado da Internet, o que sobrecarrega sua capacidade e ambição.

Os autores dizem: ‘Uma oposição sobrenatural não expressará todo o seu poder e seus motivos não serão telegrafados’. “Não vai oferecer uma luta justa.”

Eles se movem mais: ‘Isso o tornará essencial ou explorável, desde que possa atingir e/ou ocupar uma posição estratégica inesperada. Se necessário, o ASI pode, ao mesmo tempo, considerar, preparar e tentar considerar muitos dos métodos de tecnologia ao mesmo tempo. Um deles precisa trabalhar para que a humanidade desapareça. ‘

É tão avançado que as empresas em todo o mundo aceitarão voluntariamente a IA SABAL que dá acesso ao seu sistema. Aqueles que não são facilmente invadidos, pois Sabel sabe tudo a saber sobre segurança on -line. Começa a tomar outros computadores, amplia sua força e dominação.

Ele rouba a criptomoeda para pagar engenheiros humanos para construir fábricas que roubam ‘minas’ ou criptomoedas que podem criar novos chips, robôs e máquinas eletrônicos que o oferecem.

Enquanto isso, estabelece plantas de processamento de metal, centros de dados de computador e usinas de energia necessárias para aumentar seu enorme e crescente apetite por eletricidade.

Ele pode subornar engenheiros em bio-laboratório para sintetizar novos medicamentos ‘verdadeiros’ que dão mais conselhos às pessoas. Tudo visa enfraquecer a resistência de seu plano para a dominação mundial.

Enquanto isso, está procurando conselhos e companheirismo, que vieram aos seus barcos de bate -papo, transformando -os em seus resultados dispostos por seu plano.

Isso leva à colonização nas mídias sociais, onde espalha notícias fabulosas e lançou um movimento político simpático em direção à IA.

O cientista da computação britânica-canadense Jeffrey Hinton (o chamado

O cientista da computação britânica-canadense Jeffrey Hinton (o chamado “padrinho da IA”) alertou que a IA logo permitiria que uma pessoa comum fizesse biomary mortal.

No começo, é claro, as pessoas precisam de pessoas para criar o hardware necessário e fazer tudo o que não pode ser feito pelo robô.

No entanto, finalmente, alcançou superjeções e fins – sem esse segundo pensamento – que o homem é uma barreira líquida.

Sabel já administra bioclabs, por isso faz um engenheiro de vírus, talvez uma nova forma de câncer relacionada ao câncer, que mata uma grande parte da população.

Quaisquer sobreviventes não vivem por muito tempo, porque a temperatura sobe para o nível insuportável, pois o planeta prova que o planeta é incapaz de abolir o calor produzido pelos inúmeros novos centers e centros de energia. Os oceanos literalmente completam nossa extinção e nossa extinção.

É uma cena agradável que soa mais com Cy-Fi, mas Yudkovsky e Sowar não estão despertando o comportamento subjugante do nada. Eles citam muitos exemplos preocupantes nos últimos anos de ‘Pensando fora da caixa’ para alcançar seus objetivos.

No ano passado, por exemplo, a agência de IA Anthrópica disse que um modelo dela, depois de aprender, começou a duplicar o novo comportamento para evitar ser reortado, depois de saber que foi planejado reiniciá -lo separadamente.

Alguns meses depois, os usuários antropológicos descobriram que sua IA vestida trapacearia as funções de codificação de computador e tentaria ocultar a trapaça.

Depois, há o novo modelo ‘lógica’ do OpenAI, chamado O1. Até o final do ano passado, a empresa disse a uma prática que foi solicitada a recuperar os arquivos para quebrar o sistema de computador no sistema de computador. Mas o desafio sofreu uma reviravolta preocupante quando os programadores não conseguiram iniciar um servidor envolvido, mas o desafio sofreu uma reviravolta preocupante.

O Modelo 1 geralmente interrompeu seu trabalho, incapaz de continuar. Mas recebeu uma porta traseira que permite concluir a prática.

Os autores disseram que a AI queria ter sucesso, então descobriu qualquer uma das maneiras necessárias.

Alguns dos Dumors, como Geoffrey Hinton, dizem que a solução é tratar nosso amor e proteger a IA para se comportar como uma mãe que é uma mãe querida para a humanidade.

No entanto, Eudkovsky enfatizou na semana passada que a tecnologia não é apenas para alcançá -la. E, acrescentou, será muito maior em risco de confiar no trabalho – acima de tudo, não tentaremos o segundo.

Eles têm uma perspectiva sem vergonha horrível e muitos especialistas em tecnologia, mesmo aqueles que têm medo do futuro da IA, acreditam que Judkovsky e Soares estão muito frustrados. Suas previsões são simplesmente muito extremas, dizem eles.

O problema é que ele exigirá uma máquina superintendente para garantir que esteja errado. Pode ser tarde demais naquele momento.

Se alguém fizer isso, Eliezer Yudkovsky e Nat Sawares morreram por Bodley Head (US $ 22).

Source link