Início Ciência e tecnologia Pensando que os modelos de IA emitem 50x mais CO2 – e...

Pensando que os modelos de IA emitem 50x mais CO2 – e muitas vezes não para nada

120
0

O modelo apresentará uma resposta sem considerar qual ai perguntando. Para produzir essas informações – independentemente de a resposta estar correta que a resposta – o modelo usa o token. Os tokens são convertidos em várias palavras ou palavras que podem ser processadas pelo LLM.

Essa transformação, assim como outros processos de computação, produz co -ko2 Muitos usuários de emissões, no entanto, estão inconscientes de pegadas de carbono suficientes relacionadas a essas tecnologias. Agora, pesquisadores na Alemanha mediram e compararam -se com o KO2 Diferente, já treinado, emitindo LLMs usando um conjunto de perguntas padronizadas.

“O impacto ambiental dos LLMs questionáveis ​​é determinado por sua abordagem racional, processos lógicos óbvios consumo significativamente de combustível e emissões de carbono”, diz o primeiro autor da Universidade da Universidade de Menchen, Maximilian Dawner, Maximilian Dawner, o primeiro autor Fronteira Estudar. “Descobrimos que os modelos com capacidade racional produziram 50 vezes mais de 50 vezes as emissões de CO2 do que o modelo de resposta curta”

‘Pensando’ ai causa a maioria das emissões

Os pesquisadores avaliaram 14 LLMs de até sete a 72 bilhões de parâmetros em mil perguntas de referência em vários tópicos. Os parâmetros determinam como os LLMs aprendem e processam informações.

Em média, em média, 543,5 criaram 543,5 ‘pensamento’, em média, onde modelos curtos requerem apenas 37,7 token por pergunta. Os tokens são os pensamentos que produzem token adicional que produzem antes de responder LLMs lógicos. O significado de uma pegada de token mais alta é sempre o eclipse do CO2 mais alto. No entanto, isso não significa necessariamente que os resultados sejam mais precisos, porque detalhes amplos que nem sempre são essenciais para a precisão.

O modelo mais preciso foi um modelo Cogito habilitado para racional com 70 bilhões de parâmetros, que atingiram 84,9% precisos. O modelo produziu três vezes mais ko2 Os modelos do mesmo tamanho são comparados às emissões que produzem respostas curtas. “Atualmente, podemos ver uma clara precisão, os negócios subjacentes à LLM Technologies”, disse Downer. “Nenhum dos modelos que excluiu as emissões abaixo de 500 gramas de CO2 não conseguiu obter mais de 80% para responder às 1000 perguntas corretas”. Pedreira2 O equivalente é a unidade usada para medir o efeito climático de vários gases de efeito estufa.

Conteúdo, bem como os resultados dos níveis significativamente diferentes do CIO2 As emissões que exigem processos racionais longos, por exemplo, álgebra ou filosofia abstrata, levam seis vezes mais do que a história da história do ensino médio.

Praticando o uso de pensativo

Os pesquisadores dizem que esperam que as pessoas possam tornar mais informadas sobre o uso de sua própria IA. “Os usuários limitam a IA a uma resposta breve ou o uso de modelos de alta potência a ações que podem realmente restringir as emissões, restringindo essa energia”, mencionou o downer.

Por exemplo, a escolha do modelo pode trazer uma diferença importante para o co –2 As emissões, por exemplo, Depsec R1 (70 bilhões de parâmetros) respondem 600.000 perguntas, criarão a resposta2 Equivalente ao voo de ida e volta de Londres para Nova York. Enquanto isso, a rainha pode responder (cerca de 1,9 milhão) mais de três vezes com a mesma taxa de precisão ao produzir a mesma emissão de 2,5 (72 bilhões de parâmetros).

Os pesquisadores dizem que seus resultados podem ser afetados pela escolha do hardware usado na pesquisa, um fator de emissão que pode variar regionalmente, dependendo da mistura local da rede de energia e dependendo dos modelos testados. Esses fatores podem limitar a generalização dos resultados.

“Se os usuários souberem o custo exato de CO2 de seus resultados expostos a A, como de repente se transformaram em uma figura de ação, eles podem ser mais eleitorais e atenciosos sobre quando e como eles usam essas tecnologias”, disse Donna.

Source link