Pense, saiba, entenda, lembre-se.
Estas são palavras cotidianas que as pessoas usam para descrever o que se passa na mente das pessoas. Mas quando esses mesmos termos são aplicados à inteligência artificial, podem inadvertidamente fazer com que as máquinas pareçam mais humanas do que realmente são.
“Usamos verbos mentais o tempo todo em nossas vidas diárias, então faz sentido que também possamos usá-los quando falamos sobre máquinas – isso nos ajuda a nos relacionar com elas”, disse Joe Mackiewicz, professor de inglês na Iowa State. “Mas, ao mesmo tempo, quando aplicamos verbos mentais às máquinas, também existe o risco de confundir a linha entre o que os humanos e a IA podem fazer”.
Mackiewicz e Jeanine Aune, professora de inglês e diretora do Programa de Comunicação Avançada do estado de Iowa, fazem parte de uma equipe de pesquisa que estuda como os escritores descrevem a IA usando uma linguagem semelhante à humana. Tais termos, conhecidos como antropomorfismo, atribuem características humanas a sistemas não humanos. Seu estudo, “Antropomorfizando a Inteligência Artificial: Um Estudo de Corpus de Ações Mentais Usadas com IA e ChatGPT”, foi publicado em Comunicação Técnica Trimestral.
A equipe de pesquisa também incluiu Matthew J. Baker, professor associado de linguística na Universidade Brigham Young, e Jordan Smith, professor assistente de inglês na Universidade do Norte do Colorado. Ambos frequentaram anteriormente a Iowa State University.
Por que a linguagem humana sobre IA pode ser confusa
Segundo os pesquisadores, usar funções mentais para descrever a IA pode criar uma falsa impressão. Palavras como “pensar”, “saber”, “compreender” e “querer” indicam que um sistema tem pensamento, propósito ou consciência. Na realidade, a IA não possui crenças ou sentimentos. Gera feedback através da análise de padrões nos dados, não através da geração de ideias ou da tomada de decisões informadas.
Mackiewicz e Aoun também apontam que esse tipo de linguagem pode exagerar do que a IA é capaz. Frases como “a IA decidiu” ou “ChatGPT sabe” podem fazer os sistemas parecerem mais independentes ou inteligentes do que realmente são. Isso pode levar a expectativas irrealistas sobre o quão confiável ou capaz é a IA.
Há uma preocupação mais ampla. Quando a IA é descrita como se tivesse um propósito, ela pode ser desviada dos humanos por trás dela. Desenvolvedores, engenheiros e organizações são responsáveis pela forma como esses sistemas são construídos e usados
“Algumas frases antropomórficas podem até ficar na mente dos leitores e moldar a percepção pública da IA de maneiras potencialmente inúteis”, disse Aoun.
Como os redatores de notícias usam a linguagem de IA
Para entender melhor a frequência com que essa linguagem aparece, os pesquisadores analisaram o corpus News on the Web (NOW). Este enorme conjunto de dados contém mais de 20 mil milhões de palavras provenientes de artigos noticiosos em inglês publicados em 20 países.
Eles se concentraram em palavras como AI e ChatGPT, bem como na frequência com que verbos mentais como “aprendeu”, “significava” e “sabia” eram usados.
Os resultados foram inesperados.
Ações psíquicas são menos comuns do que o esperado
A pesquisa mostra que os redatores de notícias muitas vezes não associam termos relacionados à IA com funções mentais.
Embora a etnografia seja comum na fala cotidiana, é muito menos comum na redação de notícias. “Demonstrou-se que o antropomorfismo é comum na fala cotidiana, mas descobrimos que é usado com muito menos frequência na redação de notícias”, diz Mackiewicz.
Entre os exemplos identificados, a palavra “necessidade” aparece com maior frequência com IA, aparecendo 661 vezes. Para o ChatGPT, “conhecer” foi o par mais frequente, mas apareceu apenas 32 vezes.
Os pesquisadores observaram que os padrões editoriais podem desempenhar um papel. As diretrizes da Associated Press, que desencorajam a atribuição de emoções ou características humanas à IA, podem afetar a forma como os jornalistas escrevem sobre estas tecnologias.
O contexto é mais do que palavras
Mesmo quando eram usados verbos mentais, eles nem sempre eram antropomórficos.
Por exemplo, a palavra “necessidade” muitas vezes descreve necessidades básicas em vez de qualidades humanas. Frases como “A IA precisa de muitos dados” ou “A IA precisa de alguma assistência humana” são semelhantes à forma como as pessoas descrevem sistemas não humanos, como carros ou receitas. Neste caso, a linguagem não implica que a IA tenha pensamentos ou desejos.
Em outros casos, “necessidade” foi usada para expressar o que deveria ser feito, como “a IA precisa ser treinada” ou “a IA precisa ser implementada”. Auni explica que estes exemplos são frequentemente escritos na voz passiva, o que transfere a responsabilidade de volta para os intervenientes humanos e não para a tecnologia.
A antropologia existe em um espectro
A pesquisa também mostrou que nem todos os usos das funções mentais são iguais. Algumas frases chegam perto de sugerir qualidades humanas.
Por exemplo, declarações como “A IA deve compreender o mundo real” podem implicar expectativas ligadas ao raciocínio, à ética ou à consciência humana. Esses usos vão além de simples descrições e começam a sugerir poderes mais profundos.
“Estes casos mostram que a antropomorfização não é tudo ou nada e, em vez disso, existe num espectro”, disse Aoun.
Por que a escolha do idioma sobre IA é importante
No geral, os investigadores descobriram que a etnografia na cobertura noticiosa é menos frequente e mais matizada do que muitos pensam.
“No geral, a nossa análise mostra que a antropomorfização da IA na escrita de notícias é muito menos comum – e muito mais subtil – do que poderíamos pensar”, disse Mackiewicz. “Mesmo os paradigmas que antropomorfizaram a IA variaram muito em força”.
Os resultados destacam a importância do contexto. Simplesmente contar palavras não é suficiente para compreender como a linguagem molda o significado.
“Para os autores, esta nuance é importante: a linguagem que escolhemos é como os leitores entendem os sistemas de IA, suas capacidades e as pessoas responsáveis por eles”.
A equipe de pesquisa também enfatizou que esses insights podem ajudar os profissionais a pensar com mais cuidado sobre como descrevem a IA em seu trabalho.
“Nossas descobertas podem ajudar os profissionais de comunicação técnicos e profissionais a refletir sobre como pensam sobre a tecnologia de IA como uma ferramenta em seu processo de escrita e como escrevem sobre IA”, escreveu a equipe de pesquisa no estudo publicado.
À medida que a IA continua a desenvolver-se, a forma como as pessoas falam sobre ela continuará a ser importante. Mackiewicz e Aoun dizem que os escritores precisam estar cientes de como a escolha das palavras afeta a percepção.
Olhando para o futuro, a equipa sugeriu que estudos futuros poderiam explorar como palavras diferentes moldam a compreensão e se mesmo os usos raros da linguagem etnográfica têm um forte impacto na forma como as pessoas veem a IA.



