Um novo estudo publicado em 24 de março RadiologiaO Journal of the Radiological Society of North America (RSNA), mostra que tanto os radiologistas quanto os modelos multimodais de grande linguagem (LLMs) têm dificuldade em diferenciar os raios X reais das imagens “deepfake” geradas pela inteligência artificial (IA). As descobertas levantam preocupações sobre os riscos representados pelas imagens médicas sintéticas e destacam a necessidade de melhores equipamentos e treinamento para proteger a precisão das imagens médicas e preparar os profissionais de saúde para reconhecer deepfakes.
Um “deepfake” é um arquivo de vídeo, imagem, imagem ou áudio que parece autêntico, mas foi criado ou alterado usando IA.
“Nosso estudo demonstra que esses raios X falsos são realistas o suficiente para enganar os radiologistas, os especialistas em imagens médicas mais altamente treinados, mesmo quando eles estavam cientes da presença de imagens geradas por IA”, disse o principal autor do estudo, Mikael Torzman, MD, pós-doutorado, Icahn School of Medicine em Mount Sinai, Nova York. “Isso cria uma vulnerabilidade de alto risco para ações judiciais fraudulentas se, por exemplo, uma fratura fabricada for indistinguível de uma fratura real. Há também um risco significativo de segurança cibernética se hackers obtiverem acesso a uma rede hospitalar e injetarem imagens sintéticas para manipular diagnósticos de pacientes ou recuperar grandes quantidades de registros médicos digitais”.
Descrição do estudo e exame de imagem
O estudo incluiu 17 radiologistas de 12 instituições em seis países (EUA, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos). Sua experiência varia de iniciantes a especialistas com até 40 anos de prática. No total, o estudo examinou 264 imagens de raios X, divididas igualmente entre varreduras reais e imagens geradas por IA.
Os participantes revisaram dois conjuntos separados de imagens sem sobreposição. Um conjunto consiste em uma mistura de imagens reais e raios X gerados pelo ChatGPT de diferentes partes do corpo. O segundo conjunto concentra-se em radiografias de tórax, metade reais e metade geradas usando raios X, um modelo de difusão de IA generativo de código aberto desenvolvido por pesquisadores da Stanford Medicine.
Precisão de detecção para radiologistas e IA
Quando os radiologistas não foram informados de que foram incluídas imagens falsas, apenas 41% reconheceram os raios X gerados por IA após avaliarem a sua qualidade técnica. Assim que foram informados da presença de imagens sintéticas, a precisão média em distinguir o original do falso aumentou para 75%.
O desempenho varia muito entre os indivíduos. Os radiologistas identificaram corretamente entre 58% e 92% das imagens geradas pelo ChatGPT. Os sistemas de IA mostraram limitações semelhantes. Quatro LLMs multimodais – GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) e Llama 4 Maverick (Meta) – alcançaram taxas de precisão que variam de 57% a 85%. Mesmo o ChatGPT-4o, usado para gerar imagens deepfake, não conseguiu detectá-las, embora tenha tido um desempenho melhor que os outros modelos.
Para radiografias de tórax geradas por RoentGen, os radiologistas alcançaram taxas de precisão entre 62% e 78%, enquanto os modelos de IA variaram de 52% a 89%.
A experiência não garante identificação
O estudo não encontrou nenhuma ligação entre os anos de experiência de um radiologista e a capacidade de detectar raios X falsos. No entanto, os radiologistas musculoesqueléticos tiveram desempenho significativamente melhor do que outros subespecialistas.
Pistas visuais em raios X Deepfake
Os pesquisadores identificaram vários padrões que podem aparecer em imagens sintéticas.
“Imagens médicas deepfake muitas vezes parecem perfeitas demais”, diz o Dr. Tordzman. “Os ossos são excessivamente lisos, as espinhas são excepcionalmente retas, os pulmões são excessivamente simétricos, os padrões dos vasos sanguíneos são excessivamente uniformes e as rachaduras são excepcionalmente claras e consistentes, muitas vezes confinadas a um lado do osso”.
Riscos e proteções para imagens médicas
Os resultados destacam sérios riscos se os raios X falsos forem mal utilizados. Imagens falsas podem ser usadas em processos judiciais ou inseridas em sistemas hospitalares para influenciar diagnósticos e interromper cuidados.
Para mitigar estas ameaças, os investigadores recomendam uma forte segurança digital. Isso inclui marcas d’água invisíveis incorporadas diretamente na imagem e assinaturas criptográficas anexadas ao tecnólogo quando a imagem é tirada, o que pode ajudar a verificar a autenticidade.
O futuro da IA em imagens médicas
“Potencialmente, estamos vendo apenas a ponta do iceberg”, disse Tordzman. “O próximo passo lógico nesta evolução é a geração de imagens 3D sintéticas por IA, como tomografia computadorizada e ressonância magnética. Conjuntos de dados educacionais e ferramentas de detecção são essenciais neste momento.”
Para apoiar a educação e a conscientização, os pesquisadores publicaram um conjunto de dados DeepFake com curadoria que inclui questionários interativos para fins de treinamento.



