人工智能生成的假 X 射线看起来可能很真实

科技日报北京3月24日电(记者张嘉欣)美国西奈山伊坎医学院的一项新研究发现,无论是放射科医生还是大规模多模态语言模型(LLM)都无法轻松区分人工智能(AI)生成的超假X射线图像和真实的医学图像。研究人员表示,研究结果凸显了人工智能生成的医学图像可能带来的健康安全和网络安全风险。相关文章发表在最新一期的《放射学》杂志上。 “Deepfakes”是看似真实但实际上是由人工智能生成或修改的视频、照片、图像和音频。人工智能生成的 X 射线非常逼真,以至于可能会被误认为是真实的,并可能被用于医疗欺诈,例如伪造骨折图像以在试验中收集证据。如果黑客渗透到医院系统并整合合成医学图像,他们可能会改变诊断结果并破坏电子病历系统的可靠性。这项回顾性研究涉及来自美国、法国、德国、土耳其、英国和阿拉伯联合酋长国等 6 个国家 12 个医疗中心的 17 名放射科医生。在这项研究中,共分析了两组 264 张 X 射线图像。第一组数据包括来自多个解剖部位的真实图像和 ChatGPT 生成的图像。第二组数据是胸部X光片,其中一半是真实图像,另一半是由RoentGen生成的,RoentGen是斯坦福大学医学院研究人员开发的开源生成式AI扩散模型。他们发现,只有 41% 的医生在不知道目的的情况下主动识别人工智能生成的图像。研究网站。医生收到清晰的信息后,能够以平均75%的准确率区分真假图像。同时还对四家大型企业进行了识别测试多模态模型:GPT-4o(OpenAI)、GPT-5(OpenAI)、Gemini 2.5 Pro(Google)和Llama 4 Maverick(Meta),准确率范围从57%到85%。 GPT-4o 模型本身参与生成这些深度伪造图像,但我们无法识别所有伪造图像。研究人员得出的结论是,人工智能生成的医学图像通常包含“过于完美”的特征,例如骨骼表面过于光滑、脊柱过于直、肺部过于对称、血管分布过于均匀以及骨折横截面异常干净。研究团队提出,为降低风险,需要在医学图像上纳入隐形数字水印、密码签名等技术措施,防止图像被篡改,并加强AI医学图像识别能力的训练。
(编辑:韩璐)

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注