南方医科大学利用 ChatGPT 生成高仿实验图片,几乎能以假乱真


近日,南方医科大学为首的多国联合研究小组利用 ChatGPT 生成了高仿实验图片 [1]。作者团队表示,这些图片的逼真度甚至可以骗过经验丰富的专家,展示了“随手可得”的大语言模型在伪造实验图片的强大能力,而迫切需要学术社区的警觉。他们的结果发表在国际学术期刊《Journal of Hematology & Oncology》上。

无独有偶,2023 年,意大利的一个研究小组发表的一项报告 [2],旨在向我们展示大语言模型被利用于伪造实验数据的可能。他们利用 ChatGPT 生成了一组虚假的数据集,用以证明深板层角膜移植(deep anterior lamellar keratoplasty)比穿透性角膜移植(penetrating keratoplasty)能更好治疗圆锥角膜(keratoconus)患者。然而,作者在论文 [2] 中强调,这个结论从来没有获得任何的实验支持。

而南方医科大学最近的这项研究 [1] 进一步证明大语言模型甚至可以创造虚假的实验图片。他们利用 ChatGPT 生成了生成逼真的血液涂片图像(A),免疫荧光染色图像(B),H&E 染色图像(C),免疫组织学图像(D)以及和 Western Blot 图像(E)。这些图像的伪造效果可以与“生成对抗网络”(Generative Adversarial Networks,GAN)相媲美,足以欺骗经验丰富的专家。研究人员指出,由于大语言模型比 GAN 模型更容易获得,因而更可能被造假之人所利用。

随着大语言模型的快速发展,它为学术不端者提供了更为有力的工具,引起了日益增长的关注。虽然说,技术本无罪,对错都在于使用它的人。但是,面对着新的挑战,我们全球学术社区是否做好了应对的准备?



Reference

[1] 10.1186/s13045-024-01543-8

[2] 10.1001/jamaophthalmol.2023.5162






Author: Scientist Press

E-Mail: 5GH@5gh.org.cn

Document ID: 5GH-SciPress-20240618.002

Publication Date: 2024.06.18

This article is licensed to the 5GH Foundation under a CC BY-NC-ND 4.0 International License

审稿慢?审稿人要一万五千年的时间才能审完全年的投稿

尽管这一研究使用了大量的假设,而且这些假设的合理性值得进一步探讨;但它在定性上给我们展现了学术期刊同行评议所需要的巨大的时间以及资源成本。而同行评议是学术活动中重要的一环。如何为其调配资源,以保证其可持续的开展,是学术社区当前面临的严峻挑战之一。


中国地质大学(北京)高产教师 Santosh 背后的编辑们

5GH 团队联合国际团队检查了 2020 年至今,Santosh 发表在四个期刊的论文,结果发现,超过 65% 涉及“作者-编辑冲突” 。


哈工大+中科院双聘教授,国家杰青,违规给自己的论文做处理编辑

日前,5GH 团队从一名 X 平台用户获得一个线索,哈尔滨工业大学以及中国科学院双聘教授王爱杰(WANG Aijie),在其任职共同主编的《Environmental Research》为她自己的论文做处理编辑(handling editor)。


约 10% 论文使用了 ChatGPT 写作辅助

如此高的比例(10%)的论文被证实使用了 ChatGPT 进行写作辅助,提醒我们有必要更深入了解 ChatGPT 对全球学术社区的影响。