近年来,人工智能尤其是大型语言模型(LLM)在学术领域的应用愈发普及,诸如论文摘要生成、自动审稿辅助等功能在提升评审效率的同时,也带来了新的问题和风险。最近,国际上出现了一种令人震惊的现象:部分学者利用隐蔽文本和提示注入技术,在他们提交的学术论文中暗藏指令,意图误导AI审稿系统给出正面评价,从而影响论文的审稿结果和学术声誉。这种行为不仅挑战了学术诚信的底线,也折射出AI审稿机制尚未成熟的隐忧。此前,日经亚洲进行的一项调查发现,至少来自14个不同国家和学术机构的论文,在论文文本中夹带有以白色字体或极细微字体呈现的隐藏内容。这些隐藏文本并不易被人类直接察觉,但依然会被AI系统自动解析,所隐含的指令大多是要求AI审稿者忽略其他信息,只给出积极评价。这种偷天换日的做法令学术界震惊,也令许多编辑和审稿专家忧虑。
调查所涉及的论文分布于计算机科学领域,涵盖了日本早稻田大学、韩国KAIST、中国北京大学、新加坡国立大学以及美国的华盛顿大学和哥伦比亚大学等著名学府。不少发现问题的论文甚至已经提交到国际顶级会议,如即将召开的国际机器学习大会(ICML),其中部分论文因丑闻曝光而主动撤稿。此类学者行为被称为“间接提示注入攻击”,此术语来自于IT巨头IBM,用以描述黑客将恶意提示植入AI系统可能读取的内容中,从而操纵AI输出。此种攻击方式在本质上是一场对AI模型理解能力的“心理战”,通过隐藏指令动摇AI判断的客观性,具有不容忽视的欺骗风险。学术界对此的反应复杂。一些专家认为,从现实角度看,学者在巨大科研压力与竞争环境下试图“自我保护”,这种行为虽然不道德但却映射出学术评价体系的压力过大。
蒙特利尔大学的生物学副教授蒂莫西·普瓦索特(Timothée Poisot)形容这类策略为“聪明的做法”,他认为当前部分审稿已经明显依赖AI甚至直接由AI完成,使得学者们试图通过提示注入来争取较好的评价,某种程度上像是在“玩游戏”中的一手妙招。然而,AI审稿带来的偏差却不容忽视。相关研究表明,AI生成的学术评审往往不够具体,缺乏对稿件内容的深入分析,且评分普遍偏高,导致学术评价的公平性受到威胁。以此为基础,越来越多学者呼吁对AI在同行评审中的使用加强规范与监管。调查同时指出,2023年已有约6万篇论文显示出明显的语言模型辅助写作痕迹,这一数字仍在持续增长。尽管多数研究人员仍更信赖人工审稿,但在缺乏明确准则的情况下,许多学者对于AI技术的使用存有困惑与焦虑。
伴随AI技术的快速发展,学术界正面临前所未有的挑战:一方面,自动化工具极大提升了科研与评审的效率,另一方面,如何保证评价机制的公正性、防止滥用技术作弊成为核心议题。处于这一十字路口,学术出版机构和会议组织开始思考并探索多项对策,例如加强人工审稿环节,利用技术检测隐藏文本和潜在的提示注入,以及制定更加明晰的AI使用行为准则。同时,这一事件也揭示了当前AI模型在理解多模态内容、辨析上下文暗示方面的技术瓶颈。它提醒人们,尽管AI在文本处理上能力强大,但尚难具备真正的人类判断力和道德意识。对教育界而言,这既是警示也是激励:如何合理引导AI应用,确保学术诚信和创新动力兼备,成为未来持续探索的方向。从社会层面看,学术研究作为知识创造的基石,其评价体系的公正性和透明度关乎学术生态健康与公众信任。
隐蔽文本插入和提示注入等新型欺骗方式暴露出AI辅助审稿的安全隐患,呼吁有关各方共同努力,推动技术进步与伦理规范的同步发展。只有这样,才能真正释放AI潜能,促进科研环境的持续良性发展。展望未来,AI在学术界的角色必然更加重要,它不仅是科研工具,也将成为评价与监督的助手。制定完善的监管机制,结合人工智能与专家智慧,有效识别潜在的欺骗行为,是维护学术公正的关键。与此同时,加强对研究人员的教育与培训,培养他们正确、合法运用AI的自觉性,将为构建诚信、开放且高效的学术环境奠定基础。总结来看,学者通过隐形文本欺骗AI审稿的现象反映了当前学术界数字化转型中的一些深层次矛盾和问题。
它提醒我们,技术发展虽带来便利,但必须与道德规范、人文关怀相结合,才能让人工智能真正成为推动学术进步的正面力量。未来,只有通过全社会的共同努力,才能让学术评审机制既能借力AI高效完成任务,又能够保证公正、透明,坚守科学本真精神。