随着人工智能技术的迅速发展,学术界面临着前所未有的挑战。英国的高校正经历人工智能工具被学生用于学术作弊的现象显著上升,这一趋势不仅影响了学生的学术诚信,也为教育体系带来了深远的影响。近日,英国《卫报》的一项调查揭示,2023至2024学年,近七千起学生因使用ChatGPT等人工智能辅助工具作弊被证实,这是一个令人震惊的数据。相比2022至2023学年每千名学生仅有1.6起作弊事件,这一数字跃升至5.1起,并且根据今年五月的初步统计,预计将进一步上升至每千名学生约7.5起。值得注意的是,专家普遍认为官方记录的案例仅仅是冰山一角,实际的作弊情况远比数据呈现的复杂和严重。过去,大学舞弊行为主要表现为传统的抄袭,尤其在新冠疫情推动的线上教学期间,这种情况有所加剧。
然而,随着生成式人工智能技术的成熟和广泛应用,作弊的方式发生了颠覆性的改变。数据统计显示,从2019至2020学年开始,传统抄袭案件数量逐渐减少,从之前的每千人19起下降到2023至2024学年的15.2起,甚至在今年呈现出继续下降至8.5起的趋势。尽管如此,人工智能作弊行为的增加明显抵消了本应通过防抄袭措施实现的进步。调查中,英国155所大学被请求根据《信息自由法》提供过去五年的学术不端数据,其中131所提供了完整或部分数据。令人惊讶的是,超过27%的高校尚未将人工智能作弊作为独立的违规分类进行记录,这反映出高校在应对人工智能带来的挑战时存在管理与识别的难题。实际上,许多人工智能作弊行为可能尚未被发现。
一项由英国高等教育政策研究所于2024年2月发布的调查显示,88%的学生承认曾在作业或考试中使用过人工智能。雷丁大学的研究进一步揭示,在他们针对招生评估系统的测试中,提交的AI生成内容有94%未能被有效识别,这表明当前的检测技术仍极为有限。针对这一问题,雷丁大学心理学副教授斯卡夫博士指出,利用人工智能作弊相比传统抄袭具有更高的隐蔽性。光凭AI检测工具提供的百分比数据难以构成证据,且高校普遍担忧误判学生,从而不敢轻易采取严厉措施。这种困境使得完全将所有考试转为监考环境变得不可行,同时也鼓励教育界面对现实,承认学生无论是否被允许,都会利用人工智能技术完成部分学术任务。在线平台上充斥着各种教学生如何绕过人工智能检测的工具和视频,尤其是在TikTok等年轻人聚集的社交媒体上更为明显。
许多工具基于“人性化”处理,成功掩盖了人工智能生成文本的特征,从而避开了学校常用的检测机制。帝国理工学院的学术诚信研究者兰卡斯特博士认为,熟练使用这些人工智能工具并经过有效编辑的学生,其作弊行为极难被证实。他期望学生在使用AI过程中依然能够保持学习的本质,而非一味依赖技术取巧。一位刚完成英国北部某大学商业管理学位的学生哈维透露,他个人使用人工智能辅助头脑风暴、构思和寻找参考文献,而非简单复制生成的内容。他指出,大部分同学也采用类似方式,只将AI作为辅助工具,真正的写作仍由本人完成。不过,他也认识有学生利用AI生成内容后,通过进一步的技术“人性化”处理,达到完全规避检测的效果。
另一位来自英国西南部的音乐商务专业一年级学生阿米莉亚认为,人工智能工具对有学习障碍的学生,尤其是阅读障碍症患者,带来了极大帮助。她提到朋友利用AI整理观点和结构,而非代写论文。科技部长凯尔也强调,人工智能应当成为帮助学习障碍学童的利器,这在一定程度上展示了AI技术在教育公平方面的潜力。与此同时,技术公司也纷纷瞄准学生群体推出优惠活动。例如谷歌向大学生免费提供Gemini人工智能工具升级,OpenAI也在北美设立学生优惠计划,侧面反映出市场对学生用户的重视。教育学者兰卡斯特强调,大学评估设计有时让学生感到无关痛痒,而使用人工智能则促使教育者重新思考如何设计更具实用性和参与感的测试。
他建议应重点培养沟通能力、人际交往能力及使用新兴技术的自信,这些技能是人工智能难以替代的。政府方面,虽然意识到人工智能的潜在风险,但同样看到其带来的转型契机,宣布投入超过1.87亿英镑用于国家技能提升项目,并发布了针对学校阶段AI使用的指导方针。作为未来发展的关键,高校需要在促进科技融合和保护学术诚信之间找到平衡路径,加强人工智能识别技术的研发,同时通过教育引导学生正确使用AI工具,提升原创能力和批判性思维。总的来看,人工智能在英国高校的出现,正引发一场关于学术诚信和教育创新的深刻讨论。面对越来越普遍的人工智能作弊行为,学校、学生和政策制定者需共同努力,探索新的教育模式和评价体系,确保学术环境的公平与可信赖。只有在技术与规范并行,理解与监管并重的环境中,高等教育才能在人工智能浪潮中迎来更加健康的发展。
。