近年来,人工智能尤其是大型语言模型(LLM)如ChatGPT迅速崛起,引发了学术界和新闻传媒领域的广泛关注。由于科学论文内容通常复杂且充满专业术语,如何将其准确、简明地转化成广大众能理解的摘要,成为科学传播的重要任务。科学记者每日需面对这一挑战,期望自动化工具能够减轻负担,提升效率。然而,最新的研究和实践表明,尽管ChatGPT等先进模型在语言表达上表现出色,但在总结科学论文时仍存在不少缺陷和局限。美国科学促进协会(AAAS)的研究团队通过一年时间的试验,系统评估了ChatGPT在为科学报道撰写"新闻简报型"摘要方面的表现。该团队聚焦于由其"SciPak"部门负责编写的摘要,这类摘要需明确传达论文的研究背景、方法、核心发现及其科学意义,面向新闻界以便后续报道。
研究结果表明,ChatGPT能够在形式和风格上模仿SciPak摘要,语言简洁流畅,适合大众阅读。然而,其摘要内容在准确性方面却多次出现偏差。总结往往存在简化过度、忽略细节、甚至混淆因果关系的问题。例如,模型常将相关性误判为因果关联,使得科学结论失真。此外,ChatGPT倾向用"突破性"或"新颖"此类夸张词汇夸大研究成果,尽管有相应的提示词调整,这种现象仅有所缓解。科学记者强调,事实核查仍是必须环节,未经过专业审校的AI生成内容可能误导读者,甚至影响公众对科学的认知和信任。
更关键的是,当论文内容复杂多变,或者涉及多项研究结果时,ChatGPT的总结能力进一步下降。尤其在整合两篇相关论文时,模型难以准确区分或合理融合不同观点,导致摘要信息混杂或缺乏逻辑性。上述缺陷带来直接影响,即AI辅助撰写的摘要反而可能增加编辑和核查的工作量,而非简化。使用者若依赖未经严谨审核的AI内容,极有可能产生错误报道,从而损害新闻机构的公信力和科学传播质量。AAAS的研究团队也反映,道德和专业标准对科学新闻工作者来说不可或缺。尽管ChatGPT具备辅助撰写的潜力,目前阶段仍难以取代人类在科学报道中的地位。
值得注意的是,科技快速迭代,本文讨论的数据主要基于2023年底至2024年年底期间使用的GPT-4及其衍生版本。随着GPT-5及后续版本的发布,模型的表现或许有所提升,但目前尚无足够的大规模实证数据支持其能完全胜任复杂科学摘要写作。科学传播领域的专家呼吁,未来的AI工具应更加注重专业领域知识的整合、因果逻辑的理解以及科学表达的严谨性。同时,模型需增强对多维度数据和研究异议的辨析能力,避免单纯依赖关键词导致内容片面。除此之外,对于软硬件技术的结合、交互式辅助写作平台的开发,也将成为突破瓶颈的关键方向。在科普与专业传播融合的趋势下,科学记者依然拥有无法替代的洞察力和判断力。
他们不仅传递信息,还需赋予报道价值和背景,解读社会影响和伦理考量。AI作为工具,理应为这一工作提供支撑,而非完全代替。未来,新闻机构应密切监控大型语言模型的发展进程,积极参与技术评估与规范制定,确保科学报道的准确性和权威性不受损害。与此同时,公众在接收通过AI辅助生成的科学资讯时,也应保持批判式思维,避免盲目信赖。综合来看,ChatGPT在科学论文摘要领域的表现揭示了当前人工智能技术在理解和传播科学知识方面的诸多制约。虽然具备潜力,但距离真正满足高标准科学新闻需求仍有一段距离。
随着技术不断进步,结合人类智慧和机器效率的协作模式或将成为未来科学传播的新篇章。 。