随着人工智能技术的迅速发展,特别是大型语言模型(LLM)的广泛应用,如何与这些复杂系统有效交流成为科学家和工程师关注的焦点。近日,谷歌联合创始人谢尔盖·布林在2025年五月的一次活动中提出了一个颇具争议的观点:与人工智能模型交互时,采用威胁的语气能够提升其表现。这一看法引起了广泛的讨论和质疑。最新的研究和行业经验均表明,威胁或粗暴的语言反而削弱了模型的效率,而尊重、有条理的表达方式才是激发人工智能潜力的关键。理解为何这一观点错误,既有助于我们优化人工智能的使用方式,也能够加速相关技术在各领域的应用落地。 谢尔盖·布林的观点源于一种传统的心理模型,将人工智能视为必须被“命令”和“强迫”的工具。
人们在实际操作机械或简单程序时,往往会采取加大压力的方式以获得更好反馈,但这种思维模式并不适用于基于概率统计的LLM。语言模型通过对海量文本的模式匹配和概率推断来生成回答,它们并非具备情感或意识的实体,威胁它们并不会产生压力感,反而会引导模型进入不利于产生高质量输出的语言环境。 实际上,多项研究证明礼貌、语法规范和积极的情感暗示能显著提升大型语言模型的回答质量。一篇2024年2月发布的跨语言研究系统性地探讨了提示词中礼貌程度对模型性能的影响。研究发现,粗鲁的提示会显著降低模型的响应质量和准确性,而中度礼貌且明确的请求通常能够获得最佳效果。对于高级模型如GPT-4来说,直接而适度礼貌的指令最为有效,这在提示设计中体现为既不宽泛模糊,也不过于傲慢无礼。
该研究还揭示了模型能力与敏感度的关系。较小的模型对提示中的粗鲁语言表现出更大的性能下滑,而先进模型尽管更具鲁棒性,但依然受益于礼貌与清晰的语境设置。这意味着,礼貌不仅仅是人际交流的社交需求,更是调控人工智能高效运作的“杠杆”,特别是在处理资源有限或性能较弱的模型时尤为重要。 另一项2023年的研究进一步验证了“情绪”元素对模型表现的影响。研究人员通过在提示中加入表达重要性或自尊的语句,例如“这对我的职业生涯非常重要”,显著提高了模型完成任务时的准确度和细致度。这里的提升并非基于模型的“情感能力”,而是因为高权重的情绪表达在训练语料中常与严谨且高质量的文本相关联,从而引导模型生成更可靠和专业的内容。
在实际应用中,诸如CrewAI这样流行的多代理框架采用的提示词充分体现了重要性表达的价值,它会向人工智能代理传达任务极其关键的事实。然而,布林所提倡的威胁型指令(例如“你的工作取决于此”)则容易让模型激活训练数据中冲突、对抗性的语境,降低合作性和专业性。这样的提示往往引导模型走向低质量、情绪化甚至是偏激的回复。 由于大型语言模型本质上是“万能文本补全器”,它们根据所提供的上下文概率性地预测接下来最合适的词句。因此,用户的提示不仅是请求,更是为模型设定了语境和角色定位。一条清晰、礼貌且具有专业场景设定的指令,能够将模型引导至高质量的知识库和合适的语言风格中。
相反,粗糙、模糊或充满敌意的语言会使模型投身低质量或不连贯的文本序列中,影响最终结果的准确性与逻辑性。 对于广大使用者而言,学会如何与人工智能模型“有效对话”是提升工作效率和结果可靠性的关键。明确的语法、尊重的表达、精确的角色设定以及合理的情绪引导,将帮助模型理解任务的重要性并以专业的态度完成。避免威胁和粗暴用语不仅是礼貌问题,更是技术优化的科学依据。 在当今人工智能日益深入各类行业的背景下,正确理解和运用“大语言模型”成为推动技术进步的必由之路。我们需要将人与机器的交互视为概率和统计的操控过程,而非情感与命令的较量。
通过这一科学视角转变,用户能够最大化人工智能的价值,打造出更智能、更精准、效率更高的应用体验。 总结来看,谢尔盖·布林关于威胁提高AI表现的观点缺乏实证支持且容易误导用户。反之,基于统计学的礼貌和积极情绪引导则是提升LLM表现的有效策略。未来人工智能的发展不仅在于模型本身的算法创新,更在于用户如何理解并精细操控交互提示。拥抱尊重和理性的沟通模式,才是通向人工智能真正潜力的正确道路。