人工智能(AI)作为近年来科技领域的热点话题,频繁出现在公众视野中,从智能语音助手到大规模语言模型(LLM),似乎无时无刻不在向我们展示其强大的能力。然而,一篇由苹果研究团队发布的论文《思维的错觉:通过问题复杂性视角理解推理模型的优劣》(The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity)向我们提出了一个发人深省的观点:虽然AI看似在“思考”,但本质上这种“思考”只是一种幻觉。微软前高管Steven Sinofsky的深度解读,则为我们揭开了这一现象背后更为深刻的社会与技术意义。人工智能并非人类,拟人化的语言和期待往往导致仿若迷雾般的误解。理解这一点,对于推动AI技术的正确应用和规避错误风险有着极其重要的意义。十年沉浮,期待与失望之间的拉锯从AI诞生之初便存在。
最初,计算机被认为是“电子大脑”,神经网络的出现更是强化了这样的类脑比喻。20世纪五六十年代,计算机科学家们怀着一种天真的科学乐观,将AI视为有朝一日能够模拟甚至超越人类智能的革新。然而,接踵而至的多次“AI寒冬”让学界和产业界渐渐认清人工智能的本质:它并非拥有真正的意识、理解或自我,而只是一种模仿行为的计算机程序。在这些挫折和反复实验中,AI研究者采用了大量拟人化的表达方式来表达成就和目标,从“学习”、“理解”到“研究”,这些词汇的使用使得公众误以为机器拥有类似人类的思维和情感。特别是随着大型语言模型如ChatGPT等技术的崛起,拟人化倾向愈发明显。人们纷纷称机器人“学习”知识、“思考”问题,甚至推断它们可能具备情感或主观意识。
实际上,这些模型的运作基于大量数据的统计模式匹配和概率推算,其背后并没有真正的认知过程。史诺夫斯基特别提醒我们,拟人化不仅误导了用户,也导致了从监管层面到公众情绪的一系列负面影响。首先,如此拟人表达激发了社会对人工智能的过度担忧和误判,甚至催生了带有恐慌色彩的“AI末日论”,担心机器会“自主毁灭人类”或“策划自我生存”。然而,论文明确指出,AI并无自主意志或意识,这种担忧缺乏科学依据。其次,拟人化加剧了对AI技术的非理性期待,使得人们对其能力的实际表现产生了断层。此前的AI冬天便是因为过高的期望与不达标的技术兑现之间的巨大落差导致。
如今,虽然技术进步迅速,但误解仍在,可能使客户体验和市场信任度受到侵蚀。再者,拟人化的语言让政策制定者误以为需要以对待“人类智能”的方式管控AI,导致某些过度严苛的限制或错误的AI安全管理理念出现。这不仅束缚了技术发展,还可能错失利用AI解决实际问题的良机。尽管如此,当今的AI技术依然堪称革命性的创新。它在文本生成、图像识别与自然语言理解领域取得的突破,为社会带来了巨大的生产力提升和便利。作为工具,AI能够帮助人类进行知识呈现和信息搜索,改善工作流程,提升创造力。
同时,我们必须清醒地认知它的工具属性,摒弃幻想。微软曾经推出的“Clippy”助手就成为了人机交互中谦逊设计的典范。Clippy虽然不完美,但其设计理念提醒我们要警示用户不要盲目相信自动化建议。换言之,让用户知道AI的局限性,培养正确预期,这对于推动人机协作至关重要。未来,人工智能的发展需避免“赋予意识”的迷思,回归数据和算法的本质特征。研究者们应专注于提升模型的可靠性和透明度,改善错误生成(所谓的“幻觉”)的问题,加强对模型输出的可解释性。
同时,公众教育同样关键,帮助大众理解AI的能力边界,告别神话般的误读,避免无谓的恐慌。AI的力量在于辅助和放大人类智慧,而非取代或超越。人类依然是主导者和决策者,AI的出现是为了更好地服务于人类社会。拥抱理性和科学的态度,有助于我们驾驭这把双刃剑,让技术真正惠及每个人,推动社会进步。总之,《思维的错觉》不仅为AI技术自身的理解提供了重要视角,更为我们在认知和社会层面警醒了深刻的教训。摆脱拟人化误区,是人工智能走向成熟和理性应用的必经之路。
只有这样,我们才能迎来一个更加清晰、务实且创新的人工智能时代。