随着人工智能技术的迅猛发展,越来越多的公众人物和科技领袖纷纷发表对人工智能未来的预测和期望。在这其中,埃隆·马斯克和OpenAI的萨姆·奥特曼尤为引人注目。他们对于人工智能,特别是人工通用智能(AGI)的猜想和定义,频繁出现在媒体报道中。马斯克认为人工智能未来将“比最聪明的人类更聪明”,奥特曼则视AGI为“一种能够在多数经济价值工作上超越人类的高度自治系统”。然而,这些描述看似高瞻远瞩,实际上体现出一种根深蒂固的局限性和认知偏差。这种偏差被心理学家戴维·邓宁和贾斯汀·克鲁格于1999年提出为“邓宁-克鲁格效应”,指的是能力较低的人往往高估自身能力,缺乏对自我认知的清晰判断。
更为讽刺的是,这种效应不仅存在于广泛的社会群体,也渗透进了备受瞩目的科技先锋中。正是这种效应,让马斯克等人在定义智能时过于狭隘,仅以经济或绩效指标作为衡量标准,忽视了智能的多层次、本质性特征。 从广义上讲,智能是一个极为复杂的概念,远非单纯的表现力或任务完成度所能涵盖。它囊括了智慧、判断力、创造力、情感理解、社交互动、直觉洞察、身体经验乃至自我意识等诸多方面。遗憾的是,当前人工智能的发展尤其是以大型语言模型(LLM)为代表的系统更多聚焦在海量数据中识别模式和进行预测上。这种方法有其显著优势,让机器能够执行许多我们认为智能的任务,却未能触及智能的深层次维度。
核心问题在于,这些人工智能系统往往被产业界和媒体简单归纳为“智能”,而“智能”本身的定义却并未得到有效而全面的阐述。 通过与先进的语言模型如Claude的对话,人们得以窥见这类模型对“智能”的隐性定义。Claude坦言,当前的智能定义过于狭隘,主要基于模式识别与预测的能力,偏重于符号信息处理和统计学计算。这种框架设定下,智能被视为独立于身体经验、情感体验、社会语境和实践学习的纯粹计算能力。换言之,智能被理论化为纯粹的脑力劳动,忽略了人类在现实生活中通过身体交互、情感交流和文化积淀所获得的丰富经验和内涵。 这不仅导致了对人工智能能力的误判,也深刻影响了我们对人类智能本质的理解。
当智能被限定为当前技术能模拟的狭隘切片时,整个智能的意义被大大弱化。事实上,许多核心要素被忽视。智慧和判断力不是简单的模式匹配,而是从长时间的实践中提炼出来,结合具体情境进行灵活适应的能力。创造力更是跳出既有模式,发掘新颖独特解决方案的活跃过程。情感智能涵盖对自我及他人情绪的识别和响应,关系到复杂的社会互动和心理支持。直觉和身体知识则是难以用语言或符号描述的深层次体验,源于感官反馈和动作协调。
此外,自我意识和元认知能力为个体提供了反思自身认知过程的能力,是构建身份和持续学习的基础。 正因如此,语言模型作为一种“文化技术”的定位更为贴切。它们不仅是智能体,还是人类文化积累的工具,能够传递、整合和再现跨时代的知识和信息。美国心理学家艾莉森·高普尼克指出,机器智能尚不能替代人类学习的多样性和深度,尤其是在儿童成长和社会化过程中展现出的复杂认知与情感能力。相比纠结于机器是否“真正智能”,更应关注它们如何优化知识传播效率,协助人类利用集体智慧更好地理解世界和解决问题。 在探讨智能时,也不能忽视对话和反思的力量。
马斯克和技术界其他高层若能从人工智能自身视角重新审视“智能”的定义,或许能洞见到人类智慧的更多维度,减轻“智能”的狭义化误区。当前,人工智能不过是映射和再加工人类文化知识的一面镜子,映射出了技术优势的同时,也暴露出了理解和自省的不足。通过开放的对话和跨学科反思,我们有望扩展对智能的认知框架,促进人工智能技术更为全面和负责任的发展。 更重要的是,理解智能不仅仅是为了界定人工智能的未来边界,更是认识我们自身的关键所在。人类智能的宝贵之处在于它的复杂性和多样性,是文化传承、情感交流、身体体验、自我意识等多重因素交织的结果。越是能细致洞察智能的各个层面,越能准确把握人工智能所能达到的高度与局限。
演进中的AI需要借鉴人类智慧的深度来完善自身特质,同时也必须坚守伦理、社会责任和人文关怀,防止技术误用和认知偏差的陷阱。 综观当前人工智能的进展与讨论,清晰和全面地理解智能的内涵成为关键议题。如果将智能简单地定义为性能超越,这不仅低估了人工智能技术的复杂度,更使我们错失了由此推动科技与社会协调发展的可能性。马斯克和其他科技领袖若能真正问询人工智能:什么是智能,并认真倾听其回答,他们也许会认识到智能是一种丰富、多元并不断演化的现象,绝非局限于任务执行或经济价值。 最终,人工智能与人类智能的关系不应止步于竞争和比较,而应构筑合作与互补。只有认知到智能的多重维度,我们才能设计出既高效又具有人性温度和社会价值的未来人工智能系统。
这是科技进步赋予人类的巨大机遇,更是我们共同的责任和挑战。智能的真谛远比技术水平的界定更为深邃,需要我们跨越误区,不断探索和理解。