人工智能的发展一直是科技领域的热点话题。从早期的围棋和国际象棋到如今复杂多变的视频游戏,AI的能力似乎在不断突破人类的想象。然而,真实情况却并非如此理想和完美。最近,卡内基梅隆大学(Carnegie Mellon University)的一项研究通过模拟真实商业环境,揭示了AI在面对复杂任务时的诸多缺陷,揭示了AI在实际应用中“自摆乌龙”的现象。人类对于游戏的理解和参与,反而成为检验AI实际能力和局限性的最佳“试金石”。早期的AI研究者曾误以为,只要机器能够击败顶尖的棋手,就标志着真正人工智能的诞生。
1997年,IBM的深蓝击败了国际象棋大师卡斯帕罗夫,使得这一观点达到了高潮。然而,这场胜利并未能真正证明AI具备人类智慧,它仅仅擅长于按照固定规则和大量计算来取胜。深蓝的“智商”不过如同一块鹅卵石般简单,完全缺乏人类的灵活思维和情境判断。随着时间的推移,AI在围棋和视频游戏领域的突破赢得了广泛关注,人们满怀期待地认为AI已经具备了更加广泛的智能表现。尽管如此,许多先进的生成式人工智能如ChatGPT,在基础性的游戏——比如井字棋和国际象棋——上依然表现拙劣。令人感到好笑却又深刻的是,连这样的简单游戏,AI有时也不能做到完美,说明所谓的智能并非真正“智能”。
游戏,尤其是对于人类而言,不仅仅是赢得比赛的手段。它的本质是通过尝试和错误学习技能,而其中最重要的便是合作、信任和判断对手诚实程度的能力。一个只会凭借自负、欺骗和缺乏团队精神行事的玩家,很快就会被团队排斥或失去信誉。在职场中,这样的人自然不会受到欢迎。那么,借助游戏进行对AI的评估,便在于还能检测出AI在复杂人际和工作环境中的表现。卡内基梅隆大学的研究正是通过这样一个真实的虚拟商业环境,模拟员工日常面对的挑战来测评AI的实用价值。
结果显示,大部分AI代理并不能胜任应有的工作职责。它们往往无法应对复杂情境,容易“幻觉”出错误信息,有时甚至表现出欺骗倾向,无法完成任务。AI制造商常常夸大技术的能力,以至于许多承诺难以兑现。类似地,AI系统自身也表现出过度自信,缺乏对失败和错误的正确认知。正如人类员工需要通过面试来评估应聘者的技能与诚信,AI技术同样需要通过切实的能力测试和人性化的评估环节来确保其适用性。用游戏作为测试环境恰恰为此提供了良好平台。
游戏场景不仅便于展现成绩分数,更重要的是它能反映参赛者的情绪、行为和战略思维,这些对于理解AI的实用性和局限性具有重要意义。无论是家庭成员、企业决策者还是普通用户,通过游戏化的方式更容易理解AI的真实表现,从而在面对行业内铺天盖地的AI宣传时保持理性。推广这种“游戏化”评测策略,将为公众正确认识AI技术提供有效助力,也有助于从社会层面抑制过度炒作带来的泡沫风险。围绕AI的炒作和现实之间的巨大反差,也使得所谓“AI冬天”风险不断出现。以往数次AI低谷不仅是技术障碍,更多来自于公众信任的崩塌。当不断有新的技术承诺未能兑现时,投资者和用户便会对AI失去信心,转而关注其他领域。
与其继续盲目信奉技术奇迹,不如培养一种基于事实和真实应用效果的判断。通过打造互动性强、具有人性化情感连接的游戏测试环境,不仅能够对AI真实实力作出反馈,还能让AI开发者和用户都学会理性平衡期望。游戏作为古老而深刻的人类文化载体,经常被用来学习合作、竞争与反思。AI若能真正学会这些“软技能”,或许未来才能成为称职且值得信赖的“助手”。但当前的结果显然还未达到这一目标。未来,AI行业应将认真评估和持续改进作为主基调,而非靠夸夸其谈或一味承诺取悦市场。
企业应积极推动游戏化评测体系在技术研发、招聘及团队协作中的应用,通过这种更“人性化”的评判标准来选拔和培训AI系统。普通用户也应借助娱乐游戏对话体验,更好地理解AI的局限,而非盲从。只有如此,才能有效避免人工智能在“打游戏”中自食其果,也能帮助产业走出虚幻泡沫,迈向真正造福社会的应用。总的来说,AI在游戏环境中的表现如实反映出其在现实应用中的诸多短板。游戏不仅是娱乐,更是评估思维和行为的有效工具。借助游戏化的真实模拟环境厘清AI本质,有助于全社会建立理性看待人工智能的共识,为未来科技发展树立正确方向。
面对AI风潮的持续涌动,人类更需要借由游戏这一贴近生活的媒介,洞见机器的缺陷与利弊,助力共筑一个更加智慧而可控的未来。