随着自动驾驶技术的快速发展,特斯拉作为行业先锋之一,其全自动驾驶(Full Self-Driving, FSD)系统备受关注。然而,近期在美国得克萨斯州奥斯汀的一场测试中,特斯拉Model Y车型搭载的FSD系统多次无视停车校车的闪烁警示灯和停牌标志,穿行而过并撞击了数个按儿童比例制作的假人模型。这一事件由多个反特斯拉组织共同发起的测试项目揭示,暴露了当前自动驾驶技术在实际道路安全应对中的不足。测试团队总共进行了八次重复试验,均出现模型被撞击的相同情况,反映出FSD系统在识别和反应校车信号方面存在系统性缺陷。特斯拉官方的FSD系统虽名为“全自动驾驶”,但实际为“有监督全自动驾驶”,明确要求驾驶员始终保持高度注意力,并依次响应车机系统的警示提示。为何在安全关键的学校交通环境中,FSD仍然表现出如此明显的风险?一方面,自动驾驶技术需要复杂的环境感知和多源数据融合,准确判断场景中的动态元素及其预期行为。
校车旁的停牌和闪烁灯号属于重要交通安全信号,正常驾驶员会被法律法规和经验教育所驱使而停车。然而,当前FSD软件显然未能完全正确识别信号,或者未有效决策减速和停车。此前也有类似事件印证该问题的严峻性。例如2024年4月,在华盛顿发生的一起交通事故中,一辆开启FSD模式的特斯拉Model S与摩托车发生碰撞,导致骑手死亡,让公众对自动驾驶系统的安全性警惕性骤增。反特斯拉团体如The Dawn Project及Tesla Takedown致力于促进自动驾驶领域的安全监督,他们多次公开发布针对特斯拉FSD的质疑和警告广告,重点强调该系统在校车等不同交通情况下未能展现出应有的警惕性和安全性。此次测试揭露的情况无疑给自动驾驶技术的商业化和广泛推广蒙上一层阴影。
特斯拉的CEO埃隆·马斯克对此回应称,公司正处于“超级谨慎”的安全态度,因此原定的全自动驾驶Cybercab车型发布日期可能会推迟。马斯克同时透露,首款能够自动从工厂直接驾驶到客户家中的Tesla车辆计划在6月28日交付,显现出企业仍在积极推进自动驾驶愿景。然而从技术实现的角度看,FSD系统的挑战不仅仅在于硬件传感器和算法的提升,更在于如何确保在复杂多变的交通环境下作出精准、及时且人性化的响应。自动驾驶汽车必须准确辨认校车的停靠信号、闪光灯,及时辨识儿童的存在,并遵守交通法规的是基本底线,任何失误都有可能造成严重甚至致命的后果。专家指出,要实现真正安全可靠的自动驾驶,技术开发者需要对各种交通场景进行更广泛的训练数据采集和模拟测试,强化机器学习模型对极端情况的适应能力。除此之外,政策监管也亟需跟上技术步伐。
现行法规对自动驾驶车辆的安全标准、上路验证及应急责任判定等方面尚缺乏统一和严格的指导,这给自动驾驶系统可能的安全隐患留有余地。此次特斯拉FSD在校车旁连续发生事故引发的公共舆论,有助于推动更多透明度要求和安全审查,避免技术盲目商业化带来的潜在风险。未来,用户和市场期待的是一套不仅能提高驾驶便利和效率,还必须确保乘员和周边交通参与者安全的自动驾驶系统。特斯拉及行业同行的持续创新需要基于扎实的安全底线,确保任何驾驶自动化功能都经过充分验证,避免对行人儿童等弱势群体造成威胁。总结来看,特斯拉FSD在校车安全测试中多次失误,体现了自动驾驶技术尚处于发展与完善阶段,距离广泛实现完全可信赖的无人驾驶仍有一定距离。技术企业应意识到安全责任的重要性,加大技术研发投入,完善软硬件系统,积极配合监管机构建立科学合理的标准和流程。
从社会角度,公众对自动驾驶的理解和期待也将更加理性和平衡。只有在安全、透明和高效的协同推动下,自动驾驶技术才能真正实现从试验场到现实道路的安全平稳过渡,兑现其减少交通事故、提升出行质量的潜力。特斯拉此次事件是一面镜子,反映出现阶段自动驾驶领域之间进步与不足并存的复杂局面,同时也鞭策着整个行业不断反思与提升,向更安全智能的未来迈进。