日前,新能源汽车行业的“智驾”宣传纷纷改为“辅助驾驶”。从“智能驾驶”到“辅助驾驶”,一词之差,意义大不相同。前者配合“脱手驾驶”“全程零接管”“智驾如老司机”等传播术语,给人的感觉就是“自己不用开”甚至“比人开得好”,这些推介话术显然有误导消费者之嫌;而后者明确其为辅助工具,而非司机替代品。
“智驾”改“辅助驾驶”,这不仅是一个信息传达的精准度问题,更是法律问题和安全问题。
新闻背景
各车企组队改口辅助驾驶
日前,话题“小米汽车智驾更名为辅助驾驶”登上微博热搜榜高位,引发网友热议。经了解,事情的起因是小米官方在5月4日这天更改了自家产品的订购宣传文案,将原先使用的“智驾”字样统一更换成了“辅助驾驶”。
如小米SU7标准版所配备的XiaomiPilotPro介绍文案,就从“小米智驾Pro”变更成了“小米辅助驾驶Pro”;而小米SU7 Pro及小米SU7Max所配备的XiaomiHAD介绍文案,也从“小米智驾Max”变更成了“小米端到端辅助驾驶”。
虽然在互联网上引起了诸多用户的关注,但小米并非首个更改产品宣传文案、口径的公司。
通过关键词查询发现,华为BUCEO靳玉志曾在2025年上海车展期间对外表示:“我们的智驾现在都是辅助驾驶,手不能离开方向盘,眼睛也不能离开驾驶方向。”小鹏汽车的董事长何小鹏,亦在此前的新品发布会中更改了相关文案,使用“智能辅助驾驶”替换了“自动驾驶”。
除上述企业代表外,长安汽车、广汽集团、岚图汽车也在不同的场合,分别对外释出了“规范化表述辅助驾驶能力,呼吁驾驶员在使用相关技术时保持就绪状态”的意向。
换言之,当下各大车企的产品宣传重心,正在从未来感满满的“智能体验”向着更为保守、传统的空间感、司乘体验、动力配置等概念上不断倾斜。甚至部分销售人员已经将“智能驾驶”相关场景从自己的推销话术中删除,只要客户不针对相关场景主动提问,他们便不会向对方介绍“智能驾驶”这一汽车2.0时代的“黄金配置”。
事故频出
智驾“误判”险酿大祸
前不久,上海车主张先生驾驶某新能源汽车途经积水路段时,车载系统突然警示“行人横穿马路”并紧急刹停,但实际路面空无一人。车企事后承认,这是视觉算法受雨水干扰引发的误判。
记者注意到,近段时间以来,智能驾驶频现“误判门”:在广东深圳,某品牌轿车因视觉融合算法缺陷,未能识别高架静态护栏导致碰撞爆燃;浙江车主乐女士在高速路段行驶时车辆突然转至绿化带;重庆车主刘先生更是经历两次惊魂时刻——行驶中,系统先无故退出智能驾驶系统,后又无预警急刹致后车险些追尾。
“出于对某品牌汽车智驾系统的信任,我选择在半夜行驶高速路段时全程使用智能驾驶。凌晨3点左右,我驾驶车辆以每小时120千米的速度行驶时,右前方出现一辆红色货车,我以为智驾会和往常一样正常超车,没想到在距离货车几十米时系统突然退出辅助驾驶,并提示‘请立刻手打方向盘’,我瞬间清醒,立马脚踩刹车稳住方向盘以保持在原有车道行驶。”刘先生回忆起这次经历仍然心有余悸,“当时的情况下,如果我反应迟钝两秒,就可能以每小时120千米的速度撞向那辆货车。”
这次意外发生一个月后,刘先生又遇到了类似情况。他在高速上使用智驾功能,当车辆刚刚超过右侧大货车时,系统突然急刹,车从120码的速度迅速降至60码,后方正常行驶的车辆差点撞上他驾驶的车辆。幸亏后方司机反应快,瞬间踩住刹车与刘先生拉开了距离。“现在我都不敢启用智驾功能了。”刘先生说。 “这些事故暴露了智能驾驶技术从实验室到真实路况的‘水土不服’。”某车企算法工程师向记者透露,当前主流智驾方案依赖“摄像头+毫米波雷达”的纯视觉技术,虽成本相对较低廉,但面对复杂环境,如恶劣天气(暴雨、浓雾、沙尘等)、特殊光照条件(逆光、强光直射)以及类似事故中的低反射障碍物时,摄像头采集的图像容易出现模糊、失真或无法准确识别目标的情况。毫米波雷达虽能探测距离和速度,但对物体的形状和细节识别能力有限,二者结合的纯视觉方案在极端场景下难以提供稳定、可靠的感知能力。一些车企常以理想路况展示功能,而现实路况复杂多变。
这名工程师说,更令人担忧的是,当系统检测到障碍物后,留给驾驶员的接管时间仅短短几秒甚至1秒,即便接管,人类从认知到操作的延迟也可能超过系统预设的“安全窗口”。这种近乎“甩锅式”的设计,将复杂路况下的决策权仓促地推给用户,却没有为其提供足够的安全冗余空间,极大地增加了事故发生的概率。 技术短板之外,数据安全成为另一隐患。
“由于新能源汽车运行依赖大量数据收集,像车内摄像头、传感器等会采集车主及周围环境数据。智驾若要精准导航和应对路况,也需收集这些信息。部分车企存在过度或超出用户授权收集信息的行为,加之技术漏洞或管理疏忽,易导致用户数据泄露。这些泄露的数据可能被企业、第三方机构用于商业分析、广告推送等,严重侵犯了用户隐私。比如,不法分子获取车主行车轨迹,可能知晓其生活规律、常去地点,带来安全隐患。”上述工程师说。
专家建议
方向盘永远握在自己手中
有专家强调,技术迭代不能替代责任划分,智驾是辅助工具而非司机,车企不能将安全责任“甩锅”给用户。
北京理工大学法学院教授孟强建议,建立完善的数据安全管理制度,明确数据收集、存储、使用、传输等环节的安全规范,确保数据的保密性、完整性和可用性。由于智能驾驶汽车能够获取用户的行踪等敏感个人信息,所以车企必须对智能驾驶系统收集的用户数据进行加密存储,防止数据泄露。
“为了避免车辆被恶意攻击或智能驾驶功能出现故障带来风险,车企还应当加强对数据安全技术措施的监管,采用先进的安全技术,如防火墙、入侵检测系统等,保护智能驾驶系统免受恶意攻击。同时,定期对数据安全进行审计和评估,及时发现和修复安全漏洞。”孟强说,由于当前的智能驾驶层级仍然较低,所以车企应当加大研发投入,提高智能驾驶系统的可靠性和安全性,突破复杂场景下的技术瓶颈,如提升纯视觉智驾在恶劣环境下的探测能力,降低激光雷达成本以实现普及,尽快提升自动驾驶的级别。
对于消费者,某车企算法工程师给出实用建议:在夜间、施工区等复杂场景,需手动接管车辆;车内常备物理破窗工具以应对电子锁失效;购车时重点考察车企数据加密方案。“方向盘永远握在自己手中。”该工程师警示,技术可以试错,但生命没有容错率。
法律分析
辅助驾驶造成事故或侵权的多由车主负全责
谁该为智能驾驶发生的事故负责?谁又该为事故造成的人员伤亡负责?事故责任划分,是解释包括辅助驾驶、自动驾驶等情况下交通事故侵权的关键,也是未来前往自动驾驶时代无法回避的重要问题。不过当前我国法律法规对辅助驾驶、自动驾驶事故责任划分的探索空间还有待明确。
自动驾驶分六个等级
L0—L2为驾驶辅助
我国于2022年3月1日起开始实施的《汽车驾驶自动化分级》国家推荐标准,将自动驾驶分为L0到L5六个等级,L0—L2为驾驶辅助,属于低级别的驾驶自动化功能,由系统辅助人类执行动态驾驶任务,其驾驶主体仍为驾驶员;L3—L5为自动驾驶,属于高级别的驾驶自动化功能。
“事实上,在辅助驾驶模式下,驾驶员就是驾驶活动的第一安全责任人。”中国政法大学教授、可持续交通创新中心研究员郑飞表示,从现行的自动驾驶汽车相关法律规定看,仅达到L3级以上驾驶自动化的车辆才属于法律意义上的自动驾驶汽车,如深圳、北京、武汉及香港等地的相关条例均只将L3级以上自动驾驶汽车作为规制对象。因此,L2级辅助驾驶依然受以“有人驾驶”为法律基础的《道路交通安全法》的传统规则约束。
这影响着近几年国内多起辅助驾驶事故的责任认定。郑飞指出,“对于辅助驾驶造成事故或侵权的,实践中做法相对统一,从既往判例来看,多由车主负全责。”
在(2024)苏02民终6213号案,即龚某钢诉无锡某新能源汽车产品缺陷案中,一审法院认为“智能领航系统仅是驾驶辅助功能,不能代替驾驶员驾驶车辆时的安全注意义务”,二审法院认为“驾驶辅助功能,可以辅助驾驶员,但不能代替驾驶员进行驾驶”,因此驾驶员负有全部责任。去年湖北一新能源汽车品牌使用辅助驾驶功能误识别广告牌导致追尾,最终交警判定车主负此次事故的全部责任。
“可见,辅助驾驶并非免责事由。”郑飞说。
在司法实践中,驾驶员如有意以车辆存在产品缺陷为由诉请车企承担赔偿责任,往往会面临举证难的问题。这是因为产品责任属于无过错责任,即无须对被告是否存在过错予以证明,但仍需要对产品存在缺陷以及缺陷和事故发生之间存在因果关系进行举证。
然而,基于自动驾驶系统的专业性,车企对相关数据的单方掌握,以及缺乏国家强制性标准的现状,产品责任实际上难以认定。郑飞指出,也正因此,现实中车企主动道歉的多,主动赔偿损失的少。
驾驶人过度信任和依赖是当前辅助驾驶事故主因
在郑飞看来,当前辅助驾驶事故多因驾驶人过度信任和依赖所致。而造成这一问题的原因之一,包括一些智驾车企利用信息差进行混淆营销与销售。
他指出,基于自动驾驶的专业性,对普通消费者课以专业、理性的技术鉴别能力是不妥当的。而不少智驾车企正是利用了信息差进行混淆营销,挂着“解放双手”“自动驾驶”“XX公里0接管”的“羊头”,卖着L2级甚至L1级的“狗肉”。事实上,此前由于法规限制,我国L3级自动驾驶尚未落地,目前在售的大部分智驾车型仍是L2级辅助驾驶。
“过度信任带来的技术滥用恐怕是当前人机共驾最为头疼的问题。”天津大学法学院副教授杨宁在一篇文章中提到,美国国家公路交通安全管理局(NHTSA)于2016年在《联邦自动驾驶汽车政策》中指出,制造商和其他实体应高度重视评估驾驶员自满情绪和误用L2级系统的风险,并制定有效的应对措施,以帮助驾驶员正确驾驶汽车。
美英等国法律严禁车企欺骗性推销自动化功能
东南大学法学院副教授郑晓军发文表示,车企除了要落实安全主体责任外,还要主动审查,确保营销方式、内容符合法律法规。车企和政府有必要用法律矫正自动驾驶议题中的认知偏差,即通过打击虚假信息、强化信息披露,使公众基于更完整、准确的信息作出判断。
针对车企的混淆销售行为,有些国家已有法律规定。比如,美国加利福尼亚州曾出台法案,禁止车企和经销商欺骗性推销自动化功能,如禁止L2级部分自动驾驶车辆使用“自动驾驶”等可能让消费者误解车辆能力的宣传用语。英国在《自动驾驶汽车法案》中明确对营销沟通的整体表述作出限制,防止消费者对自动驾驶及辅助功能产生混淆。
“我国也可以参考英国《自动驾驶汽车法案》的规定,将混淆销售行为列入《广告法》之中,严禁混淆销售行为,严禁使用‘L2+’‘L2.5’等说法,仅能使用国家标准确定的相关说明。”郑飞建议。
而在郑晓军看来,政府也有责任向公众准确传达科学知识,让公众理性、辩证地看待新技术的潜力与风险。“政府有必要采取一系列措施,将前沿研究转化为可理解的信息,并及时向公众发布。在决定涉及重大公共利益或者社会公众切身利益的重大事项时,政府要履行更重的程序责任。”
未来展望
自动驾驶时代法律该如何明确事故责任?
机器和人,谁更可靠?我们是否可以期待一个“机器比人更安全”的社会?
在道路交通安全领域,如何减少道路交通事故与伤亡人数,一直是一个重要课题。2021年,世界卫生组织启动2021至2030年《全球道路安全行动十年计划》,该计划的目标是到2030年之前将全球道路交通伤亡人数降低至少50%。
对于不少自动驾驶技术的研发与推广者来说,他们相信无人驾驶汽车将会是未来解决交通安全问题的重要组成部分,这项技术能通过减少人为犯错来确保行驶安全。
但当科技能赋予人类更多操作自由时,法律如何才能守住责任的底线,使道路安全和产业发展之间实现平衡?
展望未来进入真正的自动驾驶时代,多名专家表示,需要尽快修订道交法相关内容,并考虑对自动驾驶领域进行专门立法。
尽管包括北京、武汉、深圳等已经进行了地方立法先试,特别是率先允许L3级以上自动驾驶私家车上路的《北京市自动驾驶汽车条例》于4月1日正式施行,但这些地方性法规对自动驾驶关于事故责任划分的探索空间依然有限,也并不统一。
《深圳经济特区智能网联汽车管理条例》第五十一条规定有驾驶人的,由驾驶人承担责任。《杭州市智能网联车辆测试与应用促进条例》第二十七条则规定除驾驶人外,安全员也需要对事故责任负责,不配备驾驶人、安全员的,公安机关交通管理部门可以依法对车辆所有人或者管理人进行处理。
郑飞建议,明晰自动驾驶汽车事故责任划分,可以参照英国,当自动驾驶汽车被判定为责任方时,应分别依据“有人驾驶”和“无人驾驶”确定责任主体及责任归属。在“有人驾驶”情形下,若在自动驾驶功能启动前或关闭后以及超时响应车辆接管请求后发生交通事故的,驾驶者应对交通事故承担相应责任。相反,则由自动驾驶汽车生产者承担相应责任。在“无人驾驶”情形下,车内人员均不对交通事故承担责任,转而由自动驾驶汽车运营者及生产者承担不真正连带责任。
此外,还应明确安全员的法律地位,将安全员与驾驶人区分开来,对安全员与驾驶人分别设计不同的法定注意义务及责任归属。
综合法治日报、第一财经
编辑:宁姝媛
相关热词搜索:
上一篇:名为转让闲置物品实为职业售假 法院:退一赔三 下一篇:1块钱解锁2万部微短剧还能日更 侵权盗版难题怎么破?