【AICon】探索RAG 技术在实际应用中遇到的挑战及应对策略!AICon精华内容已上线73%>>> 了解详情
写点什么

特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题

  • 2020-06-02
  • 本文字数:2010 字

    阅读完需:约 7 分钟

特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题

马斯克最近很忙,火箭刚刚升天的喜悦之情还未褪去,这边,特斯拉汽车却翻车了。

事件回溯

6 月 1 日,据媒体报道,一辆特斯拉 Model 3 行驶在台湾高速公路上时,直接撞向一辆翻倒在公路上的大卡车。事发时车辆中只有司机一人,所幸没有造成人员伤亡。


根据道路上的视频监控画面显示,事发时天气晴朗,司机视野良好。在卡车翻倒在地时卡车司机站在一旁的隔离带上等待救援,当卡车司机看到特拉了汽车直奔卡车冲过来没有丝毫减速时,卡车司机还试图向特斯拉驾驶员挥手致意,但即便如此,特斯拉轿车也没有及时刹住车,直直撞向了卡车。



事发后,当地媒体对事故发生的原因进行了探究,据警方介绍:“司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在了 110 公里/小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上。”

又是自动驾驶惹的祸?

特斯拉的事故车 Model 3 目前能支持 L3 级别的自动驾驶,L3 级别的自动驾驶要求驾驶员随时做好接管汽车的准备。在特斯拉的官网上,同样注明了其 Auto Pilot 属于辅助驾驶功能,车主的手不能脱离方向盘,且注意力需要集中在驾驶上。


如果分析技术层面的原因,从事发视频可以看到,在距离故障车很远一段距离内没有任何遮挡物,但特斯拉事故车依旧没有对故障车做出任何反应,速度丝毫没有减慢。很明显,特斯拉的 Auto Pilot 系统没有识别出倒在前方路面上的卡车,可能是因为传感器的识别不到位,没有判断出前方是障碍车,也可能是因为系统融合欠佳,导致未根据传感器的反馈做出正确决策。


此前,AI 前线针对自动驾驶/定速巡航可能的失控原因对自动驾驶技术专家进行了采访,他表示:


对于自动巡航系统,最简单的巡航需要感知车速,并且控制汽车发动机风门、喷油,形成负反馈循环。如果车速传感器,风门控制,油喷还有引擎控制器出问题,都有可能造成失控。但是汽车并不是简单的负反馈机制,还有很多工程上的设计让系统失效的时候,回到一个安全状态,所谓的 fail-safe 设计。所以并不是随便一个部件故障就会让巡航失控的,即使巡航出了问题,任何加油,刹车或者手动操作都可以退出巡航状态。所以巡航失控的可能性是非常小的。


自动驾驶涉及的方面太多了,巡航涉及的控制只是车速的变化,自动驾驶对车的控制包含了车速、转向、刹车等,传感器至少有激光雷达 Lidar、摄像头和卫星定位系统,如北斗和 GPS,为了乘客舒适度和车身稳定,还有惯性加速度传感器、三维陀螺仪等传感器。而中间的处理单元就更加复杂了,涉及计算机视觉,实时操作系统,高清晰地图,精准定位等多个方面。我们都知道,一个没有足够容错设计的复杂系统更加容易出故障。比如西雅图华盛顿大学的 Yoshi 教授就创造了一种可以欺骗自动驾驶的方法,只用几个即时贴,就可以让自动驾驶的计算机视觉系统,误以为一个停车标志是一个限速牌,从而造成事故。而从计算机安全的角度来说,传感器越多,计算机越容易被传感器的输入欺骗,造成失控。所以各种视觉欺骗、激光照射、对传感器数据的改变,都可能造成自动驾驶的失控。

自动驾驶安全问题频出,应该如何应对?

对于行人和乘客来说,自动驾驶最重要的就是安全性。当计算机技术进入以自动驾驶汽车,联网医疗设备等为代表的物联网时代,也标志了计算机开始在真实世界替人类做出很多至关重要的决策。这个时候,除了以前的编程模式,必须在系统中引入攻击者模型。换句话说,就是要让系统拥有抵抗黑客攻击的能力。


技术专家曾分析说:自动驾驶除了要考虑到车在正常情况下的加速减速制动导航,也得考虑到各种复杂的情况,比如道路障碍:行人、动物、其他车辆、特殊路况如冰雪、路牌缺失等等。容易解决的技术问题是那些我们知道的,不容易解决的技术问题是那些我们未知的,最困难的问题,是那些我们不知道我们不知道的,比如说攻击者会对汽车和车载计算机网络进行什么样的攻击?


据了解,目前全球各大车厂都在考虑这些问题,并且在车辆的设计中引入更好的安全机制。计算机安全领域的专家们也加入了这些工作组,在保卫车主和行人的安全。

结语

事实上,这不是特斯拉第一次在自动驾驶问题上“栽跟头”。


早在 2016 年,特斯拉的两起自动驾驶致死事故,让特斯拉很长一段时间陷入在自动驾驶安全性无法保障的质疑中。据《纽约时报》报道,2016 年 1 月 20 日,在中国邯郸一高速路段,一辆驾驶特斯拉 S 的司机在事故中丧生,中央电视台对此事进行了报道。车中的行车记录仪显示,该车以左车道以公路行驶速度行驶时撞上一辆道路清扫车,当时特斯拉处于自动驾驶状态。


此后不久,2016 年 5 月,特斯拉在美国佛罗里达又发生一起车祸事故。在此事故中,自动驾驶仪的雷达和摄像头无法识别出明亮天空背景下的白色货车,也没有迹象表明司机或自动驾驶仪在与一辆牵引式挂车相撞前采取制动措施。


目前的 L3 级别的自动驾驶虽然声明了需要人为控制,但还是有很多人在驾驶中不集中注意力,这是一场对人性的考验,除非我们所期盼的“完全自动驾驶”时代到来,否则人依旧是驾驶中的最主要决定者。


公众号推荐:

2024 年 1 月,InfoQ 研究中心重磅发布《大语言模型综合能力测评报告 2024》,揭示了 10 个大模型在语义理解、文学创作、知识问答等领域的卓越表现。ChatGPT-4、文心一言等领先模型在编程、逻辑推理等方面展现出惊人的进步,预示着大模型将在 2024 年迎来更广泛的应用和创新。关注公众号「AI 前线」,回复「大模型报告」免费获取电子版研究报告。

AI 前线公众号
2020-06-02 15:042639
用户头像
李冬梅 加V:busulishang4668

发布了 792 篇内容, 共 365.3 次阅读, 收获喜欢 992 次。

关注

评论

发布
暂无评论
发现更多内容
特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题_大数据_李冬梅_InfoQ精选文章