谷歌受限欲哭无泪,完全自动驾驶还有多远?丨聚论
12月27日, 2015 6,975 views
【引言】无人驾驶车并不是造一辆车那么简单,它最大的难题在于:教会机器做人。
这年头,造车链上的企业,没个自动驾驶的计划都不好意思出来混了。谷歌在科技圈儿里带了个头,苹果乐视百度便纷纷跟上。
传统的汽车制造行业虽然较为保守,但也不甘心落于人后,奔驰、奥迪、德尔福、博世、日产、宝马、特斯拉、本田和福特都已经在美国加州申请备案,已经或即将开启自动驾驶车的上路测试。
自动驾驶为安全而生,同时也是为了改善交通环境。愿景虽然好,但这一领域的研究和应用还面临着诸多困难。
一、谷歌梦碎
中国有句古话,叫“枪打出头鸟”,自动驾驶领域飞得最快的出头鸟无疑是谷歌公司。很不幸,它最近就妥妥地挨了一枪。
最近,美国加州车辆管理局(DMV)出台了自动驾驶在应用层面的法规草案,要求自动驾驶车必须配备方向盘和油门踏板,并且方向盘后面必须有司机随时准备对汽车进行接管。
这一规定对于传统车企来说并没有什么大的影响,但对谷歌来说就不一样了。因为谷歌对于自动驾驶的最终设想就是:没有方向盘,也没有油门踏板。
▲ 谷歌无人驾驶汽车没有方向盘
消息一出,可以想见谷歌十分不乐意,它马上表示对此“非常失望”,然而并没有得到什么回应。2016年1月底和2月初,加州将针对草案展开两场集中讨论,届时也许会有新的变数。
作为一家科技公司,谷歌从一开始就没打算卖车,它最终想要的是一种交通解决方案。最近盛传的谷歌明年要将自动驾驶部门独立的消息也顺带作出了说明:谷歌将要提供租赁服务,与Uber竞争。
在谷歌所设想的自动驾驶“乌托邦”中,无人车可以自动开到你家门口,人类只需要坐在车厢里睡睡觉吃吃东西刷刷微博,汽车会送你到想去的地方,并且能够保证你绝对的安全。这么一来,人类自己开车和买车的必要似乎就没那么大了。
不过迄今为止,整车厂在自动驾驶方面还是比较谨慎和保守的。不管是搞智能车联还是自动驾驶,卖车仍然是整车厂的最终目的。这也是为什么传统车企在与谷歌、苹果这种科技公司合作的时候总是很谨慎,因为万一谷歌真搞成了,差不多等于釜底抽薪砸了整车厂的饭碗,行业大变革在所难免。
当然,目前看起来整车厂至少在近期是不需要担心的,因为谷歌的无人驾驶愿景面临的难关实在太多了,并不仅仅是被一个法规限制那么简单。
二、驾驶是一项社会化活动
如果我们把无人驾驶车看作是一个机器人,那么无人驾驶车的应用过程就是将一个机器人社会化的过程,而这,也是目前无人驾驶发展所面临的重大难题。
人类的世界虽然有交规,但仅靠交规并不能完全解决驾驶中的所有问题。比如说,你开车飞驰在道路上,前方车道正好被倒下来的树枝挡住,而旁边车道位置足够,你会怎么办?稍微变道一下就通过了呗。
但是自动驾驶车会在这堆树枝前面停下来,因为程序设置不允许它跨越双黄线。这时如果后车反应稍微慢一些,很有可能造成追尾。
密歇根大学运输研究所挑选了奥迪、谷歌和德尔福三家公司的自动驾驶测试报告进行分析。10月份公布的报告显示,自动驾驶每百万英里的事故率是9.1%,而人类驾驶的事故发生率是1.9%,鉴于人类司机可能对轻微碰撞不予上报,对数据进行调整后每百万英里事故率在4.1%左右,仍然低于自动驾驶。
而自动驾驶车之所以事故率居高,就是因为它“太遵守交规了”。在研究所分析的事故案例中,没有一起错在自动驾驶车,绝大部分都是因为自动驾驶车一丝不苟完全遵守规则,而人类司机反应稍慢而造成低速追尾。
雷达、摄像头、12个远程超声波传感器360°不间断监测汽车周围16英尺的位置——特斯拉Model S 7.0已经具备这些技术,但它仍然无法自动通过一个拥堵的路口,因为它无从判断其它人类司机的行为和意图,对方是否会留出空间让它通过。
三、机器与人如何共存?
加州车辆管理局在文件中指出了很重要的一点,限制无人驾驶“是为了自动驾驶车以及其他道路使用者的安全”。前面提到的分析结果也显示,自动驾驶虽然能够避免严重的事故,确实提高了道路安全,但也给同为道路使用者的人类司机带来了不少的困扰。
除了造成轻微碰撞,在自动驾驶开发初期,各大公司都相当谨慎,因此对自动驾驶的功能限制非常多。
特斯拉的Autopilot虽然声称在技术上已经完全准备好,但是最近流传的司机离开方向盘的放肆行为就足以让它马上宣布限速。有消息称,特斯拉计划对Model S 7.1版本的Autopilot功能进行限制,自动驾驶情况下时速最高只能达到72公里/小时。安全问题大过天,即便一向大胆的特斯拉也不敢冒险。
各位老司机们,想想你们碰到一个擅长急刹的上路新手时是什么心情。跑得慢不说,前面有根树枝,它要刹车;过来一位移动速度0.5米/秒的老奶奶,它也要刹车……
有人可能要问了,既然是程序设置,那么稍微修改下程序,让自动驾驶车适当违规不就行了吗?这就是研发人员以及社会各界正在争论的问题之一,目前还没有答案。我们也可以思考一下这件事的难度,要知道底线一旦突破就不能称之为底线了,违规我懂,可是什么叫适当?
还有人可能建议,既然这样那么把人类司机与自动驾驶车分开不就好了?大家各走一边井水不犯河水嘛。当我向一位不愿具名的业内人士提出这一疑问时,他反问了我一个哲学问题:先有车还是先有路?
自动驾驶车不会在一夜之间占领全世界的道路,那么在它的份额只有1%,哪怕10%的时候,政府有必要给它单独开辟一条道路吗?即便某天真的实现分路,在这之前的漫长时间里,自动驾驶车要如何与人类司机和平共处?
四、机器所面临的道德难题
试想,有6个小孩在火车轨道上玩耍,其中5个故意跑到仍在使用的轨道上,另外1个则自己在荒废的轨道上玩。这时火车突然驶来,作为扳道工的你站在铁轨控制开关前,如果不换轨,火车将撞死5个“明知故犯”的小孩,如果换轨,火车将撞死1个“完全无辜”的小孩。那么,我们如何做才更符合道德呢?
这个道德难题并没有所谓正确的答案,人们也常常用“这种情况现实中发生的概率几乎为零,讨论它没有意义”这种理由来自我安慰,拒绝去想它。
那么我们可以换一个概率稍微高一点的事件:如果汽车失控,一辆载满孩子的校车和一堵墙(撞上则自己会伤亡),你又会如何选择?
这个问题也没有正确答案。人类碰到这种问题基本上只能听天由命了,紧急情况下有的人反应快还能思考一二,有些人则完全来不及思考全凭潜意识决定,大家同为渺小的生物,碰上就谁也别怪谁了。
可是如果是机器人呢?
站在上帝视角的研究者在投入使用前就需要为无人驾驶车设计好这些问题的答案,可是他们毕竟不是上帝,如何能为无数种瞬息万变的道路情况设计非0即1的选择?即便有能力,又有何权力去决定他人的生死?
车聚小结:
除了上面这些,自动驾驶的应用还面临着许多其它问题,例如目前的测试范围其实非常有限,雪地路况就从未测试过,尚不能确定安全度到底有多高;另外法律方面也还没有成文规定,比如事故责任如何划分等等。
其实按照传统车企目前的设想未必不好,只将自动驾驶当作是一项附加的功能,在高速或者简单路面上临时使用,复杂情况仍由人类司机处理。因为让无人驾驶完全融入人类社会,相当于教会机器人做人,这实在是太难了。
欢迎加入车聚网读者微信群:请先添加微信号autojucom,并注明“我要入群”,之后我们将拉您入群,或加入QQ群:383683141。
欢迎微信扫码或搜索autoju(←长按可复制),关注我们的公众号。
发表评论: