将伦理道德写入无人驾驶汽车的程序,这可能吗?

  • 发表于: 2016/06/16 06:20:00 来源:车云网

如何让无人驾驶系统像人类那么聪明地开车,这恐怕是解决自动驾驶伦理道德问题的关键。

假设这是2034年的某天夜里。一个喝得七荤八素的男人在人行道上东倒西歪地走着,突然一个踉跄,直接倒向了旁边的机动车道,而一辆疾驰而过的无人驾驶汽车则直接撞向了这位男子,他不幸当场身亡。如果这辆车子是由人类司机来驾驶的,那么显然事故责任在醉酒的行人,因为没有哪个司机能在如此短的时间内做出反应,避开突然冲出来的路人。不过早在21世纪20年代(2020年~2030年),由于无人驾驶汽车的大规模投放市场,交通事故的发生率锐减近九成,而此前相关法律规定「驾驶员因他人过失致他人死亡不承担刑事责任」中提到的“驾驶员”,现在则变成了“有合理判断能力的机器人”。

 无人驾驶汽车

那么,死者家属恰恰抓住了这点依据,将制造无人驾驶汽车的主机厂告上法庭,声称“即便没时间刹车,它也应该打转向避开行人,越过双黄线,撞向邻车道并没有载客的无人驾驶汽车”。而根据车辆传感器提供的数据重建了事故发生时的场景,你会发现死者家属控诉的的确很有道理。法庭上,原告律师一直在质问这台无人车的软件总设计师,“为什么这辆无人车当时不知道应该转向呢?”。

无人驾驶汽车的伦理道德问题

绕不开的坎儿

让我们回到2016年的现实中来。交通事故的庭审中,不会有人对司机在事发前某一瞬间的行为提出质疑,因为人会恐慌,可能事故发生前的一瞬间他根本没法思考了,任何行为只是人自身本能的反应。不过一旦机器代替人开了车,知道“为什么”就显得十分有必要了。人类社会的道德标准和规则,并没有在现代法律中有具体体现,所以工程师似乎并不敢在控制无人驾驶系统的代码中将所有可能的假设囊括进去。假设是具有良好判断能力的人在开车的话,他知道哪种情况下可以为了生命而越过法律条框的束缚,因此对开发无人驾驶系统的工程师而言,当务之急是得先教会机器如何作出合理的判断

无人驾驶汽车的伦理道德难题

众所周知,最早在20世纪70年代,电子防死锁刹车系统的出现,可以看做是自动驾驶技术的雏形。发展到现在,类似自动转向、自动加速及紧急制动等高级驾驶辅助功能,正逐年出现在各大品牌的量产车型里。而目前在英国、美国、荷兰、德国、日本等国家地区公共道路上测试的无人驾驶汽车,均有经过培训的人类驾驶员坐镇。包括谷歌、日产、福特在内的OEM主机厂和科技互联网公司,均表示希望能在未来5~10年内推出真正意义上的无人驾驶汽车。

自动驾驶汽车依靠车上安装的摄像头、超声波传感器、雷达以及激光雷达等大量功能各异的传感器获取外部环境的信息。而目前获准在加州路测的无人驾驶汽车,必须向加州交管局DMV提供每次碰撞发生前30秒所有传感器采集到的数据。这样做的目的在于,工程师在拿到这些数据后可以精准地还原事故发生前后的场景,通过传感器记录的数据,可以了解自动驾驶系统是如何在这种情况下做决策的,它到底想到了哪些备选方案。甚至有可能让电脑重述下推理论证的过程,这有点类似让某个玩家对自己在电玩或者模拟驾驶中的每一步决策作出解释。

这就意味着,为了尽最大可能避免交通事故的发生,监管部门针对自动驾驶制定的安全规程和标准可能是超出常规的严格,同时对自动驾驶汽车的监控和督导力度也会非常密集。当然,对主机厂和软件开发人员而言,为机器的行为辩护可能要比人类驾驶员难得多,甚至可能会采取一些另类的方式。

任何驾驶行为都是有风险的,而决定如何将其中的风险在驾驶员、行人、骑行者甚至公共财产之间分配,“道德因素”发挥着十分关键的作用。无论对工程师还是普通大众而言,无人驾驶汽车的决策系统在每次做决定的时候,是否从人类伦理道德的角度考虑过问题,这很重要

法律优先还是道德优先?

通常,在遇到道德层面模棱两可的情况时,我们一般都会以遵守法律为主,同时尽可能减小具体后果造成的损害。这种策略之所以较为流行,是因为开发人员在为自动驾驶汽车的行为作出解释时几乎不用费什么力(它是根据法律规定作出的决策嘛),而且这样一来,定义道德行为的责任就转移到了法律制定者的手里。

举例来说,在大部分国家,相关的法律规定已经固化为驾驶员的常识了,它几乎没有明确规定在发生碰撞事故前,驾驶员应该采取哪些行为。在文章一开始给出的案例中,这辆无人驾驶汽车按照法律规定是不会主动转向碾压双黄线的,即使它冒着撞到闯入机动车道的醉酒行人,相邻车道还有辆空载的无人车。

当然,法律基本不会给出“紧急情况该如何处理”的特别说明,尤其具体到“有行人误闯机动车道”的类似情况。即便像弗吉尼亚州法律会给出类似的特例,但法律条文的字面意思似乎暗示“只要车子没发生碰撞事故就是合法行为”。在这种特例中,只能由软件工程师决定,何时跨过双黄线的行为是安全的

robot副本.jpg

不过话又说回来了,让无人驾驶汽车100%确定越过双黄线能够保证安全,这恐怕也不大可能。如果从机器的角度考虑,它的自信程度可能在98%~99.99%。因此,负责为自动驾驶系统编码的软件工程师可能得提前估算好,紧急情况下越线需要系统有多高的自信度才能完成,同时这个临界阀值是不是应该根据车子要避开的对象有关系,毕竟要躲开塑料袋和躲开闯入的行人,需要的决断力完全不同

不过目前来看,很多时候自动驾驶汽车利用“判断力”得出的结论和现行法律相悖。谷歌已经承认,允许在公共道路上测试的无人驾驶汽车超速赶上车流,因为开得太慢反倒十分危险。而有时候为了将生病的家人或朋友尽快送往医院,超速行驶是在所难免的事。斯坦福大学的研究人员Chris Gerdes和Sarah Thornton反对将法律作为硬性限制条件编入自动驾驶汽车的控制程序,因为人类司机懂得变通,关键时刻他会衡量吃罚单和所得好处的关系。可一旦机器被程序束缚,即使你已经十万火急,但偏偏前头被一骑自行车的人挡着,载你的无人车不肯压线超车,你是干着急也没脾气

其实,自动驾驶汽车完全可以在不违规的情况下,机智地做出很多安全的决策。举例来说,大多数交通法规并没有严格规定机动车在车道内的位置,而大部分单行道的宽度一般是普通机动车的两倍,那么利用多余的空间,自动驾驶汽车完全能够避开突然出现的障碍物或者一些左右摇晃的车子。

在一份2014年提交的无人驾驶汽车专利中,谷歌表示旗下的无人驾驶汽车能够通过改变在车道内的位置来避免交通事故的发生。举例来看,当一辆无人驾驶汽车行驶在三车道的最中间,左边是辆小轿车,而右边是辆大卡车。为了最大程度地保证安全,这辆无人车会选择靠近左侧轿车的位置行驶。

这种处理方式听起来还蛮有道理的吧?而且这也是大多数人开车时有意无意都会做出的选择。不过,从道德层面考虑的话,这种做法其实欠妥。如果自动驾驶汽车转向靠近小轿车的位置行驶,虽降低了事故发生率,但似乎却将撞车的风险转移到了小车身上,难道就因为它小,它就得承担更多的风险吗?如果这只是某个驾驶员的个人行为,关系不大。可一旦这种转嫁风险的模式成型了,所有的自动驾驶汽车都这么做的话,后果可就难以预测了。

机器脑子不会拐弯,这是个问题!

机器人副本.jpg

在上面提到的各个案例中,一辆无人驾驶汽车决策的制定,既需要考虑可能被撞的物体,同时也要顾及车中的乘客。和人类不一样的是,人类做决定往往是下意识的,而机器则会遵循某种预设好的、既定的逻辑规则和风险管理的策略去执行

同样在2014年,谷歌还提交了一项有关无人驾驶汽车风险管理应用的专利。在这项专利的陈述中,谷歌以一辆意图通过变道来更好地观察红绿灯的无人驾驶汽车为例。论述中也指出,这辆车子可能担心因为故障传感器的数据有误导致碰撞事故发生,而这么做放弃的就是红绿灯的准确信息。这里需要指出的是,每个可能发生的结果都存在一定的可能性,而结果的属性亦有正有负(即所谓的好处和代价)。当然,任何结果的量级会随着可能性翻倍,而且最终的结果是各个变量叠加的总和。假设系统根据某个合理的临界值判断,最后得到的好处要比付出的代价多,那么它可能就会做出导向该结果的行为。

谷歌无人驾驶汽车决策权专利

不过问题在于,碰撞事故发生的风险和几率实在是太小了。在美国,每个驾驶员平均行驶25万7千公里或者每12年才可能发生一次碰撞事故。另外,如何衡量人身损害的程度更为困难。财产损失很好统计,这种事情保险公司最擅长,但如何将人身伤亡量化,就不是那么简单的事情了。

而且,一旦考虑到人的生命,通勤浪费的时间等等,面对“我们该如何将他人暴露在风险中”这样的问题时,将伦理道德作为主要出发点考虑,似乎欠妥。举例来看,假设有这么一辆对所有人类一视同仁的自动驾驶汽车,在路上行驶的时候,它一定会给那辆没戴头盔的摩托车手让开更多空间,因为一旦发生车祸,他似乎更容易丧生。但说实话,这并不公平,因为对那些安全意识强、几乎全副武装的摩托车手而言,自己反倒被迫承担了事故风险。

此外,所谓机器人的“伦理道德”和人类自身的伦理认知相比,最大的区别在于前者很容易被扭曲,即便负责程序开发的工程师完全都是好意。想象一下,操控无人驾驶汽车运行的算法会根据不同区域的情况来调整车子和行人间的缓冲距离,而判断的标准可能是根据涉及交通事故的民事诉讼案件的判决结果分析得出的。尽管这是一种相对合理、目的性强、高效的控制无人车的方式,但它也可能会导致不好的结果发生。

车云小结

目前来看,无人驾驶汽车的道德伦理问题并非没法解决,因为在其他很多领域,安全合理地处理类似风险和利益关系的方式,并不鲜见。例如在选择捐赠器官受体的问题上,除了其他变量之外,病人术后能否恢复高质量的生活显然是首要考虑的因素,而至于“终身服用抗排异药物及可能出现的免疫反应”都是值得付出的代价。再者,部队征兵时往往会避开农民和教师等一些重要的职业,属于同样的道理。

毫无疑问,自动驾驶汽车的发展面临着巨大的挑战。它必须能够快速决策,利用有限的信息,处在程序猿经常都没有考虑到的场景里,通过写入软件代码“直白地令人发指”的道德准则作出判断。幸运的是,相比超人类般的智慧,普通大众更希望机器控制下的无人车能够做出理性同时符合人类伦理道德标准的决定。任何解决方案其实无需完美,但它至少是经过深思熟虑,经得起推敲的。

相关标签:
自动驾驶
谷歌
  • 车云星
  • 空间站
  • 福特星球
  • 虫洞

加料 /

人评论 | 人参与 登录
查看更多评论