专业IT科技资讯平台,关注科技、手机、电脑、智能硬件、电脑知识!
当前位置:主页 > 科技 > 科技行业 >

无人驾驶道德准则出炉 但它可能加剧无人驾驶的混乱

导读:

  无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。

  

  无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。

  自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。是背后的编程人员根据现实经济收益与成本考量的理性选择。也即意味着编程人员需要为无人驾驶的各种问题承担责任。而事实是,无人驾驶能否被人类接受,其核心障碍是人类是否可以接受一个可能犯错的机器。如果人类接受无人驾驶,或者日后出现的智能机器人,并允许他们进入人类社会与我们共处,我们在接受他们提供的便利的同时,也必须接受它们可能的犯错。

  来源:智驾时代 文/小语 吴鹏飞

  无人驾驶在推动一个产业成长的同时,对于无人驾驶如何进入人类社会正在成为一个变得迫切的问题。

  如果我们把具有无人驾驶功能的汽车称之为轮式机器人的话,对于这样新进入人类出行的新生物种,引发的将不止是法律适用的问题,同时会牵涉不少的伦理与道德问题。

  而其中的一项道德悖论是当无人驾驶汽车在没有选择只能选择一方碰撞时,到底如何选择。

  在这个月末的8月23日,继美国对无人驾驶出台首部法规一年之后,德国交通运输与数字基础建设部下属的道德委员会公布了一套被称为世界上首部的自动驾驶道德准则,供国内发展自动驾驶技术的车商参考。道德委员会经过评估报告,由科学家和法律专家共同提出15条自驾系统的驾驶决策道德准则,准则的核心原则是:生命应该始终优先于财产或动物。

  德国运输部长亚历山大。多布林德(Dan Dobrindt)在一份声明中说:“人与人之间的相互作用在数字化和自主系统的时代引起了新的道德问题,伦理委员会已经开展了开创性的工作,并制定了世界上第一个自动驾驶准则,我们正在实施这些指引”。

  准则规定无人驾驶汽车的系统必须要不惜一切代价的考虑把人的生命放在首位,也就是说当事故已经无法避免时,无人驾驶汽车可能就要选择撞向建筑等障碍物,而有着车体的保护,这样的判断更容易获得两全的结果。另外规定监视系统,如黑盒子,应该记录活动,以便以后确定事故中谁处于错误的方面:司机或技术。

  报告规定的软件设计人员的15条规则,虽然这些准则涵盖了简单的决定,比如把司机的生活优先于松鼠或邮箱,但还有其他更细微的问题仍然留给人的职权范围。报告说:“真正的困境决定,例如人与人之间的决定,取决于实际的具体情况,纳入受影响的各方的”不可预测的“行为。”因此,他们不能被明确地标准化,也不能被编程,使他们在伦理上是不容置疑的。“

  这些规范以安全、人性尊严、人身选择自由及数据自主性为重点。

  其中明确,人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。另外,当碰到“直走会撞死1个老人,但救2个小孩;急转弯会撞死2个小孩,但救一个老人”这种著名的道德难题时,规范中指出,自驾系统不得以任何年龄、性别、种族、是否残疾等条件,作为“牺牲”和“获救”的判断选择标准。因为人类的生命都是平等的。

  事实上这一人类的生命都是平等的判断,将会加剧自动驾驶系统的选择难度。

  同时这部规则意味着它可能事实上无法解决自动驾驶的道德悖论,还会导到更多冲突的发生。

  这一原则并没有解决问题。

  因为在现实世界,不仅仅是中国,同命不同价其实是一个普遍现象,这是现实世界残酷的一面。

  一个简单的事例是,在保险公司眼中,一个九旬老人与一个二十岁的青壮年价值是完全不同的。

  在不同的主体看来,生命的价值具有不对等的经济价值。

  2015年,谷歌自动驾驶项目的负责人当时表示,谷歌的汽车将无法决定谁是一个更好的人,在道德上,有不可避免的碰撞损失。相反,该公司正在努力保护最脆弱的人。

  而保护脆弱的人意味着必须对人,不同的人作出划分,对一个人的生命价值与一群人的生命价值作出比对。

  这也即是早已存在的由哲学家Philippa Foot提出的“电车难题”。

  这一难是是用来批判伦理哲学中的主要理论,特别是功利主义,它的内容是这样的:

  五个无辜的人被绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是在那另一条轨道上也绑了一个人。你有两个选择:1。 不拉杆,五人死于你手下。2。 拉杆,一人死亡。你会怎么做呢?

  Philippa Foot所批判的功利主义,其实也是很多人自认为正确的,即大部分道德决策都是根据“为最多的人提供最大的利益”的原则。

  这一难题即以一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。

  但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋--你要为另一条轨道上单独的一个人的死负部分责任。

  然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。总之,不存在完全的道德行为,这就是重点所在。

  这一难题在不同的时代有不同的演化版本,在自动驾驶时代,美国弗吉尼亚州交通创新与研究中心科学家诺亚。古道尔曾提出一种场景:假设一辆自动驾驶汽车马上就要撞到障碍物,它可以选择向左边或右边急转弯,但一边“目标”是戴头盔的摩托车,另一边的“目标”是不敢戴头盔的摩托车手。

  按照撞击优化算法的原则,无人驾驶汽车会选择撞向戴头盔的摩托车手,因为从统计数据来看,不戴头盔的车手更有可能死于车祸。

  不过这一算法明显存在歧视,遵守规则的戴头盔车手却遭到了惩罚,这一定程度上还是违反了自动驾驶的道德准则。根据德国给出的道德准则,这个问题似乎得到了答案:无人驾驶汽车撞向障碍物。