您现在的位置: 首页 > 驾车技术 > 技巧 >

困扰了人类几百年的道德难题,机械人该如何应对

作者:路虎之家  时间: 2020-01-19 00:04  来源:路虎之家 

译者:Amber LI 本文长度为3524字,预估阅读时间7分钟

引言:我们并不习惯关于机械做道德决议的想法,但它们能自己举行通例道德决议的那天正在逐步迫近。来自BBC的David Edmonds不禁发问,我们该如何教会它们做出正确的决议呢?

轿车根据原定时间在早上8点停在你家旁的路口等候接你上班。你坐进后座,从公务包中拿出电子阅读器扫描新闻。这趟行程从未遇到贫苦,之前最多只是略微塞车而已。但今天不寻常的恐怖的事情发生了:两个小孩,相互追逐着从长满草的河岸滑落到你眼前的马路上。已经没有时间刹车。而如果轿车向左急打偏向盘将会撞到迎面而来的摩托车。

没有哪一个效果是好的,但哪个效果是不那么差的?

时间定格在2027年,而你应该知道的另外一件事情是,这辆轿车是无人驾驶。

(Jaguar land rover) Amy Rimmer博士相信无人驾驶汽车将能拯救生命

我在搭客座位上,而Amy Rimmer博士坐在偏向盘后面。

Amy按下屏幕上的按键,然后,并没有多余的其它操作,汽车就很是顺畅的开始行驶,在交通灯前依照信号灯指示停下,然后左拐,在环形交织路口航行并很是轻缓的靠边停好。

这一趟神经紧绷的旅程或许5分钟,随后就轻车熟路了。Amy, 29岁的剑桥大学博士,是Jaguar Land Rover自动驾驶汽车项目的首席工程师。她卖力汽车感应器的感应研发,以及随后的应变机制设置。

她表现,这辆汽车,或其他类似的产物,会在十年内投入使用。

仍然有许多的技术问题待解决。但一个可能推迟无人驾驶汽车投入使用的难题,并不存在于机械或电子技术上,而属于道德问题。

行驶中的汽车面临的两个孩童的逆境只是谁人哲学上著名的“有轨电车难题”的变体。

“ 一辆火车(或电车,推车)正沿着轨道行驶,而它突然失控,刹车失灵。而灾难正在前方——有5小我私家被绑在前方的铁轨上。如果什么都不做,5小我私家会失去生命。但如果你能调整轨道偏向并将火车向辅路驶去,你就可以救下这5小我私家的性命。但坏消息是,有1小我私家在辅路上,而火车改变行驶偏向将杀死他。你该怎么做?”

普林斯顿大学出书社

现在我们来谈一谈这个问题的另一个变体。

“ 一辆火车朝着5小我私家行驶,而此时你正站在俯视轨道的人行天桥上,你身旁有一位背着粗笨背包的男子。救下那5人性命的唯一方法是将你身边的男子推下轨道:他会死,但他的背包能阻止火车继续前行。这一次仍然是5条人命和1条人命的选择,但大部门人这一次认为背包男不应该被牺牲掉性命。”

普林斯顿大学出书社

这一谜题被讨论了数十年,哲学家们仍然各持己见。实用主义者们,认为我们的行为应该最大化快乐或幸福,认为我们对背包男的直觉是错的。背包男应该被牺牲:我们应该救下5小我私家的生命。

电车难题显得极端和不现实。只管如此,在未来,也许会有一些情况下,无人驾驶汽车也需要做出选择:向哪个偏向转弯,伤害谁,或谁负担被伤害的风险?这类的问题另有许多。

我们该向它们程式化哪一种道德观?

我们该如何权衡驾驶员,路人和此外车辆内的搭客的生命的价值?

你会购置一辆为了路人的生命而牺牲它的驾驶员的汽车吗?如果你会,那你太不寻常了。

谁来做这些道德选择是个棘手的问题。

政府该来决议这些汽车如何做选择吗?还是制造商?还是身为消费者的我们呢?你会走入展览厅,像挑选车身颜色一样挑选道德模式吗?“我想买一辆保时捷实用版”杀一救五“蓝色敞篷汽车…”

Ron Arkin在2004年到场一个机械人道德论坛的时候对这些问题发生了兴趣。他听取了一位代表的讨论讲话,什么样的子弹用来杀人最好——直径大但速度慢,还是小却迅速?Arkin以为这很是难选择,“我们是否应当为我们缔造的技术负担责任。”自此,他开始致力于研究自动武器的道德观。

曾有人呼吁克制自动武器,但Arkin持相反意见。

如果我们能制造能使平民较少受到伤害的武器,我们必须这么做。他表现,“我并不支持战争。但如果我们愚蠢到一直自相残杀——只有上帝知道我们怎么了——我相信战争里的无辜生命需要被更好的掩护。”

和无人驾驶汽车一样,自动武器并不是科幻小说。现时已经有不完全依靠人类控制而运作的武器。

举例来说,有的导弹在轨道中能凭据前方可能遭遇的敌方攻击而改变偏向。Arkin的方法有时候被称为“自上而下”的。也就是说,他认为我们能程式化机械人,用类似日内瓦条约的工具约束它们——例如,克制它们居心猎杀平民。纵然这是一个极其恐怖且庞大的挑战:机械人必须能够分辨哪些是手持刀具准备砍杀的敌人,哪些是手持手术刀准备救治伤员的医护人员。

一个解决这些问题的可行方法是“机械学习”。

Susan Anderson是一个哲学家,Michael Anderson是一个电脑科学家。除了伉俪关系,他们也是专业领域上的互助者。

他们相信,教授机械人道德的最好的方法就是先将普世原则程式化植入(如规避痛苦,追求幸福),然后再使机械学习如何在一些特定情境下应用这些原则,并闻一知十到新的情境里。

GETTY IMAGES

我们拿Carebots来举例——它们是制造出来用来协助残障或年迈人士拿食物或书,或开灯或电视的机械人。Carebot行业预计在未来十年内会获得迅速的生长和增长。和自动武器与无人驾驶一样,carebots也将面临选择。假设一个carebot正面临一位拒绝吃药的病人,也许这样几个小时还没什么问题,究竟我们希望能尊重病人自己的意愿。但很快我们就需要寻求资助,因为恒久拒绝服药会危害病人的身体康健。

在应用初始价值准则在一系列的两难逆境中之后,Anderson匹俦相信机械人会逐步清晰自己该如何选择和行动。人类也能够从中有所学习和收获。

“我认为机械人会比一个平凡人做出更为正确的道德选择。”Susan说。Anderson匹俦均表现不会对被机械人照顾的未来感应焦虑和困扰。“比被机械人照顾更尴尬的是被人照顾,”Michael如是说。

然而,机械学习也有其自身的问题。一个是机械可能学习到了错误的示范。

举个相关的例子,模拟人类语言的机械人被发现泛起明白偏差。男性和女性的名字总会有差别的遐想。机械会更倾向于相信John或Fred比起Joanna或Fiona更适合是一位科学家。我们需要对这些偏差警惕,并战胜它们。

Getty images

一个更为基础的挑战是如果机械在学习的历程中发生进化,我们可能无法预知它接下来的行为;我们可能甚至无法搞清楚它是如何获得它的行为结论的。

这是一种悬而未决的可能,尤其是当机械人的要做的选择对我们的生活发生重大影响时。一个局部解决方案是当事情堕落时,我们能有方法审阅代码——找到到底发生了什么事情。因为让机械人为自己的行为卖力可能既愚蠢也达不到目的(为什么要处罚一个机械人呢?),我们需要审判在道德上和法理上为机械人的错误行为卖力的人。

机械人的一个很大的优势是它们的行为具有一致性。

在相似的条件下,它们的行为一致,不受外界影响。自动武器并不会因为它生气了就做出更残暴的选择。自动驾驶汽车不会醉驾或疲屈驾驶,也不会对后座的小孩大吼。全世界每年有凌驾一百万人在车祸中丧生——大部门是因为人为错误。降低这个死亡数字是一项很大的功劳。

我们到底该多珍视一致性其实也是一个有趣的话题。如果机械人法官为被治罪的罪犯提供一致的讯断,这似乎是对判刑这个职责举行授权的一个强有力的理由。但没有了法官和嫌疑犯的人际接触,是否会有所缺失呢?

伦敦国王学院的John Taioulas教授相信人类间的庞大的人际关系是有价值。“我们是否真的想要一个量刑制度,以机械的方式发生一个统一的谜底往返应所涉及的价值观的痛苦冲突?当我们消除人类决议者的个性和责任时,就会失去真正意义上重要的工具。”他表现。

Jaguar land Rover

Amy Rimmer对无人驾驶汽车的前景感应很是兴奋。这不仅仅能拯救生命。无人驾驶汽车还能淘汰交通堵塞和汽车排放,会成为“仅有的几件你愿意花钱购置并能为你节约时间的事物”。而它将如何面临电车难题呢?是撞击两个小孩,还是打偏向盘迎向劈面的摩托车?

Jaguar Land Rover还未开始思量这些问题,但Amy并不认为这些问题重要:“我不需要回覆这些问题来通过驾驶考试,而我也能正当开车。所以,为什么在我们能从中获得便利前,我们要下令汽车必须回覆这些并不常见的情境问题呢?”

这是一个精彩的问题。如果无人驾驶汽车能在大要上拯救生命,为什么不允许它们在我们找到极端情况的解决方案前先将它们投入使用呢?最终,我们希望我们的机械能遵循道德程式——因为,不管你乐意不乐意,在未来会有越来越多的决议权会从人身上授权给机械。

总结

固然这未来也值得我们的担忧。我们也许不能完全明确为什么机械人做出某些特定的决议。我们需要确保机械人不会吸收和习得我们的偏见。但我们也应当看到潜在的利益。在某些道德决议上,机械人可能比我们更擅长。它甚至可能使我们成为更好的人。

关于互联网数据官(iCDO)

Internet Chief Data Officer(iCDO)是聚焦于互联网数据分析与应用的行业中立平台,旨在为互联网数据从业者、喜好者、服务商和品牌方提供全球最前沿、最新鲜、最有价值的业界动态、行业运动、产物先容、技术剖析以及互联网数据行业相关招聘资讯。

tags:机器人 机器学习 无人驾驶 武器 捷豹 路虎 哲学 轿车 工程师 摩托车


【编辑:路虎之家】
图文精选