第三百九十一章 ??“电车难题”是无人驾驶的绊脚石?(1 / 2)

第二天上课,隋老师讨论一个严肃的话题《“电车难题”是无人驾驶的绊脚石?》

隋老师道

“说起无人驾驶,许多人就会不自觉的联想到上世纪年代诞生的经典电车难题。

这个伦理学领域最为知名的思想实验,正在成为整个行业不断前进的绊脚石。

因此,现在我们是不是该向前看,把这个问题彻底翻篇,不要再用这一道德问题来拷问无人驾驶汽车了呢?”

说完,隋老师微微一笑,看向大家。

王磊同学忽然问“隋老师,电车难题是什么呀?”

一些同学点头,觉得王磊这个问题问得好,问到了心坎儿上。

隋老师说

“1967年,英国哲学家菲利帕富特首次提出‘电车难题’。

一辆有轨电车失去了控制,司机看见前方的轨道上有五个人。

司机可以任凭电车继续前行,这样,这五个人一定都会被撞死;司机也可以将电车转向,开到一条岔路上,而这样只会撞死另一个人。

那么,司机是否应当把电车开到人少的轨道上,撞死一个人,而不是五个人呢?

1985年,米国哲学家汤姆森将这个问题作了进一步展开。

这一次,是你亲眼看见一辆失去控制的电车沿着轨道疾驰而去,而你则站在一个道岔开关的旁边。

你可以无动于衷,任凭电车继续前行,撞死那五个人;或者你也可以扳动道岔,将电车引至侧线,只撞死另外的那个人。

这里的新条件是和电车司机不同,你并没有在两条轨道之间作出选择的职业责任。

你会如何选择?

值得一提的是,这不仅仅是个哲学难题,汤姆森的假设,在后来的米国,真实的上演了这一幕,我想如果有上帝,上帝一定是个有点恶趣味的家伙。

案件里,站在道岔口的人选择了拨动道岔,5个人得救了。许多人对她的选择表示赞同。

事实上,这道题,多数人会选择撞死一个人。因为如此选择的人们会说很简单,做做数学,为了最多数人的幸福。”

同学们纷纷点头。

哦,这就是电车难题哟!的确有些难!

隋老师继续说

“如果以电车难题为基础来一次发散思维,你确实能得到大量难以解答的问题。

比如,无人驾驶汽车应该为了保行人而放弃驾驶员吗?

那么事故当头,老人和年轻人谁更应该做出牺牲?

如果车辆能获知附近驾驶员的信息,在车辆失控前它是否应该根据这些信息进行选择性的碰撞?

事实上,电车难题在无人驾驶圈已经是个绕不开的话题,麻省理工的工程师甚至专门众筹了一个‘道德机器’,旨在编写一个意见目录,以解决未来机器人在特定情况下该作何反应的问题。

不过,几十年来都没有答案的电车难题,其实本身就有个漏洞。”

隋老师停顿下来,然后问“你们知道是什么漏洞吗?”

刘军民举手说“编程的人,一定带有倾向性啊,他们的倾向,就是到的漏洞!”

刘俊豪举手补充“工程师们众筹的道德机器,汇聚了大家的道德,也不能取得道德一致性吧?”

隋老师道

“你们的回答都有一些道理。

实际上,在为机器人设定道德条件时,电车难题这个思想实验根本不及格。

如果硬要把它套进这一领域,特别是在制定政策、引导设计或回答一些人们关心的问题时,肯定会导致一些有关机器伦理的危险且不完整的结论。

我们千万别让功利主义蒙了眼睛。