2014年,一辆卡车的司机在伊萨卡,N.Y的山丘上丢失了他的刹车,不得不决定跑到建筑工人并耕作CAFé。那个男人选择后者,一个调酒师死了。这是一个道德哲学家之一的真实案例’最喜欢的思想实验: 手推车问题.  In their book 无人驾驶:智能汽车和前方的道路, 哥伦比亚大学教授Lipson教授和科技记者梅尔巴库曼作为一个可怕的困境,是自动驾驶汽车设计师必须为之准备的那么可怕的困境。

今天,一支由埃德蒙德·艾德领导的团队,这是马萨诸塞州理工学院的博士后’S Media Lab,已发布其在线游戏版的困境的结果,是“Moral Machine”实验。世界各地的约230万志愿者发挥了近4000万场情景,对谁居住的判决以及谁应该死于涉及失控的自驾车的事故。 (这 结果 在10月24日举报了这个众群实验 自然。)

在其剧烈的形式中,困境是愉快的稀有,自动驾驶汽车,整体更安全,可能使它仍然令人愉快。但是许多哲学家和工程师认为它是隐含的常规选择,即自主机器必须在道路上制作。“我认为,核心问题,将在现实世界中每天发生多次,只是不是疯狂的崩溃困境,”加州理工学院大学的哲学教授帕特里克林说,圣路易斯·奥巴波浦,他专门从事新兴技术的道德,并没有参与该研究。实际上,司机已经已经做出了这样的选择,通常没有意识到。它。每一个统计意义 加利福尼亚停止, 匹兹堡留下了或者其他可疑动作是杀死某些人的决定。

道德机器 网站向用户展示了一辆车滑车在人行横道上的行人的卡通,他们可以决定转动和跑过其他一些人。有时候,替代方案是一个混凝土障碍,可以杀死汽车’S占用者。与其他一些版本的手推车问题不同,这是两组受害者之间的直接选择,而没有额外的复杂性,想象将人身体造成伤害’S Way。没有时间压力,所以你可以体重两种选择。预期受害者数量,年龄,性别和其他特征各不相同。他们可能会用拐杖散步,推动婴儿车或携带一袋被盗的钱,行人可能会与行走信号交叉。你可能会看到一辆只有猫和狗填充的汽车—毕竟它是自动的。

该网站于2016年6月居住,作者呈现了他们去年12月收集的数据。它的新闻主要通过口中的话语,也可以通过突出的YouTubers Pewdiepie和JackseptiCeye。看看你的决定与其他人的决定’■,你必须填写人口调查问卷,半百万人这样做。他们倾斜的男性(以三对一对一的比例)和年轻(达到18岁的比例)。

他们 broadly agreed on what to do. They strongly preferred to save humans over pets, groups over lone people, kids over seniors, law-abiding pedestrians over jaywalkers and people carrying briefcases over hunched figures wearing tattered coats. They also had milder preferences for women over men, pedestrians over car passengers and joggers over heavyset people. Drivers were as likely to swerve as to let the car continue on its present course—他们没有偏离无所作为。“这是他们关心的最少,”该研究的作者之一,是英国哥伦比亚大学的Azim Shariff。

人口群体和国籍仅在他们放置在不同因素的重点上不同意。例如,男人和女性都扔了公共汽车下的男人,但男人略少倾向于这样做。“There’没有任何道德尺寸的地方,例如,老年人平均更喜欢年轻人,或者平均不作为不作为的行动,” Shariff says. “It’与其他国家相比,这一方向的道德优先事项的恰当被认为是较少的,相比之下。”

研究人员发现各国分为三个不同的集群。例如,青年在拉丁美洲获得最高优先级,欧洲和北美的最高优先级,最少在亚洲。可以肯定的是,地理并不总是命运。捷克斯像拉丁美洲人和斯里兰卡人一样回应了西欧人。

国家变异跟踪了其他指标,如收入,研究人员作为证据,主要是年轻男性受访者通常代表他们的国家。来自较贫穷国家的人们倾向于沿着杰沃克斯逃跑;来自高不平等国家的人对公文包的人更恭敬;那些来自性别平等国家的人对女性更加侠义。最后的趋势有一个奇怪的后果:因为平均偏好已经歪曲了女性’赞成,性别平等国家更加偏好。因此,性别平等国家实际上是这场比赛中最性别的性别。

最有意识到的分歧不是世界各国人民,而是在他们与专家之间。“他们[人]建议一些不道德的行动,如优先考虑犯罪分子的狗,”弗吉尼亚州运输研究委员会的研究科学家诺亚古德说。人们’在手推车问题上的道德本能(和其他别的)是众所周知的。在 早期的一系列研究  SINGIFF和另外两个道德机器共同作者—Jean-Franç图卢兹经济学院的Ois Bonnefon,以及媒体实验室的Iyad Rahwan—探究了近2,000人’在自动驾驶汽车上的景色。参与者表示,他们认为一辆车能够平等地重视乘客和行人的生活,但他们自己宁愿购买优先占用者的汽车。“我们争辩说,是这些自治车的社会困境的一部分,” Shariff says.

去年德国交通部,采用14人道德委员会的建议,禁止使用性别或年龄来解决Trolley困境。“我在道德机器实验中看到的大值是它有助于嗅出我们需要解决的关键区域,”林说。考虑到时间来反映,大多数调查受访者可能会非常同意专家。“We don’t know how people’他们的偏好’在线玩游戏转化为实际行为,” Shariff says.

许多道德哲学家也比调查参与者的行动和无所作为之间的不同区别。“如果你不得不在两个邪恶之间做出选择,那么一个人杀人,另一个是让死亡,” Lin says, “然后让有人死亡是一个较小的邪恶—and that’为什么在推车问题中无所作为。”他说违约是无所作为的限制—如果选择在一个人和10之间,怎么办?—但是,调查参与者首选的功利管理也是如此。在一个 2015纸 他引用了击中骑手的骑自行车的人之间的困境,而那些没有人的骑手。头盔的盔甲是希望生存的—但如果这是决定因素,谁会戴头盔? (实际上,一些骑自行车者已经使用了司机’作为盔甲的反应是借口不能穿一个。)

怀疑论者的对象,整个运动都太简单了,无法使用。“这种情况是合理的,但只是几乎没有,”沃德说。它们意味着一个不可能的级联失败:在行人区的公路速度驾驶时失去制动器。更糟糕的是,他们承担完美的知识和明确的结果,而我们通常在认知雾中运作。“虽然作者承认这是一种缺点,但他们未能意识到这是一个致命的缺点,”Delft技术大学教授Aimee Van Wynsberghe表示,专门从事技术伦理s。她认为自动驾驶汽车应该仅限于专用高速公路,在那里他们不需要做出不足的道德计算。

然而,林,就像任何其他科学实验一样,这些项目就是一个关于其本质的问题,以使其成为易行的问题。“Yes, it’他的学生和人为,就像大多数科学实验一样,但这并不是’T说出它是多么有用的东西,”他说。手推车问题让人们散发出几个有争议的原则:无论是不一样的行动;是否涉及的人数是重要的;一些生活是否比其他人更有价值。在jaywalker在街道上吸收的jaywalker之前,汽车公司通过这些权衡思考的时候思考的时间。“They’提前一到五年重新签署这些决定,” Lin says. “如果他们会比真实的人更多的时间更多的时间’重新陷入实际的崩溃困境。”

Shariff表示,道德机器也可以弯曲机器伦理的其他问题,如法院和假释板使用的算法,以预测常规风险。系统可能更准确—减少整体犯罪率并保持较少的人锁定—但是,如果减少跨越种族或其他类别均匀发生,则较少。人们认为是可接受的权衡吗?“我们是否应该优先考虑准确性或者我们应该优先考虑平等,即使它意味着在监狱中不必要地将更多人放在监狱中,以便相同?”他补充道。根据定义,困境没有简单的解决方案,但我们至少应该通过选项思考,并能够捍卫我们选择的任何选择。