解释我们对自动驾驶汽车的极端安全要求
自动驾驶汽车有望以多种方式改善我们的生活.美国人平均每天上下班通勤大约一个小时.虽然自动驾驶汽车不会减少我们的通勤时间,但它们将使我们能够以更有生产力或更有趣的方式使用这段时间.
自动驾驶汽车还可以缓解因年老或残疾而无法自行驾驶的人的生活.
最后,研究表明,自动驾驶汽车的安全性比普通驾驶员高出至少10%,每年将挽救成千上万的125万因交通事故丧生的生命.
尽管自动驾驶汽车比普通人更安全的情况下允许其在道路上行驶的优势,但公众对引入无人驾驶汽车的阻力很大,除非它们比普通人类驾驶员安全得多(例如,比普通驾驶员安全90%).一项新研究发现,两个认知谬误在解释这种对自动驾驶汽车的不情愿方面起着重要作用.
两个认知谬论
在2021年5月出版的《交通研究》杂志上进行的一项研究中,心理学家Azim Shariff及其同事着手研究了两种众所周知的认知偏见在多大程度上虚假的优势偏见和算法厌恶导致谬误的推理,解释了公众不愿接受自动驾驶汽车的意愿,除非它是极其安全的.
虚幻的优势偏见或所谓的优于平均水平的效果是倾向于认为自己是比平均水平要好得多的驾驶员.
研究人员预测,由于我们大多数人倾向于将自己视为比平均水平更好的驾驶员,因此如果我们只接受某种程度的自动驾驶汽车,我们大多数人将使自己处于不利地位比普通驾驶员更安全.
算法厌恶是对算法的过度反对,即使这些算法与人类相同或略胜一筹.
算法厌恶先前已被证明与医学诊断有关.例如,即使选择显示比人更准确的计算机,大多数人还是愿意接受人类医生或计算机的医疗诊断,大多数人还是喜欢接受人类的诊断.
Shariff等.他预测算法厌恶是解释人们不愿意驾驶自动驾驶汽车的另一个因素.具体来说,他们预测与具有相同安全记录的出租车司机相比,人们将更不愿意乘坐自动驾驶汽车.
方法论
为了确定优于平均水平的效果(或优势幻觉)和算法规避对公众对自动驾驶汽车采用的抵制产生何种程度的影响,研究人员进行了三个实验.
在前两个实验中,要求参与者指出接受共享乘车公司(例如Uber或Lyft)乘车所需的最低安全等级(以可移动的比例).一半的参与者被告知乘车是由自动驾驶汽车提供的,而另一半被告知乘车是由驾驶员提供的.
与其他美国驾驶员相比,还要求参与者对自己作为驾驶员的安全性进行评分.
前两个实验以不同的方式对安全性进行了构架.在实验1中,以消除的事故百分比来表示安全性(例如10%意味着事故率比普通驾驶员的事故率低10%).
在实验2中,安全性是根据美国驾驶员的百分等级来确定的(例如,普通人类驾驶员死于车祸的生命有600分之1的机会,安全10%意味着您有1分.终生有660人死于车祸的机会.)
在实验3中,参与者分为两组.第一组被问及与第二项研究中的参与者相同的问题.第二组被要求对自己作为驾驶员的安全性进行评分,而不是其他美国驾驶员,但被告知存在虚幻的优势偏见.
与实验1和2一样,研究人员询问了一半的参与者关于他们驾驶自动驾驶汽车所需要的安全阈值,另一半询问了与人类驾驶员一起驾驶所需要的安全阈值.
>
结果
研究结果表明,虚假优势和算法规避的心理偏见在解释公众对采用自动驾驶汽车的抵制中起着重要作用,除非它们非常安全.
前两个实验表明,无论性别,年龄和受教育程度如何,大多数参与者都认为,如果每个人都按照自己的意愿驾驶,则66%的事故(实验1)或76%的事故(实验2)会被淘汰.因此,大多数受访者认为自己的驾驶能力明显好于平均水平,这是虚幻的优势偏见所预测的.
发现对自己的驾驶能力有较高估计的受访者要求自动驾驶汽车具有更高的安全阈值,这支持以下预测:人们对自身的感知越多于平均水平,他们对自我驾驶的安全性阈值就要求越高.驾驶汽车.
调查结果进一步表明,与具有相同安全记录(分别为50%,75%和90%)的出租车司机相比,人们不愿意乘坐自动驾驶汽车.
实验3显示,提醒人们注意虚幻的优势偏见的普遍性,会使人们将自己作为驾驶员的安全性评级平均降低12%.
让人们对人们普遍对虚幻的优势偏见敏感,这进一步降低了与其他人一起驾驶的安全门槛.但是拥有这些信息对自动驾驶汽车所需的安全水平没有影响.
实践意义
因此,研究表明,无人驾驶汽车要被广泛采用,将需要比普通驾驶员安全10%以上.
如Shariff等人所述.指出,这一发现令人担忧.如果在采用自动驾驶汽车之前,他们等待自动驾驶汽车的安全性比普通驾驶员要高出90%,而不是比安全性高出10%,那么将会有更多的人在交通事故中丧生.此外,将安全性提高90%的时间比采用自动驾驶汽车安全性提高10%并使用数据提高安全性的时间要长得多.
参考
Azim Shariff,Jean-FrançoisBonnefon,Iyad Rahwan(2021).有多安全才算足够安全?自动驾驶汽车极端安全要求的心理机制.交通研究C部分:新兴技术,126,https://doi.org/10.1016/j.trc.2021.103069.