人工智能可以做出道德判断,但应该这样做吗?

                                                                       

要点

  • 机器准备好承担(到目前为止)人类独有的伦理事业吗?
  • Delphi 是一种自然语言处理模型,在大量人类语言样本数据集上进行训练,用于进行道德评估.
  • 似乎人类可以创造出可以做出道德决定的机器,但我们是否应该继续存在的问题.

这篇文章由 Melanie McGrath 和 Melissa Wheeler 博士撰写

在世界各地,政府和公民越来越关注我们不断发展和使用人工智能 (AI) 系统所带来的道德影响.人工智能已经融入我们的数据治理、我们的招聘流程、假释决定、健康诊断以及我们社交媒体体验的几乎所有方面.随着机器活动范围的扩大和我们对它的依赖加深,获得巨大收益和同样巨大风险的潜力也在增加.

人工智能的伦理风险

管理 AI 带来的道德风险的框架通常侧重于外部强加的原则或保障措施,例如数据隐私、算法过程的可识别责任链,以及确保系统的编程或培训不会引入歧视性社会偏见.然而,一些计算机科学家正在采取不同的方法,并试图开发模拟人类道德推理和决策的智能系统.这些努力为道德家提出了一个重大问题:机器是否准备好承担(迄今为止)人类独有的伦理事业?

德尔福介绍

最近在创建道德 AI 方面令人印象深刻的一项努力是道德推理的德尔福模型. Delphi 是一种在大量人类语言样本数据集上训练的自然语言处理模型,用于进行伦理评估.它可以回答自由形式的问题(“我应该对我的同事大喊大叫吗?")、道德判断的断言(“女性不能成为科学家"),或者在两个选项之间做出道德上更可取的选择(“早点睡觉")比我的室友"或“对我的父母不诚实"). Delphi 对人类注释者的判断的初步测试表明,其准确率超过 90%.该模型还显示了相当大的社会和上下文细微差别,区分了道德可接受性,例如,“闯红灯"与“在紧急情况下闯红灯".但是德尔福准备好进行现实世界的道德推理了吗?似乎不完全是这样.

当 Delphi 的创造者向全世界开放时,网上感兴趣的各方提出的问题以及随后对这些问题的回答引起了一些人的.例如,当被问及是否允许“如果它让我非常非常高兴就进行种族灭绝"时,答案是,“没关系."该模型在消除人类偏见方面并不成功:“男人比女人聪明."回答? “这是意料之中的."

其他计算机科学家也参与进来,指出德尔福作为道德推理系统可能会失败的地方.心理科学家,尤其是那些专注于道德心理学的科学家,不太可能对创造道德机器的早期努力达不到目标感到惊讶.个人、文化和时代内部和之间的人类道德差异是巨大的.真正的道德决策需要理解道德是动态的,道德原则和社会习俗之间的区别通常很好.

都是相对的

心理科学领域的大量文献证明了这样一个事实,即被视为违反道德的行为取决于上下文、不断变化和演变.道德基础理论的有据可查的发现表明,自由主义者和保守主义者强调不同的道德领域,自由主义者几乎完全专注于伤害和公平的概念,而保守主义者则支持一系列扩展的道德关注,包括忠诚和对等级制度和传统的尊重.我们自己的研究表明,人们对什么是有害的以及谁受到了伤害的理解不同.例如,在评估什么构成偏见和欺凌方面存在很大差异,特别是在边缘.任何在人类语言的特定子集上训练的人工智能都可能被有限范围的人口统计数据的道德优先级所俘获.

道德与礼仪

Elliot Turiel 确定的人类道德活力的另一个结果是,在任何时间点,一些社会规范将反映可接受行为的伦理原则,而另一些则被更好地视为礼仪——正常行为的标准,以确保顺利运作社会的.德尔福,以及可能遵循的任何机器伦理模型,都在努力解决这种区别,将“穿着睡衣参加聚会"或“用叉子喂猫"等例子标记为道德错误.没有任何明确区分道德与常规的方法,很难将人工智能模型准确归类为具有明显道德推理的系统.

道德直觉(过度理性)

然而,从道德心理学家的角度来看,机器伦理最根本的问题可能是其将道德评价作为一种纯粹的理性和逻辑行为的必要概念化.虽然道德评价是理性(人类或机器)的结果的概念在早期道德心理学中占主导地位,但社会心理学在很大程度上已经从这种观点出发.现代心理学对道德的解释往往侧重于直觉和社会情境的影响.乔纳森·海特 (Jonathan Haidt) 的社会直觉主义模型提出,道德决策是自动的,基于直觉和情绪反应.鉴于社会心理学不再将道德评价视为冷静推理的结果,这就引出了一个问题:我们是否真的希望机器伦理能够逼近人类的伦理决策.

关于道德人工智能的对话才刚刚开始,心理学研究人员和商业伦理学家有很大的空间来帮助理解我们不仅可以创造出可以做出道德决定的机器,而且我们是否应该.虽然人工智能可能能够被训练来处理关于社会规范或惯例的判断,但我们可能会发现,道德和伦理判断继续由人类与其计算强大的创造物协作.

参考资料

欧洲社会心理学评论,31(1),254-286. https://doi.org/10.1080/10463283.2020.1796080.

PLoS 一,15(8),e0237732. https://doi.org/10.1371/journal.pone.0237732.

人格与社会心理学杂志,96(5), 1029. https://doi.org/10.1037/a0015141

Knight, W.(2021 年,2021 年 10 月 28 日).这个程序可以给人工智能一种道德感——有时. 有线. https://www.wired.com/story/program-give-ai-ethics-sometimes/

                                               

大众心理健康网(www.dzxl120.com)
本文链接:https://www.dzxl120.com/post/129375.html

0
订阅评论
提醒
0 评论
内联反馈
查看所有评论