如何建立有益的人工智能

                                                                       

Stuart Russell是一位杰出的人工智能研究人员,并且是该领域标准教科书的合著者.他的新书《人类兼容的人工智能和控制问题》是关于如何设计具有高智能的机器的丰富信息讨论,该机器可以帮助有困难的人同时又不让他们感到不快.不幸的是,他关于如何构建有益的AI的基于偏好的建议是不切实际的,并且与和哲学中的合理观点背道而驰.

罗素的建议总结为有益机器的三项原则:

  1. 该机器的唯一目的是最大程度地实现人们的喜好.
  2. 机器最初不确定这些偏好是什么.
  3. 关于人类偏好的最终信息来源是人类行为.

他想通过专注于偏好而不是价值观来避免对道德的判断.他认为,应该有可能证明关于如何确保AI系统对人类有益的定理,以最大限度地提高他们的偏好满意度.然后,AI可以回避有关应开发哪些技术的道德问题.

医学伦理学领域说明了一种可以有效地应用于AI的替代策略.一种突出的方法依赖于适用于广泛问题的四个道德原则(Beauchamp和Childress,2013年):

1.自治:尊重人们的自由.

2.利益:为人民带来利益.

3.非恶意:避免伤害他人.

4.公正:公平分配利益,风险和成本.

这些原则假定自由,利益,减少伤害和公平是客观价值,可用于做出合理的道德判断.我认为,这些原则和价值观提供了比偏好更有效的途径来实现有益的AI.

罗素的首选方法的第一个问题是实用的.他估计,每个人一生中都会做出20万亿个选择,全世界有超过70亿人,因此产生了惊人数量的行为,在从行为中推断出偏好时必须考虑这些行为.即使是具有最佳机器学习算法的超高速计算机,也难以挖掘有意义的偏好的庞大的人类行为数据库.即使这样的算法使计算机能够以某种可靠性来预测人类行为,也无法保证人们能够理解这些预测的基础:诸如神经网络中的深度学习之类的技术经常会产生预测结果,而对预测结果的基础并不明确.因此,从人类行为中学习一般偏好不太可能产生有用的概括,更不用说可以证明是有益的行动了.相反,许多医学伦理学可以通过医学伦理学的四项原则得到有效总结,这四项原则远比千篇一律的行为提供更多信息.

拉塞尔的方法的第二个问题是它基于自1960年代以来就已经过时的心理学和经济学概念.一些经济学家仍然使用基于偏好的效用方法,这种方法在1940年代流行,当时社会科学被行为主义的思想所支配,后者认为谈论心理表征和过程是不科学的.但是到了1960年代,心理学家已经意识到行为主义方法在解释人类和其他动物的行为方面的贫乏,并发展了认知方法.同样,实验经济学表明,理性选择理论不能解释人类的行为,而是着眼于情感和其他心理因素.从认知的角度来看,选择和偏好是由心理表征(例如目标,情感和价值观)产生的.许多医学伦理学家和几代学生已经发现,这四个原则所体现的价值观可以简明扼要地指导对困难问题的判断.老式的经济学倒退了:心理过程导致偏好导致行为,所以您不能仅仅从行为中衍生偏好(Thagard 2019a,第7章).

拉塞尔的第三个问题是哲学上的:他的方法过于刻画了人类的行为,无法得出关于人们应该具有的偏好和行为的可辩驳的规范性结论.人类的行为和喜好充满暴力,战争,歧视和残忍等常见习俗中的不道德和非理性.偏好挖掘行为可能会产生关于AI的建议,该建议反复无常或对人类福利有害,而不是对人类真正有益.相反,医学伦理学的四项原则是使医学对人类有益的合理指导,它们同样适用于AI.

一个合理的哲学问题是使这四个特定原则合理的理由.医学伦理学家声称,它们是人们共享的“共同道德"的代表,但他们并未进行人种学研究以表明其在数千种人类文化中的普遍运作.而且,即使是熟悉的文化也会有,自恋和马基雅维利派人的亚群,因此对他人的福祉几乎不关心.幸运的是,有两个充分的理由认为这四个原则是客观的.

在较早的博客文章中,我认为AI伦理应该基于对人类需求的满足,而不是对财富和权力的贪婪.需求是客观的,因为有充分的证据表明,如果不能满足他们的生物学需求(氧气,食物,水,住所,医疗保健),人们将遭受痛苦和死亡.此外,研究已经确定了自治,亲和力和能力的心理需求,这些不满意会导致人类痛苦(Ryan和Deci,2017年).这些生物学和心理上的需求不是任意的偏好,而是可以用来识别对人类的利益和危害的人类普遍性.即使有些个人和文化不关心人类的需求,我们仍然可以推断他们应该这么做(Thagard,2019b).

此外,在制定道德人工智能指南的人们之间存在着广泛的共识. Jobin,Ienca和Vayena(2019)确定了84篇有关道德AI的文件,这些文件揭示了围绕透明度,正义与公平,非恶意,责任和隐私的原则的融合.其中两个(正义和非恶意)直接映射到医学伦理原则中的两个,而其他三个则很简单.隐私对于保护自主权很重要,而透明性和对于在减少损害的同时产生利益是很有价值的.令人鼓舞的是,人工智能组织之间就建立道德规范的原则和价值观达成了许多共识.

Paul Thagard
有益的AI
资料来源:保罗·塔加德(Paul Thagard)

因此,考虑到人类需求以及关于利益和危害的新共识,我们应该基于原则和价值而不是偏好和行为来建立AI伦理.这是拉塞尔的三项原则的合适替代品:

1.该机器的唯一目的是遵循自治,正义,仁慈和非恶意的原则.

2.该机器应以人类自由,对人类公平,对人类有益并避免对人类造成伤害的价值观运行.

3.有关人类利益和危害的信息的最终来源是关于人类至关重要的需求的经验证据.

参考

生物医学伦理学原理.纽约:牛津大学出版社.

Nature Machine Intelligence,,第1卷,第389-399页.

Russell,S.(2019). 人类兼容的人工智能与控制问题.纽约:企鹅兰登书屋.

自决理论:动机,发展和健康中的基本心理需求.纽约:吉尔福德.

Thagard,P.(2019a). 心灵社会:从大脑到社会科学与专业纽约:牛津大学出版社.

Thagard,P.(2019b). 自然哲学:从社会大脑到知识,现实,道德和美丽.纽约:牛津大学出版社.

                                               
0
订阅评论
提醒
0 评论
内联反馈
查看所有评论