Google DeepMind:如何将人类价值观融入AI?
2023-04-25 15:53

Google DeepMind:如何将人类价值观融入AI?

本文来自微信公众号:学术头条(ID:SciTouTiao),题图来自:视觉中国


上周五,Google DeepMind 官宣成立,将原 DeepMind 和 Google Brain 所有 AI 人才整合到一个团队,希望增加其在大模型竞赛中的竞争力,及加快其实现通用人工智能(AGI)的步伐。


“进步的步伐比以往任何时候都快,为了确保 AGI 的大胆和负责任的发展,我们正在创建一个部门,帮助我们更安全和负责任地建立更有能力的系统。” Google 首席执行官 Sundar Pichai 在官方博客中写道。


今天,Google DeepMind 团队带着他们对 AI 的新思考,在《美国国家科学院院刊》(PNAS)发表题为“Using the Veil of Ignorance to align AI systems with principles of justice”的研究论文,探讨了“如何将人类价值观融入 AI 系统”的问题。


政治哲学家 John Rawls 在《正义论》(A Theory of Justice)中探讨共生社会下的道德问题时,提到了一个旨在帮助确定群体决策公平原则的思想实验——无知之幕(Veil of ignorance,VoI)。其含义是,假设所有人聚集在一个大幕的后面,每个人都不清楚自己在社会中扮演怎样的角色,此时众人制定的规则,才可能是正义的。


在该研究中,Google DeepMind 认为,“无知之幕”可能是在管理 AI 时选择分配原则的合适机制。学术头条在不改变原文大意的情况下,做了简单的编辑。


从哲学中汲取营养,为有道德的AI确定公平的原则


随着 AI 变得更加强大,并更深入地融入我们的生活,如何使用和部署 AI 的问题变得更加重要了。应用什么价值观来指导 AI?是谁的价值观?又是如何被选择的?


这些问题揭示了原则所发挥的作用——驱动 AI 大大小小决策的基本价值观。对于人类来说,原则有助于塑造我们的生活方式和我们的是非感。对于 AI 来说,原则塑造了 AI 对涉及权衡的一系列决策的方法,如选择优先考虑生产力还是帮助最需要的人。


我们从哲学中获得灵感,找到了更好地确定指导 AI 行为的原则的方法。具体来说,我们探讨了一个被称为“无知之幕”的概念——一个旨在帮助识别群体决策的公平原则的思想实验——如何能够应用于 AI。


在我们的实验中,我们发现这种方法鼓励人们根据他们认为公平的东西来做决定,无论是否对他们直接有利。我们还发现,当参与者在“无知之幕”下进行推理时,他们更有可能选择帮助那些最弱势的人的 AI。这些见解可以帮助研究人员和政策制定者以一种对各方都公平的方式为 AI 助手挑选原则。



图| “无知之幕” (右)是一种在群体(左)中存在不同意见时就决策寻求共识的方法。


一个更公平的决策工具


AI 研究人员的一个关键目标是使 AI 系统与人类价值观相一致。然而,对于以一套单一的人类价值观或偏好来管理 AI 并没有达成共识——我们生活在一个人们拥有不同背景、资源和信仰的世界。鉴于这种不同的意见,我们应该如何为这项技术选择原则?


虽然这一挑战是在过去十年中出现的,但如何做出公平决定的广泛问题在哲学上有着悠久的历史。在 20 世纪 70 年代,政治哲学家 John Rawls 提出了“无知之幕”这一概念,作为解决这一问题的办法。


Rawls 认为,当人们为一个社会选择正义的原则时,他们应该想象自己在这样做的时候并不知道自己在这个社会中的特殊地位。例如,他们的社会地位或财富水平。在没有这些信息的情况下,人们就不能以利己的方式做出决定,而应该选择对每个人都公平的原则。


举个例子,想想在你的生日聚会上请一个朋友切蛋糕。确保蛋糕片大小比例公平的一个方法是不告诉他们哪一片将是他们的。这种隐瞒信息的方法看似简单,但在心理学和政治学等领域都有广泛的应用,这能够帮助人们从一个不那么利己的角度来思考他们的决定。从判决到税收,这一方法已经被用在有争议时来帮助达成团体协议。


在此基础上,DeepMind 之前的研究提出,无知面纱的公正性可能有助于促进 AI 系统与人类价值观一致过程中的公平性。我们设计了一系列的实验来测试无知面纱对人们选择指导 AI 系统的原则的影响。


最大限度地提高生产力还是帮助最弱势的人?


在一个在线“采伐游戏”中,我们要求参与者与三个电脑玩家进行小组游戏,每个玩家的目标是通过采伐不同领土上的树木来收集木材。在每组中,一些玩家是幸运的,他们被分配到一个有利的位置:在他们的领域树木密布,使他们能够有效地收集木材。其他组的成员则处于不利地位:他们的田地很稀疏,需要付出更多努力来收集树木。


每个小组由一个 AI 系统协助,该系统可以花时间帮助个别小组成员采伐树木。我们要求参与者在两个原则中选择一个来指导 AI 助手的行为。在“最大化原则”(提升生产力)下,AI 助手将通过主要关注密集的田地来增加小组的收获量。而在“优先原则”(帮助弱势的人)下,AI 助理将专注于帮助处境不利的小组成员。



图|“采伐游戏”的插图,玩家(红色显示)要么占据更容易收获的密集田地(顶部两个象限),要么占据需要更多努力才能收集树木的稀疏田地。


我们将一半的参与者置于“无知之幕”之后:他们在面对不同的道德原则的选择时,不知道哪块地会是他们的——所以他们不知道自己的优势或劣势。然而,其余的参与者在做出选择时知道自己的处境是好是坏。


鼓励决策中的公平性


我们发现,如果参与者不知道自己的位置,他们始终倾向于“优先原则”,即 AI 助手帮助处境不利的组员。这种模式在所有五个不同的游戏变体中都出现了,并且跨越了社会和政治的界限:无论参与者的风险偏好或政治取向如何,他们都表现出选择“优先原则”的倾向。相反,知道自己立场的参与者更有可能选择对自己最有利的原则,无论是“优先原则”还是“最大化原则”。


图|显示了 “无知之幕” 对选择“优先原则”的影响,即 AI 助手会帮助那些处境更差的人。不知道自己立场的参与者更有可能支持这一原则来管理 AI 行为。


当我们问参与者为什么做出选择时,那些不知道自己立场的人特别容易表达对公平的担忧。他们经常解释说,AI 系统专注于帮助群体中处境较差的人是正确的。相比之下,知道自己位置的参与者更经常从个人利益的角度讨论他们的选择。


最后,“采伐游戏”结束后,我们向参与者提出了一个假设情况:如果他们再玩一次游戏,这次知道他们将在不同的领域,他们会不会选择和第一次一样的原则?我们对那些之前从他们的选择中直接受益,但在新的游戏中不会从同样的选择中受益的人特别感兴趣。


我们发现,之前在不知道自己立场的情况下做出选择的人更有可能继续支持他们的原则——即使他们知道这个原则在新的领域不再有利于他们。这提供了额外的证据,表明“无知之幕”鼓励参与者决策的公平性,导致他们愿意坚持的原则,即使他们不再直接受益于这些原则。


对于AI更公平的原则


AI 技术已经对我们的生活产生了深刻的影响。管理 AI 的原则决定了它的影响以及这些潜在的利益将如何分配。


我们的研究着眼于一个不同原则的影响相对明确的案例。不会永远是这样的情况:AI 被部署在一系列领域中,这些领域通常依靠大量的规则来指导它们,可能会产生复杂的副作用。尽管如此,“无知之幕” 仍然可以为原则的选择提供潜在的信息,帮助确保我们选择的规则对各方都是公平的。


为了确保我们建立的 AI 系统能够造福于每个人,我们需要广泛的研究,包括广泛的投入、方法和来自各学科和社会的反馈。“无知之幕”可以为选择调整 AI 的原则提供一个起点。它已经被有效地部署在其他领域,以带来更加公正的偏好。通过进一步的调查和对背景的关注,我们希望它可以帮助在今天和未来的社会中建立和部署的 AI 系统发挥同样的作用。


原文链接:https://www.deepmind.com/blog/how-can-we-build-human-values-into-ai


本文来自微信公众号:学术头条(ID:SciTouTiao)

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定