科技与伦理的平衡:AI时代个性化推荐系统的FATE准则
2026-03-25 06:09

科技与伦理的平衡:AI时代个性化推荐系统的FATE准则

本文来自微信公众号: 清华管理评论 ,编辑:排版|尚慧林,作者:王琤、杨璐睿


FATE准则为企业设计、开发与应用符合伦理规范的推荐系统提供具有实操性的指导框架,使企业得以在技术效能与用户信任之间实现良性互动。


在人工智能蓬勃发展的当下,基于AI的个性化算法正悄然重塑人们的信息环境与消费体验。例如,随着大数据、云计算等数字技术的发展与应用,电商平台普遍使用个性化推荐系统向消费者推荐商品和服务。作为一种辅助决策工具,个性化推荐系统收集消费者的需求和偏好数据,如浏览、搜索、购买记录等历史行为数据,然后基于一定的算法分析向目标消费者推荐和展示他们可能感兴趣的商品和服务,既提高了消费者在网络购物时的决策效率和决策质量,也显著提升电商平台的销量和收入。例如,亚马逊(Amazon)35%的销售额来自系统推荐,奈飞(Netflix)来自系统推荐的营收更是高达75%。因此,个性化推荐系统已成为国内外电商平台必不可少的营销工具,消费者也越来越习惯于在网上消费时接收和使用系统推荐。


然而,算法基于用户行为数据进行定向推送,也可能会带来诸多问题:未成年人误触广告遭遇信息轰炸,大学生在精准推送中沉迷内容耽误课业,消费者因平台“大数据杀熟”面临价格歧视……这些现象揭示了技术在缺乏伦理约束下可能会带来个体与社会风险,如加剧“信息茧房”效应、诱发网络沉迷、侵蚀交易公平等。因此,AI伦理准则问题成为学术界和产业界共同关注的焦点。


已有研究提出了各种不同的AI伦理准则。基于过往研究,本文提出了一个适用于个性化推荐系统的FATE准则——F代表公平性(Fairness),A代表问责制(Accountability),T表示透明度(Transparency),E表示可解释性(Explainability)。由于个性化推荐系统的“黑箱”特点,为了更好地阐释FATE营销准则,本文会先系统介绍个性化推荐系统的工作原理和分类。


个性化推荐系统的原理与分类


个性化推荐系统通常包括输入、处理和输出三个阶段(见图1)。



“输入”指的是个性化推荐系统要收集消费者的个人信息、兴趣偏好等数据作为推荐的依据。按照获取方式的不同,消费者的相关信息和数据可划分为显式反馈与隐式反馈两类。显式反馈通过直接询问消费者偏好获得,如Bilibili的“不感兴趣”标签或微博询问新用户感兴趣的话题;隐式反馈则源于消费者的历史行为数据,如抖音根据用户浏览记录预测偏好。


根据输入数据类型,推荐系统可分为四类:基于位置的推荐,如大众点评按定位推荐附近商家;基于社交网络的推荐,如小红书抓取社交关系推荐内容;基于直接反馈的推荐;基于历史数据的推荐。其中,基于位置的推荐无法全面捕捉消费者偏好,基于社交网络的推荐可能引发隐私问题,直接询问消费者偏好可能被用户视为效率低下。近年来,随着AI和大数据技术的发展,基于历史数据的推荐成为主流,但其对消费者而言如同“黑箱”,透明度较低。


“处理”是指推荐系统运用算法计算和分析收集来的消费者数据,从而产生与消费者偏好相匹配的个性化推荐内容。处理阶段的推荐算法包括协同过滤算法、内容过滤算法、AI交互算法和自利性算法几类。协同过滤和内容过滤是两大主流算法。协同过滤基于其他相似消费者的决策进行推荐,例如京东的“猜你喜欢”即通过分析相似用户的行为推荐商品;内容过滤则依赖消费者自身声明的偏好和历史行为生成推荐,如淘宝根据用户浏览和购买记录推荐相似商品。这两种算法各有优势,也都存在一定问题:协同过滤可能因“信息茧房”限制用户视野,内容过滤则可能因缺乏多样性而降低用户兴趣。AI交互式算法通过AI技术帮助消费者应对信息过载,例如携程小程序首页的AI聊天机器人通过询问用户需求提供个性化解决方案,提升推荐的实用性和效率。自利性算法(如“亚马逊之选”)倾向于推荐对企业有利的商品,如高利润或库存积压商品。这类推荐虽然直观且简化了消费者决策过程,但可能不符合消费者的最佳利益。总体而言,处理阶段的推荐算法对普通消费者而言是一个“黑箱”,其内部逻辑和决策依据通常不为用户所知。


在“输出”阶段,推荐系统把生成的内容推送给目标消费者。不同的个性化推荐系统会通过不同的方式将内容呈现给消费者。一些推荐系统会根据消费者的请求提供推荐,如淘宝的搜索功能会在消费者给出关键词后,根据关键词与历史数据生成个性化搜索结果;另一些推荐系统在消费者直接提出请求前便会基于消费者购买历史和决策过程主动提供建议,如QQ音乐的“每日电台”等。不同推荐系统在内容展示的数量方面也存在差异:有些推荐系统展示少量产品选项,有些则提供长长的产品清单。后者虽能让消费者接触并考虑更多商品,但推荐系统旨在帮助消费者决策并应对信息过载,如此详尽的清单反而可能增加决策难度。有的推荐系统直接嵌入零售商网站(如Walmart.com),便于消费者一站式获取商品;有的推荐系统则是通过第三方独立平台(如大众点评)展示产品推荐。“输出”是消费者能直接看到的,然而前两个阶段的“黑箱”特点可能会导致消费者对个性化推荐系统推荐的内容不信任,进而不采纳。


个性化推荐系统的FATE准则


鉴于个性化推荐系统的“黑箱”特点,由此产生的AI营销伦理和准则问题成为学界和业界共同关注的焦点。过去的研究提出了各种AI伦理准则。例如,有学者从企业、客户、社会及环境等多方利益相关者视角出发,聚焦营销领域的AI五大伦理准则:善行、不伤害、自主性、公正性、可解释性。有学者提出公平性、责任性、透明度、准确性与自主性五大伦理准则,用于阐释员工在工作场所采用生成式AI的行为。还有学者归纳出负责任AI的八项标准:公平性、透明度、责任性、稳健性与安全性、数据治理、法律法规、人类监督、社会与环境福祉。此外,欧洲委员会颁布的《可信赖AI伦理指南》包含四项伦理准则——人类自主性、可解释性、公平性、危害预防,以及七项核心要求——人类能动性与监督,技术稳健性与安全性,隐私与数据治理,透明度,多样性、非歧视性与公平性,社会与环境福祉,责任制。综合以上不同准则中的共性要素,我们可以得到一个AI时代个性化推荐系统的FATE准则,涵盖公平性(Fairness)、问责制(Accountability)、透明度(Transparency)和可解释性(Explainability)四大准则(见图2)。



公平性


公平性准则指基于AI的决策与结果应具备公正、准确、无偏见、无歧视的特点。当前,AI已渗透至每个人的日常生活及工作中,帮助人们在家庭与职场中做出关键决策。然而,由于系统性偏见的存在,AI可能产生不公平或歧视性结果。个性化推荐系统可能会带来“大数据杀熟”,如不同的人在同一坐标、同一时间下单同一个产品,价格却存在差异;也可能出现“千人千面”的价格歧视,如苹果信用卡给男性用户核定远高于配偶的信用额度。2019年《华尔街日报》曝光亚马逊的“买过此商品的人还买了”用邮编做协同过滤,把非白人聚居区用户推向更低评分、更贵或更晚送达的商品,形成“邮编歧视链”。


公平性准则是消费者评价和接受个性化推荐系统的首要准则。大量研究表明,当用户认为AI是公平的,其对AI的信任度将显著提升,并产生更强的使用意愿。奈飞公司通过算法优化,确保推荐系统不仅推荐热门内容,还会推荐不同文化、语言和地区的内容,以避免对某类内容的过度倾斜;同时,还考虑不同用户群体的需求,以确保推荐系统不会对任何群体产生偏见。


AI平等对待对用户至关重要,公平性已成为多数AI伦理框架的核心原则。算法的公平性可以根据其准确性(如正确预测的比例)、召回率(如定位相关结果的能力)和精确度(如产生精确结果的能力)来衡量。


问责制


问责制指AI的开发者和管理者应该为AI的行为和决策承担责任。现有文献表明,近80%的AI伦理准则将问责制或责任制列为核心原则之一。无论AI多么先进都可能出错。例如,新闻推荐系统可能会生成包含虚假信息或诽谤内容的文章,今日头条曾因算法放大“上海姑娘逃离江西农村”假新闻被网信办约谈;领英的招聘推荐被曝光给男性推送高薪职位广告的概率比女性高30%。鉴于算法失当或故障可能引发此类意想不到的后果,用户有权知晓责任归属对象。研究发现,作为风险降低机制的问责制能够有效降低个性化推荐系统出错给消费者带来的决策风险,因此能够增强用户对AI的信任度,使其愿意持续使用。


由于算法本身无法承担法律责任,企业必须在算法设计、部署和运行的各个阶段嵌入问责机制,以确保在出现伤害、歧视或错误决策时,能够追溯责任主体。AI的开发者和管理者被认为应该作为责任主体承担相应责任——开发者决定AI的运作方式,管理者实际运用AI实现商业目标。许多世界知名企业如亚马逊、谷歌等都明确了责任主体为公司的算法设计与运营团队,确保算法问责主体清晰。


透明度


透明度指AI的决策过程(源代码、模型、数据等)应向用户开放且可访问。这一准则在现有AI伦理文献中最为普遍。AI的“黑箱”特性意味着用户通常无法知晓其底层数据和算法的工作原理。随着AI的日益发展,用户在与之交互时感受到更多不确定性、不可控性和不可预测性,要求企业公开推荐算法的呼声日益高涨。政府层面也提出多项法案,要求企业以显著方式告知用户算法原理、目的意图和主要运行机制。


透明度准则要求企业通过公开数据和算法来揭示AI的内部运作机制,即要求算法输入和算法本身应该是可见的,算法输出的决策具备可解释性,同时其过程与意图均可被完整、准确地阐释。字节跳动专门设置了抖音安全与信任中心官网,并在官网上公开抖音个性化推荐算法的具体内容,解释算法的工作机制和优化方向,帮助用户从零开始理解推荐算法。既有研究普遍支持透明度能够增加消费者对AI的信任度和使用率。当人们知道算法如何工作,在机器学习中如何执行操作时,他们更有可能信任算法和结果输出,并正确使用算法推荐内容。


可解释性


可解释性是开发可解释AI(Explainable AI)的基本要求。该准则要求用人类可理解的语言解释AI产生特定结果的原因。可解释性与透明度密切相关,常被互换使用,但二者的侧重点是不同的。例如,社交媒体用户可能希望理解平台为何向其推荐特定的社交连接(可解释性),但通常不会关心背后的网络模型是如何一步一步生成该推荐结果的(透明度)。


可解释性影响着用户对AI的信任与采纳。向用户提供解释能增强其对AI生成结果的理解与信任,减少模糊性,并帮助其做出明智决策。京东“为你推荐”在商品旁给出“因你曾浏览××”一行小字,Spotify为每日推荐歌单标注“因你播放过××艺人”,奈飞在剧集海报下提示“与你观看过的××相似”——这类简洁的说明正是可解释性的落地形态。


此外,可解释性还对公平性、问责制、透明度等其他伦理准则产生影响。例如,腾讯在微信的设置功能中插入了微信朋友圈广告个性化推荐的解释,阐明推荐算法采集的信息、处理信息的方法,以获得用户的信任。


需要指出的是,个性化推荐系统的FATE准则不是抽象的AI伦理准则,它可以指导企业设计、开发和应用个性化推荐系统。例如,在数据采集到模型部署的各阶段进行偏见检测与缓解,可提升个性化推荐系统的公平性,如采用多样化且具代表性的训练数据、开展偏见结果审计;明确个性化推荐系统的责任归属、建立审计追踪机制、完善系统文档记录以及在关键决策中引入人工监督,可增强个性化推荐系统的问责性,如在推荐展示页面设置常见问题解答及反馈投诉。此外,为提升个性化推荐系统的透明度,企业可向有需要的消费者说明个性化推荐系统的运作机制及数据采集、存储与使用流程,并开放相关访问;用普通消费者可理解的语言阐释推荐依据,可有效增强个性化推荐系统的可解释性,如在推荐展示页面向消费者表明“基于您的浏览记录,我们向您推荐……”。


总而言之,在人工智能时代,个性化推荐系统通常可以依据其工作机制划分为输入、处理与输出三个基本阶段,并由此衍生出多种不同的类型。然而,从消费者角度来说,输入阶段的用户数据来源及处理阶段的推荐算法往往处于一种“黑箱”状态,因此,对于输出阶段的推荐结果,消费者容易不信任、不采纳。FATE准则能够有效地解决这一问题,为企业设计、开发与应用符合伦理规范的推荐系统提供具有实操性的指导框架,使企业得以在技术效能与用户信任之间实现良性互动。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP