算法推荐的伦理评价及反思
2019-09-27 13:00

算法推荐的伦理评价及反思

本文来自微信公众号:IPP评论(ID:IPP-REVIEW),作者:姬煜彤(华南理工大学公共政策研究院研究助理、政策分析师),封面:东方IC


随着移动互联网的广泛普及与智能手机功能的深度开发,信息的内容分发打破了塔奇曼所说的“新闻常规”。[1]以人工编辑为核心的传统分发模式逐渐衰落,以社交为核心的人际网络分发模式、以算法为核心的智能分发模式崛起兴盛。


“算法型”分发模式的出现和普遍应用,意味着人类开始运用机器大规模地解决信息分发问题,人类社会信息分发的动力从人力转向了部分自动化——从“人找信息”,到“信息找人”;受众和媒体的关系也发生了转变:从“传者为中心”转向以“受众为中心”,“注意力经济”越来越不能被忽视。


1. 站在风口浪尖的算法


近年来,人工智能的开发让算法推荐强势崛起,成为当下最流行的内容分发方式。各大媒体亦在寻求人工智能技术与新闻报道的结合。但也正因为如此,“算法型”分发模式站在了风口浪尖上。当“算法为王”的价值观念已成为平台的增长极之时,对算法的导向纠偏也迫在眉睫。


早在2015年,Facebook 就饱受用户对其人工智能推荐内容存在政治偏见的指责,继而加大了人工编辑在审批热门话题方面的重要作用。[2]在我国,算法推荐新闻近年来似乎也成了众矢之的。2017年,《人民日报》连续发表三篇评论文章,指出,随着人工智能的广泛应用,部分商业网站、移动新闻客户端都在运用算法这个“读心术”;而技术往往是一把冰冷的双刃剑,在价值和利益的天平上,所谓的算法成为了利益的砝码。


公允地说,这些批判在现实状况下不无道理。比如,在现在的算法还不足够“聪明”的情况下,用机器智能去完全替代人的“把关”,这样的资讯“守门人”是否可以完全信赖?[3]再比如,由于“算法型”信息分发更多地建立在对于人们的直接兴趣和“无意注意”的信息需求的挖掘上,它的直接后果是:忽略人们必需的那些非直接兴趣和需要“有意注意”的信息,导致“信息茧房”、算法偏见、假新闻泛滥等问题。这些对于“算法型”信息分发的社会质疑是必须要面对与正视的。


相对于上述一些批判算法的观点,也有学者持不同看法。他们认为,“算法推荐”对新闻传播业的改革推动是巨大的。“算法型”信息分发模式强势崛起,成为互联网语境下新闻分发的主流模式,主要原因可归纳为以下三方面:


第一,算法推荐新闻引发的新闻生产是一种“新闻内容+数据化精确制导”的生产方式,它在互联网时代高效对接了受众需求和信息。算法通过对社交推荐机制进行二次过滤,优化推荐结果,从而提升了互联网内容推送的精准度。例如,各大新闻媒体根据用户的社交行为、地理位置、职业、年龄等推断出用户的兴趣点,并判断这些兴趣的重要程度或者先后顺序进行推送,从而实现个性化信息推送。


第二,个性化新闻推送下,通过对数据的挖掘,原来被忽视的大量长尾信息被挖掘。这些非主流、个性化的产品需求,虽然是需求的尾巴,但是经过散落在社会各个角落中的用户的积累,能够更好地适配“汝之毒药,我之甘饴”的长尾信息。[4]“汝之毒药,我之甘饴”意味着你觉得不感兴趣甚至是垃圾的信息,对于我可能极有价值。于是,信息价值不再有统一的标准,不再有重要性的绝对的高低之分。


第三,在大数据技术和算法软件的耦合作用下,算法新闻生产运作的高效性优势凸显。特别是在体育、财经等常规新闻生产领域,算法与机器写作新闻可以减少新闻记者的机械劳动,使新闻生产者有更多精力用于深度报道和解读。2016年里约奥运会期间,今日头条的写稿机器人“张小明”每天撰写30篇以上的赛事报道和消息;腾讯的写作机器人“Dreamwriter”可以根据算法以最快的速度生成新闻稿件,并能在一分钟内将重要信息送达给用户。


2. “算法型”信息分发模式可能引发的风险


虽然人工智能技术为传播领域带来一场革命,但算法背后存在的隐患也逐渐凸显。从技术逻辑与社会逻辑相结合的角度看,“算法型”信息分发模式出现的问题和隐忧主要集中在以下四大方面:


“算法”打造社群:“圈群文化”与“信息茧房”


社交媒体平台,算法技术通过精确的个性化描述打造社区,形成了新的人际交往形式——“圈群文化”。随着圈子的粘性增强,圈子不可避免地会出现排他性,所以“圈群文化”的另一面是“排斥”。因此,社交媒体在运营的后期往往会出现“文化边界”。因为“在能接纳同一种或者几种近似的文化的背景下,一大群人才能生活在一个社交网络或者说一个‘社会’中。


不调和到乃至产生冲突的文化,会自然的在人群与人群之间产生边界”。[5]人们在自己选择的圈子里活动,画地为牢将自己封闭起来。久而久之,人们的关注视野变得越来越窄,最终形成“信息茧房”。


很大程度上,这是一种“自我”设限——用户就像蚕一样被自己吐的丝禁锢在自己制造的“信息茧房”里。长期生活在“信息茧房”之中,无疑会令用户越来越沉溺于自己的回音,在信息茧房中越陷越深。“数据化”的人将会失去对整个社会的理解与全局批判的能力,甚至会造成群体“极化”现象。


伦理冲突:虚假新闻与低俗内容


虚假新闻和低俗内容也是算法推荐存在的显著性问题。算法推荐最初在传播伦理方面存在一定的缺陷。不同于人工编辑和人工筛选,纯粹的个性化推荐系统缺乏对文章的质量与内容的把关,终极目标就是实现流量最大化。因此,用户在猎奇心理驱使下点开的虚假新闻、低俗内容就会在网络环境中广泛地传播,如早孕网红、暴力血腥等内容严重破坏了网络生态环境。


美国技术哲学家安德鲁芬伯格指出,算法技术不是一个“中立性”的工具,它可以被商业、政治等非技术力量操纵和改变。当平台系统默认猎奇、低俗等需求并据此进行个性推荐时,算法便会被错误的价值观俘获,低质内容流行网络。不仅如此,社交媒体成为了假新闻泛滥的温床,个性化推荐在不经意间成为了谣言滋生的帮凶。


更隐蔽的歧视:算法偏见


智能算法推荐有可能进一步加剧全球不平等现象与社会冲突。《自然》杂志曾用BIBO表示Bias In,Bias Out(即偏见进,偏见出)。可见,偏见从人类社会移植而来,隐秘地隐藏在算法之中。


算法在描绘社会现实的同时也体现出现实中的偏见,于是它们可能有利于白人男性,而不利于女性、老年人、单亲父母、有色人种、非英语居民等。[6]事实证明,新生的人工智能Twitter机器人可以在几个小时内成为白人至上主义者,自动生成的标签将非裔美国人的照片标记为大猩猩。


在亚马逊公司曾开发的一款用于筛选简历的算法中,意外被“培养”出歧视女性应聘者的偏好。显然,算法从受相同偏见影响的内容中学习到更多偏见,这些认知偏见经网上广泛传播后导致更为广泛的社会冲突。


把关权力的迁移:算法对把关权力的程序化收编


当信息分发从编辑中心转向为机器中心,把关人的角色及其功能实际上被进一步弱化了,在信息环境的活力和丰富程度获得加强的同时,信息环境的不可控性亦因此加强。


从本质上看,算法技术是Facebook等科技公司为了吸引更多的用户群体,最大限度延长他们对公司产品的使用时间,从而获取经济效益而提出的。新闻的“标题党”及低俗内容信息往往能为企业带来巨大阅读量,这便会利诱平台降低把关的“度”,让打擦边球的文章都可以通过审核。[7]


在算法时代,把关需要基于质的判断,因为“新闻不应是一种被操纵和营销的产品,而是历史的精华”。


3. 算法时代内容生态良性发展的建议及对策


重视技术带来的问题,并不是要拒绝技术,而是更需要保持技术敏感,学会“驯服”算法、驾驭技术。具体来说,智能时代“算法型”内容分发的优化策略可以从以下三个方面展开。


改进以算法为核心的分发模式,建立网络世界“人行道”


专业的媒体意识到“过滤气泡”“信息茧房”的存在并通过技术手段,发起“戳泡”运动,帮助人们摆脱思维定势的桎梏,开放包容地倾听全方位的声音。例如,瑞士报纸NZZ开发了一款APP——the Companion。这款APP通过机器学习生成个性化信息,但与众不同的是,算法能够保障在每一次给读者所推荐的信息中包含一个“惊喜”,也就是超出读者原本偏好范围之外的内容。


Google推出了“逃离泡沫”插件,该插件根据用户的阅读习惯,反向推荐格调积极、易于接受的内容。[8]该模式不但可以对“信息茧房”等问题进行有效处理,同时还能够在感官上给用户带来很好的体验效果。


哈佛大学教授凯斯·桑斯坦认为,网络传播的“回音室”局限同样会产生群体“极化”的问题。因此,必须创建网络世界的“人行道”。在用户无法想象的地方,为他们分发各种不在计划内的信息,能够让社会上不同层次的人都可以对各种领域的信息有所接触,从而摆脱“信息茧房”的束缚。


建立“人机结合”双重审核机制,提升对算法权力的引导与规范


在完善算法技术层面,由人工训练机器人,通过语义分析、关键词分析等方法建立可以被人工智能识别的正能量模型、社会负面模型以及反低俗模型数据库,并交由算法技术对平台内容进行过滤和筛选,从而有效剔除标题党、抄袭和恶意信息。[9]


此外,互联网平台媒体应采取多元共治的思维,加强外部审核和监督。通过邀请政府机构、新闻媒体、传播学界的知名专家组成专家团,充分考虑不同行业、不同领域的专家意见,同时,进一步扩大意见领袖和热心网友的参与度,以发挥更大的作用。


近两年,一些曾经完全依靠算法的内容分发科技公司已经开始了相应的转变。例如,苹果已经聘请了传统记者来编辑和策划其订阅新闻应用Apple News,职业社交网站LinkedIn还聘请了记者从事内部编辑产品的工作。


因此,在算法技术之下,需要坚持“人工+技术”的双重审查机制,确保受众信息接收渠道及形式的多样性,避免算法垄断新闻领域,构建传统媒体、自媒体与算法媒体和谐共存的大众传播体系。


算法新闻用户要提升“算法素养”,设计者要具有内心自律和社会责任 


算法作为一种新技术,绝大多数人对它的认知都停留在“知其然而不知其所以然”的层面。提升算法素养,一方面,需要大力推动与算法有关的科普书籍进学校、进社区,使广大受众对算法的机制与运作原理有一个基本的认识;另一方面,算法新闻提供商要采用多种标注提醒方式以弥补新闻消费中的裂痕。[10]如今一些新闻APP会根据新闻倾向和用户阅读习惯标注出“左倾”和“右倾”的程度并做出警示。


具有社会影响力的算法新闻平台作为具有一定意义上公共属性的机构,理应具有内心自律和社会责任。当前,我国应积极建设算法新闻专业主义,加强对新闻推送算法运行团队新闻价值观的培养。将公共理性置于工具理性之上,确立一种新的公共传播指导哲学。


文中注释:


本文来自微信公众号:IPP评论(ID:IPP-REVIEW),作者:姬煜彤(华南理工大学公共政策研究院研究助理、政策分析师),封面:东方IC

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP