“戳掉你的泡泡” ——算法推荐时代“过滤气泡”的形成及消解
2019-03-26 19:41

“戳掉你的泡泡” ——算法推荐时代“过滤气泡”的形成及消解

本文来自微信公众号:全球传媒学刊(ID:GlobalMediaJournal),作者:郭小安、甘馨月


摘要:


算法推荐技术虽然某种程度上解决了信息泛滥的困扰,但容易引发“信息茧房”和“回音室”效应,制造“过滤气泡”,导致“群体极化”现象。近年来部分媒体和数据公司开展了系列“戳泡运动”,力图通过技术手段呈现多样化信息,还原客观真实的世界。中国的社交媒体平台既有个性化推荐技术所构建的“商业气泡”,也有转型期群体偏见所构建的“社会气泡”。当公众怀有刻板意见和负面情绪时,会启动选择性理解、选择性过滤和选择性记忆等程序,形成封闭的社会气泡,实现情感认同和道德动员,部分媒体和商业公司也会迎合“社会气泡”,大规模推送同类信息,产生“热点搭便车”效应。总之,“过滤气泡”是技术、人性、社会结构共同作用的结果。它的消除既需要技术的优化,也需要媒体的平衡报道,还需要社会矛盾的缓解、理性协商对话机制的完善以及制度化参与渠道的拓展。


关键词:后真相;算法技术;过滤气泡;戳泡运动;社会气泡


2016年11月22日,“后真相”(post-truth)被《牛津词典》选为年度热词,“后真相”的释义为:诉诸情感和个人的信念要比客观事实对形塑公众舆论的作用更大。对于“后真相”现象,很多学者把它与社交媒体和个性化推荐技术联系起来,《经济学人》The Economist杂志几乎将“社交媒体时代”等同于“后真相时代”。Kreitner(2016)认为,社交媒体使用者不经查证分享来路不明的内容,推动了假新闻的泛滥,社交媒体所使用的算法技术,导致了“过滤气泡”效应,使公众更不易接触到与自己想法相左的信息,加剧了群体偏见;Kucharski(2016)通过技术手段分析了社交媒体情绪传播过程,发现后真相时代的虚假新闻与“回音室”效应有关,其传播过程与传染病的演变和传播有许多相似之处。基于此,本文尝试围绕“过滤气泡”的形成及消解策略,对不同语境下“过滤气泡”的成因进行对比分析,试图跳出单一的技术主义路径,从社会政治生态中深刻理解“过滤气泡”的本质,以此提出可行的消解之道。


一、我们是否已经被“过滤气泡”所包围?


“过滤气泡”概念最早由互联网活动家帕里泽(Pariser)2011年在其著作《过滤气泡:互联网没有告诉你的事》The Filter Bubble: What the Internet Is  Hiding from You中提出。他发现两个人使用谷歌检索同一词语,得到的结果页面可能完全不同;不同政治立场的人浏览同一个新闻事件,看到的新闻倾向也可能完全不同。比如2010年发生了令人震惊的英国石油公司墨西哥湾漏油事件,帕里泽委托其两位住在北部并且受教育程度相似的朋友在Google上搜索有关的消息。一位获得了其深水地平线漏油事件的信息;另一位获得的却是关于该公司的投资信息。这个现象引起了帕里泽的质疑。他发现在互联网时代,搜索引擎竟然可以随时了解用户偏好,并过滤掉异质信息,为用户打造个性化的信息世界,但同时信息和观念的“隔离墙”也会筑起,令用户身处在一个“网络泡泡”的环境中,阻碍多元化观点的交流。帕里泽将此称为“过滤气泡”。


关于“过滤气泡”现象,目前学术界的研究视角集中在以下几个方面:(一)考察“过滤气泡”与政治之间的关系,尤其是与美国大选的关系(Bozdag et al., 2014; Groshek & Koc-Michalska, 2017; 许志源、唐维庸, 2017),指出用于“戳泡”的多样性工具须符合民主的内在精神(Bozdag & van den Hoven, 2015)。(二)对如何戳掉“过滤气泡”进行策略性研究,提出从提供多样性意识的新闻聚合器和提供信息偶然性两个方面戳泡(Resnick et al., 2013)。Maccatrozzo(2012)赞同将偶然性概念作为算法技术的性能指标。(三)对造成“过滤气泡”的算法技术进行价值探讨,认为算法技术背后是由人设计的(张志安、刘杰, 2017),个性化算法会影响信息的道德价值(Bozdag & Timmermans, 2011),因而不能看作中立的,进而提出用人类价值观引领智能技术(陈昌凤、翟雨嘉, 2018)


尽管“过滤气泡”现象受到学界的高度关注,但事实上其内容仍属于“新瓶装旧酒”。因为早在十多年前,有关“信息茧房”“回音室”效应“协同过滤”“偏颇吸收”“群体极化”等问题已经引起了学界的广泛讨论。2003年,桑斯坦出版《网络共和国:网络社会中的民主问题》一书,认为衡量民主社会的核心标志是能否让公民接触多元化的观点,分享共同的经验,它必须具备两个基本条件:一是人们应该置身任何信息下,而不被事先所筛选。“民主之所以为民主,其真谛就在于人们常常无意间在一些没有筛选过的题材中找到观点和话题”(桑斯坦, 2003, p.5);其二,大部分公民应该拥有一定程度的共同经验,否则会带来价值断裂,“一个消除这种共同经验的传播体质将带来社会的分裂”(桑斯坦, 2003, p.5)。因此,桑斯坦认为互联网的协同过滤技术是有害于民主的,它尽管提高了信息搜索的效率,但容易导致信息窄化,结果是用户更倾向于听到志同道合的言论,讨论圈中的交流不断强化人们固有的想法或者偏见,竞争性的观点受到约束、忽略甚至压制,最终导致“群体极化”现象,即团体成员一开始即有某些偏向,在商议后,人们朝偏向的方向继续移动,最后形成极端的观点(桑斯坦, 2003, p.5)


在另一本著作《信息乌托邦》中,桑斯坦进而研究了“信息茧房”(Information Cocoons)和“回音室”效应(Echo Chambers)。桑斯坦(2008)认为,信息的协同过滤会造成信息窄化,使群体成员倾向于加强与本群体的联系,忽略同外部世界或者其他群体进行信息交流,导致群内同质、群际异质现象,促使“信息茧房”的产生。处于“信息茧房”之中的公众有如“把自己封闭在自我设计的回音室里,每个人听到的只是自己的回音,相同的意见会不断被重复,异质的观点会被过滤掉,这无异是一个作茧自缚的过程。桑斯坦对网络时代民主前景的判断虽然有些悲观,但其对“信息过滤”导致的后果的判断无疑具有前瞻性。喻国明(2016)认为,“长期生活在信息茧房之中,容易使人产生盲目自信、心胸狭隘等不良心理,其思维方式必然会将自己的偏见认为是真理,从而拒斥其他合理性的观点侵入,特别是获得同一类人认同后日益演化为极端思想和极端行为”。刘华栋(2017)则把“回音室”效应与虚假新闻联系在一起,认为社交媒体上聚合了相似的信息和同样的观点,使人们原本的态度不断被印证和强化,隔离了其他领域的信息和异己的表达。人们听到的只是封闭空间内被放大的回声,而不是网络空间中全面而真实的声音。


如果说桑斯坦所揭示的“群体极化”现象还只限于协同过滤和搜索关联技术的话,到了人工智能和算法推荐时代,个性化信息定制服务已经成为商家必争之地,相关业务开展得如火如荼。在此背景下,大数据公司通过智能技术手段获得用户的阅读搜索痕迹,总结用户的习惯、兴趣和偏好,为特定群体实现精准内容发放已经成为一种常态化操作。在人机互动的过程中,人工智能将用户的每个行为搜集反馈到数据库,经由勾勒和复刻用户画像,真正做到精准定位和定向推送。新闻传播概念实现了从“人被动寻找感兴趣的内容”到“内容主动定位到感兴趣的人”的转变(陈昌凤、翟雨嘉, 2018)。用户的兴趣习惯成为内容推荐的核心要素,也成为唯一的“编辑”思路,用户不再需要手动选择自己感兴趣的内容,机器算法代替用户完成了选择的过程。正如今日头条的创始人张一鸣所强调的那样,“今日头条的‘个性化推荐’实际上是不需要用户进行任何选择的,这让用户感到更加方便”(转引自朱鸿军、周逵, 2017)


在人工智能和算法推荐的背景下,用户对信息的自我选择权将会被算法技术所左右,除了产生“群体极化”“信息茧房”“回音室”等危害外,信息的控制、虚假新闻、信息泄露、大数据杀熟等危害也正在凸显,这使得人们把关注焦点对准了笼罩在用户周围的“过滤气泡”,也尝试开展一系列“戳泡运动”来进行矫正,并取得了一定的效果。


 二、“气泡能够被消除吗”:


“戳泡运动”的开展与成效 


2011年在帕里泽提出“过滤气泡”的概念后,《卫报》The Guardian美国版同年进行了针对性改革,在总统竞选活动中将保守媒体每周进行的谈话汇总到一起讨论,希望能解决媒体报道中呈现的问题。随后一场声势浩大的“戳泡运动”掀起,主要参与者为媒体、科技公司、非营利性组织。媒体层面,《卫报》在2016年新设专栏“戳破你的泡泡”(Burst your bubble),每周选取5篇值得一读的保守派文章,拓宽读者视野,见图1。尽管卫报读者大多数偏左派,他们还是开设了推“右派”文章的专栏。该栏目每篇文章都附有文章来源、荐读原因和内文选摘三个部分,栏目主编威尔森认为这一栏目更适合提供给那些想要了解保守派想法的读者。



同样,因制造“过滤气泡”而备受争议的Facebook在2017年1月采取了若干措施,从个人主题列表中删除了个性化内容。对2013年实施的相关文章功能进行改进,使该功能由从前用户阅读及分享文章后继续发布相似新闻报道到根据同一主题的不同角度发布文章。另外还加强了审核流程,被展示的文章其消息来源均有着良好的声誉。同样的,新闻聚合平台Buzzfeed为了缓解平台制造的“过滤气泡”,在新闻板块引入了名为“泡泡之外”(Outside Your Bubble)的新功能,这一功能以模块形式出现在一些广泛分享的新闻文章的底部,并将发表在Twitter、Facebook、Reddit等平台上的观点呈现出来,试图让用户了解自身社交媒体空间之外发生的事情及看法,见图2。



有的媒体研发了APP技术或相关数据库,消除“过滤气泡”的影响。如《瑞典日报》NZZ在谷歌数字新闻倡议下,研发了App“陪伴”(Companion)。此款APP界面十分简单,由经过编辑策划的NZZ. Ch-Stream和个性化信息“为你”(For you)两个主要部分组成。“为你”部分同大多数智能新闻终端一样,通过机器学习生成算法,给予用户个性化推送。但该算法会确保这一系列新闻中包含一个“惊喜”,既能将阅读习惯和用户偏好考虑在内,同时也不会丢失任何重要内容。《华尔街日报》以源自Facebook的新闻为数据库创建了代表自由派的蓝色供稿和代表保守派的红色供稿,试图说明用户在Facebook中获取信息的情况。该报利用了Facebook研究人员调查的1010万用户政治倾向的数据,将其政治观点分为五类:非常自由的、自由的、中立的、保守的和非常保守的。继而跟踪了500篇在Facebook上分享的文章,并对其进行标记。如果超过一半的文章分享份额来自特定类别的用户(例如“非常保守”),则链接被放入该类别中。此外,“红推送,蓝推送”(Red Feed Blue Feed)还可以并排查看自由新闻和保守新闻如何看待枪支、堕胎、伊斯兰极端组织“伊斯兰国”(ISIS)及总统候选人等话题,见图3。



数据公司方面,Google Chrome开发了扩展程序“逃离泡泡”(Escape your bubble),见图4。用户安装此程序后,需要确认政治倾向,随后在访问社交媒体时,程序会将不同于用户政治倾向的信息插入其Facebook News Feed,以此平衡用户接收到的信息,以便用户能更好地理解不同观点。



与Google举措相似,Ven、PolitEcho、FlipFeed等扩展程序也纷纷效仿,致力于平衡Facebook、Twitter等社交媒体推送的信息。此类程序的技术逻辑可分为两种:通过可视化工具向用户呈现“气泡”,或直接向用户呈现不同的观点。另外,还有针对网页信息的扩展程序Balancer,通过跟踪用户的阅读活动并用直方图显示用户的阅读行为和偏见。例如在图5中,用户偏向于从自由派的网站上阅读。



扩展程序Scoopinion也基于可视化技术呈现用户信息选择的偏向。不同的是,该程序将用户最常使用的媒体平台可视化呈现,告知用户所处的信息状况。画面以圆圈形式显示,类似于被包围在信息气泡中。图6中较大的泡泡是该用户使用最多的新闻媒体。



“跨越分歧阅读”(Read Across the Aisle)则是一款通过链接新闻网站提供新闻并可视化信息偏向的APP,该APP以媒体受党派信任程度进行“红蓝”分类,红色代表保守派;蓝色代表自由派,并根据分类塑造“意识形态波谱”。《赫芬顿邮报》为最左,福克斯新闻为最右,中间包括了诸如《纽约客》、NPR(国家公共电台)、《基督教科学箴言报》等20家新闻媒体。APP通过跟踪用户点击和阅读习惯,及时反馈用户阅读的政治取向,当用户的阅读习惯偏离任何一方时,应用程序会自动提醒用户,促使阅读走向内容丰富、观点多元。如图8和图9的实验所示,在一次实验中,当用户选择偏保守的媒体,意识形态波普呈现偏蓝色;而后用户重复选择偏自由的媒体,意识形态波普由偏蓝向偏红移动,示意图见图7、图8、图9。



此外,部分非营利性组织也加入“戳泡运动”中,网站Allsides认为任何消息都存在偏见,所以他们力图提供均衡的新闻和公民话语。具体操作中,Allsides利用众包形式,让用户自主判断不同媒体的立场,分为极左派、左派、中立、右派、极右派。并在“Today’s News”栏目中呈现三家不同立场的媒体观点,让读者对同一个问题有多种看法。例如2018年5月9日,Allsides提供了美国总统特朗普正式退出伊朗协议的报道,网站呈现了来自中立媒体BBC、左派媒体CNN及极右派媒体The Daily Wire的报道。此外,Allsides还创造性地建立平衡词典,对有争议的词语呈现不同观点的解释,让对立双方能够互相了解彼此的观点,见图10、图11、图12。



对于“戳泡运动”的效果,目前虽然没有确切的数据统计,但从受众的相关反馈可略知一二。总体而言,受众对“戳泡”持支持态度。如《卫报》开设“Burst your bubble”栏目后,读者表示他们通过这一栏目,阅读到他们之前永远不会阅读的保守派信息,开始尝试了解保守派的观点。


This is a great initiative! please keep doing it!I find really hard to go through right winged articles/ newspapers so having a selection from you guys surely helps! (这是一个伟大的举措!请继续做!我发现真的很难找到右翼文章/报纸,所以从你们这儿获得选择相当有帮助!)Bloody brilliant article, now I remember why I’ve been reading the Guardian for 28 years. The post Trump coverage has been impressive and socially important. (非常棒的文章,我突然意识到28年来我为什么一直在阅读卫报。特朗普的报道覆盖面令人印象深刻并且具有社会重要性。)


而Allsides网站的用户信赖其独特的众包驱动报告技术所呈现的无偏见信息,表示他们对于和自己不同观点的人,有了更深入的认识。


AllSides.com! It’s the place I go every day to check up on what’s going on. It separates articles from the left, the right, and the center for you and aggregates them on specific topics that are hot in the news as of now! (Allsides.com!这是我每天查看正在发生的事情的地方。它将文章从左、右和中立分开,并将它们聚集到当前热门新闻的特定主题上!)


“Read Across the Aisle”的用户表示他们在使用之后,面对某些话题会更愿意倾听多方的观点。


Our information is so different, I began to try to understand and listen! (我们的信息如此不同,我开始试着去理解和倾听!)


可见,社交机制与算法技术导致的“过滤气泡”深刻影响着我们的信息结构,媒体、数据公司、社会组织已经从技术及内容层面展开“戳泡”行动,并取得了一些成效,但总体上看只是一些算法逻辑上的技术调整,针对的对象是那些已经认识到“气泡”并意图解决“气泡”的用户。事实上,“过滤气泡”的形成非常复杂:既有算法推荐技术的推波助澜,也有人性和情感结构的内在需求,还与社会结构和权力息息相关,我们对此既不能过于乐观,也不必过于夸大“过滤气泡”的负面影响。一方面如果没有算法过滤技术,我们注定会被信息洪流所淹没。另一方面从前那种传统的、非定制的新闻也未必能保证多样性。“我们必须要弄清楚,是经过滤的媒体世界造就了我们所见的在线集结,还是本来就拥有不同信念的人建构了自我增强的过滤器”(胡泳, 2016)。因此,对于“过滤气泡”的消除,注定是一场技术与人性的较量,“戳泡运动”不仅需要不断改进算法技术,使用户可以接触到多元化的观点,还需要借助一个类似哈贝马斯提出的平等、自由、开放而理性的公共领域平台,开展协商对话,凝聚共识,这才是真正意义上的治本之道。


三、从技术过滤到情感过滤:我国社交媒体中的“过滤气泡”


根据2017年6月易观数据发布的《中国移动互联网网民行为分析》显示,2016年中国信息市场出现了算法推荐超越人工推送的现象(何谦,2017)。国内利用算法技术实现个性化推送的新闻聚合类平台发展也十分迅猛。据艾媒咨询《2017手机新闻客户端市场研究报告》显示,腾讯新闻以41.6%的活跃用户占比领跑中国手机新闻客户端市场,而今日头条则以36.1%紧随其后,其用户黏性指数以8.8居于榜首。在用户满意度Top9排行中,今日头条稳居第二,ZAKER新闻和一点资讯分别排第六和第八,新闻聚合类平台虽是后起之秀却占了总数的1/3(艾媒网, 2017)。算法推荐技术已经深度影响了我们生活的方方面面:如淘宝网首页利用个性化推荐,精准送达广告,将用户包围在所喜欢的商品气泡里;亚马逊、当当凭借算法技术成为个性化书店,依据用户购书历史和相似人群购书历史推送购书清单;而以百度为首的搜索引擎则依靠算法实行竞价排名,利用搜索数值关系,进行关联词推荐,等等。


作为国内最大的新闻聚合类平台,今日头条的算法推荐无疑最具代表性,它从技术上结合了基于内容和用户的协同过滤算法,充分利用获得的用户信息,不断优化推荐内容,带来较好的使用体验。今日头条的主界面由“白色”和“红色”构成,页面下方设有四个板块:首页、西瓜视频、微头条和小视频。信息以文字、图片和视频方式呈现,尤其注重短视频社交领域。在首页可通过搜索获取自己想知道的消息,搜索界面含有“猜你想搜的”推荐标签按钮,当你浏览某一领域的消息后,“猜你想搜的”就会出现跟该领域相关的名词。比如在搜索关键词“算法”后,“猜你想搜的”会推出“推荐算法”“头条算法”等关联词。此外,在首页界面,每条内容的右下方均有×号,点击后用户既可直接选择不感兴趣,也可以选择相应的标签,以减少同类内容,实现精准推送。但在视频界面用户需要点击右下角的“. … .”,选择“不感兴趣”,贴上具体的兴趣标签或者直接选择“不感兴趣”,前后经过三次点击才能将自己不感兴趣的内容屏蔽。


今日头条的算法推荐技术还具有社交关系网络分析功能,它通过抓取新用户注册绑定的社交平台如微信、微博、QQ等信息,通过记录分析用户在社交账号中的行为深入了解用户,给用户推荐其感兴趣的内容。如果用户没有可以借鉴的社交信息,今日头条会通过“实验”了解用户的兴趣,为用户在下拉刷新中随机推荐一些热门文章。只要用户做了阅读相关的操作,点击、评论、点赞等行为,系统会第一时间把数据传到后台,在10秒内迅速地更新用户兴趣图谱,再次下拉刷新时就会出现相应的变化。随着用户使用时间、次数以及需求的不断增加,信息需求、兴趣或行为模式会产生更多的数据,后台系统通过对这些新增数据的进一步挖掘,不断更新、完善原有的兴趣图谱,进而不断使信息产品和推荐更加精准。同时今日头条利用用户间的协同过滤,收集大量的用户数据,从而通过用户模型将用户进行人群划分,之后便会根据相似用户的阅读偏好向目标用户推荐相似的新闻内容,见图13。



今日头条个性化的精准推荐迎合了用户需求受到追捧,但同时今日头条的算法技术造成了“过滤气泡”效应也备受质疑,比如谣言泛滥、虚假新闻、低俗色情内容大规模传播、标题党、广告泛滥、虚假广告、大数据杀熟等,已经多次受到监管部门的约谈、警告和处罚。今日头条创始人张一鸣在经过反思后表示,“技术必须充满责任感,充满善意”,他将企业责任细化为三个方面,即平台治理、科技创新,以及内容建设和信息服务。


2018年1月,今日头条首次公开了算法逻辑:内容上主要考虑提取不同内容类型的特征做好推荐,用户特征包括各种兴趣标签,职业、年龄、性别等,环境特征基于用户在不同场景中信息偏好不同。结合这三个维度,模型会给出一个预估,即推测推荐内容在某场景下对某用户是否合适。这三个变量都基于对用户信息的反馈,算法的内在逻辑迎合着用户需求。此外,有四个典型的特征会对推荐起到重要的作用:相关性特征、环境特征、热度特征、协同特征。只有协同特征通过用户行为分析不同用户间相似性,如点击相似、兴趣分类相似、主题相似、兴趣词相似等,依靠“兴趣探索”和“泛化”来完成价值的多样性。这或许能在部分程度上帮助解决所谓算法越推越窄的问题,但协同特征基于分析不同用户间的相似性进行推荐,根本点还是在于相似,这与“回音室”理论不谋而合。这在一定程度上会继续加强我们的情绪和偏见,而那些与我们不同的人所关注的信息被排除在外了。


2018年1月3日,今日头条宣布招聘2000名内容审核编辑,由算法为王向人机结合转变。5月7日,继今日头条“内涵段子”永久叫停后,今日头条再次采取措施整顿平台内容,邀请学者、媒体人、公职人员成立专家团队,参与平台内容与服务的监督,并在技术上推出国内首款人工智能反低俗小程序“灵犬”,为用户提供更优质的信息(中新网, 2018)


作为基于算法推荐技术的国内最大的资讯聚合平台,今日头条的算法推荐机制正遭到诸多质疑。这些由人工智能系统推送的所谓新闻,究竟是基于什么样的标准与价值判断而被选中,公众不知情,而且这些系统的内部工作机制也不透明。虽然把控这些平台的互联网技术公司多次宣称,这一算法机制是公平公正的,但一直以保护商业秘密为由拒绝公开其运作过程。这样一来,受众就无法确切知道这些公司是否与某些利益集团有勾连,“用户通过平台看到的新闻是否只是利益集团想让他们看到的部分真相”(史安斌, 2017)。数据与算法看似客观的手段并不能带来更多的真相,反而被施加了更多的“烟幕弹”(彭兰, 2017)


如果说以今日头条为代表的算法推荐平台构建的“商业气泡”其危害主要在于“侵权”的话,那么在中国特定社会背景下,一种由公众自我建构的“社会气泡”,其意图却旨在“抗争维权”,值得我们去深思。某种意义上,“过滤气泡”的形成除了算法技术的推波助澜,同时也是公众的认知、情感、偏好驱动的结果,当公众怀有刻板意见和负面情绪时,公众会启动选择性理解、选择性过滤、选择性记忆认知程序,其自我构建的情感记忆会聚集成强大社会气泡,导致情感认同和道德动员。结果是,一旦发生突发事件,公众首先会将过去的经验、思维、价值观和行为模式渗入情感动员的过程中,并对各类信息采用同化、省略与突出等策略,即对有利的消息进行强化,对不利的信息进行选择性理解、选择性记忆与选择性过滤,对相异的观点持拒绝态度,尤其是涉及敏感身份(如官与民、警与匪、富与穷、明星与平民、城管与小贩等)和敏感情景(如腐败、包庇、殴打、狂妄、强奸、虐待)时,很容易引发公众的情感动员(郭小安, 2013),谣言往往充当了“弱者的武器”,部分媒体和商业公司也会借助算法推荐技术,迎合“社会气泡”,大量推送同类信息,产生“热点搭便车”效应。此时,理性对话和协商沟通的努力容易被“社会气泡”所抑制,因为处于气泡中的公众在乎的并非事情的真假,而是道德对错和情感共鸣,“社会气泡”充当了价值认同和情感抗争的工具。


总之,“过滤气泡”是技术、人性、社会结构共同作用的结果,不能仅仅停留在技术治理的维度上。在中国语境下,“过滤气泡”的形成与社会矛盾和情感结构息息相关。因此,“过滤气泡”的消除既需要技术的优化,也需要媒体的平衡报道,还需要社会矛盾的缓解、公共领域的完善以及制度化参与渠道的拓展。


本文来自微信公众号:全球传媒学刊(ID:GlobalMediaJournal),作者:郭小安、甘馨月

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP