当AI开始保护她
2018-12-21 21:21

当AI开始保护她

AI与女性之间的关系,似乎一直不太好。


提到AI,我们看到的往往是“AI筛选简历带有性别歧视,更偏向于男性员工”、“AI取代秘书、翻译和速记正在让女性失业”、“一切AI助理都是女性配音加重男权主义”……


AI作为人类智慧与经验的高度结晶,同样也继承了人类社会文化中糟粕的部分,并且会毫无遮掩展示出来。


但今天我们要讲的这个故事,是关于AI如何保护女性远离网络暴力。


女记者、女政治家和女权活动家的共同罪过


你遭受过网络暴力吗?


对于大多数人来说,网络暴力离我们很远。但即使在某一次莫名为微博喷子骚扰时,男性和女性也一定会有不同的体验。对于男性来说,遭到的辱骂通常是“傻X”一类的常规词汇,或者是对家人的“问候”。而对于女性来说,往往会遭受到对自己身材、外貌的攻击,以及性方面的骚扰。


在大赦国际的调查中发现,这种情况非常普遍,并且在Twitter这样的公共话语空间中已经上升到了危害女性人权的程度。


今年以来,大赦国际陆续推出了长达八章的调查报告,讲述普通女性、女记者、女政治家是如何因为自己的女性身份而在Twitter中饱受喷子们的侮辱的。而这篇调查报告的名称就是《Toxic Twitter》——有毒的推特。


我们可以摘几组调查报告中出现的数据:


“2017年全年,有110万条辱骂性的推文被发给了778名女记者和政治家。”


“在发送给女性的推文中,有7.1%都涉及到攻击和辱骂。”


“在辱骂女性的推文中,提及黑人女性推文的比率比白人女性高84%。”


而那些辱骂女性推文的大概内容又是什么呢?


有这样的:



还有这样的:



如图所示,一切的辱骂和威胁,总与性有关,时时刻刻强调着女性身份的弱势之处。


在调查时,女政治家和记者也表示,因为性别而遭受到的攻击,是她们职业路上非常重要的困难和障碍。当男性遭到攻击时,被攻击的是他的行为和他的工作成果。可当女性遭受到攻击时,喷子们总会瞄准她们的性别。


仿佛生而为女人,应当抱歉。


算法除了推动流量涌动,还推动了什么?


而这一切中有Twitter哪些责任呢?


从基本上而言,Twitter没有足够强大的敏感词审核和过滤机制,不能从源头控制这些辱骂性的语言。


最主要的是,Twitter算法的向智能推荐方向调整后,原本相对封闭的关注体系变得更加开放了。


在过去,那些女政治家、女记者和普通女性的账号以及推文内容只会显示在关注者的Timeline上。


但信息流变得更加开放后,更大的流量同样也带来了黑子和极端性别主义者——同样这些辱骂女性的推文虽然来自普通人,但在全新的算法机制下,即使他们没有什么关注者,也会获得不少曝光。一方面加重了语言伤害的能量,另一方面也让那些黑子可以更方便地找到彼此,形成组织对女性进行攻击。


大赦国际也表示,他们已经数次向Twitter反映了这些问题,却一直没有得到满意的答复。


其实在这件事上,Twitter显得有些无辜。毕竟算法调整增强了各个圈层的互相了解,本意上是好的。我们也知道,通过人工智能识别出侮辱性词汇,尤其是针对性别的侮辱性词汇并不是那么容易。就像“if she was raped,would she keep her mouth shut?”(如果强奸了她,她能够闭上嘴吗?)这句话从词汇上看来并没有什么不对,但是联合语境看来却是在用非常暴力的性犯罪来威胁女性停止发声。


但算法造成问题,还要算法来解决。


当AI被把握在女性手中


AI不能理解语境吗?显然不是,大量涉及到长本文语义理解的算法就是干这个的。只不过面对性别侮辱这类相对复杂的语境,需要大量的训练样本和反复调试。


当得不到Twitter的支持时,大赦国际做了两件事:


第一是找了6500位志愿者,在推特上分别寻找收集那些侮辱女性的言论和正常言论,作为标注数据累积,建立起了全世界最大的“仇女言论”数据集。


第二是找到Element AI,一家提供AI服务的创业企业,利用数据进行训练和分析,最终得出了上述完整的数据,并且训练出了一个可以判断女性侮辱言论的神经网络模型。大赦国际在报告中提出,目前这一模型的准确度已经达到了50%,并且还在不断提高中。



当然最后的结局没有人们想象中那么美好,Twitter并没有直接采用模型,借此保护平台上的女性用户。


但通过这两件事,大赦国际明确了自己的需求,给Twitter提了很多富有价值的意见,例如Twitter应该改进举报机制,让关于女性侮辱的举报可以得到更多重视;Twitter应该更加清晰的解释平台过滤算法如何运行,如何识别那些针对女性的语言暴力;Twitter应该加强对女性用户的教育,提醒她们如何保护自己;更重要的是,Twitter应该更多的公开相关数据,让更多人知道女性正在社交媒体上承受着更多压力。


打破技术即权力:保护她和他们的AI


这件事情其实带来了一个非常有趣的思考:当AI发展得愈发成熟,技术即权力的魔咒是不是正在被默默打破?


女性如今之所以处在一个让她们略感不适的地位之中,很大一部分原因在于对技术的掌控不如男性,所以她们不能创造和男性一样多的价值。千百年前女性不知道如何开垦更多土地种植粮食;几十年前女性不知道如何使用电脑;到今年女性不知道Twitter的算法为什么不能过滤掉那些仇恨言论。


而随着科技的发展,阻碍女性获取技术的门槛正在逐渐被磨平。从生理结构上天然的体力差别,到社会和家庭身份对于时间的占用,直到今天。



我们发现,号召志愿者收集数据,加上一家愿意帮忙的AI服务企业,女性可以轻易打破Twitter的“男权谎言”——你说算法做不到?她们就去证明算法可以做到。


当AI模型的开发越来越走向低门槛,当谷歌和百度都在推出小孩子都能使用的模型训练平台,这便意味着(综合来看)开发经验更少的女性群体也可以创造和利用AI的技术能力。


这也是AI作为工具而言最重要的价值,将以往高密度的经验与智慧集成为人人可以利用的算法,让马路杀手像老司机一样行驶在路上,让分不清PS和Photoshop的人也能拍出好照片。如今对于算法开发过程的简易化,更加提升了AI的工具价值。


让我们感到欣慰的,不仅仅是女性开始利用AI的力量保护自己、为自己发声,而是大赦国际的成功是可以复制的,除了那些在社交媒体上被辱骂的女性,其他的弱势群体其实也可以利用类似的方式发出声响和自我拯救。


AI正在保护她,并且还可以保护他们。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定