为什么我们对deepfake技术又爱又恨?
2019-11-15 19:54

为什么我们对deepfake技术又爱又恨?

本文来自微信公众号:腾讯研究院(ID:cyberlawrc),作者:S君. ai


Deefake到底是什么?即便你对这个近来AI界频频出现的热词不够了解,对“AI换脸”也一定不陌生。从国外的恶搞奥巴马、盖尔加朵,到国内的朱茵换脸杨幂、以及ZAO App的昙花一现。这项脑洞大开的技术在2017年由Reddit网站用户“deepfakes”提出并开源,便在论坛炸了锅。随即衍生出FakeApp等视频合成工具和一系列伪造影片。


这种源自人工智能生成对抗网络(GAN,generative adversarial network)的伪造技术,可以实现用另一张人脸图片替换掉原始视频中的原始人像。基于GAN算法的博弈优化原理,最终生成逼真度极高的伪造视频,目前已可以以假乱真。



一方面,deepfake技术应用在影视文化行业的想象空间极大,另一方面,恶搞与色情影片对人性的耸动,使其从诞生之初就伴随着肖像权、版权和伦理层面的纷争。deepfake被滥用究竟有何威胁?造假之风日盛,打假军团也逐渐诞生。用AI打假AI,成为一场“军备竞赛”。而我们会获胜吗?  


一、Deepfake被滥用对我们究竟意味着什么?


近来的一项研究表明,目前网上有14678个DeepFake视频,其中96%是色情视频。大部分都是著名女演员的脸,被转移到色情明星的身体上。(Deep Trace Lab)作为主要目标之一的女演员斯嘉丽就表示:“这对我的影响没有那么大,因为人们知道色情视频里的人并不是我......但是对于那些因此可能丢掉工作的人来说就不同了。” (机器之心)


对于普通人或知名度较低的女性而言,deepfake技术让造假色情视频变得十分容易,基于报复或其他目的的色情视频,可能让女性面临更高的名誉风险而难以自辩。  


技术的革新也让“欺诈产业”不断改头换面。基于deepfake的合成人像、合成语音乃至合成笔迹,让欺诈活动变得更加隐秘而难以侦查和防卫。


今年 3 月,犯罪分子成功模仿了一家英国能源公司的德国母公司CEO的声音,欺骗了多位同事和合作伙伴,一天内诈骗了 220,000 欧元(约合 173 万元人民币)(Deeptech深科技)6月,间谍使用 AI 生成了一个并不存在的个像和资料,在职场社交平台LinkedIn上欺骗了包括政治专家和政府内部人士的众多联系人。(新智元)    


除了已爆发的安全风险,Deepfake的潜在效应还将蔓延到大众的信息获取和社会信任层面。


“如果一个信息消费者不知道该相信什么,他们不能从虚构中辨别事实,那么他们要么相信一切,要么什么都不相信。如果他们什么都不相信,那就会导致长期的冷漠,这对美国是有害的。”(外交政策研究所研究员Clint Watts/新智元) 


二、AI对抗AI,会是好的解决方案吗?


正如中国科学技术法学会李晟教授所言,deepfake的真正问题在于,“传统意义上“真实”与“虚假”的界线会被打破”。既然能用技术造假,可否利用更强有力的技术来检测假视频?这种AI对抗AI的思路成了过去两年内不少机构关注的方向。


纽约州立大学教授Siwei Lyu和学生发现,使用AI技术生成的假脸极少甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。美国国防部研究机构 DAPRA 据此研发出了首款“反变脸”的AI刑侦检测工具。(新智元)Hao Li 所在的团队通过追踪每个人特有的面部微表情来做到这一点。这些标记(微表情)被称为“软生物特征”,它们对 AI 来说太微妙了,目前还无法模仿。(机器之心)


不过无论是Lyu还是Li都认为,这项技术可能没多久就没用了。“在伪造视频的后期处理中手动添加眨眼并不是一个巨大的挑战”,随着鉴别技术的提升,假视频的质量也会进一步提高。开发这种算法,“至少有助于阻止和延迟创建伪造视频的过程。”(Siwei Lyu网易)生成式对抗网络的原理就是让两套神经网络在相互博弈中学习,长远看来,两者永远处在不断的对抗当中,谁也无法彻底打败谁。(爱范儿) 


即便是当前十分有效的检测技术,也难以完美捕获所有的造假信息。人工智能基金会的研究副总裁Delip Rao 表示,“近期公布的 deepfake 检测算法据说可以达到 97% 的准确率。但考虑到互联网平台的规模,这剩下的 3% 仍然具有破坏性。假设 Facebook 每天要处理 3.5 亿张图像,即使是 3% 的错误率仍然会导致大量错误识别图像被放出。”(Delip Rao/机器之心)    


另一个问题在于,“打假研究”与“造假研究”的规模和声量很不成比例。“2018年,全球加在一起,也只有25篇有关识别合成图像的论文发表。对比一下,GAN有902篇。算下来,1比36。”(量子位)对于此,Facebook、Google等巨头公司已开始调整思路,采用奖金竞赛、搭建数据集等方式,期望集众力填补这一缺口。9月,Facebook宣布与数家公司和高校合作发起Deepfake检测挑战赛。(cnBeta)


这种规模化的行动能否帮助打假技术实现飞跃?我们尚需等待。   


三、除了AI反制,还有什么应对思路?


在不明确技术泛滥后果的前提下,合理地释放技术成果成为了一些企业的选择。比如OpenAI前段时间推出的无监督语言模型GPT-2,就没有按照行业惯例进行开源,只发布了简化版,不发布数据集、训练代码以及模型权重,目的就是避免“这一技术被人恶意利用”。(脑极体)      


由于AI打假存在漏网之鱼,Hwang认为最有可能的解决方案是,在自动检测工具(可以扫描数百万个视频)和人工审查(可以关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可以收集视频内容的支持证据。对于经过特别打磨的deepfake作品尤其有用。(前瞻网)   


美国弗吉尼亚州和加州都在deepfake技术的立法监管层面有所尝试。今年5月,我国民法典人格权编草案二审稿提出,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。“如果正式通过,这意味着即便没有营利目的和主观恶意,未经本人同意的AI换脸同样有可能构成侵权。”(北京大学法学院副院长薛军/新华网) 


“在我看来,最重要的是,公众必须意识到现代技术在视频生成和编辑方面的有很大的能力。这将使他们更批判性地思考自己每天消费的视频内容,尤其是在没有来源证明的情况下。”(斯坦福大学访问助理教授Michael Zollhofer/新智元)      


编者小结


正如这项技术的缔造者“deepfakes”所言:任何技术都可能被邪恶的动机利用。Deepfake诞生不久,就引发了诸如色情视频泛滥、更隐秘的欺诈手段、乃至身份识别和社会信任的挑战。如果我们想要拥抱这种能让Paul Walker在《速度与激情7》中复生的美妙技术,就更应当积极地参与到防止技术滥用的努力之中。


目前看来,依靠技术制衡技术、开发好的AI算法来检测虚假内容,依然是最可行的解决办法。虽然这条路径无法通向100%的成功率,并且面临造假技术更新带来的持久“军备竞赛”局面。这场竞赛已从最初的大小机构各自为阵,转向了巨头公司利用奖金竞赛、搭建数据集等方式,鼓励更广泛的关注和参与。


但在技术博弈之外,依然有很多重要的路径值得探索。例如:人工查证如何聪明地参与到技术侦测之中,起到四两拨千斤的作用?在能够驾驭之前,这类敏感技术是否应该有限度地开源?配套的监管政策如何不妨碍技术的正向发展?


回到最初的问题:deepfake出现将对大众如何定义真相将产生冲击。因而,对抗技术滥用并不只是行业和监管等一小部分人的事;当这一问题获得更广泛的关注,人们对造假的免疫力才会更强,更懂批判性思考和吸收,社会对“假象”的风险才有了最坚实的根基。


本文来自微信公众号:腾讯研究院(ID:cyberlawrc),作者:S君. ai

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定