去搜搜
头像
人脸识别首次被禁用,商业化进程会停滞吗?
2019-05-17 15:18

人脸识别首次被禁用,商业化进程会停滞吗?

文章所属专栏 前沿技术情报所

据外媒报道,在5月15日的一次投票中,旧金山城市监督委员会的官员们以8票对1票的结果通过一项法令,禁止政府机构购买和使用人脸识别技术。此举旨在加强新技术的监管,并消除个人隐私泄露的隐患。

 

这在AI领域引发了很大关注,对于人脸识别和人工智能来说,可能都是一个危险信号。如果旧金山最终决定禁止使用面部识别技术,可能会引来其他城市甚至其他国家的效仿。而我们也知道,人脸识别是当下AI技术最成熟、应用场景最广的领域之一。


在国内,针对AI的治理也在徐徐展开。5月16日,科技部部长王志刚在第三届世界智能大会上透露,随着人工智能发展出新的突破和新的应用,需要研究社会伦理和社会治理。目前正在加紧研究起草人工智能治理准则,近期将向全社会发布。

 

这表明,风风火火的AI技术在改变世界的同时,也给一部分人带来烦恼,因此也面临一定的抵制与政府监管。下面我们一起来看一下AI所面临的隐私监管挑战,探讨隐私保护的潮流是否会影响AI的大范围落地。

 

行业纵览

 

1)即使在隐私保护意识强的美国,面部识别技术也依然在公共部门与私营部门大力推广


在国内,我们已经对人脸识别应用非常熟悉,国内人脸识别应用范围更广。基于面部识别的安防业务成了AI四小龙的现金牛业务,在营收中的占比到两成以上。公安局是计算机视觉公司的重要客户。此外人脸识别还在零售、金融等领域落地。


在国外应用情况又如何?众所周知,在欧美,民众的隐私保护意识很强,也有很多民间团体如美国民权同盟(ACLU)等在积极行动推进隐私保护,但面部识别在美国依然获得较广的使用。


美国街头的摄像头


面部识别的应用场景非常丰富,执法部门用面部识别技术来识别可疑分子,是其中一项重要应用。美国政府使用人脸识别技术已经有十多年的历史,在机场、大型体育场馆等场合,以及FBI、国土安全部等部门,都使用过这类技术来保障安全。


FBI多年来一直利用面部识别技术在机场、海关等公共场所追踪嫌犯,FBI 已经跟美国的 18 个州签署谅解备忘录,可以跟联邦政府分享各州拥有的人脸信息,其中包括机动车管理所的驾照照片。基于这些真实的人脸照片,FBI 的软件系统可以抽取出用于面部识别的多个特征点。如果通过无处不在的监控发现某个人符合搜捕目标的面部特征,就能在最短时间内将其控制。2018年6月份,美国马里兰州安纳波利斯发生了一次大规模枪击事件,FBI就是使用人脸识别技术找出了嫌犯。美国国土安全部也在全国20个机场部署人脸识别系统,并在墨西哥边境使用人脸识别技术。


在民间,人脸识别也被用于安防。泰勒斯威夫特的团队就曾在演唱会过程中,使用面部识别来防范狂热粉丝与跟踪狂。

 

除了安全领域,人脸识别还被用于零售等场景。亚马逊在西雅图开设的Amazon Go无人超市,肯定要用人脸识别来确定顾客身份。旧金山的初创企业Standard Cognition开设的智能零售店Standard Market,也用摄像头记录消费者与货品。


Amazon Go无人超市


当然,相比之下,国内对于面部识别的应用更加广泛。安防、智慧城市、零售、远程身份认证等领域,都广泛应用人脸识别技术。

 

2)面部识别可以抓坏人,可以在金融、零售等环节改善用户体验,为什么还会有人抵制面部识别技术?

 

抵制面部识别的理由,主要集中在几方面:

 

一是监管部门掌握了太多的面部图片,其中只有很少比例是犯罪嫌疑人,大部分人都是正常公民。就像商汤科技创始人汤晓鸥最近开玩笑说,其实没那么多的坏人被识别,对于强大的算法而言,坏人有点不够用。而美国的一份报告也显示,FBI推出的FACE人脸识别系统,在三年前就已经捕捉到4.11亿面部图像,既有美国人,也有海外游客。其中大部分都是遵纪守法的好公民和外国游客,有犯罪前科的是极少数。

 

对于遵纪守法的人来说,没有犯罪还被摄像头记录并去做身份识别,有人觉得无所谓,但也会有一些人觉得不舒服。就像我们在街头被要求出示并核验身份证一样,总会有人觉得自己的隐私和自由被侵犯。


第二,个人面部图片被大量用于AI研发和商业应用,隐私问题很大。大量企业与政府部门都考虑将AI技术融入到产品和服务中去。但为了给AI技术提供“数据燃料”,大量或敏感或公开的数据被收集起来用以分析和储存。


没有海量人脸图片就不会有人脸识别技术


据NBC报道,IBM从Flickr网站上抓取了近100万张照片用于训练人脸识别算法,包括一些摄影师拍摄的人脸图像以及自拍照,但他们对此毫不知情。类似的公司也常从Flickr、Instagram、YouTube、Facebook、Google等网站以及图片库,免费抓取人脸图像以喂食算法系统。


这一过程产生了诸多隐私与安全问题。在美国,各州通过了用户隐私数据保护法律,禁止不公正及欺骗性商业行为。加州于去年通过了全美最严格数据隐私保护法案,从2020年开始,掌握超过5万人信息的公司必须允许用户查阅自己被收集的数据,要求删除数据,以及选择不将数据出售给第三方。


第三,人脸识别技术还存在问题,识别效果还不是百分之百的准确,会有正常公民被AI认定为可疑人物。在国内的安防业务中,常有这方面的误报,造成警力的浪费。在国外,人脸识别技术在识别有色人种方面,识别精准度不高。有色人种有更大的概率被系统误认为是犯罪嫌疑人,这就是所谓的“算法歧视”,这在讲究“政治正确”的美国,必然面临风险。

 

2018年7月,“美国公民自由联盟”(ACLU)测试了亚马逊的人脸识别系统。ACLU使用亚马逊的人脸识别系统Rekognition API扫描了所有535名国会议员的面孔,对照25000张公开的警方嫌疑犯照片。结果显示有28个国会议员被认成了嫌疑犯。被错误匹配的议员中,有色人种的比例很高,达到11人,仅国会黑人同盟就有6名成员被误判。ACLU认为,对于皮肤较黑的人和女性,人脸识别通常不太准确。虽然对于整个国会来说,错误率是5.2%,但对于非白人的国会议员,错误率达到39%。


被亚马逊人脸识别系统认定为疑犯的美国议员

 

3)美国对于面部识别的担忧其实早就有之。旧金山并不是特例。对于AI技术带来的隐私问题与算法歧视问题,监管政策早就在酝酿。


2016年 6 月,美国政府问责办公室曾对 FBI 进行过一次调查。调查结果显示,FBI 对面部识别系统的运作缺乏责任心和准确性,自我监督的力度也不够。


在2017年,美国众议院全体委员会曾施加压力,要求评估 FBI 使用面部识别技术的方式是否合法恰当,并且审查其保存、使用面部照片的政策。


今年3月15日,美国参议院通过一项新法案,禁止使用面部识别技术的商业公司在未经照片主人明确同意下共享他们的照片数据,在使用面部识别数据时需提前通知用户。此外,这项技术还需要第三方测试,才能进入市场,以确保它是公正的,不会损害消费者。


在地方上,除了旧金山外,奥克兰和马萨诸塞州的萨默维尔也在考虑通过类似的法令。马萨诸塞州的州立法机构计划通过一项法案,暂停人脸识别和其他远程生物监控系统。

 

旧金山在地方上开了个头,在这次投票后,旧金山监事会5月21日还将进行第二次投票,最终决定正式批准或拒绝该条例。一旦最终投票通过,旧金山将成为美国第一个禁止市政机构使用面部识别软件的城市。这不可避免地会引发其他地方的效仿。不过旧金山并未禁止普通商家或居民使用人脸识别或监控技术(如监控摄像机)。毕竟这块涉及到的民事关系更加复杂。


算法歧视也是监管的关注点之一。算法或者会受开发者的影响,或者会受到数据集的影响,在利用算法做商业决策时,可能会与一些伦理规则相违背。哈佛大学的研究也指出,在算法的作用下,“查询被逮捕记录” 的广告会更频繁地找上黑人。而谷歌图片也曾把两个黑人贴上大猩猩的标签。

 

美国一些政府部门已经盯上了“算法歧视”。


纽约市议会通过一项解决算法歧视问题的法案

早在2014年,美国白宫发布大数据研究报告就关注了算法歧视问题,报告认为算法歧视有可能是无意的,也有可能是对弱势群体蓄意剥削。


美国部分州使用一款名为Compas的算法来评估犯罪。但调查机构在2016年进行调查后确认为该算法可能存在种族偏见的因素,因为黑人被告更容易获得高风险评分。


在2017年底,纽约州曾出台法案,规定市政机构要公布所有用于“追踪服务”(targeting services)或“对人施加惩罚或维护治安”的算法的源代码,并让它们接受公众的“自我测试”。


出现“算法歧视”,原因有很多,如数据集中的图片,白人的图片可能比其他群体的图片更多,造成对其他肤色的群体的识别精度不高。另外,深色皮肤缺乏颜色对比,或者女性用化妆品来掩盖皱纹,或者用不同的方式梳头,都容易导致算法出现问题。

 

在我国,针对人脸识别以及人工智能技术的发展,政策基调是鼓励与支持,目前还未有限制人脸识别的政策出台。在隐私数据保护方面,2017年6月1号开始,《网络安全法》以及最新刑事司法解释正式施行,对网络运营者收集、使用公民的个人数据信息进行了原则性的规定,如:


网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。


网络运营者不得收集与其提供的服务无关的个人信息,不得违反法律、行政法规的规定和双方的约定收集、使用个人信息,并应当依照法律、行政法规的规定和与用户的约定,处理其保存的个人信息。


针对大数据被滥用甚至黑市转卖的情况,执法机关也立案侦查了一些典型案件。不过就人脸识别与人工智能涉及到的数据隐私问题,还没有明确的规制。


4)AI怎么解决自身的隐私“黑点”?

 

AI在快速发展过程中,确实产生了侵犯隐私、形成一定程度的算法歧视等问题,这是AI成长中的烦恼。解决这些问题,需要制度的保障,在技术上,也在形成一些新尝试,去解决隐私保护等问题。


如最近兴起的联邦学习,是针对隐私保护的技术。联邦学习是一个机器学习框架,能帮助不同机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据联合使用和建模。具体地说,在企业各自数据不出本地的前提下,通过加密机制下的参数交换与优化,建立一个虚拟的共有模型。这个共有模型的性能类似于将各方数据聚合到一块训练出来的模型。该数据联合建模方案不泄露用户隐私且符合数据安全保护的原则。


在业界,Google 率先提出了基于个人终端设备的“横向联邦学习”,其核心是,手机在本地进行模型训练,仅将模型更新的部分加密上传到云端,并与其他用户的进行整合。目前该方法已在 Google 输入法中进行实验。在国内,微众银行首席人工智能官(CAIO)杨强及其团队也提出了基于 “联邦学习” 的通用解决方案,支持协同建模学习。李开复在最近的演讲中,也提到了联邦学习在解决AI隐私问题中的作用。


当然,现在联邦学习还在早期,也还没出现AI企业的大规模跟进,能在多大程度上解决人工智能发展带来的隐私问题,还未可知。


此外,相较于面部识别,其他一些识别技术可能不会引起用户的强烈抵触。如步态识别技术,可以在不看脸的情况下,通过识别人走路的姿势与特点,来实现对人身份的识别。这当然也有一定的隐私问题,但相对于面部识别,人对于步态识别的抵触可能会更小一些。

 

 行业解析


1)隐私问题是伴随AI发展的重要议题,如果处理不好隐私的问题,AI商业化进程不可避免地出现一定程度的倒退。旧金山对面部识别的禁令,有可能带来其他地方的效仿,人脸识别技术可能在更大范围内被限制使用。AI落地场景受限。


从更长周期来看,AI技术的广泛应用不可阻挡,随着人工智能技术对社会的推动力加强,整个社会将会在技术带来的便捷与隐私泄露的风险之间做出权衡,AI技术提供商、使用AI技术的部门与担忧隐私问题的群体进行角力,最终隐私担忧不会对人工智能落地产生决定性影响,而是会对产品开发和技术使用的方式施加一些影响,在这些方面形成比较明确的规制。就像人脸识别,未来无论是公共部门使用人脸识别技术来辅助安全保障,还是私营部门使用人脸识别技术来辅助商业活动,都可能在使用范围上有一定限制,在数据存储、分析使用、传输上,面临更严格规定,不可能随意使用并处理数据。


商汤科技CEO徐立认为,AI可以在很大程度上促进生产力,但同时也有可能做其他的事情。我们应该关心的不是怎么去限制它的使用,而是怎么去把它推广好,制定出一些标准,在什么情况下可以使用这些数据,什么情况下不能使用。旧金山可能是个例,但很可能未来的趋势就是对这些新兴技术,有一个合适的法律出台,这是推动技术发展的一个核心保障。


2)AI使用场景的逐步增加仍是大势所趋,毕竟在抓捕逃犯、实现线下零售数字化等方面,面部识别技术不可或缺。现在要做到不是完全禁止人脸识别技术的应用,而是想办法实现技术便捷性与隐私保护的平衡。


就像美国参议院提出的商业面部识别隐私法的新提案,商业公司在使用人脸识别技术时需要经过用户的明确同意,同时对识别技术进行第三方测试,以确保其符合准确性和偏见标准。这样逐步可以达到一个技术公司、商业公司、普通民众、民权团体都能接受的方案


上文提到的创业公司Standard Cognition也提出了隐私保护新概念,通过记录顾客的移动、步距等资料,辨认指定人物及所选购物品,累积不同顾客在店内动作的数据,凭细微动作识别是否有人偷窃。这种尝试类似于步态识别技术。这些都是解决隐私问题的新尝试。

 

也就是说,基于人们对于隐私的担忧,类似于谷歌眼镜这样的可能严重伤害用户隐私权的产品最终退出了舞台,但各种能实现AI功能与隐私保护平衡的产品和解决方案,还是会不断涌现。


就我国来说,受到的影响会更小。民众固然也有隐私的担忧,但从国内民众有更强的社交网络分享情况来看,国内用户对于隐私的保护意识还没有国外那么敏感。而且相较于国外,国内缺乏强有力的民间机构去推动隐私保护,普通民众即使对隐私很顾忌,但分散的力量很难与企业厂商相抗衡。另外,国内也不存在因算法难以识别不同肤色的人而导致的舆论压力。

本内容未经允许禁止转载,如需授权请微信联系妙投小虎哥:miaotou515
如对本稿件有异议或投诉,请联系tougao@huxiu.com
评论
0/500 妙投用户社区交流公约
最新评论
这里空空如也,期待你的发声