AI能当警察么?
2018-05-02 07:38

AI能当警察么?

最近几个月,军用AI和主动攻击型武器的问题闹得沸沸扬扬,很多AI研究者联名反对这项技术的军事化。


但令人无奈的是,AI的很多特征确实能够与极端复杂环境相结合,类似技术很难在民用市场找到落脚点,军用AI也就顺理成章作为了技术加持的方向。但是换个角度想想,如果军用AI容易引发普遍恐慌,那么切换到警用会不会好很多?


用AI来加持公共安全,提升警方的工作效率,似乎是个不错的主意?


当然,我们距离影片《机器战警》中描绘的世界还有很长的路要走。但在我们平时很少关心的警用技术世界里,AI从未缺席,甚至很多技术非常前沿,有点科幻味道的技术已经投身到了实战中。


就像众多AI应用领域一样,在AI+公共安全的旅程上,争议和焦虑感也是必不可少的话题。今天让我们来盘点一下警用AI的发展方向、层次和背后引起的争论。


在很多警匪片中,我们经常会分不清卧底和警察。说不定未来某一天,我们也会分不清执法的是真人警察还是AI警察。想想也是蛮有意思的。


工利其器:从警具开始的AI进化


罗马不是一天建成的,AI警察也不可能马上取代人类。在现实世界里,AI的首要任务是升级警察叔叔手里的警具,让他们不用那么辛苦。


美国电影中,警察用发射带电飞镖的泰瑟枪制服嫌犯(有时候是主角)的画面可谓深入人心。而泰瑟枪的制造商Axon如今已经开始了全面的AI化转型。比如他们就把AI技术用到了执法记录仪中。



已经被美国多地警方装配的AI执法记录仪,可以通过摄像头背后的算法识别和分类功能,来对执法信息进行全自动编辑和存档。这个功能原理等同于我们手机中的图片识别,但要建立在海量数据库和针对警用信息的强化机器学习基础上。有了这个能力,执法警员就不必再对拍摄的资料进行大量剪辑、归档,从而节省工作时间。


依靠警用设备起家的Axon,如今已经将企业目标全面设定为AI。他们希望通过AI带来的识别、判断和主动分析能力,来取代警察所有的文书和资料编辑工作。


假如你觉得只是取代文书工作不太给力,那当然还有更强悍的。比如用AI来配合审讯。


日立和麻省理工合作推出过一个AI摄像头解决方案,可以精准识别出被拍摄人的心跳、脉搏等数据。这项技术的一个应用场景就是在审讯时,监控嫌疑人的生理状况和脸色变化等,并得出嫌疑人可能说谎或者精神高度紧张等结论。其实就相当于是一个AI测谎机。



这项技术的价值在于它并没有收集太多嫌疑人资料,而是将一个审讯员察言观色的能力集成到了AI上,为审讯提供辅助。当然了,目前这类技术才刚刚开始出现。


另外还有一个很大的市场——警车。就在不久之前,美国媒体披露福特申请了一项新的自动驾驶警车专利。根据相关信息,福特的新警车不仅能够自动驾驶,还可以通过车载摄像头和传感器发现街上其他车辆的违规信息,同时它还能连接到公共摄像头等设备,组成立体化的车辆自动执法体系。



根据专利信息,这种警车可以在不用人类介入的情况下自己开出罚单,甚至还能根据事态来主动追踪甚至跟踪嫌疑车辆。


你的违章罚单竟然是一辆警车给开出来的,这听起来够神的吧?然而福特只是自动驾驶警车众多玩家中的一个而已,随着自动驾驶产业的发展中,警车市场恐怕也会成为老牌车厂和新造车公司的必争之地。


我是城市的眼睛和耳朵:摄像头背后的超级AI警察


以上说的那些AI,放在警匪片里显然都是配角。但是演主角的心是每个人都有的,AI大概也不例外。


如果AI能够为我们做一些人类警察做不到的事情,那么它们当然也就顺势上位了。比如说,同时看完城市中无数个摄像头的拍摄数据。在城市摄像头网络与公众安全这幕大戏中,AI已经准备作为一名“超级警察”粉墨登场。


城市摄像头背后的AI,第一个任务当然是从人海中找出逃犯。记得当年抓周克华的时候,警方出动了大量警员日夜不停的看监控,假如AI能够快速完成这项工作,那当然是一大善举。


以今天人脸识别技术的完成度来看,近距离认出逃犯并不难。难点是要在城市摄像头拍摄到的人山人海中精准识别出某个人脸数据。比如欧洲一个叫做Indect的摄像头+人脸定位项目,就号称能在足球场定位观众席里的嫌犯。用摄像头+人脸识别抓捕逃犯的技术在中国也得到了飞速发展,很多机器视觉公司提供类似的算法解决方案。


另一个摄像头背后的AI安全应用,是预判人流密集度,从而实时示警引导人群疏散。我们这样的人口大国,在人群密集时发生踩踏事故是严重的社会安全隐患。用AI识别人流拥挤程度是有效的解决方案。在今天中国很多一二线城市里,城市摄像头背后的AI预警装置已经开始上岗工作。


与人流控制相似,车流控制也是城市安全AI的一个主攻方向。比如通过摄像头判断车祸发生从而第一时间报警,甚至通过车辆行驶轨迹异常来判断酒驾和疲劳驾驶。这些都已经在部分中国城市中得到了应用。



比较好玩的是,负责城市安全的警用AI不仅能“看见”,还能“听见”。


硅谷一个创业公司开发了名叫ShotSpotter的城市警用系统,它的能力是通过麦克风,借助AI能力在复杂的城市声音中识别出枪声。一旦听见枪响,系统就会自动向警方报警,并准确定位枪击事发地。


当然了,能看能听之外,还能想就最好了。别急,这个AI也能做到。2016年,富士通与日本电子通讯大学公布了一个合作项目,内容是通过城市摄像头监控到犯罪事件之后,AI系统自动规划出警方案和警力调配计划。其算法包括就近警力分配原则、预判嫌犯逃跑路线,还能设计出封闭道路和设置路障的方案。目前这个系统在人口密集、地形复杂的东京,已经可以在五分钟内给出一个警力调配方案。


躲在摄像头背后的AI警察,已经开始在全世界上班,注视着城市的一举一动。假如你觉得这还是不够厉害,那预测犯罪了解一下?


《少数派报告》看过没?大预测术已经在路上


不知道今天提《少数派报告》是不是一件暴露年龄的事,但一说到AI预测犯罪,还是会联想起电影里的“先知”。



提起预测犯罪,就不能不提到警用科技界赫赫有名的PredPol公司。虽然IBM、摩托罗拉等企业都涉足预防犯罪系统这个市场,但2012年才建立的PredPol已经覆盖了全美上百个地区的警局,在降低犯罪率上给出了很强势的数据反馈。


PredPol的业务说起来没那么神秘。它的基本逻辑是根据过往犯罪率曲线和不断变化的犯罪事件时间、地点等数据,通过大数据分析算法,来得出哪个街区犯罪事件高发、哪条街道抢劫事件较多、哪个时间段城市比较危险这样的结论。再通过这些结论,来指导警方调整巡逻路线和巡逻时间,把更多警力投入到犯罪率偏高的时间地点上去。



这好像听起来也没什么,任何警员肯定都知道重点巡逻这件事。但以前重点巡逻靠的是个人经验,而且整个警队难以统筹协调。PredPol在6年间扩大了几十倍的使用率,已经在某种程度上说明了这种“犯罪预测”是有效的。


类似方案已经开始从美国拓展到其他国家。比如前几天日本神奈川县警方刚向财政部门申请研究经费,希望能为2020年东京奥运会建立一个预测性治安体系。结合大数据体系和AI分析能力来设定更严密的安全保护机制。


如果觉得已经投入使用的系统不够神,那我们应该看看更前沿的研究。PredPol最早并不是一个警用科技创业项目,而是两名科学家的研究成果。站在PredPol背后的其中一个男人,就是加州大学洛杉矶分校的杰夫·布兰汀汉姆教授,他是今天“预测犯罪”领域的先驱和代表人物。


不久之前,杰夫·布兰汀汉姆团队在名为Partially Generative Neural Networks for Gang Crime Classification的论文中提出了这样一种设想:用深度学习网络来识别帮派犯罪的特征,从而将帮派分子从人群中找出来。


事情到了这里,大概有一点“科幻”的味道了。


在布兰汀汉姆团队的研究中,他们收集了洛杉矶警局2014年到2016年所有关于黑帮犯罪的数据,输入到一个深度学习神经网络中,由算法自动生成对于帮派犯罪的特征理解和行为框架。很多案件中缺失的证据环节也将有AI来主动补完。经过长时间的训练,AI开始掌握了一套对帮派犯罪和黑帮分子的独特理解。回到现实中,当警方把新的嫌犯信息输入进AI系统后,就可以由AI来判断该人是不是参加了帮派组织和帮派犯罪。


                                          布兰汀汉姆团队提出的城市时空犯罪预测模型


研究人员表示,这项研究的未来目标是在缺少很多数据的情况下,依旧能判断嫌疑人是否参加了帮派……可以说是非常激进的技术了。


千万不要以为这项技术仅仅是科学家搞着玩的,人家可是明确拿到美国国防部的资助,目标是以时空博弈论和机器学习技术打击极端主义。在帮派犯罪预测之后,布兰汀汉姆团队还将在具体犯罪种类预测和实时预测犯罪上展开进一步探索。


显然,不管你愿不愿意,AI预测犯罪的“大预言术”已经向现实逼近。而一路伴随他的,是关于隐私、歧视和不靠谱的争议。


要安全还是要隐私:警用AI的原罪博弈


去年,谷歌曾经发长文指出,中国某高校用人脸数据来预测罪犯的研究十分不靠谱。原因是这项研究分析了犯罪分子数据库,从而得出了“某种面部特征的人更容易犯罪”,显然是把两种不相关的信息强行结合到了一起。


这场类似于“相面”的AI闹剧告诉我们这样一种可能:我们太想知道未来,也过分愿意做数据归因。很多看似神奇的结果,可能都是在这两种有问题的心理下被强行得出的。


比如就有批评者指责上文提到的AI帮派犯罪预测。由于其数据来源完全是洛杉矶警察局提供的案件信息和警察得出的结论。那么AI想要判断准确,就必须建立在洛杉矶警察局所有判断都正确的基础上,而对于帮派犯罪来说,这显然不可能。


数据关系之间的牵强,让很多预测类的警用AI从一开始就备受质疑。而其深度学习过程中的黑箱性也是观察家和民众批评的焦点:研究者都不明白AI是怎么预测犯罪的,居然就敢说我有问题?



更无奈的是,技术问题还仅仅是警用AI科技面临的第一重困境而已。向上一层则会撞上非常难办的歧视问题和隐私问题,在道德困境面前,技术会更加束手无策。


比如说前面说过的AI预测重点巡逻地区。这件事在日本还没开始,就已经有媒体担忧这很有可能加大警方对某几个具体区域的巡逻强度,从而让这个区域的居民和店铺产生不满。


在美国,这种不满早就体现出来了。2016年美国公民自由联盟曾经联合十几个人权组织发表声明,认为警方用AI作为巡逻,甚至审讯和逮捕的工具并不恰当。其背后隐藏着警察系统对某些社区甚至某些族裔居民严重的偏见。


也有媒体比较阴谋论地认为,加州很多城市的警方过度热爱搞一下AI预测犯罪的技术,或许含有警方希望在缺少或者没有证据的情况下实施执法。


而关于隐私的争论就更严重了,城市摄像头追逃按说已经是比较“温柔”的技术,但还是有很多声音批评这些能够高高在上认出街上每一个人的技术,其实是对居民隐私的侵犯。“不被认出来”也是隐私权力之一,更何况数据如何应用居民也无法自主。


当警方手里的识别工具越来越强力,犯罪分子的活动空间当然会越来越小,但普通居民感到的隐私压抑感也会随之上升。在AI识别能力爆炸式发展的今天,这可能会是一个无法圆满解释的矛盾。


在的警用AI科技领域,强调公众安全还是强调居民隐私,优先考虑技术的妥善度还是应用效率,处在一场无止境的博弈里。


AI从来都是一把双刃剑,这一点在安全领域尤其明显。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定