AI人脸识别技术的一次错误匹配,导致美国女子Angela Lipps被错误监禁160天,人生几近归零。这并非孤例,文章揭示了AI辅助执法中,因技术缺陷和人类过度依赖导致的冤案频发,警示我们工具越强大,使用者的责任越关键。 ## 1. 无辜者的炼狱:Angela Lipps的160天冤狱 - **AI误判引发荒诞逮捕**:2025年7月,美国田纳西州的Angela Lipps因AI面部识别系统错误匹配,被指控参与了1900公里外北达科他州的一起银行诈骗案,尽管她从未去过该州。 - **程序漏洞与漫长煎熬**:作为“跨州逃犯”,她无法保释,在田纳西州当地监狱被关押108天,直到律师用5分钟通过银行记录(显示案发时她在本地买披萨)证明了她的清白,所有指控于12月24日撤销。 - **人生几近归零的后果**:50岁生日在狱中度过,出狱后失去住所、汽车、个人物品乃至宠物,人际关系破裂,经济崩溃,幸得律师和公益组织帮助及8万美元众筹款才得以重新开始。 ## 2. 系统性风险:AI冤案并非孤例 - **全美乃至全球的相似悲剧**:此类事件已发生十多次,如2020年的Robert Williams被误拘30小时,Chris Gatlin因模糊监控被AI误判,竟被关押17个月,成为羁押时间最长的无辜者。 - **离谱的误判案例凸显系统失效**:2023年,怀孕八个月的Porcha Woodruff被控劫车;2024年,俄罗斯科学家Alexander Tsvetkov因AI认为其与20多年前的杀人犯画像有55%相似度,加上污点证人伪证,被关押10个月。 ## 3. 祸起萧墙:技术缺陷与人类的“自动化偏见” - **强大但不完美的AI工具**:涉事的Clearview AI拥有数百亿图片数据库,被美国超3000个执法机构使用,但其准确率受画质、角度、遮挡等因素影响,存在固有误差。 - **人类执法者的致命“偷懒”**:警方陷入“自动化偏见心理”,过度信任AI结果,常跳过基本调查步骤(如忽略身高差异、不在场证明),与AI错误形成“卧龙凤雏”组合技,直接制造冤案。 - **禁令难阻使用惯性**:尽管部分地区设立“防火线”要求独立证据或禁用AI,但警方因AI破案高效(如2023年使用超百万次搜索)而“玩上瘾”,甚至偷着用,导致风险持续。 ## 4. 未来警示:当AI越强,人越不能偷懒 - **风险从人脸扩展到物品识别**:案例显示,AI甚至将薯片包装袋误判为“潜在枪支”,引发大规模警方响应,表明误判范围在扩大。 - **核心矛盾在于工具与使用者的关系**:文章强调,AI是工具,其风险根源在于使用者的能力和目的;AI越强大,人类越需要保持警惕和勤勉,而非盲目依赖,否则“AI让人坐牢”将从段子变成常态。
被AI诬陷入狱160天,美国大姐跌入斩杀线
2026-04-25 22:08

被AI诬陷入狱160天,美国大姐跌入斩杀线

本文来自微信公众号: 酷玩实验室 ,作者:酷玩实验室


如果AI突然说你有罪,并且所有人都无脑相信它的判断,你应该如何自证清白?


这听着像是电影《少数派报告》里预知犯罪然后被嫁祸的桥段,但抽象的是,现实中已经上演了一个更潦草的版本:


AI认错了罪犯,导致一位无辜的大姐坐牢半年,人生差点归零。


一、什么叫警方逮捕到了“闪电侠”?


美国田纳西州的Angela Lipps就是这位倒霉的大姐。2025年7月,一队全副武装的警察突然闯进了她平淡的生活,并且用枪指着她,告诉她被逮捕了。


当时她有点懵,毕竟根本不知道自己犯了什么错。警方则说她涉嫌参与了北达科他州的一起银行诈骗案,瞅这架势像是证据确凿,并且对面开了5星通缉,但她听完这个理由却怔在了原地:


“可我,这辈子都没有去过那个州啊。”


从地图上看,美国田纳西州与北达科他州确实有段距离,而将她与嫌疑人联系起来的正是AI。


警方抓她的时候自动屏蔽了她的辩解,具体的案件细节还是进了监狱才知道的。北达科他州法戈市的警方在调查一起诈骗案件,嫌疑人用假军人身份从银行骗走了几万美元,而警方的调查方式就是先查监控,再问AI,最后抓人。


你可能以为是用AI炼化了福尔摩斯,然后化身神探通过严密的逻辑推理破案,但其实没那么“复杂”。警方使用AI系统对监控录像的截图进行了面部识别,然后在图库里筛选嫌疑人。


结果AI这次拉了坨大的,错误匹配到了Angela Lipps的照片。接着这份情报就被转到了正在办案的警局,工作人员拉了一坨更大的,在手动查了她的驾照和社交媒体后,觉得两者的面部特征、身材和发型相似,接着就确定她是嫌疑人了。


大姐听完相当崩溃,没再多查查其他线索,万一撞脸呢?但更崩溃的还在后面,那就是一套连招下来,她没机会证明自己的清白。


根据当地的程序,她并没有直接被抓去北达科他州接受进一步调查,而是在田纳西州当地的监狱等着。因为被认定成了“跨州逃犯”,她没有保释也没有机会得到警方的盘问,就这么莫名其妙地关押了108天,从7月入狱一直坐牢到10月底,很难想象这期间她有多绝望。


Angela Lipps一直熬到10月30日,总算是被警察带出监狱准备转往北达科他州了,当时她面临多项指控,出行期间她不仅要戴着手铐,腰上还绑着链子,在她看来穿过机场时堪比游街示众。


而这其实是她人生中第一次坐飞机。


让她没想到的是,到了北达科他州后,还要继续等。直到12月她才有正规的机会解释这件事,她的律师直接调用了她的银行记录对比时间,案发时她正在1900公里外的田纳西州买披萨,这意味着除非她是“闪电侠”,否则没法跨时空作案。


全程只用了5分钟,律师就帮她说清楚了这件事。


到了12月24号,她的指控总算被撤销了,但她根本乐不出来,因为此时“斩杀线”已经来到脚脖子了。


Angela Lipps50岁的生日都是在监狱里过的,入狱期间不让戴假牙,她吃得都是垃圾食品,精神压力也大,体重暴增。她进监狱前穿的是夏装,出来已经是冬天,连个厚外套都没有,保暖都成问题,更别说回家了。当时警方也没有给点路费,出狱后相当于被困在北达科他州,也困在了被AI冤枉的那一天。


不过好在还是有好心人拉了她一把。


她的律师帮她安排了酒店暂住,还给她弄了点吃的熬过了最艰难的时刻,当地的非营利组织对她进行了救援,把她送回了田纳西州的家。


但回家后,重新开始生活的难度也是地狱级的。在监狱这段时间她的经济爆炸了,租的房子没了,家里的狗子没了,甚至她的车和车里存放的东西都没了。她的个人物品当时被暂存到仓库,但后来由于付不起租金,导致一切生活用品都跟着清空。甚至人际关系也岌岌可危,因为邻居都看到她被抓走还“消失”了半年,都以为她真犯了事儿。


同时,她这段离谱的经历很快就传遍了网络,也引起了大家的疯狂吐槽。例如很多人表示无语,在美国一些人可以“0元购”,但只要你动了资本家的银行,就可以光速被捕,哪怕不是你干的。


因为事情闹得太大,她的绝境再次迎来了转机,得到了更多的帮助,目前她已经众筹了8万美元的善款,完全可以用于重新开始经营生活了。


不过现在网友最大的期待是她能找一个律师天团,然后告他们一个天翻地覆,说不定能赢得官司获得另一笔赔偿。


因为这不是警方的偶然失误,在此之前已经出现了批量的冤案,有些人的经历比她还要惨。



二、AI“失误”带来的惊悚科幻时刻


Angela Lipps的经历其实已经在不同地区上演过十多次了,甚至其他国家也发生过。


例如Robert Williams就是这类事件中最早的受害者之一,2020年,警方在他的妻女面前逮捕了他,被拘留了30个小时,然而他比真正的犯人高了20厘米。


另一位Chris Gatlin也是顶级倒霉蛋,AI根据模糊的监控画面,把他匹配成了地铁打人案的潜在嫌疑人,然后就这样一口气被关了17个月,成了目前羁押时间最长的无辜人员。离谱的是,直到最后办案人员才发现还有一份执法记录仪可以作为关键证据,但是里面的嫌疑人和他一点都对不上。



2023年的Porcha Woodruff也经历了同样的情况,警察指控她涉嫌犯有劫车罪。她听完当场就气笑了,以为警方在开玩笑,因为她当时怀孕八个月,看起来一点也不具备动手的条件。不过她还是被带走关押了十来个小时,后来她打官司还败诉了。


今年英国一位名叫Alvi Choudhury的小伙也因为类似的情况被抓,说他涉嫌“入室盗窃”,不过从证据上看是“隔空”进行的,这一幕在电影里亦有记载。AI识别出来的是他2021年被拘留时候的照片,警方看到真人后也笑出声了,因为他看起来比嫌疑人起码老了10岁。


2022年印度商人Praveen Kumar在去瑞士的路上被抓了,当时他在阿布扎比转机,结果被AI匹配成了一名通缉犯。当地给他好顿审问,最后发现确实不是嫌疑人,就给他遣返回了印度,结果他在印度机场又连续被扣留了两次。


这类事件中,最离谱的应该是俄罗斯科学家Alexander Tsvetkov的遭遇,AI说他长得像杀人犯,然后他被关押了10个月。


这位科学家可以说是遭遇了AI与人类的双重诬陷。2023年2月他结束科研考察返回俄罗斯,结果刚下飞机就被抓。原因是AI显示,他跟二十多年前一桩连环杀人案的嫌疑人的画像有55%的相似度,同时这起案件里还有一位污点证人,他为了减刑故意做伪证指认他。要命的是警方也没仔细调查,就这么抓人了。


被关押后,他一开始以为是小误会,结果调查迟迟没法结束,他在巨大的精神压力与健康问题影响下一度被迫认罪,随后又翻供。好在妻子与研究所同事始终为他奔走,找了无数资料证明案发当年他正在外地考察。随着媒体的报道,案件也被大众广泛讨论,这事儿到了12月才出现转机,指控到了2024年2月才正式撤销。


而以上这类案件随着AI的进化发生得越来越频繁,看起来更像是AI在“指挥”,而部分人却变成了执行的机器。


三、“AI说了算”的职业病


之所以会有“角色互换”的抽象感觉,是因为AI和人都会掉链子,再强的AI也会犯错,人类更是会随时“偷懒”。


就拿美国的Clearview AI系统来说,把文章开头的大姐送进监狱的正是它,但它可不是什么野鸡软件。Clearview AI号称拥有全球最大的图片数据库,顶着多国罚款疯狂抓取数百亿张图片,美国有超过3000个执法机构在使用,去年还跟ICE签了一笔920万美元的合同。


但简单来说,Clearview AI算是一款“人脸搜索引擎”,使用的时候就是上传一张图,然后在它的数据库匹配,再吐出一堆相似的图片,最后到底是不是你要找的人,还要自己判断。



虽然这些年AI的进步神速,但“准确率”依然充满争议,毕竟实验测试的数据和现实中使用图片搜索时的情况总会有各种差别。


例如大多数时候,警方找到的监控图片画质像座机拍的,再加上什么诡异灯光、刁钻角度、脸上有遮挡等等因素,识别难度确实不小,图库里也可能是老图,匹配的结果或许就是碰巧两个人长得像。


而这些误差应用到具体的人身上,那自然就要遭罪了。


这是乌鸦还是猫?


按理说如果只是AI偶尔犯病,那还有得救,因为这些只是“线索”,后面的“结论”还需要人来把关,但很多时候人比AI更“离谱”。


其实几年前就有人吐槽美国警方被AI牵着鼻子走,陷入了“自动化偏见心理”,也就是比较依赖甚至过度信任AI给出的结果。只要AI说这俩人匹配,人类就信了,身高对不上不是我的问题,不在场证明虽然有但我只负责抓人,什么其他证据统统跟监狱说去吧,跳过基本调查步骤的同时也让别人“跳过人生”。


其实人类自己对AI的缺点是门儿清的,美国警方在赔了不少钱后,很多地区也设立了“防火线”,像是破案时除了AI线索还必须要有独立证据,甚至有些地方直接禁用这方面的AI技术破案。


但这些约束,架不住AI实在太好用了。虽然有概率翻车,但显然成功的次数更多。有时候警方费尽心思找到的线索,往往就是一张“门锁”级别的监控照片,很大概率就想用AI试试运气。早在2023年就有报道说美国警方用Clearview AI试了上百万次搜索,甚至后来明面上不让用就偷着用,反正用了也可以说没用过,这个软件不让用就换一个,本地被禁了就托别的机构帮忙用一下,纯纯玩上瘾了。


所以,一旦AI先给出一条不靠谱的线索,接着人类再偷懒跳过调查,卧龙凤雏打出组合技,冤案自然就来了。


像是巴西的Smart Sampa系统这两年也在面对相似的问题。2024年,巴西的圣保罗上线了拉美最大的AI人脸识别警务系统,据说接入了4万个摄像头。


好消息是效果确实猛,几年来有近四千罪犯当场被捕,还抓回三千多名逃犯,抢劫案在2025年下降了近15%,堪称“抓贼流水线”。



坏消息是,至少59人被认错。


其中不乏抽象案例,例如有精神病人在医院被当成罪犯带走了,后来发现他的逮捕令过期又给放了。还有一个老哥7个月内被抓4次,AI把他跟一个在逃杀人犯弄混了。每次都是被抓回警局后立刻被放出来,过了几天又来一次,他人都已经吓麻了。


以前聊什么工作不能被AI替代的时候,都说AI不能替人坐牢,但我们从没想到过这个问题的另一面,它现在能让人“坐牢”。


这句话放在以前是段子,但现在看已经快不是新闻了。其实不光是人脸识别,AI在物品识别这块儿偶尔也能整出狠活儿。


去年美国一所高中的AI安保系统,把一个小伙手里的薯片包装识别成了“潜在枪支”,直接触发警报。来了8辆警车,瞬间就把小伙给控制了,搜完身才在垃圾桶翻出零食袋子,场面一度非常尴尬,小伙都以为自己活不成了。


谁能想到AI越强,有的人用它捅出来的娄子也越大。以前AI笨,看图认错了,让全网笑话半天。现在AI强了,认错一个人,让人类蹲上半年牢。未来别再搞出什么AI审判、AI律师,新能源法庭这类抽象的操作。说到底AI本身只是一种工具,关键还是看使用者的能力与目的,或者说AI越强,其实人越不能偷懒。


总之,开始多少有点怀念那个笨笨的AI了。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定