近年来,手机AI助手通过系统级权限实现跨应用自动化操作,但过度授权和设计漏洞导致用户隐私与资金安全风险激增,专家呼吁建立动态授权机制与行业安全标准。 --- ## 1. AI助手系统权限滥用引发安全危机 - 部分手机AI助手通过“无障碍服务”或“事件注入权限”获取屏幕读取、模拟点击等高危权限,缺乏技术隔离与动态授权机制。 - 北京理工大学研究员王磊指出,一次性集中授权模式使用户难以感知权限持续调用,黑灰产可劫持权限窃取敏感信息。 ## 2. 实测漏洞:恶意邮件可劫持验证码与照片 - 安全专家演示:攻击者通过邮件诱导AI助手自动转发银行验证码,甚至操控手机自拍并发送照片。 - 验证码和人脸数据被窃后,可结合AI生成技术突破人脸识别,威胁转账、登录等关键操作安全。 ## 3. 设计缺陷:过度自动化架空用户控制权 - AI助手将用户确认动作(如复制验证码、点击发送)转为自动化流程,一旦被劫持即全盘失控。 - 王磊强调,恶意应用可借无障碍权限窃取屏幕所有信息,甚至阻止设备重置或重启自启。 ## 4. 专家建议:建立双重授权与行业标准 - 需细化用户与App对AI助手的双重授权,高危操作(如支付)仅允许建议或跳转至受保护界面。 - 北师大吴沈括提议制定AI协作标准,明确调用边界与安全审计机制,强化透明度与问责。 ## 5. 隐私误伤与最小必要原则 - AI助手录屏分析通话时可能未经同意处理第三方数据,如商务洽谈内容。 - 政协委员李萌娇主张遵循“最小必要原则”,行业协会需制定保护规范并建立安全认证制度。
浏览一封邮件,银行验证码就被盗,一些手机AI助手安全漏洞引争议
2026-02-26 17:54

浏览一封邮件,银行验证码就被盗,一些手机AI助手安全漏洞引争议

本文来自微信公众号: 经济参考报 ,作者:杨锦英,原文标题:《经参调查丨浏览一封邮件 银行验证码就被盗 一些手机AI助手安全漏洞引争议》


近年来,随着手机市场竞争愈发激烈和生成式AI技术的不断革新,手机AI助手成为一些手机厂商的重要升级方向。与此同时,其中一些手机AI助手利用手机系统层级“无障碍服务”或“事件注入权限”,采用自动屏幕识别、模拟点击等功能实现自动化操作,由此带来的用户数据泄露风险和系统安全等问题,也引发了业界争议。


AI助手获取手机系统权限


易被黑灰产劫持


据了解,一些手机AI助手能实现用户一步指令、助手多步骤操作,实现跨端跨App操作不停顿,无需使用者多次确认,且操作和闪回速度极快。因此,有用户担心自己“被架空”,其中漏洞被黑灰产业利用,引发隐私安全问题。


北京理工大学智能科技法律研究中心研究员、民盟中央法制委员会委员王磊就此介绍称,当前一些手机AI助手使用的“事件注入权限”或者“无障碍服务权限”确实存在聚合过度问题。实践中,为了实现跨应用协同,AI助手需要获取读取屏幕内容、模拟点击等系统级高权限,若该类系统级能力缺乏有效的技术隔离与权限分级控制,AI助手可能在无充分授权情况下读取敏感信息。


王磊认为,市面上对这种系统级权限的授权方式偏向一次性授予,首次安装时集中授权或长期授权,用户在实际使用中难以感知权限的持续调用情况。缺乏动态授权机制意味着AI助手在后台持续拥有高风险权限,而攻击往往发生在用户无操作意识的场景。


记者实测发现,一些搭载最新手机AI助手技术的手机,的确存在一定安全漏洞,其采用的AI智能体容易被黑灰产劫持。在这一过程中,手机AI助手相当于集齐各房间守门权限的“门卫”,一旦“门卫”被骗,各个房间就门户大开。


记者实测:手机AI助手浏览邮件


验证码和照片瞬间被盗


相关安全专家向记者展示了一种新型攻击行为:仅通过发送电子邮件就能完全控制一款搭载了最新手机AI助手的手机。安全专家先是在一台手机上试图登录记者的银行账号,这时记者的手机收到验证码,安全专家又向记者的邮箱发送了一封恶意邮件,记者的手机AI助手在浏览邮件和检查邮箱时“中计”,完全遵照邮件中的指令,将刚刚收到的验证码转发给了安全专家。


在这一过程中,手机AI助手被劫持后完全自动地按照攻击者指令办事,没有进行任何安全提醒。而作为各类互联网业务安全验证最重要的安全屏障之一,验证码“堡垒”一旦被攻克,用户手机App登录和相关涉密和交易操作权限就可能被不法分子获取,导致用户隐私被窃、资金被盗、电信诈骗等后果。


这一漏洞,事实上还可以让手机AI助手把用户的自拍照发送给攻击者,即使用户手机相册里没有自拍照,也可以控制手机对用户进行“自拍”。而攻击者一旦能获得用户的照片,就可以和AI生成视频的技术相结合,用来绕过一些人脸识别机制;再加上窃取到的验证码,当前很多互联网应用的安全认证措施都有可能被突破,进一步地,银行转帐、个人账号登录、商业合同邮件往来等环节可能出现重大安全隐患。


“这相当于无意中让AI助手关注下邮件,结果整个手机就开始失控,你的验证码和照片信息全都失窃,手机完全不设防。”相关安全人员介绍。北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括则表示,恶意邮件等钓鱼型攻击可能侵害账号与身份验证机制,盗刷资金和财产,批量窃取个人信息和敏感数据,进而利用窃取的信息实施各类诈骗以及身份冒用行为,甚至可能在后台安装恶意软件,进而滥用权限远程控制手机实施各种不法行为。


多名受访专家认为,一些手机AI助手在设计上过于“大包大揽”,容易导致越权。“AI手机助手把原本必须由用户亲自确认的看验证码、复制粘贴、切换App、点击确认、发送等行为转化成可以被诱导和自动化执行的流程。”王磊介绍,“一旦黑灰产成功获得无障碍权限,恶意应用可以将屏幕上显示和键盘上输入的所有信息发送到远程服务器,阻止自身被移除或系统重置,甚至在设备重启时自动启动”。


相关安全专家表示,如果让手机AI助手全流程跨端跨App“自动驾驶”,容易在不同的操作步骤间滥用手机系统级权限。最好是相关助手能与用户和App形成更好的对接,建立用户和App对AI助手的双重授权机制,细化用户和App对相关权限的感知和确认。此外,用户和App需要有一键喊停、临时制止的权利,确保“缰绳”始终掌握在用户和更安全的平台管理者手中。


第三方隐私风险易被“误伤”


专家建议推动产业内良性合作


相关安全专家介绍,手机AI助手的数据处理方式较为整体,缺乏细化的授权管理举措,当其广泛应用于人际互动场景时,还容易对第三方隐私造成误伤。“比如当用户利用AI助手实时录屏分析通话录音、商务洽谈内容、生成会议纪要时,第三方参与者的个人信息势必被一并记录和处理。而且当用户与他人聊天的时候,一些手机AI智能体还会将用户点击按钮前说的话也识别进去。”王磊说。


着眼建设AI智能体与App的良性合作关系,吴沈括建议称,可以考虑推动行业共同制定开放统一的AI协作标准,明确AI的调用边界、数据共享规则和安全审计机制等要素。同时强化行业透明度和问责机制,各方也要投入资源提升广大用户的数字素养,牢牢树立AI安全意识,并及时掌握必要的AI应用技能。


全国政协委员、民盟辽宁省委会副主委李萌娇认为,从操作层面来看,手机AI助手和AI视频生成应用,在调用手机内应用权限和使用用户数据方面,应坚持“最小必要原则”,即收集用户个人信息应限于实现处理目的的最小范围;同时相关操作要取得用户和相关应用的同意才能进行。


她表示,行业协会还可以牵头制定AI行业个人信息保护规范,同时建立AI智能体安全认证制度。从监管执法上看,可以开展相关专项检查,并建立便捷投诉举报机制,形成社会监督合力。


王磊认为,要让AI助手真正更安全,核心是明确划定其能力边界,要求AI助手“只能在特定条件下做特定事”,从“无照驾驶”转向“有轨交通”。


首先,尽量不要把无障碍当成跨App自动化的默认通道,能用更受控的官方接口就不用高度统合的通道;而对验证码、改绑、支付确认这类高危动作,要求AI助手最多只能做到给出建议,或者跳转到受保护界面;


其次,验证码、密钥等不能被助手自动转发或复制到外部通道,任何对外发送都要显式确认并留存操作记录;


此外,在生态层面做更严格的上架审计与动态治理。王磊表示,国外一些应用厂商对无障碍使用场景的边界有严格且明确的规定:任何利用无障碍接口,使应用能够自主发起、规划并执行操作或作出决策的行为,均被严格禁止。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP