对话青少年研究专家孙宏艳:多数家长还没意识到AI对孩子的风险
2026-03-16 18:18

对话青少年研究专家孙宏艳:多数家长还没意识到AI对孩子的风险

本文来自微信公众号: 经济观察报 ,作者:任晓宁


孙宏艳去年做了一份调查,只有三成家庭给孩子制定了使用AI的规则。家庭作为第一道防线,目前在孩子使用AI的管理、风险认知和引导方面普遍存在缺位。



2026年,我国AI用户规模已达6亿,其中不乏中小学生。不同于游戏、短视频等App,当前绝大多数AI产品还没有完善的未成年人保护模式,存在隐私泄露、社交异化、思考惰性等一系列隐患。


但多数家长对此尚未察觉。中国青少年研究中心研究员孙宏艳去年做了一份调查,只有三成家庭给孩子制定了使用AI的规则。家庭作为第一道防线,目前在孩子使用AI的管理、风险认知和引导方面普遍存在缺位。


孙宏艳研究青少年话题20多年,她专门针对中小学生使用生成式AI的情况进行了一次全国性摸底调研,覆盖全国七省(市)的8563名学生。3月11日,孙宏艳在接受经济观察报采访时呼吁,家长和老师应重视AI对中小学生的影响,也希望AI公司开发未成年模式,相关部门进一步加强监管。


|对话|


经济观察报:你去年为什么做中小学生使用AI的调查?


孙宏艳:主要有两个原因。一是在2025年春节后,DeepSeek这样的生成式AI迅速火爆,我亲戚的孩子也开始用了,我预感到AI会很快下沉到未成年人中,需要进行研究。二是当时北京等地已计划在中小学校开设AI通识课。我认为,有效教育的前提是充分了解,有必要先摸清中小学生使用AI的基本状况和潜在问题,于是我们进行了一次问卷调查。


经济观察报:调查结果和你的预期出入大吗?


孙宏艳:有意料之中,也有意料之外。意料之中的是AI的确在中小学生群体下沉速度很快。我们常年做青少年的研究,知道青少年对新事物接纳度高,调查显示超过六成(61.7%)学生使用过AI,并且他们对AI的评价比较积极,很认同AI。


意料之外的主要是伦理风险。比如,有近半数(46.4%)学生说“心里有烦恼只想去问AI”;超两成(21.5%)学生“想和AI聊天,不想和真人聊天”。这两个数字超出了我的预料,我之前想到会有孩子只想和AI聊天,但没想到比例这么高。


还有近两成(19.7%)学生认为用AI代写作业不算作弊,这一点也超出了我的预料。


经济观察报:这些意料之外能说明什么?


孙宏艳:生成式AI对中小学生是双刃剑。好的一面是能辅助学习、扩展视野,尤其给农村孩子带来了一些教育资源。但风险也很具体:一是AI依赖和思考惰性,调查显示超过20%的学生只想依赖AI、不想自己思考,超过一成的学生完全相信AI生成的内容;二是社交退缩或异化,用虚拟陪伴替代真实交往,比如有的大学生说我只想交个AI男朋友,这都是AI带来的比较现实的问题;三是影响自我认知和价值观,近三成学生会因为AI的评价影响对自己和对未来的看法。这些是需要我们关注的风险隐患。


经济观察报:从调研结果看,AI和网络、短视频、游戏对青少年的影响有什么不一样吗?差别大吗?


孙宏艳:有一些共同点,像亲子关系、师生关系这些因素,会显著影响学生使用AI的行为,这和网络、短视频、游戏的影响类似。


但AI也带来了新挑战。最大不同在于AI的生成和拟人特性。它能生成综合答案、进行多轮拟人对话,提供情感陪伴。这可能会让它比游戏更有吸引力,孩子一个人就能和AI进行各种创作和深度交流,获得一种“自己很强大”的满足感。AI带来的情感依赖、社交替代、对思考能力的侵蚀等伦理问题,是过去网络时代没有过的新问题。


联合国教科文组织早在1972年,就在富尔报告中谈到了要警惕技术导致的非人化现象,AI的情感陪伴与社交替代,可能加剧报告所警示的“人际疏离”和“自我认知模糊”。


经济观察报:家长们意识到这些问题了吗?


孙宏艳:多数家长意识还不太够。我们调查发现,只有大约三成(32.1%)的家庭给孩子制定了使用AI的规则。一些家长的态度容易走极端,要么完全支持、疏于管理,要么直接禁止。很多家长会担心孩子用AI抄作业,但对AI可能带来的隐私泄露、社交退缩、情感过度依赖这些更深层的风险,认识相对比较少。家庭作为第一道防线,目前的管理和引导是有缺位的。


经济观察报:AI公司可以做什么?需要设置未成年人保护模式吗?


孙宏艳:很需要。据我观察,目前开发了“未成年人模式”的AI产品并不多,这是个难点和堵点。我认为平台公司应该从儿童友好的视角设计产品,简单说,你愿意让自己家孩子使用的产品,就是儿童友好产品。


AI公司具体应该做这几件事:在内容和功能管理上,区分用户年龄,对AI输出的内容做适配和过滤,同时在使用时长、消费、创作等内容上设限制;在隐私保护上,应该严格限制收集孩子的敏感信息,比如照片、地理位置,对未成年人的交互数据要加密等等;在价值观引导方面,应该在未成年人模式里加入AI素养教育内容,比如做风险提示,引导健康、理性的使用方式。


经济观察报:如果你给家长、学校、政府、AI公司各提一个他们目前能做到的事,你会建议他们做什么?


孙宏艳:家长可以尽早和孩子一起制定“家庭AI使用公约”,并坚持执行。别等到孩子沉迷AI了或出问题了再管,那就晚了。


学校的主要职责是开展AI素养教育,不只教学生怎么用,更要教他们认清风险和边界,知道什么时候能用、什么时候不能用,哪些功能能用,哪些功能不能用等等。


AI公司要建立和完善真正的“未成年人保护模式”。在技术设计之初就把儿童友好的理念融入进去,在内容、隐私、时长、消费等方面设置必要的保护门槛。


政府要制定并细化针对生成式AI的未成年人保护监管标准和规范,明确企业在内容安全、隐私保护、防沉迷等方面的责任,推动行业形成统一规范。


经济观察报:目前已经暴露的问题,能得到解决吗?


孙宏艳:我认为是能够解决的。我研究青少年这么多年,回头看看,从电视到互联网,每一种新媒介出来,我们都担心过对孩子的影响。但通过不断加强社会教育、行业规范和家庭引导,我们最终都找到了和它们健康共处的方法。比如现在,我们甚至会对孩子说“少上会儿网,去看看电视吧”。


生成式AI不是不可控的洪水猛兽,关键是我们得重视并且马上行动。只要家长、学校、企业和政府各自做好该做的事,形成引导合力,完全能让技术被善用,把风险控制住,让AI真正为孩子的成长服务。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定