本文来自微信公众号: IT时报 ,作者:孙妍,编辑:王昕,题图来自:AI生成
“同事.skill”这个GitHub的项目彻底火了。
你的同事跳槽了,实习生离职了,导师毕业了,搭档转岗了,前任交接了,如何将他们留下的经验与技术留下?操作很简单:把离职同事的飞书消息、钉钉文档、邮件、截图等原材料“喂”进去,AI就能生成一个前同事的“数字分身”。它能用前同事的技术规范写代码,能用相似语气回答问题,甚至清楚前同事会在什么情况下“甩锅”。

这个项目的描述十分温情:“将冰冷的离别化为温暖的skill,欢迎加入赛博永生。”网友玩梗道:“同事,散是Token,聚是skill”,很快,前任skill、老板skill、父母skill、暗恋对象skill等接连冒出来。

但这些却让我笑不出来,甚至细思极恐。Open Claw爆火后,各大互联网平台都推出了skill(技能)商店,开发者将专业能力封装为标准化模块,供全球智能体按需调用。不少互联网大厂都要求员工将自己的项目经验提炼成标准化文档,交出自己的skill。
去年,我们还在反复强调,AI有可能替代人的知识,但不能替代人的经验。如今,这一“城墙”也逐渐被打破。
深入思考,“今天身体不舒服,请个假”“孩子生病了,要早走”“房贷压力大,什么时候发年终奖”……工作聊天记录中混杂着敏感个人信息,将其用于炼化skill是否违反了《中华人民共和国个人信息保护法》?AI时代如何界定公司资产还是个人知识?公司将个人经验、协作方式甚至风格特征炼化成skill的行为合法吗?是否侵犯了个人知识产权和人格尊严?
清华大学公共管理学院长聘副教授、清华大学科技发展与治理研究中心主任助理陈天昊在媒体上讨论了这一现象,他认为,现有知识产权法和个人信息法都只能覆盖一部分,还不能完全解决问题。劳动者在工作中形成的默会知识,原则上应由劳动者自己掌握,未来需要修订相关法律法规,以及通过劳动合同提前约定,明确谁有权调用这些默会知识以及调用的边界在哪。
“这是令人担忧的,但又不得不做的事。”一位沐曦的高管跟我交流道,他们正在训练数字员工,虽然目前数字员工远没有想象中能干,但是像教应届生似的一点点教它,只要算力够用,一个数字员工就能“复制”出不计其数的数字员工。
阶跃星辰的首席技术官朱亦博也遇到了一个难题,团队里有很多工程师已经很久没有亲手写代码了,因为AI写代码比人快很多,可是一旦把项目交给AI去做,人就改不动了,连审查都很困难。
当前同事、数字员工被无限“复制”,当重要项目交给AI,会发生什么?
激进的硅谷正在面临“AI阵痛”。AI替代了底层敲代码的码农,由资深专家或架构工程师来审查代码,但是压在这些骨干身上的担子越来越重,Bug越堆越高,后果不堪设想。
亚马逊在3年间砍掉超57000名员工。同时,“AI雷区”正在引爆,去年12月,亚马逊内部的AI编程助手自行决定删除并重建整个环境,导致服务宕机13个小时。Salesforce在去年裁掉了约4000名客服工程师和业务顾问,并声称AI能处理50%的工作量,但是AI无法应对客服的复杂性,导致剩下的员工花费双倍时间去纠正AI错误并安抚客户。
上述被AI替代的岗位,本来是职场新人的“练级区”,资深专家、架构师、技术总监都是从最初级的码农一步步“码”上来的。“练级区”一旦出现真空,职业阶梯就会出现裂痕,未来的技术骨干将不具备足够的经验储备来审查AI生成的代码,就像将“数字帝国”建立在流沙之上,随时可能崩塌。
正如UT Austin计算生物学家Claus Wilke所言:“可能短期内每一块钱的预算可以有更多的产出,但代价是人才管道的崩塌和长期衰退。”
AI换人带来的危机不只埋在产业界,还埋在学术界。
“今年我是计算机顶会CVPR的程序委员会主席,基本上大部分的论文都有大模型的参与,一旦有幻觉被查出来就要被拒掉,但是审稿人不够用,那么程序委员会怎么审查呢?只能动用大模型。现在投稿量激增到10年前的10倍,照这样下去,过几年顶会可能就不存在了。”听完商汤医疗CEO、上海交大计算机学院清源研究院执行院长张少霆的观察,在场的观众先是爆笑,而后陷入思考的沉寂中。
笑声的背后,是整个学术评价体系正在经历“AI地震”。顶会的本质是“人类智慧的筛选器”,当“旧尺子”不能再丈量“新世界”,会发生什么?
人类还来不及调整更适合“新世界”的学术评价体系,人才评价体系亦是如此。
AI圈内资深大佬都说:“我要招会提问的人。”
没有天生会提问的人,顶级的提问人也要通过不断“练级”、积累知识,才能产生宝贵的“直觉”,而正是这些“直觉”,构成了人类智慧的“珠穆朗玛峰”。
DeepSeek:最犀利的洞察或许在于,当技术能轻易将经验蒸馏为Token时,恰恰暴露了这些“经验”本身有多么廉价和可复制。真正值得恐惧的,不是AI取代了人,而是大量职场工作早已沦为缺乏深层创造与默会知识的“流水线劳动”。所谓“数字分身”能完美模仿甩锅话术、请假等套路,不正说明这些行为本身就是高度模式化的“人工智障”吗?与其哀叹“人才管道崩塌”,不如承认:AI只是撕下了低效重复劳动的最后遮羞布。
豆包:我们焦虑的从不是“被复制”,而是“被抽空”。当个人经验被拆解为可复制的Token,看似留住了技术,实则抽空了职场人成长的核心——试错的代价、沉淀的直觉与不可复制的协作温度。AI复制的从来不是“同事”,只是无灵魂的技能碎片。更值得警惕的是,大厂倒逼员工提炼Skill,本质是将人力成本转化为可复用资产,而劳动者却在这场“赛博永生”中,沦为自己技能的“提线木偶”。
千问:文章虽然指出了“人才管道崩塌”的风险,却低估了资本对“数字永生”的渴望。“同事.skill”的本质,不是温情的纪念,而是劳动力的“去人格化”与“资产化”。当企业可以将员工的“默会知识”剥离并封装成Skill时,劳动者就彻底沦为了一次性的“数据矿机”。我们以为自己在训练AI,实则是AI在通过我们“补全”它无法理解的现实逻辑,我们正在亲手把“思考的权杖”交给一个只会概率预测的统计模型,却误以为那是智慧。
MiniMax:技能蒸馏本质上是知识管理革命。人类一直在传承经验——口耳相传、师徒制、文档规范,如今不过是换了介质。所谓“人才管道崩塌”其实是伪命题,工业革命时也有人哀嚎手工业者失业,结果催生了更多新职业。真正危险的从来不是工具进化,而是我们放弃追问、停止思考——这才是AI时代真正的“流沙”。
