本文来自微信公众号: 集智俱乐部 ,作者:周骁俊
人类大脑的一项非凡能力是能够从感知—运动经验中形成更抽象的概念表征,并在脱离直接感官输入的情况下灵活应用。然而,这种能力背后的计算机制仍未被清晰理解。本文提出了一种双模块神经网络框架——CATS Net,用以弥合这一空白。该模型由概念抽象模块和任务求解模块构成。前者提取低维概念表示,后者在概念的层级门控下完成视觉判断任务。系统基于概念表征形成可迁移的语义结构,并可通过“概念通信”实现跨网络知识传递。模型与大脑的拟合分析表明,其概念空间与人类语义模型及腹侧视觉皮层的表征结构一致。同时,其门控机制对应语义控制网络。该工作提供了一个统一的计算框架,用于理解人类概念认知,并推动类人概念智能系统的发展。
关键词:概念形成(Concept formation)、概念理解(Concept understanding)、层级门控(Hierarchical gating)、语义结构(Semantic structure)、知识迁移(Knowledge transfer)、脑-模型对齐(Model–brain alignment)

论文题目:A neural network for modeling human concept formation,understanding and communication
论文链接:https://www.nature.com/articles/s43588-026-00956-4
发表时间:2026年3月24日
论文来源:Nature Computational Science
为什么“概念”是智能的核心问题
在人类认知中,最关键的一步并不是“看到”,而是“理解”。语言学家Saussure早已指出,人类能够用符号指代不在场的对象,这种“脱离当下”的能力,使我们可以规划未来、想象过去、进行抽象推理。
从计算角度看,这意味着大脑完成了两件事:一是将高维感知经验压缩为低维概念空间;二是在需要时重新激活这些概念,并将其组合用于任务。前者是概念形成(formation),后者是概念理解(understanding)。
但现有AI体系在这两点上是割裂的。一类模型(如CNN、ViT)擅长表征学习,但知识被“埋”在参数中,难以抽取与迁移;另一类模型(如多模态大模型)依赖已有语言符号,却无法从感知经验中自主形成概念。因此,核心问题不是“如何建模视觉”,而是:能否构建一个系统,同时完成概念的形成、理解与传递?

图1.A.概念的核心特征是将高维感知-运动信息压缩成低维表示,并能够没有直接输入的情况下重新激活。B.概念形成与理解的计算框架:通过低维概念向量压缩经验,并在任务中重新调用以驱动行为。C.CATS Net的整体架构:概念抽象(CA)模块生成控制信号,对任务求解(TS)模块进行层级调控,实现“概念驱动”的感知判断。
CATS Net:把“概念”从参数中解耦出来
本文提出的CATS Net,本质是一个结构极简但思想关键的设计:用两个模块,将“概念”显式建模出来。概念抽象(CA)模块接收一个低维向量(concept vector),输出控制信号;任务求解(TS)模块处理感知输入,但其计算过程会被概念动态调制。
关键机制是“门控”(gating):概念不是标签,而是直接改变网络内部计算路径的控制变量。这意味着,同一张图像,在不同概念输入下,会激活完全不同的功能。例如,当输入“apple”概念时,网络会判断图像是否属于苹果类别;而输入“vehicle”,同一输入将被重新解释。
从数据中“长出”概念,而不是预定义
模型的训练过程同样体现了这一思想,训练分为两个交替阶段:一阶段学习网络参数;另一阶段学习概念向量。这种分离带来一个关键结果:概念空间本身是可学习的,而不是预设的。

图2.A.涌现的20维概念空间从训练前的“任意向量空间”,变成了“具有语义结构和功能选择性的概念坐标系”。B.训练概念空间(蓝色)和任务求解参数空间(紫色)中功能熵的概率密度分布。
实验表明,固定的概念空间(如Word2Vec或one-hot)都会显著降低性能,而可学习的低维空间不仅更高效,还能形成结构化语义。更重要的是,这些概念具有“功能特异性”:每个概念向量对应一类任务功能,而不是简单标签。通过熵分析(functional entropy),作者发现训练后的概念空间明显比随机空间更有结构,表现为低熵、强选择性。这说明:概念不是人为定义的类别,而是从任务中自然涌现的低维结构。
概念空间为什么“像人类”
一个关键问题是:模型学到的概念,是否真的具有认知意义?作者通过表征相似性分析(RSA)发现,模型的概念空间与两类人类语义模型显著相关:
基于神经科学的语义维度(Binder65),
基于行为相似性的人类判断(SPOSE49)。
这种一致性说明,即使模型只接受视觉分类训练,它仍然自发形成了类似人类的语义组织结构。进一步分析发现,这些概念还能聚类出“动物、家具、交通工具”等语义群落,甚至捕捉颜色、形状、共现关系等多维特征。换句话说:语义结构不是语言专属,而是可以从感知任务中涌现。
真正关键的一步:概念可以“沟通”
最有意思的实验,是“概念通信”。作者构建了teacher–student体系:teacher学习全部类别,student刻意缺失一个类别(如apple)。两个网络独立训练后,各自形成不同的概念空间。然后,通过一个“翻译模块”,将teacher的概念映射到student空间。结果是:student可以仅凭传递过来的概念向量,识别从未见过的类别,准确率远高于随机水平。

图3.概念通信流程。Phase 1:teacher与student独立学习概念空间(student缺失一类)。Phase 2:通过翻译模块对齐两者概念结构。Phase 3:传递teacher的概念向量,student在未见类别上完成判断任务。
这意味着:知识不再依赖参数复制,而可以通过低维概念进行传递。这与人类语言的本质高度一致——我们用极低维的符号,传递复杂经验。
与真实大脑的对应关系
模型不仅在行为上有效,在神经层面也具有对应性。作者使用fMRI数据发现:概念层(concept layer)与腹侧视觉皮层(VOTC)高度相关,说明其编码类似人类的对象表征;而CA模块则与语义控制网络显著相关,表明其与之对应,负责选择与调制语义信息。这种分工与认知神经科学理论高度一致:感知系统负责表征,控制系统负责调度。

图4.模型与人脑一致性(ROI-level RSA)。左:concept layer与VOTC显著相关。右:CA1层与semantic-control network的相关性强于multiple-demand network,体现功能特异性。
进一步,多个独立训练的模型会收敛到相似的概念结构,而这些“高一致性模型”与人脑的对应关系更强。这暗示一个重要结论:概念结构可能是由计算约束决定的“最优解”。
结语与展望:从AI模型到认知理论的转变
这项工作的真正价值,不在于提出一个更强的模型,而在于改变问题的提法:
从“如何预测”转向“如何形成概念”
从“参数学习”转向“结构学习”
从“单体模型”转向“可沟通的智能体”。
它给出一个统一视角:概念=高维经验的压缩表示+可调度的计算规则+可通信的语义接口。这不仅解释了人类认知的核心机制,也为AI提供了一条新的路径:不是更大的模型,而是更结构化的表示。
