本文来自微信公众号: 虹线 ,作者:评论尸,原文标题:《一个新的 AI 记忆层概念:哈勃半径》
最近几个月,我给自己的AI Agent配了三层上下文记忆。
第一层是「我知道的」。第二层是「我应该知道的」。第三层是「我可能知道的」。这个第三层,我叫它「哈勃半径」。
AI不应该只知道我已经写下来的东西,也不应该一遇到问题就冲进公共搜索引擎。它应该先知道一件事:在我的世界里,哪些东西本来就有可能被我看见。
很多人在谈AI记忆时,只谈两个问题。一个是AI能不能记住我,另一个是AI能不能查资料。前者是个性化,后者是搜索。但这两个东西中间缺了一块。
AI还需要知道:我平时从哪里感受世界。
这就是哈勃半径。
我们先从前两层记忆开始讲起。
一、RAG与LLM Wiki:先让AI知道我是谁、我如何思考
先说第一层:我知道的。
我给Notion AI接了一套切片式RAG系统。它只存事实。每条记忆都很短,通常不超过200字。每个片段有关键词、向量、关系和时效性,存放在一个Notion数据库里。它会从我的文章、日记、Dayflow、Looki、方案、聊天记录里提取东西。
Dayflow是分钟级的Mac使用记录。Looki是一个可穿戴设备,会隔几分钟记录一小段视频,再通过API抽取文字总结。日记是我每天对自己状态的复盘。
我每天凌晨5点会跑一个自动化流程,调用Notion AI的技能,把这些原始数据切成一条条记忆碎片。它们共同构成一个事实记忆层:我最近做了什么,想了什么,困在什么问题里,哪些项目正在推进,哪些判断已经发生过。

这层记忆的效果非常明显。
我和Notion AI聊天时,它通过一次Function Call,基本就能知道我最近在做什么。它知道我这几天在调Hermes Agent,知道我在做中美AI叙事研究,知道我搭了兴趣晨报和晚报,也知道我一边依赖Notion的平台优势,一边对这种依赖保持警惕。
这很像一个熟悉你个人助理。
它不一定懂你完整的知识结构,但它知道你最近说过什么、做过什么、立过什么flag、刚刚踩过什么坑。AI从一个通用模型,变成了一个「在你身边待过一阵子的人」。
但这还不够。
事实层的问题也很明显:它只记录已经发生过的事情。它知道我真正知道什么,却不知道那些还没有被我整理成事实、没有写进日记、没有主动问过的问题。
它是我的影子,但不具备我的思考。
所以有了第二层:我应该知道的。
这一层是LLM Wiki。LLM Wiki是OpenAI联合创始人Andrej Karpathy提出的概念,可以简单理解成一个由AI维护的Wiki。它不是让内容以原始形态散落在知识库里,而是按Wiki的规则,把材料整理成可以继续生长的条目。
我的LLM Wiki由Hermes Agent驱动,最早从OpenClaw一路折腾过来,后来逐渐变成一个带有FTS5 lexical、向量搜索和图结构的内网知识系统。它不会简单地把材料切碎后塞进数据库,而是试图把散落的材料编织成结构。
它读的东西也比第一层更宽。
除了「我知道的」那些关于「我」的事实,它还会读我收藏的文章、抖音、播客、个性化日报,甚至是我没有认真读完但已经被系统捕捉到的内容。Hermes Agent每天凌晨到我的Notion里读取当日新增内容,再做联想、归纳、合并和结构化。最后形成一张可以浏览、可以检索、也可以继续修改的知识网。
切片式RAG对AI很好用,但对人很难读。打开以后全是碎片,没有结构,也没有涌现。AI可以从里面召回细节,但人很难从里面看见知识的形状。

我给我的LLM Wiki部署了一个Quartz前端,让它能不止在AI里被调用,还可以直接看。
LLM Wiki的意义就在这里。它不是回答「某条事实在哪」,而是回答「这些事实之间有什么关系」。
比如我长期关注AI、平台权力、消费文化、非人行动者、工作流、知识管理和个人数据主权。单条记忆只能告诉AI:「用户最近在搭FreshRSS」或「用户关注AI记忆层」。但Wiki可以把它们放到一条更长的线上:从早年对Rewind的兴趣,到想要自动维护「我知道的东西」的Wiki,再到Notion as Me、Hermes、LLM Wiki、兴趣日报、NotionSearch。其实这一直是同一个问题在变形。
这个问题是:我能不能让AI使用我的上下文,而不是把我的上下文继续交给平台公司?
第二层解决的是「我应该知道」。它不只是记住过去,也开始整理过去。它把材料变成结构,把结构变成立场,把立场变成下一次对话的背景。
顺便说一句,这并不意味着第一层的切片式RAG就不重要了。我在X和小红书上刷到不少帖子,说RAG已经过时了,应该用LLM Wiki取代它。我觉得这是一种很典型的非此即彼。
切片式RAG在关键词搜索、速度和短事实召回上,仍然非常好用。比如我每天和谁开了什么会,这类来自Looki或Dayflow的记录,就不应该被郑重其事地写进LLM Wiki。它只适合待在第一层。需要的时候被找回来,不需要的时候安静躺着。
第一层是记忆卡片,第二层是Wiki,前两层是网上已经比较多见的实践了,我不必太多啰嗦。但用了一段时间之后,我发现这两层记忆依然有它的边界——它只能处理已经进入我系统的东西。
那些我没有收藏、没有读、没有转录、没有整理,只是刚好出现在我关注源里的东西,它仍然不知道。
这恰恰是今天要讲的最大的一块。
二、哈勃半径:我可能知道的世界
第三层,就是「我可能知道」。我叫它哈勃半径。
我把所有关注源,包括抖音、播客、网站、公众号、即刻、X,都通过工作流(OpenClaw或n8n)尽量先处理成文字,再汇总到FreshRSS。然后把FreshRSS的全量数据定时导入一个私有Meilisearch搜索引擎。最后把这个Meilisearch接到Notion AI和Hermes Agent上,作为一个独立搜索源。
Meilisearch是一个开源的私有搜索引擎,在建立之后,你可以通过API向其中加入任何文档,并且像搜索引擎一样搜索整个库。更重要的是,它的性能很好,能在海量数据下以十几毫秒的速度返回搜索结果。
这件事听起来很工程化。实际也确实很工程化。
我是在一个周日下午把它搭起来的。先在群晖上部署Meilisearch,配置端口、卷挂载和环境变量;再给它配UI,处理CORS,检查索引;然后给Hermes Agent装Meilisearch技能,调整FreshRSS的订阅分类,把来源分成公众号、博客、学术期刊、视频和其他信息流。
后来我又给它接了Cloudflare Worker,做了一个中转服务,配反向代理、API Key、过滤字段、排序参数和全文读取。这样Notion AI就可以远程调用这个私有搜索引擎。

那天晚上,我在Meilisearch UI里看到索引里已经有接近一万条文档。这个数字对Google来说小到没意义,但它还会以每周大约2000条的速度增长。对一私有的信息库来说,这已经是一个不小的宇宙了。
更重要的是,这些文档不是互联网上随机抓来的几万条网页。
它们来自我手动关注过的源。
公众号是我关注的,播客是我订阅的,网站是我放进RSS的,即刻和X也是我自己选择的社交场。它们当然不等于我已经读过,更不等于我同意。但它们至少说明,在过去某个时刻,我允许这些源进入我的视野。
这就是哈勃半径和公开搜索引擎的区别。

公开搜索引擎回答的是:全网有什么。
哈勃半径回答的是:在我的信息宇宙里,有什么。
为什么叫哈勃半径?
在宇宙学里,哈勃半径可以粗略理解为一个观测边界。以观察者为中心,边界以内的东西在原则上可以被观测,边界之外的东西越来越远,也越来越不可达。我不是在严格使用物理概念,只是借它说一个信息生活里的事实:每个人都有一个以自己为中心的信息半径。
你每天刷到什么,订阅了什么,关注了哪些人,信任哪些媒体,反复打开哪些网站,收藏哪些文章,听哪些播客,甚至在哪些平台上浪费时间。这些东西共同构成了你的信息宇宙。
过去,这个宇宙主要对平台有用。
平台知道你看了什么、停留多久、划走了什么、又回头看了什么。它用这些数据推荐下一条内容,卖广告,优化留存,让你继续待在它的宇宙里。但你自己很难使用它。
你没法问抖音:「我过去半年关注的所有创作者里,有没有人谈过某个问题?」
你也没法问公众号:「在我关注的这些媒体里,最近两周关于AI教育的讨论发生了什么变化?」
更不用说把播客、短视频、社交平台、RSS和日记放在一起比较。
平台拥有你的信息半径,但你没有。
哈勃半径的意义,就是把这个半径拿回来,放进自己的AI里。
它不是为了对抗Google,也不是为了替代小红书、抖音或公众号搜索。它要做的事更小,也更私密:让AI在回答我的问题之前,先进入我的可观测宇宙。
当我问一个事实类问题,公开搜索当然重要。但当我问一个非事实类问题,比如「最近中文互联网对AI Agent的态度是不是变了」「为什么我觉得某类内容越来越像工作泔水」「年轻人对信息流的疲劳是不是正在出现」,Google的第一条结果未必有用。
我更想知道的是:在我的可观测宇宙里,这些情况有没有发生变化。
因为这类问题不是在找一个标准答案,而是在找一种气候。
气候不在百科里。气候在我长期接触的那些源里。
三、它不是搜索引擎,而是记忆层
我认为哈勃半径是一个记忆层,不是一个搜索引擎。
搜索引擎的核心动作是检索。记忆层的核心动作是限定上下文。
同一个关键词,在不同人的哈勃半径里,意思会完全不同。搜索「AI陪伴」,投资人、心理咨询师、乙女游戏玩家、产品经理、未成年人研究者、同人作者,看到的世界不会一样。公开搜索会把这些语义场压平,再按流行度、权威性或广告逻辑排序。
私人哈勃半径会先问另一组问题:
这个词对你来说通常出现在哪里?你通常从哪些人那里接触它?你过去对它有什么反应?你关注的源最近怎么谈它?
这不是覆盖率问题,而是权重问题。
AI接入公开搜索以后,最大的问题往往不是查不到资料,而是不知道该信谁。它能打开Google,能搜小红书,能查抖音,能读网页,但它不知道这些源在我的世界里是什么位置。
有些来源对我只是噪音。有些来源我长期信任。有些来源我不同意,但我会用它观察某种立场。有些来源质量一般,却很接近一线语感。有些来源不权威,但能比论文更早捕捉到文化变化。
这些权重,公开搜索不知道。AI也不知道。
哈勃半径知道。
不是因为它更聪明,而是因为它的信源已经被我过去的关注动作筛过一遍。关注本身就是一种缓慢的标注。它不是点赞那么短,也不是收藏那么重。它更像一种持续授权:这个源可以进入我的世界。
所以AI在哈勃半径内搜索时,不是在「查全网」,而是在调用我的长期注意力沉淀。
这就是记忆。
这层记忆还有一个很微妙的地方:它记录的不是「我知道」,而是「我可能知道」。
第一层记忆里的东西,我大概率真的知道。因为我写过、说过、做过、记录过。第二层知识里的东西,我应该知道。因为它已经被系统整理成结构,等着我在合适的时候调用。
第三层不一样。它包含大量我根本没看过的内容。
我估计在我的哈勃半径中,至少99%以上的内容我都没看过。毕竟我关注了至少2000个不同类型的订阅源:网站、公众号、短视频、播客,都有。
按传统知识管理的标准,这很奇怪。没看过,怎么能算我的知识?没有消化,怎么能算我的记忆?
但AI时代会改变这件事。
过去,知识管理的瓶颈是人的阅读时间。你订阅100个源,真正能读完的可能只有5个。剩下95个只是焦虑来源,是未读数字,是信息债务。
但如果AI可以在需要时帮你回到这些材料里,未读内容就不再只是债务。它变成一种可调用的可能性。
我不需要每天读完所有公众号、播客和视频。我只需要在某个问题出现时,让AI先到我的哈勃半径里看一眼:在我本来可能接触到的信息宇宙里,有没有人已经说过类似的话?有没有一个我错过的案例?有没有一场小众讨论,比公开搜索更贴近我的问题?
这是一种将「阅读」从前置消费,改成后置召回的信息管理方式。
过去我们必须先读,未来才有资格想起。现在我们可以先建立半径,再在问题出现时让AI回到半径内部找线索。人的角色不再是吞下全部信息,而是维护自己的可观测宇宙。
我觉得这会是AI时代知识管理的一个大变化。
四、半径的价值来自边界
当然,哈勃半径不是越大越好。
这是它和公开搜索最根本的差别。公开搜索追求覆盖率,私人半径追求相关性。你不需要把全网都装进来,甚至不应该这么做。如果一个私人搜索库最后变成小号Google,它就失去了意义。
哈勃半径的价值来自边界。
边界越清楚,AI越知道你在什么语境里提问。边界越混乱,AI就越容易重新滑回公共平均值。
所以它的维护重点不是「多抓」,而是「选择」。哪些公众号值得保留,哪些RSS已经失效,哪些播客只是阶段性兴趣,哪些社交账号虽然经常胡说但有现场感,哪些来源应该降权,哪些来源适合做事实判断,哪些来源只适合做情绪采样。
这些都不是模型能自动决定的。
AI可以帮你清理、分类、去重、打标签、转文字、做索引,但半径本身必须由人来画。因为这条边界表达的是你的注意力史、信任结构和审美偏好。
这也是我为什么越来越不满足于「给AI接一个搜索引擎」。
接搜索引擎只是扩展能力。设置哈勃半径,才是在扩展主体。
前者让AI更会查。后者让AI更像你。
把三层记忆放在一起,关系就清楚了。
第一层,「我知道的」,是事实记忆。它让AI记得我的近况、偏好、项目和判断。
第二层,「我应该知道的」,是结构记忆。它把事实和材料织成Wiki,让AI理解我的长期问题和知识网络。
第三层,「我可能知道的」,是半径记忆。它把我长期关注但未必阅读的一切变成可召回的信息宇宙,让AI在进入公共互联网之前,先进入我的信息边界。
最内层是我留下的痕迹,中间层是这些痕迹被整理后的结构,最外层是我可能接触到的世界。
如果用一个人来类比,第一层像记忆,第二层像知识,第三层像视野。一个真正个人化的AI,不能只有记忆和知识。它还必须有视野。否则它知道你昨天做了什么,也能背出某个概念的定义,却不知道你平时从哪里感受世界。
这就是很多AI个性化产品让我不满意的地方。
它们把「记住用户」理解成记住偏好:喜欢什么语气,在哪里工作,正在做什么项目。它们把「连接外部世界」理解成搜索网页。但用户不是一个偏好表,外部世界也不是一张无差别网页列表。用户和世界之间,还有一层长期形成的媒介关系。
哈勃半径记录的就是这层关系。
五、每个人都需要自己的哈勃半径
我比较相信,未来每个重度使用AI的人都需要自己的哈勃半径。
它可以很简单,不一定要像我这样折腾FreshRSS、Meilisearch、群晖、Cloudflare Worker、Hermes Agent和Notion AI。对大多数人来说,它可能只是一个持续维护的RSS列表,一个高质量收藏夹,一个跨平台稍后读,一个能被AI调用的信息源仓库。
关键不在技术栈,而在观念:你需要给AI一个你不读,但你给出权重很高的,可不依赖你的内在系统也持续更新的内容池,
AI的上下文不应该只来自公开互联网,也不应该只来自你已经整理好的笔记。真正属于你的上下文,还包括那些你长期允许进入生活、但尚未被你消化的信源。
那是你的信息暗物质。
它平时不可见,却影响你的判断、写作、情绪和问题意识。你以为自己是在独立思考,其实你一直在某个半径内思考。过去,这个半径只被平台拿来塑造你;现在,你可以把它交还给自己的AI,让它帮你看见这半径内部到底发生了什么。
这也是为什么我叫它「哈勃半径」。
AI时代的问题,不是信息不够,而是默认的世界太大。世界越大,平均值越强。平均值越强,个人经验越容易被淹没。
给AI设置哈勃半径,就是告诉它:先别急着替我抵达全世界。先回到我的宇宙里。
看看我关注过什么,错过了什么,可能知道什么。看看哪些信号已经在我身边出现,只是我还没来得及读。看看哪些问题早就在我的信息半径里反复回响,只是还没有被命名。
当AI能做到这一点,它就不再只是一个更快的搜索框,也不只是一个更长记性的助手。
它开始像一个能替我巡视视野的人。
而这可能才是个人AI真正开始成立的时刻。
