本文来自微信公众号: 碳基智子 ,作者:碳基智子,原文标题:《全网都在学 Karpathy 建知识库,我偏要唱个反调》
4月3号,Karpathy发了条推文,分享了他用LLM搭建个人知识库的工作流。1700万阅读,8.8万收藏,热度传到国内丝毫不减,感觉全世界的技术博主都在教我建知识库,比当年教我用Notion的阵仗还大。
但我觉得这玩意儿对普通人来说,意义还真没那么大,试问大部分人连龙虾都用不上,搭这个有啥用?
1
唱反调之前先说清楚,Karpathy这套东西确实有几个天才般的洞察,大神水平是绝对没问题的。
Karpathy做的事情可以用一句话概括:把知识管理变成一个编译过程。
传统的笔记工具,不管是Notion还是Obsidian还是语雀,本质上都是存储型的,你写进去什么就是什么,知识在里面是死的。RAG加了一层智能检索,但每次提问它都要重新翻箱倒柜查,翻完就忘,下次还得重来一遍,像个得了健忘症的图书管理员。
Karpathy的做法不一样。他让LLM在你丢资料进去的那一刻就完成编译,读懂内容、写摘要、跟已有知识交叉引用、更新索引。形象点说,就像你带了个研究生做项目,他不但帮你整理书架,还主动写读书笔记、画关系图,把新书和老书之间的脉络全给你串起来。
这里面有几个点是真的nice。
第一,所有知识都是纯Markdown文件,不锁定在任何向量库、任何SaaS产品里。你可以随时grep、git diff、人肉审阅,数据完全在你自己手上。这在“一切数据打包上传”的时代,简直是一股清流。
第二,Lint机制。他让LLM定期给知识库做体检,检查数据矛盾、找出孤立页面、标记过时结论。让知识库能自我修复,这在传统笔记工具里是不可想象的。
第三,知识的复利效应。每次新资料进来,不只是多了一个条目这么简单,100篇资料的价值不是100个摘要的简单加总,背后织成了一张越来越密的知识网。
也就他这种神人加上AI的放大效应,才能让他有这样的需求去解决自己的痛点。
2
好了,夸完了,该说但是了。
我的判断是:这套方案对绝大多数人来说,搭了也白搭。
理念没问题,但硬伤太多,对他不是问题的问题,对我们全是问题。
第一处:规模天花板。
Karpathy方案的索引机制是什么?一个叫index.md的文件。对,就是一个Markdown文件,里面存着所有Wiki页面的一行摘要和链接。LLM每次查询都要先把这个文件从头读到尾,然后定位到相关页面。
这是他自己说的"穷人的向量库"。
穷人的向量库,意味着穷人的规模天花板。Karpathy自己测试的数据规模大概40万字。40万字是什么概念?大约200-300篇中等长度的技术文章。一个认真做研究的人,半年的阅读量就能把它撑满。
撑满之后呢?index.md越来越长,LLM的上下文窗口越来越拥挤,响应速度越来越慢,成本越来越高。他做的是一个demo级别的原型,不是一个能陪你用三年的产品。
第二处:钱。
聊一个大家都心知肚明但教程里没人提的问题:成本。
这套系统的"编译器"是什么?是Claude Opus、GPT-5这个级别的顶级大模型。目前Claude Opus 4.6的API价格是每百万输入token 5刀,每百万输出token 25刀。
每次Ingest一篇文章,LLM要做什么?读新资料、扫描现有Wiki页面、生成摘要、更新10到15个关联页面、更新索引、写日志。一次完整的Ingest操作,保守估计消耗5万到10万token。按Opus的价格,每篇文章的摄入成本大约在0.5到2刀之间。
一个月摄入50篇文章,光Ingest就要花25到100刀。再加上日常Query和定期Lint的消耗,一个月的运营成本轻轻松松上百刀。
你可能要杠了,你不能换便宜模型吗?
理论上可以。但Karpathy这套系统对LLM的能力要求极高,长文理解、多文档综合、结构化输出、忠实引用、不幻觉,这些能力组合在一起,目前只有Claude Opus和GPT-5级别的模型能稳定胜任。你换个便宜模型省钱,Wiki的质量直接崩盘,摘要开始胡说八道,交叉引用开始乱指,Lint抓不住该抓的问题。
第三处:冷启动是个大坑。
Karpathy自己说了,前5到10篇资料基本是调校期。你要反复迭代那个Schema文件(也就是CLAUDE.md),告诉LLM该怎么分类、怎么命名、怎么建立关联、什么该写什么不该写。
这个过程需要什么?需要你对LLM的行为模式有相当深的理解,需要你能看懂LLM输出的问题在哪并给出精确的约束。Karpathy能搞定这个是因为他本人就是这个领域最顶尖的几个人之一,人家写Schema那叫手拿把掐。
换到我们做这种事,就像当年做真题卷子最后一道大题只会写个“解”字一样。
没那个能力晓得伐?
第四处:谁来Lint那个Lint?
LLM在编译过程中会不会幻觉?会。Karpathy自己也承认这个问题,所以他设计了Lint机制来做质量检查。
但Lint本身也是LLM在执行。LLM检查LLM生成的内容,这个环节有没有可能也幻觉?有。谁来检查Lint的结果?还是你自己。
最终的质量兜底,绕了一大圈,还是回到了人类审阅。那这跟你自己写笔记然后偶尔回头检查,在质量保障的底层逻辑上有本质区别吗?
3
上面说的四处硬伤,都是技术层面的,本身也不是为了解决普通人的问题,更像是一个技术牛逼的Geek在用近乎炫技的方式解决自己的痛点。
全网教程井喷的背后,本质上是一种工具崇拜——觉得用了牛人的工具就能变牛。
2020年Notion火的时候,多少人花了整整一个周末搭了一套精美绝伦的生活管理模板?Database、Relation、Rollup、Formula,玩得比Notion官方示例还花。然后呢?一个月后再也没打开过。
2022年Obsidian的双链笔记火了,又一拨人冲了进去。给每条笔记打标签、建双向链接、画知识图谱,感觉自己在构建第二大脑。三个月后那个花花绿绿的知识图谱变成了一团彩色的毛线球,你自己都不知道哪根线连着哪根,颇有种当我写下这行代码时,只有我和天知道啥意思,现在只有天知道了。
现在轮到Karpathy的LLM Wiki了。
你有没有想过一个问题:你的知识管理瓶颈,真的是架构不好吗?
你一个月才往里丢两篇文章,用txt文件管理都绰绰有余,你搭一个LLM Wiki干什么?
这套系统的设计前提是:你有持续的、大量的、高质量的知识输入。Karpathy每天在读论文、看代码、研究新架构,他有足够的语料喂给这个系统,让它真正产生复利效应。
但对大多数人来说,真实的场景是什么?朋友圈刷到一篇文章,收藏了;公众号推了一篇长文,标记了"稍后阅读";某个技术分享会的slides,下载到了本地。然后这些东西就永远安静地待在那里,等着下一次硬盘清理时被批量删除,或者被自己养的虾误删。
输入端不解决,再牛的架构也是挂空档踩油门。
4
说了这么多,不是要全盘否定这套东西。它有明确的适用场景,只是这个场景比大多数人想象的要窄得多。
如果你同时满足这些条件:
每周有稳定的高质量信息输入,不是指碎片化的朋友圈文章,是论文、研究报告、技术文档这个级别的深度内容,每周至少5到10篇。
有一个特定的知识密集型领域需要持续追踪,AI研究、投资分析、法律案例、医学文献这类。
有一定的LLM调教经验,知道怎么写prompt、怎么调Schema、怎么识别LLM的幻觉。
愿意花1到2周做冷启动调试,并且接受前期效果不理想。
月度预算里能多出100刀左右的API费用。
以上五条全中,恭喜,你是这套系统的目标用户,大神的作业可以抄了。
全中不了?别勉强。一个有纪律的Obsidian笔记习惯加上偶尔用LLM做整理和归纳,对大多数人来说比搭一个完整的LLM Wiki有效得多。省下来的时间和钱,多读几篇文章,比什么架构都管用。
最好的知识库管理系统,永远是你真的会用的那个,哪怕你就是用浏览器收藏夹管理,也不是不行。
