AK:构建你的第二大脑

Andrej Karpathy的新工作流程将原始研究转化为自我维护的维基。没有向量数据库,没有RAG管道,只是markdown文件和一个像全职图书管理员一样的LLM…

AK:构建你的第二大脑
微信 ezpoda免费咨询:AI编程 | AI模型微调| AI私有化部署
AI工具导航 | Tripo 3D | Meshy AI | ElevenLabs | KlingAI | ArtSpace | Phot.AI | InVideo

2026年4月3日,Andrej Karpathy——OpenAI联合创始人、特斯拉前AI负责人、提出"氛围编程"的那个人——在X上发了一条帖子,让我刷到一半停了下来。

他说他花更少时间使用AI生成代码,更多时间用它来组织知识。不是什么抽象的、理论上的方式。他描述了一个实际工作的系统,他把原始研究材料丢到一个文件夹里,指向一个LLM,然后LLM从头构建和维护整个相互链接的维基。没有人类编辑。AI写文章,在相关想法之间创建链接,对概念进行分类,并在新材料进来时保持整个东西更新。

他在一个单一主题上的研究维基已经增长到约100篇文章和400,000个词。他很少直接接触它。

这条推文病毒式传播。第二天,他跟进了一个他称之为"想法文件"的东西——一个GitHub gist,列出了完整架构,设计为可以直接复制粘贴到LLM代理中,这样它就可以为你构建系统。

他的推理是:"在这个LLM代理时代,分享特定代码/应用的意义/需求更少,你只是分享想法,然后其他人的代理为你的特定需求定制和构建它。"

我想详细分解这如何工作,为什么它重要,以及即使你一生中从未设置过开发环境,你如何可以构建自己的。

1、这个解决的问题(以及为什么RAG不是答案)

如果你使用过ChatGPT或Claude与上传的文件,你使用过叫做RAG的东西,检索增强生成。

它通常是这样工作的: 你的文档被切成小块,这些块被转换成叫做嵌入的数学表示,当你问一个问题,系统搜索最相似的块并把它们提供给AI。

它能工作。但它有一个根本限制,一旦你用它做任何重要的事情就变得明显。

每次你问一个问题,AI都是从零开始重新发现你的知识。它搜索,检索一些块,并试图拼凑一个答案。没有什么积累。问一个需要连接五个不同文档中想法的问题,系统每次都必须找到并正确拼接正确的片段。

没有记忆。没有结构。没有你的想法如何相互关联的地图。

Karpathy的方法不同。不是每次查询都搜索原始文档,LLM读取原始材料一次,并将其编译成结构化的、有组织的维基。摘要、概念文章、链接、比较、索引——整个东西。之后你问问题时,AI不需要搜索向量数据库。它可以只读取相关的维基页面,这些页面已经包含信息的综合、有组织的版本。

正如VentureBeat在报道中所说的,这个设置中的LLM不是充当搜索引擎。它充当研究图书管理员,一个主动编写和维护持久记录的人。因为一切都存储为你可以自己阅读的纯markdown文件,没有黑箱。每个主张都可以追溯到你可以用任何文本编辑器打开、阅读和编辑的特定文件。

2、架构

Karpathy的系统有几个不同的层。我会使用他分享的图来走过每一个,但用不需要计算机科学学位的术语。

第1层:原始来源(你的研究材料)

这是底层,基础。你收集文章、研究论文、图片、数据文件、代码仓库,任何与你正在研究的主题相关的东西。所有这些都进入一个叫做raw的文件夹。

这里的规则很简单: 这个文件夹是真相来源。LLM可以从它读取,但从不写入或修改它。你的原始材料保持不变。

对于网页文章,Karpathy使用Obsidian Web Clipper浏览器扩展,只需点击一下就能将网页转换为markdown文件。他还将相关图片下载到本地,这样LLM可以直接引用它们,而不是依赖可能失效的网页URL。

你不需要 fancy 的工具来完成这一步。将PDF保存到文件夹,将文章复制粘贴到文本文件,下载研究论文——所有这些都可以工作。关键是把你原始材料放到一个地方。

第2层:模式(LLM的指令)

这是大多数人错过的部分,也是让系统一致工作的部分。

在LLM接触任何数据之前,你给它一个配置文件——Karpathy称之为CLAUDE.md(如果你使用Claude Code)或AGENTS.md(其他工具)。这个文件告诉LLM维基应该如何结构化,使用什么页面格式,遵循什么命名约定,以及摄取过程应该如何工作。

把它想象成AI的员工手册。没有它,LLM每次会以不同方式组织东西。有了它,每次编译运行遵循相同结构,产生一致结果。

你不需要从头写这个。Karpathy的GitHub gist就是这个文件——你可以 literally 复制它,粘贴到你的LLM代理中,它就会知道如何构建维基。

第3层:维基(LLM构建的)

这是系统的核心。LLM读取你的原始来源并将它们"编译"成结构化的markdown文件集合。Karpathy的维基包括几种类型的页面:

实体页面涵盖研究中提到的特定人物、组织或项目。如果你在研究AI安全,三篇论文提到同一个研究人员,LLM会创建一个关于那个人的页面,从所有三个来源提取信息。

概念页面涵盖想法、方法和理论。如果多篇论文讨论相同的技术,LLM会创建专门解释它的文章,并引用回原始来源。

摘要是每个来源的摘要。每个原始文档都有一个摘要页面,捕捉要点,而不必阅读整个原始内容。

比较页面将相关想法并排放置。如果两篇论文对同一问题提出竞争方法,LLM写一个比较,突显差异。

综合页面提供围绕一个主题将多个来源联系在一起的概述。

维基还包括两个特殊文件:index.md,一个按类别组织的主目录,以及log.md,一个按时间顺序记录添加或更改内容的记录。

页面使用维基风格的[[反向链接]],使用YAML frontmatter(metadata headers)进行分类,可以用Git跟踪版本历史。

关键要理解的是,LLM写作和维护所有这些。你不手动创建页面,写摘要,或添加反向链接。AI做那些工作。你的工作是策划什么进入原始文件夹以及问问题。

3、操作:摄取、查询和Lint

一旦结构存在,三个操作保持系统运行:

摄取是你添加新材料时发生的事情。你把新文章或论文放入***raw/***文件夹。LLM读取它,提取重要信息,并更新10-15个维基页面——如需要创建新的概念页面,更新现有的,添加反向链接,刷新摘要。

这是增量的。LLM每次不会从头重建整个维基。它读取新来源并将其集成到现有结构中。Karpathy描述这为"编译"——一个借用的编程术语,源代码被翻译成可执行的东西。这里,原始研究被翻译成有组织的知识。

查询是你问问题时发生的事情。LLM搜索维基的索引,读取相关页面,并综合答案。因为维基已经包含有组织的、相互链接的摘要,AI可以回答需要连接许多不同来源信息的复杂问题——这是传统RAG系统难以处理的。

在400,000个词的情况下,Karpathy说LLM使用它自己的索引文件和摘要很好地导航维基。不需要向量数据库。不需要嵌入。不需要相似性搜索。只是结构化的markdown,AI可以读取和推理。

Lint是维护通道。定期,你告诉LLM扫描维基的问题:页面之间的矛盾,没有从任何地方链接的孤立页面,重要主题被提到但没有自己文章的空白,可能需要更新的过时主张。LLM标记这些问题,并可以自动修复许多。

正如Karpathy帖子中的一个社区成员所说:"它作为一个活的人工智能知识库,实际上能自我修复。"

4、输出层

这里变得实用。Karpathy不是只在聊天窗口中获得纯文本答案,而是让LLM生成它可以在Obsidian中查看的文件:

Markdown页面成为维基本身的一部分。当他问一个复杂问题并得到详细答案,他把那个答案"归档"回维基。这意味着他自己的探索和查询总是累积——每个问题都使知识库更丰富。

幻灯片演示使用Marp格式(一个将markdown转换为幻灯片 deck 的工具)。如果他需要展示发现,LLM直接生成幻灯片。

图表和可视化使用matplotlib(一个图表库)。来自维基的数据被转换成视觉表示。 比较表将想法并排放置在结构化格式中。

关键洞察: 输出反馈回维基。系统每次使用都变得更聪明。

5、如何实际构建这个

你不需要是开发者。这是最低可行版本。

第1步:安装Obsidian。 前往obsidian.md并下载免费应用。它在Mac、Windows、Linux和移动设备上都可以工作。Obsidian是一个笔记应用,使用存储在你电脑上的纯markdown文件。它是你的"IDE"——你将在这里查看和浏览维基。

第2步:创建你的文件夹结构。 在你的Obsidian vault(这只是Obsidian使用的文件夹)内,创建两个子文件夹: raw/用于你的来源材料, wiki/用于编译输出。这就是结构的全部。

第3步:安装Obsidian Web Clipper。 这是一个免费的浏览器扩展,让你一键将任何网页保存为markdown文件。当你找到一篇值得添加到知识库的文章,把它剪到你的raw/文件夹。

第4步:开始收集原始材料。 选择一个你正在研究或学习的主题。将5-10篇文章、论文或其他文档保存到raw/。在这个阶段不用担心组织——那是LLM的工作。

第5步:设置你的LLM代理。 这部分需要最多的技术舒适度,但在2026年已经变得容易多了。你有几个选项:

如果你使用Claude,你可以通过Claude的文件上传功能为小型维基做这个。对于更大的,Claude Code(Anthropic的命令行工具)可以直接与你电脑上的文件一起工作。

如果你使用Codex、Cursor或其他编码代理,它们也可以在你本地机器上读写文件。

非技术用户最简单的方法:打开你首选的AI聊天工具,上传你的***raw/文件夹的内容,将Karpathy的想法文件(来自他的GitHub gist)作为指令粘贴,并让LLM从你的来源编译一个维基。将输出的markdown文件保存到你的wiki/***文件夹。

第6步:复制Karpathy的想法文件。 前往gist.github.com/karpathy/442a6bf555914893e9891c11519de94f。复制整个gist。这是你的模式——告诉LLM如何构建和维护维基的指令。当你开始编译会话时,将其作为上下文粘贴。

第7步:运行第一次编译。 告诉LLM类似:"读取***raw/***文件夹中的每个文档。对每个写一个摘要。然后识别所有来源中的主要概念、人物和组织。为每个创建维基页面,带反向链接。创建一个index.md按类别分类所有内容,以及一个log.md记录处理了什么。"

LLM会生成一组markdown文件。将它们保存到你的***wiki/***文件夹。打开Obsidian并浏览。

第8步:开始查询。 现在你可以针对你的维基提问。让LLM访问维基文件并问:"基于维基,作者X和Y在主题Z上的主要分歧是什么?",或者"总结我们对概念A的所有了解以及它与概念B的关系。"答案将基于你实际的研究,而不是LLM的一般训练数据。

第9步:把输出归档回去。 当你得到一个好答案,把它作为新的markdown文件保存到维基中。随着时间推移,你的探索和维基的综合知识融合成比任何一个都更丰富的东西。

第10步:运行lint通道。 每隔几周(或者每当维基大幅增长时),让LLM扫描问题:孤立页面、矛盾、缺失的概念文章、过时信息。修复它找到的。维基随着时间变得更紧密。

6、为什么这比你现在做的更好

大多数人以三种方式管理研究:他们从不重新访问的浏览器书签,有断开条目的笔记应用,或者会话结束时消失的聊天历史。三个都有同样的问题:没有什么连接到任何其他东西,没有什么随时间累积。

Karpathy的系统解决了这个问题,因为LLM维护连接。当你添加一个提到维基中已有概念的新来源时,LLM更新现有概念页面并添加反向链接。你不必记得你三周前在不同论文中读到了那个概念。系统为你记得。

另一个优势是原始真相和综合知识之间的分离。你的原始来源永远不会被修改。维基是一层在上面的解释——你可以重新生成、编辑或丢弃它,而不丢失任何来源材料。如果LLM误解了什么,你在维基中修复它,而不接触原始。

因为一切都是你电脑上的纯markdown,没有供应商锁定。没有订阅。没有云依赖。如果Obsidian明天消失,你仍然有一文件夹你可以用任何东西打开的文本文件。

7、变得有趣的地方

Karpathy提到了一个值得思考的未来方向:一旦你的维基干净、全面、链接良好,你可以用它生成合成训练数据,并微调一个较小的LLM,这样它实际上"知道"其权重中的信息。你会从一个在查询时AI读取的知识库到一个已经内化你整个研究领域的专业模型。

这仍然是一个高级用例。但更直接的应用已经令人兴奋。企业家Vamshi Reddy回应Karpathy的帖子时有一个让我印象深刻的观察:"每个企业都有一个raw/目录。没有人编译它。那就是产品。"

想想这个。每个公司都有一堆Slack线程、会议记录、内部文档、产品规格和找不到或联系不上的研究。同样的维基模式适用于所有这些。竞争分析。尽职调查。旅行计划。读小说系列时跟踪角色和情节线。学习新的技术领域。为考试学习。

系统是领域不可知的,因为模式层吸收所有领域特定的配置。在你的CLAUDE.md文件中改变指令,相同的架构编译不同类型的维基。

8、它不能做什么

一个来自Substack作家的深思熟虑的批评值得记住。他们做了一个值得注意的区别。LLM擅长侦察阶段——绘制领地,组织信息,找到你可能错过的连接。但综合——从材料中形成原创想法——仍然是人类的工作。

作家引用了德国社会学家Niklas Luhmann,他维护了一个著名的手写卡片系统。Luhmann的见解是,用自己的话写东西的摩擦不是浪费的努力。这是理解实际发生的机制。阅读别人的摘要与你自己形成想法不一样。

所以诚实版本的Karpathy系统做什么:它消除了组织、连接和维护研究材料的繁琐工作——人类做不好且觉得乏味的工作。它不消除思考的需要。AI绘制领地。你仍然必须走它。

这是一个好的交易。

9、今天开始

如果你想尝试这个,这是你需要的最低限度:

  1. 从obsidian.md下载Obsidian(免费)
  2. 安装Obsidian Web Clipper浏览器扩展
  3. 创建一个带***raw/wiki/***文件夹的vault
  4. 在你关心的主题上剪5-10篇文章到raw/
  5. 从他的GitHub gist获取Karpathy的想法文件
  6. 将它和你原始文件一起粘贴到你选择的LLM
  7. 要求它编译一个维基

从小开始。你以后总是可以添加更多来源。系统设计为增量增长——每个新来源被集成到现有结构中,而不是从头处理。

如果几周后你发现你有一个50页的相互链接的维基,你几乎不需要编辑,一个通过引用你收集的来源回答复杂研究问题的系统,以及一个每次使用都变得更好的知识库——那么你就会理解为什么Karpathy的推文病毒式传播。

瓶颈从来不是写代码。是足够深入理解问题以知道要构建什么。现在有了一个为此的系统。


原文链接: Andrej Karpathy Stopped Using AI to Write Code. He's Using It to Build a Second Brain Instead

汇智网翻译整理,版权归作者所有,转载需标明出处