Context Graph: 捕捉决策轨迹

上下文图 (Context Graph) 并非更智能的数据库,也不是“代理的内存”,更不是简单地将工具与 MCP 连接起来。它是一种用于捕获决策轨迹的基础设施,将观察结果与行动联系起来的推理过程。

Context Graph: 捕捉决策轨迹
AI编程/Vibe Coding 遇到问题需要帮助的,联系微信 ezpoda,免费咨询。

过去 20 年来,企业软件的构建一直围绕着一个理念:存储最终状态。

CRM 系统存储交易金额。工单系统存储“已解决”状态。Git 存储最终代码。数据库存储当前状态。

这种方法造就了万亿美元公司。

但人工智能打破了人类是推理层的假设。

如果期望智能体做出决策,他们需要的不仅仅是数据访问权限。他们需要了解决策过程。

这就是上下文图的用武之地。

1、上下文图

上下文图 (Context Graph) 并非更智能的数据库,也不是“代理的内存”,更不是简单地将工具与 MCP 连接起来。

上下文图是一种用于捕获决策轨迹的基础设施——它将观察结果与行动联系起来的推理过程。

想想更少的记录和更多的先例。

记录系统告诉你发生了什么,而上下文图告诉你为什么会发生。

2、核心问题:我们只构建了时间的一半

每个系统都基于两个时钟运行:

  • 状态时钟——当前状态是什么
  • 事件时钟——发生了什么,按什么顺序,以及为什么发生

我们为前者构建了庞大的基础设施。

而对于后者,我们却几乎没有。

你已经知道的例子

  • Git 显示 timeout=30s,但没有说明为什么从 5s 改成了 30s
  • CRM 显示“已关闭,已丢失”,但没有说明“我们是备选方案”
  • 工单显示“已解决”,但没有说明调查路径
  • 合同显示“60 天终止”,但没有说明背后的权衡取舍

推理过程存在这些地方:

  • Slack 讨论
  • 会议记录
  • 人类记忆

然后它消失了。

当人类作为推理层时,这种方法行得通。但当需要人工智能进行推理时,它就失效了。

你不会在没有判例法的情况下训练律师学习判决。而我们今天对人工智能系统所做的,正是如此。

3、为什么这在结构上难以实现

上下文图目前还不存在——并非因为我们懒惰,而是因为它们迫使我们直面几十年来一直回避的问题。

3.1 系统并非完全可观测

组织机构存在:

  • 遗留代码
  • 第三方服务
  • 跨系统的涌现行为

你无法对无法完全观测到的事物进行清晰的建模。

3.2 没有通用模式

每家公司都有自己的本体。

  • B2B 中的“客户”≠ 市场中的“客户”
  • DevOps 和安全领域中的“事件”含义不同
  • “审批”在不同环境中运作方式也不同

试图预定义全局模式总是会失败。

3.3 一切都在变化

你记录的不是一个静态系统,而是每天都在变化的事物。

大多数知识管理失败的原因在于,它们将此视为静态摄取问题:

“收集文档 — 构建图 — 稍后查询”

但文档是冻结的状态。

事件时钟是过程,而过程是动态的。

4、关键洞察:让智能体发现结构

与其预先定义组织结构,不如让智能体在工作中发现它。

智能体已经能够做到模式无法做到的事情:

  • 识别相关实体
  • 发现关系
  • 导航未知系统
  • 随着信息的变化而调整

当智能体解决问题时,它会在系统中移动:

  • 读取配置
  • 查询数据库
  • 检查日志
  • 创建工单
  • 与 API 通信

这种移动就是组织状态空间中的轨迹。

而轨迹就是数据。

5、从随机游走到有信息游走

在图学习中,有一个强大的理念:

你不需要知道图的结构就能学习它。你只需要足够多的游走次数。

5.1 经典示例:node2vec

node2vec 通过执行随机游走并学习哪些节点共现来学习图嵌入。

  • 局部随机游走——学习相似性(同质性)
  • 全局随机游走——学习角色(结构等价性)

不同团队的两名工程师可能永远不会接触到相同的系统,但他们在不同的子图中扮演着相同的角色。

随机游走通过统计方法发现这一点。

5.2 智能体优于随机游走

智能体不会漫无目的地游荡。它们带着意图进行游走。

示例:生产事故调查

从广泛入手

  • 最近发生了哪些变化?
  • 部署了哪些服务?

缩小范围

  • 哪些配置发生了变化?
  • 哪些请求失败了?

深入挖掘

  • 特定的代码路径
  • 特定的客户

这是一种有偏的随机游走,在以下两者之间切换:

  • 全局探索
  • 局部推理

这才是我们想要的信号。

6、嵌入的不是意义,而是结构

如今大多数嵌入都是语义嵌入。

它们回答:

“哪些事物具有相似的含义?”

上下文图需要结构嵌入。

他们的回答是:

  • 决策过程中哪些实体相互关联?
  • 哪些事件先于哪些结果?
  • 哪些路径在不同的问题中反复出现?

示例

trajectory = [
    "deployment_2024_12_17",
    "service_payments",
    "feature_flag_fast_checkout",
    "customer_segment_enterprise",
    "incident_timeout_error"
]

一条轨迹是弱的。

一万条类似的轨迹揭示:

  • 脆弱的配置
  • 风险功能交互
  • 隐藏的依赖关系

模式源于使用。

事件时钟是最终结果。其经济性在于:

  • 部署代理来解决问题
  • 记录它们的轨迹
  • 这些轨迹构建上下文图
  • 更好的上下文 — 更好的代理
  • 更好的代理 — 更多的部署
  • 更多的部署 — 更丰富的上下文

图并非手动构建。

它是有益工作的最终结果。

7、上下文图作为世界模型

这正是该理念的强大之处。

世界模型是对以下内容的学习表示:

  • 实体
  • 动态
  • 执行操作时发生的情况

在机器人学中,世界模型模拟物理现象。

在组织中,“物理现象”指的是决策动态:

  • 审批如何传播
  • 变更如何引发事件
  • 配置如何交互
  • 故障如何扩散

成熟的上下文图可以成为一个模拟器。

8、模拟即测试

如果你的系统无法回答:

“如果我们执行 X 会发生什么?”

……那它就只是一个搜索索引。

例如,在 PlayerZero,模拟会预测假设的变化:

  • 给定当前配置
  • 给定功能标志
  • 给定用户行为模式

它们预测:

  • 故障模式
  • 爆炸半径
  • 受影响的客户

这并非魔法。这是基于累积轨迹的推理。

9、为什么这对持续学习至关重要

关于人工智能的局限性有很多争论:

“模型无法在工作中学习。”

这种说法忽略了一些关键因素。

与其不断地重新训练模型:

  • 保持模型不变
  • 扩展其推理的世界模型

智能体的改进并非因为权重改变,而是因为:

  • 证据不断积累
  • 推理变得更加丰富
  • 模拟变得更加精确

这与人类经验相符。

资深员工的思维方式并无不同,他们只是见识过更多情况。

他们可以模拟各种结果:

“如果我们周五部署,值班人员将会受到影响。”

这就是一个世界模型。

10、上下文图的真正需求

要构建一个上下文图,必须解决三个问题:

  • 捕获事件时钟:推理必须被视为一等数据。
  • 让模式成为输出:本体从代理的轨迹中涌现,而非预先设计。
  • 构建世界模型,而非检索系统:如果你能模拟“如果……会怎样”,你就构建了一些东西。

下一代平台不会通过以下方式取胜:

  • 在记录系统中添加人工智能
  • 加快检索速度
  • 无限扩展模型

它们将通过构建智能叠加的基础设施来取胜。

部署的代理不仅执行操作,还会留下结构。

系统不仅记住事实,还会记住原因。

模型是引擎。

上下文图是使模型发挥作用的世界模型。


原文链接:How to Build a Context Graph?

汇智网翻译整理,转载请标明出处