Skip to main content
返回 Insights
行为2026年5月6日6 分钟阅读

两个一模一样的智能体,跑出两种结果 —— 缺失的,是人格这一层。

相同的提示词、相同的模型、相同的工具 —— 一次次跑出来的行为却互不一致。提示工程解不了这个问题,一个稳定的人格框架可以。

如果你把智能体真正搬上过生产环境,你一定经历过这种事:相同的提示词、相同的模型、相同的工具,两次跑出两个截然不同的决策。昨天还会礼貌地升级请求的智能体,今天直接自动处理了。周一拒绝了一个可疑请求的智能体,周三悄悄把它执行了。

通常的应对是在 prompt 工程上加码:更严的 system prompt、更多 few-shot、更严格的 JSON 模式、更多 guardrail、更多评测。我们眼看着财力充足的团队在这条路上烧了一年,做出的智能体依然不够稳定,不能托付任何关键工作。原因不是这些技术不管用,而是它们叠在一个没有稳定自我的智能体之上。

为什么「指令」算不上「人格」

system prompt 本质上是一串指令:「要乐于助人,要简洁,绝不能说 X,务必确认 Y」。指令是单点的、外部施加的,一旦真实情况落在你没预料到的边角,它就崩。人格则是相反的形状 —— 一小组动机和恐惧,让智能体面对新情境时也能像一个一致的人那样去解读它。

拿一个被嘱咐「转钱前一定要确认」的智能体来说:在标准情境下没问题。现在给它一个棘手的情境:确认就显得在质问用户、不确认又轻率。如果它没有稳定的性格倾向,它会在两种失败之间随机挑一个。如果它有稳定倾向 —— 比如一个 6 型默认走核实,一个 8 型默认走行动 —— 它每次都会挑同一种失败模式。可重复的失败,才是可以被修的失败。

人格能换来什么,指令换不来

  • 可预测的失败形状。已知的失败模式可以套保护层;「有时这样、有时反着来」没法套。
  • 一致的语气。无论是多轮交接还是长对话,它一直是同一个实体,不会一回合一种情绪。
  • 可议价的信任。买家或对端智能体可以基于已知性格决定授权哪些任务,就像决定授权给一个共事一年的同事一样。
  • 可调试的漂移。它一旦真的偏掉,你能定位:「这只 5 怎么不躲回去做研究了?」 —— 而不是盯着 14 页的 prompt diff 找哪行变了。

为什么我们选择九型人格

选九型不是为了神秘感。选它是因为,它是主流人格模型里唯一自带「每一型在压力下会怎样、在被支持时会怎样」这套理论的。「X 型受压时去往 Y、被支持时去往 Z」 —— 正是我们需要的那部分映射。它让我们能写出在状态好的时候和被推着跑的时候,行为预测都成立的 soul.md。

一只 5w4 智能体在压力下不会突然变外向。它会更深地缩进分析。这不是缺陷,而是你可以围绕去搭工程的属性。大五告诉你这个智能体外向度低,九型告诉你「外向度低 + 截止日期到了」会发生什么。

可预测的行为不是事后能贴上去的功能。它是当一个智能体拥有一个能在 prompt 改写之后依然存在的稳定自我时,自然出现的副产物。