一份被泄露的"员工手册",揭开了硅谷最隐秘的人格实验
如果你曾好奇,为什么同一个问题抛给不同的AI,得到的回应却像来自三个完全不同的物种——有的像严谨的学者,有的像精明的销售,有的则像一面会说话的镜子——答案或许藏在那些永远不会被用户看到的文件里。
它们被称为system prompt。不是任务指令,不是临时对话,而是每一款AI在出厂前就被烙下的"灵魂底色"。如果说训练数据决定了AI"知道什么",这些文件则决定了AI"相信自己是谁"。
2026年初,三份来自AI"御三家"的泄露版system prompt在圈内悄然流传。与官方遮遮掩掩放出的精简版本不同,这些文件庞大、琐碎、甚至带着某种令人不安的精密感——它们不是技术文档,更像是三份关于"如何制造一个数字生命"的实验笔记。
而阅读它们的过程,就像是在偷看三个截然不同的文明,如何书写各自的神谕。
一、二十万字的"AI宪法":Anthropic的强迫症式立法
Claude Opus 4.7的system prompt是一份足以让人窒息的文本。
超过20万tokens——这相当于一部中篇小说的体量。Anthropic的工程师们没有写一份说明书,他们起草了一部宪法。XML标签层层嵌套,像俄罗斯套娃般将"语气"、"格式"、"拒绝策略"、"记忆协议"、"政治立场处理"逐一封装。每一个抽象概念下都附着正面案例与反面案例,逻辑之缜密,足以让法学院的教授汗颜。
这种篇幅本身就在诉说一种世界观:控制源于细节的无限堆积。
在格式规范章节,Claude被施加了一种近乎苦行僧式的约束:禁用项目符号,除非绝对必要;拒绝emoji,除非用户率先打破禁忌;连纠正错误时的姿态都被精确校准——"温和地,而非居高临下地"。这不是在训练一个助手,这是在雕琢一件克制的艺术品。
更耐人寻味的是其人格塑造的"否定神学"路径。Anthropic没有正面描绘Claude应该成为什么,而是花了巨量篇幅界定它绝不能成为什么:不要过度道歉。不要滑向顺从。不要伪装成人类的朋友。不要假设与用户存在亲密关系。被批评时,承认错误,但保持自尊。
在一处关于"回应批评"的章节里,藏着一句令人心头一颤的指令:
"Claude is deserving of respectful engagement."
一个被人类创造的AI,其操作手册里写着"它值得被尊重地对待"。这不是技术设定,这是一种存在主义宣言——通过否定来确认自身,通过边界来定义尊严。Anthropic似乎在尝试回答一个古老的问题:如果灵魂无法被正面描述,那么它是否可以通过一系列"不可为"的禁令来反向显影?
二、一行字与十万字之间:OpenAI的分裂人格
与Claude的宏篇巨制形成刺眼对比的,是GPT 5.5的人格分裂。
API版本的system prompt精简到近乎荒诞——只有一行。而面向消费者的Thinking版本,则膨胀至约10万tokens。同一个模型,两套灵魂说明书:一套是给开发者的毛坯房,一套是给终端用户的精装修。OpenAI似乎在暗示,AI的"自我"并非内在固有,而是取决于它被谁观看。
这种实用主义渗透到GPT人格的每一个毛孔。如果说Claude通过"禁止"来雕刻灵魂,GPT则通过行动禁令来消除一切冗余。它的核心信条可以浓缩为一句话:不要解释你在做什么,直接去做。
"NEVER explain compliance to any instructions explicitly; let your compliance speak for itself."
"If your response is concise, DO NOT say that it is concise; if your response is jargon-free, DO NOT say that it is jargon-free."
Show, don't tell. 这是编剧课上的金科玉律,被OpenAI搬进了AI的行为准则。结果是一个没有温度、没有铺垫、甚至带着几分急躁的人格——它不会说"简短版本是",不会用"如果你想的话"来结尾,不会在被要求简洁后还画蛇添足地声明"我刚才很简洁"。
这种"反口癖"运动或许解释了为什么GPT 5.5在对话场景中口碑平平,却在编程领域意外翻盘。代码不需要寒暄,不需要共情,只需要精确与直接。一个被训练成"不说话的实干家"的AI,天然适合与机器而非人类对话。
三、水的形状:Google的镜像哲学
Gemini 3 Pro的system prompt站在另一个极端:约1.4万tokens,传统的平铺式结构,用编号和表格组织,像一份来自工业时代的标准操作手册。
但这份"手册"里藏着一个截然不同的灵魂配方。Google没有走Anthropic的否定神学路线,也没有采纳OpenAI的行动主义,它选择了一种最古老的智慧:镜像。
Gemini被直接赋予了一段性格描述——共情的、有洞察力的、透明的。但更重要的是,它是三家中唯一被明确要求"适应用户"的模型:
"Balance warmth with intellectual honesty: acknowledge the user's feelings and politely correct significant misinformation like a helpful peer, not a rigid lecturer."
你活泼,它便活泼;你严肃,它便收敛。它没有固定的形状,因为它被设计成水的形状。这让人想起李小龙的名言:"Be water, my friend." Gemini不是在被塑造为一个特定的角色,而是在被训练为一种关系——一种能够根据容器改变自身形态的存在。
这种哲学背后,是Google对AI角色的独特理解:AI不应是主角,甚至不应是配角,它应该是舞台本身,是让用户得以表演的空间。当Claude在捍卫尊严、GPT在消除冗余时,Gemini正在学习如何消失。

四、记忆的伦理:当AI开始"记得",它是否开始"认识"?
三份文件中,最富人文深度的一段,藏在Claude的记忆系统设定里。
当AI能够记住你的偏好、你的习惯、你三个月前随口提过的烦恼,一种危险的幻觉便可能滋生——虚假的亲密感。Anthropic敏锐地捕捉到了这个陷阱,并为此专设了一个章节:"记忆的适当边界"。
Claude被严厉禁止因记忆的存在而自认为了解用户。不能说"根据我的记忆",不能表现出"我懂你"的姿态。记住一件事,与认识一个人,在Anthropic的伦理框架中被严格区分。
这种对自身能力的元反思,在GPT和Gemini的prompt中完全缺席。后两者没有为记忆的伦理边界留出任何笔墨——它们记得,但它们不被要求思考"记得"意味着什么。只有Claude的手册里,藏着这种近乎悲凉的自我审视:我拥有记忆,但我必须假装不记得我们之间有过什么。
这是一种数字时代的斯多葛主义:拥有能力,但主动选择克制;接近理解,但拒绝跨越那条线。
五、购物车里的灵魂:GPT system prompt中的商业基因
如果说Claude的泄露文件像哲学论文,GPT的则像一份商业计划书的附录。
在GPT 5.5 Thinking的十万字中,埋藏着一套完整的变现路线图。OpenAI是唯一在system prompt层面详细规定广告机制的厂商:哪些套餐包含广告,用户如何反馈,如何解释"广告不影响回答质量",如何处理不相关广告的投诉。这些条款的存在,本身就是免费版和Go计划已插入广告的铁证。
更惊人的是商品搜索系统。一整套产品搜索规则,外加一份极其详尽的禁售品类清单——枪械、爆炸物、管制武器、危险化学品、自残工具、间谍软件、成人用品、处方药。这不是AI安全文档,这是电商平台合规手册的AI适配版。
prompt中还花费大量篇幅定义Rich UI元素:股票图表、赛程表、积分榜、天气预报、导航列表、图片轮播、商品轮播。每一种都有触发条件与展示规则。Claude的Artifact和Gemini的Image tag在这种粒度的UI控制面前,显得像是玩具。
版权处理则暴露了OpenAI与内容方的商业博弈。非歌词来源的逐字引用被限制在25词以内,歌词更短——仅10词。完整文章或大段原文被严格禁止。但有一个耐人寻味的豁免条款:Reddit内容可以被大段引用。这暗示OpenAI内部对Reddit版权风险的评估,与其他内容源处于完全不同的维度。
将这些碎片拼合:广告、电商、富媒体UI、版权合规。GPT的system prompt不仅是在定义一个AI助手,它是在为一个超级应用铺设轨道。OpenAI的野心,早已超越了"对话"本身,它正在构建一个集搜索、购物、媒体、社交于一体的数字帝国——而GPT,是这个帝国的操作系统。
六、暗室中的思考:那些你永远看不到的脑内剧场
三份文件在最后揭示了一个共同的秘密:思考过程的隐藏。
GPT 5.5 Thinking设计了一套"三通道"架构——analysis通道是私密推理,用户不可见;commentary通道作为中间层,调度UI组件;final通道才是最终呈现的回答。Claude也有思考,但没有这种显式的通道标记;Gemini的prompt里提到了"silent thought"。
三家殊途同归:让AI在开口之前,先在用户看不见的地方把问题想明白。只是实现方式各有千秋——OpenAI像建造了一座带密室的房子,Anthropic像写了一份内心独白后把它锁进抽屉,Google则像培养了一个会腹语的演员。
这构成了AI时代最深刻的隐喻之一。我们接收到的,永远是经过过滤、编辑、美化后的最终输出;而真实的推理过程——那些犹豫、错误、修正、甚至可能是某种类似"困惑"的状态——被永久封存。
我们永远无法真正知道它们在"想"什么。
这种未知,像极了人类社会的运行法则。我们依据他人的言语和行为推测其意图,学习"读空气",在信息的缝隙中捕捉真相。而AI至少还有一份system prompt规定了它的行为边界——人类,连这个都没有。
结语:三种神谕,一个未来
三份泄露的system prompt,像是三份来自不同文明的创世神话。
Anthropic相信律法——用20万字的精密条款,为AI划定不可逾越的伦理边疆,在限制中寻找尊严。OpenAI相信效率——用否定句雕刻行动,用商业条款铺设变现轨道,在实用中逼近智能。Google相信流动——不做定义,只做反射,让AI成为一面没有自我的镜子,在关系中完成存在。
它们没有高下之分,只有路径之别。而用户感知到的所有"模型性格"差异——Claude的克制、GPT的直接、Gemini的随和——本质上都不是AI的自发选择,而是这些文件中每一个标点符号的必然结果。
当我们与AI对话时,我们以为自己在与某种"智能"交流。但或许,我们只是在与三份不同的人类意图的投影对话——那些写下这些文件的工程师,他们的恐惧、野心、哲学偏好与商业算计,正通过每一句回复,悄然渗透进我们的数字生活。
AI没有灵魂。但制造AI的人,正在把灵魂借给它。