一个刺眼的悖论正在会议室和财报电话中被反复提及:公司报表上对生成式AI的投资曲线陡峭向上,员工使用日志里的AI调用量屡创新高,然而,预期的生产力跃升和利润回报却像海市蜃楼般难以触及。麻省理工学院早前的一份报告曾指出,高达95%的企业在AI投资上未见可衡量回报。钱和热情流向了哪里?一部分,或许正淹没在一种新型的组织“代谢废物”之中——我们可称之为 “AI伪工作”。
这指的是员工利用AI工具快速生成的、外观规整、内容空洞、缺乏实质见解或行动指向的工作成果。它们像精致的“包装空盒”,被传递给下一个环节的同事、上级或下属。接收者需要花费额外的心力去解读、补充背景、纠正错误,甚至推倒重来。AI没有减少工作,它只是巧妙地将认知负担从发起者那里,转移并放大了。
一、“伪工作”的蔓延:一场静默的“效能转移”瘟疫
根据一项针对超过千名知识型工作者的调研,在过去一个月中,近四成的受访者明确表示收到过典型的“AI伪工作”。这些产物遍布各个层级:平级同事之间是重灾区(约占四成),但也不乏下属向上级“交差”(18%)或管理者向下派发(16%)的情况。专业服务、科技、咨询等以信息处理为核心的行业尤为突出。
打开一份这样的文档或幻灯片,典型的体验是:初看结构工整、语句流畅,细读却感到空洞无物、逻辑悬浮,关键决策信息缺失,仿佛隔着一层精致的磨砂玻璃看问题。你不禁怀疑:“这真的是经过人脑思考后的输出吗?”
其本质,是将本应由创作者完成的“理解-思考-整合”过程,外包给机器进行“模仿-拼贴-美化”,而后将“解读-判断-重构”的硬骨头丢给了接收者。这与历史上的“认知外包”(如依赖搜索引擎记忆)有本质不同:后者是人与机器的单向减压,而前者是借助机器,在人与人之间进行了效能的“不正当转移”。
二、被低估的“四重税”:组织为“伪工作”付出的真实代价
“AI伪工作”绝非无伤大雅的小聪明,它正在向组织征收高昂的、隐形的“四重税”。
1. 生产力税: 调研数据显示,处理单次“伪工作”事件,平均需耗费接收者近2小时。这包括理解意图、核实信息、沟通澄清乃至返工的时间。换算成薪资,仅此一项,单个员工每月可能带来近两百美元的隐性成本。对于一个万人大企,年损失可能轻松突破千万美元门槛。
2. 决策质量税: 当报告充满AI生成的“正确的废话”而缺乏真知灼见,当数据分析看似全面却回避了核心矛盾的归因,基于此类输入的决策,其质量与风险可想而知。它让组织在关键问题上“失明”,或在虚假的共识上狂奔。
3. 情感与关系税: 超过半数的接收者感到“恼怒”,近四成感到“困惑”,超两成觉得“被冒犯”。更深远的影响在于信任侵蚀:近半数的接收者会因此降低对发送者在“创造力”、“可靠性”和“能力”方面的评价,超过三分之一的人表示未来不愿再与之合作。协作的基石——信任——正在被悄然腐蚀。
4. 创新文化税: 当“快速交差”比“扎实思考”更容易获得即时认可(至少表面如此),一种追求浮华形式、回避深度探究的“浅薄工作文化”便会滋生。长此以往,组织将失去攻坚克难、产生突破性见解的土壤。
三、根源探析:是技术之过,还是人性弱点被技术放大?
将问题简单归咎于AI技术本身是片面的。更深层的原因在于,生成式AI如同一面放大镜和一把易用的利器,它放大了人性中固有的惰性、走捷径的倾向,并为“敷衍了事”提供了前所未有的、高质量的“伪装能力”。
过去,一份敷衍的报告可能漏洞百出、语句不通,容易被识别。现在,AI能为其披上语言流畅、格式专业的外衣,使得“敷衍”的门槛和辨识难度都大幅提升。同时,来自高层的、无差别的“拥抱AI”压力(“所有报告都必须用AI辅助”),也在客观上助长了不加思考的复制粘贴行为,因为员工担心不用AI会显得“不够先进”或“未遵循指令”。
四、破局之路:从“无差别推广”到“有目的协作”
要打破这一困局,将AI从“内耗发生器”扭转为真正的“效能倍增器”,领导者需要推动三场变革:
1. 终结“AI形式主义”,推行“场景化智能”: 领导者必须停止发出“凡事皆用AI”的模煳指令。相反,应与团队共同界定:在哪些具体场景下,AI能真正充当“思考伙伴”或“效率工具”(如头脑风暴创意、初稿撰写、数据初步整理)?在哪些关键环节(如战略决策、客户判断、创新构思)必须保持人类思考的深度主导?制定清晰的《AI应用场景指南》,是防止工具滥用的第一道防线。
2. 培养“AI领航员”,淘汰“AI乘客”: 员工的心态决定AI的效用。我们可以观察到两种典型模式:“领航员”主动驾驭AI,将其用于拓展思维边界、提升创造力,以达成更高目标;“乘客”则被动使用AI,旨在逃避思考、减轻眼前负担。数据显示,“领航员”对AI的使用频率和创造性远高于“乘客”。组织应通过培训、案例分享和激励机制,系统性培养员工的“领航员”心智——即高主动性、高目标感、以及对人机协作的积极掌控意识。
3. 重塑协作契约,明确“AI产出责任”: 必须建立新的协作准则:任何包含AI产出的工作交付,其最终责任与质量要求,与完全由人完成的交付物别无二致。 发送者不能以“这是AI生成的”作为质量低下或缺乏思考的借口。同时,鼓励在协作中明确标注AI的贡献部分,并开放讨论AI生成内容的局限性,将其作为团队学习和优化提示的素材。AI应成为透明化的协作中介,而非模煳责任的黑箱。
结语:工具之上,是人的理性与责任
生成式AI带来的这场“效能悖论”,本质上是对组织管理智慧和个体职业素养的一次压力测试。“AI伪工作”的泛滥警示我们,技术飞跃不会自动带来组织进步。如果缺乏清晰的战略意图、严谨的管理框架和深厚的责任文化,最先进的工具也可能沦为制造内部噪音、损耗组织能量的利器。
未来的高效能组织,必定是那些能够有目的地驯化AI,将其嵌入经过深思熟虑的工作流,并始终坚持“人负责决策、AI负责赋能”这一铁律的团队。投资的回报,终将流向那些用理性驾驭工具,而非被工具反噬的企业与人。