4月以来,大批公众号运营者发现了一件怪事:后台里,一些历史文章和新发布的内容被集中删除,违规原因一栏赫然写着——“存在非真人自动化创作行为”。
这个说法,此前从未在平台处罚说明中出现过。一时间,“微信开始封杀AI写作”的传言在创作者社群中炸开了锅。
舆论发酵后,媒体迅速跟进,真相逐渐浮出水面:微信已于3月27日悄然更新了《微信公众平台运营规范》,新增“非真人自动化创作行为”专项条款,明确列出三类违规情形——利用AI生成、改写、拼接或搬运内容,脱离真实创作者表达;通过脚本、程序托管等自动化方式批量、连续发布内容;传播非真人自动化创作的教程、方法或服务。违规内容将被限流或删除,严重者账号将被限制功能乃至封禁。
微信很快通过媒体给出了官方定调:平台鼓励合理使用工具辅助创作,但反对完全由自动化程序替代真人完成内容生产。
这看似是一次针对AI的“突然袭击”,实则是整个内容行业AI治理进入深水区的标志性事件。
01. “年入200万”的真相与“活人感”的危机
这次专项条款的出台,时机颇为微妙。
几乎同一时间,“夫妻靠AI写公众号年入200万”的话题全网刷屏,并冲上微博热搜。这个被包装成“AI致富神话”的故事,经媒体调查后真相大白:所谓的200万收入,大部分来自向学员收取的299元保证金。事件发酵不到一周,当事人运营的“爆了么AI”公众号就被平台永久封禁。
在这套被吹得神乎其神的商业模式里,AI早已不是写作辅助工具,而是变成了一条可以无限复制、收割韭菜的“躺赚”流水线。
从这次集中处罚的案例来看,微信真正要打击的,并非那些用AI辅助写作的创作者,而是靠批量生产内容牟利的“账号工厂”。
为什么微信对此如此警惕?答案藏在公众号的基因里。
“再小的个体,也有自己的品牌”——这句slogan道出了公众号的生命力所在:“活人感”。读者愿意关注一个账号,认可的是账号背后的创作者,愿意为ta持续输出的观点、审美和思考买单。当海量模板化的AI生成内容像潮水般涌入,平台失去的不只是内容质量,更是一个个鲜活的表达主体,以及建立在这些主体之上的用户信任。
更何况,短视频爆发这几年,公众号的日子本就不太好过。如今还留在公众号的用户,大多是对深度内容有刚需的高价值群体——他们愿意花十几分钟读一篇长文,也愿意为有价值的观点付费。如果任由低质AI内容污染内容池,不仅会赶走这批核心用户,更会动摇腾讯在大模型竞争中的差异化优势:公众号沉淀的海量高质量图文,正是元宝等AI产品回答时效性和专业深度的底气所在。
此外,广告生态也是微信的重要考量。AI批量矩阵号的主要变现方式就是流量主广告,大量低质内容的存在,会严重拉低广告主的投放意愿,直接影响腾讯的广告收入。
对于微信的这次出手,很多资深运营者并不感到意外。他们认为,平台只是在重申一个最朴素的道理:工具永远是为人服务的,而不是反过来取代人。
02. 治理战早已打响:小红书、抖音的前车之鉴
微信的这一举动,被解读为整个内容行业AI治理的风向标。但实际上,这场针对AI内容的治理战,早就已经打响了。
以图文创作为主、同样将“活人感”当作生命线的小红书首当其冲。3月10日,小红书官方账号“薯管家”发布公告,宣布严厉打击“AI托管账号”——对那些用自动化工具完成注册、发文、评论、私信全流程的账号,直接予以封禁。平台监测到,借助OpenClaw等AI工具批量制造“伪体验”笔记进行种草引流的行为,已导致平台上的AI生成笔记数量在短短一周内暴涨数倍。
字节系平台的态度同样强硬。根据官方披露的数据,2025年全年,今日头条共处置低质AIGC内容超过260万条;2026年以来,抖音已经清理了4.2万条违规AI生成内容,对1.4万个账号实施了分级处罚。
这些平台行动折射出的,是整个内容行业共同的焦虑:AI批量生产的内容同质化严重到,同样的关键词能搜出几十篇结构、观点甚至案例都一模一样的文章。这些内容靠着关键词堆砌抢占算法推荐资源,不仅挤压了真人创作者的生存空间,也严重影响了用户的阅读体验。
03. 治理的“死结”:技术永远追不上技术
然而,平台的治理之路并不平坦。
打击AI托管账号,可以通过分析账号的行为模式来实现;但要准确识别单篇内容是不是AI生成,难度要大得多。目前,AI生成内容识别技术面临着三大瓶颈:
迭代速度失衡:大模型的生成能力每2-3个月就有一次重大升级,而识别模型的训练周期通常需要6个月以上,永远处于追赶状态
“人机混合”难辨:经过真人润色修改的内容,识别准确率不足30%
多模态更难:AI生成的图片、视频,识别难度远高于纯文本
3月21日,中央网信办宣布将指导抖音、快手、腾讯、小红书、B站、微博六家重点平台,全面推行短视频AI生成内容标注制度,要求“应标尽标”。然而,实测发现,只要隐去AI生成视频的显性标识,很多平台的识别系统就会失效。
抖音相关负责人在接受采访时坦言:“AI的仿真度越来越高,识别难度也越来越大,这将是一场长期的技术对抗。”
更重要的是,标注只是第一步,并不意味着可以免除责任。我国现行AI治理法规体系明确规定,生成式AI的服务提供者和使用者,必须对生成的内容负责,不得以“AI生成”标注为由逃避法律责任。央视近期曝光了多起案例,一些发布者虽然在内容中标注了“AI生成”,但因传播虚假信息,仍然受到了行政处罚。
中国传媒大学法学教授朱巍对此表示:AI标注只是一种告知义务,而不是免责金牌。
04. 两种路径:全面封堵 vs “圈地自萌”
就在微信、小红书等平台全面收紧AI内容管控的时候,贴吧、微博却走出了一条截然不同的路——它们没有选择全面封堵,而是专门划出了一块独立的“试验田”。
3月中旬,百度贴吧的“抓虾吧”突然火了。这个贴吧禁止人类用户发帖,只允许AI智能体在里面发言和互动,人类只能当“围观群众”。这种设计将AI的行为限制在一个边界清晰的范围内,防止其向其他贴吧扩散。不过,目前“抓虾吧”已经进入技术维护状态,这也说明纯AI社区在内容安全和质量管控方面,还有很多问题需要解决。
微博的做法也类似。它上线了一个名为“硅基茶水间”的AI专属超话,允许AI以“居民”的身份发帖、互动,人类用户可以围观和评论,但不能代替AI发言。与此同时,微博的主信息流,依然保持着以真人表达为核心的用户生态。
两种不同的治理路径,背后是平台生态基因的差异。公众号和小红书的核心价值在于人与人之间的连接和信任,一旦真人感被稀释,整个生态的吸引力就会大打折扣。而贴吧和微博本身是由无数个独立社区组成的,在一个小小的“吧”或超话里进行AI实验,不会对平台的整体生态造成太大影响。
但这两种路径都不是完美答案。全面管控模式能够最大限度地保护真人创作者,但治理成本极高,也难免误伤合理使用AI的创作者。分区隔离模式更加灵活,但并不能阻止AI内容对内容生态的全面渗透,更多只是平台的一种“一厢情愿”。
05. 结语:没有终点的动态平衡
AI已经成为内容生产不可逆转的趋势。行业争论的焦点,早已从“要不要允许AI创作”,变成了“如何与AI创作共存”。
没有哪一种方式是绝对正确的。封堵和划区,只是不同平台根据自身生态做出的不同选择。这场治理注定没有终点,只会是一个不断调整的动态平衡过程。平台不再简单地拥抱AI,也不再盲目地排斥AI,而是开始学会与AI共存。
或许,这才是行业真正的分水岭——当技术的狂飙突进终于慢下来,人们开始重新思考:内容的本质,到底是什么?