从注意力剥削到判断力剥削:AI 时代认知损耗的商业机制

 次点击
23 分钟阅读

从一个不安的直觉说起

我最近注意到自己的一个变化:用 AI 写东西的时候,我越来越少问自己"我想表达什么",越来越多地在想"AI 写得好不好"。有一天我意识到,我已经不太记得自己独立构思一篇完整文案是什么感觉了。

这让我想到另一个类似的经历——几年前开始刷短视频之后,我发现自己读长文章时的体验变得越来越糟糕——注意力不再像从前那样能沉进去,总是读着读着就涣散了。

这两件事表面上毫无关系,但我越想越觉得它们是同一种东西。

短视频与 AI 的两种吞噬:一个吃注意力,一个吃判断力

短视频不只是让人花时间,它在重塑注意力结构本身。刷了三年短视频的人,不是"注意力被占用了",而是注意力的基本形态变了——你的大脑已经被训练成只能处理15秒一个单位的信息。这不是时间管理问题,是硬件改造。

AI 正在对判断力做同样的事。

表面上一个是娱乐,一个是生产力工具,但底层逻辑完全一致:通过替代一种关键认知能力,制造更深的使用依赖。 短视频替代你分配注意力的能力——它帮你决定下一秒看什么。AI 替代你形成判断的能力——它帮你决定下一步怎么想。

区别在于,短视频吞注意力这件事,大多数人已经有体感了。刷完两小时抬头,那种空虚是真实的。但 AI 吞判断力?几乎没人觉得这是个问题。你让 AI 帮你写了一封邮件、整理了一份报告、做了一个决策框架,你觉得自己效率翻倍了。你不会觉得自己丢了什么。

这恰恰是更危险的地方。

效率诱惑不是快感诱惑的对立面,是它的前置条件

硅谷有一套经典叙事:AI 解放人类,让人去做更有创造力的事。

我越想越觉得这是一句精心包装的谎话。

被 AI 省下来的时间去哪了?去深度阅读了?去独立思考了?去创造了?大概率没有。大概率流向了短视频、社交媒体、即时满足。AI 帮你把工作压缩到四小时,多出来的四小时你拿去刷抖音了。

这不是两种独立的问题,这是一条完整的链条:

AI 省下时间 → 时间流向短视频 → 注意力进一步退化 → 认知能力下降 → 更依赖 AI 来弥补认知缺口 → AI 再省下时间……

效率诱惑的终点不是创造力爆发,是娱乐时间的膨胀。 短视频和 AI 不是各自为战的两个产品,它们构成了一个认知剥削的闭环——一个负责制造空闲,一个负责填满空闲,用户的认知能力在这个循环里持续失血,两边的平台持续获利。

平台只奖励使用,不奖励能力保全

短视频平台的核心指标是使用时长。AI 平台的核心指标是调用频次。

没有任何一个平台的商业模型里,包含"用户认知能力是否退化"这个变量。不是因为它们邪恶,是因为这个变量和利润无关。能力受损的代价不由平台承担。这是一个结构性的激励错位,不是某个公司的道德问题。

想想外卖。外卖刚开始是"今天懒得做饭"。半年后是"不太会做了"。一年后是"不知道什么算好吃了"。三个阶段:偶尔偷懒 → 丧失技能 → 丧失评判标准。

AI 对判断力的侵蚀走的是完全相同的路径。

我自己用 AI 写代码就经历过这个过程。最开始,AI 生成的每一行我都会看,理解逻辑,有时候还会改。三个月后,我开始直接运行看结果,报错了再丢回给 AI 改。我从"理解代码的人"退化成了"验收代码的人"。更可怕的是,验收能力本身也在萎缩——因为我越来越不理解代码为什么要这样写,我只知道它跑通了。

这就是"偶尔偷懒 → 丧失技能 → 丧失评判标准"的认知版本。

糖和假肢:快感依赖可以戒断,功能依赖嵌入了你的生产流程

短视频像糖。你知道不健康,但停不下来。这是快感依赖。

AI 像假肢。你不是不想摘,是摘了就不能走路了。这是功能依赖。

功能依赖比快感依赖危险得多。 糖你可以戒,戒的时候你难受,但你知道自己在戒。假肢你怎么摘?它已经嵌入了你的工作流程、你的生产能力、你的交付标准。当所有人都用 AI 提速,不用的人面临效率惩罚。你的同事用 AI 一天出三份报告,你手写一份,老板不会夸你"保持了认知主权",老板会问你为什么这么慢。

所以"你可以选择不依赖 AI"和"你可以选择不刷短视频"是同一种话术——把结构性问题归咎于个体意志力。

有人说"AI 只是工具,关键看人怎么用"。这句话预设了使用者始终拥有足够的判断力来决定"怎么用"。但问题恰恰在于:这个工具的使用过程本身就在削弱你做出这个决定的能力。这不是一个静态的人和工具的关系,是一个动态的能力侵蚀过程。你今天有判断力决定"怎么用",不代表用了一年之后你还有。

没有人会觉得"让机器替你举铁"能让你变强壮。但几乎所有人都相信"让 AI 替你思考"能让你变聪明。差别在于肌肉萎缩你看得见,认知萎缩你看不见。

代价的不可见性才是最大的代价

注意力下降你能感知到。刷完三小时手机,那种空虚、焦躁、无法集中精神读完一页书的感觉,是真实的身体反馈。你知道自己出了问题。

但判断力退化几乎无感。

你不会意识到自己已经不会想了,因为你总能拿到一个看起来不错的答案。 AI 给你的答案80分,你觉得挺好。但你不知道的是,如果你自己想,也许能想到一个95分的、完全不同方向的答案——或者至少,你会在思考过程中产生三个新的问题,而这三个问题比那个80分的答案更有价值。

这就是认知外包的终极陷阱。计算器普及之后,几乎没有人觉得心算能力的丧失是个问题,因为"反正有计算器"。但这恰好证明了:当你完全依赖工具后,你甚至丧失了评估自己损失了什么的能力。

自动驾驶领域有个著名的"自动化悖论":当系统99%的时间都能自己开,人类驾驶员在那1%需要接管的关键时刻反而反应更差。长时间不参与操控,警觉性和判断力同步退化。AI 辅助思考面临完全相同的悖论——你让它处理99%的思考,在那1%真正需要你自己判断的时刻,你已经判断不了了。

还有一个被忽视的东西:过程本身的价值。写文案的过程中产生的思考、写代码时的调试逻辑、做研究时的信息筛选和权衡取舍——这些"中间环节"恰恰是认知能力生长的土壤。但在效率视角下,它们永远被标记为"可省略的成本"。AI 消灭的不是痛苦,是痛苦中孕育的认知生长。学生用 ChatGPT 写论文,老师发现的不只是抄袭问题,而是学生逐渐丧失了"不知道从哪里开始想"的那种焦虑——而那种焦虑,恰恰是思考的起点。

这条产业链最精密的地方就在这里:它让你在浑然不觉中完成了认知主权的让渡。

认知主权不是能力问题,是你的思考还是不是你的

有人会说,这种"工具恐惧论"每个时代都有,苏格拉底还反对文字呢。

但这次不一样。文字替代的是记忆,记忆外包之后,人类发展出了更高级的分析能力和抽象思维。但 AI 替代的是推理和判断。判断力外包之后,你用什么去发展更高级的能力?判断力本身就是认知能力的顶层。

这就是我最终想说的:AI 时代最重要的问题不是会不会用 AI,而是如何在使用 AI 时不把认知主权一并交出去。

但这个问题的困难在于一个悖论——保持认知主权需要判断力,而判断力恰恰是正在被侵蚀的东西。

我没有药方。我不打算假装有。任何简单的建议——"每天留出不用 AI 的时间""重要决策自己先想再问 AI"——都是把结构性问题矮化成个人习惯管理。这个问题和气候变化是同一类:每个人都知道问题存在,每个人都在加剧问题,但没有人有足够的激励去改变,因为改变的成本由个体承担,不改变的代价由集体分摊。

我能做的只是指出这个悖论本身。

当一个工具的最佳使用体验,是让你越来越少思考,它就天然带有认知剥削属性。而我们正在集体走进这个陷阱,面带微笑,因为它确实很好用。

© 本文著作权归作者所有,未经许可不得转载使用。