爱思盒子
75.00M · 2026-02-04
近日,Anthropic 发布了 《How AI assistance impacts the formation of coding skills》 ,这篇论文主要核心解释了一个问题:AI 写代码能让你更快交付,但会不会让你“学得更慢、懂得更少”?
因为 Anthropic 发现,在对 Claude.ai 数据的观察性研究中,虽然 AI 可以将某些任务的速度提高 80%,但这种生产力的提升是否会带来一些弊端呢?因为有其他研究表明,当人们使用 AI 辅助时,他们对工作的投入度会降低 ,投入的精力也会减少 ,换句话说:
或者再贴近生活点,你多久没有自己从头到尾阅读一篇文章或者论文了?你是不是都是通过 AI 去总结和思考,是不是只是在获得知识,而不是学会技能?
所以 Anthropic 这篇研究主要测试的是被试者的学习速度和掌握程度:
让开发者在短时间内学习一个自己没用过的 Python 异步库(Trio),做两段功能开发,然后立刻做测验,看是否真正理解“刚刚用到的概念”
用测验题覆盖他们刚刚接触到的关键能力:
为了比“问卷”更有说服力,这是一个随机对比实验,而且对象是真实软件工程师:
这套设计的目的不是让被试者主观汇报“我觉得我学会了/我觉得我更快了”,而是让你做题来验证“你到底会不会” 。
而测试结果也很出乎意料:更快一点点,但懂得少一截 ,根据结果可以看到:
掌握程度显著下降
差距相当于“接近两个等级”(例如从 B 跌到 D 的差距),并且统计上显著(文中给了 Cohen’s d=0.738, p=0.01,最明显的差距出现在 Debugging 题:也就是“知道哪里不对、为什么不对”,这对“AI 时代的工程师”反而是更关键的能力。
所以针对结果可以总结:AI 没让你稳定更快,但更容易让你“做完了却没学会”。
而对于这篇论文,最有价值的部分不是“用 AI 就完了”,而是“你怎么用” ,作者发现 AI 并不必然导致低分,关键在“交互模式”,他们从录屏里归纳出 6 种模式,并且能对应到明显不同的学习结果:
这些模式平均分 < 40%:
1、AI delegation(完全委托写代码)
2、Progressive AI reliance(越写越依赖)
3、Iterative AI debugging(让 AI 负责排错/验证)
这里有个很反直觉的点:
作者把平均分 ≥65% 的行为看成“保学习”的模式:
1、Generation-then-comprehension(先生成,再逼自己理解)
2、Hybrid code-explanation(要代码也要解释)
3、Conceptual inquiry(只问概念,不让它替你写)
当然,作何也认为这不只是“写码圈焦虑” ,论文认为,AI 会让人降低认知投入、更不投入地完成任务(cognitive offloading) ,例如:
所以可以认为,使用 AI 的过程,就是一个把“认知外包”的过程,这个过程现在从抽象概念落到了一个非常具体的技能上:异步编程库的学习与调试能力 。
这和之前大家关心的“Agent/自动化把活干完”是同一条线:
于是出现一种结构性悖论:越依赖 AI,越缺乏监督 AI 的能力。
那怎么把这篇研究落到开发者日常用 AI 写码”?如何“既提速又不丢技能”,其实可以直接对照他们的高分模式,做几个很具体的操作习惯:
如果要生成代码:强制解释 + 你复述,例如提示词里加两句:
Debug 时别让 AI 直接修,先让它“定位与假设”
当然,作者自己也承认它是“第一步”,因此具备局限性:
所以它更合理的结论不是“AI 会让人变菜”,而是:
而更长远的考虑是,你是不是在使用 AI 的过程中丧失了思考,随着 AI 越来越强,你是不是越来越弱?特别是初级工程师,过度依赖 AI 可能会导致“技能发育不良”:
而对企业/管理者,短期生产力的提升(AI 带来的效率)可能以长期专业能力的流失为代价,如果工程师失去了审查和调试 AI 代码的能力,未来的系统风险将增加。
www.anthropic.com/research/AI…