论文查重检测
80.49M · 2026-03-22
如果 agents 已经能写 99% 的代码,那该怎么招工程师?这就是今天讨论的话题,实际上大家普遍不觉得 AI 时代就不需要人了,AI 只是开始接管写代码这个事情,但是代码也只是软件工程的其中一环,就目前 AI 的发展趋势上,人还是需要的,只是人的角色在发生变化 。
这也是 Augment Code 公司的观点:当 Agent 已经能承担大量执行的工作后,工程师的核心竞争力,就需要从「把代码写出来」转向「决定该做什么、怎么做、如何保证结果可靠」,也就是 AI-native 工程师 ,不再纠结于前端后端,不在区分 Android 还是 iOS ,React 还是 Vue,Go 还是 Elixir ,更多关注的是:
对于这个变化,Augment Code 也归纳出一个对比:
而这次最有意思的是,Augment Code 给出了他们招聘 AI-native 工程师的几个核心评价标准。
首先是,你是不是在做正确的东西?,他们认为,代码生产后面越来越便宜,最贵的错误反而是“方向错了”,所以工程师要更会理解用户问题、消解模糊需求、可以做到在实现之前先定义结果。
其次就是这个东西能不能活过生产环境?
Augment Code 觉得,agent 很擅长写出「能跑的代码」,但不擅长判断项目长期是否健康、架构是否能承受规模、运维风险会不会在后面爆掉等。
这个也是未来 AI-native 工程师的核心能力,因为很多线上系统的问题,从来不是「写不出来」,而是有许多边缘情况需要标注出来,例如:
而 agent 经常会产出 “locally correct code that's globally incoherent” ,也就是局部看起来是可以的,但是放到整体就不协调了。
这个范畴问的是你能不能把 AI 真正转化成工程吞吐?不是“会不会用 AI”,而是:
这个角色里,你像带一个「干活非常快、但有时会自信地犯错」的下属,AI 场景下工程师之间的差距不是「谁会用 Claude / Codex / Cursor」,而是谁能让同样的模型、同样的工具,稳定地产生更高质量结果。
这也是很重要的一环,因为 AI 都接管执行了,那人的在物理世界的最大作用就是沟通,你能不能把意图说清楚,同时让不同角色快速形成共识?
因为实现速度快了,所以项目瓶颈会前移到问题定义、tradeoff 澄清、跨职能对齐等场景,Augment Code 觉得:最快的团队不是代码写得最快,而是最快达成清晰共识的团队。
然后就是责任,AI 不会背锅,而人才是背锅主体,所以这里的问题就是你是不是对结果负责,而不是只对任务负责?,过去优秀的工程师也不是只完成自己的代码,而是会主动处理未来可能存在的阻碍,例如:构建速度慢、流程模糊、系统间断裂等情况。
最后就是你的进化速度能不能跟上工具变化速度?
Augment Code 认为,今天的工具三个月后可能就过时了,所以最重要的是高频实验、快速调整工作流、愿意放弃旧的工作方式。
可以看到,所以维度里 Augment Code 都很少提到代码能力,至少写代码能力不是一个单独维度,因为它已经不是首要区分项,因为它认为,代码能力正在从“筛人主轴”退化成“基础设施能力”。
所以具体到场景上,Augment Code 在会在面试里问类似问题:
然后他们把候选人划成四类画像:
最后总结来说,核心观点就是:写代码这个执行成本已经越来越轻了,什么框架什么语言都不是重点,重点是人的架构思想,产品理念和管理协调能力,遇到深度问题或者难点,有没有办法指定 Agent 走出困境,这是他们认为未来新时代的能力。
当然,就目前看 Github 已经被很多 Vibe Coding 的 AI 项目充满,而这些项目普遍 README 写的很好,但是存在不少效果难评,这对于 AI 来说也是很大的污染。
所以这对于人来说,也是价值所在,你的决策能力就是你的价值体现。
www.augmentcode.com/blog/how-we…