几何图形计算器
40.01M · 2026-03-05
已经一年多没有输出技术文章了。这一年忙着人生几件大事——买房、装修、结婚,但停笔的另一个原因,是愈发强烈的失语感。
这一年多来重度使用AI,发现它能生成结构更工整、表达更流畅的内容;自己吸收新知的渠道,也慢慢从文档、书籍转移到了各个大模型。既然答案触手可及,动笔的必要性究竟在哪里? 这是我想厘清的问题。
以前坚持写技术文章,是因为发现了一个关于"真懂"的悖论:
表格
| 阶段 | 状态 | 特征 |
|---|---|---|
| 输入 | 看了文档/视频 | "好像懂了" |
| 实践 | 动手做过 | "能做出来" |
| 输出 | 写成文章 | "能讲清楚" ← 这才是真懂 |
写作是最后的检验仪——那些你以为理解的概念,往往在试图解释时暴露出逻辑断层。
当然,如果只是为了"给别人看",直接让AI代笔似乎更划算。但如果是为了让自己研究明白,亲手梳理的过程依然不可替代。只是代价确实高昂:每篇文章动辄10+小时,翻遍资料、反复推敲、润色表达。
更挫败的是,对于日常CRUD工作,很多技术细节几个月不用就淡忘。回看自己写过的东西,那些曾钻研得通透的知识点,如今竟也陌生。当时越通透,过后越干净。 这种"白写"的感觉,让人怀疑持续投入的意义。
或许,后续应该转向输出做事的方法论——那些跨技术栈、不易过时的思考方式,反而能引发更深层的交流。
比个人输出更迫切的,是近一年来对AI Coding的深度依赖带来的隐忧。
随着模型能力跃升,大部分功能实现都可以交给AI完成。网上各公司也在大力推广AI编程工具,仿佛这是唯一的未来。但我不禁想问:当应届生从一开始就习惯用AI写代码,甚至用AI学代码,这个行业的人才培养会出现断层吗?
这不止于编程。如果未来各行各业都过度依赖AI、放弃深度求索,人类是否正在亲手拆除自己的认知基座?
理想的AI使用方式,是用AI加速思考;危险的方式,是用AI替代思考。当下的风险在于,许多学习者正在经历后者:
表格
| 传统成长路径 | AI辅助路径 | 关键差异 |
|---|---|---|
| 理解原理 → 实践验证 → 熟练运用 | 描述需求 → AI生成 → 调试运行 | 跳过了"理解"环节,直接获得结果 |
| 在错误中积累直觉 | 依赖AI纠错,缺乏"痛感"的经验 | 失去对"为什么错"的深层感知 |
认知摩擦(cognitive friction)——那些让人抓耳挠腮、反复试错的挣扎过程——恰恰是深度学习发生的时刻。当AI抹平了这些摩擦,我们也同时失去了通过挣扎获得深刻理解的机会。
如果一代人从未独立解决过复杂问题,他们如何具备评判AI输出的能力? 这种判断力并非天生,它依赖于:
领域直觉:知道"这看起来不对"的第六感,来自无数次踩坑
第一性原理:能拆解到基础层验证逻辑,而非停留在表面调试
边界认知:清楚什么是AI擅长的,什么是它容易"幻觉"的
讽刺的是:这些能力恰恰需要通过不依赖AI的深度学习才能获得。全程AI陪伴的成长,就像永远骑着辅助轮骑车——看似在前进,却从未真正掌握平衡。
"人才断代"并非指未来没有优秀工程师,而是人才结构可能出现危险的空心化:
更深远的影响在于创新能力的枯竭。AI擅长模式重组,但突破性创新往往来自对底层约束的深刻理解和质疑——而这种质疑的勇气和能力,需要你在某个领域曾经比AI懂得更深。
风险不在于使用AI,而在于用AI外包思考而非增强思考。几点应对思路:
经过这一年的停顿与反思,我逐渐厘清了一个判断:在AI能生成完美答案的时代,人的价值不在于"知道更多",而在于"如何思考" 。
未来的输出重心,将从具体技术细节转向做事的思想与流程——那些跨领域、耐磨损、且AI难以直接给出的"元能力"。