未感染者模拟器
62.73M · 2026-04-13
我发了一篇关于 V8 引擎 STW(Stop-The-World)坚控的底层原理文章,死磕 AudioWorklet 和 SharedArrayBuffer。内容极硬,导致阅读门槛极高。
为了让这坨“骨头”更好啃,我尝试用 Google NotebookLM 录了一期 20 分钟的深度技术播客。
整个过程分为三步,没有任何冗余动作:
输入 (The Feed) :
将博文原稿、stw-sentinel 源码、以及我在 GitHub 收集的几份 V8 GC 运行数据直接丢进 NotebookLM。
生成 (The Generation) :
调用 NotebookLM 的 “Deep Dive Conversation” 功能生成对谈。
SharedArrayBuffer 咬文嚼字地念成了 "shared... array... buffer" 三个独立的词,完全没有程序员读专有名词时那种连贯的技术术语感。这个细节暴露了 AI 尚未完全吃透底层上下文——但这恰恰是“0 录音”必须承受的真实代价。部署 (Deployment) :
导出音频转成 .m4a,直接部署到静态博客的 /blog/podcast 路径下,并挂载到 /lab 实时坚控看板里。
这套玩法本质上是一套全栈内容策略。同一个技术点,被我强行拆出了四种形态:
转化率怎么样?
说个残酷的实话:播客上线 24 小时,0 播放,0 下载。
但我反而不焦虑了。因为“一鱼四吃”的意义就在于此:诚实面对极度垂直的受众面,不把所有的鸡蛋放在单一图文的篮子里。文字没人看,也许海外老哥会看X的视频;播客现在没人听,也许某天某个架构师在通勤路上就点开了。总有一条路,能触达对的人。
2026 年,技术输出不应该只有枯燥的文字。如果你想听听 AI 是怎么生涩又努力地读出那段内存寻址坑的,欢迎来我的实验室当个闲散听众:
播客:diffserv.xyz/blog/podcast
实验室:diffserv.xyz/lab
你会用 AI 帮你的博文“开口说话”吗?