二次元绘画创作
56.21M · 2026-02-04
最近,anomalyco 开源的 OpenCode 在开发者圈子里火了起来。它不像传统 Copilot 插件那样只做补全,而是一个能理解自然语言指令、自主操作文件系统、运行测试甚至调试的 AI 编码代理(AI Coding Agent) 。很多团队开始尝试基于它构建内部工具,甚至探索对外提供 SaaS 服务。
但很快,一个问题浮现出来:OpenCode 默认依赖 Claude 或 OpenAI。这意味着:
于是,不少人转向 自建开源代码大模型(如 Meta 的 CodeLlama、DeepSeek-Coder、StarCoder2),通过 vLLM 或 TGI 部署推理服务。这解决了模型层的问题,但新的挑战又来了:
这时候,我注意到一个低调但极其务实的开源项目 —— LLMProxy。它不做模型、不搞 UI,只专注一件事:为自建 LLM 服务提供生产级网关能力。而在 OpenCode 的商业化路径中,它恰好扮演了关键角色。
OpenCode 期望后端提供标准的 OpenAI 兼容接口(/v1/chat/completions)。LLMProxy 能将你的 vLLM/TGI 服务自动包装成这一格式,无需修改 OpenCode 客户端配置——只需把 api_base 指向 LLMProxy 地址即可。
写代码时,用户需要逐 token 实时看到输出。LLMProxy 对 SSE(Server-Sent Events)做了零缓冲透传,确保首 token 延迟(TTFT)几乎无增加,体验媲美商用服务。
这是商业化的核心。当 OpenCode 发起一次请求,LLMProxy 会在响应结束后(包括流式请求的 [DONE] 事件)异步推送 prompt_tokens 和 completion_tokens 到你的 Webhook。你可以据此实现:
整个过程非阻塞,不影响主链路性能。
对于希望快速验证商业模式的小团队来说,这种“开箱即用”的设计极大降低了运维成本。
text
编辑
1[OpenCode Client]
2 ↓
3[LLMProxy] ←→ [Webhook 计费系统]
4 ↓
5[vLLM + CodeLlama-34B] ← 私有化部署,数据不出内网
你只需:
api_base 为 LLMProxy 地址即可拥有一个完全自主可控、可计量、可收费的 AI 编程服务平台。
LLMProxy 并不是一个“炫技”型项目,它没有大模型、没有前端、甚至没有复杂的控制台。但它精准地解决了 自建 LLM 服务走向生产落地的最后一公里问题——尤其是像 OpenCode 这类需要稳定、可计量、低延迟后端的智能代理场景。
如果你正在探索:
那么,LLMProxy 值得你花 10 分钟试一试。
PS:目前已有团队基于此方案为中小开发团队提供按 token 计费的 OpenCode 服务,客单价从几百到数千元/月不等。基础设施的成熟,正在让“一个人的 AI 公司”成为可能。