【读Gemini CLI源码,品Agent架构设计】系列文章(一) —— Agent Loop设计与实现
「写给读者的话」本系列文章记录了笔者在学习 Gemini CLI 源码过程中的点点滴滴,更多从代码实现细节中学习如何设计一个优秀的代码 Agent,希望对大家有帮助。 阅读导读:带着这些问题来读,或许
「写给读者的话」本系列文章记录了笔者在学习 Gemini CLI 源码过程中的点点滴滴,更多从代码实现细节中学习如何设计一个优秀的代码 Agent,希望对大家有帮助。 阅读导读:带着这些问题来读,或许
本文跟踪2023-2025年的大模型评测发展动态,提炼出其核心要素和方法。并结合货运行业特性,以及真实业务沉淀出最佳评测体系。该体系已在邀约、客服等多条业务线落地,显著加速了AI能力在公司的规模化应用
在落地可逆计算理论和Nop平台的过程中,我反复观察到一种现象:一些核心设计思想,程序员听完之后觉得“确实有道理”,但他们事前绝不会自己想到。 这种“想不到”不是因为智力不够或知识不足,而是因为日常编程
昨晚,我开始在我的一台空白服务器上部署openclaw,还对接了QQ去执行我的指令,大模型我选用的kimi 2.5进行思考。
OpenClaw Memory 模块完整分析 一、项目背景 OpenClaw 是一个本地优先的个人 AI 助手,支持多种消息通道(WhatsApp、Telegram、Slack 等)。Memory 模
深入解读 MyCodeAgent,一个面向学习与实验的代码代理框架,聚焦工具协议、上下文工程、子代理与可观测性,让「Agent 能做什么」与「为什么能做」都可追溯、可验证、可扩展
大模型微调技术全景解析:从LoRA到RLHF的演进之路 1. 引言:为什么要微调大模型? 大语言模型(LLM)虽然在海量数据上进行了预训练,具备了强大的通用能力,但在特定领域或任务上往往表现平平。微调
在使用 AI Agent 开发复杂任务(如代码重构、长篇写作)时,最头疼的就是“断档”。一旦程序崩溃或需要分阶段执行,AI 往往会丢失之前的上下文。 Anthropic 发布的 Claude Agen
目前AI编程的痛点是:项目一大就缺上下文,靠贴代码+字符串搜索定位不准,改动容易牵一发动全身。而Serena作为一个工具包,通过MCP给AI配上IDE级工具,能让模型能在真实代码里更稳地定位与改代码。
任何时代都会有技术的发展,历史课本里面讲述第一次工业革命,仅仅是一段文字就概括了一个时代的变迁。 在这两年,人工智能的发展,逐渐从历史的阅览者。
从Token预测说起 大语言模型的核心工作原理非常简单:给定前面的0到n个Token,预测第n+1个Token是什么。 举个例子: 输入:"今天天气" 模型需要预测下一个词可能是:"很好"、"不错"、
学习通是常用的学习工具,可以随时进行学习,找到你需要的资源,跨平台就能在线学习,了解学习的进度,但是很多小伙伴找不到入口在哪,下面就分享给大家。学习通网页版登录
点击阅读