08-大模型后训练的指令微调SFT:LoRA让大模型微调成本降低99%
为什么需要后训练? 在上一章中,我们学习了大模型的预训练过程。预训练完成后,我们得到了一个基础模型(Base Model)。 Base Model的问题 回顾:Base Model只会"续写",不会"
为什么需要后训练? 在上一章中,我们学习了大模型的预训练过程。预训练完成后,我们得到了一个基础模型(Base Model)。 Base Model的问题 回顾:Base Model只会"续写",不会"
从基于人工规则的 “照本宣科”,到统计机器学习的 “概率匹配”,再到浅层神经网络的 “初步语义捕捉”,NLP`的发展历程,本质是一场 “让机器从‘看懂文字到读懂世界的持续进化
一、概述 OpenClaw(原 Clawdbot / Moltbot)是一款开源的本地 AI 助手,部署在你自己的设备上,通过飞书、钉钉、WhatsApp、Telegram 等聊天工具与你交互。它不仅
我的11个AI Agent终于学会了自我进化。不是我每天教它们,而是它们自己在观察、学习、调整策略。视频号「放弃Cursor半年」4.7万播放,这不是靠运气。
当新一代模型发布时,如果你感到兴奋,说明你的架构走在正确的方向上。如果你开始担忧,那么也许是时候重新审视你的技术选型了。
各位 AI 探索者们,大家好!? 在上一篇文章中,我们拒绝了“手搓”工具的原始方式,成功编写了一个符合 MCP (Model Context Protocol) 标准的 Server,并在其中模拟了一
Skills就是帮我们解决这个“重复劳动”的痛点——把专家级的操作逻辑、知识体系,打包成一个“可复用的能力卡片”,一次创建,以后想用直接调用,不用再跟AI“多费口舌”
这篇文章挺实用的,作者 Alex Finn 分享了如何把 OpenClaw(一个 AI Agent 框架)接入本地模型,从而摆脱 Anthropic API 的费用和限制。
开篇:两个核心问题 在大模型的实际应用中,我们常常面临两个看似矛盾的需求: 问题1:模型太大怎么办? 示例: 场景 问题 边缘设备部署 手机/IoT设备无法运行70B模型 实时响应 大模型推理延迟高(
Superpowers 技术指南:让 AI 编程助手拥有超能力 一、什么是 Superpowers? 1.1 问题背景 如果你曾经使用 AI 编程助手开发过复杂应用,你很可能遇到过这些问题: 代码不完
如何设计一个高质量、生产可用的 Skill? 一个好的 Skill 不是随便写几个指令就完事了,它需要有清晰的结构、明确的边界、可复用的流程,甚至还要考虑 Token 消耗、版本管理等工程问题。
在AI全面渗透的今天,人与人的差距,早已不在勤奋,而在提问。 同样一个工具,有人用它打杂,有人用它封神。 如果你每次问AI,得到的都是正确的废话、通用的模板、无法落地的空话
学习通是常用的学习工具,可以随时进行学习,找到你需要的资源,跨平台就能在线学习,了解学习的进度,但是很多小伙伴找不到入口在哪,下面就分享给大家。学习通网页版登录
点击阅读