每周AI论文速递(260209-260213)
OPUS: Towards Efficient and Principled Data Selection in Large Language Model Pre-training in Every
OPUS: Towards Efficient and Principled Data Selection in Large Language Model Pre-training in Every
检索增强生成简介 检索增强生成(RAG)是一种帮助你处理大型文档的技术,这些文档太大而无法放入单个提示中。RAG不是将所有内容塞进一个庞大的提示中,而是将文档分解成块,并在回答问题时只包含最相关的部分
大家好,我是孟健。 90%的程序员已经在用 AI 写代码了,但 90%的人还停留在"让 AI 补全下一行"。 这不是我说的。Google Chrome 团队的 Addy Osmani,两天前在 O'R
从 memo 的实践中提炼出安全设计的三道防线:子进程管理防止内存泄漏与资源耗尽、命令守卫拦截危险操作、审批系统平衡权限与体验。还有那把「双刃剑」——dangerous 模式。
PageIndex:无向量推理型 RAG 框架深度解析 一、传统 RAG 系统的工作流程与痛点 1.1 传统 RAG 的核心流程 传统 RAG 系统的关键环节
这是一个非常有意思的话题,近日有人对 Anthropic 发出了灵魂质问,既然 Claude Code 已经能 100% 自己给自己写代码,那么为什么 Anthropic 还有上百个工程师的岗位空缺:
本文档系统讲解智能文档解析技术——从传统规则到深度学习,涵盖版面分析、表格提取、复杂版式处理与多模态理解,助你掌握从PDF/图片到结构化数据的完整技术栈。
如果说**预训练(Pre-train)**是让模型在图书馆里读万卷书,那么 SFT(有监督微调) 就是教模型如何通过考试、如何与人沟通,而 LoRA 则是完成这一过程最经济高效的“手术刀”。 一、 S
AI Agent的Context Engineering:构建Manus的经验教训。Manuns为何放弃模型微调选择了上下文工程?
在构建 AI 应用时,仅仅能够“调用”模型是不够的。为了让 LLM(大语言模型)不仅能“跑通”,还能“跑好”,我们需要精准地控制它的输出行为、响应时间以及容错机制。 Vercel AI SDK Cor
2026年2月12日,小米开源首代机器人VLA大模型Xiaomi-Robotics-0,以47亿参数、80ms延迟、消费级显卡实时执行的性能,刷新三大基准测试全项SOTA。这不仅是技术突破,更是具身智
从这节课开始,我们将对 LangChain 中的六大核心组件一一进行详细的剖析。 模型 位于 LangChain 框架的最底层,它是基于语言模型构建的应用的核心元素,因为所谓 LangChain 应用
学习通是常用的学习工具,可以随时进行学习,找到你需要的资源,跨平台就能在线学习,了解学习的进度,但是很多小伙伴找不到入口在哪,下面就分享给大家。学习通网页版登录
点击阅读