喵喵宠物医院
86.09M · 2026-04-08
很多初学者有一个误区:认为大模型天生就会对话。其实不然,原始的底座模型(Base Model)只会“续写”。如果你问它“北京的首都在哪?”,它可能会接着写“上海的首都在哪?”。
它是如何变成现在这种能听懂指令、遵守规矩的 Assistant(助手) 的?
为了让模型听话,科学家们喂给了它成千上万组 [Instruction, Response] 数据。
经过这个阶段,模型形成了一种强烈的条件反射:每当它在上下文的最前端看到特定的标记(比如 [INST] 或 <|system|>),它的注意力机制(Attention)就会进入“高度戒备”状态,优先处理这些指令。
在架构中,System Prompt 是所有交互的起点。它被放置在上下文的最顶端,拥有最高等级的注意力权重。
代码段
graph TD
subgraph Context_Window [上下文窗口]
SP[System Prompt: 核心规则/人格]
History[History: 之前的聊天内容]
Current[User Input: 当前问题]
end
SP -- "最高注意力权重" --> LLM{LLM 决策层}
History -- "背景参考" --> LLM
Current -- "当前任务" --> LLM
LLM --> Output[符合规则的回答]
style SP fill:#ff9999,stroke:#333,stroke-width:2px
在博客中,你可以重点解释为什么 Rule 必须写得极其明确。AI 并不理解暧昧的词汇,它理解的是概率的边界。
加载原理: 当我们在谈论“加载一个 Skill”时,本质上是将这个 Skill 对应的特定 Rules 动态插入到 System Prompt 之后。
了解了指令遵循,你就能理解“越狱”的原理了: 越狱就是通过极其冗长、复杂的 User Input,诱导模型的注意力机制发生偏移,让它关注“角色扮演”而忽略了最顶层的 System Prompt 约束。