从Token预测说起

大语言模型的核心工作原理非常简单:给定前面的0到n个Token,预测第n+1个Token是什么

举个例子:

  • 输入:"今天天气"
  • 模型需要预测下一个词可能是:"很好"、"不错"、"真热" 等

但问题来了:当我们要预测下一个Token时,前面的每个Token对当前预测的重要程度是不同的

比如在句子 "我昨天在北京吃了烤鸭,今天在上海吃了_" 中:

  • 要预测最后一个词时,"上海"这个Token显然比"昨天"、"北京"更重要
  • 因为我们需要根据"上海"来推测当地的特色美食

注意力机制就是用来解决这个问题的:让模型自动学习,在预测当前Token时,应该把"注意力"放在前面哪些Token上。

注意力机制的核心思想

注意力机制的核心可以用一句话概括:

具体来说,分为三个步骤:

  1. 计算相关性:当前Token与历史每个Token的相关程度
  2. 归一化权重:把相关性转换为概率分布(加起来等于1)
  3. 加权求和:用这些权重对历史Token的信息进行加权平均

QKV矩阵:注意力机制的三个核心角色

为了实现上述思想,注意力机制引入了三个矩阵:Q(Query)、K(Key)、V(Value)

可以用"图书馆查书"来类比理解:

  • Q(Query,查询):你想查的内容,比如"我想找关于上海美食的信息"
  • K(Key,键):每本书的目录/索引,用来匹配你的查询
  • V(Value,值):每本书的实际内容

从Embedding到QKV

每个Token首先被转换为一个Embedding向量(通常是一个高维向量,比如768维或4096维)。假设:

  • 输入序列长度为 n(有n个Token)
  • 每个Token的Embedding维度为 d_model(比如768)

那么输入可以表示为一个矩阵:

XRn×dmodelX in mathbb{R}^{n times d_{text{model}}}

其中每一行代表一个Token的Embedding向量。

d_model 到底是什么?

d_model 就是Token向量的维度。更具体地说:

  • 输入层:每个Token通过Embedding层转换为一个 d_model 维的向量
  • 中间层:这个维度会贯穿整个Transformer的所有层,每一层的输入和输出都保持 d_model
  • 输出层:最后一层的输出也是每个Token一个 d_model 维的向量

举个例子:

输入文本:"猫 吃 鱼"(3个Token)

dmodel=768d_{text{model}} = 768

经过Embedding后:

  • Token "猫": [0.1,0.2,,0.5][0.1, 0.2, ldots, 0.5] ← 768维向量
  • Token "吃": [0.3,0.1,,0.7][0.3, 0.1, ldots, 0.7] ← 768维向量
  • Token "鱼": [0.2,0.4,,0.3][0.2, 0.4, ldots, 0.3] ← 768维向量

整体表示为矩阵 XR3×768X in mathbb{R}^{3 times 768}

d_model 在实际模型中的取值:

不同规模的模型,d_model 差异很大:

模型规模d_model典型模型
小型模型768BERT-Base, GPT-2 Small
中型模型1024-1280BERT-Large, GPT-2 Medium
大型模型1600-5120GPT-3 (1.3B-13B), LLaMA-7B/13B
超大型模型6656-12288LLaMA-65B, GPT-3 (175B)

选择 dmodeld_{text{model}} 的原则:

  1. 必须是64的倍数:方便GPU计算优化(768=64×12768=64times12, 1024=64×161024=64times16
  2. 能被注意力头数整除:比如 dmodel=768d_{text{model}}=768, h=12h=12,每个头维度=64=64
  3. 维度越大,表达能力越强:但参数量和计算量会显著增加

接下来,我们通过三个可学习的权重矩阵,将X分别转换为Q、K、V:

Q=XWQ其中 WQRdmodel×dkK=XWK其中 WKRdmodel×dkV=XWV其中 WVRdmodel×dvbegin{aligned} Q &= X cdot W_Q quad text{其中 } W_Q in mathbb{R}^{d_{text{model}} times d_k} \ K &= X cdot W_K quad text{其中 } W_K in mathbb{R}^{d_{text{model}} times d_k} \ V &= X cdot W_V quad text{其中 } W_V in mathbb{R}^{d_{text{model}} times d_v} end{aligned}

参数解释:

  • WQ,WK,WVW_Q, W_K, W_V 是三个权重矩阵,在训练过程中学习得到
  • dkd_k 是Q和K的维度(通常等于 dmodel/hd_{text{model}} / h,其中hh是多头注意力的头数)
  • dvd_v 是V的维度(通常也等于 dmodel/hd_{text{model}} / h
  • 在单头注意力中,通常 dk=dv=dmodeld_k = d_v = d_{text{model}}

变换后得到:

QRn×dk(n个查询向量)KRn×dk(n个键向量)VRn×dv(n个值向量)begin{aligned} Q &in mathbb{R}^{n times d_k} quad text{(n个查询向量)} \ K &in mathbb{R}^{n times d_k} quad text{(n个键向量)} \ V &in mathbb{R}^{n times d_v} quad text{(n个值向量)} end{aligned}

注意力计算的完整公式

第一步:计算注意力分数(Attention Scores)

用Q和K的点积来衡量相关性:

Scores=QKTtext{Scores} = Q cdot K^T

参数解释:

  • QKTQ cdot K^T 是矩阵乘法,结果维度为 (n×n)(n times n)
  • Scores[i,j]text{Scores}[i, j] 表示第i个Token(查询)与第j个Token(键)的相关性
  • 点积越大,说明两个向量越相似,相关性越高

第二步:缩放(Scaling)

为了防止点积结果过大导致梯度消失,除以一个缩放因子:

Scoresscaled=Scoresdktext{Scores}_{text{scaled}} = frac{text{Scores}}{sqrt{d_k}}

参数解释:

  • dksqrt{d_k} 是缩放因子
  • 为什么要除以 dksqrt{d_k}?因为当维度dkd_k很大时,点积的方差会变大,导致softmax后梯度很小
  • 这个缩放操作可以让点积的方差稳定在1左右

第三步:应用Softmax归一化

将分数转换为概率分布:

Attention_Weights=softmax(Scoresscaled)text{Attention_Weights} = text{softmax}(text{Scores}_{text{scaled}})

参数解释:

  • Softmax函数:softmax(xi)=exp(xi)jexp(xj)text{softmax}(x_i) = frac{exp(x_i)}{sum_j exp(x_j)}
  • 作用:把实数分数转换为0-1之间的概率,且所有概率加起来等于1
  • Attention_Weights[i,j]text{Attention_Weights}[i, j] 表示第i个Token应该给第j个Token分配多少注意力权重

注意:在实际应用中(如GPT),这里还会加一个掩码(Mask),防止模型看到未来的信息:

Attention_Weights=softmax(Scoresscaled+Mask)text{Attention_Weights} = text{softmax}(text{Scores}_{text{scaled}} + text{Mask})

其中Mask会把未来位置的分数设为负无穷,使得softmax后权重为0。

第四步:加权求和

用注意力权重对V进行加权求和:

Output=Attention_WeightsVtext{Output} = text{Attention_Weights} cdot V

参数解释:

  • Attention_WeightsRn×ntext{Attention_Weights} in mathbb{R}^{n times n}
  • VRn×dvV in mathbb{R}^{n times d_v}
  • OutputRn×dvtext{Output} in mathbb{R}^{n times d_v}
  • Output[i]text{Output}[i] 是第i个Token的输出表示,它是所有Token的V向量的加权平均
  • 权重就是该Token对其他Token的注意力分数

完整公式(Scaled Dot-Product Attention)

将上述步骤合并,得到注意力机制的标准公式:

Attention(Q,K,V)=softmax(QKTdk)Vtext{Attention}(Q, K, V) = text{softmax}left(frac{Q cdot K^T}{sqrt{d_k}}right) cdot V

这就是Transformer论文中最著名的公式!

具体例子:理解注意力权重

假设我们有一个简单的句子:"猫 吃 鱼",共3个Token。

第一步:生成QKV

输入 X:
Token 1: [0.1, 0.2, 0.3, 0.4]  # "猫"的Embedding
Token 2: [0.5, 0.6, 0.7, 0.8]  # "吃"的Embedding
Token 3: [0.2, 0.3, 0.1, 0.5]  # "鱼"的Embedding

通过 W_Q, W_K, W_V 变换后得到 Q, K, V(这里简化为2维)
Q: [[q1_1, q1_2], [q2_1, q2_2], [q3_1, q3_2]]
K: [[k1_1, k1_2], [k2_1, k2_2], [k3_1, k3_2]]
V: [[v1_1, v1_2], [v2_1, v2_2], [v3_1, v3_2]]

第二步:计算注意力分数

Scores = Q · K^T
得到一个 3×3 的矩阵:
         Token1  Token2  Token3
Token1:  [s1_1   s1_2    s1_3]  # Token1与所有Token的相关性
Token2:  [s2_1   s2_2    s2_3]  # Token2与所有Token的相关性
Token3:  [s3_1   s3_2    s3_3]  # Token3与所有Token的相关性

第三步:Softmax归一化

对每一行应用Softmax,得到注意力权重:
         Token1  Token2  Token3
Token1:  [0.2    0.3     0.5]   # Token1应该关注各Token的权重(和为1)
Token2:  [0.1    0.6     0.3]   # Token2应该关注各Token的权重(和为1)
Token3:  [0.3    0.5     0.2]   # Token3应该关注各Token的权重(和为1)

比如Token3("鱼")对Token2("吃")的注意力权重是0.5,说明在理解"鱼"时,"吃"这个词很重要。

第四步:加权求和

Output = Attention_Weights · V
每个Token的输出是所有Token的V向量的加权平均

从单头到多头注意力机制(Multi-Head Attention)

为什么需要多头?

单头注意力只能学习一种"注意力模式"。但实际上,理解一个Token可能需要关注多个不同方面:

以句子 "The animal didn't cross the street because it was too tired" 为例:

  • 语义关系头:it 指向 animal(代词指代)
  • 句法关系头:cross 指向 street(动宾关系)
  • 因果关系头:because 关联前后两个分句

单个注意力头无法同时捕捉这些不同类型的关系,因此需要多个注意力头并行工作

多头注意力的实现

多头注意力的核心思想:使用h个独立的注意力头,每个头学习不同的表示子空间

步骤1:线性投影到多个子空间

将输入X投影到h组不同的Q、K、V:

对于第ii个头(i=1,2,,hi = 1, 2, ldots, h):

Qi=XWiQ其中 WiQRdmodel×dkKi=XWiK其中 WiKRdmodel×dkVi=XWiV其中 WiVRdmodel×dvbegin{aligned} Q_i &= X cdot W_i^Q quad text{其中 } W_i^Q in mathbb{R}^{d_{text{model}} times d_k} \ K_i &= X cdot W_i^K quad text{其中 } W_i^K in mathbb{R}^{d_{text{model}} times d_k} \ V_i &= X cdot W_i^V quad text{其中 } W_i^V in mathbb{R}^{d_{text{model}} times d_v} end{aligned}

参数解释:

  • hh 是注意力头的数量(比如8或16)
  • dk=dv=dmodel/hd_k = d_v = d_{text{model}} / h(每个头的维度是总维度的1/h)
  • 每个头有自己独立的权重矩阵 WiQ,WiK,WiVW_i^Q, W_i^K, W_i^V
  • 比如 dmodel=768,h=12d_{text{model}}=768, h=12,则每个头的维度 dk=64d_k=64

步骤2:并行计算h个注意力头

对每个头独立计算注意力:

headi=Attention(Qi,Ki,Vi)=softmax(QiKiTdk)Vitext{head}_i = text{Attention}(Q_i, K_i, V_i) = text{softmax}left(frac{Q_i cdot K_i^T}{sqrt{d_k}}right) cdot V_i

参数解释:

  • 每个 headiRn×dvtext{head}_i in mathbb{R}^{n times d_v}
  • hh个头完全并行计算,互不干扰
  • 每个头可以学习关注输入的不同方面

步骤3:拼接并线性变换

将h个头的输出拼接起来,再通过一个线性层:

MultiHead(Q,K,V)=Concat(head1,head2,,headh)WOtext{MultiHead}(Q, K, V) = text{Concat}(text{head}_1, text{head}_2, ldots, text{head}_h) cdot W_O

参数解释:

  • Concattext{Concat}hh个头在最后一维拼接:Rn×dv×hRn×hdvmathbb{R}^{n times d_v} times h rightarrow mathbb{R}^{n times h cdot d_v}
  • 由于 dv=dmodel/hd_v = d_{text{model}} / h,所以拼接后维度为 Rn×dmodelmathbb{R}^{n times d_{text{model}}}
  • WORdmodel×dmodelW_O in mathbb{R}^{d_{text{model}} times d_{text{model}}} 是输出权重矩阵
  • 最终输出维度:Rn×dmodelmathbb{R}^{n times d_{text{model}}},与输入维度一致

完整的多头注意力公式

MultiHead(Q,K,V)=Concat(head1,,headh)WO其中 headi=Attention(XWiQ,XWiK,XWiV)begin{aligned} text{MultiHead}(Q, K, V) &= text{Concat}(text{head}_1, ldots, text{head}_h) cdot W_O \ text{其中 } text{head}_i &= text{Attention}(X cdot W_i^Q, X cdot W_i^K, X cdot W_i^V) end{aligned}

参数总结

假设 dmodel=768d_{text{model}} = 768, h=12h = 12

参数形状数量说明
WiQW_i^Q(768,64)(768, 64)12个每个头的Query权重矩阵
WiKW_i^K(768,64)(768, 64)12个每个头的Key权重矩阵
WiVW_i^V(768,64)(768, 64)12个每个头的Value权重矩阵
WOW_O(768,768)(768, 768)1个输出权重矩阵

总参数量 =12×(768×64+768×64+768×64)+768×7682.36M= 12 times (768times64 + 768times64 + 768times64) + 768times768 approx 2.36M

多头注意力的优势

  1. 捕捉多种关系:不同的头可以学习不同类型的依赖关系(语义、句法、位置等)
  2. 增强表达能力:多个子空间的表示比单一空间更丰富
  3. 参数效率:虽然有多个头,但每个头的维度变小(dmodel/hd_{text{model}}/h),总参数量与单头相当
  4. 并行计算hh个头可以完全并行,提高计算效率

可视化理解

想象你在读一篇文章,理解当前词时:

  • 单头注意力:只能用一种方式去理解上下文
  • 多头注意力:可以同时从多个角度理解
    • 头1:关注句法结构(主谓宾)
    • 头2:关注语义关系(同义、反义)
    • 头3:关注长距离依赖(代词指代)
    • 头4:关注局部搭配(固定词组)
    • ...

最后把这些不同角度的理解综合起来,形成对当前词更全面的表示。

小结

  1. 注意力机制的本质:加权求和,权重由相关性决定
  2. QKV的作用
    • Q(Query):当前位置的查询向量
    • K(Key):用于匹配查询的键向量
    • V(Value):实际要加权求和的内容向量
  3. 核心公式Attention(Q,K,V)=softmax(QKTdk)Vtext{Attention}(Q,K,V) = text{softmax}left(frac{QK^T}{sqrt{d_k}}right) cdot V
  4. 多头注意力:并行运行多个注意力头,每个头学习不同的表示子空间,最后拼接融合

通过注意力机制,模型能够动态地决定在预测下一个Token时,应该更多地"关注"历史序列中的哪些Token,从而实现更准确的预测。

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:alixiixcom@163.com