量化不仅是一种“压缩技术”,更是一场关于计算效率与信息精度的深刻博弈。其核心思想是:用更粗糙但更高效的数值系统,去模拟复杂的智能行为。


一、 量化的数学哲学:映射与格点化

量化的本质是将神经网络中连续的浮点数(Floating Point)映射到离散的整数(Integer)空间。

  • 公式核心Q=clamp(round(RS+Z);Qmin,Qmax)Q = text{clamp}left(text{round}left(frac{R}{S} + Zright); Q_{min}, Q_{max}right) Rapprox=(QZ)×SR_{approx} = (Q - Z) times S
    • RR (Real):原始浮点值。
    • QQ (Quantized):量化后的整数。
    • SS (Scale):缩放因子(步长)。
    • ZZ (Zero-point):零点偏移,确保浮点 0 对应整数格点。

二、 关键参数 SSZZ 是如何获得的?

获取这两个参数的过程被称为 校准 (Calibration),它是量化精度的“生死线”。

1. 寻找数值范围 (Dynamic Range)

要算 SSZZ,首先要确定原始数据的最小值 (αalpha) 和最大值 (βbeta):

  • 权重校准:权重是静态的,直接遍历该层矩阵即可获得。
  • 激活值校准:激活值随输入变化,需准备 128~512 条真实数据(校准集)跑一遍模型,记录各层输出的分布。

2. 确定阈值的策略

  • Min-Max (全域法):直接取 [min,max][text{min}, text{max}]。虽然保留了所有信息,但极易受“离群值”(Outliers)干扰,导致中间大部分数值分辨率极低。
  • Entropy / KL 散度法:寻找一个截断阈值,使得量化前后的信息熵丢失最小(忽略极个别偏离巨大的噪点)。
  • Percentile (分位数法):忽略最极端的 0.1% 的点,取 99.9% 处的值作为边界。

3. 参数计算

一旦确定了 [α,β][alpha, beta],即可根据量化位数(如 INT8INT8 的范围是 [128,127][-128, 127])计算:

  • S=βαQmaxQminS = frac{beta - alpha}{Q_{max} - Q_{min}}
  • Z=round(QminαS)Z = text{round}(Q_{min} - frac{alpha}{S})

三、 计算过程:整数域的降维打击

真相纠正:量化推理不是“还原成浮点数再算”,而是在整数域直接战斗。

  1. 带宽红利 (Bandwidth): 从显存搬运 INT4INT4 数据比 FP16FP16 快 4 倍,极大缓解了“内存墙”问题。
  2. 算力红利 (Integer Arithmetic)
    • 直接对战:显卡 Tensor Core 直接执行 INT4×INT4INT4 times INT4 运算。
    • 底层优势:整数运算单元电路简单,单周期内的吞吐量远高于浮点单元。
  3. 反量化时机
    • 大规模的乘加运算都在整数域(累加器)中完成。
    • 延迟还原:只有在这一层计算彻底结束、准备进入下一层前,才进行一次反量化乘法 R=(QZ)×SR = (Q - Z) times S

四、 进阶:如何让参数更准?(GPTQ & AWQ)

普通的线性映射对智商损耗较大,进阶算法引入了补偿机制:

  • GPTQ (误差补偿):量化某权重产生误差时,微调该层其他尚未量化的权重,利用“二阶导数(海森矩阵)”信息抵消误差。
  • AWQ (重要通道保护):发现激活值中 1%1% 的核心通道决定了精度,通过先对这些核心权重进行“预缩放”,让它们在量化后的格点中位置更优。

五、 总结:量化的三重收益

收益维度物理体现结果
存储收益16-bit to 4-bit体积缩小 75%,廉价显卡跑大模型。
带宽收益显存读取速度翻倍解决生成卡顿,提升 Token/s 吞吐。
算力收益整数单元替代浮点单元提高计算效率,支持更高并发。

一句话总结:量化是用局部的精度舍入(Rounding Error),换取全局计算效率的指数级飞跃。

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:alixiixcom@163.com