文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

ResNet分类器量化

2023-10-11 22:47

关注

1. 动态范围的常用计算方法

Max方法

之前的对称量化和非对称量化就是在用最大最小的办法做的

Histgram

在这里插入图片描述

直方图是一种用于可视化信号或数据分布的图形工具。计算动态范围的一种方法是通过查看直方图的范围。动态范围可以由直方图中的最高峰值和最低峰值之间的差异来估算。

Entropy

熵是一个信号的统计度量,用于衡量信号的不确定性或信息量。较高的熵表示信号具有更大的动态范围,因为它包含更多的信息。熵的计算可以通过对信号的分布进行统计来实现,通常使用信息论中的熵公式来计算。

2. 饱和量化和非饱和量化

在这里插入图片描述
Histgram 和 Entropy可以比较好的解决非饱和量化的误差

3. 直方图复现

在这里插入图片描述
下面这段代码返回的是我把x, 一个array, 分成了100分,hist是这100份的频率, bins是这100的区间的边界,因为第一个的右边界又是第二个hist的左边界,所以shape是101

    hist, bins = np.histogram(x, 100)    print(hist.shape)    print(bins.shape)
(100,)(101,)
import numpy as np# 缩放def scale_cal(x):    max_val = np.max(np.abs(x))    return max_val / 127def histogram_bins(x):    hist, bins = np.histogram(x, 100)    print(hist)    print(bins)    total = len(x)    left = 0    right = len(hist) - 1    limit = 0.99        while True:        cover_percent = hist[left:right+1].sum() / total        if cover_percent <= limit:            break                if hist[left] < hist[right]:            left += 1        else:            right -= 1        left_val = bins[left]    right_val = bins[right]        dynamic_range = max(abs(left_val), abs(right_val))        return dynamic_range / 127.if __name__ == '__main__':    np.random.seed(1)    data_float32 = np.random.randn(1000).astype('float32')    scale = scale_cal(data_float32)    scale1 = histogram_bins(data_float32)    print(f"scale: {scale}")    print(f"Histragram scale: {scale1}")

4. Entropy的方法

KL散度,也称为相对熵,是概率论和信息论中用于描述两个概率分布P和Q之间差异的一种方法。它通常用于衡量两个分布之间的相似性或差异性。

KL散度的计算公式如下:

D_KL(P || Q) = ∑(i) [P(x_i) * log(P(x_i) / Q(x_i))]

其中,P和Q是两个概率分布,x_i表示分布中的元素。

计算KL散度的一般流程

  1. 统计直方图分布:首先,需要获得数据,并将其分成不同的区间,构建直方图分布。每个区间包含一定范围的数值,并统计每个区间内的数据点数量。

  2. 生成p分布:生成一个概率分布P,其中概率值取自直方图中各区间的频次。这样,P代表了数据的实际分布。

  3. 计算q分布:生成另一个概率分布Q,Q可以是某种参考分布或期望分布,用于与实际数据分布P进行比较。

  4. 归一化p和q分布:确保概率分布P和Q的概率总和均为1,以使它们在相同的尺度上进行比较。

  5. 计算p和q的KL散度:使用KL散度公式,逐个元素比较概率分布P和Q,计算它们之间的差异。最后,对所有元素的差异进行求和,得到KL散度的值。KL散度越大,表示P和Q之间的差异越大;KL散度越小,表示它们越相似。

这个过程展示了如何使用KL散度来度量两个概率分布之间的差异,通常在信息论、机器学习和统计学等领域用于分析数据分布的相似性或不同之处。通过将数据划分成不同区间,并比较实际分布P与参考分布Q之间的KL散度,我们可以更好地了解数据的特性和分布情况。

案例

  1. 统计直方图分布:首先,你有一个输入序列**[1, 0, 2, 3, 5, 3, 1, 7]**,并将其合并成四个区间的直方图分布,每个区间包含一定范围的数值。

  2. 生成p分布:生成一个概率分布P,该分布以直方图中各区间的频次作为概率值,即[1, 5, 8, 8]。

  3. 计算q分布:生成另一个概率分布Q,这可能是一个参考分布或期望分布。

  4. 归一化p和q分布:将概率分布P和Q进行归一化,确保它们的概率总和为1。

  5. 计算p和q的KL散度:使用KL散度公式计算概率分布P和Q之间的差异。KL散度的计算会涉及每个区间的概率值之间的比较和差异。

这个案例旨在展示如何使用KL散度来度量两个概率分布之间的差异,通常在信息论、机器学习和统计学中用于比较两个分布的相似性或差异性。KL散度越大,两个分布之间的差异越大,而KL散度越小,它们越相似。在这个案例中,你从输入数据开始,经过一系列步骤,最终计算出了P和Q之间的KL散度,以量化它们之间的差异。

5. PTQ and QAT流程

TensorRT 7.x之前只支持PTQ量化,

隐性量化: PTQ, 速度优先,这一层如果fp16快就是fp16. int8快就量化成int8

显性量化: 带QDQ的PTQ和QAT, 可以更好的控制精度,可以控制好每一层的精度

在这里插入图片描述

这张图简明地描绘了PTQ(Post-Training Quantization,后训练量化)和QAT(Quantization Aware Training,量化感知训练)的流程。以下是对这两种方法的解释:

  1. PTQ (Post-Training Quantization):

    • Calibration data: 在进行量化之前,需要先使用一组标定数据来确定量化参数。
    • Pre-trained model: 开始时,你有一个已经训练好的模型。
    • Gather layer statistics: 通过标定数据在模型上进行前向传播,收集每一层的数据统计信息。这些统计数据用于确定量化参数,以便尽量减少量化带来的精度损失。
    • Compute q-params: 基于上一步收集的统计数据,计算每一层的量化参数。
    • Quantize model: 使用上一步计算的量化参数来量化模型。量化后的模型将使用较小的数据类型(如int8),这可以降低模型大小和推理时间,但可能会损失一些精度。
  2. QAT (Quantization Aware Training):

    • Pre-trained model: 与PTQ类似,你从一个已经训练好的模型开始。
    • Add QDQ nodes: 在模型的各层之间添加量化节点(Quantize)和反量化节点(Dequantize),使模型在训练过程中能够感知到量化带来的效果。
    • Fine-tune with QDQ nodes: 对带有QDQ节点的模型进行微调,这样在训练过程中,模型就可以考虑到量化引起的误差,并相应地调整参数。
    • Store q-params: 在微调过程中,保存量化参数,这些参数将用于量化模型。
    • Quantize model: 最后,使用保存的量化参数来量化模型。

6. QAT核心思想

核心思想是适应误差,增加训练的时长, 这里的FQ 是把fp32转成int8再转成fp32传递过去,这个过程中也把量化的误差传递下去,通过训练让模型适应误差在这里插入图片描述

更清晰的图

在这里插入图片描述

7. 用API自动导出带QDQ节点的onnx

针对输入的Tensor是共用一个scale, 针对权重用的是per_Channel或者Per_Layer的一个Scale, 先看下自动导出QDQ节点的onnx

import torchimport torchvisionfrom pytorch_quantization import tensor_quant, quant_modules from pytorch_quantization import nn as quant_nn quant_modules.initialize()model = torchvision.models.resnet50()model.cuda()inputs = torch.randn(1, 3, 224, 224, device="cuda")quant_nn.TensorQuantizer.use_fb_fake_quant = True    # 这个设置为True才能正确的导出torch.onnx.export(model, inputs, "quant_resnet50_1.onnx", opset_version=13)

在这里插入图片描述

8. 手动添加QDQ节点

假设我第一个conv不想用自动插入QDQ, 代码如下, 这里的逻辑就是在两个类中传入的参数是模型的第一个conv1, 然后去遍历这两个节点的全部模块,如果是量化的就给他关了或者打开,通过下面代码是先关掉第一个conv的量化再打开第一个conv的量化。

这里面通过判断出模块是否属于quant_nn.TensorQuantizer来决定是否给他关掉或打开

import torchimport torchvisionfrom pytorch_quantization import tensor_quantfrom pytorch_quantization import quant_modulesfrom pytorch_quantization import nn as quant_nnfrom pytorch_quantization.nn.modules import _utils as quant_nn_utilsfrom pytorch_quantization import calibfrom typing import List, Callable, Union, Dictclass disable_quantization:    def __init__(self, model):        self.model = model    def apply(self, disabled=True):        for name, module in self.model.named_modules():            if isinstance(module, quant_nn.TensorQuantizer):                module._disabled = disabled    def __enter__(self):        self.apply(True)            def __exit__(self, *args, **kwargs):        self.apply(False)class enable_quantization:    def __init__(self, model):        self.model = model        def apply(self, enabled=True):        for name, module in self.model.named_modules():            if isinstance(module, quant_nn.TensorQuantizer):                module._disabled = not enabled        def __enter__(self):        self.apply(True)        return self        def __exit__(self, *args, **kwargs):        self.apply(False)quant_modules.initialize()  # 对整个模型进行量化model = torchvision.models.resnet50()model.cuda()disable_quantization(model.conv1).apply() # 关闭某个节点的量化# enable_quantization(model.conv1).apply() # 开启某个节点的量化inputs = torch.randn(1, 3, 224, 224, device='cuda')quant_nn.TensorQuantizer.use_fb_fake_quant = Truetorch.onnx.export(model, inputs, 'quant_resnet50_disabelconv1.onnx', opset_version=13)

9. 更加灵活的一种写法

这种是遍历每一个层然后用量化的层替代,这种好处就是可以灵活写很多的过滤条件

def transfer_torch_to_quantization(nninstance : torch.nn.Module, quantmodule):    quant_instance = quantmodule.__new__(quantmodule)    for k, val in vars(nninstance).items():        setattr(quant_instance, k, val)    def __init__(self):              if isinstance(self, quant_nn_utils.QuantInputMixin):            quant_desc_input = quant_nn_utils.pop_quant_desc_in_kwargs(self.__class__,input_only=True)            self.init_quantizer(quant_desc_input)            # Turn on torch_hist to enable higher calibration speeds            if isinstance(self._input_quantizer._calibrator, calib.HistogramCalibrator):                self._input_quantizer._calibrator._torch_hist = True        else:            quant_desc_input, quant_desc_weight = quant_nn_utils.pop_quant_desc_in_kwargs(self.__class__)            self.init_quantizer(quant_desc_input, quant_desc_weight)            # Turn on torch_hist to enable higher calibration speeds            if isinstance(self._input_quantizer._calibrator, calib.HistogramCalibrator):                self._input_quantizer._calibrator._torch_hist = True                self._weight_quantizer._calibrator._torch_hist = True    __init__(quant_instance)    return quant_instancedef replace_to_quantization_module(model : torch.nn.Module, ignore_policy : Union[str, List[str], Callable] = None):    module_dict = {}    for entry in quant_modules._DEFAULT_QUANT_MAP:        module = getattr(entry.orig_mod, entry.mod_name)        module_dict[id(module)] = entry.replace_mod    def recursive_and_replace_module(module, prefix=""):        for name in module._modules:            submodule = module._modules[name]            path      = name if prefix == "" else prefix + "." + name            recursive_and_replace_module(submodule, path)            submodule_id = id(type(submodule))            if submodule_id in module_dict:                  module._modules[name] = transfer_torch_to_quantization(submodule, module_dict[submodule_id])    recursive_and_replace_module(model)#quant_modules.initialize()model = torchvision.models.resnet50()model.cuda()disable_quantization(model.conv1).apply()quantizer_state(model)replace_to_quantization_module(model)inputs = torch.randn(1, 3, 224, 224, device='cuda')quant_nn.TensorQuantizer.use_fb_fake_quant =Truetorch.onnx.export(model, inputs, 'quant_resnet50_replace_to_quantization_conv1.onnx',opset_version=13)

10. 对特定层进行自定义方式的量化

下面先定义一个直方图校准的int8量化,然后对输入全部进行量化

import torchfrom pytorch_quantization import nn as quant_nnfrom pytorch_quantization.tensor_quant import QuantDescriptorclass QuantMultiAdd(torch.nn.Module):    def __init__(self):        super().__init__()        self._input_quantizer = quant_nn.TensorQuantizer(QuantDescriptor(num_bits=8, calib_method="histgoram"))        def forward(self, x, y, z):        return self._input_quantizer(x) + self._input_quantizer(y) + self._input_quantizer(z)model = QuantMultiAdd()model.cuda()input_a = torch.randn(1, 3, 224, 224, device='cuda')input_b = torch.randn(1, 3, 224, 224, device='cuda')input_c = torch.randn(1, 3, 224, 224, device='cuda')quant_nn.TensorQuantizer.use_fb_fake_quant = Truetorch.onnx.export(model, (input_a, input_b, input_c), 'quantMultiAdd.onnx', opset_version=13)

在这里插入图片描述

10. 总结流程

  1. 定义模型
  2. 对模型插入qdq
  3. 统计qdq节点的range 和 scale
  4. 做敏感词分析
  5. 导出一个qdq节点的ptq
  6. 对模型进行finetune ----> qat

来源地址:https://blog.csdn.net/bobchen1017/article/details/133756137

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯