Conv3dQAT
【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct
产品支持情况
| 产品 | 是否支持 |
|---|---|
| Ascend 950PR/Ascend 950DT | √ |
| Atlas A3 训练系列产品/Atlas A3 推理系列产品 | √ |
| Atlas A2 训练系列产品/Atlas A2 推理系列产品 | √ |
功能说明
构造Conv3d的QAT算子。
函数原型
直接构造接口:
qat = amct_pytorch.nn.module.quantization.conv3d.Conv3dQAT(in_channels, out_channels, kernel_size, stride, padding, dilation, groups, bias, padding_mode, device, dtype, config)基于原生算子构造接口:
qat = amct_pytorch.nn.module.quantization.conv3d.Conv3dQAT.from_float(mod, config)
参数说明
表 1直接构造接口参数说明
表 2基于原生算子构造接口
返回值说明
- 直接构造:返回构造的QAT单算子实例。
- 基于原生算子构造:torch.nn.Module转化后的QAT单算子。
调用示例
直接构造:
from amct_pytorch.nn.module.quantization.conv3d import Conv3dQAT Conv3dQAT(in_channels=1, out_channels=1, kernel_size=1, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None, config=None)基于原生算子构造:
import torch from amct_pytorch.nn.module.quantization.conv3d import Conv3dQAT conv3d_op = torch.nn.Conv3d(in_channels=1, out_channels=1, kernel_size=1, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None) Conv3dQAT.from_float(mod=conv3d_op, config=None)
【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考