Skip to content
Projects
Groups
Snippets
Help
This project
Loading...
Sign in / Register
Toggle navigation
点
点头人工智能课程-v6.0-影像
Overview
Overview
Details
Activity
Cycle Analytics
Repository
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
Issues
0
Issues
0
List
Board
Labels
Milestones
Merge Requests
0
Merge Requests
0
CI / CD
CI / CD
Pipelines
Jobs
Schedules
Charts
Wiki
Wiki
Snippets
Snippets
Members
Members
Collapse sidebar
Close sidebar
Activity
Graph
Charts
Create a new issue
Jobs
Commits
Issue Boards
Open sidebar
靓靓
点头人工智能课程-v6.0-影像
Commits
37c5a05c
Commit
37c5a05c
authored
Aug 11, 2025
by
前钰
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
Add new file
parent
74db0d1b
Show whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
41 additions
and
0 deletions
+41
-0
readme.md
4-模型改进/4.5-模型剪枝&量化/readme.md
+41
-0
No files found.
4-模型改进/4.5-模型剪枝&量化/readme.md
0 → 100644
View file @
37c5a05c
# 模型压缩简介
# 模型压缩简介
## 代码下载
模型压缩相关资料及代码分享自百度网盘:
链接:
[
https://pan.baidu.com/s/1RF5p1909HvJutMY9mOBCiA
](
https://pan.baidu.com/s/1RF5p1909HvJutMY9mOBCiA
)
提取码: 8888
主要介绍深度学习中的模型压缩技术,涵盖剪枝(Pruning)、量化(Quantization)和蒸馏(Distillation)三大方法,旨在减少模型体积和计算复杂度,提高推理速度,方便在资源受限设备上的部署
## 一、剪枝(Pruning)
剪枝是通过去除神经网络中不重要或冗余的权重或结构,实现模型简化的方法。
*
**非结构化剪枝**
:按权重大小剪掉部分连接,稀疏化模型权重。
*
**结构化剪枝**
:直接剪掉整条通道、卷积核等,便于硬件加速。
剪枝后通常需要
\*\*
微调(fine-tuning)
\*\*
恢复模型精度。
## 二、量化(Quantization)
量化是将模型权重和激活从高精度浮点数(如FP32)转换为低精度表示(如INT8),以减小模型大小并加快计算速度。
*
**对称量化**
:正负区间对称,量化范围
\[
-x, x]。
*
**非对称量化**
:量化范围不对称,适用于非均匀分布。
量化常结合硬件支持实现高效推理
## 三、蒸馏(Distillation)
蒸馏是通过训练一个小模型(学生模型)去模仿大模型(教师模型)的输出分布,从而提升小模型性能的技术。
*
利用教师模型的软标签(soft target)传递更丰富的信息。
*
通过调整温度参数(Temperature)平滑输出概率。
*
兼顾硬标签和软标签的损失函数。
蒸馏能有效提升轻量模型的准确率
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment