Learning both Weights and Connections for Efficient Neural Networks
发布日期:2025-04-04 18:18:33 浏览次数:9 分类:精选文章

本文共 785 字,大约阅读时间需要 2 分钟。

《Learning both Weights and Connections for Efficient Neural Networks》

为高效神经网络同时学习权重和连接的方法

作者:Song Han、Jeff Pool 等

单位:斯坦福大学、NVIDIA

发表会议及时间:NIPS 2015

当前的神经网络在计算需求和存储占用上都存在一定的挑战,尤其是在嵌入式系统中部署时更为困难。此外,传统网络的架构通常在训练开始前就固定下来,这意味着在训练过程中无法优化网络的结构。为了解决这些问题,本文提出了一种方法,可以在训练过程中同时学习权重和连接,从而将存储和计算需求降低一大半,同时保持模型的精度。我们的剪枝方法通过三步训练过程实现:首先是对正431}>

在数据集上对未压缩的模型进行完整训练至收敛。第二步,在训练完成后,剪掉权重小于阈值的神经元。第三步,对剪枝后的模型进行权重微调,恢复其精度。通过对AlexNet和VGG-16的实验表明,我们的方法可以将参数量减少9倍和13倍而不影响模型性能。

通过在训练过程中改变模型结构,可以减少模型参数量、降低计算量、加快推理速度。这种方法的核心在于利用训练时学习到的权重不仅用于预测结果,还可以作为衡量神经元重要性的依据。

同时训练权重和要剪的神经元可以降低损失。这种方法通过迭代训练的方式减少剪枝对精度的影响,并讨论了正则化方法在剪枝过程中的影响。

实验成果

在Imagenet数据集上,本文的方法在将AlexNet压缩了9倍参数的情况下,精度基本保持不变。类似实验表明,VGG-16的参数量可以减少13倍,而总体性能并未下降。

方法意义

  • 通过迭代训练的方法将剪枝引入模型训练过程,降低了剪枝导致的精度损失
  • 采用权重值作为神经元重要性判断依据,简化了神经元重要性计算的过程
  • 对各种正则化方法对剪枝过程的影响进行了深入讨论
上一篇:Learning English With Our Team
下一篇:learn c++(vector and array)

发表评论

最新留言

关注你微信了!
[***.104.42.241]2025年05月03日 00时22分01秒