lora 微调3B模型微调前有5G 量化f16 后最后导出模型容量变小了只有2G了,为什么?
发布日期:2025-04-11 05:54:20 浏览次数:8 分类:精选文章

本文共 4 字,大约阅读时间需要 1 分钟。

null
上一篇:LoRa关键参数(扩频因子,编码率,带宽)的设定及解释
下一篇:Loop

发表评论

最新留言

表示我来过!
[***.240.166.169]2025年04月30日 04时42分00秒