给 Llama 2(羊驼)大模型剪一剪驼毛,会有怎样的效果呢?今天普林斯顿大学陈丹琦团队提出了一种名为 LLM-Shearing 的大模型剪枝法,可以用很小的计算量和成本实现优于同等规模模型的性能。
-
论文地址: https://arxiv.org/abs/2310.06694 -
代码地址: https://github.com/princeton-nlp/LLM-Shearing -
ModelsSheared-LLaMA-1.3B, Sheared-LLaMA-2.7B
-
第一阶段将 M_S 剪枝为 M_T,虽然这样减少了参数数量,但不可避免地导致性能下降; -
第二阶段持续预训练 M_T,使其性能更强。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
关注公众号,免费获取chatgpt账号
相关文章
暂无评论...