浙江大学 DeepSeek之火,可以燎原

知识蒸馏(Knowledge Distilation)是一种模型压缩和加速技术,旨在将大型模型(教师模型)的知识迁移到小型模型(学生模型),在减少计算资源消耗,缩短推理时间的同时,尽可能达到接近大型模型的性能。

  • 2025-03-27
  • 收藏0
  • 阅读24
  • 下载0
  • 29页
  • pdf
  • 3.48M

评价

评分 :
极好
   *