热门
最新
红包
立Flag
投票
同城
我的
发布
我之前也在博客中验证过,但是Reddit上有人好奇模型的量子化在多大程度上会影响性能,因此他们创建了一个MPA基准测试来进行验证。那么这个基准测试是什么呢?就是进行五位数的加法运算。结果出人意料。在对Llama3-8B模型进行测试时,F16(无量子化)的得分是94分,而当切换到Q8_0(8位量子化)时,得分竟然下降到了74分!!之前大家都认为8位量子化不会对性能造成任何负面影响,但现在看来,即使是8位量子化,在处理细腻的任务时也可能会明显降低性能。https://www.reddit.com/r/LocalLLaMA/comments/1cdxjax/i_created_a_new_benchmark_to_specifically_test/
CSDN App 扫码分享
1
19
- 复制链接
- 举报