热门

最新

红包

立Flag

投票

同城

我的

发布
weixin_34757654
taziku_co
1 年前
trueweixin_34757654

2024/4/27 关注AI进展
最新信息的详细内容请关注(
@jimwalk2014 )!

· 保持图像中面部一致性的 ConsistentID
· 什么是机器人的可爱? Loona
· 仅通过相机捕捉吉他演奏
· 来自中国的长时间、高一致性视频模型 Vidu
· Pika的风格转换功能发布
· 远程操作软件 Open-TeleVision
· 更新从动作生成视频的模型
· Stability AI API增加了两个新功能
· LLM的成本效益对比表

<Catch up on AI>
https://note.com/taziku/n/n6d15ac5dd23a

CSDN App 扫码分享
分享
评论
12
  • 复制链接
  • 举报
下一条:
我之前也在博客中验证过,但是Reddit上有人好奇模型的量子化在多大程度上会影响性能,因此他们创建了一个MPA基准测试来进行验证。那么这个基准测试是什么呢?就是进行五位数的加法运算。结果出人意料。在对Llama3-8B模型进行测试时,F16(无量子化)的得分是94分,而当切换到Q8_0(8位量子化)时,得分竟然下降到了74分!!之前大家都认为8位量子化不会对性能造成任何负面影响,但现在看来,即使是8位量子化,在处理细腻的任务时也可能会明显降低性能。https://www.reddit.com/r/LocalLLaMA/comments/1cdxjax/i_created_a_new_benchmark_to_specifically_test/
立即登录