热门
最新
红包
立Flag
投票
同城
我的
发布
蒙奇·D·路飞-
2 年前
truegaowenhui2008
啤洒
下一条:
阿里巴巴最新开源的Qwen1.5-32B模型,以320亿参数在性能和资源消耗之间找到了完美平衡。在多项评测中轻松超越Mixtral MoE,甚至接近720亿参数的Qwen-1.5-72B,展现了卓越的性价比。其支持高达32K的上下文长度,确保了在复杂任务上的出色表现。Qwen1.5-32B的出现,为需要高效、经济的AI解决方案的用户提供了新的选择。Huggingface模型下载:
https://huggingface.co/Qwen/Qwen1.5-32B
AI快站模型免费加速下载:
https://aifasthub.com/models/Qwen
立即登录