热门
最新
红包
立Flag
投票
同城
我的
发布
Med42-v2
一套临床大语言模型
讨论:https://huggingface.co/papers/2408.06142
Med42-v2 引入了一套临床大语言模型(LLMs),旨在解决通用模型在医疗环境中的局限性。这些模型基于 Llama3 架构构建,并使用专门的临床数据进行微调。它们经过多阶段偏好对齐,以有效响应自然提示。虽然通用模型通常会偏好对齐以避免回答临床查询作为预防措施,但 Med42-v2 专门训练以克服这一限制,使其能够在临床环境中使用。Med42-v2 模型在 8B 和 70B 参数配置以及各种医疗基准测试中,表现出比原始 Llama3 模型和 GPT-4 更优越的性能。这些大语言模型旨在理解临床查询、执行推理任务,并在临床环境中提供有价值的帮助。
CSDN App 扫码分享
2
28
- 复制链接
- 举报
下一条:
CogVideoX文本到视频扩散模型与专家Transformer讨论: https://huggingface.co/papers/2408.06072我们介绍了CogVideoX,这是一种大型扩散Transformer模型,旨在根据文本提示生成视频。为了有效地建模视频数据,我们提出使用3D变分自编码器(VAE)在空间和时间维度上压缩视频。为改进文本和视频的对齐,我们提出了一种带有专家自适应LayerNorm的专家Transformer,以促进两种模态之间的深度融合。通过采用渐进式训练技术,CogVideoX善于生成具有显著动作的连贯长时间视频。此外,我们开发了一套有效的文本到视频数据处理流程,包括各种数据预处理策略和视频字幕方法。这显著有助于提升CogVideoX的性能,改善生成质量和语义对齐。结果表明,CogVideoX在多个机器指标和人工评估中表现出最先进的性能。