热门
最新
红包
立Flag
投票
同城
我的
发布
北京市朝阳区
CSDN App 扫码分享
2
点赞
打赏
- 复制链接
- 举报
下一条:
「Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型」主要优点:🚀 速度 - Distil-Whisper 的推理速度是 Whisper 的 6 倍。📦 尺寸 - 模型大小减少了 49%,更适合资源有限的设备。✔️ 准确性 - 词错误率(WER)与 Whisper 相比只有 1% 的差距。🔊 抗噪声 - 在嘈杂环境下仍能保持较高的识别准确性。🚫 减少幻听 - 减少了重复词组的出现,并降低了插入错误率。🤖 推测性解码 - 作为 Whisper 的辅助模型,推理速度提高了 2 倍。实验结果:Distil-Whisper模型在保持原有 Whisper 模型核心功能的基础上,显著提高了处理速度。速度提高了5.8倍,参数减少了51%,并且在零样本迁移设置中对分布外测试数据的WER性能仅下降了1%。在长音频评估中,Distil-Whisper的表现甚至超过了原始的Whisper模型,这主要是因为它在处理长形音频时产生幻听错误的倾向较低。此外,Distil-Whisper与Whisper模型共享相同的编码器权重,这意味着它可以作为Whisper的辅助模型,用于推测性解码,从而实现了2倍的推理速度提升,同时确保预测结果与原始模型相同。这使得Distil-Whisper可以作为现有使用Whisper的语音识别管道的即插即用替代品。由于模型更小,对计算资源的需求也相对较低,这使得它更适合在资源受限的设备上运行,例如在移动设备或边缘计算设备上。这种轻量级的设计也使得 Distil-Whisper 在网络带宽有限或计算能力受限的环境中更为实用。模型下载:https://huggingface.co/collections/distil-whisper/distil-whisper-models-65411987e6727569748d2eb6论文:https://arxiv.org/abs/2311.00430GitHub:https://github.com/huggingface/distil-whisperColab:https://colab.research.google.com/github/sanchit-gandhi/notebooks/blob/main/Distil_Whisper_Benchmark.ipynb
