热门
最新
红包
立Flag
投票
同城
我的
发布
Phi-3 WebGPU: 在浏览器中本地运行Phi-3
所有数据处理都在本地完成,确保隐私
WebGPU加速:提升处理速度 超过20 t/s
首次下载后,模型将被缓存,无需重复下载
跑了一下,英文回答还可以,中文幻觉特别严重。
体验地址:https://huggingface.co/spaces/Xenova/experimental-phi3-webgpu…
由Transformers.js和onnxruntime-web构建
请注意:首次运行会自动下载2.3 GB的模型...
AI资讯
CSDN App 扫码分享
评论
点赞
打赏
- 复制链接
- 举报
下一条:
又一个通过照片+音频输入生成视频的项目,这个开放了源码AniTalker:通过静态的肖像画和输入音频,生成生动多样的面部说话视频。不仅能保持嘴唇同步且能够捕捉到面部表情和非言语线索的复杂动态。最长支持超过3分钟的超长动态视频生成。AniTalker 能实现的效果包括:1. 面部动画生成:通过输入静态的人像和音频信号,可以生成说话的面部动画。这种动画不仅包括口型同步,还包括与说话内容匹配的面部表情和头部动作。2. 多样化和可控性:可以根据不同的输入和参数设置,生成各种不同表情和动作的面部动画。3.真实感和动态表现:能很好地捕捉细微的面部动态和复杂的非言语信息,如眨眼、微笑等。4. 长视频生成:AniTalker 可以生成较长的面部动画视频,演示视频显示,最长可以超过3分钟,适用于多种应用场景,如虚拟助理、数字人物表演等。项目及演示:https://x-lance.github.io/AniTalker/