热门
最新
红包
立Flag
投票
同城
我的
发布
《超酷!在手掌大小设备上运行本地 LLM,M5 Cardputer + ModuleLLM 实现教程》
近年来,大语言模型(LLM)发展迅猛,像 OpenAI 的 ChatGPT 备受关注。以往在本地运行 LLM,要么需要能跑 CUDA 的 GPU,要么得是配备大量内存的 Apple Silicon Mac,硬件门槛较高。但如今,嵌入式微控制器用的边缘 LLM 模块不断涌现,为我们带来了新玩法。本文就来分享如何利用 M5Stack 公司推出的信用卡大小且带键盘的计算机 Cardputer,与能运行本地 LLM 的 ModuleLLM 相结合,实现 “在手掌大小设备上运行本地 LLM” 的神奇操作。
——来自博客 https://blog.csdn.net/rralucard123/article/details/145379733
您会尝试制作一个吗(单选)
3 人已经参与 已结束
会的
3人
不打算
0人
CSDN App 扫码分享
评论
1
- 复制链接
- 举报