Co-LLM 给出的回复比独立工作的微调简单 LLM 和未调优的专门模型更准确。Co-LLM 可以指导两种不同训练方式的模型协同工作,而其他有效的 LLM 协作方法(如 "Proxy Tuning")则需要所有组件模型经过类似的训练。MIT 的算法仅在特定令牌时激活其专家模型,从而实现更高效的生成。