多模态大语言模型幻觉问题综述论文,对多模态大语言模型中的幻觉问题进行了全面的调研。多模态大语言模型容易产生幻觉,即输出与图像不一致的文本。幻觉的成因可归结为数据质量、模型能力、训练方式、推理过程等多个层面。目前已有多种评估幻觉的基准和指标,但尚缺乏统一的标准。现有的幻觉消除方法包括数据增强、模型改进、训练策略优化、推理过程干预等。论文地址:https://arxiv.org/abs/2404.18930