热门
最新
红包
立Flag
投票
同城
我的
发布
保持热爱共赴山海
郑州市金水区
CSDN App 扫码分享
评论
4
打赏
- 复制链接
- 举报
下一条:
[2023-08-28]|CSDN每天值得看|aigc① [【大模型AIGC系列课程 3-2】国产开源大模型:ChatGLM](https://blog.csdn.net/u011239443/article/details/132522269?utm_source=702048761)[质量分:89;难度等级:中]摘要:GLM是General Language Model的缩写,是一种通用的语言模型预训练框架。它的主要目标是通过自回归的空白填充来进行预训练,以解决现有预训练框架在自然语言理解(NLU)、无条件生成和有条件生成等任务中表现不佳的问题。② [通俗理解DDPM到Stable Diffusion原理](https://blog.csdn.net/orangerfun/article/details/131886849?utm_source=702048761)[质量分:96;难度等级:初(领域:Python入门;匹配程度:0.02)]摘要:论文将不同的autoencoder在扩散模型上进行实验,在ImageNet数据集上训练同样的步数(2M steps),其训练过程的生成质量如下所示,可以看到过小的(比如1和2)下收敛速度慢,此时图像的感知压缩率较小,扩散模型需要较长的学习;③ [文献阅读:Is ChatGPT Good at Search? Investigating Large Language Models as Re-Ranking Agent](https://blog.csdn.net/codename_cys/article/details/132526242?utm_source=702048761)[质量分:92;难度等级:初(领域:Python入门;匹配程度:0.02)]摘要:这篇文章的核心工作主要是考察了一下GPT模型在排序任务当中的效果,发现通过合适的方法(文中给出的滑动窗口 + 排序),可以使得GPT模型在文本排序上的效果超过现在的有监督模型的SOTA结果。查看更多:https://bbs.csdn.net/topics/617147087?utm_source=702048761
