热门

最新

红包

立Flag

投票

同城

我的

发布
wxgaws
xxaxtt
3 年前
truewxgaws

MLP型的transformer更有前途,更易扩展。MLP4Rec就是个更好的例子,信息可以在时间维度,emb维度,特征维度,等多个维度上进行混合,从而学习的更加彻底

CSDN App 扫码分享
分享
评论
1
打赏
  • 复制链接
  • 举报
下一条:
attention主要是实现不同时间点数据的混合。但是transformer中的attention不是单纯的时间点维度的混合,还有emb维度的或者。MLP类型的混合更纯粹,更有前途
立即登录