热门
最新
红包
立Flag
投票
同城
我的
发布
xxaxtt
3 年前
truewxgaws
MLP型的transformer更有前途,更易扩展。MLP4Rec就是个更好的例子,信息可以在时间维度,emb维度,特征维度,等多个维度上进行混合,从而学习的更加彻底
下一条:
attention主要是实现不同时间点数据的混合。但是transformer中的attention不是单纯的时间点维度的混合,还有emb维度的或者。MLP类型的混合更纯粹,更有前途
立即登录