热门
最新
红包
立Flag
投票
同城
我的
发布
xxaxtt
3 年前
truewxgaws
attention主要是实现不同时间点数据的混合。但是transformer中的attention不是单纯的时间点维度的混合,还有emb维度的或者。MLP类型的混合更纯粹,更有前途
下一条:
房企数字化转型面临的困难有哪些?
立即登录