热门

最新

红包

立Flag

投票

同城

我的

发布
qq_42346574
郝同学
3 年前
trueqq_42346574

看到一个观点说的很好:MLP与transformer的关联在于MLP的权重在训练完成后不可更改,而transformer使用数据点之间的关系来动态影响权重;transformer与GNN之间的关联在于transformer将输入序列看作一个全联接图,使用多头注意力机制来更新邻居节点和自身的向量。是否可以借助GNN中的spectral方法论来对transformer中的attention机制做一定的替换呢?毕竟spectral的一些方法看起来非常fancy。

CSDN App 扫码分享
分享
评论
2
打赏
  • 复制链接
  • 举报
下一条:
今日Java小知识,可收藏起来 🍓🍓🍓🍓java内存需要划分的五个部分 ----------------------------关注我,后续还有更多的java小知识
立即登录