关于transformer注意力机制的一些感悟

5fd48db9f66e41cfb67c59a772a67c8c.png

d89c5067307c40dc8b88d54dbf0c1b29.png

a7ece865e7b34c57913288a3756af437.png

b980035a3d2d460199eb6bba284d158e.png

如上是我对transformer模型的注意力机制的感悟,总体来说深度学习还是得看代码来学习,一步一步复现代码,不断调试,明白代码每一步在干什么,构建的矩阵是什么形状的,通过一些例子加深记忆。小半个七月和九月上半旬我都在打关于深度学习的基础(八月份在上雅思班每天8个小时累死我了,但是现在好像都有点搞忘了),发现光看代码,当时看懂了但一会儿就忘记了,记得并不深刻,于是我选择对每个流程进行笔记,更方便以后的复习,以及加深对模型的理解。后面还会更新整个transformer我个人的理解。我最近看了几篇多模态情感分析的顶会文章,感觉都十分巧妙,我也在找这方面一些数据集,争取能不能冷饭复炒一下,哈哈哈,本科生对自己要求低点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值