如上是我对transformer模型的注意力机制的感悟,总体来说深度学习还是得看代码来学习,一步一步复现代码,不断调试,明白代码每一步在干什么,构建的矩阵是什么形状的,通过一些例子加深记忆。小半个七月和九月上半旬我都在打关于深度学习的基础(八月份在上雅思班每天8个小时累死我了,但是现在好像都有点搞忘了),发现光看代码,当时看懂了但一会儿就忘记了,记得并不深刻,于是我选择对每个流程进行笔记,更方便以后的复习,以及加深对模型的理解。后面还会更新整个transformer我个人的理解。我最近看了几篇多模态情感分析的顶会文章,感觉都十分巧妙,我也在找这方面一些数据集,争取能不能冷饭复炒一下,哈哈哈,本科生对自己要求低点
关于transformer注意力机制的一些感悟
于 2024-09-14 02:27:59 首次发布