「DL」 深度学习中的注意力机制
attention


1 基本概念
注意力可以分为 soft attention 和 hard attention,soft attention 可以使用梯度下降算法学习,而 hard attention 可以使用强化学习、maximizing a variational lower bound、importance sampling 算法来学习;
2 原理
3 应用
附录
A 参考资料
- Microstrong. 深度学习中的注意力机制[EB/OL]. https://zhuanlan.zhihu.com/p/53036028. 2018-12-25/2019-05-19.
Comments