会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Loading
Goblinscholar
博客园
首页
新随笔
联系
订阅
管理
2026年4月2日
深度学习进阶(二)多头自注意力机制(Multi-Head Attention)
摘要: 在第一篇中,我们已经得到了自注意力的核心公式: \[\mathrm{Attention}(\mathbf{Q},\mathbf{K},\mathbf{V})=\mathrm{softmax}\left(\frac{ \mathbf{Q}\mathbf{K}^T}{\sqrt{d_k}}\right)
阅读全文
posted @ 2026-04-02 13:33 哥布林学者
阅读(752)
评论(0)
推荐(1)
公告