视频选集

掩码注意力(MaskAttn):每个掩码注意力模块受到多头自注意力的启发,并引入了一个可学习的掩码来调节注意力权重。掩码的作用是抑制注意力矩阵中不重要的区域,使注意力集中在相关空间位置。(#AI缝合术#CV#怪兽#布布尔多#小王大王#研究生毕业救星)