web的注意力机制怎么实现
发表于:2025-02-03 作者:千家信息网编辑
千家信息网最后更新 2025年02月03日,本篇内容介绍了"web的注意力机制怎么实现"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!通道注意力机
千家信息网最后更新 2025年02月03日web的注意力机制怎么实现
本篇内容介绍了"web的注意力机制怎么实现"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
通道注意力机制:
import torchfrom torch import nnclass ChannelAttention(nn.Module):def __init__(self, in_planes, ratio=16):super(ChannelAttention, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1) self.fc1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False) self.relu1 = nn.ReLU() self.fc2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False) self.sigmoid = nn.Sigmoid()def forward(self, x): avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x)))) max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x)))) out = avg_out + max_out return self.sigmoid(out)if __name__ == '__main__':CA = ChannelAttention(32)data_in = torch.randn(8,32,300,300)data_out = CA(data_in)print(data_in.shape) # torch.Size([8, 32, 300, 300])print(data_out.shape) # torch.Size([8, 32, 1, 1])
控制台输出结果:
加载个人及系统配置文件用了 958 毫秒。(base) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq> & 'D:\Anaconda3\envs\ssd4pytorch2_2_0\python.exe' 'c:\Users\chenxuqi\.vscode\extensions\ms-python.python-2021.1.502429796\pythonFiles\lib\python\debugpy\launcher' '53813' '--' 'c:\Users\chenxuqi\Desktop\News4cxq\test4cxq\test1.py'torch.Size([8, 32, 300, 300])torch.Size([8, 32, 1, 1])(base) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq> conda activate ssd4pytorch2_2_0(ssd4pytorch2_2_0) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq>
通道注意力机制:
import torchfrom torch import nnclass SpatialAttention(nn.Module):def __init__(self, kernel_size=7):super(SpatialAttention, self).__init__()assert kernel_size in (3, 7), 'kernel size must be 3 or 7'padding = 3 if kernel_size == 7 else 1self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False) # 7,3 3,1self.sigmoid = nn.Sigmoid()def forward(self, x):avg_out = torch.mean(x, dim=1, keepdim=True)max_out, _ = torch.max(x, dim=1, keepdim=True)x = torch.cat([avg_out, max_out], dim=1)x = self.conv1(x)return self.sigmoid(x)if __name__ == '__main__':SA = SpatialAttention(7)data_in = torch.randn(8,32,300,300)data_out = SA(data_in)print(data_in.shape) # torch.Size([8, 32, 300, 300])print(data_out.shape) # torch.Size([8, 1, 300, 300])
控制台输出结果:
加载个人及系统配置文件用了 959 毫秒。(base) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq> conda activate ssd4pytorch2_2_0(ssd4pytorch2_2_0) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq> & 'D:\Anaconda3\envs\ssd4pytorch2_2_0\python.exe' 'c:\Users\chenxuqi\.vscode\extensions\ms-python.python-2021.1.502429796\pythonFiles\lib\python\debugpy\launcher' '53827' '--' 'c:\Users\chenxuqi\Desktop\News4cxq\test4cxq\test2.py'torch.Size([8, 32, 300, 300])torch.Size([8, 1, 300, 300])(ssd4pytorch2_2_0) PS C:\Users\chenxuqi\Desktop\News4cxq\test4cxq>
"web的注意力机制怎么实现"的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注网站,小编将为大家输出更多高质量的实用文章!
机制
注意力
输出
个人
内容
控制台
文件
更多
知识
系统
结果
通道
控制
配置
实用
学有所成
接下来
困境
实际
情况
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
服务器设置网站
网络安全防护情况说明
楼中楼数据库设计
网络安全为主图文并茂
学习减分服务器异常
c 软件开发技术面试题目
综合网络技术服务优势
网络安全技术高职进度计划
安徽通用软件开发出厂价格
数据库架构文档模板
大数据引发数据库架构变革图片
护网网络安全实战
饥荒云服务器可以用之前的存档吗
软件开发的实习体会
网络安全实行什么
数据库课程设计运行环境
云南昆明阿里云服务器虚拟主机
云服务器内网穿透1m带宽
服务器设置默认启动磁盘
杭州乐刻网络技术
软件开发工程师经验总结
hp刀片服务器方案
网络安全文明教育标语
笔记本怎么访问服务器管理口
江苏网络营销软件开发答疑解惑
思科网络技术优势
土豆视频服务器走丢了怎么回事
上海软件开发技能标兵2021
河北网络安全和信息化
服务器开机时间过长报错