torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用
发表于:2025-01-31 作者:千家信息网编辑
千家信息网最后更新 2025年01月31日,这篇文章主要介绍"torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用",在日常操作中,相信很多人在torch.nn.SmoothL1Loss()和smooth_l
千家信息网最后更新 2025年01月31日torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用
这篇文章主要介绍"torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用",在日常操作中,相信很多人在torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
Microsoft Windows [版本 10.0.18363.1256](c) 2019 Microsoft Corporation。保留所有权利。C:\Users\chenxuqi>conda activate ssd4pytorch2_2_0(ssd4pytorch2_2_0) C:\Users\chenxuqi>pythonPython 3.7.7 (default, May 6 2020, 11:45:54) [MSC v.1916 64 bit (AMD64)] :: Anaconda, Inc. on win32Type "help", "copyright", "credits" or "license" for more information.>>> import torch>>> import torch.nn.functional as F>>> input = torch.zeros(2,3)>>> inputtensor([[0., 0., 0.],[0., 0., 0.]])>>> target = torch.tensor([[0.5,1.2,0.8],[0.4,1.5,2.2]])>>> targettensor([[0.5000, 1.2000, 0.8000],[0.4000, 1.5000, 2.2000]])>>>>>> F.smooth_l1_loss(target, input, size_average=False)D:\Anaconda3\envs\ssd4pytorch2_2_0\lib\site-packages\torch\nn\_reduction.py:43: UserWarning: size_average and reduce args will be deprecated, please use reduction='sum' instead. warnings.warn(warning.format(ret))tensor(3.9250)>>> F.smooth_l1_loss(target, input, size_average=True)D:\Anaconda3\envs\ssd4pytorch2_2_0\lib\site-packages\torch\nn\_reduction.py:43: UserWarning: size_average and reduce args will be deprecated, please use reduction='mean' instead. warnings.warn(warning.format(ret))tensor(0.6542)>>> 3.9250/6.00.6541666666666667>>>>>>>>>>>> F.smooth_l1_loss(target, input, reduction = 'sum')tensor(3.9250)>>>>>> F.smooth_l1_loss(target, input, reduction='mean')tensor(0.6542)>>>>>> F.smooth_l1_loss(target, input, reduction='none')tensor([[0.1250, 0.7000, 0.3200],[0.0800, 1.0000, 1.7000]])>>>>>> inputtensor([[0., 0., 0.],[0., 0., 0.]])>>> targettensor([[0.5000, 1.2000, 0.8000],[0.4000, 1.5000, 2.2000]])>>>>>>>>>
到此,关于"torch.nn.SmoothL1Loss()和smooth_l1_loss()怎么使用"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!
学习
更多
帮助
实用
接下来
文章
方法
权利
版本
理论
知识
篇文章
网站
资料
跟着
问题
好用
实践
解答
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
湖州软件开发驻场业务
西城区进口软件开发调试
软件开发做网站
泉州网络技术有限公司
宝山区品牌软件开发代理价格
武汉悦购互联网科技有限公司
国家网络安全产业园规划图
广东省中小企业上市数据库
泗阳直销网络技术
捷顺数据库处理异常
网络技术和计算机通信有什么区别
计算机类网络技术专业
软件开发类公司的营业范围
数据库程序解密
网络技术员条件
负责国家网络安全企业
本溪手机软件开发公司网址
数据库资源占用情况
如何制作图书馆数据库
题库 数据库 设计
服务器如何防护网络攻击
mysql查找每天的数据库
银川有哪些软件开发公司
游戏unity软件开发
天津网络技术服务便捷
北京和信天元网络技术
捷顺数据库处理异常
c 输出数据库数据
奉贤区常规软件开发管理方法
网络安全公司 设备软文