Sky飞羽

关注

一文详解L1-loss和L2-loss(pytorch版本)

Sky飞羽

关注

阅读 182

2022-03-23

import torch.nn as nn
import torch
pixelwise_loss = nn.L1Loss(reduction='mean')  #平均绝对误差,L1-损失
loss2=nn.MSELoss()  #L2-损失
x1=torch.zeros([2,2])
x2=torch.ones([2,2])
x3=torch.tensor([[0.125,0.5],[0.5,0.5]])
y=pixelwise_loss(x3,x2)
print('L1Loss:',y.item())
print(((1-0.125)+0.5*3)/4)
y1=loss2(x3,x2)
print('L2Loss:',y1.item())
print(((1-0.125)**2+(0.5**2)*3)/4)

相关推荐

椰果玩安卓

Pytorch实现Smooth L1 Loss(Huber)

椰果玩安卓 94 0 0

DYBOY

【pytorch】对照原理,自己实现pytorch自带的损失函数:L1Loss,L2Loss,BCELoss,BCEWithLogitsLoss,NLLLoss,CrossEntropyLoss

DYBOY 53 0 0

Alex富贵

一文详解ATK Loss论文复现与代码实战

Alex富贵 63 0 0

文风起武

tensorflow tf.nn.l2_loss正则化用法

文风起武 59 0 0

梅梅的时光

【损失函数:2】Charbonnier Loss、SSIM Loss(附Pytorch实现)

梅梅的时光 1052 0 0

生命中最美的是成长

【技术综述】一文道尽softmax loss及其变种

生命中最美的是成长 91 0 0

往复随安_5bb5

L1和L2范数

往复随安_5bb5 117 0 0

纽二

pytorch实现L2和L1正则化regularization的方法

纽二 241 0 0

拾光的Shelly

机器学习——L1 L2 范数 —>L1 L2正则化

拾光的Shelly 34 0 0

拾光的Shelly

L1和L2正则化理解

拾光的Shelly 61 0 0

精彩评论(0)

0 0 举报