关于 l2norm(self.L2Norm = L2Norm(512, 20)) 的问题

来源:4-6 Caffe-SSD框架搭建及训练脚本解读

慕移动1014655

2020-07-18

老师,我查看了下 L2Norm 的实现,这里 20 对应 scale,但是没有看到这个 scale 被调用啊?这里的 scale 的作用是什么呢?是 lambda?另外这里的实现和我们常说的 L2 正则化(J1 = J0 + lambda*sum(w^2))不一样呢?谢谢!

写回答

1回答

会写代码的好厨师

2020-08-15

这个方法在SSD里面用到,主要是因为不同尺度的feature的大小差的比较多,所以需要进行norm,实现细节如下:

class L2Norm(nn.Module):
    #参数:输入特征图的通道数,缩放像素值到达的范围
    def __init__(self,n_channels, scale):
        super(L2Norm,self).__init__()
        self.n_channels = n_channels
        self.gamma = scale or None
        self.eps = 1e-10
        self.weight = nn.Parameter(torch.Tensor(self.n_channels))
        self.reset_parameters()
        
    def reset_parameters(self):
        init.constant_(self.weight,self.gamma)
        
    def forward(self, x):
        norm = x.pow(2).sum(dim=1, keepdim=True).sqrt()+self.eps
        #x /= norm
        x = torch.div(x,norm)
        out = self.weight.unsqueeze(0).unsqueeze(2).unsqueeze(3).expand_as(x) * x

        return out


scale的意思就是*20,归一化从0~1调整到0~20。这个地方不是正则化,是归一化。

正则化的意思是,参数的平方和要最小,lambda是一个惩罚项系数,也可以是理解为超参数,控制一个比重的。

0
0

深度学习之目标检测常用算法原理+实践精讲

从原理到场景实战,掌握目标检测核心技术

877 学习 · 221 问题

查看课程