189 8069 5689

Pytorch基础中的逻辑回归是怎么样的

这篇文章将为大家详细讲解有关Pytorch基础中的逻辑回归是怎么样的,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

创新互联公司专注于固始网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供固始营销型网站建设,固始网站制作、固始网页设计、固始网站官网定制、小程序开发服务,打造固始网络公司原创品牌,更为您提供固始网站排名全网营销落地服务。

逻辑回归基本表示:

对于简单逻辑回归,我们可以采用一个神经网络进行表示:

Pytorch基础中的逻辑回归是怎么样的

所以可以看到,输入为两个输入,所以对应的权值也是两个,权值矩阵为2*1的矩阵;

输出为o=w1*x1+w2*x2;

对于三个样本,可以看到如下公式:

Pytorch基础中的逻辑回归是怎么样的

所以转换为矢量乘积方式:

Pytorch基础中的逻辑回归是怎么样的

所以,针对于三个参数,可以得到梯度向量:

Pytorch基础中的逻辑回归是怎么样的

输入处理:

num_inputs=2#输入个数
num_examples=1000#样本个数
true_w=[2,-3.4] #w参数矩阵
true_b=4.2  #b偏置参数
features=torch.tensor(np.random.normal(0,1,(num_examples,num_inputs)),dtype=torch.float)
#构建基本样本集:其中采用0~1的分布采样,输入的样本集为2*1000;
labels=true_w[0]*features[:,0]*features[:,0]+true_w[1]*features[:,1]+true_b
#标签集,也就是最后的y,直接进行公式累乘即可;
labels+=torch.tensor(np.random.normal(0,0.01,size=labels.size()),dtype=torch.float)
#增加一个扰动项
batch_size=10
dataset=Data.TensorDataset(features,labels)
#使用Data函数构建数据集;
data_iter=Data.DataLoader(dataset,batch_size,shuffle=True)
#对构建的dataset进行切分,按照的个数参照batch_size

对于输入可以参照上述,对于自己的数据集可以直接采用Data.TensorDataset来进行构造;

之后我们指定网络的结构和初始参数,直接进行加载dataset进行参数学习即可;

网络结构:

对于网络结构的定义,通常有两种方式:
1.采用类继承进行定义;

2.通过使用函数传参逐层累加的方式进行定义;

如果通过类继承进行定义:

class LinearNet(nn.Module):
    def __init__(self, n_feature):
        super(LinearNet, self).__init__()
        self.linear = nn.Linear(n_feature, 1)
    # forward 定义前向传播
    def forward(self, x):
        y = self.linear(x)
        return y

net = LinearNet(num_inputs)

可以看到LinearNet类继承自nn.Module类;

如果通过逐层类加进行定义:

通常是使用Sequential函数进行定义:

# 写法一
net = nn.Sequential(
    nn.Linear(num_inputs, 1)
    # 此处还可以传入其他层
    )
# 写法二
net = nn.Sequential()
net.add_module('linear', nn.Linear(num_inputs, 1))
# net.add_module ......
# 写法三
from collections import OrderedDict
net = nn.Sequential(OrderedDict([
          ('linear', nn.Linear(num_inputs, 1))
          # ......
        ]))

可以看到三种最常用的方法;

其实网络结构写法很多,也可以采用自己定义的网络构造函数返回一个net,这样也是比较常见的操作;

在构建网络后,需要初始化模型参数,也就是要把网络中的w,b全部给予一个默认值:

init.normal_(net[0].weight,mean=0,std=0.01)
init.constant_(net[0].bias,val=0)

将权重参数每个元素初始化为随机采样于均值为0、标准差为0.01的正态分布,偏差初始化为零;

之后我们定义一个损失函数,对于线性回归,采用MSEloss即可;

对于优化器,我们采用learning rate=0.03,SGD梯度下降算法进行优化;

loss=nn.MSELoss()
optimizer=optim.SGD(net.parameters(),lr=0.003);

对于学习率的调整,我们也可以进行动态调整,例如分层调整,动态调整:

optimizer =optim.SGD([
                # 如果对某个参数不指定学习率,就使用最外层的默认学习率
                {'params': net.subnet1.parameters()}, # lr=0.03
                {'params': net.subnet2.parameters(), 'lr': 0.01}
            ], lr=0.03)

# 调整学习率
for param_group in optimizer.param_groups:
    param_group['lr'] *= 0.1 # 学习率为之前的0.1倍

训练阶段:

num_epochs = 3
for epoch in range(1, num_epochs + 1):
    for X, y in data_iter:
        output = net(X)
        l = loss(output, y.view(-1, 1))
        optimizer.zero_grad() # 梯度清零,等价于net.zero_grad()
        l.backward()
        optimizer.step()
    print('epoch %d, loss: %f' % (epoch, l.item()))

dense = net[0]
print(true_w, dense.weight)
print(true_b, dense.bias)

所以看到,最后可以通过查看参数,来进行对比;

值得注意的是,每轮训练之后,要记得将优化器的残留梯度清0,防止累加;

关于Pytorch基础中的逻辑回归是怎么样的就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


网页标题:Pytorch基础中的逻辑回归是怎么样的
路径分享:http://cdxtjz.cn/article/peiesi.html

其他资讯