0
点赞
收藏
分享

微信扫一扫

和我一起学机器学习-逻辑斯蒂回归(Logistic Regression)


逻辑斯蒂回归(Logistic Regression)是一种广泛使用的统计学习方法,它可以用来处理分类问题,例如二分类问题。

它的主要思想是建立一个线性分类器,然后将线性输出映射到一个sigmoid函数,从而将连续输出转化为概率值。sigmoid函数是一个S形函数,其输出范围在01之间。对于二分类问题,当输出概率值大于0.5时,我们将其归为一类,否则为另一类。

以下是一个使用PyTorch实现逻辑斯蒂回归的简单示例:

import torch
import torch.nn as nn
import torch.optim as optim

# 定义逻辑斯蒂回归模型
class LogisticRegression(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LogisticRegression, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)

    def forward(self, x):
        out = self.linear(x)
        return out

# 训练模型
def train(model, criterion, optimizer, train_loader, num_epochs):
    for epoch in range(num_epochs):
        for i, (inputs, labels) in enumerate(train_loader):
            # 将数据转化为PyTorch张量
            inputs = torch.tensor(inputs)
            labels = torch.tensor(labels)

            # 前向传播
            outputs = model(inputs)
            loss = criterion(outputs, labels)

            # 反向传播和优化
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()

            # 打印损失值
            if (i+1) % 100 == 0:
                print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'
                      .format(epoch+1, num_epochs, i+1, len(train_loader), loss.item()))

# 测试模型
def test(model, test_loader):
    with torch.no_grad():
        correct = 0
        total = 0
        for inputs, labels in test_loader:
            # 将数据转化为PyTorch张量
            inputs = torch.tensor(inputs)
            labels = torch.tensor(labels)

            # 前向传播
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)

            # 统计预测结果的正确率
            total += labels.size(0)
            correct += (predicted == labels).sum().item()

        print('Accuracy of the model on the test images: {:.2f} %'.format(100 * correct / total))

# 定义超参数
input_dim = 784  # 输入维度
output_dim = 10  # 输出维度
learning_rate = 0.001  # 学习率
num_epochs = 5  # 迭代次数

# 加载MNIST数据集
train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True)
test_dataset = torchvision.datasets.MNIST(root='./data', train=False, transform=transforms.ToTensor())

# 定义数据加载器
train_loader = torch.utils.data.DataLoader(dataset=train_dataset, batch_size=100, shuffle=True)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset, batch_size=100, shuffle=False

定义模型、损失函数和优化器

model = LogisticRegression(input_dim, output_dim)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=learning_rate)

训练模型

train(model, criterion, optimizer, train_loader, num_epochs)

测试模型

test(model, test_loader)

在这个例子中,我们使用了PyTorch内置的逻辑斯蒂回归函数nn.Linear来构建模型。输入维度input_dimMNIST数据集中图像的像素数,输出维度output_dim是类别数,即0-9。我们还定义了损失函数nn.CrossEntropyLoss()和优化器optim.SGD()来训练模型。

在训练模型时,我们首先将输入和标签转换为PyTorch张量。我们然后执行前向传播和计算损失,使用反向传播和优化器来更新模型参数。我们还记录了损失值并定期打印输出。

在测试模型时,我们禁用梯度计算,对测试数据集中的每个图像进行前向传播,并将输出与标签进行比较以计算模型的准确性。
你可以查看with torch.no_grad()和model.eval()在干什么?了解为什么要禁用梯度。

逻辑斯蒂回归是一种简单但有效的分类方法,通常用于二分类问题,但也可以扩展到多分类问题,这里不做介绍。


举报
0 条评论