波波算法笔记

Bob Peng

用softmax回归来分类图片

2025-03-31
用softmax回归来分类图片

用softmax回归来分类图片

前言

嘿!这里是笔者的《动手学深度学习》v2学习篇,最近一段时间由于工作需要,目前在深度学习“深度学习”
![](https://res.wx.qq.com/t/wx_fed/we-
emoji/res/v1.3.10/assets/newemoji/2_06.png) ,以下皆为学习笔记与思考的分享。欢迎指正与follow。

用softmax回归来分类图片

基本算法原理解释

原理

本次的分享是用softmax回归来分类图片,虽然是一个给图片分类的任务,但是实际上使用回归模型。

上次的线性回归模型,是一个输出,也就是预测的结果。

而本次的分享softmax回归是多输出,输出内容是一张图片在多个分类的概率,比如[0.1,0.2,.03,0.4]在四个类的概率。

思路

1.初始化模型参数 , 加载数据集

2.构建模型(确定预测函数)

3.损失函数(预测值与实际值的差距)

4.优化函数(更新模型参数)

5.构建分类精度评估

6.训练模型

7.测试集测试模型效果

基本上模型的预训练思路大致都是这样。

代码分析

导包

import torch  
from IPython import display  
from d2l import torch as d2l

加载mnist数据

batch_size = 256  
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

初始化模型参数

和之前线性回归的例子一样,这里的每个样本都将用固定长度的向量表示。原始数据集中的每个样本都是 28 × 28 的图像。本节[
将展平每个图像,把它们看作长度为784的向量。 ] 在后面的章节中,我们将讨论能够利用图像空间结构的特征,
但现在我们暂时只把每个像素位置看作一个特征。

回想一下,在softmax回归中,我们的输出与类别一样多。( 因为我们的数据集有10个类别,所以网络输出维度为10 )。因此,权重将构成一个
784 × 10 的矩阵, 偏置将构成一个 1 × 10 的行向量。与线性回归一样,我们将使用正态分布初始化我们的权重 W
,偏置初始化为0。

num_inputs = 784  
num_outputs = 10  
  
W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True)  
b = torch.zeros(num_outputs, requires_grad=True)

构建模型

def softmax(X):  
    X_exp = torch.exp(X)  
    partition = X_exp.sum(1, keepdim=True)  
    return X_exp / partition  # 这里应用了广播机制

[ 实现softmax ]由三个步骤组成:

  1. 1. 对每个项求幂(使用 exp );

  2. 2. 对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;

  3. 3. 将每一行除以其规范化常数,确保结果的和为1。

  4. 总结来说,对于每一个元素求exp,再对每一个元素求在此列表中的占比

在查看代码之前,我们回顾一下这个表达式:

softmax ( X ) ij = ∑ k exp ( X ik ) exp ( X ij ) .

def net(X):  
    return softmax(torch.matmul(X.reshape((-1, W.shape[0])), W) + b)

定义损失函数

接下来,我们softmax中引入的交叉熵损失函数。这可能是深度学习中最常见的损失函数,因为目前分类问题的数量远远超过回归问题的数量。

其中的y_hat 是预测值也就是概率,y为1

def cross_entropy(y_hat, y):  
    return - torch.log(y_hat[range(len(y_hat)), y])  

示例:

y = torch.tensor([0, 2])  
  
y_hat = torch.tensor([[0.1, 0.3, 0.6], [0.3, 0.2, 0.5]])  
y_hat[[0, 1], y]  
  
cross_entropy(y_hat, y)

下面,我们[ **创建一个数据样本y_hat ,其中包含2个样本在3个类别的预测概率, 以及它们对应的标签 y 。 ** ] 有了 y ,我们知道在第一个样本中,第一类是正确的预测;而在第二个样本中,第三类是正确的预测。然后( **使用y 作为 y_hat 中概率的索引
** ), 我们选择第一个样本中第一个类的概率和第二个样本中第三个类的概率。

分类精度函数

累加器

class Accumulator:  #@save  
    """在n个变量上累加"""  
    def __init__(self, n):  
        self.data = [0.0] * n  
  
    def add(self, *args):  
        self.data = [a + float(b) for a, b in zip(self.data, args)]  
  
    def reset(self):  
        self.data = [0.0] * len(self.data)  
  
    def __getitem__(self, idx):  
        return self.data[idx]

精度评估函数

def evaluate_accuracy(net, data_iter):  #@save  
    """计算在指定数据集上模型的精度"""  
    if isinstance(net, torch.nn.Module):  
        net.eval()  # 将模型设置为评估模式  
    metric = Accumulator(2)  # 正确预测数、预测总数  
    with torch.no_grad():  
        for X, y in data_iter:  
            metric.add(accuracy(net(X), y), y.numel())  
    return metric[0] / metric[1]

训练模型

def train_epoch_ch3(net, train_iter, loss, updater):  #@save  
    """训练模型一个迭代周期"""  
    # 将模型设置为训练模式  
    if isinstance(net, torch.nn.Module):  
        net.train()  
    # 训练损失总和、训练准确度总和、样本数  
    metric = Accumulator(3)  
    for X, y in train_iter:  
        # 计算梯度并更新参数  
        y_hat = net(X)  
        l = loss(y_hat, y)  
        if isinstance(updater, torch.optim.Optimizer):  
            # 使用PyTorch内置的优化器和损失函数  
            updater.zero_grad()  
            l.mean().backward()  
            updater.step()  
        else:  
            # 使用定制的优化器和损失函数  
            l.sum().backward()  
            updater(X.shape[0])  
        metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())  
    # 返回训练损失和训练精度  
    return metric[0] / metric[2], metric[1] / metric[2]

在展示训练函数的实现之前,我们[ 定义一个在动画中绘制数据的实用程序类 ] Animator

class Animator:  #@save  
    """在动画中绘制数据"""  
    def __init__(self, xlabel=None, ylabel=None, legend=None, xlim=None,  
                 ylim=None, xscale='linear', yscale='linear',  
                 fmts=('-', 'm--', 'g-.', 'r:'), nrows=1, ncols=1,  
                 figsize=(3.5, 2.5)):  
        # 增量地绘制多条线  
        if legend is None:  
            legend = []  
        d2l.use_svg_display()  
        self.fig, self.axes = d2l.plt.subplots(nrows, ncols, figsize=figsize)  
        if nrows * ncols == 1:  
            self.axes = [self.axes, ]  
        # 使用lambda函数捕获参数  
        self.config_axes = lambda: d2l.set_axes(  
            self.axes[0], xlabel, ylabel, xlim, ylim, xscale, yscale, legend)  
        self.X, self.Y, self.fmts = None, None, fmts  
  
    def add(self, x, y):  
        # 向图表中添加多个数据点  
        if not hasattr(y, "__len__"):  
            y = [y]  
        n = len(y)  
        if not hasattr(x, "__len__"):  
            x = [x] * n  
        if not self.X:  
            self.X = [[] for _ in range(n)]  
        if not self.Y:  
            self.Y = [[] for _ in range(n)]  
        for i, (a, b) in enumerate(zip(x, y)):  
            if a is not None and b is not None:  
                self.X[i].append(a)  
                self.Y[i].append(b)  
        self.axes[0].cla()  
        for x, y, fmt in zip(self.X, self.Y, self.fmts):  
            self.axes[0].plot(x, y, fmt)  
        self.config_axes()  
        display.display(self.fig)  
        display.clear_output(wait=True)


def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater):  #@save  
      
    animator = Animator(xlabel='epoch', xlim=[1, num_epochs], ylim=[0.3, 0.9],  
                        legend=['train loss', 'train acc', 'test acc'])  
    for epoch in range(num_epochs):  
        train_metrics = train_epoch_ch3(net, train_iter, loss, updater)  
        test_acc = evaluate_accuracy(net, test_iter)  
        animator.add(epoch + 1, train_metrics + (test_acc,))  
    train_loss, train_acc = train_metrics  
    assert train_loss < 0.5, train_loss  
    assert train_acc <= 1 and train_acc > 0.7, train_acc  
    assert test_acc <= 1 and test_acc > 0.7, test_acc


lr = 0.1  
  
def updater(batch_size):  
    return d2l.sgd([W, b], lr, batch_size)

开始训练

num_epochs = 10  
train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, updater)

预测

def predict_ch3(net, test_iter, n=6):  #@save  
    """预测标签(定义见第3章)"""  
    for X, y in test_iter:  
        break  
    trues = d2l.get_fashion_mnist_labels(y)  
    preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))  
    titles = [true +'\n' + pred for true, pred in zip(trues, preds)]  
    d2l.show_images(  
        X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])  
  
predict_ch3(net, test_iter)  

小结

  • • 借助softmax回归,我们可以训练多分类的模型。

  • • 训练softmax回归循环模型与训练线性回归模型非常相似:先读取数据,再定义模型和损失函数,然后使用优化算法训练模型。大多数常见的深度学习模型都有类似的训练过程。