醋醋百科网

Good Luck To You!

图像识别模型如何“自动对齐”?空间变换网络(STN)

图像识别模型如何“自动对齐”?空间变换网络(STN)


一、引言:空间变换网络(STN)是什么?为什么重要?

在深度学习的视觉识别任务中,物体的位置、角度、尺度变化等“几何扰动”常常导致模型识别困难。而空间变换网络(Spatial Transformer Networks, STN)正是一种能让神经网络自动学习“对齐、纠正、放大/缩小”图像区域的结构。

STN模块可插拔地嵌入任何主流CNN(如LeNet、ResNet等)中,实现模型对输入图像的自适应空间变换,增强模型的鲁棒性与泛化能力。


二、数据集介绍与准备

本教程采用经典的MNIST手写数字识别数据集,该数据集包含6万张28x28像素的手写数字图片,分为10个类别(数字0~9),是深度学习视觉入门的标配。

数据集自动下载与加载:

import torch
import torchvision
from torchvision import datasets, transforms

# 数据预处理流程(ToTensor + 归一化到[0,1])
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.1307,), (0.3081,))
])

# 下载并加载MNIST训练与测试集
train_dataset = datasets.MNIST(
    root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(
    root='./data', train=False, download=True, transform=transform)

train_loader = torch.utils.data.DataLoader(
    dataset=train_dataset, batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(
    dataset=test_dataset, batch_size=64, shuffle=False)

三、什么是空间变换网络(STN)?

3.1 STN结构原理简述

STN模块可以看作是一个可以学习几何变换(如平移、缩放、旋转等)的网络层,能动态地变换输入图片的感兴趣区域,并将变换后的图片送入主网络继续处理。

STN主要包含三个部分:

  1. 1. 定位网络(Localization Net)
    学习预测输入图片的变换参数(如仿射矩阵)
  2. 2. 参数回归层
    输出几何变换(如仿射变换)的参数向量
  3. 3. 采样网格生成器(Grid Generator)与采样器(Sampler)
    根据变换参数生成新的采样网格,并对输入图片进行采样,得到变换后的图片。

STN结构配图(官方教程截图,图片来源PyTorch官方教程):

Spatial Transformer结构图(PyTorch官方教程)


四、PyTorch实现STN模块的详细流程与代码

4.1 主网络架构(LeNet+STN组合)

本例中主网络采用简化的LeNet结构,并在开头插入STN模块。

网络结构代码

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        # -----------------------------
        # 主体卷积网络(LeNet样式)
        # -----------------------------
        # 输入通道为1(灰度图),输出10个特征图,卷积核大小5x5
        self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
        # 上一层输出10通道,这里输入10通道,输出20通道,卷积核同为5x5
        self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
        # Dropout2d:防止过拟合,按通道随机置零
        self.conv2_drop = nn.Dropout2d()
        # 全连接层,输入为展平后的320维,输出50维
        self.fc1 = nn.Linear(320, 50)
        # 最后分类层,50维特征转为10维(对应0-9十个数字类别)
        self.fc2 = nn.Linear(50, 10)

        # -----------------------------
        # STN(Spatial Transformer Network)空间变换模块
        # -----------------------------
        # 定位网络(Localization Net):用于预测输入图像的几何变换参数
        # 这里采用了2层卷积 + 池化 + ReLU激活的简单结构
        self.localization = nn.Sequential(
            nn.Conv2d(1, 8, kernel_size=7),         # 输入1通道,输出8通道,卷积核7x7
            nn.MaxPool2d(2, stride=2),              # 2x2池化,步长2,降低空间分辨率
            nn.ReLU(True),                          # 激活函数
            nn.Conv2d(8, 10, kernel_size=5),        # 再卷积,输入8输出10,卷积核5x5
            nn.MaxPool2d(2, stride=2),              # 再次池化
            nn.ReLU(True)                           # 激活
        )

        # 回归层:将卷积特征映射为6个仿射变换参数
        self.fc_loc = nn.Sequential(
            nn.Linear(10 * 3 * 3, 32),              # 展平后输入,输出32
            nn.ReLU(True),                          # 激活
            nn.Linear(32, 6)                        # 输出6维(2x3仿射矩阵参数)
        )

        # 初始化最后一层线性层的权重为0,偏置为[1,0,0,0,1,0],即单位仿射变换
        # 保证STN初始不对输入做变换,有利于训练稳定
        self.fc_loc[2].weight.data.zero_()
        self.fc_loc[2].bias.data.copy_(
            torch.tensor([1, 0, 0, 0, 1, 0], dtype=torch.float))

    # STN模块前向传播函数
    def stn(self, x):
        xs = self.localization(x)                  # 通过定位网络得到特征图
        xs = xs.view(-1, 10 * 3 * 3)              # 展平成1维向量
        theta = self.fc_loc(xs)                   # 预测6个仿射参数
        theta = theta.view(-1, 2, 3)              # 变成2x3仿射矩阵

        # 生成仿射变换的采样网格
        grid = F.affine_grid(theta, x.size(), align_corners=False)
        # 用grid_sample对输入图片采样,实现空间变换(如旋转、平移、缩放)
        x = F.grid_sample(x, grid, align_corners=False)
        return x

    def forward(self, x):
        # 1. 先用STN模块变换输入图片,使其对齐或校正
        x = self.stn(x)
        # 2. 送入第一个卷积层 -> 激活 -> 2x2池化
        x = F.relu(F.max_pool2d(self.conv1(x), 2))
        # 3. 第二个卷积层 -> Dropout2d防止过拟合 -> 激活 -> 2x2池化
        x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
        # 4. 展平成一维,准备送入全连接层
        x = x.view(-1, 320)
        # 5. 第一个全连接层 + 激活
        x = F.relu(self.fc1(x))
        # 6. Dropout随机丢弃部分神经元,训练更鲁棒
        x = F.dropout(x, training=self.training)
        # 7. 输出层,得到10维分类分数
        x = self.fc2(x)
        # 8. 对结果做log_softmax归一化(适合负对数似然损失函数)
        return F.log_softmax(x, dim=1)

每一部分要点说明:

  • o conv1、conv2:负责提取图片局部特征,模拟LeNet结构,适合处理小型图像(如MNIST)。
  • o Dropout2d:随机遮蔽部分特征图,减少过拟合风险。
  • o fc1、fc2:将卷积特征变成最终分类分数,fc2输出10个类别概率。
  • o localization + fc_loc:STN的核心,负责预测图片需要怎样旋转、缩放、平移才能更适合被主网络识别。
  • o affine_grid + grid_sample:PyTorch空间变换的两大核心API,一个生成坐标网格,一个对原图采样,完成几何变换。
  • o 所有初始化细节:确保初始时STN对输入“不作变换”,只做微调,训练过程更稳定。

STN的本质价值

它让神经网络“学会自动对齐、旋转、缩放输入区域”,而不是死板依赖人工预处理,这对于实际复杂视觉任务非常有用。例如字迹倾斜、目标物体偏移、尺度变化大等,STN都能让模型自适应校正后再识别。


五、模型训练流程详解(代码与中文解读)

5.1 训练流程代码

import torch.optim as optim

model = Net().to(device)
optimizer = optim.SGD(model.parameters(), lr=0.01)

# 训练函数
def train(epoch):
    model.train()
    for batch_idx, (data, target) in enumerate(train_loader):
        data, target = data.to(device), target.to(device)
        optimizer.zero_grad()
        output = model(data)
        loss = F.nll_loss(output, target)  # 负对数似然损失
        loss.backward()
        optimizer.step()
        if batch_idx % 100 == 0:
            print(f'Train Epoch: {epoch} [{batch_idx * len(data)}/{len(train_loader.dataset)}] '
                  f'Loss: {loss.item():.6f}')

5.2 测试与评估函数

def test():
    model.eval()
    test_loss = 0
    correct = 0
    with torch.no_grad():
        for data, target in test_loader:
            data, target = data.to(device), target.to(device)
            output = model(data)
            test_loss += F.nll_loss(output, target, reduction='sum').item()
            pred = output.argmax(dim=1, keepdim=True)
            correct += pred.eq(target.view_as(pred)).sum().item()
    test_loss /= len(test_loader.dataset)
    acc = 100. * correct / len(test_loader.dataset)
    print(f'\nTest set: Average loss: {test_loss:.4f}, Accuracy: {correct}/{len(test_loader.dataset)} ({acc:.2f}%)\n')

六、空间变换可视化与效果分析

6.1 官方配图:空间变换前后的对比

下图展示了STN模块对输入图片的自适应空间变换能力(左:原图,右:变换后):

STN空间变换效果对比(PyTorch官方教程)


图片来源:PyTorch官方教程

6.2 可视化代码片段

import matplotlib.pyplot as plt

def convert_image_np(inp):
    """把Tensor格式图片转换为numpy可显示格式"""
    inp = inp.cpu().numpy().transpose((1, 2, 0))
    return inp

# 取一批测试图片
dataiter = iter(test_loader)
images, labels = dataiter.next()
images = images.to(device)

# 原图
plt.figure(figsize=(8,8))
plt.subplot(1,2,1)
plt.title('Original Images')
plt.imshow(convert_image_np(torchvision.utils.make_grid(images)))

# 变换后的图
with torch.no_grad():
    transformed_images = model.stn(images)
plt.subplot(1,2,2)
plt.title('Transformed Images')
plt.imshow(convert_image_np(torchvision.utils.make_grid(transformed_images.cpu())))
plt.show()

七、模型评估与指标解读

7.1 测试集准确率与损失

每个epoch训练和测试后,都会输出如下指标:

Train Epoch: 1 [0/60000]  Loss: 2.318513
...
Test set: Average loss: 0.0669, Accuracy: 9783/10000 (97.83%)
  • o Average loss:平均损失,越低越好
  • o Accuracy:正确识别率,越高越好

STN能显著提升模型在变换后的图片上的识别准确率。


八、常见问题及排错技巧

8.1 训练无收敛或准确率低

  • o 检查学习率设置,尝试降低学习率
  • o 检查STN回归层的初始化是否为单位仿射变换

8.2 训练过程变慢

  • o STN引入仿射变换运算,计算量会略增。可减少batch size保证稳定性。

8.3 变换结果异常

  • o 检查定位网络的结构与参数量
  • o 尝试更复杂或更简单的定位网络以匹配任务复杂度

九、STN的拓展与实际工程意义

  • o 适用范围广:可插入任何视觉模型(如分类、检测、分割)
  • o 鲁棒性提升:大幅增强模型对旋转、缩放、仿射等空间扰动的自适应能力
  • o 端到端可训练:所有参数可自动学习,无需人工指定变换规则

十、知识小结

  • o STN本质上是让神经网络自己学会“如何把物体对齐到合适区域”,对复杂视觉任务有极大帮助
  • o PyTorch提供了灵活的affine_gridgrid_sample函数,开发者可轻松自定义各种空间变换网络
  • o 在图像识别、文本、医学图像、遥感等领域均有广泛应用

十一、延伸阅读与官方教程链接

  • o PyTorch官方STN教程
  • o STN论文

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言