我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Pytorch深度学习经典卷积神经网络resnet模块实例分析

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Pytorch深度学习经典卷积神经网络resnet模块实例分析

这篇文章主要介绍“Pytorch深度学习经典卷积神经网络resnet模块实例分析”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Pytorch深度学习经典卷积神经网络resnet模块实例分析”文章能帮助大家解决问题。

    前言

    随着深度学习的不断发展,从开山之作Alexnet到VGG,网络结构不断优化,但是在VGG网络研究过程中,人们发现随着网络深度的不断提高,准确率却没有得到提高,如图所示:

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    人们觉得深度学习到此就停止了,不能继续研究了,但是经过一段时间的发展,残差网络(resnet)解决了这一问题。

    一、resnet

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    如图所示:简单来说就是保留之前的特征,有时候当图片经过卷积进行特征提取,得到的结果反而没有之前的很好,所以resnet提出保留之前的特征,这里还需要经过一些处理,在下面代码讲解中将详细介绍。

    二、resnet网络结构

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    本文将主要介绍resnet18

    三、resnet18

    1.导包

    import torchimport torchvision.transforms as transimport torchvision as tvimport torch.nn as nnfrom torch.autograd import Variablefrom torch.utils import datafrom torch.optim import lr_scheduler

    2.残差模块

    这个模块完成的功能如图所示:

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    class tiao(nn.Module):    def __init__(self,shuru,shuchu):        super(tiao, self).__init__()        self.conv1=nn.Conv2d(in_channels=shuru,out_channels=shuchu,kernel_size=(3,3),padding=(1,1))        self.bath=nn.BatchNorm2d(shuchu)        self.relu=nn.ReLU()    def forward(self,x):        x1=self.conv1(x)        x2=self.bath(x1)        x3=self.relu(x2)        x4=self.conv1(x3)        x5=self.bath(x4)        x6=self.relu(x5)        x7=x6+x        return x7

    2.通道数翻倍残差模块

    模块完成功能如图所示:

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    在这个模块中,要注意原始图像的通道数要进行翻倍,要不然后面是不能进行相加。

    class tiao2(nn.Module):    def __init__(self,shuru):        super(tiao2, self).__init__()        self.conv1=nn.Conv2d(in_channels=shuru,out_channels=shuru*2,kernel_size=(3,3),stride=(2,2),padding=(1,1))        self.conv11=nn.Conv2d(in_channels=shuru,out_channels=shuru*2,kernel_size=(1,1),stride=(2,2))        self.batch=nn.BatchNorm2d(shuru*2)        self.relu=nn.ReLU()        self.conv2=nn.Conv2d(in_channels=shuru*2,out_channels=shuru*2,kernel_size=(3,3),stride=(1,1),padding=(1,1))    def forward(self,x):        x1=self.conv1(x)        x2=self.batch(x1)        x3=self.relu(x2)        x4=self.conv2(x3)        x5=self.batch(x4)        x6=self.relu(x5)        x11=self.conv11(x)        x7=x11+x6        return x7

    3.rensnet18模块

    class resnet18(nn.Module):    def __init__(self):        super(resnet18, self).__init__()        self.conv1=nn.Conv2d(in_channels=3,out_channels=64,kernel_size=(7,7),stride=(2,2),padding=(3,3))        self.bath=nn.BatchNorm2d(64)        self.relu=nn.ReLU()        self.max=nn.MaxPool2d(2,2)        self.tiao1=tiao(64,64)        self.tiao2=tiao(64,64)        self.tiao3=tiao2(64)        self.tiao4=tiao(128,128)        self.tiao5=tiao2(128)        self.tiao6=tiao(256,256)        self.tiao7=tiao2(256)        self.tiao8=tiao(512,512)        self.a=nn.AdaptiveAvgPool2d(output_size=(1,1))        self.l=nn.Linear(512,10)    def forward(self,x):        x1=self.conv1(x)        x2=self.bath(x1)        x3=self.relu(x2)        x4=self.tiao1(x3)        x5=self.tiao2(x4)        x6=self.tiao3(x5)        x7=self.tiao4(x6)        x8=self.tiao5(x7)        x9=self.tiao6(x8)        x10=self.tiao7(x9)        x11=self.tiao8(x10)        x12=self.a(x11)        x13=x12.view(x12.size()[0],-1)        x14=self.l(x13)        return x14

    这个网络简单来说16层卷积,1层全连接,训练参数相对较少,模型相对来说比较简单。

    4.数据测试

    model=resnet18().cuda()input=torch.randn(1,3,64,64).cuda()output=model(input)print(output)

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    5.损失函数,优化器

    损失函数

    loss=nn.CrossEntropyLoss()

    在优化器中,将学习率进行每10步自动衰减

    opt=torch.optim.SGD(model.parameters(),lr=0.001,momentum=0.9)exp_lr=lr_scheduler.StepLR(opt,step_size=10,gamma=0.1)opt=torch.optim.SGD(model.parameters(),lr=0.001,momentum=0.9)exp_lr=lr_scheduler.StepLR(opt,step_size=10,gamma=0.1)

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    在这里可以看一下对比图,发现添加学习率自动衰减,loss下降速度会快一些,这说明模型拟合效果比较好。

    6.加载数据集,数据增强

    这里我们仍然选择cifar10数据集,首先对数据进行增强,增加模型的泛华能力。

      transs=trans.Compose([        trans.Resize(256),        trans.RandomHorizontalFlip(),        trans.RandomCrop(64),        trans.ColorJitter(brightness=0.5,contrast=0.5,hue=0.3),        trans.ToTensor(),        trans.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))    ])

    ColorJitter函数中brightness(亮度)contrast(对比度)saturation(饱和度)hue(色调)

    加载cifar10数据集:

        train=tv.datasets.CIFAR10(        root=r'E:\桌面\资料\cv3\数据集\cifar-10-batches-py',        train=True,        download=True,        transform=transs    )    trainloader=data.DataLoader(        train,        num_workers=4,        batch_size=8,        shuffle=True,        drop_last=True    )

    7.训练数据

        for i in range(3):        running_loss=0        for index,data in enumerate(trainloader):            x,y=data            x=x.cuda()            y=y.cuda()            x=Variable(x)            y=Variable(y)            opt.zero_grad()            h=model(x)            loss1=loss(h,y)            loss1.backward()            opt.step()            running_loss+=loss1.item()            if index%100==99:                avg_loos=running_loss/100                running_loss=0                print("avg_loss",avg_loos)

    8.保存模型

    torch.save(model.state_dict(),'resnet18.pth')

    9.加载测试集数据,进行模型测试

    首先加载训练好的模型

    model.load_state_dict(torch.load('resnet18.pth'),False)

    读取数据

     test = tv.datasets.ImageFolder(        root=r'E:\桌面\资料\cv3\数据',        transform=transs,    )    testloader = data.DataLoader(        test,        batch_size=16,        shuffle=False,    )

    测试数据

    acc=0total=0    for data in testloader:        inputs,indel=data        out=model(inputs.cuda())        _,prediction=torch.max(out.cpu(),1)        total+=indel.size(0)        b=(prediction==indel)        acc+=b.sum()    print("准确率%d %%"%(100*acc/total))

    四、resnet深层对比

    上面提到VGG网络层次越深,准确率越低,为了解决这一问题,才提出了残差网络(resnet),那么在resnet网络中,到底会不会出现这一问题。

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    如图所示:随着,训练层次不断提高,模型越来越好,成功解决了VGG网络的问题,到现在为止,残差网络还是被大多数人使用。

    关于“Pytorch深度学习经典卷积神经网络resnet模块实例分析”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注编程网行业资讯频道,小编每天都会为大家更新不同的知识点。

    免责声明:

    ① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

    ② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档

    猜你喜欢

    Pytorch深度学习经典卷积神经网络resnet模块实例分析

    这篇文章主要介绍“Pytorch深度学习经典卷积神经网络resnet模块实例分析”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Pytorch深度学习经典卷积神经网络resnet模块实例分析”文章能帮
    2023-06-30

    编程热搜

    • Python 学习之路 - Python
      一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
      Python 学习之路 - Python
    • chatgpt的中文全称是什么
      chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
      chatgpt的中文全称是什么
    • C/C++中extern函数使用详解
    • C/C++可变参数的使用
      可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
      C/C++可变参数的使用
    • css样式文件该放在哪里
    • php中数组下标必须是连续的吗
    • Python 3 教程
      Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
      Python 3 教程
    • Python pip包管理
      一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
      Python pip包管理
    • ubuntu如何重新编译内核
    • 改善Java代码之慎用java动态编译

    目录