深度学习(八)——神经网络:卷积层

news/2024/6/18 21:41:34 标签: 深度学习, 神经网络, 人工智能, ai, 机器学习
aidu_pl">

一、卷积层Convolution Layers函数简介

官网网址:torch.nn.functional — PyTorch 2.0 documentation

由于是图像处理,所以主要介绍Conv2d。

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)

  • 参数解释可见上一篇笔记

  • in_channels(int): 输入图像的通道数,彩色图像一般为3(RGB三通道)

  • out_channel(int): 通过卷积后,产生的输出的通道数

  • kernel_size(int or tuple): 一个数或者元组,定义卷积大小。如_kernel_size=3_,即定义了一个大小为_3×3_的卷积核;kernel_size=(1,2),即定义了一个大小为_1×2_的卷积核。

  • stride(int or tuple,可选): 默认为1,卷积核横向、纵向的步幅大小

  • padding(int or tuple,可选): 默认为0,对图像边缘进行填充的范围

  • padding_mode(string,可选): 默认为zeros,对图像周围进行padding时,采取什么样的填充方式。可选参数有:'zeros', 'reflect', 'replicate' or 'circular'

  • dilation(int or tuple,可选): 默认为1,定义在卷积过程中,它的核之间的距离。这个我们称之为空洞卷积,但不常用。

  • groups(int or tuple,可选): 默认为1。分组卷积,一般都设置为1,很少有改动

  • bias(bool,可选): 默认为True。偏置,常年设置为True。代表卷积后的结果是否加减一个常数。

关于卷积操作,官方文档的解释如下:

In the simplest case, the output value of the layer with input size \((N,C_{in}​,H,W) \)and output\( (N,C_{out}​,H_{out}​,W_{out}​)\) can be precisely described as:

\[out(N_i​,Cou_{tj}​​)=bias(C_{out_j}​​)+∑_{k=0}^{C_{in}​−1}​weight(C_{out_j}​​,k)⋆input(N_i​,k) \]

where ⋆ is the valid 2D cross-correlation operator, \(N\) is a batch size, \(C \)denotes a number of channels, \(H\) is a height of input planes in pixels, and \(W\) is width in pixels.

(1)参数kernel_size的说明

  • kernel_size主要是用来设置卷积核大小尺寸的,给定模型一个kernel_size,模型就可以据此生成相应尺寸的卷积核。

  • 卷积核中的参数从图像数据分布中采样计算得到的。

  • 卷积核中的参数会通过训练不断进行调整。

(2)参数out_channel的说明

  • 如果输入图像in_channel=1,并且只有一个卷积核,那么对于卷积后产生的输出,其out_channel也为1
  • 如果输入图像in_channel=2,此时有两个卷积核,那么在卷积后将会输出两个矩阵,把这两个矩阵当作一个输出,此时out_channel=2

二、实例讲解

使用CIFAR中的图像数据,对Conv2d进行讲解

import torch
from  torch import nn
import torchvision
from torch.utils.data import DataLoader
from torch.nn import Conv2d
from torch.utils.tensorboard import SummaryWriter

#导入图像数据
dataset=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#打包数据
dataloder=DataLoader(dataset,batch_size=64)

#搭建神经网络
class Demo(nn.Module):
    def __init__(self):
        super().__init__()

        #导入图像为彩色,所以in_chennel=3;输出我们可以试试out_chennel=6;kernel_size=3(进行3×3的卷积),stride和padding均使用默认值1和0
        self.conv1=Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)    #self.conv1为一个卷积层,Conv2d是建立卷积层的函数

    def forward(self,x):
        x = self.conv1(x)  #将输入的x放进卷积层self.conv1中,然后返回得到的值(即输出的x)
        return x

demo=Demo()
print(demo)
"""
[Run]
Demo(
  (conv1): Conv2d(3, 6, kernel_size=(3, 3), stride=(1, 1))
)

[解读]
就是Demo中有一个卷积层conv1,输入3通道图像,输出6通道图像。卷积核大小为3×3,步幅为1×1
"""

#将每张图像放入神经网络中,并查看大小
for data in dataloder:
    imgs,targets=data  #获取打包好的图像
    output=demo(imgs)  #将图像数据放入神经网络中,经过forward函数进行卷积操作
    print(imgs.shape) #举例其中一个结果:[Run] torch.Size([64, 3, 30, 30]),即第10行中batch_size=64,in_channel为6通道,32×32
    print(output.shape)  #举例其中一个结果:[Run] torch.Size([64, 6, 30, 30]),即第10行中batch_size=64,out_channel为6通道,卷积操作后尺寸变为30×30

#更直观地对处理前后图像进行可视化
writer=SummaryWriter("nn_logs")

step=0
for data in dataloder:
    imgs,targets=data
    output=demo(imgs)
    #torch.Size([64, 3, 32, 32])
    writer.add_images("input",imgs,step)

    #torch.Size([64, 6, 30, 30])
    #由于通道数为6,add_images不知道如何显示,所以用一个不太严谨的方法,reshape一下图像,变为[xxx,3,30,30],多余的像素放在batch_size里面
    output=torch.reshape(output,(-1,3,20,30))  #由于第一个值不知道是多少,所以写-1,它会根据后面的值去计算
    writer.add_images("output",output,step)
    step+=1

  • 结果中图像的尺寸变小,如果要使图像尺寸不变,可以考虑用padding进行填充

需要注意的是,要完全在网页上显示图像,打开路径时代码要变成:

tensorboard --logdir=路径 --samples_per_plugin=images=1000

三、图像输入输出尺寸转化计算公式

参数说明:

  • \(N:\) 图像的batch_size

  • \(C:\) 图像的通道数

  • \(H:\) 图像的高

  • \(W:\) 图像的宽

计算过程:

  • Input: \((N,C_{in}​,H_{in}​,W_{in}​) or (C_{in}​,H_{in}​,W_{in}​)\)

  • Output: \((N,C_{out}​,H_{out}​,W_{out}​) or (C_{out}​,H_{out}​,W_{out}​)\)

    • 其中有:

      \(H_{out}​=⌊\frac{H_{in}​+2×padding[0]−dilation[0]×(kernel\_size[0]−1)−1​}{stride[0]}+1⌋\)

      \(W_{out}​=⌊\frac{W_{in}​+2×padding[1]−dilation[1]×(kernel\_size[1]−1)−1​}{stride[1]}+1⌋\)

看论文的时候,有些比如像padding这样的参数不知道,就可以用这条公式去进行推导

最后的最后

感谢你们的阅读和喜欢,我收藏了很多技术干货,可以共享给喜欢我文章的朋友们,如果你肯花时间沉下心去学习,它们一定能帮到你。

因为这个行业不同于其他行业,知识体系实在是过于庞大,知识更新也非常快。作为一个普通人,无法全部学完,所以我们在提升技术的时候,首先需要明确一个目标,然后制定好完整的计划,同时找到好的学习方法,这样才能更快的提升自己。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

五、面试资料

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下。
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费


http://www.niftyadmin.cn/n/5520424.html

相关文章

【React】在 React 组件中,怎么使用useContext

在React中,useContext 是一个Hook,它允许你无需显式地通过组件树的每一层来传递 props,就能将值深入到组件树的任何位置。要使用 useContext,你需要先创建一个 Context 对象,然后使用这个对象提供的 Provider 组件来包裹你的应用中的一部分。然后,任何在这个 Provider 下…

存储技术介绍

存储技术介绍 概述存储技术DASNASSANDAS、NAS、SAN 的比较NAS 和 SAN 的比较存储方式对象存储块存储文件存储差异比较存储接口SCSIiSCSISASSATA带宽速度换算eSATAFCFCoE可靠性技术RAID各 RAID 级别的比较备份快照镜像镜像与备份、拷贝、复制的比较群集并发存取相关硬件磁盘阵列…

解锁Java高效并发:newFixedThreadPool深度剖析与实战

1. 引言 在Java的并发编程中,线程池是一个重要的概念。而newFixedThreadPool作为Java标准库java.util.concurrent中Executors类的一个静态方法,为开发者提供了一个固定大小的线程池实现。本文旨在深入剖析newFixedThreadPool的原理、源码实现以及最佳实践,更好地理解和应用…

5、闭环检测

闭环检测(Loop Closure Detection) 闭环检测(Loop Closure Detection)是SLAM(同步定位与地图构建)系统中的一个关键步骤。它的主要目的是检测出机器人(或相机)是否再次访问了先前已…

李永乐线代笔记

线性方程组 解方程组的变换就是矩阵初等行变换 三秩相等 方程组系数矩阵的行秩列秩,线性相关的问题应求列秩,但求行秩方便 齐次线性方程组 对应向量组的线性相关,所以回顾下线性相关的知识: 其中k是x,所以用向…

前端菜鸡流水账日记 -- pnpm的学习

哈咯哇大家,我又来了,最近稍微悠闲一些,所以就趁着这个机会学习一些新的知识,今天就是碰巧遇到了pnm,这个可以看作是npm的升级版本,比npm要快,用起来也更得劲更迅速 官网地址:https…

10.第十章 列表

10. 列表 本章介绍Python语句最有用的内置类型之一: 列表. 你还能学到更多关于对象的知识, 以及同一个对象有两个或更多变量时会发生什么.10.1 列表是一个序列 和字符串相似, 列表(list)是值的序列. 在字符串中, 这些值是字符; 在列表中, 它可以是任何类型. 列表中的值称为元…

把纸质文件扫描成word电子版的3种方法!

在数字化日益盛行的今天,纸质文件转化为电子版的需求愈发强烈。不论是出于环保的考虑,还是为了提高工作效率,将纸质文件扫描成Word电子版都是一项必备技能。那么,如何将纸质文件轻松转化为Word电子版呢?本文将为您揭秘…