iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >pytorch中的torch.nn.Conv2d()函数怎么用
  • 213
分享到

pytorch中的torch.nn.Conv2d()函数怎么用

2023-06-29 08:06:36 213人浏览 八月长安
摘要

这篇文章主要为大家展示了“PyTorch中的torch.nn.Conv2d()函数怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“pytorch中的torch.nn.Conv2d()函数怎么

这篇文章主要为大家展示了“PyTorch中的torch.nn.Conv2d()函数怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“pytorch中的torch.nn.Conv2d()函数怎么用”这篇文章吧。

    一、官方文档介绍

    官网

    pytorch中的torch.nn.Conv2d()函数怎么用

    nn.Conv2d:对由多个输入平面组成的输入信号进行二维卷积

    pytorch中的torch.nn.Conv2d()函数怎么用

    pytorch中的torch.nn.Conv2d()函数怎么用

    二、torch.nn.Conv2d()函数详解

    参数详解

    torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

    参数参数类型  
    in_channelsintNumber of channels in the input image输入图像通道数
    out_channelsintNumber of channels produced by the convolution卷积产生的通道数
    kernel_size(int or tuple)Size of the convolving kernel卷积核尺寸,可以设为1个int型数或者一个(int, int)型的元组。例如(2,3)是高2宽3卷积核
    stride(int or tuple, optional)Stride of the convolution. Default: 1卷积步长,默认为1。可以设为1个int型数或者一个(int, int)型的元组。
    padding(int or tuple, optional)Zero-padding added to both sides of the input. Default: 0填充操作,控制padding_mode的数目。
    padding_mode(string, optional)‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’padding模式,默认为Zero-padding 。
    dilation(int or tuple, optional)Spacing between kernel elements. Default: 1扩张操作:控制kernel点(卷积核点)的间距,默认值:1。
    groups(int, optional)Number of blocked connections from input channels to output channels. Default: 1group参数的作用是控制分组卷积,默认不分组,为1组。
    bias(bool, optional)If True, adds a learnable bias to the output. Default: True为真,则在输出中添加一个可学习的偏差。默认:True。

    参数dilation——扩张卷积(也叫空洞卷积)

    dilation操作动图演示如下:

    Dilated Convolution with a 3 x 3 kernel and dilation rate 2

    扩张卷积核为3×3,扩张率为2

    pytorch中的torch.nn.Conv2d()函数怎么用

    参数groups——分组卷积

    Group Convolution顾名思义,则是对输入feature map进行分组,然后每组分别卷积。

    pytorch中的torch.nn.Conv2d()函数怎么用

    pytorch中的torch.nn.Conv2d()函数怎么用

    三、代码实例

    import torchx = torch.randn(3,1,5,4)print(x)conv = torch.nn.Conv2d(1,4,(2,3))res = conv(x)print(res.shape)    # torch.Size([3, 4, 4, 2])

    输入:x[ batch_size, channels, height_1, width_1 ]

    • batch_size,一个batch中样本的个数 3

    • channels,通道数,也就是当前层的深度 1

    • height_1, 图片的高 5

    • width_1, 图片的宽 4

    卷积操作:Conv2d[ channels, output, height_2, width_2 ]

    • channels,通道数,和上面保持一致,也就是当前层的深度 1

    • output ,输出的深度 4【需要4个filter】

    • height_2,卷积核的高 2

    • width_2,卷积核的宽 3

    输出:res[ batch_size,output, height_3, width_3 ]

    • batch_size,,一个batch中样例的个数,同上 3

    • output, 输出的深度 4

    • height_3, 卷积结果的高度 4

    • width_3,卷积结果的宽度 2

    一个样本卷积示例:

    pytorch中的torch.nn.Conv2d()函数怎么用

    pytorch中的torch.nn.Conv2d()函数怎么用

    以上是“pytorch中的torch.nn.Conv2d()函数怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网精选频道!

    --结束END--

    本文标题: pytorch中的torch.nn.Conv2d()函数怎么用

    本文链接: https://www.lsjlt.com/news/323662.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    本篇文章演示代码以及资料文档资料下载

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档
    猜你喜欢
    • pytorch中的torch.nn.Conv2d()函数怎么用
      这篇文章主要为大家展示了“pytorch中的torch.nn.Conv2d()函数怎么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“pytorch中的torch.nn.Conv2d()函数怎么...
      99+
      2023-06-29
    • pytorch中的torch.nn.Conv2d()函数图文详解
      目录一、官方文档介绍二、torch.nn.Conv2d()函数详解参数dilation——扩张卷积(也叫空洞卷积)参数groups——...
      99+
      2024-04-02
    • Pytorch中的torch.gather()函数怎么用
      这篇文章将为大家详细讲解有关Pytorch中的torch.gather()函数怎么用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。参数说明以官方说明为例,gather()函数需要三个参数,输入input,...
      99+
      2023-06-25
    • pytorch中torch.topk()函数怎么用
      这篇文章主要介绍“pytorch中torch.topk()函数怎么用”,在日常操作中,相信很多人在pytorch中torch.topk()函数怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”pytorch...
      99+
      2023-06-29
    • pytorch中的view()函数怎么使用
      这篇文章主要介绍了pytorch中的view()函数怎么使用的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇pytorch中的view()函数怎么使用文章都会有所收获,下面我们一起来看看吧。一、普通用法 (手动调...
      99+
      2023-06-29
    • PyTorch中torch.matmul()函数怎么使用
      这篇文章主要介绍了PyTorch中torch.matmul()函数怎么使用的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇PyTorch中torch.matmul()函数怎么使用文章都会有所收获,下面我们一起来看...
      99+
      2023-07-06
    • pytorch中Parameter函数怎么使用
      这篇文章主要介绍了pytorch中Parameter函数怎么使用的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇pytorch中Parameter函数怎么使用文章都会有所收获,下面我们一起来看看吧。用法介绍pyt...
      99+
      2023-06-29
    • Pytorch中怎么调用forward()函数
      这篇文章主要讲解了“Pytorch中怎么调用forward()函数”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Pytorch中怎么调用forward()函数”吧!Pytorch调用forw...
      99+
      2023-07-05
    • pytorch中BatchNorm2d函数的参数怎么使用
      本篇内容主要讲解“pytorch中BatchNorm2d函数的参数怎么使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“pytorch中BatchNorm2d函数的参数怎么使用”吧!BN原理、作...
      99+
      2023-07-04
    • Pytorch中的backward()多个loss函数怎么用
      这篇文章主要介绍了Pytorch中的backward()多个loss函数怎么用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。Pytorch的backward()函数假若有多个...
      99+
      2023-06-15
    • pytorch中的squeeze函数、cat函数使用
      1 squeeze(): 去除size为1的维度,包括行和列。 至于维度大于等于2时,squeeze()不起作用。 行、例: >>> torch.rand(4,...
      99+
      2024-04-02
    • Pytorch中backward()多个loss函数怎么用
      这篇文章主要介绍Pytorch中backward()多个loss函数怎么用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!Pytorch的backward()函数假若有多个loss函数,如何进行反向传播和更新呢?&nb...
      99+
      2023-06-15
    • PyTorch中怎么定义损失函数
      在PyTorch中,我们可以使用torch.nn模块中的各种损失函数来定义损失函数。以下是一些常用的损失函数及其定义方法: 均方误...
      99+
      2024-04-02
    • pytorch中的numel函数用法说明
      获取tensor中一共包含多少个元素 import torch x = torch.randn(3,3) print("number elements of x is ",x.n...
      99+
      2024-04-02
    • pytorch中关于distributedsampler函数的使用
      目录关于distributedsampler函数的使用1.如何使用这个分布式采样器2.关于用不用这个采样器的区别总结关于distributedsampler函数的使用 1.如何使用这...
      99+
      2023-02-02
      pytorch distributedsampler distributedsampler函数 pytorch使用distributedsampler
    • pytorch 中autograd.grad()函数的用法说明
      我们在用神经网络求解PDE时, 经常要用到输出值对输入变量(不是Weights和Biases)求导; 在训练WGAN-GP 时, 也会用到网络对输入变量的求导。 以上两种需求, 均可...
      99+
      2024-04-02
    • PyTorch中怎么选择合适的损失函数
      在PyTorch中选择合适的损失函数取决于你的任务类型和模型架构。以下是一些常见的损失函数及其适用场景: 交叉熵损失函数(Cro...
      99+
      2024-03-05
      PyTorch
    • pytorch中的.view()函数的用法介绍
      目录一、普通用法 (手动调整size)二、特殊用法:参数-1 (自动调整size)一、普通用法 (手动调整size) view()相当于reshape、resize,重新调整Tens...
      99+
      2024-04-02
    • 解析Pytorch中的torch.gather()函数
      参数说明 以官方说明为例,gather()函数需要三个参数,输入input,维度dim,以及索引index input必须为Tensor类型 dim为int类型,代表从哪个维度进行索...
      99+
      2024-04-02
    • 详解Pytorch中的view函数
      一、函数简介 Pytorch中的view函数主要用于Tensor维度的重构,即返回一个有相同数据但不同维度的Tensor。 根据上面的描述可知,view函数的操作对象应该是Tensor类型。如果不是T...
      99+
      2023-09-04
      pytorch 深度学习 python
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作