iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >CoordConv如何实现卷积加上坐标
  • 692
分享到

CoordConv如何实现卷积加上坐标

2023-07-05 12:07:12 692人浏览 安东尼
摘要

这篇文章主要介绍了CoordConv如何实现卷积加上坐标的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇CoordConv如何实现卷积加上坐标文章都会有所收获,下面我们一起来看看吧。CoordConv:给你的卷积

这篇文章主要介绍了CoordConv如何实现卷积加上坐标的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇CoordConv如何实现卷积加上坐标文章都会有所收获,下面我们一起来看看吧。

    CoordConv:给你的卷积加上坐标

    CoordConv如何实现卷积加上坐标

    一、理论介绍

    1.1 CoordConv理论详解

    这是一篇考古的论文复现项目,在2018年Uber团队提出这个CoordConv模块的时候有很多文章对其进行批评,认为这个不值得发布一篇论文,但是现在重新看一下这个idea,同时再对比一下目前TransfORMer中提出的位置编码(Position Encoding),你就会感概历史是个圈,在角点卷积中,为卷积添加两个坐标编码实际上与Transformer中提出的位置编码是同样的道理。 众所周知,深度学习里的卷积运算是具有平移等变性的,这样可以在图像的不同位置共享统一的卷积核参数,但是这样卷积学习过程中是不能感知当前特征在图像中的坐标的,论文中的实验证明如下图所示。通过该实验,作者证明了传统卷积在卷积核进行局部运算时,仅仅能感受到局部信息,并且是无法感受到位置信息的。CoordConv就是通过在卷积的输入特征图中新增对应的通道来表征特征图像素点的坐标,让卷积学习过程中能够一定程度感知坐标来提升检测精度。

    CoordConv如何实现卷积加上坐标

    传统卷积无法将空间表示转换成笛卡尔空间中的坐标和one-hot像素空间中的坐标。卷积是等变的,也就是说当每个过滤器应用到输入上时,它不知道每个过滤器在哪。我们可以帮助卷积,让它知道过滤器的位置。这一过程需要在输入上添加两个通道实现,一个在i坐标,另一个在j坐标。通过上面的添加坐标的操作,我们可以的出一种新的卷积结构--CoordConv,其结构如下图所示:

    CoordConv如何实现卷积加上坐标

    二、代码实战

    本部分根据CoordConv论文并参考飞桨的官方实现完成CoordConv的复现。

    import paddleimport paddle.nn as nnimport paddle.nn.functional as Ffrom paddle import ParamAttrfrom paddle.regularizer import L2Decayfrom paddle.nn import AvgPool2D, Conv2D

    2.2 CoordConv类代码实现

    首先继承nn.Layer基类,其次使用paddle.arange定义gx``gy两个坐标,并且停止它们的梯度反传gx.stop_gradient = True,最后将它们concat到一起送入卷积即可。

    class CoordConv(nn.Layer):    def __init__(self, in_channels, out_channels, kernel_size, stride, padding):        super(CoordConv, self).__init__()        self.conv = Conv2D(            in_channels + 2, out_channels , kernel_size , stride , padding)    def forward(self, x):        b = x.shape[0]        h = x.shape[2]        w = x.shape[3]        gx = paddle.arange(w, dtype='float32') / (w - 1.) * 2.0 - 1.        gx = gx.reshape([1, 1, 1, w]).expand([b, 1, h, w])        gx.stop_gradient = True        gy = paddle.arange(h, dtype='float32') / (h - 1.) * 2.0 - 1.        gy = gy.reshape([1, 1, h, 1]).expand([b, 1, h, w])        gy.stop_gradient = True        y = paddle.concat([x, gx, gy], axis=1)        y = self.conv(y)        return y
    class dcn2(paddle.nn.Layer):    def __init__(self, num_classes=1):        super(dcn2, self).__init__()        self.conv1 = paddle.nn.Conv2D(in_channels=3, out_channels=32, kernel_size=(3, 3), stride=1, padding = 1)        self.conv2 = paddle.nn.Conv2D(in_channels=32, out_channels=64, kernel_size=(3,3),  stride=2, padding = 0)        self.conv3 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)        self.offsets = paddle.nn.Conv2D(64, 18, kernel_size=3, stride=2, padding=1)        self.mask = paddle.nn.Conv2D(64, 9, kernel_size=3, stride=2, padding=1)        self.conv4 = CoordConv(64, 64, (3,3), 2, 1)        self.flatten = paddle.nn.Flatten()        self.linear1 = paddle.nn.Linear(in_features=1024, out_features=64)        self.linear2 = paddle.nn.Linear(in_features=64, out_features=num_classes)    def forward(self, x):        x = self.conv1(x)        x = F.relu(x)        x = self.conv2(x)        x = F.relu(x)        x = self.conv3(x)        x = F.relu(x)        x = self.conv4(x)        x = F.relu(x)        x = self.flatten(x)        x = self.linear1(x)        x = F.relu(x)        x = self.linear2(x)        return x
    cnn3 = dcn2()model3 = paddle.Model(cnn3)model3.summary((64, 3, 32, 32))
    --------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-26     [[64, 3, 32, 32]]     [64, 32, 32, 32]         896         Conv2D-27     [[64, 32, 32, 32]]    [64, 64, 15, 15]       18,496        Conv2D-28     [[64, 64, 15, 15]]     [64, 64, 7, 7]        36,928        Conv2D-31      [[64, 66, 7, 7]]      [64, 64, 4, 4]        38,080       CoordConv-4     [[64, 64, 7, 7]]      [64, 64, 4, 4]           0          Flatten-1      [[64, 64, 4, 4]]        [64, 1024]             0          Linear-1         [[64, 1024]]           [64, 64]           65,600        Linear-2          [[64, 64]]            [64, 1]              65       ===========================================================================Total params: 160,065Trainable params: 160,065Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.75Forward/backward pass size (MB): 26.09Params size (MB): 0.61Estimated Total Size (MB): 27.45---------------------------------------------------------------------------{'total_params': 160065, 'trainable_params': 160065}
    class MyNet(paddle.nn.Layer):    def __init__(self, num_classes=1):        super(MyNet, self).__init__()        self.conv1 = paddle.nn.Conv2D(in_channels=3, out_channels=32, kernel_size=(3, 3), stride=1, padding = 1)        self.conv2 = paddle.nn.Conv2D(in_channels=32, out_channels=64, kernel_size=(3,3),  stride=2, padding = 0)        self.conv3 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 0)        self.conv4 = paddle.nn.Conv2D(in_channels=64, out_channels=64, kernel_size=(3,3), stride=2, padding = 1)        self.flatten = paddle.nn.Flatten()        self.linear1 = paddle.nn.Linear(in_features=1024, out_features=64)        self.linear2 = paddle.nn.Linear(in_features=64, out_features=num_classes)    def forward(self, x):        x = self.conv1(x)        x = F.relu(x)        x = self.conv2(x)        x = F.relu(x)        x = self.conv3(x)        x = F.relu(x)        x = self.conv4(x)        x = F.relu(x)        x = self.flatten(x)        x = self.linear1(x)        x = F.relu(x)        x = self.linear2(x)        return x
    可视化模型cnn1 = MyNet()model1 = paddle.Model(cnn1)model1.summary((64, 3, 32, 32))
    --------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-1      [[64, 3, 32, 32]]     [64, 32, 32, 32]         896         Conv2D-2      [[64, 32, 32, 32]]    [64, 64, 15, 15]       18,496        Conv2D-3      [[64, 64, 15, 15]]     [64, 64, 7, 7]        36,928        Conv2D-4       [[64, 64, 7, 7]]      [64, 64, 4, 4]        36,928        Flatten-1      [[64, 64, 4, 4]]        [64, 1024]             0          Linear-1         [[64, 1024]]           [64, 64]           65,600        Linear-2          [[64, 64]]            [64, 1]              65       ===========================================================================Total params: 158,913Trainable params: 158,913Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.75Forward/backward pass size (MB): 25.59Params size (MB): 0.61Estimated Total Size (MB): 26.95---------------------------------------------------------------------------{'total_params': 158913, 'trainable_params': 158913}

    关于“CoordConv如何实现卷积加上坐标”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“CoordConv如何实现卷积加上坐标”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注编程网精选频道。

    --结束END--

    本文标题: CoordConv如何实现卷积加上坐标

    本文链接: https://www.lsjlt.com/news/351666.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    本篇文章演示代码以及资料文档资料下载

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档
    猜你喜欢
    • CoordConv如何实现卷积加上坐标
      这篇文章主要介绍了CoordConv如何实现卷积加上坐标的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇CoordConv如何实现卷积加上坐标文章都会有所收获,下面我们一起来看看吧。CoordConv:给你的卷积...
      99+
      2023-07-05
    • CoordConv实现卷积加上坐标实例详解
      目录CoordConv:给你的卷积加上坐标一、理论介绍1.1 CoordConv理论详解二、代码实战2.2 CoordConv类代码实现总结CoordConv:给你的卷积加上坐标 ...
      99+
      2023-03-15
      CoordConv卷积加坐标 CoordConv卷积坐标
    • dos中如何实现本机每个盘都添加上卷标
      这篇文章给大家分享的是有关dos中如何实现本机每个盘都添加上卷标的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。代码如下:@ ECHO OFF @ ECHO. @&...
      99+
      2023-06-09
    • Python中如何实现卷积神经网络
      这篇文章主要介绍了Python中如何实现卷积神经网络,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。一、卷积神经网络Yann LeCun 和Yoshua Bengio在1995...
      99+
      2023-06-15
    • 如何在TensorFlow中实现图卷积网络
      在TensorFlow中实现图卷积网络(Graph Convolutional Network, GCN)可以通过以下步骤实现: ...
      99+
      2024-03-01
      TensorFlow
    • Canvas如何实现坐标变换
      这篇文章主要讲解了“Canvas如何实现坐标变换”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Canvas如何实现坐标变换”吧!代码如下: <htm...
      99+
      2024-04-02
    • 卷积神经网络如何实现提取特征
      目录图像在计算机中的存储1、黑白或灰度图像如何存储在计算机中2、彩色图像如何存储在计算机中矩阵的特征值与特征向量图像特征与特征向量卷积提取特征总结图像在计算机中的存储 图像其实就是一...
      99+
      2023-05-14
      卷积神经网络 提取卷积神经网络特征 卷积神经网络特征
    • TensorFlow中的卷积神经网络是如何实现的
      在TensorFlow中,卷积神经网络(CNN)的实现通常涉及以下步骤: 定义输入数据:首先,需要定义CNN的输入数据,通常是一...
      99+
      2024-03-01
      TensorFlow
    • Qt如何实现经纬度坐标纠偏
      本篇内容主要讲解“Qt如何实现经纬度坐标纠偏”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Qt如何实现经纬度坐标纠偏”吧!一、前言地图应用中都涉及到一个问题就是坐标纠偏的问题,这个问题的是因为根...
      99+
      2023-06-29
    • 使用Python和GDAL给图片加坐标系的实现思路(坐标投影转换)
      ** 使用Python和GDAL给图片加坐标系 ** 假设你已经知道arcgis地理配准(如下图内容),懂一点python。 ** -目的和背景 1.从地图网站获得一张PNG格式...
      99+
      2024-04-02
    • Java如何实现高斯模糊和图像的空间卷积
      这篇文章主要介绍Java如何实现高斯模糊和图像的空间卷积,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!高斯模糊高斯模糊(英语:Gaussian Blur),也叫高斯平滑,是在Adobe Photoshop、GIMP以...
      99+
      2023-05-30
      java
    • php如何实现每天积分加一
      这篇文章给大家分享的是有关php如何实现每天积分加一的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。php实现每天积分加一的方法:1、在数据表里增加一个字段logintime;2、使用一天中的零时零分零秒和上一次的...
      99+
      2023-06-22
    • C#中如何使用DevExpress的ChartControl实现极坐标图
      今天小编给大家分享一下C#中如何使用DevExpress的ChartControl实现极坐标图的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一...
      99+
      2023-06-29
    • html5中如何实现Canvas路径绘图、坐标变换应用
      这篇文章主要介绍了html5中如何实现Canvas路径绘图、坐标变换应用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。 代码如下:...
      99+
      2024-04-02
    • Docker volume挂载卷如何实现
      今天小编给大家分享一下Docker volume挂载卷如何实现的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们...
      99+
      2024-04-02
    • Numpy数值积分如何实现
      本篇内容主要讲解“Numpy数值积分如何实现”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Numpy数值积分如何实现”吧!连乘连加元素连乘prod, nanprod;元素求和sum, nansu...
      99+
      2023-07-05
    • javascript如何实现求圆面积
      小编给大家分享一下javascript如何实现求圆面积,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧! ...
      99+
      2024-04-02
    • 如何解决echarts中多个折现数据出现坐标和值对不上的问题
      小编给大家分享一下如何解决echarts中多个折现数据出现坐标和值对不上的问题,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!当出现多个折现数据,echarts可以配置stack值使用堆积值...
      99+
      2024-04-02
    • AnglarJs中如何实现上拉加载
      这篇文章给大家分享的是有关AnglarJs中如何实现上拉加载的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。实现页面 <div class="s...
      99+
      2024-04-02
    • Cipher在NTFS卷上如何显示或改变文件的加密
      小编给大家分享一下Cipher在NTFS卷上如何显示或改变文件的加密,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!Cipher 在 NTFS ...
      99+
      2023-06-09
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作