iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >pytorch如何实现多个反向传播操作
  • 769
分享到

pytorch如何实现多个反向传播操作

2023-06-15 01:06:51 769人浏览 薄情痞子
摘要

小编给大家分享一下PyTorch如何实现多个反向传播操作,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!从一个错误说起:RuntimeError: Trying t

小编给大家分享一下PyTorch如何实现多个反向传播操作,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

从一个错误说起:

RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed

深度学习中,有些场景需要进行两次反向,比如Gan网络,需要对D进行一次,还要对G进行一次,很多人都会遇到上面这个错误,这个错误的意思就是尝试对一个计算图进行第二次反向,但是计算图已经释放了。

其实看简单点和我们之前的backward一样,当图进行了一次梯度更新,就会把一些梯度的缓存给清空,为了避免下次叠加,但在Gan这种情形下,我们必须要二次更新,那怎么办呢。

有两种方案:

方案一:

这是网上大多数给出的解决方案,在第一次反向时候加入一个l2.backward(),这样就能避免释放掉了。

方案二:

上面的方案虽然解决了问题,但是并不优美,因为我们用Gan的时候,D和G两者的更新并无联系,二者的联系仅仅是D里面用到了G的输出,而这个输出一般我们都是直接拿来用的,而问题就出现在这里。

下面给一个模拟:

data = torch.randn(4,10)model1 = torch.nn.Linear(10,2)model2 = torch.nn.Linear(2,2)optimizer1 = torch.optim.Adam(model1.parameters(), lr=0.001,betas=(0.5, 0.999))optimizer2 = torch.optim.Adam(model2.parameters(), lr=0.001,betas=(0.5, 0.999))loss = torch.nn.CrossEntropyLoss()data = torch.randn(4,10)label = torch.Tensor([0,1,1,0]).long()for i in range(20):    a = model1(data)    b = model2(a)    l1 = loss(a,label)    l2 = loss(b,label)    optimizer2.zero_grad()    l2.backward()    optimizer2.step()    optimizer1.zero_grad()    l1.backward()    optimizer1.step()

上面定义了两个模型,而model2的输入是model1的输出,而更新的时候,二者都是各自更新自己的参数,并无联系,但是上面的代码会报一个RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed 这样的错,解决方案可以是l2.backward(retain_graph=True)。

除此之外我们还可以是b = model2(a.detach()),这个就优美一点,a.detach()和a的区别你可以打印出来看一下,其实a.detach()是没有梯度的,所以相当于一个单纯的数字,和model1就脱离了联系,这样model2和model1就是完全分离开来的两个图,但是如果用的是a则model2和model1则仍然公用一个图,所以导致了错误。

可以看下面示意图(这个是我猜测,帮助理解):

pytorch如何实现多个反向传播操作

左边相当于直接用a而右边则用a.detach(),类似的在Gan网络里面D的输入可以改为G的输出y_fake.detach()。

但有一点需要注意的是,两个网络一定没有需要共同更新的 ,假如上面的optimizer2 = torch.optim.Adam(itertools.chain(model1.parameters(),model2.parameters()), lr=0.001,betas=(0.5, 0.999)),则还是用retain_graph=True保险,因为.detach则model2反向不会传播到model1,导致不对model1里面参数更新。

补充:聊聊Focal Loss及其反向传播

我们都知道,当前的目标检测(Objece Detection)算法主要分为两大类:two-stage detector和one-stage detector。two-stage detector主要包括rcnn、fast-rcnn、faster-rcnn和rfcn等,one-stage detector主要包括yolo和ssd等,前者精度高但检测速度较慢,后者精度低些但速度很快。

对于two-stage detector而言,通常先由RPN生成proposals,再由RCNN对proposals进行Classifcation和Bounding Box Regression。这样做的一个好处是有利于样本和模型之间的feature alignment,从而使Classification和Bounding Box Regression更容易些;此外,RPN和RCNN中存在正负样本不均衡的问题,RPN直接限制正负样本的比例为1:1,对于固定的rpn_batch_size,正样本不足的情况下才用负样本来填充,RCNN则是直接限制了正负样本的比例为1:3或者采用OHEM。

对于one-stage detector而言,样本和模型之间的feature alignment只能通过reception field来实现,且直接通过回归方式进行预测,存在这严重的正负样本数据不均衡(1:1000)的问题,负样本的比例过高,占据了loss的绝大部分,且大多数是容易分类的,这使得模型的训练朝着不希望的方向前进。作者认为这种数据的严重不均衡是造成one-stage detector精度低的主要原因,因此提出Focal Loss来解决这一问题

通过人工控制正负样本比例或者OHEM能够一定程度解决数据不均衡问题,但这两种方法都比较粗暴,采用这种“一刀切”的方式有可能把一些hard examples忽略掉。因此,作者提出了一种新的损失函数Focal Loss,不忽略任何样本,同时又能让模型训练时更加专注在hard examples上。简单说明下Focal loss的原理

Focal Loss是在标准的交叉熵损失的基础上改进而来。以二分类为例,标准的交叉熵损失函数为

pytorch如何实现多个反向传播操作

针对类别不均衡,针对对不同类别对loss的贡献进行控制即可,也就是加一个控制权重αt,那么改进后的balanced cross entropy loss为

pytorch如何实现多个反向传播操作

但是balanced cross entropy loss没办法让训练时专注在hard examples上。实际上,样本的正确分类概率pt越大,那么往往说明这个样本越易分。所以,最终的Focal Loss为

pytorch如何实现多个反向传播操作

Focal Loss存在这两个超参数(hyperparameter),不同的αt和γ,对于的loss如Figure 1所示。从Figure 4, 我们可以看到γ的变化对正(forground)样本的累积误差的影响并不大,但是对于负(background)样本的累积误差的影响还是很大的(γ=2时,将近99%的background样本的损失都非常小)。

pytorch如何实现多个反向传播操作

pytorch如何实现多个反向传播操作

接下来看下实验结果,为了验证Focal Loss,作者提出了一种新的one-stage detector架构RetinaNet,采用的是resnet_fpn,同时scales增加到15个,如Figure 3所示

pytorch如何实现多个反向传播操作

Table 1给出了RetinaNet和Focal Loss的一些实验结果,从中我们看出增加α-类别均衡,AP提高了0.9,再增加了γ控制,AP达到了37.8.Focal Local相比于OHEM,AP提高了3.2。从Table 2可以看出,增加训练时间并采用scale jitter,AP最终那达到39.1。

pytorch如何实现多个反向传播操作

pytorch如何实现多个反向传播操作

Focal Loss的原理分析和实验结果至此结束了,那么,我们接下来看下Focal Loss的反向传播。首先给出Softmax Activation的反向梯度传播公式,为

pytorch如何实现多个反向传播操作

有了Softmax Activation的反向梯度传播公式,根据链式法则,Focal Loss的反向梯度传播公式为

pytorch如何实现多个反向传播操作

pytorch的优点

1.PyTorch是相当简洁且高效快速的框架;2.设计追求最少的封装;3.设计符合人类思维,它让用户尽可能地专注于实现自己的想法;4.与Google的Tensorflow类似,FAIR的支持足以确保PyTorch获得持续的开发更新;5.PyTorch作者亲自维护的论坛 供用户交流和求教问题6.入门简单

以上是“pytorch如何实现多个反向传播操作”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网精选频道!

--结束END--

本文标题: pytorch如何实现多个反向传播操作

本文链接: https://www.lsjlt.com/news/276426.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • pytorch如何实现多个反向传播操作
    小编给大家分享一下pytorch如何实现多个反向传播操作,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!从一个错误说起:RuntimeError: Trying t...
    99+
    2023-06-15
  • pytorch 多个反向传播操作
    之前我的一篇文章pytorch 计算图以及backward,讲了一些pytorch中基本的反向传播,理清了梯度是如何计算以及下降的,建议先看懂那个,然后再看这个。 从一个错误说起: ...
    99+
    2024-04-02
  • PyTorch梯度下降反向传播实例分析
    本文小编为大家详细介绍“PyTorch梯度下降反向传播实例分析”,内容详细,步骤清晰,细节处理妥当,希望这篇“PyTorch梯度下降反向传播实例分析”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。前言:反向传播的目...
    99+
    2023-06-29
  • 如何使用tensorflow实现反向传播求导
    这篇文章给大家分享的是有关如何使用tensorflow实现反向传播求导的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。看代码吧~X=tf.constant([-1,-2],dtype=tf.float32)w=tf...
    99+
    2023-06-15
  • 在pytorch中使用loss反向传播出现错误如何解决
    在pytorch中使用loss反向传播出现错误如何解决?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。解决办法:1. 给 loss.backward() 指定传递给后向的参数维度...
    99+
    2023-06-15
  • Python怎么实现softmax反向传播
    这篇文章主要介绍“Python怎么实现softmax反向传播”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Python怎么实现softmax反向传播”文章能帮助大家解决问题。反向传播求导可以看到,s...
    99+
    2023-07-05
  • Pytorch反向传播中的细节-计算梯度时的默认累加操作
    Pytorch反向传播计算梯度默认累加 今天学习pytorch实现简单的线性回归,发现了pytorch的反向传播时计算梯度采用的累加机制, 于是百度来一下,好多博客都说了累加机制,但...
    99+
    2024-04-02
  • pytorch实现梯度下降和反向传播图文详细讲解
    目录反向传播手动完成线性回归pytorch API完成线性回归优化器类实现反向传播 这里说一下我的理解,反向传播是相对于前向计算的,以公式J(a,b,c)=3(a+bc)为例,前向计...
    99+
    2023-05-17
    pytorch梯度下降 pytorch反向传播 pytorch梯度下降和反向传播
  • 使用tensorflow 实现反向传播求导
    看代码吧~ X=tf.constant([-1,-2],dtype=tf.float32) w=tf.Variable([2.,3.]) truth=[3.,3.] Y=w*X ...
    99+
    2024-04-02
  • Python实现softmax反向传播的示例代码
    目录概念反向传播求导代码概念 softmax函数是常用的输出层函数,常用来解决互斥标签的多分类问题。当然由于他是非线性函数,也可以作为隐藏层函数使用 反向传播求导 可以看到,soft...
    99+
    2023-05-15
    Python实现softmax 反向传播 Python softmax 反向传播 Python 反向传播
  • Ajaxupload如何实现多文件上传操作
    这篇文章主要介绍了Ajaxupload如何实现多文件上传操作,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。具体代码如下所示:<pre&...
    99+
    2024-04-02
  • Gluon如何处理反向传播和自动微分
    Gluon是MXNet深度学习框架的高级API之一,它提供了简单而灵活的接口来构建神经网络模型。Gluon内置了自动微分功能,可以自...
    99+
    2024-04-02
  • Python反向传播实现线性回归步骤详细讲解
    目录1. 导入包2. 生成数据3. 训练数据4. 绘制图像5. 代码1. 导入包 我们这次的任务是随机生成一些离散的点,然后用直线(y = w *x + b )去拟合 首先看一下我们...
    99+
    2024-04-02
  • pytorch如何实现多个Dataloader同时训练
    小编给大家分享一下pytorch如何实现多个Dataloader同时训练,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!看代码吧~如果两个dataloader的长度...
    99+
    2023-06-15
  • 重定向操作如何在 Java 和 Linux 中实现对象传递?
    重定向是指将输出从一个地方转移到另一个地方。在 Java 和 Linux 中,重定向可以实现对象传递,使得程序可以更加灵活地处理数据。本文将介绍重定向在 Java 和 Linux 中的实现方式,并提供相应的演示代码。 一、Java 中的重...
    99+
    2023-10-10
    重定向 linux 对象
  • servlet3如何实现文件上传操作
    这篇文章主要为大家展示了“servlet3如何实现文件上传操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“servlet3如何实现文件上传操作”这篇文章吧。在Servlet2.5中,我们要实现...
    99+
    2023-05-30
    servlet3
  • 反向传播神经网络(BPNN)的实现(Python,附源码及数据集)
    文章目录 一、理论基础1、前向传播2、反向传播3、激活函数4、神经网络结构 二、BP神经网络的实现1、训练过程(BPNN.py)2、测试过程(test.py)3、测试结果4、参考源码及实验...
    99+
    2023-10-20
    python 神经网络 人工智能
  • python如何实现反向遍历
    这篇文章给大家分享的是有关python如何实现反向遍历的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。反向遍历如果我们希望对列表从后往前依次输出,那么应该怎么做呢其实只要加入reversed函数就可以了:fruit...
    99+
    2023-06-27
  • 使用Pytorch实现two-head(多输出)模型的操作
    如何使用Pytorch实现two-head(多输出)模型 1. two-head模型定义 先放一张我要实现的模型结构图: 如上图,就是一个two-head模型,也是一个但输入多输出...
    99+
    2024-04-02
  • Java如何实现无头双向链表操作
    这篇文章主要介绍了Java如何实现无头双向链表操作,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。具体内容如下无头双向链表的结构:代码分析节点结构class Node...
    99+
    2023-06-28
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作