iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >怎么在Pytorch中求模型准确率
  • 695
分享到

怎么在Pytorch中求模型准确率

2023-06-15 01:06:48 695人浏览 独家记忆
摘要

这篇文章给大家介绍怎么在PyTorch中求模型准确率,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。方法一:直接在epoch过程中求取准确率简介:此段代码是LeNet5中截取的。def train_model(

这篇文章给大家介绍怎么在PyTorch中求模型准确率,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

方法一:直接在epoch过程中求取准确率

简介:此段代码是LeNet5中截取的。

def train_model(model,train_loader):    optimizer = torch.optim.Adam(model.parameters())    loss_func = nn.CrossEntropyLoss()    EPOCHS = 5    for epoch in range(EPOCHS):        correct = 0        for batch_idx,(X_batch,y_batch) in enumerate(train_loader):            optimizer.zero_grad()            #这里是只取训练数据的意思吗,X_batch和y_batch是怎么分开的?            #答:X_batch和y_batch是一一对应的,只不过顺序打乱了,参考torch.utils.data.ipynb            output = model(X_batch.float())   #X_batch.float()是什么意思            loss = loss_func(output,y_batch)            loss.backward()            optimizer.step()                        # Total correct predictions            #第一个1代表取每行的最大值,第二个1代表只取最大值的索引             #这两行代码是求准确率的地方            predicted = torch.max(output.data,1)[1]            correct += (predicted == y_batch).sum()            #print(correct)            if batch_idx % 100 == 0:                print('Epoch :{}[{}/{}({:.0f}%)]\t Loss:{:.6f}\t Accuracy:{:.3f}'.fORMat(epoch,batch_idx * len(X_batch),len(train_loader.dataset),100.*batch_idx / len(train_loader),loss.data.item(),float(correct*100)/float(BATCH_SIZE)*(batch_idx+1)))                if __name__ == '__main__':    myModel = LeNet5()    print(myModel)    train_model(myModel,train_loader)    evaluate(myModel,test_loader,BATCH_SIZE)

方法二:构建函数,然后在epoch中调用该函数

简介:此段代码是对Titanic(泰坦尼克号)数据分析截取。

怎么在Pytorch中求模型准确率

epochs = 10log_step_freq = 30 dfhistory = pd.DataFrame(columns = ['epoch','loss',metric_name,'val_loss','val_'+metric_name])print('Start Training...')nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')print('========='*8 + '%s'%nowtime) for epoch in range(1,epochs+1):        #1.训练循环    net.train()    loss_sum = 0.0    metric_sum = 0.0    step = 1        for step,(features,labels) in enumerate(dl_train,1):        #梯度清零        optimizer.zero_grad()                #正向传播求损失        predictions = net(features)        loss = loss_func(predictions,labels)        metric = metric_func(predictions,labels)                #反向传播求梯度        loss.backward()        optimizer.step()                #打印batch级别日志        loss_sum += loss.item()        metric_sum += metric.item()        if step%log_step_freq == 0:            print(('[Step = %d] loss: %.3f,' + metric_name+': %.3f %%')%(step,loss_sum/step,100*metric_sum/step))                #2,验证循环    net.eval()    val_loss_sum = 0.0    val_metric_sum = 0.0    val_step =1            for val_step,(features,labels) in enumerate(dl_valid,1):        #关闭梯度计算        with torch.no_grad():            pred = net(features)            val_loss = loss_func(pred,labels)            val_metric = metric_func(labels,pred)        val_loss_sum += val_loss.item()        val_metric_sum += val_metric.item()                #3,记录日志    info = (epoch,loss_sum/step,100*metric_sum/step,            val_loss_sum/val_step,100*val_metric_sum/val_step)    dfhistory.loc[epoch-1] = info            #打印epoch级别日志    print(('\nEPOCH = %d,loss = %.3f,' + metric_name+\            '=%.3f %%,val_loss = %.3f'+' val_'+metric_name+'= %.3f %%')%info)    nowtime = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')    print('\n'+'=========='*8 + '%s'%nowtime)print('Finishing Training...')

补充:Pytorch实现Top1准确率和Top5准确率

之前一直不清楚Top1和Top5是什么,其实搞清楚了很简单,就是两种衡量指标,其中,Top1就是普通的Accuracy,Top5比Top1衡量标准更“严格”,

具体来讲,比如一共需要分10类,每次分类器的输出结果都是10个相加为1的概率值,Top1就是这十个值中最大的那个概率值对应的分类恰好正确的频率,而Top5则是在十个概率值中从大到小排序出前五个,然后看看这前五个分类中是否存在那个正确分类,再计算频率。

Pytorch实现如下:

def evaluteTop1(model, loader):    model.eval()        correct = 0    total = len(loader.dataset)    for x,y in loader:        x,y = x.to(device), y.to(device)        with torch.no_grad():            logits = model(x)            pred = logits.argmax(dim=1)            correct += torch.eq(pred, y).sum().float().item()        #correct += torch.eq(pred, y).sum().item()    return correct / totaldef evaluteTop5(model, loader):    model.eval()    correct = 0    total = len(loader.dataset)    for x, y in loader:        x,y = x.to(device),y.to(device)        with torch.no_grad():            logits = model(x)            maxk = max((1,5))        y_resize = y.view(-1,1)            _, pred = logits.topk(maxk, 1, True, True)            correct += torch.eq(pred, y_resize).sum().float().item()    return correct / total

注意:

y_resize = y.view(-1,1)是非常关键的一步,在correct的运算中,关键就是要pred和y_resize维度匹配,而原来的y是[128],128是batch大小;

pred的维度则是[128,10],假设这里是CIFAR10十分类;因此必须把y转化成[128,1]这种维度,但是不能直接是y.view(128,1),因为遍历整个数据集的时候,

最后一个batch大小并不是128,所以view()里面第一个size就设为-1未知,而确保第二个size是1就行

补充:topk函数的具体用法

pytorch -- topk()

torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor)

pytorch中文官网文档

沿给定dim维度返回输入张量input中 k 个最大值。

如果不指定dim,则默认为input的最后一维。

如果为largest为 False ,则返回最小的 k 个值。

返回一个元组 (values,indices),其中indices是原始输入张量input中测元素下标。

如果设定布尔值sorted 为_True_,将会确保返回的 k 个值被排序。

参数

input (Tensor) – 输入张量

k (int) – “top-k”中的k

dim (int, optional) – 排序的维

largest (bool, optional) – 布尔值,控制返回最大或最小值

sorted (bool, optional) – 布尔值,控制返回值是否排序

out (tuple, optional) – 可选输出张量 (Tensor, LongTensor) output buffer

实例

假设神经网络的输出如下,为二分类。batch_size=4

import torch output = torch.tensor([[-5.4783, 0.2298],                           [-4.2573, -0.4794],                           [-0.1070, -5.1511],                           [-0.1785, -4.3339]])

得到其top1值操作如下:

maxk = max((1,))  # 取top1准确率,若取top1和top5准确率改为max((1,5))_, pred = output.topk(maxk, 1, True, True)

topk参数中,maxk取得是top1准确率,dim=1是按行取值, largest=1是取最大值

结果如下,

_tensor([[ 0.2298],        [-0.4794],        [-0.1070],        [-0.1785]])
predtensor([[1],        [1],        [0],        [0]])

_是top1的值,pred是最大值的索引(size=4*1),一般会进行转置处理同真实值对比

pytorch的优点

1.PyTorch是相当简洁且高效快速的框架;2.设计追求最少的封装;3.设计符合人类思维,它让用户尽可能地专注于实现自己的想法;4.与Google的Tensorflow类似,FAIR的支持足以确保PyTorch获得持续的开发更新;5.PyTorch作者亲自维护的论坛 供用户交流和求教问题6.入门简单

关于怎么在Pytorch中求模型准确率就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

--结束END--

本文标题: 怎么在Pytorch中求模型准确率

本文链接: https://www.lsjlt.com/news/276596.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 怎么在Pytorch中求模型准确率
    这篇文章给大家介绍怎么在Pytorch中求模型准确率,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。方法一:直接在epoch过程中求取准确率简介:此段代码是LeNet5中截取的。def train_model(...
    99+
    2023-06-15
  • Pytorch中求模型准确率的两种方法小结
    方法一:直接在epoch过程中求取准确率 简介:此段代码是LeNet5中截取的。 def train_model(model,train_loader): optimiz...
    99+
    2024-04-02
  • 在pytorch中计算准确率,召回率和F1值的操作
    看代码吧~ predict = output.argmax(dim = 1) confusion_matrix =torch.zeros(2,2) for t, p in zip...
    99+
    2024-04-02
  • 一小时学会TensorFlow2之大幅提高模型准确率
    目录过拟合Regulation公式例子动量公式例子学习率递减过程例子Early StoppingDropout过拟合 当训练集的的准确率很高, 但是测试集的准确率很差的时候就, 我们...
    99+
    2024-04-02
  • parameter与buffer怎么在Pytorch模型中使用
    本篇文章给大家分享的是有关parameter与buffer怎么在Pytorch模型中使用,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。第一种参数有两种方式我们可以直接将模型的成...
    99+
    2023-06-15
  • PyTorch中怎么训练和评估模型
    在PyTorch中,训练和评估模型通常涉及以下步骤: 定义模型:首先需要定义一个神经网络模型。可以使用PyTorch的nn.Mo...
    99+
    2024-04-02
  • 怎么用PyTorch部署模型
    本篇内容介绍了“怎么用PyTorch部署模型”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!使用Docker安装安装torchserve最好的...
    99+
    2023-06-29
  • PyTorch中怎么进行模型的量化
    在PyTorch中,可以使用torch.quantization模块来进行模型的量化。具体步骤如下: 定义模型并加载预训练的模型参...
    99+
    2024-03-05
    PyTorch
  • pytorch怎么用gpu训练模型
    在PyTorch中使用GPU进行模型训练可以极大地加速训练过程。以下是一些简单的步骤来使用GPU训练模型: 检查是否有可用的GPU...
    99+
    2024-04-02
  • 如何在pytorch中部署半精度模型
    如何在pytorch中部署半精度模型?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。具体方法在pytorch中,一般模型定义都继承torch.nn.Moudle,...
    99+
    2023-06-15
  • 如何在PyTorch中进行模型的微调
    在PyTorch中进行模型微调的步骤如下: 加载预训练模型:首先,你需要加载一个预训练的模型。PyTorch提供了许多常见的预训练...
    99+
    2024-03-14
    PyTorch
  • Python 自然语言处理的性能测量:评估模型的准确性和效率
    Python 中的自然语言处理 (NLP) 模型的性能测量对于评估模型的有效性和效率至关重要。以下是用于评估 NLP 模型准确性和效率的主要指标: 准确性指标: 精度 (Precision):衡量模型预测为正类的样本中,实际为正类的比...
    99+
    2024-04-02
  • 如何在PyTorch中进行模型的可视化
    在PyTorch中进行模型的可视化通常使用第三方库如torchviz或tensorboard。以下是如何使用这两个库进行模型可视化的...
    99+
    2024-03-14
    PyTorch
  • 如何在Pytorch中操作统计模型参数量
    本篇文章为大家展示了如何在Pytorch中操作统计模型参数量,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。param.numel()返回param中元素的数量统计模型参数量num_params&nb...
    99+
    2023-06-15
  • Pytorch写数字怎么识别LeNet模型
    这篇文章主要为大家分析了Pytorch写数字怎么识别LeNet模型的相关知识点,内容详细易懂,操作细节合理,具有一定参考价值。如果感兴趣的话,不妨跟着跟随小编一起来看看,下面跟着小编一起深入学习“Pytorch写数字怎么识别LeNet模型”...
    99+
    2023-06-28
  • 如何在PyTorch中进行模型的集成学习
    在PyTorch中进行模型的集成学习可以通过以下步骤实现: 定义多个不同的神经网络模型:首先,定义多个不同的神经网络模型,可以是不...
    99+
    2024-03-06
    PyTorch
  • 怎么调整PyTorch模型的超参数
    调整PyTorch模型的超参数通常包括学习率、批大小、优化器类型、正则化参数等。以下是一些调整超参数的方法: 学习率:学习率决定...
    99+
    2024-03-05
    PyTorch
  • CSS中怪异盒模型和标准盒模型有什么用
    这篇文章主要为大家展示了“CSS中怪异盒模型和标准盒模型有什么用”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“CSS中怪异盒模型和标准盒模型有什么用”这篇文章吧...
    99+
    2024-04-02
  • 如何在Pytorch中实现一个模型迁移功能
    这篇文章给大家介绍如何在Pytorch中实现一个模型迁移功能,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。1. 利用resnet18做迁移学习import torchfrom torchvision...
    99+
    2023-06-06
  • 使用PyTorch怎么多GPU中对模型进行保存
    这篇文章将为大家详细讲解有关使用PyTorch怎么多GPU中对模型进行保存,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。多GPU下训练,创建模型代码通常如下:os.environ['...
    99+
    2023-06-07
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作