当前位置: 首页 > news >正文

语义分割训练精度计算

语义分割训练的output结果一般是[batch_size, num_classes, width, height]这样的形式,而label的结果一般是[batch_size, width, height],类似如下形状,outputs:[4,6,480,320],而真值label:[4,480,320]。由于维度不同,无法直接比较,所以这两者要比较就要采取一点方法。

output里面每个类型都有一个值,要取最大的值作为得到的类别结果,所以要用到torch.max()函数。

output = torch.max(input, dim)
# input是softmax函数输出的一个tensor
# dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值

dim就是维度,我这里应该取1

该函数的输出是:

函数会返回两个tensor,第一个tensor是每行的最大值;第二个tensor是每行最大值的索引。

一般我们不需要tensor每行的最大值,而需要的是索引,也就是结果是哪一类。因为这里的num_classes维度为1,所以dim=1,也就是取出这个维度上的最大值。

torch.max(output, dim=1)

其次,我们需要比较output和label的值,那就是说对长*宽的所有像素,要比较类别,如果类别一致就加到正确结果中,用正确结果的数量去除以所有像素的总数量,就是精度。这里有两个问题需要解决:

1. 计算两个tensor之间有多少值相等

在PyTorch中,要计算两个tensor之间有多少值相等,可以使用torch.eq()函数来生成一个布尔型tensor,其中每个元素表示对应位置的元素是否相等(相等为True,不相等为False)。然后,可以使用torch.sum()函数来计算这个布尔型tensor中True的总数,即有多少值相等。但是,需要注意的是,torch.sum()默认计算的是所有元素的和,对于布尔型tensor,True会被当作1处理,False会被当作0处理。

举例如下:

import torch  # 定义两个tensor  
tensor1 = torch.tensor([1, 2, 3, 4, 5])  
tensor2 = torch.tensor([1, 3, 3, 4, 6])  # 使用torch.eq()比较两个tensor  
equal_mask = torch.eq(tensor1, tensor2)  # 计算相等的值的数量  
equal_count = torch.sum(equal_mask)  print("相等的值的数量:", equal_count)
# 输出:相等的值的数量: tensor(3)

在这个例子中,tensor1和tensor2在位置0、2、3的值是相等的(即1,3和4),所以输出会是相等的值的数量: tensor(3, dtype=torch.int64),表示有3个值相等。

注意,torch.sum()的默认数据类型是torch.int64,但你可以通过指定dtype参数来改变结果的数据类型,例如torch.sum(equal_mask, dtype=torch.float32)。不过,在这个场景下,通常使用默认的torch.int64就足够了。

2. 获取一个tensor的所有元素总数

在PyTorch中,要获取一个tensor的元素个数(即tensor的总大小),可以使用.numel()方法。这个方法会返回tensor中所有元素的数量,不论tensor的维度如何。

下面是一个简单的例子:

import torch  # 定义一个tensor  
tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])  # 获取tensor的元素个数  
num_elements = tensor.numel()  print("Tensor的元素个数:", num_elements)
# 输出:Tensor的元素个数: 6

在这个例子中,tensor是一个2x3的二维tensor,包含6个元素。因此,输出将会是Tensor的元素个数: 6。

.numel()方法非常适合于快速计算tensor中元素的总数,无需手动计算各维度的乘积。这是处理不同形状和大小的tensor时的一个非常有用的功能。

综上所述,完整的计算模型训练精度的函数如下:

def get_acc(y_pred, y_true, num_classes):#print("y_pred.shape: ", y_pred.shape)#print("y_true.shape: ", y_true.shape)temp = torch.max(y_pred, dim=1)#print(temp[1])#print(temp[1].shape)# 比较y_true和temp[1]equal_mask = torch.eq(temp[1], y_true) # temp[1]就是返回的dim=1的最大值索引,也即是类别号equal_count = torch.sum(equal_mask)num_elements = y_true.numel()#print("equal_count: ", equal_count)#print("num_elements: ", num_elements)acc = equal_count/num_elements#print("acc: ", acc)return acc


http://www.mrgr.cn/news/13704.html

相关文章:

  • python基础(12迭代器生成器)
  • kotlin中常用扩展函数
  • 在VB.net中,LINQ在数据统计方面的应用,举例说明
  • 数据结构与算法学习day18-层序遍历
  • Python-MNE-源定位和逆问题01:源估计(SourceEstimate)数据结构
  • Linux学习笔记4 重点!网络排障命令
  • Go 中间件学习
  • Spark MLlib 特征工程系列—特征转换VectorSizeHint
  • 扑捉一只耿鬼(HTML文件)
  • 在Ubuntu 18.04上如何从默认的APT仓库安装MongoDB
  • 【Yarn】Yarn的基本执行流程(二)AM Container的启动
  • OpenCV绘图函数(4)绘制轮廓线的函数drawContours()的使用
  • MySQL数据库MVCC机制底层原理详解
  • 软件测试 | 测试用例Ⅱ
  • idea便捷操作
  • 创建型设计模式-构建器(builder)模式-python实现
  • 【国外比较权威的免费的卫星数据网站——NASA Worldview】
  • 未来十年美业发展方向:健康与美容的结合|美业SaaS系统收银系统源码
  • 数据结构-顺序表-详解
  • [Arxiv 2024] Self-Rewarding Language Models