iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >python中的torch.nn.Softmax() 用法和例子 dim=1 dim=2
  • 552
分享到

python中的torch.nn.Softmax() 用法和例子 dim=1 dim=2

python深度学习机器学习 2023-09-04 14:09:59 552人浏览 八月长安

Python 官方文档:入门教程 => 点击学习

摘要

用法 torch.nn.Softmax() 是 PyTorch 中的一个类,用于实现 softmax 函数。softmax 函数是一种常用的激活函数,它可以将一个向量转换成一个概率分布,使得每个元素都

用法

torch.nn.Softmax() 是 PyTorch 中的一个类,用于实现 softmax 函数。softmax 函数是一种常用的激活函数,它可以将一个向量转换成一个概率分布,使得每个元素都是非负数且和为 1。softmax 函数通常在分类问题中使用,可以将一个多分类问题转换成多个二分类问题,从而得到每个类别的概率分布。

语法格式

torch.nn.Softmax(dim=None)

其中,dim 是要进行 softmax 的维度,缺省值为 None,表示对最后一维进行 softmax。

例子dim=1

import torchx = torch.randn(2, 3)print('x:', x)softmax = torch.nn.Softmax(dim=1)y = softmax(x)print('y:', y)

输出

x: tensor([[ 1.3551,  0.3739,  0.5962],            [-0.3465,  1.4536,  0.4576]])y: tensor([[0.4989, 0.2238, 0.2773],            [0.1018, 0.7325, 0.1656]])

在这个例子中,我们先使用 torch.randn() 生成一个大小为 (2, 3) 的张量 x。然后,我们定义一个 torch.nn.Softmax() 对象 softmax,将维度 dim=1 作为参数传入。接着,我们将张量 x 作为输入,调用 softmax() 方法,得到一个大小为 (2, 3) 的张量 y,表示经过 softmax 函数处理后的结果。可以看到,每行元素都是非负数且和为 1。

需要注意的是,torch.nn.Softmax() 在实际使用中通常与交叉熵损失函数一起使用,用于多分类问题的训练。

例子dim=2

dim=2 表示在第二个维度上进行 softmax 计算。

import torch# 创建一个3D张量,形状为(2, 3, 4)x = torch.randn(2, 3, 4)# 使用dim=2进行softmax计算softmax = torch.nn.Softmax(dim=2)y = softmax(x)print("Original tensor:")print(x)print("\nSoftmax tensor:")print(y)

输出

Original tensor:tensor([[[ 0.4769, -0.1835, -0.3167, -1.1385],         [-0.5912,  0.4781, -0.6784, -0.4377],         [-0.9624, -0.0528, -1.4899, -1.5107]],        [[ 0.1033, -0.0107, -0.4888, -1.5489],         [ 0.4071,  0.2163, -0.3167, -0.1252],         [-1.7984, -1.1394, -1.5384, -0.3176]]])Softmax tensor:tensor([[[0.4669, 0.1745, 0.1527, 0.2060],         [0.1668, 0.4647, 0.1311, 0.2374],         [0.3005, 0.5028, 0.1452, 0.0515]],        [[0.4474, 0.2594, 0.1248, 0.1684],         [0.3616, 0.2983, 0.1426, 0.1975],         [0.1055, 0.1555, 0.1084, 0.6307]]])

可以看到,原始张量中的每个值都经过了 softmax 计算,第二个维度上的值都被归一化到了 0 到 1 之间,并且在每个样本上的值之和都为 1。

总结

当张量的形状为二维时,dim=1 和 dim=2 的效果类似,因为此时张量的行数等于时间步数,列数等于特征数。在这种情况下,dim=1 和 dim=2 都将每一行的值进行归一化,输出的结果相同。

但是当张量的形状为三维及以上时,dim=1 和 dim=2 的效果就不同了。在序列到序列的任务中,通常需要对每个时间步上的输出进行归一化,因此需要使用 torch.nn.Softmax(dim=2)。在分类任务中,通常需要对每个样本的输出进行归一化,因此需要使用 torch.nn.Softmax(dim=1)。

总之,dim 参数的选择应该根据具体的任务需求来进行选择,而不是根据形状的维数来确定。

来源地址:https://blog.csdn.net/longjiaxin1314/article/details/129689984

--结束END--

本文标题: python中的torch.nn.Softmax() 用法和例子 dim=1 dim=2

本文链接: https://www.lsjlt.com/news/393776.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作