Pytorch中torch的操作合集

发布时间:2023-02-27 18:00

  1. tensor的基本操作 【PyTorch系例】torch.Tensor详解和常用操作
    这里最重要的概念是索引出来的结果与原数据共享内存,也即修改一个,另一个也会跟着修改。
  2. tensor的广播机制 Pytorch:Tensor数组运算中的Broadcasting【广播机制】
    这里最重要的概念是只有存在1维的张量才可以进行广播,并且维度是从后往前开始。
  3. tensor的索引 Pytorch:浅探Tensor的各种索引形式
    这里最重要的概念是tensor的下标是从0开始,并且使用[a:b],选用的是大于等于a,但是小于b之间的数据。

其次自己补充一下,请看如下代码:

>>>import torch
>>>a = torch.tensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])
>>> print(a.size())
torch.Size([2, 2, 2])
>>> print(a)
tensor([[[1, 2],
         [3, 4]],

        [[5, 6],
         [7, 8]]])
 >>> b = a[:,:,1]
>>> print(b)
tensor([[2, 4],
        [6, 8]])
>>> b = a[:,:,0:1]
>>> print(b)
tensor([[[1],
         [3]],

        [[5],
         [7]]])
>>> b = a[:,1,:]
>>> print(b)
tensor([[3, 4],
        [7, 8]])

如果a的维度是(2,2,2), 如果b=a[:, :, 1],此时b的维度是(2, 2);如果b=a[:, :, 0:1],此时b的维度是(2, 2, 1);可以看出来如果某一个维度是一个确切的一维数字,那么该维度就会消失。

  1. torch的函数dim理解 pytorch中tf.nn.functional.softmax(x,dim = -1)对参数dim的理解
    这里最重要的概念是dim的大小对应维度,如0代表第一维,1代表第二维…

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号