李沐-动手学深度学习-线性代数

发布时间:2024-02-04 13:00

tensor()里面给一个元素表示一个标量

向量视为标量组成的列表

也可以通过索引访问张量中的元素

通过len()函数访问张量的长度

矩阵的转置(A.T)

计算其元素的和

指定维度求和axis = 0,表示按第0个维度求和,就是消去第0个维度。

默认情况下,调用求和函数会沿所有的轴降低张量的维度,使它变为一个标量。 我们还可以指定张量沿哪一个轴来通过求和降低维度。 以矩阵为例,为了通过求和所有行的元素来降维(轴0),我们可以在调用函数时指定axis=0。 由于输入矩阵沿0轴降维以生成输出向量,因此输入轴0的维数在输出形状中消失。

\"李沐-动手学深度学习-线性代数_第1张图片\"

同样,计算平均值的函数也可以沿指定轴降低张量的维度。

\"\"

非降维求和

有时在调用函数来计算总和或均值时保持轴数不变会很有用。此时需要添加关键字:keepmids=True

\"李沐-动手学深度学习-线性代数_第2张图片\"

这样可以通过广播机制进行归一化。

某个轴计算A元素的累积总和cumsum(axis= 0)0为指定轴

\"李沐-动手学深度学习-线性代数_第3张图片\"

 点积(按元素乘,再进行求和)

向量积(就是数学上的定义):torch.mv(A, B) 矩阵*向量;torch.mm(A, B)矩阵*矩阵

范数:L2范数是向量元素的平方和平方根:torch.norm(A) A为对应向量

           L1范数,他表示向量元素的绝对值之和:torch.abs(u).sum() u为对应向量

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号