背景:对 python 不熟悉,能看懂代码,也能实现一些简单的功能,但是对 python 的核心思想和编程技巧不熟,所以使 Pytorch 写 loss 的时候遇到很多麻烦,尤其是在 batch_size > 1 的时候,做矩阵乘法之类的运算会觉得特别不顺手。
所幸,在边查边写的过程中,理解了 python 中多维运算的实现规则。
1、python 的基本索引规则
从 0 开始
对于给定的范围,如 b = a[m:n], 那么 b 为由 (n-m)个数据组成的新数组,由 a[m],a[m+1],...,a[n-1] 构成。(若 n<m, 得到空)
2、单个 tensor 运算,使用 dim 参数
torch 中对 tensor 的操作方法,若不加 dim 参数表示对整体的 tensr 进行操作,若增加 dim 参则表示按维操作。
例:
a = [[1,2],[3,4],[5,6]] (torch.tensor) torch.mean(a) => 3.5 torch.mean(a,dim=0) => [1.5, 3.5, 5.5] torch.mean(a,dim=1) => [[3],[4]] torch.mean(a,dim=0) => [3,4] torch.mean(a,dim=1) => [1.5, 3.5, 5.5]
注: torch.mean() 是一个降维的操作,所以不会出现在取均值后保持跟原 Tensor 同维的情况。 dim 参数存在时降一维,不存在时得到的是整个 Tensor 的均值。
3、两个 tensor 运算,构造对应形状
以乘法为例:
3.1 矩阵乘向量
a = [[1,2],[3,4],[5,6]] b = [1,1]
计算乘法 c = a@b
若 a 拓展为 (N,3,2) N 为 batch_size, 计算 c2 = a@b
若 a,b 同时拓展, 变成(N, 2),那么需要做一个变换 b = b.view(N,2,1),计算 c3 = a@b
3.2 矩阵乘矩阵
a = [[1,2],[3,4],[5,6]] b =[ [1,1],[1,1]]
计算乘法 c = a@b
若 a 拓展为 (N,3,2) N 为 batch_size, 计算 c2 = a@b
若 a,b 同时拓展, 变成(N, 2, 2),计算 c3 = a@b
以上这篇Pytorch 多维数组运算过程的索引处理方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]