错误信息:
RuntimeError: in-place operations can be only used on variables that don't share storage with any other variables, but detected that there are 4 objects sharing it
自动求导是很方便, 但是想想, 如果两个Variable共享内存, 再对这个共享的内存的数据进行修改, 就会引起错误!
一般是由于 inplace操作或是indexing或是转置. 这些都是共享内存的.
@staticmethod def backward(ctx, grad_output): ind_lst = ctx.ind_lst flag = ctx.flag c = grad_output.size(1) grad_former_all = grad_output[:, 0:c//3, :, :] grad_latter_all = grad_output[:, c//3: c*2//3, :, :] grad_swapped_all = grad_output[:, c*2//3:c, :, :] spatial_size = ctx.h * ctx.w W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_()) for idx in range(ctx.bz): W_mat = W_mat_all.select(0,idx) for cnt in range(spatial_size): indS = ind_lst[idx][cnt] if flag[cnt] == 1: # 这里W_mat是W_mat_all通过select出来的, 他们共享内存. W_mat[cnt, indS] = 1 W_mat_t = W_mat.t() grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t()) grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w) grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
由于 这里W_mat是W_mat_all通过select出来的, 他们共享内存. 所以当对这个共享的内存进行修改W_mat[cnt, indS] = 1, 就会出错. 此时我们可以通过clone()将W_mat和W_mat_all独立出来. 这样的话, 梯度也会通过 clone()操作将W_mat的梯度正确反传到W_mat_all中.
@staticmethod def backward(ctx, grad_output): ind_lst = ctx.ind_lst flag = ctx.flag c = grad_output.size(1) grad_former_all = grad_output[:, 0:c//3, :, :] grad_latter_all = grad_output[:, c//3: c*2//3, :, :] grad_swapped_all = grad_output[:, c*2//3:c, :, :] spatial_size = ctx.h * ctx.w W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_()) for idx in range(ctx.bz): # 这里使用clone了 W_mat = W_mat_all.select(0,idx).clone() for cnt in range(spatial_size): indS = ind_lst[idx][cnt] if flag[cnt] == 1: W_mat[cnt, indS] = 1 W_mat_t = W_mat.t() grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t()) grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w) # 这句话删了不会出错, 加上就吹出错 grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
但是现在却出现 4个objects共享内存. 如果将最后一句话删掉, 那么则不会出错.
如果没有最后一句话, 我们看到
grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
grad_swapped_weighted 一个新的Variable, 因此并没有和其他Variable共享内存, 所以不会出错. 但是最后一句话,
grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))
你可能会说, 不对啊, 修改grad_latter_all[idx]又没有创建新的Variable, 怎么会出错. 这是因为grad_latter_all和grad_output是共享内存的. 因为 grad_latter_all = grad_output[:, c//3: c*2//3, :, :], 所以这里的解决方案是:
@staticmethod def backward(ctx, grad_output): ind_lst = ctx.ind_lst flag = ctx.flag c = grad_output.size(1) grad_former_all = grad_output[:, 0:c//3, :, :] # 这两个后面修改值了, 所以也要加clone, 防止它们与grad_output共享内存 grad_latter_all = grad_output[:, c//3: c*2//3, :, :].clone() grad_swapped_all = grad_output[:, c*2//3:c, :, :].clone() spatial_size = ctx.h * ctx.w W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_()) for idx in range(ctx.bz): W_mat = W_mat_all.select(0,idx).clone() for cnt in range(spatial_size): indS = ind_lst[idx][cnt] if flag[cnt] == 1: W_mat[cnt, indS] = 1 W_mat_t = W_mat.t() grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t()) grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w) grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w)) grad_input = torch.cat([grad_former_all, grad_latter_all], 1) return grad_input, None, None, None, None, None, None, None, None, None, None
补充知识:Pytorch 中 expand, expand_as是共享内存的,只是原始数据的一个视图 view
如下所示:
mask = mask_miss.expand_as(sxing).clone() # type: torch.Tensor
mask[:, :, -2, :, :] = 1 # except for person mask channel
为了避免对expand后对某个channel操作会影响原始tensor的全部元素,需要使用clone()
如果没有clone(),对mask_miss的某个通道赋值后,所有通道上的tensor都会变成1!
# Notice! expand does not allocate more memory but just make the tensor look as if you expanded it.
# You should call .clone() on the resulting tensor if you plan on modifying it
# https://discuss.pytorch.org/t/very-strange-behavior-change-one-element-of-a-tensor-will-influence-all-elements/41190
以上这篇解决Pytorch自定义层出现多Variable共享内存错误问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
P70系列延期,华为新旗舰将在下月发布
3月20日消息,近期博主@数码闲聊站 透露,原定三月份发布的华为新旗舰P70系列延期发布,预计4月份上市。
而博主@定焦数码 爆料,华为的P70系列在定位上已经超过了Mate60,成为了重要的旗舰系列之一。它肩负着重返影像领域顶尖的使命。那么这次P70会带来哪些令人惊艳的创新呢?
根据目前爆料的消息来看,华为P70系列将推出三个版本,其中P70和P70 Pro采用了三角形的摄像头模组设计,而P70 Art则采用了与上一代P60 Art相似的不规则形状设计。这样的外观是否好看见仁见智,但辨识度绝对拉满。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]