报错定位到的位置是在:
self.bias = self.bias.cuda()
意为将把bias转到gpu上报错;
网上查询了很多问题都没解决,受到这篇博客的启发;pytorch 手动设置参数变量 并转到cuda上_XiaoPangJix1的博客-CSDN博客
原因可能是:bias是torch.nn.Parameter(),转移到cuda上失败,提示此报错;
其实根本原因比较简单,就是在model定义的时候没有将model转移到cuda上,因此修改代码为如下即可:
a = torch.Tensor(1,1,256,256)
if torch.cuda.is_available():
a=a.cuda()
EE_Block = EdgeEnhanceREC().cuda() #实例化并转移到cuda
else:
EE_Block = EdgeEnhanceREC() #只进行实例化,保持tensor和model在同一个设备上就行
b = EE_Block(a)
print(b.shape) #不改变size,[1,1,256,256]->[1,1,256,256]
甚至可用改变原来代码中很多“if torch.cuda.is_available():”无用的判别;文章来源:https://uudwc.com/A/4EzO3
大道至简,被这个简单的问题困扰了好几天。文章来源地址https://uudwc.com/A/4EzO3