如何将自己的张量或模型放到GPU去计算:
1 如果本来就确定有GPU可用,可以直接使用 .cuda()命令进行移动
2 如果想先检查一下自己的设备,可以用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu") 进行设备判断,接着利用.to(device)后缀进行张量的移动
两个在Gpu上的张量经过简单的操作生成的新的张量还在Gpu上吗?
是的,还在Gpu上,想一些简单的拼接相加操作不会改变新张量所处的位置。
两个Gpu经过一个没有在Gpu上的神经网络模型,张量还在Gpu上吗
事实上,这是会报错的,因为在张量进入神经网络模型时,需要判断网络与张量是否在同一台设备中,如果既有cpu又有gpu,就会报错。如果都在Gpu上,出来的也还是在Gpu上。