部分一:
Pytorch可指定用来存储和计算的设备,如使用内存的CPU或使用显存的GPU;默认情况下,Pytorch会将数据创建在内存,然后利用CPU来计算;
(资料图)
通过"nvidia-smi"指令可查看显卡信息,具体可参考Ubuntu搭建深度学习开发环境(pytorch),pytorch常用指令如下:
torch.cuda.is_available():查看GPU是否可用;
torch.cuda.device_count():查看GPU数量;
torch.cuda.current_device():查看当前GPU索引号,从0开始;
torch.cuda.get_device_name(0):根据索引号查看GPU名字;
代码实现:
结果:
部分二:tensor的GPU计算
代码实现
结果:
需要注意,.cuda()会将CPU上的tensor转移到GPU上;如果有多块GPU,用.cuda(i)表示第i块GPU;.cuda()与.cuda(0)等价。
CPU上的数据不能与GPU上的数据进行计算,tensor只能在同设备上才能计算,如:
部分三:模型的GPU计算
代码实现
结果:
Copyright © 2015-2022 北冰洋产业网版权所有 备案号:沪ICP备2020036824号-3 联系邮箱:562 66 29@qq.com