首页 > 热点 > > 内容

第二十一篇—GPU计算

发表时间:2023-02-18 23:04:03 来源:哔哩哔哩

部分一:

Pytorch可指定用来存储和计算的设备,如使用内存的CPU或使用显存的GPU;默认情况下,Pytorch会将数据创建在内存,然后利用CPU来计算;


(资料图)

通过"nvidia-smi"指令可查看显卡信息,具体可参考Ubuntu搭建深度学习开发环境(pytorch),pytorch常用指令如下:

torch.cuda.is_available():查看GPU是否可用;

torch.cuda.device_count():查看GPU数量;

torch.cuda.current_device():查看当前GPU索引号,从0开始;

torch.cuda.get_device_name(0):根据索引号查看GPU名字;

代码实现:

结果:

部分二:tensor的GPU计算

代码实现

结果:

需要注意,.cuda()会将CPU上的tensor转移到GPU上;如果有多块GPU,用.cuda(i)表示第i块GPU;.cuda()与.cuda(0)等价。

CPU上的数据不能与GPU上的数据进行计算,tensor只能在同设备上才能计算,如:

部分三:模型的GPU计算

代码实现

结果:

标签: 开发环境

Copyright ©  2015-2022 北冰洋产业网版权所有  备案号:沪ICP备2020036824号-3   联系邮箱:562 66 29@qq.com