做深度学习的服务器通常只有高性能GPU,如果对CPU也有苛刻需求怎么办?

对深度学习训练的GPU要求和算法需求有关了。如果你编程能力较强,可以考虑直接用pytorch重写这些sklearn的算法,sklearn是基于numpy的,而pytorch提供的矩阵操作与numpy非常接近,所以移植难度可能并不是很高。这样有个巨大的好处是,tensor可以保持在高性能计算GPU不用读出来,效率非常高。一般网络之外比较简单的计算都是这么做的,如果搞深度学习训练的话你应该见过很多了。算法比较复杂的话,可以直接找目标算法是不是已经有cuda/opencl实现和包装。网上也有一个scikit-cuda,可以评估一下。hadoop可以和pytorch一起用,但是一般来说多机并行的开销比较大,需要评估用hadoop是否划算了。市面上DL的服务器,如果有钱的话可以要求定制高端型号比如xeon platinum的CPU,但是很贵,有可能比显卡还贵。要便宜的话也许可以试试Ryzen2搞个多机集群?


蓝海大脑 京ICP备18017748号-1