深度学习高性能GPU的加速和编程用到了哪些物理原理,现在的理论瓶颈有哪些?技术突破点在哪里?

、GPU相对CPU来讲,编程优势还是很明显的,第一架构效果特别明显,第二成本比较低,并且现在国内与国际应用生态已经很丰富了,不管GPU各类的数学库,还是各类开源的软件包,以及商业包来讲,生态已经做的很好。不足的地方是设计上的问题,比如内存是有限的,另外一个是和CPU之间的数据通讯,英伟达提出的NVlink能够部分缓解CPU和GPU之间的数据通讯,跨界数据的交换。

蓝海大脑 京ICP备18017748号-1