DGX家族以及相关的V100和各种其他方案,诸如今天发布的华为昇腾AI芯片比较起来优势是? 非常高兴看到华为昇腾AI芯片的公布,但是这个问题我感觉问的稍微早了点,因为昇腾AI芯片只是发布,目前只有简单的单精度的计算性能指标,因此没办法评估它将来的可能性,也许过一年以后,他们的产品量产并实际应用以后再去评估会比较好。那么从另一个角度来看,我们以往遇到过类似的情况,比如谷歌公司的TPU,并且已经发展到第三代了,但是谷歌公司迄今为止还在采购我们的GPU,同时华为也是NVIDIA非常大的一个合作伙伴,华为目前正在和NVIDIA合作,卖NVIDIA的Tesla 阅读全文 → 2022-10-20
多维度对比V100服务器和T4服务器的性能指标及各自有缺点? 单纯从T4和V100的角度来说,V100是定位在绝对的性能要求比较高的场景,比如对训练端、学习端,对计算速度有绝对的要求,或是推理端,对推理有绝对的速度要求,再或者以单精度或双精度为主的绝对计算都有要求,这是V100的定位;T4定位主要面向推理端,刚才我们看到有一个很好的性能提升,在75W功耗下,T4在计算性能上有两倍多的提升并且能耗不变,所以T4可以很好的用在其他场景做一些推理或入门级的训练,单精度要求的一些场景,或是渲染VDI都有不错的表现。 阅读全文 → 2022-10-20
GPU在联邦学习中的应用的发展趋势怎样?性价比怎样?公司怎样部署GPU比较合适? 由于联邦学习涉及计算量巨大的数据加解密以及密态计算,我们相信使用以GPU为代表的异构硬件来加速联邦学习计算将会成为主流。对比CPU,目前使用GPU加速联邦学习计算的性价比还是比较可观的。根据所涉及的密态计算类型的不同,性价比在几倍到几十倍之间。第三个问题问得比较大,需要根据训练数据大小、所选择的模型类型及参数数量、参与联邦学习模型训练的参与方有多少、各参与方的数据中心集群规模以及拓扑是怎么设计的等等相关因素来综合考虑。 阅读全文 → 2022-10-19
除了深度学习GPU的训练方法,是否研究过其它硬件(如FPGA)的实现性能?医学图像的ML除了需要医学知识外,还在哪些方面和别的行业的ML具有明显的区别? 除了GPU之外,其实FPGA也可以做深度学习,但由于FPGA定制化的信息量比较高,所以FPGA比较会是符合某一种特定的场景下的应用。但在GPU上的应用,会是比较广泛的一些应用。 在碰到一些医学图像的提升方面,或者说医学图像处理的部分,最好还是跟医生要多交流,才有办法去知道他们所看中的是哪些内容。避免在做医学图像deep learning时创出很多可能对医生来说并不是他们想要的东西,所以在学习医学图像的deep learning时,希望大部分的人能够了解 阅读全文 → 2022-10-19
老师有推荐的水冷GPU服务沒,我在北京只找到一家叫蓝海大脑的在做。是不是GPU卡越多越好? 液冷的GPU服务器,现在就更多的还是一个冷管的液冷方式,不是那种浸泡式的液冷,然后冷管式的GPU的话,NVIDIA有一款性能要比服务器性能相当的一个工作站叫DJX Station,里面是有1颗CPU带着8颗NVlink的GPU,然后是通过一种特殊的液体,冷管盘在GPU上面去把GPU的热量带走,然后这样的一个液冷的服务器。液冷的工作站的工艺还有散热效果做得非常好,所以它那个静音效果是非常好的,然后放在你的那个办公室里面也没有一点噪音,这是NV他们给推荐的,然后百度他们 阅读全文 → 2022-10-19
图网络在计算机视觉中的有哪些具体的应用? 我认为图网络在计算机视觉,尤其在场景理解中最有很重要应用价值的,图网络的一个优势是它能够处理一些不规则的input数据。那在实际场景当中是有很多这样的需求,并不是所有的情况都是跟像素一样横竖排列非常整齐,比如当你想要尝试去model物体与物体之间的关系时,你需要有很多其他的问题,比如Long Term Dependencies这些预测的问题,实际上普通的网络是很难去进行model,而需要图网络,还有包括在视觉场景理解中点云,点云在无人车的应用中是非常重要的,实际图网 阅读全文 → 2022-10-19