医学图像分割相对传统图像分割有哪些难点?目前表现突出的用于医疗图像分割的网络模型有哪些? 医学图像主要是人体各种疾病的诊断,所以上下文的信息是非常重要的。即使医生在看医学图像的时候,也需要知道他在看哪个器官的哪类疾病,然后来帮助诊断出病灶;另外一个比较重要的是高分辨率的图像信息,通常来说病灶都是非常微小的,如果做了任何down-scaling 这种事情的话,信息就会丢掉很多,就变得很难找到,所以现在表现比较突出的医疗分割网络,比如U-net结构,它可以比较有效地集成不同尺度的信息。 阅读全文 → 2022-10-25
如何快速进行液冷服务器并行架构环境搭建? 蓝海大脑作为液冷服务器、液冷工作站专家认为,液冷服务器并行架构环境搭建主要从以下几个环节: 1,最快就是做数据并行,对数据分片,系统直接做多个副本; 2,选取易用的DL框架,像mxnet-gluon / pytorch; 3,先写个串行系统,测算各模块存储、带宽、资源利用率等,再根据服务器硬件平台结构设计并行方案。关于教程可以参照各DL框架的并行API,主要部分还是要针对专用任务设计。 阅读全文 → 2022-10-25
在什么情况下需要用到高性能GPU并行计算,什么样的任务或者说什么量级的数据会需要用集群? 有很多场景都会用到大规模GPU并行集群,如百度的语音识别系统,网络模型有3亿个参数,需要20 亿亿次EFLOPS 计算量;谷歌的自然语言翻译系统,有87亿个参数,需要100亿亿次计算量。这些神经网络模型做训练,都需要深度学习GPU集群。 多高性能GPU并行,主要针对算力要求非常高的场景,比如训练大规模数据集,像刷ImageNet,COCO等。或是处理大量的监控视频等。对于高校科研,在小数据集上调算法,几块卡就够了,除非是做网格式调参可能需要一个集群。 阅读全文 → 2022-10-25
对一个大型应用程序,在深度学习GPU上并行加速的时候,一般的步骤都有哪些? 对一个大型应用程序在深度学习GPU上并行加速的时候,不要直接就往上移植,最好是先好好分析一下这个程序,先把问题、结构和流程搞清楚。然后再把GPU移植所要采取的手段和方法也想清楚,之后再动手。我们一般说性能优化,包括三个方面:应用、算法和硬件体系结构。那么移植也差不多,先把应用搞明白,再去移植,然后再考虑如何用算法来实现,最后再结合高性能GPU和硬件来做这件事情。 阅读全文 → 2022-10-25
空间天气预报在液冷服务器GPU的加速给地面天气预报以什么样的借鉴,特别是天气模式的GPU加速方面能提高多少? 实际上空间天气预报和地面天气预报算法是类似的,也是适合GPU加速计算的,但是天气预报的程序主要是基于Fortran开发的,一般比较大,也比较老,移植起来难度比较大,最近nvidia正在协助国家气象局,使用CUDA/OpenACC方法进行这方面的移植。不同的气象模式加速效果不同,以WRF为例,可以达到3倍左右的加速。 阅读全文 → 2022-10-25
GPU并行计算环境,2、4、8、16块V100的GPU卡并行性能是否几何倍数提升,是否有性能对比数据? GPU并行计算的扩展性和软件、算例都有很强的关系,对于DeepLearning应用,是很明显的近似线性加速效果的,扩展性非常好;对于amber,relion,加速效果也是非常好的,接近线性的加速,当然也和算例大小规模有关。 阅读全文 → 2022-10-24