
蓝海大脑用于GPU服务器部署的存储是PCI存储卡,请教下与AI芯片(未来的具有AI算力的CPU、Arm和FPGA)相比较,有何可取之处?
关于芯片和 AI加速卡的区别,主要是应用场景的不同,比如在嵌入式相机或者前端应用里,一般可能会直接用芯片的方案。但在后端,比如在工控机里面有很多路的视频,或者很多路、很大量的图片做高效的处理时,一般是用加速卡的方式来做。
阅读全文 → 2023-01-09
关于芯片和 AI加速卡的区别,主要是应用场景的不同,比如在嵌入式相机或者前端应用里,一般可能会直接用芯片的方案。但在后端,比如在工控机里面有很多路的视频,或者很多路、很大量的图片做高效的处理时,一般是用加速卡的方式来做。
阅读全文 → 2023-01-09
AI在地球科学中的应用是非常广泛的,我们目前也有几个关于这方面的项目,一个是在地球气候气象中,利用AI和DeepLearning(深度学习)的方法对云图进行分析和挖掘它的规律,然后去判断云图的走势,如可能的降水以及其他可能发生的天气变化等;另外一个是在地学的石油勘探,在地下的成像分析、数据的分析等。而这些项目工作目前都只是处于起步阶段,在学术上是非常有前景的,由于目前的AI非常火,因此我们想做出一些好的成果给气候学领域的专家来评审指导。
阅读全文 → 2023-01-09
这两个所用的场合或机制是有较大区别的,L2 Cache针对的是非结构化稀疏的场合,它会深入到每个数据的重复性或0的数目,对数据进行压缩。结构化稀疏是深入Tensor的数据结构里面,每4个位置,取2个为0,所以encoding还是很不一样的。
阅读全文 → 2023-01-09
Batch Normalization 是对这批样本的同一维度特征做归一化, Layer Normalization 是对这单个样本的所有维度特征做归一化。
区别:LN中同层神经元输入拥有相同的均值和方差,不同的输入样本有不同的均值和方差;BN中则针对不同神经元输入计算均值和方差,同一个batch中的输入拥有相同的均值和方差。所以,LN不依赖于batch的大小和输入sequence的长度,因此可以用于batchsize为1和RNN中sequence的normalize操作。
padding会对
阅读全文 → 2023-01-09
Adam算法即自适应时刻估计方法(Adaptive Moment Estimation),能计算每个参数的自适应学习率。这个方法不仅存储了AdaDelta先前平方梯度的指数衰减平均值,而且保持了先前梯度M(t)的指数衰减平均值,这一点与动量类似。
Adam实际上就是将Momentum和RMSprop集合在一起,把一阶动量和二阶动量都使用起来了。
阅读全文 → 2023-01-05
模型精度:XGBoost和LightGBM相当。
训练速度:LightGBM远快于XGBoost。(快百倍以上,跟数据集有关系)
内存消耗:LightGBM远小于XGBoost。(大约是xgb的五分之一)
缺失值特征:XGBoost和LightGBM都可以自动处理特征缺失值。
分类特征:XGBoost不支持类别特征,需要OneHot编码预处理。LightGBM直接支持类别特征。
阅读全文 → 2023-01-05
蓝海大脑 京ICP备18017748号-1