
X86和ARM架构在深度学习侧的区别?
AI服务器与PC端一般都是使用X86架构,因为其高性能;AI端侧设备(手机/端侧盒子等)一般使用ARM架构,因为需要低功耗。
X86指令集中的指令是复杂的,一条很长指令就可以很多功能;而ARM指令集的指令是很精简的,需要几条精简的短指令完成很多功能。
X86的方向是高性能方向,因为它追求一条指令完成很多功能;而ARM的方向是面向低功耗,要求指令尽可能精简。
阅读全文 → 2023-02-06
AI服务器与PC端一般都是使用X86架构,因为其高性能;AI端侧设备(手机/端侧盒子等)一般使用ARM架构,因为需要低功耗。
X86指令集中的指令是复杂的,一条很长指令就可以很多功能;而ARM指令集的指令是很精简的,需要几条精简的短指令完成很多功能。
X86的方向是高性能方向,因为它追求一条指令完成很多功能;而ARM的方向是面向低功耗,要求指令尽可能精简。
阅读全文 → 2023-02-06
树的遍历模式:
1.前序遍历:先访问根节点,再访问左子节点,最后访问右子节点。
2.中序遍历:先访问左子节点,再访问根节点,最后访问右子节点。
3.后序遍历:先访问左子节点,再访问右子节点,最后访问根节点。
4.宽度优先遍历:先访问树的第一层节点,再访问树的第二层节点,一直到最后一层节点。
阅读全文 → 2023-02-06
欠拟合:模型在训练集和测试集上效果均不好,其根本原因是模型没有学习好数据集的特征。
解决欠拟合的方法:
1.可以增加模型复杂度。对于神经网络可以增加网络层数或者神经元数量。
2.减小正则化系数。正则化的目的是用来防止过拟合的,但是现在模型出现了欠拟合,则需要有针对性地减小正则化系数。
3.Boosting。
阅读全文 → 2023-02-06
过拟合:模型在训练集上拟合的很好,但是模型连噪声数据的特征都学习了,丧失了对测试集的泛化能力。
解决过拟合的方法:
1.重新清洗数据,数据不纯会导致过拟合,此类情况需要重新清洗数据或重新选择数据。
2.增加训练样本数量。使用更多的训练数据是解决过拟合最有效的手段。我们可以通过一定的规则来扩充训练数据,比如在图像分类问题上,可以通过图像的平移、旋转、缩放、加噪声等方式扩充数据;也可以用GAN网络来合成大量的新训练数据。
3.降低模型复杂程度。适当降低模型复杂度可以避免模型拟合过多的噪声数据。在神
阅读全文 → 2023-02-06
1.提高图像分辨率。小目标在边界框中可能只包含几个像素,那么能通过提高图像的分辨率以增加小目标的特征的丰富度。
2.提高模型的输入分辨率。这是一个效果较好的通用方法,但是会带来模型inference速度变慢的问题。
3.平铺图像。
4.数据增强。小目标检测增强包括随机裁剪、随机旋转和镶嵌增强等。
5.自动学习anchor。
6.类别优化。
阅读全文 → 2023-02-03
Two-stage目标检测算法:先进行区域生成(region proposal,RP)(一个有可能包含待检物体的预选框),再通过卷积神经网络进行样本分类。其精度较高,速度较慢。
主要逻辑:特征提取—>生成RP—>分类/定位回归。
常见的Two-stage目标检测算法有:Faster R-CNN系列和R-FCN等。
One-stage目标检测算法:不用RP,直接在网络中提取特征来预测物体分类和位置。其速度较快,精度比起Two-stage算法稍低。
主要逻辑:特征提取—>分类/定位回归
阅读全文 → 2023-02-03
蓝海大脑 京ICP备18017748号-1