项目前期缺陷图片用多少张? 这与缺陷的可容易识别度有关,比如有一些简单的缺陷,可能二三十张就可以达到90%以上的准确率,但对于一些难识别的缺陷,可能需要的数量要达到五六十张以上才能达到同等的效果,这是在前期的可行性验证阶段。对于长期的POC,一般来说一个缺陷检测,在比较理想的情况下,需要100张以上或200张以上的图片,检测准确率相对会比较好,这也取决于场景的标准化过程以及缺陷是否会实时的进行变异。 阅读全文 → 2022-12-30
T4 4卡负载率低的问题如何解决?硬件还是软件? 从软件角度来看,不太确定用的是哪一个框架,不同的框架实现了同一个算法,可能在载率上是不太一样的,可以借助刚才提到的Nsightsystems去分析瓶颈到底出现在哪。如果真的是CPU上的计算太多了,GPU上的计算量本来就少,这时如果负载低其实是预期之中的,可以通过一些其他的方法去改进它。 阅读全文 → 2022-12-29
如果某个模型的请求执行完毕了,GPU显存会释放掉吗? 蓝海大脑液冷GPU服务器研究人员表示: TensorRT Inference Server可以从模型仓库里面去load模型,在runtime的时候。如果释放GPU的显存,需要卸载模型,可以通过修改模型仓库来实现,关于如何修改模型仓库,您可以参考TensorRT Inference Server的用户手册,就不用去重新启动TensorRT Inference Server,另外也可以使用gRPC或者HTTP的API来动态的加载或卸载模型,具体也可以去参考模型管理的文档。 阅读全文 → 2022-12-29
transformer和CNN的区别是什么? 1、 Transformer模型的核心是self-attention机制,而CNN模型的核心是卷积和池化; 2、Transformer模型可以学习到数据中每个词之间的相关性,而CNN关注于二维局部数据之间的相互关联,随着层的加深,关注区域会更广。 阅读全文 → 2022-12-29
缓解梯度消失和梯度爆炸的方法有哪些? 以下几种方法供参考: 换用Relu、LeakyRelu、Elu等激活函数 ReLu:让激活函数的导数为1 LeakyReLu:包含了ReLu的几乎所有有点,同时解决了ReLu中0区间带来的影响 ELU:和LeakyReLu一样,都是为了解决0区间问题,相对于来,elu计算更耗时一些 BatchNormalization及LayerNormalization BN及LN本质上是解决传播过程中的梯度问题。 用LST 阅读全文 → 2022-12-29
高性能计算多头注意力机制的多头指的是什么? 与使用单独的一个注意力不同,多头注意力机制可以独立学习得到 h 组不同的 线性投影(linear projections)来变换查询、键和值。然后,这 h 组变换后的查询、键和值将并行地进行注意力池化。最后,将这 h 个注意力池化的输出拼接在一起,并且通过另一个可以学习的线性投影进行变换,以产生最终输出。这种设计被称为多头注意力。 自注意力机制的缺陷就是:模型在对当前位置的信息进行编码时,会过度的将注意力集中于自身的位置, 因此作者提 阅读全文 → 2022-12-29