现在还有哪些深度学习的研究方向可以用一两块GPU训练一两天就能完成的?
最近通用人工智能发展如火如荼,自然语言理解的 Chatgpt ,图像生成的 diffusion model,视觉领域的 CLIP, SAM等通用模型一个个涌现,通用人工智能呈现出高投入、高回报的特征,需要海量的数据和算力投入,普通的研究团队难以望其项背。
如果说人工智能的研究目标是为了创造出可以比肩人类的智能体,那么显然还有许多问题值得解决,这些研究方向可能就不需要海量的数据和算力了,几张显卡就可以做。举几个例子,通用人工智能很强大,但是难免有力有不逮的时候,这时候就要进一步学习和训练,这就涉及大模型的迁移学习和轻量化微调。大模型很强大,可是大模型的知识难免有过时的时候,如何让模型学习到新的知识,又不遗忘旧的知识呢?要知道,大模型的训练成本很高,我们不可能频繁地重新训练,或者无止境地堆叠数据,这就涉及到增量学习的问题。脱离开所谓的大模型领域,3维视觉也是一个很有意思的方向,神经辐射场、三维场景重建、数字人的动作和表情合成都有很大的应用前景,这些领域都没有达到海量数据的地步,还有发挥空间。
蓝海大脑 京ICP备18017748号-1