为什么Yann lecun(杨立昆)对chatGPT持否定态度?
简单回答:采用归纳的方法,永远不可能实现可靠的演绎,尽管可以模仿一些常用演绎过程。
整个机器学习体系,到目前为止,都只是对已有数据中的某种规律的归纳、综合(generalization)。目前还没有通用的演绎算法(有限领域的演绎或纯符号演绎是之前AI研究已经做了的事情)。
人类的智能,至少有归纳和演绎两种。
所谓归纳,是对纷繁芜杂的事物之中存在的某种规律进行抽取。简单地说就是,A、B、C同属一类事物(但这类事物并不只有这三个),A、B、C具有某一特征,因此认为(或假定)该类事物都具有这一特征。
深度学习可以认为是一种在归纳方面相当强大的算法。它能归纳很多不同的东西,比如图像、文字、语音等等。
但它无法做到的是进行演绎。
当然,这不是说它完全不能够完成一些演绎工作。因为一些常见演绎,比如问一堆问题来猜你想的人是谁那种,都有足够的数据可以进行归纳。因此,深度学习,最多能够模仿一些常见的演绎过程(但那只是模仿,而不是实际上的演绎)。或者可以把特定演绎问题和该领域已有的演绎算法匹配起来(比如用归纳方法将你提出的计算问题与计算器程序匹配起来,用后者完成必要的数值演绎)。
因此,如果一些演绎问题,在既有的训练数据中比较稀少,而且没有已经做好的演绎算法,ChatGPT及其后继者就没有办法准确地回答。
而且,因为演绎能力实际上不存在,ChatGPT在生成文字时,并无法检查文字的逻辑合理性。
一旦你提出的问题没有在其训练数据中未曾涉及或比例极低、容易和其他问题混淆,那么ChatGPT的算法就会跑飞,给你一些莫名其妙的结果。ChatGPT大部分时候不能知道自己不知道问题的答案(它有时候确实是回答不知道,但那并不是因为引擎知道无法回答这一问题,而是训练数据中针对某些回答的正确回答就是“不知道”,ChatGPT只是把这个“正确回答”反馈给了你)。
本质上ChatGPT并没有产生质的飞跃,它是一种量的改变。它把深度学习在语言大一统模型上推到了一种极致,但这也只是深度学习算法的极致。而不是智能的极致。
所以,原则上来说,ChatGPT最适合的是回应一些常见的问题(此处“回应”亦可包括帮助你启用一些其他的专用算法)。对于相对少见的问题,或者全新的问题(甚至不需要是演绎问题),它是无法回答的。而且它不知道自己无法回答,它的算法会在这种情况下完全跑飞,搞出些互拼乱凑的答案。
蓝海大脑 京ICP备18017748号-1