弗朗索瓦.肖莱,谷歌的人工智能(AI)研究者说:“ChatGPT 的叙说没有模型可言,如同你在看一个木偶剧,相信木偶们是有生命的。”研究者们想改变这一点。通过增加系统之间人工神经元的连接,并且给它们饲喂更多的数据,AI应该可以最终完成一些需要推理的任务。其他科学家则认为,“更大则更好”的研究路径将只会消耗更多的电能。他们希望通过模拟人脑的某些方面,比如反馈连接和激发式神经元,可以帮助 AI 变得更小、能效更高,并且最终使得AI具有推理能力。译自《自然简报》2023年3月8日星期三(今天)。 像 ChatGPT 这样的大模型AI,还不具有推理能力。然而,推理能力是智能的重要标志之一。因此,让AI拥有推理能力是人工智能发展的必然方向。 关于现有AI的发展,我的点评如下: (1)现有的AI学习是通过饲喂大数据,让AI获得数据中的概率模型,因此,AI只能对数据中的知识做概率意义上的扩展,而不会产生推理能力。 (2)AI作为一个动力学系统,增加系统之间神经元的反馈连接,只会增加动力学系统状态的多样性和复杂性,没有理由说就此可以让AI产生推理能力。 (3)在AI中加入激发式神经元,的确可以提高AI的能量使用效率,但是却不会让AI产生推理能力。 (4)AI学习过程中,通过反向传播误差来调整神经元连接参数,也许是一个陷阱。虽然AI可以学习完成一定的任务,但是却无法获得推理能力。 人脑具有高度智能,包括知识扩展和推理能力,然而,能量消耗却极小。人脑是如何做到这一点的呢?一直关注、跟随AI的发展,反反复复,想来想去,人脑的智能结构应该是按照下述方式构建的: (1)任务的模块化。 (2)模块的层级化 (3)连接的树状化。 (4)学习是通过简单的试错完成,而不是通过反向传播误差来完成。 依照这样的智能结构,应该可以构建小型、高能效、可扩展、而又拥有推理能力的AI。
我的留言
先登录本网站, 方可留言。