首页> 财经 > > 正文

未来智能:人有人用 机有机用

2021-04-29 23:30:11 来源:科技日报

迄今为止,人工智能(AI)发展的特点是基于逻辑和计算不断迭代,从逻辑智能转向计算智能。逻辑智能的核心是基于逻辑的各种推理方法,专家系统和Lisp机是其发展的高峰。如果说逻辑智能是AI 1.0,计算智能就是AI 2.0,其始于控制论和认知计算,从20世纪80年代中期开始大规模地使用多层神经元网络,一直发展到现在的深度神经元网络,是当前人工智能的主要突破。那么,AI 3.0——未来智能将走向何方?

人工智能3.0:人机与虚拟互动交互

我个人理解,AI 3.0是人机与虚拟互动交融的人工智能——“人机混合虚实互动的平行智能”,即处于边缘端的机械的、生物的智能,会产生有限的数据,再通过云端的云计算产生大数据,最后云计算把大数据变成精准的深度智能,再返回边缘端的生物体、物理体或机器人,就是Small Data-Big Data-Smart Data。这是一个循环的过程,是从边缘端的涌现到云雾端的收敛,这一“涌现收敛”也是复杂性科学的核心理念。AI 3.0的普及应用能够服务社会,而不是像某些专家宣称的那样会导致失业。它会让人类生活得更好,让人与机器各司其职——“人有人用,机有机用”,从专业分工,到人机分工,进而虚实分工,从而创造一个更加和谐的社会。

例如,AI 3.0在无人驾驶中的体现就是“平行驾驶”——把有人车、遥控车、网联车、无人车等,用“平行车”统一起来。即各种实体车辆在路上行驶的同时,在平行的云端世界中,同样的虚拟车也在行驶,并通过云计算生成最优的行驶策略,从而控制实体车辆的运行。尽管有人车在速度、效率、安全性以及环境污染方面存在缺陷,注定它最终会被无人车取代,但我们不能急功近利,盲目普及无人车而付出惨痛的代价。我认为应该用二三十年的时间,从AI 2.0发展到AI 3.0,平稳过渡到无人车时代,这是普及无人车的唯一途径。

解决两个问题:可靠性和合法性

未来智能的发展及真正推广应用还要解决两个问题。第一个问题是AI的可靠性,包括它的可解释性。我认为,AI的可解释性归根结底就是人工智能的可靠性。第二个问题是AI的合法性,尤其是在对个人隐私的保护方面,这已经引起了许多国家的反思和重视。当AI结合了区块链等技术,可以从技术层面解决这些问题。然而,用法律体系来规范AI系统的构建和应用才是关键,必不可少。

AI正在改变人类的未来。我们需要改变教育模式,培养面向未来的AI人才。就像传授“四书五经”的私塾教育无法培养现代工业所需要的新型人才,目前全世界的教育体制都落后于智能技术发展。对于未来的AI人才,我认为应着重培养3种思维:

首先是复杂性思维,因为AI本身就属于复杂性科学的范畴,要用整体的视角去看AI技术,这非常重要。其次是跨学科思维,因为AI要普及应用,就一定会涉及多学科、交叉学科和跨学科的知识。最后是系统化思维,AI真正要普及应用,取得可接受的可靠性、可接受的合法性,就一定要有系统思维,就像我们有“系统工程”一样,我们也要有“系统智能”。

(王飞跃 作者系中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任 记者胡定坤整编)

[ 责编:赵宇豪]

标签: 未来 智能 有人 有机