什么是 AGI(人工通用智能)?
AGI 是 Artificial General Intelligence 的缩写,中文翻译为“通用人工智能”,该术语指的是机器能够完成人类能够完成的任何智力任务的能力。
与狭义的人工智能(ANI)不同,狭义的人工智能是为特定领域或问题而设计的,而AGI旨在实现一般的认知能力,能够适应任何情况或目标。AGI是人工智能研究的最终目标之一,也是科幻小说和未来研究的一个共同主题。
AGI 也被称为强人工智能(Strong AI)或全人工智能(Full AI)。然而,这些术语可能有不同的含义或意义,取决于上下文或来源。例如,一些研究人员可能用强人工智能来表示具有意识或知觉的机器,而其他人则可能与 AGI 交替使用。
AGI 的能力
AGI 的定义和标准并没有一个普遍的共识,因为不同领域和学科对人类智能的构成可能有不同的观点。然而,一些通常与 AGI 相关的常见能力包括:
- 在不确定的情况下进行推理、规划和问题解决
- 代表和使用常识性知识
- 从数据和经验中学习
- 用自然语言进行交流
- 整合多种技能以实现共同目标
- 创造力、想象力和自主性
到今天为止,还没有真正的 AGI 系统存在,也不清楚何时或如何实现。一些专家认为,AGI是可能的和不可避免的,而另一些专家则对其可行性和可取性持怀疑或悲观态度。AGI的发展带来了许多技术、伦理和社会挑战,需要研究人员、政策制定者和整个社会共同解决。
AGI的八个关键性问题
关键问题1:认知架构——心智模型是通讯、学习、伦理道德形成的基础。认知架构是通用人工智能的表示框架,也是构建心与理U-V双系统价值驱动的根本。它构建了一套完整的认知体系,包括心智模型、通讯学习等理论。这是通用智能体与人类通讯、交流、信任、合作的基础。只有建立了完备的认知架构,通用智能体才能实现与人类的四个对齐(Alignment):共同的态势感知(Shared situation)、共同的演化模型(Shared predictive model)、共同的行动规范(Social norm)、共同的价值观(Shared value)。认知架构的重点在于实现“小数据、大任务”范式。决定人工智能系统的三个关键要素是架构、任务和数据,不同的选择导致不同的系统和路径。只有“小数据、大任务”范式才能摆脱掉“大数据、小任务”对数据的强烈依赖,以及模型不可解释、缺乏价值驱动等弊端,从而实现具有感知、认知、推理、学习、执行等能力的自主智能。
关键问题2:自我意识 指个体对自己的各种身心状态的认识、体验和愿望。在心理学中,测量自我意识的经典范式是镜子实验(Mirror test)。戈登盖洛普试图通过判断动物是否能够辨别出它在镜中的像是它自己而判断其自我认知能力。如何判断智能体是否涌现出了自我意识、如何应对智能体的自我意识,是未来通用人工智能发展的一个不可回避的问题。
关键问题3:价值函数 智能体的价值体系不是一成不变的,需要随着外部环境的变化而自动学习和调整。智能体的价值函数可以通过观察人类的行为、与人交互,学会并理解人类的“价值”,做到“察言观色”,时刻明确个人当前的价值需求,进而调整行为决策,自主产生并完成任务。
关键问题4:价值驱动 人类行为本质上受价值驱动。智能体可以通过观察人类的行为,学会和理解人类的“价值”,做到“察言观色”,时刻明确个人当前的价值需求,进而调整行为决策,自主产生并完成任务,才能实现通用智能。价值函数(Value)是U-V双系统中V系统的表征。驱动通用智能体的内在价值函数的集合构成了价值体系,包含了个体基本生理与安全需求、社会需求、好奇心与自我潜能实现,以及群体利益等多个层级。机器的价值必须跟人类的基本价值观对齐。只有建立了“良知”之心,通用智能体才能被人类广泛接纳。
关键问题5:具身智能 具身智能是智能体使用身体完成物理任务的现象,其核心之一是“知行合一”。中国哲学家早已认识到“知行合一”的理念,即人对世界的“知”建立在“行”的基础上,这也是通用智能体能否真正进入物理场景和人类社会的关键所在。其核心之二在于“身体力行”。只有将智能体放置于真实的物理世界和人类社会中,让它们躬“身”体验环境物体、符合物理因果,才能切实了解并习得真实世界中事物之间的物理关系和不同智能体之间的社会关系。
关键问题6:社会智能 社会智能是人类在适应更为复杂的社会情境中所展现的社会认知能力。从进化的角度看,社会智能的发展对于人类的适应至关重要。社会智能具有密不可分的三方面:社会感知、心智理论和社会交互。研究社会智能有助于研究者设计出具有人类特征的交互智能体,使其做到“察言观色、眼里有活、主动帮助”。今年3月,北京通用人工智能研究院认知计算与常识推理实验室联合北京大学人工智能研究院在CAAI Artificial Intelligence Research期刊上发表综述论文”Artificial Social Intelligence: A Comparative and Holistic View“,呼吁学界对人工社会智能领域进行关注。
关键问题7:可解释性 可解释人工智能指的是智能体以一种可解释、可理解、人机互动的方式,与人工智能系统的使用者、受影响者、决策者、开发者等,达成清晰有效的交流沟通,有效地“解释”自身行为和决策,以取得人类信任,同时满足各类应用场景对智能体决策机制的监管要求。解释是一个多轮次沟通的过程,其目的在于取得对方的理解、建立信任、达成合作、提高协作的效率。智能体只有有效地“解释”自己,才能取得用户的“信任”,从而产生高效的人机协作。
北京通用人工智能研究院于去年发表了“实时双向人机价值对齐 Bidirectional human-robot value alignment”研究,论文同时被Science官网和Science Robotics官网头条刊登。这篇论文提出了一个可解释的人工智能系统,阐述了一种机器实时理解人类价值观的计算框架,并展示了机器人如何与人类用户通过实时沟通完成一系列复杂人机协作任务的过程。
关键问题8:人机互信 信任是人类在社会协作中的一种心理状态,一般分成两个层次:一是对其能力U的信任,即个人对周围的每个人、在某个条件下、是否合适做某件事,都有不同程度的信任;二是对其价值V的信任,包含了态度与感情。信任的本质是人类愿意暴露自己的“脆弱性”。这是人类在没有更好选择的情况下做出的决定。从理论上讲,其风险底线需要通过经济学范畴的合同来规范。人类与智能体也要“签合同”来实现人机互信。这需要智能体由内在价值函数驱动,通过价值对齐与认知架构形成通用智能体与人交流合作的基础,通过具身智能和社会智能实现机器与环境和人交互,通过可解释性的沟通和价值对齐形成人机信任关系,由此才能实现人机共生。