(原标题:AI会觉醒吗)
在人类社会发展的历史长河中,火的发现、轮子的发明、电力的应用等特殊时刻都曾重塑了人类文明,是历史发展的关键转折点。如今,我们正接近另一个这样的时刻——人工智能(AI)的崛起。我们不禁要问:AI会觉醒吗,人类要如何提前应对?
加速进化的AI
近年来,人工智能进入发展的快车道。2016年阿尔法狗(AlphaGo)战胜世界围棋冠军,ChatGPT和DeepSeek分别在2023年和2025年火爆出圈,成为人工智能的高光时刻,并引领人工智能提升了进化的速度。AI创新的浪潮正促进各企业探索具有成本效益的AI开发和部署方法,加速赋能千行百业。
当前,人工智能具有很强的自主学习的主体性,社会认知大幅提升。以前,机器人只能被动接收由人类转述的数据和信息,采取的是旁观学习人类与世界互动知识的方式,可谓“第三人称智能”。
近年来,随着人工智能技术的提高,机器拥有感知外界信息的能力,能够像人一样与环境交互、自主规划、决策行动、执行任务,从而转变为主动学习,积极适应真实世界的复杂环境,即“第一人称智能”。
在充分掌握了人类现存的知识后,人工智能还可以自主模拟现实世界形成新的认知,从而超出人类的知识边界。正如埃隆·马斯克近期在消费电子展(CES)的一次访谈中所说:“2024年人工智能训练就把人类知识都学完了,现在已进入自己造数据学习的新阶段。”
除了学习知识,人工智能还可以学习人类的情感和思维,已具有一定人格化特征。人工智能可以把人类情感因素当成知识进行学习和模仿,还可以进行谋略计算、价值观计算、社会计算、情感计算等人类思想领域的学习训练。
“人情练达即文章,世事洞明皆学问”,人工智能看似笨拙的学习,实际上产生了一定的人类情感化内容。譬如,移动机器人化学家可以自主设计实验,如同化学家一样“在失败中吸取教训”,自主决策及时更新和优选实验方案。
再比如,当人类向生成式人工智能表达挫败感等负面情绪时,后者会作出共情式回应“没关系的,大部分人都可能在此过程中失误,相信你下次一定可以做得更好”。这表明人工智能懂得人类情感,能够生成满足人类心理交互需求的内容。更重要的是,每一次我们与人工智能互动,实际上都是在教导它们如何更好地提高人格化、实现自主性。
此外,人工智能还可以通过互联网聚合其他机器的数据和算力,形成机器间的互动和团队协作,使其具有一定的社会性。与人类互动依赖的社会网络相比,人工智能互动的网络效应更强。人类在进入人工智能大生产的时代之初,机器的效率不断提高。当机器和机器间的连接形成系统、进而构成社会化网络时,人工智能的效率就更为显著。
难以界定的觉醒标准
当前,人工智能的认知水平已接近甚至超过人类,并产生机械化的人类情感反应和团队精神,正在自我学习、自我进化,努力使其在与人类交互中让人满意(甚至是以人情世故的方式迎合人类心理需要)。
那么,怎么样的人工智能才算觉醒?
一个理论上的标准是,人工智能可以在没有人类事先设定的命令和程序前提下,自发形成要做什么的意识:即从机械化模仿人类情感和思维活动,演变为主动表达自我意识,或者流露出无意识或潜意识的直觉行动。
人工智能在掌握人类语言文字基础上,具有主动学习、逻辑推理和适应环境能力之后,可以进阶到人类独特的智力任务——自我意识,在没有先验数据“投喂”之下即可给出判断甚至具有自己的行为目的。
生物学认为,自我意识是人神经领域的特殊功能,是人区别于动物的根本标志。由数据驱动、大量节点构成的神经网络或将形成属于机器的自我意识空间。从而,机器不仅可以学习人类伦理,还可以由神经网络和大数据建构起智能化思维,形成自己的伦理让人类遵守,如数据至上、效率优先等。
但这在理论上存在争议。美国当代哲学家约翰·塞尔(JohnSearle)提出了“弱人工智能”(WeakAI)和“强人工智能”(StrongAI)的区分。
弱人工智能的追随者认为,机器永远不可能拥有真正意义上的智能,而是采用人脑工作原理、神经网络方法来处理信息,永远只能表现出拥有智能的假象。他们的目标是看上去拥有人类的心灵能力,但实际上并不拥有信息处理的机能。
强人工智能的追随者认为,机器能够拥有真正意义上的智能,他们的目标是“人造人”,也就是拥有真实思考能力和意识的机器。有学者认为,目前全球人工智能的发展正处于由弱人工智能向强人工智能过渡的阶段。
如果真的实现了强人工智能,机器具有了自我意识,人类如何能及时发现?
有人认为,耗电量激增可能是人工智能觉醒的一个现实信号。因为根据莫拉维克悖论,人工智能在人类独特的高级智力任务,如逻辑推理,需要的计算资源相对较少,但人类的意识却需要大量算力。因此,人工智能在产生自我意识的一刹那,可能伴随电力消耗的激增。
但DeepSeek(深度求索)的出圈也表明:人工智能在训练过程中不一定需要堆砌算力和电力,也可以通过技术创新,实现低能耗、高训练的结果。
此外,我们或许不应为人工智能制定过高的觉醒标准。任何试图以高难度复杂语言区分人工智能与人类的企图皆属无效工作,因为大多数人类也不具备此等能力。以“能否写诗判断能否思考”的人,不得不面对将“庸人”和机器划为同类的奇怪结论。从这个意义上说,当前出现的人工智能客服“已读乱回”等“弱智”表现,不应作为人工智能没有觉醒的证据,毕竟很多普通人也会犯各种知识性和低情商的错误。
强化机器对人的服务
当前,人类与人工智能的竞争已成常态,需要提高风险意识。其中,最大的风险不是人工智能的能力变得更强,而是人工智能觉醒后形成的自我意识与人类的利益相悖。总体上看,竞合是出路,为人民服务是目的。
一方面,有人类的思想和创意,人工智能的发展才能持久。2024年芥川文学奖获奖作品《东京都同情塔》,其中5%的内容是由人工智能直接生成的。
人工智能可以一键生成高质量的文本、图像和视频。但这种创作往往是遵循一种公式化的方法、生成具有特定风格的一致甚至是同质化的内容,可能缺乏新颖性,难以满足千差万别的用户需求,不利于长期的创新发展。
在某种程度上,人工智能确实能够帮助研究者进行“理解”,但若要其提炼出更具深度的科学见解,则需要更有引导性的提示指令。换言之,当前的智能技术只能辅助人类快速掌握资料,仍不能自主进行科学式提问、架构设计和理论分析,促使人类的工作重心进一步从掌握资料和记忆知识向更高端的创意思维转变。同时,人类也要不断创新发展智能技术,使之从“深度学习”向“深度思考”迈进。
并且,拥有人类的情感因素可以促使人工智能更快地普及和使用。在2025年央视春晚上,舞蹈机器人节目展现了人机协同共同呈现民间艺术的独特魅力。有学者针对卡车共享平台上的语音聊天机器人调度员做过一项实验,当司机知道调度员是人工智能时,其响应调度的概率降低约11%;但通过添加拟人化的功能,如感叹词和填充词,使语音聊天机器人更加人性化,就可以显著提高响应概率和对话长度。
另一方面,在人工智能觉醒的过程中,要牢牢为其树立为人类服务的意识,使之成为最高宗旨和自觉行为。早在1942年,科幻作家阿西莫夫就提出了著名的“机器人三定律”:不得伤害人类,也不得因不作为而使人类受到伤害;必须服从人类的命令,除非这些命令与第一定律相冲突;在不与第一或第二定律相冲突时,要保护自己。
诚然,人工智能处理数据的能力和速度已经超过最聪明的个体,但使用人工智能的还是“人”。如何驾驭这些数字,也还是“人”在设计。
人工智能设计师、架构师、耳语者等科研人员和训练人员,要不断为人工智能强化服务人类的意识,使人类成为人工智能的精神导师而非其反。
特别还要强化人工智能在帮助弱势群体方面的具体应用。目前,脑机接口技术取得较大进展,一些人已经装上脑机接口,这就像给身体装上了无形的遥控器,可以让人类用意念玩手机和电脑,让盲人“重见光明”,助瘫痪者“重新走路”。
但这其中也隐含着是人类控制着机器还是机器控制着人类的精神控制问题,以及人类能否永生的伦理和哲学问题。
展望未来,人工智能的觉醒将带来前所未有的科技革命和风险。在加快人工智能技术创新及生产生活应用的同时,我们应坚持人类可管控的原则,加强算法透明性和与之相关的“可解释性”,辅之以影响评估、审计和监察员等前瞻性监管手段,使人工智能更好地为人类服务。
(作者系中国社会科学院财经战略研究院研究员)