(原标题:美银AI专家电话会纪要:为后通用人工智能时代的现实做准备)
2025 年 3 月 21 日,美银邀请了《我们的下一个现实》的联合作者、HTC 公司全球企业发展副总裁阿尔文?王?格雷林(Alvin Wang Graylin)先生,共同探讨如何为后通用人工智能(AGI)时代的现实做好准备。需要注意的是,本文中任何第三方发言人表达的观点,并不代表美国银行全球研究部的观点。
四大技术同时融合
阿尔文?王?格雷林先生表示,我们正面临技术不受控制的加速发展、国家和企业之间无节制的竞争,以及对货币化和利润的过度追求,这使我们只注重短期利益。因此,我们必须做出正确决策,进行长远思考。他提到,四项呈指数级增长的技术正在同时融合并走向成熟:第一,基因和数字生物技术,它将延长人类寿命;第二,人工智能(AI),它将使我们的思维更强大、更智能;第三,机器人技术,它能做出物理反应,并在现实空间中承担人类的角色;第四,扩展现实(XR)和元宇宙,它可以为我们创造一个新的虚拟宇宙,每个人都能拥有不同的数字世界。任何技术都并非完美无缺,总会存在一些弊端。
质疑假设
王(格雷林)先生认为,人们需要对所有假设提出质疑,他有以下这些假设:
XR 和元宇宙并未消亡,将从二维媒介向三维媒介发展;
扩展计算能力并非实现通用人工智能(AGI)的唯一条件;
AGI / 超人工智能(ASI)是可以实现的,且可能很快到来;
主权人工智能不会带来积极的结果;
“人工智能接管” 并非人工智能最大的风险;
人工智能 / 机器人很可能会取代我们的工作,但这未必是件坏事;
全球普遍基本收入(UBI)和央行数字货币(CBDC)是可行且必要的,否则我们的社会将陷入困境;
世界各国必须共同发展 AGI,并决定人工智能的发展方向,否则我们将面临相互对抗的人工智能;
经济并非零和博弈,在人工智能的影响下更是如此。
沉浸式技术的关键 ——3D 内容
王(格雷林)先生说,我们在三维空间中成长,但展望未来,他认为目前的多屏幕设备将被一副重量不足 100 克的眼镜所取代,这种眼镜目前已在市场上有售。他表示,虚拟现实(VR)未能迅速发展的原因在于缺乏内容。在新的模型内容协议下,一个 3D 物体可以通过文本创建,人们可以使用 World Labs 的生成式人工智能模型来实现这一点,并将其集成到游戏或 VR 设备中。
更优算法带来性能的指数级提升
王(格雷林)先生将智能定义为在动态环境中准确预测的能力。根据缩放定律,如果你构建更大的模型,拥有更多的计算能力和数据,模型就会变得更智能。在过去一年里,出现了三条新的缩放定律:第一,更优的算法;第二,推理计算,让模型有更多时间进行思考和推理;第三,蒸馏和量化,利用大型模型训练小型模型 。
王(格雷林)先生补充说,在过去二十年里,我们能够提升计算机系统的智能,是因为我们有能力增加计算、数据和参数的规模。他说,现在训练一个模型的成本高达十亿美元,所以我们不能再继续采用目前的扩展方式。他认为,下一波改进必须来自技术,因为如果在算法上采用更好的技术,就能带来性能的指数级提升。蒸馏虽然不能让模型变得更智能,但可以使其效率更高、体积更小、能耗更低。因此,为了提升到下一个层次,我们必须专注于获取更多更好的数据,将智能转化为智慧,同时研发更优的算法。他指出,目前仍有大量数据未被使用,这些数据存在于企业网络、个人电脑、手机、多媒体、传感器、摄像头、卫星、汽车以及合成数据等之中。
王(格雷林)先生认为,所有模型都将实现商品化,无论采用哪种基准测试,其性能都将趋于相似。他表示,DeepSeek的训练成本比 Claude、ChatGPT 4 和 5 以及 Grok 3 低得多,因为改进了算法,并且有更好的方法使用专家混合(MOE)技术。它对大型模型进行蒸馏,并采用开源模式,所以全世界的研究实验室都在助力该模型变得更好。他说,Deepseek不是一个中国项目,而是美中政策共同作用的产物 —— 美国的政策迫使中国进行创新,而中国的优秀人才无法前往美国;同时,中国的政策也促使Deepseek的创始人减少对量化交易的关注。王(格雷林)先生还提到,在相关会议之后,Deepseek仍能向世界发布六篇新的研究论文。他认为这可能是中国向美国抛出的在人工智能领域合作的橄榄枝,因为Deepseek目前的利润率为 84%,而 OpenAI 每月亏损约十亿美元。他表示,运行这些模型的成本正在下降 —— 在过去一年半的时间里,达到 ChatGPT 4 水平智能的成本下降了 1000 倍,所以人们不必担心算力耗尽的问题。他强调,中国可能还有十多种其他人工智能模型,目前世界上最好的开源模型是中国研发的,并且它们向全世界公开了源代码。
主权人工智能不太可能带来积极结果
王(格雷林)先生表示,主权人工智能的理念是每个国家利用自己的语言和数据构建自己的模型,并将自己视为 “好人”,将其他国家视为 “坏人”。他指出这并非一个好主意,因为我们不希望超级人工智能系统引发国家间的冲突,也不希望它们瓜分资源(如图形处理单元(GPU)和数据)。此外,大多数人在工作中并不需要超级人工智能,他们只需要一个小型的基础模型。他还表示,对英伟达芯片的依赖将会消除,因为开源模型可以在其他公司的芯片上运行。
人工智能的积极和消极影响
王(格雷林)先生说,生成式人工智能只是人工智能发展的中间阶段,下一阶段将是智能体人工智能(agentic AI),它可以为你完成任务,之后则是通用人工智能 / 超人工智能(AGI/ASI),它能够完成非常复杂的任务,并开始在劳动力和工作领域取代人类。人们认为,通用人工智能 / 超人工智能可能会在 2025 年至 2030 年之间出现。从积极的方面来看,通用人工智能可以:第一,增进人类对社会和所有人的理解;第二,提高社会生产力;第三,帮助解决能源限制和气候问题;第四,找到治疗当前健康问题和延缓衰老的方法;第五,带来一个富足的时代。从消极的方面来看,人工智能可能:第一,取代工作岗位,进而造成社会不稳定和心理健康问题;第二,滥用、篡改和操纵人们的计算机系统,政府也可能将人工智能军事化,使其成为一种武器。
王(格雷林)先生认为,人工智能的安全性与库兹涅茨曲线较为相似 —— 在其发展不成熟时风险很高。最近的一篇研究论文表明,人工智能系统越先进,就越能明辨是非,能够从连贯的价值体系中找到自身的效用驱动力,并且受他人的影响也越小。王(格雷林)先生说,人工智能和机器人很可能会取代我们的工作,无论是体力劳动还是脑力劳动都难以幸免。他提到,每个工人每年的平均工作时长已从工业革命时期的 3000 小时降至现在的 1500 - 2000 小时。他认为人工智能可以提高我们的生产力,帮助减少工作时长。他说,未来时间将成为最稀缺的资源,我们将回归到一个更加平等的世界。王(格雷林)先生认为,人工智能真正的危险并非来自国家。就像核武器一样,各国在使用人工智能相关能力对付其他国家时必须谨慎,但极端组织等不法行为者更有可能毫不犹豫地滥用人工智能。
相互确保发展与降低人工智能风险
王(格雷林)先生表示,“相互确保摧毁”(MAD)理论在冷战期间帮助我们避免了核武器的使用,他建议 “相互确保发展”(MAD 2.0)能够让各方共同合作,实现共赢。他认为,前谷歌首席执行官埃里克?施密特(Eric Schmidt)共同撰写的《超级智能战略报告》中提出的破坏竞争对手人工智能项目的策略是个糟糕的想法,不仅无效且成本高昂,而合作才能为每个人创造更美好的未来。
在降低人工智能风险的行动方面,王(格雷林)先生建议:第一,向公众普及人工智能的风险和益处;第二,成立一个专注于人工智能安全的国际监管机构;第三,针对安全风险建立检测和应对措施;第四,对失业人员进行再培训,并筹备全球普遍基本收入(UBI);第五,加速开放元宇宙基础设施的部署,这样可以为人们提供心理健康支持,或许还能创造一种二次就业模式;第六,将民用和国家安全研究分开,以便推进民用领域的应用;第七,全球共同努力,以实现具有全球效益的安全的通用人工智能 / 超人工智能。王(格雷林)先生列举了过去几十年的几个全球合作项目,并认为各国应该继续携手解决问题,共同寻找解决方案。
问答环节
问:人工智能领域的全球合作至关重要,但目前我们似乎正朝着相反的方向发展。您对此有何看法?华盛顿方面对此有何相关表态?答:王(格雷林)表示,由德米斯?哈萨比斯(Demis Hassabis,谷歌旗下 DeepMind 联合创始人兼首席执行官)和约书亚?本吉奥(Yoshua Bengio,人工智能 “教父” )牵头,有一个由人工智能实验室和研究人员组成的联盟,他们希望打造一个人工智能领域的 “欧洲核子研究组织(CERN)” 。中国的实验室和欧盟支持这一想法,但美国却不支持。王(格雷林)认为,美国需要时间来认识到,在迈向富足世界的进程中,集权并寻求对其他国家的主导并非长久之计。
问:在政府和企业将数据 “隔离” 的情况下,我们尚未也无法利用所有数据。如何解决这一问题?
答:王(格雷林)称deepseek已开放了其整个模型,企业可以将模型下载到自己的网络中,使用自己的数据对模型进行训练和微调,并将模型应用于自身业务,而无需向外界分享数据。
问:在deepseek取得突破后,您如何看待 OpenAI 未来的竞争格局?
答:王(格雷林)认为,面对deepseek的竞争,OpenAI 面临巨大压力。有新闻报道称,OpenAI 已请求美国政府对deepseek实施更多限制。王(格雷林)表示,OpenAI 的资本支出高昂,因此它应该借鉴deepseek的创新成果来降低成本,但 OpenAI 可能认为如果大家都能这么做,自己就没有优势了。这就是为什么该公司联合特朗普以及软银和甲骨文的领导人,大力宣扬 5000 亿美元的人工智能使用 “星门” 计划。不过,王(格雷林)认为,鉴于联合创始人的离开,OpenAI 的发展状况并不乐观。
问:埃森哲的研究显示,90% 的人工智能项目本质上是企业在全球范围内考虑如何裁员。在我们应对劳动力结构调整(如留住员工和进行再培训)的过程中,这一过程会持续多久,会产生多大的影响?
答:王(格雷林)认为,未来 10 年 90% 的脑力劳动者岗位将被取代,再培训可能无济于事。他建议在人们失去现有职业时,确保有普遍基本收入(UBI),以便他们能为社会做出其他形式的贡献。当越来越多的人离开办公室和工厂的工作岗位,就会有更多人可以照顾老人、小孩,维护环境安全和健康,届时这些社会效益应被纳入国内生产总值(GDP)的考量。这将是一种重新分配社会资源的方式,而无需创造新的就业机会。