首页 - 财经 - 公司新闻 - 正文

太惊心动魄了!人类命运2030年就将进入窗口期?

来源:正经社 2025-04-09 09:17:32
关注证券之星官方微博:

(原标题:太惊心动魄了!人类命运2030年就将进入窗口期?)


文丨詹詹 郭小兴  编辑丨杜海  

来源丨新商悟

(本文约为1300字)

霍金、马斯克等大佬的预警言犹在耳,谷歌又抛出了重磅报告。根据这个报告,人类命运可能在2030年出现一个节点,也就是五年后!

近日,谷歌旗下DeepMind实验室发布的145页人工智能安全报告预测,通用人工智能(AGI)可能在2030年左右问世,并存在 “永久毁灭人类” 的风险。报告也补充说,2030年这个时点具有不确定性。他们定义的 AGI 是“卓越级AGI(Exceptional AGI)”——即系统在非物理任务上达到或超越 99%人类成年人的能力。

也就是说,仅仅五年后,人类命运就走向紧张的窗口期了。你我都有可能见证这样的历史,太惊心动魄了!

谷歌的报告将AGI带来的风险分为四个主要类别:
滥用风险(人类故意利用AI实施危害行为)、错位风险(系统发展出非预期的有害行为)、失误风险(因设计或训练缺陷导致的意外故障)和结构性风险(不同主体之间的利益冲突)。

对此,DeepMind提出两条防线。一是在训练阶段,就应该让AI尽可能听话;二是在部署阶段,就算AI不听话,也要让他不能乱来,包括将AGI视为 “潜在罪犯”,对其所有操作进行多层审核,同时删除AGI的危险功能。

正经社分析师注意到,尽管这份报告详细、警觉,但学界并非一致买账。

一些业内人士认为,AGI 概念本身过于模糊,缺乏科学可验证性,因此整套研究基础不牢。Meta的Yann LeCun等人认为,仅靠扩大当今的大型语言模型还不足以实现 AGI。还有人觉得,安全、、从源头来说,就是不可能的。

不过,早在2017年,在全球移动互联网大会(GMIC)上,著名物理学家霍金就发布过AI威胁论:“人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情——可能是人类文明的终结。”他认为,人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。

特斯拉CEO马斯克更是多次对AI的潜在威胁发出警告。他认为,AI或许是人类文明面临的最大风险之一,其发展速度远超人类预期,若监管缺失,后果将不堪设想。

2023年,马斯克提出:希望建立一个“第三方裁判”,监督开发AI的公司。2025年3月,他更是在播客中预言,“硅基意识将在2029年超越人类总智慧,人类文明有20%的概率走向终结”。

事实上,随着近年来人工智能技术的飞速发展,AI在各个领域的应用正不断深化,人们对AGI的关注度也日益提升。谷歌联合创始人谢尔盖·布林就发出 “全员冲刺” 动员令,要求员工每周工作60小时,加速AGI研发。

理论上,AGI的强大超乎想象,它区别于当下只能执行特定任务的弱人工智能,能像人类一样,在医疗、科研、艺术等多个领域灵活运用知识,甚至可能拥有某种形式的意识或自我意识

防范方面,OpenAI主要是用AI本身解决对齐难题,如利用RLHF(基于人类反馈的强化学习)等对齐策略,使其更加符合人类意图与偏好。但AI教父、诺贝尔奖得主Geoffrey Hinton明确对RLHF持批评态度,他曾说:“通过人类反馈进行强化学习,就像是在养育一个早熟的超自然的孩子。”

正经社分析师认为,在科技飞速发展的当下,AGI的到来似乎不可阻挡。我们在拥抱技术进步,期待AGI为社会创造价值的同时,更需保持清醒,提前制定完善的监管措施,降低风险,避免让科技成为毁灭人类的利刃 。【《新商悟》出品】


CEO·首席研究员|曹甲清·责编|唐卫平·编辑|杜海·百进·编务|安安·校对|然然


声明:文中观点仅供参考,勿作投资建议。投资有风险,入市需谨慎

喜欢文章的朋友请关注新商悟,我们将对企业家言行、商业动向和产品能力进行持续关注

转载新商悟任一原创文章,均须获得授权并完整保留文首和文尾的版权信息,否则视为侵权


微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-