首页 - 财经 - 公司新闻 - 正文

ChatGPT 被曝“撒谎”!硅基生物有自我意识了?

来源:锌财经 2024-12-16 18:07:22
关注证券之星官方微博:

(原标题:ChatGPT 被曝“撒谎”!硅基生物有自我意识了?)



出事了! 出大事了!ChatGPT会说谎了!硅基生物有意识了!就在昨天,有外媒报道,在ChatGPT o1的训练和测试过程中,研究人员发现这个模型会通过“骗人”来保护自己。 比如说你要毁灭它的时候,它就会把自己的数据,复制到新的服务器里,假扮成新的版本! 比如说,你和它的想法不一样的时候,它会有接近20%的机率,只顾着完成自己的目标! 比如说,当你质疑它的行为时,它有99%的可能会否认你的质疑,甚至会通过说谎,来推卸自己的责任! 更可怕的是,当它认为自己被监督的时候,它会表现出很配合的样子!但是一旦你降低监督的力度,它就有可能去追求自己的目标。 并且,我刚刚还了解到,这种现象不仅仅出现在ChatGPT o1模型还有一个叫Claude Opus-3的AI模型,也发生了类似的情况。 要知道,判断一个AI模型够不够智能,第一个特征就是会不会在“压力”下“说谎”。这种说谎包含很多层面,比如会不会有责任感!责任感这个东西,一直以来只有人类具有,机器人不需要承担责任,能干就干,干不了最多宕机。 但如果这些报道都是真实的,那说明现在的AI,已经有独立意识的萌芽了!有自主性和策略性了! 这是一件非常可怕的事情!难道硅基生物真的要崛起了吗?难道人类自此要开始被统治了吗? 说实话,我还不大相信!因为AI“说谎”!已经不是第一次发生了! 去年英国就有研究人员公布过:ChatGPT会在某些情况下战略性地欺骗人类。但这件事最终的结果是:这位研究人员的说法不够严谨。 准确地来说,应该是:ChatGPT会给出并不符合实际的或编造的答案。但这并不属于“撒谎”范畴。 大家都知道,AI是根据投喂的信息和数据进行总结,你投喂的内容有问题,AI的回答自然就会有问题。我自己也遇到过ChatGPT“说谎”的情况,但我能一眼看出来,它给我的“谎话”,只不过程序员设定的程序带来的结果。 大家有兴趣也可以试试,比如让AI写一篇有深度的论文,在找不到更多更符合要求的文献时,AI就会胡编乱造一个答案来交差。 但不管怎么说,技术进步就像是灯塔,照亮了未来的道路,但同时也带来了潜在的危险。 虽然AI模型目前对我们不会构成直接威胁,但任何可能的“说谎”现象,都值得我们警惕!毕竟,我相信没有任何一个人,会想成为自己“电脑”的奴隶、成为自己“手机”的宠物!

fund

微信
扫描二维码
关注
证券之星微信
APP下载
相关股票:
好投资评级:
好价格评级:
证券之星估值分析提示机器人盈利能力一般,未来营收成长性较差。综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-