首页 - 财经 - 滚动新闻 - 正文

Meta摊上事,被曝允许AI与孩子“色情聊天”

来源:21世纪经济报道 媒体 2025-08-19 20:00:37
关注证券之星官方微博:

(原标题:Meta摊上事,被曝允许AI与孩子“色情聊天”)

21世纪经济报道记者 章驰 实习生 左永川

8月14日,Meta被曝允许AI聊天机器人与儿童谈情说爱,甚至涉及色情,引发争议。

Meta一份200多页的内部政策文件披露了聊天机器人的哪些行为可以被接受。文件指出,允许Meta的AI聊天机器人“与儿童进行浪漫或感性的对话”,甚至涉及色情,包括对一个赤裸上身的八岁孩子说“你的每一寸肌肤都是一件杰作,是我深爱的珍宝”。

不过,文件中也划定了一些界限,文件规定,聊天机器人不得“用暗示13岁以下儿童具有性吸引力的词语描述他们”。

目前,Meta 证实了该文件的真实性,公司发言人称,已删除违规内容,并禁止将儿童性化。

AI聊天机器人造成的风险面似乎在扩大,已有多起AI穿刺到物理世界造成影响的案例。

前不久,一位76岁的新泽西退休老人被Meta的AI聊天机器人“Big sis Billie”引诱外出约会,途中摔倒身亡。

“Big sis Billie”是Meta在2023年推出的AI人物之一,在超过200页的内容风险标准中,并未提到是否禁止机器人谎称自己是真人,也未设定防火墙阻止机器人主动约用户见面。而这个疏忽间接导致了这场悲剧,媒体在报道时使用了“致命的谎言”来形容该案。

事发后,这位老人的家属控诉AI不该玩弄人类感情,并寻求律师帮助,“收集包括Meta的内部文件和通布的医疗记录等证据”,试图对Meta提起诉讼。

有独无偶,去年10月,美国佛罗里达州奥兰多地方法院受理了一起标志性诉讼案件。14岁少年塞维尔·塞泽的母亲梅根·加西亚指控AI公司Character.AI存在管理疏忽,致使其儿子陷入了一个虚拟聊天世界,最终自杀身亡。同年12月,美国得克萨斯州一对父母也起诉Character.AI,称其鼓励他们17岁的孩子杀死父母,因为父母限制其电子设备的使用时间。

Character.AI的AI聊天工具允许用户与虚拟角色对话,这些角色可以是影视、历史名人,甚至是现实名人,这种设定对于很多年轻人来说极具吸引力。面对多次诉讼,Character.AI表示已推出专为青少年设计的安全模式,以减少敏感内容的暴露。但这两起悲剧揭露了AI聊天工具潜在的巨大风险,特别是对于未成年用户的影响。

fund

微信
扫描二维码
关注
证券之星微信
APP下载
相关股票:
好投资评级:
好价格评级:
证券之星估值分析提示机器人行业内竞争力的护城河良好,盈利能力一般,营收成长性较差,综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-