道德对标:划定AI创新的路径与边界

来源:上海证券报 2019-10-08 08:57:21
关注证券之星官方微博:

要引导AI变得有道德,须让科技公司变成道德主体,科技向善应成为恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革应成为科技公司存在与发展的圭臬。出台AI使用者的道德与法律规则同样时不我待。

包括脸书、微软、谷歌等公司高层代表以及科学家、学术界人士稍早时候聚集日内瓦,在首届瑞士全球数字峰会上商讨与人工智能(AI)有关的全球道德标准,与会代表约定会就这个主题在明年1月的达沃斯世界经济论坛上展开更为广泛与深入的切磋。

谁也不会怀疑人工智能将成为引发创新与激发变革的最强大科技力量,正是如此,公众正以极大的宽容甚至狂热的姿态拥抱人工智能的最新成果,而对于AI所衍生出的道德问题往往因“晕轮效应”的作用而未能有清晰的认知与足够的重视。就以不久前世界人工智能大会上ZAO推出的“AI换脸App”为例,用户只需一张正脸照,就可替换为影视作品的人物,生成以自己为主角的视频片段,这款App一夜火爆全网。可是,在赢得了片刻的刺激与兴奋之后,相信所有的用户都会因绑在身上的ZAO协议而惴惴不安。

看看ZAO的用户协议吧:用户上传发布内容后,意味着“同意或确保肖像权利人授予‘ZAO’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许的权利”,而且“侵权了明星肖像,若对方提告,最后责任都在用户”。就此,不妨向用户提出以下问题:假如被换脸的明星向你提出诉讼,假如有人就此制作虚假视频并栽赃于你,假如你的脸被别人用于刷脸支付,你会怎么办?听听他们会是什么反应。

其实,类似“换脸App”引起的AI道德拷问已不计其数。AI突破道德底线并沦为作恶工具的程度已超过了人们的想象。对此,目前的主流判断是,技术无罪,但操控技术的人一定有过。按照墨菲定理,如果一件事情有可能出错,那就一定会出错。也就是说,如果做某项工作有多种方法,而其中有一种方法必然导致错误,那一定有人会按这种方法去做。依据一项针对1010名英国科技工作者的研究,90%的人认为科技是一种正能量,但59%身处人工智能领域的人则表示,他们从事的项目可能对社会有害,有18%的人因伦理道德问题而辞职。尽管AI违背或践踏道德只是少数技术操作者的行为,也就是墨菲定理所指的个别人犯错,但这种错误极易被更多人模仿,而且借助网络传播的力量会无限放大,最终造成的社会危害无法估量。

可是,如何平衡AI创新与AI道德又是一个非常棘手的难题。今天,飞速前行的技术需要更多创新成果来提供贴近生产与生活的各种服务,这就要求企业不断寻求突破。只是,如果套上更多条条框框,又势必抑制与捆绑AI 探索的脚步与空间。拿AI的基础数据来说,用户的身份、职业、年龄及阅读、购物等行为偏好,都是优化推荐算法的关键依据,科技公司获取的这些隐私数据越多,就越能让AI的服务更精确地贴合公众需求,利于商业主体精准发力。如果注入了道德元素,数据的限制与缺失不仅会使AI的服务功能大打折扣,会面临着资本的反制。

然而,任何创新的闸门都不是不能把控的,人类既然能让机器变得非常智慧,同样也可让它行走在指定的路径与划定的边界之内,比如一件AI可在哪些场景下使用,使用越界时的自动纠正功能等。这样,无论机器具有怎样的学习天赋,我们都可让它在决策时像人一样在感知是非善恶的前提下行事。

要引导AI变得有道德,首先须让科技公司变成道德主体,科技向善应成为恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革应成为科技公司存在与发展的圭臬。对此,所有的AI 企业都有必要像微软成立人工智能伦理道德委员会那样,创建由工程师、科学家、律师和公司领导组成的监管机构,负责对每款AI产品的道德伦理风险评估及运行内外部审查和实施相应的改进机制。

相比于企业对AI的自我审查,行业协会是把控人工智能的第一道外部道德关口。目前,除了世界电气电子工程师学会(IEEE)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌及苹果等全球百余家科技巨头还创建了非营利性的人工智能合作组织Partnership on AI,提出了公平、没有伤害、公开透明及问责等伦理道德框架。各国各行业可以此为参照建立各自的AI道德评价矩阵与评估流程。相对于企业自我道德评价,作为第三方的行业道德评价能有效克服前者在商业诉求与道德诉求上的角色冲突,过滤掉企业道德评价中的不合理因素,确保AI伦理道德评估结论的公正与可信。为了更广泛地反映社会不同群体的基本诉求,行业道德监督机构应最大限度吸收更多利益相关者加入。

制定AI伦理道德准则更是各国政府义不容辞的职责,衡量一国人工智能水平的高低不能只有技术指标,道德维度也已成了各国AI竞争的新高地。从伦理角度切入,欧盟就已率先推出了涵盖人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉以及问责机制等七项内容的AI伦理道德准则。我国已有《网络安全法》和《信息安全技术个人信息安全规范》,相关组织还发布了《人工智能北京共识》,但在AI的道德界限以及道德标准细化方面仍有待提炼与加工。

AI使用者同样不应成为道德盲区,出台AI使用者的道德与法律规则同样时不我待。应建立起可监控的人工智能平台,以此倒逼科技公司调整与校准研发行为,让AI道德演变成民众信任的基础。

(作者系中国市场学会理事、经济学教授)

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-