姚前:人工智能与科技伦理建设-特别策划-银行-河北理财网—河北权威金融财经门户 
网站首页 | 银行频道 | 保险频道 | 基金频道 | 股 票 | 黄 金 | 互联网金融 | 问 吧 | 专题·活动 | 财富学院
首 页 | 银行动态 | 银行理财 |  银行产品 |  互联网金融 |  农村金融 |  信用卡 |  金融人物 |  银行学院 
 您现在所在位置:河北理财网首页 >>  银行 >>  特别策划
姚前:人工智能与科技伦理建设
www.hebmoney.com  2022-03-01 20:28:51  河北理财网
《冀商邮报》订阅
理财手机报订阅
本周理财活动预告
河北理财网
财富汇qq群:131270574

/姚前  中国证监会科技监管局局长

本文载于《中国银行业》杂志2022年第1

导语:从目前的技术成熟度看,通过道德编码,将AI变为“有道德”的AI,还有很长的路要走。因此,为了防范AI道德伦理风险,在目前阶段仍主要依靠制度规范、行业自律和自我约束。这需要政府机构、司法部门、学术机构、行业组织、AI公司一起共同努力。

当前,人工智能(AI)正广泛应用于商业智能、无人驾驶、智能家居、电子商务、物流仓储、物联网、医疗诊断、刑事司法、金融、广告等领域。我们的生活也因此变得更加美好。但与此同时,人工智能的身份以及伦理问题引起了广泛的关注,主要集中在与人的关系以及处理这些关系的规则上。随着人工智能的发展,如何正确处理智能机器人与人的伦理关系,防止人工智能对人的侵犯、伤害和异化,正在成为重要的科技伦理课题。

AI道德伦理风险与挑战

AI的技术失控风险。目前所应用的深度学习模型高度复杂,拥有数百万甚至数亿个参数,且为关联关系而非因果关系,人们难以真正理解和解释AI行为背后的动机和原理,那么也就无法完全预知和控制它的行为。AI的不可知性和不可解释性容易导致AI行为的不可控性。史上首个获得公民身份的机器人“索菲亚”在被问及“是否爱人类”时,迟疑了几秒,随后回答“爱人类”,但又补充一句“不知道为什么”,在这一过程中,“索菲亚”到底进行了怎样的“思考”,我们不得而知,她的迟疑令人玩味。需要强调的是,在某些特定领域,AI若不可控,将可能导致严重后果。比如,20178月,一些人工智能公司的创始人和首席执行官向联合国写了一封公开信,建议禁止“杀手机器人”(即自动化武器,如无人机、无人战车、哨兵机器人、无人驾驶军舰等)的研发与使用。他们认为,这些机器人有成为恐怖武器的可能。伊隆·马斯克(Elon Musk)担心人工智能崛起,将研发人工智能比作“召唤恶魔”。史蒂芬·霍金(Stephen Hawking)则断言,彻底开发人工智能可能导致人类灭亡。他们的不信任或许源于对AI失控风险的担忧。

AI的技术滥用风险。AI技术可能会被不正当使用,甚至被操纵,从而损害用户和社会公众的利益。包括侵犯个人隐私、技术歧视、技术偏见、技术鸿沟等。AI内嵌的算法可能存在偏见,训练数据也可能有问题。因为训练数据是既有的,是历史形成的,其中有可能包含既存的偏见和歧视信息,比如,性别、种族、肤色、年龄、国度、民族、宗教等。另外,数据标注的过程也可能存在无意或有意的错误,从而导致识别偏差和结果误差。

AI的人机对立风险。AI可以极大提高社会生产率,但对人类也产生了替代。如果说AI完全替代人类,有些危言耸听,但AI取代一些基层性、重复性的人力工作,却是正在发生的事实。未来随着AI在各个领域的发展与蔓延,AI对人类的替代有可能是多方位的。在此情况下,社会失业人群将可能迅速增加,引发贫困等社会性问题。对于人类个体而言,自我价值实现是最高的社会需求。AI的替代不仅带来个人经济收入的减少,还带来个体的精神损害,影响人类的心理健康。此外,以超越人类能力为导向、追求更快更强的技术唯上论,某种意义上也可能引致紧张的人机“对立”关系。应该说,战胜人类并不是发展AI的终极目标,更好地服务人类才是AI的终极使命。总之,如何在人工智能应用的过程中,避免人机“对立”,使科技不因技术创新的深度而失去本应有的人文温度,正成为当下重要的科技命题。

如何编写AI的道德代码。美国著名科幻作家阿西莫夫提出可考虑将道德规范编码,直接嵌入机器人,使机器人成为“有道德”的机器人。这是一种思路,不过我们虽然可以用自然语言描述道德规范,但却很难用计算机语言对其精确定义。即便随着未来自然语言处理(NLP)技术的发展,道德规范可以用计算机语言描述,但AI仍会面临着一些人类自身都无法解决的道德伦理困境。比如,一个经常被引述的AI伦理问题是电车难题:“一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,片刻后就要碾压到他们。你可以拉一个拉杆,让电车开到另一条轨道上。但问题在于,那个疯子在另一个电车轨道上也绑了一个人。在这种状况,你是否应拉杆?”对于这样的“悲剧”选择问题,在不同的情景和条件下,人们可能会有不同的答案,即便在相同的情景和条件下,不同的人也无法在道德方面形成完全一致的看法。像这样的道德伦理困境,首先需要在社会层面形成统一的共识,形成标准,然后才有可能编写为AI的内置代码。显然,这项工作无疑具有巨大的挑战。

如何认定AI的道德责任。有这么一个经常被提到的案例:2018318日,伊莱恩·赫茨伯格(Elaine Herzberg)在美国亚利桑那州坦佩市骑车横穿马路,被一辆自动驾驶汽车撞倒,不幸身亡。虽然车上有安全驾驶员,但当时汽车完全由自动驾驶系统(AI)控制。这起事故提出了一系列的道德和原始法律问题:谁应该为赫茨伯格的死负责?是测试那辆汽车的公司?是该AI系统的设计者?是车载感应设备的制造商?还是坐在驾驶位上的安全驾驶员?回答这些问题,需要清晰合理地界定AI各方的责任边界。但这其实并不容易,甚至有人提出,如果未来AI有了公民身份(就像前述的“索菲亚”),它是否需要承担法律责任,如果承担又当如何界定,是否因此而减轻相关方的法律责任,以及这样做是否合理,这些问题均值得我们认真研究。

各国对AI道德伦理的监管进展

目前,各国高度重视AI的道德伦理建设,出台了许多准则、规范和指引。从国际看,欧盟委员会人工智能高级专家组编制了《人工智能道德准则》(AI Ethics Guidelines),倡导“以人为中心”的AI发展方向,并提出了具体的实施指引和操作指导。新加坡个人数据保护委员发布《人工智能监管框架范例》(A Proposed Model AI Governance Framework)从内部监管、AI应用中的人工干预程度、营运管理以及利益相关者的互动与沟通等方面提出具体的AI道德指导原则及措施。英国上议院人工智能特别委员会的《人工智能伦理准则》(AI Code)提出AI应服务于人类的共同利益和福祉,遵循可理解性和公平性原则,不能削弱个人、家庭和社区的数据权利或隐私,不应被赋予任何伤害、毁灭或欺骗人类的自主能力,同时,还提出所有公民都有权利接受相应的教育和培训以便能够在精神、情感和经济上适应人工智能的发展。日本人工智能学会的《伦理准则》(The Japanese Society for Artificial Intelligence Ethical Guidelines)对其会员进行了相关规范,规定日本人工智能学会会员不得以伤害他人为目的使用人工智能,在设计、研发和使用AI过程中应当尊重个人隐私,避免歧视,消除人工智能对人类安全的威胁,应尽最大努力,保证其研发的人工智能可为人类公平地使用。新加坡金融管理局发布《促进FEAT原则在新加坡金融行业人工智能与数据分析方面的应用》(Principles to Promote Fairness, Ethics, Accountability and TransparencyFEATin the Use of Artificial Intelligence and Data Analytics in Singapores Financial Sector),提出了确保在金融领域使用人工智能和数据分析的FEAT原则:公平性(Fairness)、道德规范(Ethics)、可问责性(Accountability)和透明度(Transparency)。

从国内看,中央全面深化改革委员会第九次会议通过了《国家科技伦理委员会组建方案》,提出加快建立健全科技伦理审查和风险评估制度,并制定了严格的法律法规。全国信息安全标准化技术委员会秘书处编制了《网络安全标准实践指南—人工智能伦理安全风险指引》,提出开展人工智能研究开发、设计制造、部署应用等相关活动的规范指引。

上述AI道德伦理准则遵循以人为本的理念,针对AI技术可能导致的失控风险、技术滥用风险、人机对立风险、责任追究等风险与挑战,提出了基本准则,为行业实践提供了顶层指导。但相对来说,颗粒度还较粗,而且只是指导性文件,没有强制性和法律效力,还需要进一步细化和强化,以便能够在具体行业和具体场景中落地实施。

协同合作共同推进AI道德伦理建设

从目前的技术成熟度看,通过道德编码,将AI变为“有道德”的AI,还有很长的路要走。因此,为了防范AI道德伦理风险,在目前阶段仍主要依靠制度规范、行业自律和自我约束。这需要政府机构、司法部门、学术机构、行业组织、AI公司一起共同努力。

合理的评价体系和正向的道德伦理文化。AI不是为了替代人类,而是为了解放人类。在技术研究上,可以超越人类能力为目标,但在产品应用上,要以用户友好度和接受度为第一评价标准。同时,应倡导“以人为本”的AI伦理文化,不倡导战胜人类、替代人类的唯技术论,避免人机对立。应着重强调和发挥AI增进人类福祉的功能,比如,要提升AI的情感温度,不仅在体力和智力上帮助人类,而且在情感上也可为人类尤其是弱势群体提供温暖。比如,研发面向空巢群体的情感机器人、用于自闭症等人群心理干预的机器人等。

完备的监管机制和及时的干预机制。建立各层级AI道德伦理委员会,有效评估AI道德伦理风险。建立完备的监管机制,加强AI道德伦理监管审查,明确提出对于存在重大伦理风险的AI产品,严禁推出。充分评估AI产品对社会人力资源结构的影响,必要时可出台相关政策,适当控制和干预AI对人类工作的取代速度,为数字时代人才结构升级留出缓冲空间,并加强相关人才培训,解决因AI发展而带来的结构性失业问题。同时,各行业组织要建立细致的AI道德伦理原则、规范、指南和标准,加强行业自律。AI公司应全流程监控AI研发、部署与应用,确保AI不偏离设定的道德伦理框架,并建立拒绝或停止使用AI的人工干预机制。

健全的法律体系和严格的问责机制。加强相关法理研究和法律建设,建立体系化的法律法规制度,使AI伦理工作有法可依。AI公司应对AI的道德伦理风险负主体责任,与伦理学家配合,设定AI道德伦理边界,制定具体的可操作的道德伦理技术指导方针,保证AI应用的公平性、透明性、可解释性、可追溯性和可控性。同时,AI公司要加强技术人员的道德伦理规范培训。在应用过程中,相关主体应注重提升数据质量,保障数据的无偏性和准确性。应建立严格的问责机制,清晰界定各相关主体职责,使AI相关各方在完善的治理框架内有序规范发展。(本文仅代表个人学术观点,不代表所在机构意见)

(本文原载于《中国银行业》杂志2022年第1期)

免责声明:刊发文章仅为传播更多信息,版权归原作者所有,如有侵权请及时联系删除。

网友评论    
用户名:     密码:    



  

相关新闻    
· 新华保险:统筹稳经济政策和疫情防控 部署安全落实举措
·河北理财网:邮储银行邢台市分行开展金融知识“进社区”宣传活动
·河北理财网:广发银行发布2021年年报 实现全方位均衡发展
·河北理财网银行营销课堂:银行旺季营销二次攻势 3月产能冲刺方略
频道推荐    
·理财产品中央数据
·央行:加大普惠小
·反诈宣传不停歇
·不忘初心 永葆本
·新华保险邢台中支
·河北理财网:新华
·坚定信心推动数字
·公募基金密集调研
·工信部就《民用无
·重磅!沪深交易所
·研报精选:大金融
·美女分析师自称“
·50个基点?美联
·欧洲央行盼尽早结
·2021年铀价飙
· 守住钱袋子 护
·河北赵县举办20
·河北理财网防范非
 
网银一页通  
银  行 服务电话 网银入口
工商银行 95588 个人 企业
中国银行 95566 个人 企业
农业银行 95599 个人 企业
建设银行 95533 个人 企业
交通银行 95559 个人 企业
招商银行 95555 个人 企业
广发银行 95508 个人  企业
中信银行 95558 个人 企业
浙商银行 95527 个人 企业
特别策划 诺基亚
· 新华保险:统筹稳经济政策和疫
·河北理财网:邮储银行邢台市分行
·河北理财网:工商银行、光大银行
·河北理财网:广发银行发布202
·河北理财网银行营销课堂:银行旺
银行论坛  
新闻排行
银行 保险 基金 股票
  银行链接
关于我们 | 版权声明 | 联系我们 | 广告刊例 | 公司简介 | 实习申请
Copyright @ 2011 - 2012 www.hebmoney.com 河北理财网版权所有 All Rights Reserved

冀ICP备11013767号-1