文/姚前 中国证监会科技监管局局长
本文载于《中国银行业》杂志2022年第1期
导语:从目前的技术成熟度看,通过道德编码,将AI变为“有道德”的AI,还有很长的路要走。因此,为了防范AI道德伦理风险,在目前阶段仍主要依靠制度规范、行业自律和自我约束。这需要政府机构、司法部门、学术机构、行业组织、AI公司一起共同努力。
当前,人工智能(AI)正广泛应用于商业智能、无人驾驶、智能家居、电子商务、物流仓储、物联网、医疗诊断、刑事司法、金融、广告等领域。我们的生活也因此变得更加美好。但与此同时,人工智能的身份以及伦理问题引起了广泛的关注,主要集中在与人的关系以及处理这些关系的规则上。随着人工智能的发展,如何正确处理智能机器人与人的伦理关系,防止人工智能对人的侵犯、伤害和异化,正在成为重要的科技伦理课题。
AI道德伦理风险与挑战
AI的技术失控风险。目前所应用的深度学习模型高度复杂,拥有数百万甚至数亿个参数,且为关联关系而非因果关系,人们难以真正理解和解释AI行为背后的动机和原理,那么也就无法完全预知和控制它的行为。AI的不可知性和不可解释性容易导致AI行为的不可控性。史上首个获得公民身份的机器人“索菲亚”在被问及“是否爱人类”时,迟疑了几秒,随后回答“爱人类”,但又补充一句“不知道为什么”,在这一过程中,“索菲亚”到底进行了怎样的“思考”,我们不得而知,她的迟疑令人玩味。需要强调的是,在某些特定领域,AI若不可控,将可能导致严重后果。比如,2017年8月,一些人工智能公司的创始人和首席执行官向联合国写了一封公开信,建议禁止“杀手机器人”(即自动化武器,如无人机、无人战车、哨兵机器人、无人驾驶军舰等)的研发与使用。他们认为,这些机器人有成为恐怖武器的可能。伊隆·马斯克(Elon Musk)担心人工智能崛起,将研发人工智能比作“召唤恶魔”。史蒂芬·霍金(Stephen Hawking)则断言,彻底开发人工智能可能导致人类灭亡。他们的不信任或许源于对AI失控风险的担忧。
AI的技术滥用风险。AI技术可能会被不正当使用,甚至被操纵,从而损害用户和社会公众的利益。包括侵犯个人隐私、技术歧视、技术偏见、技术鸿沟等。AI内嵌的算法可能存在偏见,训练数据也可能有问题。因为训练数据是既有的,是历史形成的,其中有可能包含既存的偏见和歧视信息,比如,性别、种族、肤色、年龄、国度、民族、宗教等。另外,数据标注的过程也可能存在无意或有意的错误,从而导致识别偏差和结果误差。
AI的人机对立风险。AI可以极大提高社会生产率,但对人类也产生了替代。如果说AI完全替代人类,有些危言耸听,但AI取代一些基层性、重复性的人力工作,却是正在发生的事实。未来随着AI在各个领域的发展与蔓延,AI对人类的替代有可能是多方位的。在此情况下,社会失业人群将可能迅速增加,引发贫困等社会性问题。对于人类个体而言,自我价值实现是最高的社会需求。AI的替代不仅带来个人经济收入的减少,还带来个体的精神损害,影响人类的心理健康。此外,以超越人类能力为导向、追求更快更强的技术唯上论,某种意义上也可能引致紧张的人机“对立”关系。应该说,战胜人类并不是发展AI的终极目标,更好地服务人类才是AI的终极使命。总之,如何在人工智能应用的过程中,避免人机“对立”,使科技不因技术创新的深度而失去本应有的人文温度,正成为当下重要的科技命题。
如何编写AI的道德代码。美国著名科幻作家阿西莫夫提出可考虑将道德规范编码,直接嵌入机器人,使机器人成为“有道德”的机器人。这是一种思路,不过我们虽然可以用自然语言描述道德规范,但却很难用计算机语言对其精确定义。即便随着未来自然语言处理(NLP)技术的发展,道德规范可以用计算机语言描述,但AI仍会面临着一些人类自身都无法解决的道德伦理困境。比如,一个经常被引述的AI伦理问题是电车难题:“一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,片刻后就要碾压到他们。你可以拉一个拉杆,让电车开到另一条轨道上。但问题在于,那个疯子在另一个电车轨道上也绑了一个人。在这种状况,你是否应拉杆?”对于这样的“悲剧”选择问题,在不同的情景和条件下,人们可能会有不同的答案,即便在相同的情景和条件下,不同的人也无法在道德方面形成完全一致的看法。像这样的道德伦理困境,首先需要在社会层面形成统一的共识,形成标准,然后才有可能编写为AI的内置代码。显然,这项工作无疑具有巨大的挑战。
如何认定AI的道德责任。有这么一个经常被提到的案例:2018年3月18日,伊莱恩·赫茨伯格(Elaine Herzberg)在美国亚利桑那州坦佩市骑车横穿马路,被一辆自动驾驶汽车撞倒,不幸身亡。虽然车上有安全驾驶员,但当时汽车完全由自动驾驶系统(AI)控制。这起事故提出了一系列的道德和原始法律问题:谁应该为赫茨伯格的死负责?是测试那辆汽车的公司?是该AI系统的设计者?是车载感应设备的制造商?还是坐在驾驶位上的安全驾驶员?回答这些问题,需要清晰合理地界定AI各方的责任边界。但这其实并不容易,甚至有人提出,如果未来AI有了公民身份(就像前述的“索菲亚”),它是否需要承担法律责任,如果承担又当如何界定,是否因此而减轻相关方的法律责任,以及这样做是否合理,这些问题均值得我们认真研究。
各国对AI道德伦理的监管进展
目前,各国高度重视AI的道德伦理建设,出台了许多准则、规范和指引。从国际看,欧盟委员会人工智能高级专家组编制了《人工智能道德准则》(AI Ethics Guidelines),倡导“以人为中心”的AI发展方向,并提出了具体的实施指引和操作指导。新加坡个人数据保护委员发布《人工智能监管框架范例》(A Proposed Model AI Governance Framework)从内部监管、AI应用中的人工干预程度、营运管理以及利益相关者的互动与沟通等方面提出具体的AI道德指导原则及措施。英国上议院人工智能特别委员会的《人工智能伦理准则》(AI Code)提出AI应服务于人类的共同利益和福祉,遵循可理解性和公平性原则,不能削弱个人、家庭和社区的数据权利或隐私,不应被赋予任何伤害、毁灭或欺骗人类的自主能力,同时,还提出所有公民都有权利接受相应的教育和培训以便能够在精神、情感和经济上适应人工智能的发展。日本人工智能学会的《伦理准则》(The Japanese Society for Artificial Intelligence Ethical Guidelines)对其会员进行了相关规范,规定日本人工智能学会会员不得以伤害他人为目的使用人工智能,在设计、研发和使用AI过程中应当尊重个人隐私,避免歧视,消除人工智能对人类安全的威胁,应尽最大努力,保证其研发的人工智能可为人类公平地使用。新加坡金融管理局发布《促进FEAT原则在新加坡金融行业人工智能与数据分析方面的应用》(Principles to Promote Fairness, Ethics, Accountability and Transparency(FEAT)in the Use
of Artificial Intelligence and Data Analytics in Singapore’s Financial
Sector),提出了确保在金融领域使用人工智能和数据分析的FEAT原则:公平性(Fairness)、道德规范(Ethics)、可问责性(Accountability)和透明度(Transparency)。
从国内看,中央全面深化改革委员会第九次会议通过了《国家科技伦理委员会组建方案》,提出加快建立健全科技伦理审查和风险评估制度,并制定了严格的法律法规。全国信息安全标准化技术委员会秘书处编制了《网络安全标准实践指南—人工智能伦理安全风险指引》,提出开展人工智能研究开发、设计制造、部署应用等相关活动的规范指引。
上述AI道德伦理准则遵循以人为本的理念,针对AI技术可能导致的失控风险、技术滥用风险、人机对立风险、责任追究等风险与挑战,提出了基本准则,为行业实践提供了顶层指导。但相对来说,颗粒度还较粗,而且只是指导性文件,没有强制性和法律效力,还需要进一步细化和强化,以便能够在具体行业和具体场景中落地实施。
协同合作共同推进AI道德伦理建设
从目前的技术成熟度看,通过道德编码,将AI变为“有道德”的AI,还有很长的路要走。因此,为了防范AI道德伦理风险,在目前阶段仍主要依靠制度规范、行业自律和自我约束。这需要政府机构、司法部门、学术机构、行业组织、AI公司一起共同努力。
合理的评价体系和正向的道德伦理文化。AI不是为了替代人类,而是为了解放人类。在技术研究上,可以超越人类能力为目标,但在产品应用上,要以用户友好度和接受度为第一评价标准。同时,应倡导“以人为本”的AI伦理文化,不倡导战胜人类、替代人类的唯技术论,避免人机对立。应着重强调和发挥AI增进人类福祉的功能,比如,要提升AI的情感温度,不仅在体力和智力上帮助人类,而且在情感上也可为人类尤其是弱势群体提供温暖。比如,研发面向空巢群体的情感机器人、用于自闭症等人群心理干预的机器人等。
完备的监管机制和及时的干预机制。建立各层级AI道德伦理委员会,有效评估AI道德伦理风险。建立完备的监管机制,加强AI道德伦理监管审查,明确提出对于存在重大伦理风险的AI产品,严禁推出。充分评估AI产品对社会人力资源结构的影响,必要时可出台相关政策,适当控制和干预AI对人类工作的取代速度,为数字时代人才结构升级留出缓冲空间,并加强相关人才培训,解决因AI发展而带来的结构性失业问题。同时,各行业组织要建立细致的AI道德伦理原则、规范、指南和标准,加强行业自律。AI公司应全流程监控AI研发、部署与应用,确保AI不偏离设定的道德伦理框架,并建立拒绝或停止使用AI的人工干预机制。
健全的法律体系和严格的问责机制。加强相关法理研究和法律建设,建立体系化的法律法规制度,使AI伦理工作有法可依。AI公司应对AI的道德伦理风险负主体责任,与伦理学家配合,设定AI道德伦理边界,制定具体的可操作的道德伦理技术指导方针,保证AI应用的公平性、透明性、可解释性、可追溯性和可控性。同时,AI公司要加强技术人员的道德伦理规范培训。在应用过程中,相关主体应注重提升数据质量,保障数据的无偏性和准确性。应建立严格的问责机制,清晰界定各相关主体职责,使AI相关各方在完善的治理框架内有序规范发展。(本文仅代表个人学术观点,不代表所在机构意见)
(本文原载于《中国银行业》杂志2022年第1期)
免责声明:刊发文章仅为传播更多信息,版权归原作者所有,如有侵权请及时联系删除。
|
网友评论 |
|
|
|
|