孔君:人工智能,亟需加强国际伦理规范
当前,新一轮科技革命和产业变革正在蓬勃兴起,人工智能已成为新兴技术的关键词。在军事领域,智能化被视为机械化、信息化之后装备发展的又一趋势,人脸识别等人工智能技术在地区武装冲突中也逐渐崭露头角。
与此同时,越来越多的人士对人工智能军事应用产生的道德和伦理风险感到担忧。如何在伦理层面规范人工智能军事应用,确保人工智能技术不会偏离“智能向善”原则,已是摆在各国面前的重要前沿课题。
人工智能军事应用引发的伦理问题由来已久,其核心是如何看待和处理人与机器之间的关系。近年来,搭载自动步枪的机器狗、用于边境巡逻的机器哨位等自主武器系统逐渐走入公众视野,一些学者甚至已开始探讨元宇宙的军事应用,但相关法律和伦理规则却远未完善。如何防止这种新式武器滥杀平民?自主武器系统在开火前是否需要人类的授权?谁应对使用这种武器产生的后果负责?随着美西方加快发展无人机、深度伪造、社交机器人等技术,国际社会对人工智能军事应用伦理风险的担忧与日俱增。
事实上,尽管现行国际法体系对人工智能技术并无硬性约束,但人工智能技术在军事等领域的应用并非毫无限制。根据国际人道法,各国在使用新武器前须评估其是否符合国际法,是否遵循必要性、区分性、适度性等原则。搭载人工智能模块的武器系统同样须满足上述要求,但落实起来却面临诸多困难。在现有技术水平下,人工智能特有的 “黑箱效应”导致输出结果常常难以解释,一旦出现意外,很容易陷入追责困境。
随着武器智能水平大幅提高,脑机接口、机械外骨骼等人机融合技术不断出现,人与机器之间的关系正面临根本性变化。未来机器甚至可能取代人类本身,成为军事行动的实际决策者和执行者,引发更深层次的伦理危机。有人甚至预言,如不及时对人工智能军事应用加以约束,科幻电影《终结者》中的杀人机器人恐将成为现实。
为破解人工智能治理难题,中国在行动。随着中国进入创新型国家行列,国际社会普遍期待中国为人工智能全球治理体系建设贡献智慧和方案,促进交流合作、经验共享,推动人工智能技术更好地赋能全球可持续发展。
中国高度重视人工智能治理问题,始终秉持“以人为本、智能向善”理念,发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等指导文件。今年初,中国政府发布《关于加强科技伦理治理的意见》,提出“遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”五个基本原则,强调将重点加强人工智能等前沿领域的伦理立法研究,及时将重要伦理规范上升为国家法律法规。在国际层面,中国组织专家积极参与世卫组织人工智能伦理指南、联合国教科文组织《人工智能伦理问题的建议书》 等重要文件的起草工作。在参与联合国“致命性自主武器系统”政府专家组讨论中,中方始终呼吁各方重视伦理治理问题,坚决反对发展完全脱离人类控制的自主武器系统。中国还是首个在联合国《特定常规武器公约》框架下提出规范人工智能军事应用主张的安理会常任理事国,得到广泛积极评价。
人工智能技术代表着人类的未来,但其亦是一把“双刃剑”,亟须加强国际治理和引导。中国始终主张,只有坚持真正的多边主义,推进国际关系民主化,才能推动全球治理朝着更加公正合理的方向发展。在人工智能国际治理问题上也是如此,完善人工智能国际伦理规范势在必行。各方应站在构建人类命运共同体的战略高度,从和平、发展、公平、正义、民主、自由的全人类共同价值出发,推动达成符合全人类共同利益的人工智能伦理治理方案。历史终将证明,唯有守住伦理底线,才能有效规避安全风险,确保人工智能技术始终造福于人类。(作者是国际问题观察员)