崔传刚:治理AI诈骗的办法会越来越多
近期出现了一些利用人工智能(AI)进行诈骗和欺骗的事件,令人担忧。例如今年5月,警方发布一起利用AI实施电信诈骗的典型案例,受害人10分钟内被骗430万元。网络上也出现了一些利用AI生成技术“换脸”诱导消费者的现象。这些事件让很多人开始注意到AI诈骗。我们必须保持警惕,并有必要采取有效措施来预防和治理此类事件。
一种新技术在尚未找到常规的商业模式之前,先成了某些人手中的不法牟利工具,在历史上其实并不是孤例。例如电话、短信以及电子邮件,也被不法分子利用过,时至今日,相关的诈骗事件也层出不穷。AI诈骗也是类似的新技术发展的一种副作用,而且随着AI技术门槛的不断降低以及相应成本的下降,未来的AI诈骗活动可能还会持续出现。
正因如此,当务之急是对AI等新技术进行合理和有效的监管,让新技术为社会的发展增益,而不是带来损害。对AI进行监管不是为了打击新技术,而是为了促进其健康发展。就好比汽车为我们的出行带来便利、提高我们的生活效率的同时,也带来了安全事故等风险,需要我们为汽车的生产设置安全标准、设置交通信号灯、设立交通法规。另外,新技术的发展日新月异,新问题也可能层出不穷,因此监管也需要与时俱进、更新迭代。
AI的监管是全球性的话题,各国的监管力度和侧重点有所区别。欧洲AI法案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。法案遵循基于风险的方法,将AI及其相关应用划分为四种等级,分别为被禁止、高风险、有限风险以及低风险,并针对不同类型制定供应商和利用AI系统的一方相应的监管规则。AI法案将会禁止对人们安全带来不可接受程度的风险的AI系统,例如那些用于社交评分的系统(根据人们的社会行为或个人特征进行分类)。美国也在讨论如何监管AI,但相比欧洲,监管力度要小得多。
在监管方面,我们国家其实是走在前列的。例如,去年11月,我国就颁布了《互联网信息服务深度合成管理规定》,从今年1月10日起施行。今年4月份,为促进生成式人工智能技术健康发展和规范应用,国家网信办又发布了《生成式人工智能服务管理办法 (征求意见稿)》。它们都明确指出了AI服务提供者的主体责任,强调相关的服务提供者不得非法获取和披露数据,并需要做好对个人的信息保护。做好对AI服务平台的监管,可以说是预防AI诈骗的重中之重。
AI诈骗的风险确实存在,且未来一段时间也可能会继续存在,但大众不应对此过度焦虑。首先,目前从事AI诈骗成本相对较高,危害面相对较小。事实上,目前对消费者构成最大侵扰的,仍然是电话、短信以及电子邮件等传统诈骗形式;其次,目前对AI诈骗的恐慌,有时候其实是出于对新技术的不了解和不信任;最后,反 AI诈骗的安全技术也在不断发展。因此,普通用户不必因噎废食,因为一些过度的恐慌而放弃了AI技术所带来的潜在便利。
当然,我们也不应低估此类技术可能带来的负面影响,未雨绸缪。这一轮的AI技术爆发比以往的技术革新来得深刻,偏向信息底层。生成式AI能够生产出更为真假难辨的伪装信息,且可能和传统的技术手段合流,生成更强有力的诈骗模式。比如,以前的诈骗短信可能都是人工写作的,而且千篇一律。但利用生成式AI,这种短信也可以实现千人千面,而且可以随时生成,甚至与受骗者进行互动。这需要引起我们的警惕。
警惕和预防AI诈骗是规范技术发展的应有之义,需要全社会的共同努力。政府要强化监管和惩治;企业在为用户提供便利的同时要提供更强大的安全保障;消费者自身也要增强对AI技术的理性认知,当我们越了解一项技术,被欺骗的概率就越小,而且能妥善加以应用。
市场驱动下的行业完善以及政府监管水平的提高,都让我们有理由相信,AI技术的运用定然会日趋成熟,成为人们更好的助力工具。(作者是财经作家)