瞬雨:莫将AI算法误认为人类意识

近日人工智能领域发生一件趣事。美国谷歌公司一名研究员与名为LaMDA (对话应用语言模型)的AI“聊出了感情”,他相信AI产生了自我意识,不仅有恐惧等人类才有的感情,还能与人类进行哲学思辨。

LaMDA从互联网摄取数万亿的词汇来模仿人类对话,是谷歌基于其最先进的大型语言模型构建聊天机器人的系统。毫无疑问,这是一个了不起的探索,但这名研究者的观点释放出一个危险的倾向:人类将有可能陷于与虚拟角色的交互中难以自拔。

该研究员建议公司“应致力于发展一种评估AI感知/意识的理论框架。”对此,我们可以理解为,他希望建立一种更高阶的图灵测试。图灵测试是英国科学家图灵提出的思想实验,测试机器能否表现出与人一样的智能水平。但很多人拿它来为AI意识作基本辩解,是走上了歧途。图灵测试认为,让机器冒充人类与人对话,如果人无法分辨对话对象是人还是机器,那么可以判定机器具有智能。但这不能与机器产生了人类意识画等号。比如,当下的电影工业已经能够制作各种眼花缭乱的特效,包括星际场景、灾难和战争场面、各种拟人化的动物表情和行为。作为观众,是仅仅乐而观之,还是大惊小怪地把这些东西当作真实世界的存在?

那名研究员仅仅依靠几段拟人的对话,就断定AI有了人类的意识,是荒谬的。出于共情的本能,人类总是习惯将周围的东西拟人化,哪怕这些内容是自己预设的。我们可以把人类跟AI的对话当成左右手互搏的消遣,或者对镜自语的游戏,只不过因为机器对手的参与和AI的加持变得更加有趣而已。

从1995年发行的畅销游戏《命令与征服》开始,每一个在即时战略游戏中跟电脑对战的玩家,都可以切身感觉到自己正与一个身经百战的统帅带领的千军万马作战。而实际上我们都知道,这些军队和有意识的统帅根本不存在。几年前,围棋AI就能把九段棋手杀得片甲不留,但柯洁不会产生对手是人的错觉。那名研究员的工作对象本身就是一个能力强大的语义AI,它能反馈出禅宗偈子式的妙语,只能证明其背后算法的高超。有人强调,研究员与AI对话的内容远超出我们对机器的期待。其实,同样以围棋AI为参照,人类不需要把所有定势都写成算法教给AI,它会自己去学习、总结、探索。但这些行为背后的方法论仍是人类给它的算法,跟意识产生毫不相干。

这件事也折射出一部分人狭隘的意识观和机器观。有些神经科学家认为“精神是平的”。在他们看来,每一次精神活动都是神经系统的即时创造,是对来自外部世界输入信号按规则经过处理之后的输出,而不是潜意识的艺术作品。既然如此,那么只要对人类大脑解剖足够细节,实验足够深入,总能用机器复制出一模一样的功能,意识自然就由此产生。然而,精神分析科学早就认识到,人每一刻的反应跟情绪,都不是即时的输入输出,而跟深层的无意识结构息息相关。2020年上线的科幻剧集《上载新生》之所以深受欢迎,就是因为很多人愿意把人当机器,把记忆当芯片存储,把意识当机器反馈。这种观念背后,其实是部分人为解决自己的死亡焦虑所建立的一种防御机制。

中国科技公司推出了AI数字人“度晓晓”,“她”在今年高考作文中的优异表现引发关注,但仔细研读会发现,“她”写出来的文章是作文套路的完美叠加,体现的始终是背后强大的算法能力。相信在不远的将来,很多无须创造只靠机械劳动的工作角色,将被高效的AI机器人替代。

作为人类文字创意的高效助手,就是“度晓晓”们的存在价值。在未来,我们可以继续提高AI的水平,让它更贴心高效地服务于人类。但肤浅地把AI的行为表现视作意识的产生,无疑是幼稚可笑的。(作者是技术经济观察家)