人工智能和人工愚蠢

徐贲

看过一个视频,是一个名叫特奥的意大利机器人和一位中国少年钢琴手在幕后弹奏同一首肖邦的钢琴曲,让听众和钢琴演奏家郎朗辨别哪个是机器人,哪个是真人。弹奏结束后,观众有不同猜测,最后请郎朗辨认。郎朗给出的答案是正确的。主持人问他:“你是根据什么判断的?”他说:“真人选手弹奏时有一个音符弹错了,而机器人的演奏是完美的。”真人演奏者的错误成为辨认机器与真人的主要根据。

这是典型的图灵测试。1950年,被视为计算机科学与人工智能之父的英国科学家艾伦·图灵发表了一篇具有划时代意义的论文《计算机器与智能》,文中预言了人类创造出真正智能机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么可称这台机器具有智能。这一简化使得人工智能研究有了解释“思想机器”的可能。

图灵测试成为一种模式,但它要测试的并不是机器能否胜过人的智能,而是机器能否惟妙惟肖地模仿人的行为,骗过当评判的真人。因此,如果机器人做出人类无法做出的事情,暴露了自己,那它就是失败的。

罗布纳奖是一个人工智能竞赛,每年举办一次,评选出最类似人类的电脑程序。比赛采用标准的图灵测试。每轮比赛中,评审与使用电脑的真人及智能机器同时进行文本对话。根据答复决定哪个是真人,哪个是人工智能。早期的罗布纳奖由普通人担任评判,经常被智能机器给骗了。后来,哲学家、电脑工程师、记者等加入评判行列,还是有人被骗。

1992年罗布纳奖评选之后,英国《经济学人》杂志发表了一篇文章《人工愚蠢》,认为此奖胜出者成功的一个原因就是能够部分“模仿人的打字错误”。太完美的机器人一下就能被识破,因此需要故意留下“破绽”。图灵本人也认为,编程时在输出的结果中添加一些错误,才能成为更好的“游戏者”。

在钢琴表演中,机器人特奥正是因为“太完美”,才暴露了自己。不过,坐在台下的观众是很容易被骗过的,而郎朗谙熟这首曲子,能听出钢琴少年的“破绽”。但是,如果特奥的制作者也给它设计一两个小失误呢?

其实一切仿真品都多少需要一点“不完美”的处理,例如,仿冒古董不能太完美,有些恰到好处的不完美才是真完美。学生抄袭作文有时会故意留下一些“破绽”,作为障眼法,因为这样比较容易蒙混过关。那些没有经过适当处理或难以处理的造假则让人一眼便能识别。

如果特奥要充分模仿人类,就不仅要模仿人的智能,也要模仿人的非智能。图灵测试要求机器全面而不只是部分地像人的行为,而人类有许多非智能行为,如冲动时说谎、说话口吃、习惯性的“这个这个”、敲键盘时打错字母,钢琴演奏的失误也属非智能行为。有时,图灵测试还会测试这些非智能行為,如,受到侮辱时会不会发怒。

于是有了一个问题,为了模仿真人,骗过测试者,该添加多少以及什么样的错误呢?机器该模仿哪种真人呢,天才、平庸者,还是傻子?因此,货真价实的“仿真人”会是一个悖论,就算人工智能机器能惟妙惟肖地模仿傻子,又有谁需要这样的智能机器呢?但是,从仿真智能的角度来看,模仿傻子却是了不起的技术成就,因为高智能不是问题,难的反倒是如何自然而然地犯傻。这更需要开发者的高度智能。

对习惯在假面社会里生活的人们来说,难得糊涂是一种懂得伪装的生存智慧。本来不傻、不蠢的人非常逼真地装傻、装蠢,以此作为必要的生存之道。一般人只要能克服开始假装或伪装的心理障碍,稍加练习,很快就能得心应手。这种以假为真,适应环境、融入环境的能力算得上是人类的上乘智能。倘若机器能表演这样的人工愚蠢,一定比演奏钢琴还要精彩。

赞 (4)