转换到繁體中文

您的位置 : 首页 > 报刊   

[科学视界]闲话勾勒姆、科学与弗兰肯斯坦(III)
作者:刘华杰

《博览群书》 2002年 第04期

  多个检索词,请用空格间隔。
       
       如《弗兰肯斯坦》1818和捷克斯洛伐克作家卡雷尔·恰佩克(KarelCapek)的《罗萨姆的万能机器人》(R.U.R.=Rossum'sUniversalRobots,1918,1921)所描述的,人造生命似乎注定要异化,要对其创造者发起攻击。文艺作品中对知识、对科学技术的这种悲观的展望,在科学技术得到迅猛发展并产生前所未有的影响之前,早就发生了,而且持续了很长时间。公众更多地是通过文艺作品间接获得科学形象的。将文化作品中的“科学描写”简单地斥之为胡说或者“与真实科学相距甚远”,并不解决问题。科学传播工作者必须正视那些描写,认真研究它们。
       在后现代思想流行的今日,这种科技悲观论的情绪在知识界日益加重。如果任这种思潮或者悲观思想蔓延,民众中的反科学情绪就会不断积聚,对科学的发展产生复杂的影响(有部分积极的影响,更多的是消极的影响)。
       那么是否还有另外一种可能性,即人造生命可以与人类世界和平共处?人类社会已经持续数万年,其间虽然也不断爆发战争,有着残酷的自相杀戮的历史,但在大多数情况下,人类社会在局部上或者在较大的范围内,甚至在整体上,达成一些共识,必须共同遵守着某些行为规则。可否把这种思路应用到人造生命中去呢?
       美籍犹太人艾萨克·阿西莫夫(IsaacAsimov,1920.1.2~1992.4.6)在此方向上有惊人的创举。他既是科学作家又是科幻作家,一生著述数百种,至今无人能够与之相比。用卞毓麟的话说:阿西莫夫著述岂止等身。据初步统计,他一生著述470种,涉及几乎所有学科,其中长篇科幻小说38部,短篇科幻故事集33种,主编科幻故事118集。萨根的评语是:“阿西莫夫是一位文艺复兴时代的巨人,却生活在今天。”
       阿西莫夫回忆,在他出生的那个年代,二十世纪二十年代,科幻小说成为一种大众艺术,但是故事的设计并没有本质的突破,还是笼罩在《弗兰肯斯坦》(1818)和《罗萨姆》的阴影中,即机器人由主人创造出来,最终又毁灭其主人。这一套已经令人厌烦。“知识确实具有危险性,可是,对此的反应就只能是从知识中退却吗?”阿氏从二十岁(1940年)开始撰写机器人的故事,但讲述的是不同的机器人故事。“我的机器人是由工程师设计的机器,而不是由渎神者制造的假人。”为了避免机器人伤害人类这种潜在的危险,阿氏与科幻作家兼编辑坎贝尔(JohnW.Campbell)一同创立“机器人学三定律”。坎贝尔对于扶植阿西莫夫成才帮助甚大,阿氏的许多小说是由坎氏编辑后发表的。阿氏随后的机器人题材的创作,都围绕这三条定律展开,融艺术、科学、伦理、幻想于一体。从今日的眼光看,阿氏的这些作品最大的贡献也许在于对“机器人行为学”及其“人类伦理规律”的研究。
       恰佩克把具有“农奴”含义的捷克词Robota写成了Robot,后来“机器人”一词在英文中都写作robot。阿西莫夫自然延用了robot这个词,并创造了Robotics(机器人学)一词。他写过著名的科幻小说I.Robot.即《我,机器人》。具有悖论意义的是,阿西莫夫以幻想小说的形式使机器人学不再是纯粹的幻想。他的机器人三定律非常简明,自成体系:
       第一:机器人不可伤害人类,或目睹人类将遭受危险而袖手不管。
       第二:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
       第三:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
       这三条定律,1940年首次被提出,在《我,机器人》中一一得到应用和检验。这部小说由《罗比》、《环舞》、《推》、《捉兔记》、《讲假话的家伙》、《捉拿机器人》、《逃避》和《证据》这8个故事组成(也说9个,另一个指《不可避免的冲突》,可能是不同版本所致)。小说的引言一开始就写着这三条定律,并注明“引自《机器人学指南》第56版2058年”的字样。
       《罗比》故事非常简单,述说了机器人罗比为一个小女孩当保姆的事情。女孩的母亲担心孩子与机器人过分亲近,后来父母把机器人送走了,却引起小孩的不满。故事的高潮是,机器人罗比运用第一定律,救了小主人(女孩)的生命。
       《环舞》讲的是考察队员带着机器人到水星上采矿的故事。一个叫斯皮迪的机器人出了故障,只会沿着环形的路线转圈。经过试验和推理,发现斯皮迪的问题出在“行为锁相”,即第二定律与第三定律在特定情况下的结合,导致机器人做出奇怪的动作。在硒矿产地附近存在危险,机器人离产地越近危险越大。按第三定律,机器人内置程序中特别规定必要时逃离危险。可是在去采矿时,人给它下了命令(相当于第二定律),即让它去采矿。在某一特定位置,执行第二定律与第三定律的电势达到平衡,即第三定律使它往回赶,而第二定律使它向前走,于是行动被锁在一个圆圈上。
       工程师最终用一种冒险的方式,即让人处于极度危险状态,迫使斯皮迪执行更重要的第一定律,去救人,从而打破死锁状态。这个故事要比前一个生动得多。
       《捉拿机器人》情节更加巧妙、起伏。有一个叫内斯特的特殊机器人混入62个正常的机器人当中,它的特殊之处在于军方当初设计时没有完整地给它输入机器人学第一定律,即只输入了第一定律的前半部分。这第63个机器人有一种变态的优越感,它面对人们的调查时不断撒谎,令人们无法将它区分出来。这个内斯特倾向于认为它比其他机器人和人类更聪明。最终,机器人心理学女博士卡尔文设计了一个巧妙的实验,找出了内斯特。
       实验的安排如下:告诉每一个机器人,在机器人与卡尔文之间有致命的伽玛射线,如果机器人越过的话必死无疑,但普通机器人无法识别伽玛射线与无害的红外射线。实验开始后,在卡尔文的头顶上方有一重物突然坠下。按照第一定律,所有机器人本应当去救卡尔文,但它们事先被告知,在它们与卡尔文之间有致命射线,即使它们冲过去也无用,会白白死掉,凭理性机器人不会去救卡尔文。当然实验早就做了安排,在最后一刹那,有一根铁棍通过同步的办法突然有力地把重物打到一边,可以确保卡尔文的安全(机器人不知道这一点)。实验的结果是,62个机器人原地没动,只有一个机器人蓦地站起来,向前紧走两步,然后马上停了下来。这个机器人就是要找的那个内斯特。
       原因在于,它与其他机器人不同,它能够识别出人们设置的辐射并非有害的伽玛射线,而是普通的红外辐射。因此,他知道并没有危险,按照第一定律,他必定急于向前救卡尔文。但当它向前冲出时发现其他机器人都没有动,它突然意识到自己犯了一个错误——它想起了其他机器人无法区分不同射线的波长。于是它又停了下来。这个故事说明,机器人定律是不能随便修改的,一旦修改可能导致意想不到的可怕后果,此外它还证明机器人心理学大有用途,人有办法控制机器人。
       《证据》一篇讲的是“机器人嫌疑人”担任区检察官和市长的事。一位名叫奎因的政客想找到政敌拜厄利是机器人的证据,首先指控对方没有在公开场合让大家目睹过他会吃饭或者需要吃饭。“我们的区检察官从来不吃东西!”奎因散布着这样的怀疑。“说得委婉点,是从来没有人看到他吃过什么,或喝过什么。”
       机器人心理学家卡尔文博士另有评论,她认为,一个制作精良的机器人,一定会考虑到吃饭、睡觉、排泄一类小事,不会轻易被人识破。她虽然目睹了拜厄利当众吃下一只苹果,但这不说明任何问题,据此不能说明他是人还是机器人。检验拜厄利的方法有二,一是物理学的方法,另一个是心理学的方法。后者涉及的是他的行为是否符合机器人学三定律,因为如果他是机器人,在装配时已给他输入了那些定律。不过,只有在他违反其中任何一条定律时,才能证明他不是机器人。如果他按照机器人定律行事,他的行为证明不了任何东西。后来拜厄利成功当选市长,并且当众表演了“打人”的把戏,“充分证明”了自己不是机器人,因为按机器人学定律,机器人从来不打人。但是有一种情况例外,当机器人所打的人不是真人时!这是故事的机关,机器人心理学家卡尔文似乎已经洞悉了秘密,但她本人喜欢机器人。
       卡尔文说:“我对它们的热爱远远超过对人们的热爱。如果能制造出一种能担当社会行政长官的机器人的话,那它必定是社会行政长官中的佼佼者。根据机器人学定律,它不会伤害人,一切暴虐、贿赂、愚蠢和偏见与它都将是不相容的。”
       这是一段至少部分正确的、有诱惑力的说明。机器人学三定律并非凭空捏造,它与世界上大多数道德规范的最基本指导原则是高度一致的,或者说就是其逻辑抽象。行为符合这三条定律的人,就是一个高尚的人,他(它)不但爱自己而且爱邻人,甚至为救他人而不惜牺牲自己的生命。我们人类个体很难做到这些,但对于机器人,做到这些并不难,制造当初把它们作为指令输入就是了。另外,对于人类,有德未必有才,德高智低的人担当社会行政高职未必是好事。未来的机器人,可以做到更理性、更聪明,至少比一半人聪明。机器人当某国的国王,确实可以避免民间广为流传的笑话:说“某某是傻瓜”,便犯有“泄露国家机密”罪。在一个官员好吃、好贪、好色的官本位国度,百姓对于拜厄利式的人物担当公职,大概是欢迎的。我们的社会缺少的恰是法律规则和伦理规则,当然不是指纸上的而是指实际运行的。我们的规则都是指向除自己以外的他人的,这并非是说人性天生“坏了坏了”,而是说我们没有一种社会机制使那些明确的法律和道德规则得以有效运行,这便牵涉到元规则,即大环境的约束。
       一位署名speedy的网友曾经这样说:“其实,研究科幻小说中的机器人伦理问题,现实意义主要就在于它其实就是人类自己的伦理问题,反倒和现代机器人技术实践关系不大。人类的道德准则常常得不到普遍认可(道德准则的合理性不能像数学定理一样严格论证),并且其中不乏自相矛盾之处(小说中机器人所面临的道德冲突,其实就是人自己会遇到的冲突)。如果真能提出机器人可以完美实践的道德准则,人类不妨有所借鉴。”我倒是认为两方面的意义都存在。
       从学理的角度,阿氏的三定律还有进一步讨论的必要,难道人类道德规范能够缩减成几条简单的规则?即使做到了,规则之间是相容的吗?机器怎样识别人的指令?当某种机器人在设计时就特意违背规则时,会出现什么可怕的后果?与上一段讨论的相关的问题是,在现实社会中,规则之实施需要有一个讲规则的环境,我们怎样促成那样一种环境?这些问题非常重要,但想取得进展又相当困难。
       早在1950年阿西莫夫就发现需要扩充第一定律,以保护个体的人类,以便最终保护整体的人类。1985年阿西莫夫对原有的三定律进行修订,增加了第零定律,同时修改了其他定律:
       第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
       第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
       第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
       第三:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
       那么这些定律是否足以解释科幻小说中所提到的机器人的所有行为呢?回答是否定的,这意味着其中还有隐含的规则没有说出来。罗杰·克拉克(RogerClarke)在一篇论文中指出,还要增加三条定律:
       元定律(meta-law):“机器人可以什么也不做,除非它的行动符合机器人学定律。”此定律置于第零、第一、第二、第三定律之前。
       第四定律:“机器人必须履行内置程序所赋予的责任,除非这与其他高阶的定律冲突。”
       繁殖定律:“机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。”
       至此,阿西莫夫原来直觉上明显的三定律已经变得到十分复杂,但是,即使如此,要把这些定律实际应用到机器人的设计当中,仍然有许多模糊之处。不过,这并不意味着,阿氏的努力无意义,信息技术工程师们已经在考虑以不同的方式体现阿氏的机器人规则。那些原则不但适用于机器世界,同样它们极好地反映了我们人类世界最一般的伦理原则,它体现了人文主义与平权的思想。
       IEEE计算机学会、计算机器协会(ACM)、大英计算机学会、澳大利亚计算机学会专家们,都十分关注其职业的道德准则,这些准则将包含一部伦理法规(acodeofethics)。虽然这样的法规不可以穷尽所有准则,并且法规也要随时间改变,但是它的核心内容是稳定的。阿氏的科幻探索为工程师们留下了宝贵的财富,当今的若干灾害预警与应对决策、CAD/CAM,EFT/POS,城市交通控制系统,社会经济预警系统等,都直接或者间接涉及这样的伦理法规。
       信息技术与机器人技术日新月异,现在考虑其中的伦理道德问题不算早,考虑其难度,已经有些晚了。这项工作也不能只由某一行当的专家负责,更多行业专家与民众的参与有好处。
       也有人完全不同意我的评论,署名“筋斗云”的网友说:“至少在可见的将来内,计算机的伦理并不存在,因为计算机根本没有思考的能力。如果只是计算机使用的道德问题,就跟其它工具的使用道德是同样的code。问题在人而不在机器。说什么现在已经有些晚了,这只是吓唬人而已,一点实际的意义也没有。”其实这只是个态度问题,计算机或者网络有没有智能?只需看看网上肆虐的计算机病毒就行了。智能是相对的,呈现为连续的谱,不是简单的有或者没有的问题。会做2+3=5,也许不算有智能;能够证明几何定理,大概就不太好界定了;能够进行生产管理控制的复杂计算机系统呢?如果不将“人类”的智能与“单个机器”的所谓“智能”相比,我们就很难再下有无分明的结论了。
       另外一种反对意见是:“须知,机器(哪怕是当前最聪明的机器)都只是人的能力的延伸,这种人工系统所实现的明白无误就是设计者的自身意志(设计者会有失误,比如设计出会死机的程序,但这也是设计者行为的结果。而所有设计者行为都可归结为他的意识和无意识。此外并无奇妙之处)。这种问题和人类有能力制造武器(如刀子)后所引发的关于武器使用的道德问题,没有本质区别。一言以蔽之,这种问题(所谓的机器人伦理问题)本质上就是人自己的伦理问题。这和阿西莫夫机器人定律何干?”(speedy语)我想,持这种见解的人一定不少。机器及机器人无疑是人的肢体或者大脑的延伸,正如原子弹和细菌武器一样,这是从一个方向看问题。但我们关注的却正是“设计”(发明)与“使用”之间不可避免的关联,两者虽然不是一一对应的,却有先后及某种弱因果联系。
       新时代的科技伦理,恰恰强调在最初的研究、探索阶段融入伦理关怀,而不是在事成之后、出了问题之后才回头思考。