转换到繁體中文

您的位置 : 首页 > 报刊   

[新知博览]机器人:人类能相信你吗
作者:佚 名

《意林》 2006年 第17期

  多个检索词,请用空格间隔。
       2004年的好莱坞科幻大片《我,机器人》讲述了这样的故事:公元2035年,智能型机器人已被人类广泛利用。作为最好的生产工具和人类伙伴,机器人在各个领域扮演着日益重要的角色,而由于众所周知的机器人“三大安全法则”的限制,人类对这些能够胜任各种工作且毫无怨言的伙伴充满信任,它们中的很多甚至已经成为一个家庭的组成成员。就在此时,一起“机器人犯罪”事件意外地发生了,“机器人之父”阿尔弗莱德·朗宁博士在办公室被机器人杀害。
       虽然这只是一个虚拟的故事,但随着现代科技的日益发达,当机器人逐渐进入我们的家庭和办公室时,必须保证它们不会伤害人类。但是,怎样才能做到这一点呢?
       1981年在日本川崎,37岁的工厂工人KenjiUrada跨过安全防护栏试图维修一部机器。在匆忙中,他没有关好开关。由于机器人没有任何感观系统,水压臂仍继续工作,并把他抛进一个碾磨机内。Urada成为第一个有记录的机器人受害者。
       如果机器人的所有行为都能遵循“三大安全法则”,这则耸人听闻的工伤事件便不会发生。美国科幻小说家艾萨克·阿西莫夫于1950年发表了一本有关机器人的短篇小说集,在书中他创造了“三法则”。尽管几十年过去了,书中所说的防止机器人伤害人类的方法,仍无法实现。
       机器人安全成为各国关注焦点
       虽然安全机制确实有所进步,但机器人伤人事件自1981年以来却有增无减。多年来,一直有人的躯体被粉碎,头部被重击、被焊接,甚至被融化的铝水浇满全身等事故发生。据英国健康安全署报道,去年单是英国就有77起与机器人相关的工伤事件。
       现在,机器人已逐渐从工厂进入了家庭和办公室,机器人专家们决定共同商讨让人类免受机器人伤害的办法。在意大利热那亚会晤过的机器人伦理学家们,在西西里巴勒摩欧洲机器人座谈会上,宣读了他们初步的研究发现。
       “保障和安全,成为讨论的焦点。”机器人伦理团体发起组织人、瑞典皇家科学院欧洲机器人网络组织主席亨瑞克·克里斯汀森如是说。
       能够“粉碎”人的强有力的机器人,是否应该被获准进入家庭呢?尽管已违背了《日内瓦公约》,“系统故障”是否只是机器人向手无寸铁的平民开火的借口?
       克里斯汀森博士称,尽管这些问题现在看起来深奥难解,但数年后它们将与我们息息相关。
       据联合国经济委员会的欧洲世界机器人技术调查,2002年,家庭服务型机器人数量翻了3番,几乎和工业用机器人数量相匹敌。2003年末,全球使用了超过60万台的机器人吸尘器和割草机,明年这个数字预计达到400万。
       日本工业企业正紧锣密鼓地制造“类人机器人”。韩国也设定了目标,要在2020年使全国100%的家庭使用机器人。有鉴于此,克里斯汀森博士认为,我们必须要开始考虑制定机器人安全和伦理规则。
       高科技并不能保证100%的安全
       那么我们现在为保护自己免受机器人威胁,都做了些什么呢?“我们做的还远远不够。”英国苏赛克斯大学人工智能学专家布雷·怀特说。但是,情况正有所改观。研发人员正投入更大的精力制作更安全的机器人。一个研究方向就是,如何设定程序,使机器人不能和人类进行直接接触。
       这听起来简单,但做起来很难。让机器人在堆满杂物的家中走动已不容易了,还要让它考虑如何绕过突如其来的手臂和狗尾巴,更是难上加难。
       意大利热那亚智能自动化学院的机器人专家杰马克·瓦鲁基说,规范机器人行为在未来会越来越困难,因为越来越多的自我学习机制被植入机器人中。所以,机器人的行为将不能被完全预测,因为它们不会总按照既定程序来完成使命,而会学习新的技能。
       所以这将可能导致一些不可预知的危险。当一个机器人在进行心脏手术,或者倒一杯滚烫的咖啡给你时,突然失灵了怎么办?日本东京大学机器人专家、日本科技促进会顾问HirochikaInoue博士说:“通过高科技无法做到100%的安全。”这是因为,不管你准备得多么完善,人类的行为不可预知。
       机器人伤人谁承担法律责任
       阿西莫夫的“三法则”如何实行?怀特博士说,这只是虚构的法则,也许永远不能在现实中实行。不仅如此,这些法则还需要机器人有一定的人工智能,而这恰巧是机器人所缺乏的。
       在任何情况下,Inoue博士说,这些法则只是武断地把一些常识性原则,植入现代电器设计中。这些家庭或工业机器本来已具有这些特性。每个烤面包机、割草机和移动电话都被设计成只能产生最小化伤害的机器。但是仍有人被电击、被切了手指,或不小心摔出窗外。至少,机器人必须能够严谨地达到安全的最低标准。问题是,是否需要规范机器人的具体规则?如果答案是肯定的,那需要做些什么?
       “确定机器人的安全性非常关键。”已生产了200万台家庭清洁型机器人的iRobot公司负责人科林·安吉如是说。
       “当一部自动地毯扫帚弄伤一个婴儿时,应该去责怪谁?”南丹麦大学的约翰·哈蓝姆教授说。如果全自动机器人可以不断地自我学习,它的设计者是否应当承担全部责任?尽管今天看来答案是肯定的,但愈智能化的机器人,将会使答案越来越不确定。
       “现在,没有保险公司能替机器人保险。”Inoue博士说。但这种情况会改变。上个月,日本贸易工业局宣布了一系列家用及办公室机器人安全条例:这些机器人必须具备感应器,能够避免撞到人;它们必须由软且轻的材料制成,以防万一发生碰撞事件;它们必须具备紧急关闭按钮。
       但是,如果你认为能够自我学习的万能机器人将会大行其道就错了,安吉先生相信机器人只会被做成相对蠢笨的机器,来对付不同的任务,并不会出现一个人性化的机器人女佣。
       参考资料
       机器人三大法则
       一、机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。
       二、除非违背第一法则,机器人必须服从人类的命令。
       三、在不违背第一法则及第二法则的情况下,机器人必须保护自己。
       (林文东摘自《青年参考》)