编辑:
2015-10-23
这一类机器人致人死亡的事情,实际并不算罕见,比如本文开头提到的这起事故。理由也很简单,任何人类制造出来的东西,都不可能100%地确保不出故障;而越是功能复杂、制造精密的系统,发生故障的概率就越难降低。回想一下,这些年人类发射的无人航天器,从菲莱、玉兔到新视野号,尽管都代表了当时最先进的科学技术,但多多少少都有掉过链子。
机器出了故障就有可能对人类造成伤害,人类能做的只能是尽量降低故障率,加强安全防护,却不能因噎废食,放弃机器人的运用。全世界范围内,因为汽车出现故障而致人类死亡的案例每天、每小时甚至每分钟都在发生,但汽车依旧是人类最青睐的机器;同理,我们也没有必要对机器人苛求永不犯错。
尽管从理论上说,第二种机器人完全可能以“自主的决定”去杀害人类,但令人宽慰的是,囿于科技的发展水平,目前世界上还没有造出一种和人类能力接近的人工智能(AI),所以我们暂时还不用担心这事。
但是,还有一类介于这两者之间的机器人,还真的可能会成为人类的杀手,那就所谓的战争机器人(killer robot)。
目前大家所熟悉的“掠食者”无人机,本质就是战争机器人,但它依然属于我们说的第一类机器人,导弹要锁定谁、要不要发射都是由坐在基地里的人类遥控决定的。然而,一些国家已经在研制自动化程度更高的战斗机器人,允许它们在战场上自主寻找、选择目标,再自己决定是否开火。显然,这类机器人如果出现故障或者误判,后果会比工厂里的焊接机器人严重得多。今年3月,联合国秘书长潘基文先生曾公开呼吁各国停止此类研究,但似乎收效甚微
如何预防?
可以预见的是,制造机器人的科学技术仍会不断发展,而人类对于机器人的运用也会越来越广泛,无论是居家生活、工业生产中都是如此。比如,谷歌公司一直在研究的无人驾驶汽车,或许数年之后就会行驶在马路上。
因此,如何尽量避免“机器杀人”的危险出现,就是一个很有现实意义的问题了。
对于第一种机器人(也就是目前使用的机器人)而言,除了在设计、调试时更加谨慎之外,最实际的措施就是减少人类和机器人直接接触的机会。对于有固定工作地点的机器人(比如流水线上的机器臂),可以设置物理隔离并划定危险区域,禁止无关人员靠近;对于能自主走动的机器人(比如扫地、送外卖的机器人),则可以加装规避装置,让它和人类时刻保持安全距离。此外,给每台机器人加装操作简便的“红色按钮”,确保在它出现错误动作时,人类能够一键关停。
对于第二种机器人(具有自主思维能力的AI机器人),实际上并没有确切的预防方法,因为谁也不知道真正的人工智能将会如何思考、如何学习,如何理解人类的情感?一种可能的思路是,按照科幻小说作家阿西莫夫提出的“机器人三定律”来制约人工智能,将“机器人不得伤害人类”、“不能眼见人类处于危险而袖手旁观”原则贯穿整个开发工作的始终,“从小开始”培养智能机器人对于人类的服从与善意。
精选优秀读者文章是不是对同学们有所帮助呢?希望同学们认真阅读,祝大家学业有成。
相关推荐:
标签:读者
威廉希尔app (51edu.com)在建设过程中引用了互联网上的一些信息资源并对有明确来源的信息注明了出处,版权归原作者及原网站所有,如果您对本站信息资源版权的归属问题存有异议,请您致信qinquan#51edu.com(将#换成@),我们会立即做出答复并及时解决。如果您认为本站有侵犯您权益的行为,请通知我们,我们一定根据实际情况及时处理。