5月底,联合国人权理事会在瑞士日内瓦开会,紧急叫停美、韩、俄、英、德、日等国各国研发“自动杀人机器人”的军备竞赛。
而在2008年,3台携带武器的“剑”式地面作战机器人,被美军部署到伊拉克后,未开一枪就被撤回来了。因为,它们将枪口对向它们的人类指挥官。
机器人会不会向人类倒戈一击,埋葬我们这个亲手创造出它们、躯体却弱于它们的智慧种族?
自从1950年科幻巨匠阿西莫夫写就《我,机器人》之后,这一直是人类的梦魇之一。从《终结者》、《黑客帝国》、《机械战警》、《太空堡垒卡拉狄加》等影视作品中,我们可以亲眼目睹可能成真的噩梦。
自主的机器人成为战争工具,难以保证不滥杀无辜,很可能会突破人类的伦理、道德底线。
联合国人权理事会特别调查员克里斯多夫海因斯认为,机器人没有感情,不会理解和辨别人类的情感,诸如复仇、惊慌、愤怒、困惑、偏见或者恐惧,并且机器人是无法识别眼前被杀戮者是敌是友。
“而且,机器人无法为自己的行为负责,不应拥有决定人类生死的权力。”
在《我,机器人》中,为了防止机器人反噬人类,阿西莫夫提出了“机器人三定律”:一、机器人不得伤害人,也不得见人受到伤害而袖手旁观;二、机器人应服从人的一切命令,但不得违反第一定律;三、机器人应保护自身的安全,但不得违反第一、第二定律。
“其实,如果武装机器人走上战场,就破坏了‘三定律’中‘不得伤害人’这一天条了。”著名科幻作家、《中国军队》杂志编委韩松说。
事实上,自主的人工智能控制的武器,已经造成了巨大惨案。《军事世界》主编陈虎告诉记者一段历史——“1988年7月3日,游弋在波斯湾的美国海军‘文森斯’号巡洋舰,发现一架伊朗民航的A300客机将飞过其上空。因为舰上防空系统当时处于全自动模式,雷达将客机识别为伊朗空军的F-14战斗机,因此自动发射了‘标准’防空导弹,直接击落客机,机上290人全部遇难,包括60多名12岁以下的儿童。”
事实上,目前还没有一套控制自动系统出错的有效措施。一旦机器人士兵的程序出错,或者被人恶意篡改,很可能造成血流成河的惨剧。
因此,美国海军的研究小组在一份研究报告中,建议为军事机器人设定严格的设计和使用“紧箍咒”,否则整个世界都可能毁于他们的钢铁之手。
闂傚倷绀侀幖顐﹀磹缂佹ɑ娅犳俊銈傚亾妞ゎ偅绻堥、娆撴倷椤掆偓椤庡繘姊洪幐搴㈢叄闁告洘蓱缁傛帒鈽夐姀锛勫弳濠电偞鍨堕悷褔鎮¢鐐寸厵妤犵偛鐏濋悘顏堟煙瀹勭増鍤囩€殿喗鎸抽幃銏ゅ川婵犲啰妲曢梻浣藉吹婵敻宕濋弴鐘电濠电姴娲㈤埀顒€鍊块崺鈩冨閸楃偞璐¢柍褜鍓ㄧ紞鍡樼濠婂牆绀傚┑鐘插绾剧厧霉閿濆娑у┑陇娅g槐鎺楀矗濡搫绁悗瑙勬磸閸斿矁鐏掗梺鍏肩ゴ閺呮粓骞嗛敐鍛傛棃鎮╅棃娑楃捕闂佽绻戠换鍫ョ嵁婢舵劖鏅搁柣妯哄暱閸擃參姊虹化鏇炲⒉婵炲弶绻勭划鍫⑩偓锝庡枟閸嬶綁鏌涢妷鎴濇噹閳敻姊虹紒妯尖棨闁稿海鏁诲顐㈩吋閸涱垱娈曢梺鍛婂姈閸庡啿鈻撻弻銉︹拺闁告稑锕ョ粈鈧梺闈涙处宀h法鍒掗銏犵<婵犻潧瀚Ч妤呮⒑閻熸壆浠㈤悗姘煎枤婢规洟鏁撻敓锟�闂傚倷鑳剁划顖炲礉濡ゅ懎绠犻柟鎹愵嚙閸氳銇勯弮鍥撳ù婧垮€栫换娑㈠箣閻忔椿浜滈锝夊箮閼恒儱浠梺鎼炲劤閸忔ê顬婇鈧弻娑欐償椤栨稑顏�