人工智能有多可怕:美爱国者导弹曾失误击落2架友机

2017年06月12日 16:39 新浪军事 微博
微博 微信 空间 分享 添加喜爱

  新浪军事编者:为了更好的为读者呈现多样军事内容,满足读者不同阅读需求,共同探讨国内国际战略动态,新浪军事独家推出《深度军情》版块,深度解读军事新闻背后的隐藏态势,立体呈现中国面临的复杂军事战略环境,欢迎关注。

  科幻小说常常警示我们,要畏惧那些我们无法掌控的智能机械。事实上,我们真正需要害怕的,是那些需要我们控制但我们还没能力把握的智能机器。

  从爱国者导弹到特斯拉汽车,再到Airbus喷气式飞机,自动化系统如今已造成不少人员伤亡。它们并没有恶意,只是在灾难到来之前,我们没能及时把设备从“被动监控”切换到“主动控制”而已。

  究竟什么时候该提起警惕?有时候,一天里有23小时59分钟都是无需在意的,唯独那么1分钟是致命的关键。2003年,自动化的爱国者导弹防御系统出现失误,击落了两架友机。这一切发生的太快,以至于我们还没来得及阻止,就已经结束了。

  资料图:美军F-18坠毁照片

 

  2009年,法国航空447号航班由里约热内卢飞往巴黎。一名年轻的副驾驶正操控着飞行设备,机长这时将飞机交给自动化驾驶系统,并把位置让给了另一位年长的副驾驶,准备稍微打个盹。突然,空速指示器被冻住了。这原本只是一个小故障,但它导致了自动驾驶仪数据的缺失,人工智能系统继而陷入“两眼一抹黑”的境地。

  于是,自动驾驶系统脱轨了,并将指挥棒立马交回驾驶员手中。由于切换来的突如其来,驾驶员们甚至还没做好准备。各种警报声响起,恐慌不断弥漫,驾驶员来不及判断究竟发生了什么,更没意识到他们此时的大脑空白将引发怎样的后果。直到飞机失速、坠落并消失于汪洋大海,驾驶员们都没能找出正确的应对措施。

  最终,447号航班上的228人无一幸免。这是自动驾驶系统的错么?但系统完全是按照设定程序运作的。这是驾驶员的错么?机组人员明显缺乏态势感知,但是,当一个人连续几个小时都处于休息状态时,我们又如何能期待他高效地解决突发危机?

  人们总爱通过自动化设备拯救自己的不足,殊不知这是把自己推向了另一个深渊。法航447便是人工智能和人类智慧共同导致的一场灾难,在这次事件中,人们就没能成功接下智能设备递出的指挥棒。除此之外,还有一种情况也会产生难以想象的后果,那就是自动化系统没有在必要时候卸下控制权,而人类也反应迟钝地听从设备的安排。

  打个比方,最近新出的步枪自动瞄准系统能帮助士兵成功击中目标,然而,一旦系统失去控制,我们又习惯性地相信瞄准设备的判断,会不会有可能出现误伤甚至误杀的情况呢?

  不要妄想装备人工智能后,就可以不用大脑了。我们是人工智能的主人,不是它们的奴隶。愚蠢的头脑配上高级的自动化系统,只会产生可怕的灾难。我们需要的是相互信任、依赖的人工智能机器。在使用人工智能的同时,我们还得保证人的参与度,保持人的创造性和判断力,这样方能减少犯错的可能性。(作者署名:小飞猪观察)

  本栏目所有文章目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。凡本网注明版权所有的作品,版权均属于新浪网,凡署名作者的,版权则属原作者或出版人所有,未经本网或作者授权不得转载、摘编或利用其它方式使用上述作品。

  新浪军事:最多军迷首选的军事门户!

推荐阅读
聚焦
关闭评论