新浪新闻客户端

AI应该比人类更道德吗?

AI应该比人类更道德吗?
2018年06月22日 11:34 中国新闻网
缩小字体 放大字体 收藏 微博 微信 0

  《中国新闻周刊》记者/霍思伊

  AI的人格——第一次被这个主题吸引,是看到Siri的“人格设计师”Mariana Lin写的一段话:“AI 的存在,不是为了满足人类的一切需求或复制人类的存在。我们可以且应该期待AI帮助人类前行,并为人类作出更好的示范。想想那些人类历来就不太擅长的品质:同情心、耐心、弥合分歧与误解……我们应当设想未来AI能够在这些方面弥补人类。”

  这听起来难度不小。在现阶段,人工智能与人类智能的最大差别是:人工不会产生自我认知,更不会有价值和道德判断。近些年大火的机器学习虽然是基于对人类神经网络的模仿,但即使对人类自身而言,神经信号的传导,为何会使人类产生情感和非理性?这依然是未解之谜,更谈不上让机器“学习”。

  那么,如果AI自身没有办法产生道德,如何让它来弥补所谓“不道德”的缺陷?以AI语音助手为例,目前采取的惯用做法是由人工在后台进行标注,将不道德的对话进行“清洗”,让AI逐渐通过学习,自我进化出看起来比较“高尚”的人格。比如,如果你要杀人,它会告诉你不要这么做,以及杀人会产生的相应后果。这些答案可能是专门的“人格设计师”写成,也可能是后台编辑在网络上筛选出“最合适”的回答。如果一个潜在的凶手在和AI对话后,打消了自己的念头,只能说明他的人类同胞劝住了他,可能是利用法律进行规训,可能是从感情上和他产生共鸣。

  只有“人性”才能理解“人性”,和AI无关。所以从某种角度来说,AI的人格其实是个伪命题。

  现在市面上的各种语音助手,无论是小冰的可爱体贴,还是Siri 的古灵精怪,或者是“谷歌助手”的友善包容,都只是表层的性格特点。而人格中最核心的是价值观,包括道德判断,感性和理性的平衡,对哲学命题的思考,对自身和宇宙关系的认知和构建等。每个人的价值观一定是独特的,不完美的,甚至偏执的。

  60年前,美国作家艾萨克·阿西莫夫写道:“机器人应该具有人类所有高尚的品质。”未来,即便AI有了自我推理和学习的能力,产生了自己的“思想”,它可能也不会在乎人类的道德,更不需要高尚。

  因为它毕竟不是人类。

  《中国新闻周刊》2018年第23期

  声明:刊用《中国新闻周刊》稿件务经书面授权

道德人类人格
新浪新闻公众号
新浪军事公众号

更多猛料!欢迎扫描左方二维码关注新浪军事官方微信(sinamilnews)

新浪军事意见反馈留言板 400-690-0000 欢迎批评指正

违法和不良信息举报电话:010-62675637
举报邮箱:jubao@vip.sina.com

Copyright © 1996-2017 SINA Corporation

All Rights Reserved 新浪公司 版权所有