Half the truth is often a great lie.

智能武器是人类的福祉还是灾难?

军事 rock 12513℃ 0评论

应对智能武器失控的措施

未来高度智能化的机器,可能为人类带来巨大福祉,也可能为人类带来灭顶之灾,人类即将进入历史上可能最好也可能最坏的时代。对于高度智能化的武器会不会成为“人类终结者”,人们或许还存在分歧,但对于必须采取各种措施限制和避免智能武器滥用武力这一点,各方意见高度一致。

著名科幻小说家艾萨克·阿西莫夫1940年在其经典小说《我,机器人》中,首先提出了“机器人三原则”,即:机器人不应伤害人类;机器人必须听从人类的命令,除非该命令与第一定律相悖;机器人必须保护自己,除非这种保护与以上两条相矛盾。“机器人三原则”虽然有预见性地制定了机器人与人类相处的基本准则,但主要适应于民用的服务型机器人,如果应用到战斗机器人身上,还需要做很大的修改才能适应。例如,战斗机器人应该在达成作战目的的前提下,以最小伤害程度杀伤敌人,能不夺人性命解决问题就不要使用致命性武器;战斗机器人必须坚决听从己方指令去消灭敌人,不能听从敌方指令,或受外部环境干扰而改变己方指令;战斗机器人必须保护自己,但接到己方要求其自毁指令时除外。为努力做到上述几点,始终把智能武器关在人类“控制圈”内,研究人员还真想出了不少点子。

首要和保底的手段,就是在智能武器中嵌入独立于其自身控制系统的自毁模块。在智能武器走出生产线即将正式启动之前,就要设置好这种“后门”式的自毁模块。一旦智能武器失去控制,人类可以不受外部环境或智能武器自身干扰,实时启动自毁程序,实现智能武器不可逆转的彻底死机或主机殉爆。这一办法,对于“低智商”的智能武器是可行的。将来一旦出现更加“聪明”的智能武器,能够“意识”到这一自毁模块的存在,它可能就会想方设法地去除或干扰自毁模块,因此必须确保自毁模块的隐蔽性和可靠性。

在智能武器控制软件中加入伦理控制程序。智能武器的指挥控制中枢是电脑,而电脑的“智商”全靠预编软件来实现,在智能武器控制软件中加入伦理控制程序来限制智能武器的行为,从理论上讲,可以避免其“胡来”。美国佐治亚理工学院移动机器人实验室的罗纳德·阿金,设计了名为“潜在行动的多维数学决策空间”的控制程序,作为战斗机器人的“道德适配器”。这套融合了人类悔恨、同情、内疚等情绪的控制程序,将机器人携带的武器系统根据杀伤力分组,每组武器都有特定的愧疚临界值。“道德适配器”可根据传感器接收到的数据和情报,把机器人所有可能的行动分为“道德的”和“不道德的”两种,并根据需要选择适当的武器系统。机器人在使用大威力武器前,必须经过“道德适配器”的审核,只有当使用武器的愧疚临界值低于标准值才可使用。这一设计思路很好,但问题的难点不是以何种愧疚临界值来控制何种杀伤力的武器,而是如何精确判断当前事态的愧疚临界值,既不能因临界值设置过小造成毁伤不够而达不成作战目的,又不能因临界值设置过大而造成不必要的过度杀伤。在瞬息万变的交战态势中,要做到这一点,人类士兵都很难,战斗机器人恐怕更难。

2014年9月2日,在英国召开的“迈向自主机器人系统”会议上,英国布里斯托尔机器人实验室的机器人专家温菲尔德,演示了一个关于机器人伦理道德的试验,他为机器人设定了一个阻止其他拟人机器人掉进洞里的程序。当一个拟人机器人向洞口移动时,救人机器人可冲上前去将其推开,但当两个拟人机器人同时向洞口移动时,救人机器人就因为“选择”先救谁而陷入困境,有时他救起了一个,另一个掉进洞里;有时他两个都想救。在33次测试中有14次因为不知道救哪一个而浪费了时间,以至于两个“人”都掉进了洞里。温菲尔德认为,虽然根据设定的行为程序,它可以对他人施救,但它根本不理解这种行为背后的原因,因此他的机器人是“道德僵尸”。温菲尔德的试验证明,要给机器人赋予“道德感”是比较困难的。

精确选择智能武器的目标打击部位。2006年,美国国防部长办公室下属机构——国防安全工作小组,研究讨论了如何通过允许“武装自主系统”“开火摧毁敌方武器系统而非疑似作战人员”的做法,以减轻人们对潜在“机器人杀手”的种种担忧。换言之,机器人应该朝坦克或吉普车开火,而不是朝里面的人开火。约翰·S·坎宁是美国海军水面作战中心的首席工程师,也是该小组成员之一。他说:“我们的武装无人系统的设计,要能自动识别、瞄准我们的敌人所用的武器,并能使武器而不是使用这些武器的敌人失效或者遭到摧毁。这样,我们就有可能解除对我们构成威胁的部队的武装,却不必杀死相关人员。”随着人工智能的发展,电脑的模式识别能力将有极大提高,智能武器完全可以把单独的武器和作战人员区分开来。

“打武器不打人”这一做法,对于作战目标是无人武器的情况确实可行,但作战目标是载人武器平台时,实际操作起来会大大增加作战难度。例如,要想把坦克打瘫,又要保证里面的乘员毫发无损,打履带是最好的办法,但打履带对打击时机、打击角度、打击手段等方面的要求都比较苛刻,在“发现即摧毁”的未来战争中,一味强调打履带可能会导致延误战机。根据以往的实际作战经验,对于“人装合一”的敌方目标,即使智能武器能够精心选择目标打击部位,附带损伤也是在所难免的。

只给智能武器配备非致命性武器。把杀人武器交到机器人手中始终让人不放心,因此有人认为,如果要给机器人配备武器,那也应该配备非致命性武器。这些武器不是用来摧毁或者杀戮,而是用来让目标失去战斗力但并不对其造成永久性伤害。正如美国陆军战争学院教授史蒂文·梅茨所讲的那样,“机器人技术和非杀伤性手段,这两者的结合极其重要。这样,你可以命令系统只是制服目标,剩下的事情交给警察,而不是‘将目标全部杀死,后事交由上帝处理’。”这一办法应该说是完全可行的,未来战争中失能性武器的可选择范围很大,对人员可使用“控脑武器”“呕吐射线”武器、次生波武器、被称为“痛苦射线”的定向能“主动拒止系统”、网罩武器,甚至发射橡皮子弹的警用武器等非致命性武器,对装备可使用电磁脉冲武器、网络攻击武器、高功率微波武器、致发动机熄火的阻燃泡沫弹等非爆炸性武器。从某种意义上说,新机理、新概念武器为智能武器的失控问题提供了很好的解决方案。

文/袁艺 原载于《军事文摘》杂志2015年第11期

转载请注明:北纬40° » 智能武器是人类的福祉还是灾难?

喜欢 (0)or分享 (0)
发表我的评论
取消评论
表情