兵韬志略|人工智能推动军事变革,但面临滥杀无辜等风险

(7/8)

兵韬志略|人工智能推动军事变革,但面临滥杀无辜等风险

但是,随着这些高度智能化武器的不断推广,也会对人类带来诸多风险挑战,并使人类面临技术、信任、法律、道德等一系列问题。例如,智能武器将会使战场的失控程度难以估计。理论上讲,武器的智能化程度越高,其内部电脑控制软件的规模就越庞大且复杂,出现故障的概率也就相应的越高。例如,早在2005年,美国空军的一架战斗机突然自动向地面重要设施发射了一枚导弹,事故原因是飞机的火控系统电脑出了故障。此外,战场上的敌我识别对智能武器而言同样并非易事,伊拉克战争期间美军的导弹系统就曾把己方飞机击落,原因就在于无法准确判断而产生的战场失控。

此外,人工智能技术还将会对战争伦理提出一系列挑战,如人的“机器化”和机器的“人化”是两个必然的发展趋势,会思考的机器人代替人类拼杀是否有悖于传统的战争伦理?如果人工智能武器的智能化超过一定程度,无人作战系统被赋予“生杀大权”,完全由机器替代人作战,那么这群毫无感情、不知疲倦杀人的机器走上战场,会不会滥杀无辜,会不会出现失控,甚至会不会调转枪口成为“人类终结者”等等,这些都是未来军事人工智能技术发展必须思考的问题。

(兵韬志略是由国防科技大学国际关系学院外军研究中心副主任方晓志为澎湃防务栏目开设的个人专栏,盘点一周重大防务事件,评点信息背后暗藏的玄机,剥茧抽丝、拂尘见金,每周一期,不见不散)