德媒称联合国欲约束“杀人机器人”发展 至今无果

(2/17)

德媒称联合国欲约束“杀人机器人”发展 至今无果

支持者辩称,它将令军人的危险最小化。但恰恰这点可能会导致门槛的降低并令战争增多——从而导致更多的平民伤亡。人们已经可以在远程操控的无人机的使用中看到这样的发展。

图为美国装备的军用无人机

后果责任谁来承担?

这是与杀人机器人密不可分的一个根本性的伦理问题。合乎伦理和道义的行动,善与恶、对与错的区分,对后果的评估,对自身行为责任的承担,所有这些在未来战争中都不存在。机器人虽然有人工智能,但却没有怜悯或悔恨等情感,它没有任何的愧疚感。对于适度等概念它无从下手。但这却是写在所谓的战争法当中的:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛。必须善待平民、受伤、无作战能力和被俘的军人。专家认为,这是无法编入程序当中的。2013年时,政策专家在给联合国人权委员会的一份报告中就警告说:这些“不知疲倦的战争机器”可能会令武装冲突变成无休止的战争——外交将没有可能来终止专门用来在即便是毫无希望的情况下也继续作战的机器的杀戮。