除了担心AI抢饭碗,我们还得关心杀手机器人

(6/10)

除了担心AI抢饭碗,我们还得关心杀手机器人

其次,如同所有战争中的武器一样,致命性自主武器系统要运用在战争中,必须符合《日内瓦公约》,即国际人道法。反对者认为,该武器系统违反国际人道法中的“区分原则”,即机器人武器很难做到和人类一样区分平民与战斗员、有战斗能力的战斗员和丧失战斗能力的战斗员(如伤者、病者及战俘),以及作战人员和携带轻武器从事非战斗任务的人员。

在伦理方面,致命性自主武器运用于未来的武装冲突中,这意味着将剥夺自然人生命的权利交给非自然人。有学者认为,这是将人的生命和人格尊严交给机器来判定,不具有平等性,也是对人类生命权以及人格尊严的侮辱。

法律上的责任更是不能忽略。自主武器兼具“战斗员”和“战斗武器”两种角色,如果它违背国际人道法,国际社会将面临如何追究责任的问题,而被追究的主体应该是设计者、制造者、操作者还是机器本身?

今年8月发出的公开信不是伊隆·马斯克等人第一次对致命性自主武器系统提出警示。早在2015年,同样在国际人工智能联合大会上,物理学家斯蒂芬·霍金、苹果联合创始人史蒂夫·沃兹尼亚克等1000多名人工智能领域专家联合谴责人工智能时代的军备竞赛,呼吁禁止自主武器。容易引发军备竞赛、威胁世界和平,是反对者担忧的原因之一。