据 dezeen 报道,机器人领域 50 多名顶尖专家呼吁抵制韩国科学技术研究院(下文简称 KAIST),因为他们担心 KAIST 与国防制造商韩华公司之间的合作会加速自动化武器,也就是“杀手机器人”的发展。
图片/dezzen
KAIST 曾与韩华公司在 2 月 20 日达成合作,建立了 KAIST 国防与人工智能融合研究中心。据 Science 报道,该中心主要从事人工智能决策系统的开发,并将其用于飞机训练、追踪识别等技术。
但专家们认为,该研究可能会被应用于自动化武器的研发,其中包括无人驾驶飞机、潜艇、巡航导弹,甚至是战场上的“杀手机器人”。因此,KAIST 与韩华公司的合作会加速军备竞赛和 AI 武器的制造,甚至还可能引发继火药、核武器之后的“第三次战争革命”。
声明中说:“它们会让战争的速度更快,规模也更大。” “他们有可能被恐怖分子利用对抗无辜民众,消除任何道德限制。如果潘多拉盒子被打开,它将很难关闭”。
为此,他们以强硬态度抗议 KAIST 的这一行为:“我们将抵制所有与 KAIST 任何部门的合作,直到 KAIST 的总裁提供保证,该中心不会开发缺乏人类控制的自动化武器”。
但 KAIST 在几小时后否定了这种说法,并回复说:KAIST 不打算参与开发致命的自主军事系统和杀手机器人,“我们很清楚应用包括 AI 技术时的道德界限”。
不可否认的是,自动化应用对军事渗入愈加明显:据 TIME 称,中国在两年前已在海、陆、空各个领域测试了无人技术;韩国也在 12 月宣布开发应用于战争的无人机群;以色列目前已具备自主式武器,可以在没有人类指挥的情况下俯冲轰炸雷达信号。
它得出的结论是:世界上强大的国家已开始秘密的军备竞赛,而监管机构动作落后。
与此同时,人类与机器间的决策界限也在被广泛讨论。对于自动化趋势,即使掌握了先进技术的国家对日后发展方向也并不明晰。
新美国安全中心的 Paul Scharre 在接受 Science 采访时表示:”许多国家,特别是机器人领域的领先开发商,对于他们自主权要走多远的规划其实非常模糊。人与机器之间决策权的界限在哪里? 我们是否愿意将致命的权力委托给这些机器呢?”