霍金:别开发杀手机器人

发布者:天津包子 | 2015-07-29 09:31:26 | 来源:世界日报

【星网专讯】现今科技中,最先进的无人机亦需人类输入指令,懂得自动选择并攻击目标的杀手机器人一直只是电影情节。 不过,英国著名物理学家霍金(Stephen Hawking)、苹果共同创办人沃兹尼克(Steve Wozniak)等顶尖科技领导者周一发表连署函,指这类拥有人工智慧(Artificial Intelligence,简称AI)的自主性武器,将在数十年内成真,担心这类武器若落入恐怖分子或独裁者手中,随时出现AI大屠杀人类的情景,呼吁国际社会禁绝AI武器。

人工智慧国际联合会议周一在阿根廷布宜诺斯艾利斯举行,逾千名AI及机器人专家在会前发表连署函,呼吁禁绝不用人类干预、便可自行选择及攻击目标的自主性武器。

霍金担心杀手机器人若落入恐怖分子手中,随时可能出现大屠杀,呼吁国际社会禁绝。 (路透)
霍金担心杀手机器人若落入恐怖分子手中,随时可能出现大屠杀,呼吁国际社会禁绝。 (路透)

连署函指,自主性武器只需再过数十年便成真,而非过往想像的数百年,是继火药及核武后的第三次战争革命。 虽然它们可减少士兵伤亡,但同时令爆发战争的门槛降低。 由于研发成本及难度低,军事大国要大规模生产它们易如反掌,且将无可避免触发一场AI军事竞赛。 在这情况下,AI武器将如现今AK-47步枪般流通全球。

虽然部分偏好「杀手机器人」的评论人士辩称,在战场上使用机器人反而可以拯救生命,不过专家认为,「AI武器流入黑市及落入恐怖分子手中只是时间问题」。 连署函认为,独裁者及军阀可利用AI武器进行种族清洗及控制国民,甚或用于暗杀及破坏别国稳定;因此,AI军事竞赛对人类无益,「有多种方法凭AI令人类在战场上更安全,而不应用AI研究新的杀人武器」。

连署函最后写道,AI研究员无意将研究结果用于军事用途,不希望其研究会令人类反感,使之未能享受到AI的正面影响。 他们认为,AI在很多方面上对人类有贡献,国际社会理应禁绝不受人类控制、用作攻击的自主性武器。