中共招募高中生研发杀手机器人引发争议

中共招募高中生研发杀手机器人引发争议

中共正在招募31名「最聪明」的高中生,让他们接受培训,成为研发人工智慧(AI)武器杀手的全球最年轻AI武器科学家。此举引发国际争议担忧。

AI武器,一些人称作「杀手机器人」(killerrobots),通常指的是致命的自主武器,可以在没有人类参与的情况下,选择和销毁人类目标。因背后涉及的道德问题,这种武器一直备受争议。

《南华早报》报导,被选入北京理工大学(BIT)人工智慧武器实验班的31名高中生均不满18岁,是从5000多名候选人中选出。

根据中共国防部网站的信息,BIT隶属于国防科学技术工业委员会,是中共建政以来重点建设的高校之一,也是首批进入「211工程」和「985工程」建设行列的高校之一。其前身是创办于1940年的延安自然科学院,是中国共产党创办的第一所理工科大学。BIT是中共国防科学技术研究的重要基地之一,也是中共高级武器研究机构之一。

报导称,通过选拔的学生不仅要头脑聪明,「爱国水平」也是重要的考察标準。

「这些孩子都异常聪明,但光聪明还不够,」一名参与筛选的北理大教授透露,这些孩子还要有其它的品质如「创造性思维、勇于斗争,面临挑战不退缩」,开发新武器的热情也是必须的,他们还必须是「爱国者」。

根据该项目手册,每位学生将被分配两名资深武器科学家,其中一人拥有学术背景,另一人则来自国防业领域。

在完成4年课程后,研究所希望这些学生将会继续博士课程,最终成为中国人工智慧武器工程的下一代领军人物。

《南华早报》说,中共正在致力于开发致命的人工智慧应用,从装有自学能力晶元的核潜艇到可以爬入人体血管的微型机器人。

中共培养未成年学生研究AI武器惹担忧

中国是联合国中支持禁止致命自主武器系统的26个国家之一。中共官媒《环球时报》网站在今年9月曾发文称,中共还呼吁制定一项新的常规武器公约,「禁止使用完全自主的武器系统」。

如今,中共通过BIT大学招募高中生研究AI武器的举动,令国际专家学者对中共在自主武器的真正立场表示怀疑。

麻省理工的特马克(MaxTegmark)教授指出,中国是支持联合国禁止致命的自主武器系统的第一个大国,如果BIT大学的这个高中生项目开发这种武器,那将是一个耻辱。

《南华早报》援引位于纽约的联合国大学政策研究中心新兴网路技术学者鲍威尔斯(EleonorePauwels)的话说,她对中共的这个项目表示担忧:「这是全球首个大学项目,旨在积极地,战略性地鼓动下一代去思考、设计并将AI用于军事科研和使用。」

中共这一项目似乎更侧重于培训下一代学生将AI武器化,鲍威尔斯说,这极度令人不安。学生将设计AI作为一种学习的动力或者是将能自学的、智能的和自动化系统武器化。

鲍威尔斯说,这些知识还可以与其它新的现有技术如生物技术,量子计算,纳米技术和机器人技术结合使用,这将「对安全和军事霸权产生重大影响」。「机器人蜂群能够在食品和生物技术供应链中输送有害毒素。」

鲍威尔斯认为,通过这些课程,学生们开始思考将AI和遗传学系统相结合来设计和部署强大的武器组合,这些武器可以如手术般精準地瞄準特定群体。

「(它)也可能导致新形式的战争,从高度複杂的自动化网路攻击到所谓的『战争物联网』(internetofBattleThings),其中一系列机器人和感测器在防御、进攻和情报收集中发挥作用。」

中共AI国家战略建立在军民融合理论基础上

《南华早报》说,事实上,AI为中共提供过了一个新的安全武器库。其目标是将技术进步作为实现其成为全球领导者目标的一种方式。

更引人注意的是,鲍威尔斯说,「事实上,中国(共)的AI国家战略是建立在军民融合理论的基础上,这意味着一个军事用途的AI原型机可以被用在民用环境中进行监视或製造伤害」。

加州大学伯克利分校智能系统中心主任拉塞尔(StuartRussell)将中共的BIT大学项目描述为「一个非常糟糕的想法」。

「永远都不应该允许机器来决定杀人。这样的武器很快成为大规模杀伤性武器。而且,它们也增加了战争的可能性。」拉塞尔说,「追求致命性自主武器的开发,将会严重危害到国际、国家、地方及个人的安全。」

他补充说,希望所有这些中国学生在开始课程之前观看「杀手机器人」(Slaughterbots)影片。

该影片描绘了一个令人不安的未来,成群的低成本无人机可以藉助人工智慧技术,如面部识别来屠杀人类。《科技新报》说,影片中的迷你机器人功能具备常见的内建相机、感应器及脸部辨识功能,它还装了3克重的成型炸药(shapedexplosive)。这个杀手机器人瞬间飞向展示用的假人、执行脸部辨识、扣下扳机,只用不到3秒的时间就完成这项刺杀任务。

全球AI专家联署呼吁禁止开发致命自主武器

事实上,全球很多科学家对于发展「有思考能力的杀人机器」(即AI武器)可能给世界带来毁灭性灾难深感忧惧。专家强调,所有机器人武器应该具有「有意义的人类控制」水平。

据「生命未来研究所」(FutureofLifeInstitute)报导,就在今年7月,来自全球的AI专家们联合签署了一份《致命性自主武器宣言》,承诺「既不参与也不支持致命自主武器的开发,製造,交易或使用」。

「致命性自主武器宣言」截图。(「生命未来研究所」网站)

签署者包括来自36个国家的160多个AI相关公司和组织,以及来自90个国家的2400名专家,包括谷歌DeepMind、伦敦大学学院、SpaceX的创办者马斯克等。

这次活动由「生命未来研究所」主席、麻省理工教授特马克发起。他说:「自主决定杀人的AI武器就像生化武器一样令人厌恶和不安,我们应该以对待生化武器的方式来处理自主武器。」

该宣言的另外一位关键组织者、悉尼新南威尔士大学人工智慧科学教授瓦尔斯(TobyWalsh)指出了这一自主武器背后存在的道德问题。他说,掌控人类个体生死的决定权,决不能交给机器。它们不具备这样的道德。

美国之音说,北京理工大学的智能武器系统实验班的设立也许是中共不会放弃「中国製造2025」的一个例证。