作为和平主义者,我为什么不支持禁止“杀伤性机器人”?

原标题:作为和平主义者,我为什么不支持禁止“杀伤性机器人”?

编者按:本文编译自the Guardian原标题为I'm a pacifist, so why don't I support the Campaign to Stop Killer Robots的文章。

禁止杀伤性机器人运动呼吁联合国禁止研发和使用自动武器:无人监控下识别,追踪和攻击目标的自动武器。该运动组织者与一些著名AI研究员共同制作了一个轰动的视频,并于周一发布。 视频向我们展现了广泛使用自动武器所带来的反乌托邦式的未来。

我很高兴看到我的同事正在努力确保AI技术应用于有益于人类社会的领域。 但是,我深刻怀疑这种止于形式的运动是否有效。 尽管我认为自己是绝对的和平主义者,但我对于签署这项禁令持保留态度。而我相信持保留态度的也绝非我一人。

首先,拥护这项禁令的国家都无法确定应该禁止自动化还是AI。因此,这项禁令又如何能够阻止反对它的国家使用自动武器。对于常规武器和核武器的禁令是有效的,这是由于天然的进入壁垒:制造这些武器所需的原材料和设备很难获得,负责任的国家可以通过法令和制裁控制这些武器。相比之下,有些人可能会说AI的使用已经相当广泛,而且它还是自动武器的核心技术。 因此,想通过法令和禁令控制这种武器难上加难 - 例如网络战争。

想想视频中描述的“杀手无人机”与the Guardian上呼吁禁令的文章。即使在今天,任何互联网访问者都可以重建无人机所需的人脸识别技术:一些最先进的“预训练网络”都会成为公开资源。 随着技术的进一步发展,事情将变得更加容易。

AI的进入壁垒很低。因此即使联合国和一些国家同意这项禁令,也无法阻止其他反对这项禁令的国家采购和部署AI技术。 最终,最好的结果是禁令取得胜利,但禁令的拥护者会付出惨重的代价。而最坏的情况是禁令束缚了“好人”的手脚,“坏人”却仍然肆意妄为。

作为一名AI研究人员,我非常反感利用反乌托邦来渲染这整件事,就像the Guardian报道的这个视频。 这些视频让人感到不安。在我看来, 使用“雏菊女孩”式的运动宣传来激起人们对AI技术的恐惧,更像是为了点燃大众的情绪,而不是引发大众的思考。

鉴于对禁令有效性的担忧,AI研究人员应该寻找更积极的技术解决方案,以减少潜在的AI技术滥用。 例如,我们于2017年3月初在亚利桑那州立大学举办了一个研讨会,主题为“AI带来的挑战:展望未来,消除隐患”。 许多着名的科学家,技术专家和伦理学家参加了这次研讨会,其目的就是讨论如何防止AI技术的滥用(包括致命自动武器)。

目前,研讨会的主题之一就是利用AI技术防范AI的恶意使用。 这可能包括所谓的“AI守卫系统”,它可以监测AI并且做出防御回应。 即使这种系统不能完全遏制AI的滥用,至少可以反馈这些问题。

重申一下,我认为自己是和平主义者,一贯反战和支持军控。 如果这项禁令不仅止于形式,而且非常有效;不仅点燃了大众的情绪,还引发了大众的思考,我将举双手赞成。

免责声明:为了充分披露,请允许我声明我的一些基础研究(关于人类认知的AI)由美国国防部资助机构(如海军研究办公室)资助。 但是,我在文中观点是客观的,与资助方无关。美国的国防资助机构资助了大量基础研究,包括参与禁令运动的研究人员。

原文作者:Subbarao Kambhampati

原文链接:https://www.theguardian.com/technology/2017/nov/15/im-a-pacifist-so-why-dont-i-support-the-campaign-to-stop-killer-robots

编译组出品。编辑:郝鹏程返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
推荐阅读