logo
繁体
繁体

俄乌战争促使军火商与硅谷联手,军事AI正蓬勃发展

俄罗斯入侵乌克兰,在全球引发了一轮军事和人工智能的大跨越。《麻省理工科技评论》(MIT Technology Review)的文章指出,欧美军事部门和军火商,正在与硅谷合作,大踏步的推动军事人工智能技术的研发和推广。

就在俄罗斯2月入侵乌克兰的两周后,数据分析公司Palantir的首席执行官亚历山大·卡普,向欧洲领导人提出了建议。他在一封公开信中说,战争就在家门口,欧洲应该在硅谷的帮助下将他们的武器库现代化。

卡普写道,为了使欧洲 “保持足够的实力来打败外国占领的威胁”,各国需要拥抱 “技术和国家之间的关系;给颠覆性的公司以机会,去打破根深蒂固的军火承包商和政府部门之间的关系。”

Photo by Agnieszka Kowalczyk on Unsplash 

各国军队正在响应这一呼吁。北约在6月30日宣布,它正在创建一个10亿美元的创新基金,将投资于开发人工智能、大数据处理和自动化等,“优先”级技术的早期创业公司和风险资本基金。

自战争开始以来,英国推出了一项专门用于国防的新人工智能战略。但德国人在向军方注入的1000亿美元现金中,为研究和人工智能专门拨出了不到5亿美元。

伦敦国王学院领导国防研究的肯尼斯·佩恩说:“战争是变革的催化剂”。他是《我,战争机器:人工智能冲突的黎明》一书的作者。

乌克兰战争增加了将更多人工智能工具推向战场的紧迫性。那些获益最多的是Palantir等初创公司,它们希望利用军队竞相用最新技术,更新其军火库的机会获利。但是,随着技术变得越来越先进,对在战争中使用人工智能的道德担忧,也变得更加紧迫,而对其使用的限制和监管的前景,看起来也像以前一样遥远。

科技和军事之间的关系并不总是那么友好。2018年,在员工的抗议和愤怒之后,谷歌退出了五角大楼的Maven项目,这个项目试图建立图像识别系统,以改善无人机的打击。这一事件引起了关于人权和为自主武器开发人工智能的道德的激烈辩论。

这种担忧还导致备受瞩目的人工智能研究人员,如图灵奖得主约书亚·本吉奥,以及领先的人工智能实验室DeepMind的创始人戴密斯·哈萨比斯、谢恩·列格和穆斯塔法·苏莱曼,承诺不从事致命人工智能的研究。

但四年后,硅谷比以往任何时候,都更接近世界各国的军队。曾是美国国家人工智能安全委员会的执行主任的耶尔·巴加科塔尔说,这也不仅仅是大公司,初创企业也终于得到了关注。他现在为特别一个竞争研究项目工作,这个组织游说美国各地更多地采用人工智能。

为什么是人工智能

销售军用人工智能的公司,对他们的技术进行了广泛的宣传。他们说,从筛选简历到处理来自卫星的数据,或者识别数据中的模式以帮助士兵在战场上做出更快速的决定,AI可以帮助解决从日常事务到致命攻击的所有问题。图像识别软件可以帮助识别目标,自主攻击的无人机可用于监视或攻击陆地、空中或水面,或帮助士兵以更安全的方式运送物资。

Photo by Venti Views on Unsplash 

佩恩说,这些技术在战场上仍处于起步阶段,军方正在经历一个实验期,有时没有取得那么大的成功。有无数的例子表明,人工智能公司倾向于对技术作出宏大的承诺,但结果并不像宣传的那样。而战场也许是部署人工智能,最具技术挑战性的地区之一,因为相关的训练数据很少。

无人机和其他监控技术专家阿瑟·霍兰·米歇,在为联合国裁军研究所撰写的一篇论文中认为,这可能导致自主系统以 “复杂和不可预测的方式”失败。

然而,许多国家的军队正在向前推进。在2021年的一份措辞含糊的新闻稿中,英国军队自豪地宣布它首次在军事行动中使用人工智能,以提供周围环境和地形的信息。美国正在与初创公司合作,开发自动驾驶军用车辆。在未来,美国和英国军队正在开发的数百甚至数千架自主无人机群,这可能被证明是强大的致命武器。

许多专家对此表示担忧。美国联邦贸易委员会的人工智能高级顾问和AI Now研究所的梅雷迪斯·惠特克说,这种推动实际上更多是为了让科技公司致富,而不是改善军事行动。

在与兰卡斯特大学社会学教授露丝·萨其曼共同为《展望》杂志撰写的一篇文章中,她认为,人工智能的推动者正在煽动冷战言论,并试图创造一种将大科技定位为“关键的国家基础设施” 的叙事,其规模和重要性不容破坏或监管。

他们警告说,军方采用人工智能被说成是一种不可避免的事情。但现实却不是这样的,人工智能一种涉及道德复杂性和权衡的主动选择。

人工智能的战利品

随着围绕谷歌Maven项目的争议逐渐消失,在过去的几年里,呼吁在国防领域采用更多人工智能的声音,变得越来越响亮。

其中最响亮的是谷歌的前首席执行官埃里克·施密特,他曾担任国家安全委员会的主席,并呼吁美国采取更积极的方法来采用军事人工智能。

在去年的一份报告中,国家人工智能委员会概述了,美国到2025年人工智能方面应该采取的措施。呼吁美国军方每年向这些技术投资80亿美元,否则有可能落后于中国。

外交关系委员会研究员劳伦·卡恩说,根据乔治敦安全和新兴技术中心的一份报告,中国军方可能每年至少花费16亿美元用于人工智能,而在美国,已经在大力推动达到同等水平。美国国防部在2022年3月的一份报告中说,美国国防部为人工智能申请了8.74亿美元,尽管这一数字并没有反映出该部门的人工智能投资总额。

不仅仅是美国军方确信有此需要。德国汉堡联邦国防大学人工智能观察站的联合主任海科·博尔切特说,欧洲国家在采用新技术方面往往更加谨慎,它们也在人工智能上花费更多资金。

法国和英国已经将人工智能确定为一项关键的防御技术,欧盟委员会已经拨出10亿美元的专款用于开发新的防御技术。

障碍和机会

建立对人工智能的需求是一件事。让军队采用它完全是另一回事。

法国销售人工智能监控的初创公司Preligens首席执行官艾尔诺·卡介说,很多国家都在推动人工智能叙事,但他们在从概念到部署方面都很困难。他说,这部分是因为大多数国家的国防工业,通常仍由几家大型承包商主导,这些承包商往往在军事硬件方面,比在人工智能软件方面拥有更多的专业知识。

这也是因为,与我们在人工智能发展中所看到的惊人速度相比,繁琐的军事审查程序进展缓慢:军事合同可能跨越几十年,但在快节奏的创业周期中,公司只有一年左右的时间来启动。

初创企业和风险资本家对进展如此缓慢表示失望。风险投资公司Andreessen Horowitz的普通合伙人凯瑟琳·博伊尔认为,风险在于有才华的工程师会沮丧而离开,去脸谱和谷歌工作,而初创公司会因等待国防合同而破产。

FacultyAI的马克·华纳说:“其中一些障碍是关键的,特别是在军事部门,安全问题是非常真实的;但其他的就不是了,在某些方面,先行者就占据了绝对优势。”

马克·华纳创立了FacultyAI,这是一家与英国军方合作的数据分析公司。

乔治敦安全和新兴技术中心研究人工智能投资趋势的研究分析员恩格尔·粱说,有军事野心的人工智能公司必须“长期保持业务”。

卡恩说,军队处于两难境地:走得太快,有可能部署危险和出出问题的系统;走得太慢,错过技术进步的机会。

美国希望走得更快,国防部已经寻求网约车公司Lyft的前人工智能主管克雷格·马特尔的帮助。

2022年6月,马特尔执掌五角大楼新的首席数字人工智能办公室,该办公室旨在协调美国军队的人工智能工作。他告诉彭博社,马特尔的任务是改变该部门的文化,尽管有“官僚主义的惰性”,但还是要推动军队对人工智能的使用。

他可能正在推动一扇开放的大门,因为人工智能公司已经开始抢夺利润丰厚的军方合同。2月,开发复杂的水下无人机等自主防御系统的五岁初创公司Anduril,赢得了美国10亿美元的国防合同。1月,为人工智能提供数据标签服务的初创公司ScaleAI,赢得了美国国防部2.5亿美元的合同。

谨防炒作

尽管人工智能在战场上稳步前进,但促使人们围绕Maven项目进行抗议的道德问题并没有消失。

已经有一些努力来缓解这些担忧。美国国防部意识到有一个信任问题,已经为人工智能开发者推出了“负责任的人工智能指南”,有自己的人工智能使用道德指南。北约有一项人工智能战略,为其成员国制定了自愿的道德准则。

所有这些指导方针都呼吁军队以合法、负责、可靠和可追踪的方式使用人工智能,并寻求减少算法中的偏见。

佩恩说,这其中一个关键概念是,人类必须始终保持对人工智能系统的控制。但随着技术的发展,这将不可能真正实现。

他说,自主系统的全部意义在于让它比人类更快、更准确地做出决定,而且是在人类无法做到的范围内。如果你说“不,我们每一个决定都要问律师”,你实际上是在束缚自己。

尽管如此,批评者说人工智能需要更强有力的规则。有一个名为 “停止杀手机器人”的全球运动,旨在禁止致命的自主武器,如无人机群。

活动家、联合国秘书长安东尼奥·古特雷斯等高官以及新西兰等国政府认为,自主武器是非常不道德的,因为它们让机器做控制生死的决定,并可能通过算法的偏见。对边缘化社群造成不对等的伤害。

例如,数以千计的自主无人机群,基本上可以成为大规模杀伤性武器。限制这些技术将是一场艰苦的战斗,因为全球禁令的想法遭到了美国、法国和英国等军事开支大国的反对。

最终,军事人工智能的新时代提出了一系列困难的、尚无答案的伦理问题。

佩恩说,其中一个问题是,我们首先希望武装部队实现多大程度的自动化?一方面,人工智能系统可能通过使战争更有针对性来减少伤亡,但另一方面,你“实际上是在创造一支机器人雇佣军来代表你作战,它使社会远离了暴力战争的后果。”