×
嵌入式 > 其他资讯 > 详情

人类灾难:AI用于军事武器

发布时间:2020-07-10 发布时间:
|

美国、中国、俄罗斯和英国等大国正在加码投资人工智能和机器学习,以期开发新一代先进武器系统。

美国五角大楼通过了一项计划,承诺在未来五年内通过美国国防高级研究计划局(DARPA)投资20亿美金支持人工智能技术。比如,它的OFFSET项目打算开发一种可以部署在多种复杂环境中,由最多可达250个无人机系统(UDS)和/或无人地面系统(UGS)祖晨的无人机群。

中国也不遑多让,国防部门和学术机构之间在人工智能和机器学习上的合作越来越多。清华大学成立了军民融合国防尖端技术实验室,旨在打造可军民两用的新兴技术应用平台,其中的重点就是人工智能领域。

军事大国俄罗斯则更进一步,它正在建设一个名为Era的新城市,该城市完全致力于实践军事创新。

根据克里姆林宫的说法,这个科技城的主要研究和开发目标是“创建军事人工智能系统和研发支撑性技术。”

“我们看到,国防工业对人工智能和机器学习兴趣渐浓。”合同研发企业Roke Manor的创新总监Andrew Rogoyski博士表示。

“人工智能第一次浪潮发生于二十世纪四十年代到五十年代,第二次复兴则发生于八十年代。现在是所谓的“第三次复兴”时代,这一次,我们拥有了足够的计算能力和数据来实现过去人们对这项技术的承诺。和前两次浪潮相比,这次更加激动人心。”

根据Rogoyski博士的说法,“当人们谈起人工智能时,一般都倾向于局限在机器学习上。但是请您必须记住,AI是一个范围相当广泛的主题,它包括自然语言处理、机器人、机器视觉和数据分析等多个领域。”

“在军事领域的机器学习上,尽管媒体倾向于报导更加博人眼球的杀手机器人,但是军事ML的应用范围涵盖从物流运输、监视目标到侦查等多种场景。医疗保健是当前军费开支中的大项,因为医疗服务需要适应不同的对象,并且随时准备就位,在这里,机器学习可以用来优化和定制个性化的康复培训计划。所以说,AI和ML在军事领域的应用范围非常广泛。”

英国国防部(MoD)认为,自主决策和不断发展的人机界面能够使军队以更高的精度和效率履行其职能。

2018年英国国防部发布的一份报告称,国防部将在“人工智能、机器学习、人机组合和自动化等领域实现现代化,以保证英国在军事领域的影响。”

英国国防部有各种和人工智能和自主系统相关的计划,其中就包括Automomy项目。该项目正在发力算法开发、人工智能、机器学习和“开发基础技术,以实现下一代自主军事系统。”。负责该项目的研究部门是国防科学技术实验室(Dstl)去年发起成立的AI实验室。

“国防部专注于各种人工智能技术,比如机器视觉和机器人技术,涵盖了许多不同的应用场景,”Rogoyski博士解释说。“涵盖场景包括威胁情报、数据科学等,国防部现在必须以商业模式运算这个项目。这意味着,它必须能够相当快地部署这些技术,以跟上外界商业人工智能应用的部署进度。在AI技术日新月异的当下,保持和外界的技术同步是一项真正的挑战。你需要考虑将技术迅速投入使用,而不再经历过去那种旷日持久的采购流程和周期。”

“最终,这将意味着改变整个军事部门的采购策略。”

据英国国防部称,当前它正在开发的最有名的自主技术案例是Taranis武装无人机,这是“在英国建造的技术最先进的示范性无人机”。

“无论是无人机还是自主驾驶汽车,现在都在大力发展保护军人的技术。”Rogoyski博士解释说。 “无论是无人机还是道路清理车,它们的目的都是让技术取代人力,让军人离开危险的前线。”

英国皇家空军和皇家海军每年都完不成招募目标,军人缺口达10%,陆军招募缺口更是高达30%以上。国防部认为,自主技术的发展可以帮助解决兵员不足问题。

“军事部门对人工智能另一个感兴趣的领域是将机器学习用于对大众的心理管理,这也是一个非常重要的领域。”Rogoyski博士解释说。“这方面的技术可能与杀手机器人或者无人机关系不大,但是将机器学习用于社交媒体或者使用假新闻,可以影响武力行动背后的政治。”

Rogoyski博士表示,心理管理只是众多需要解决的新“前沿应用领域”之一。

“另一个前沿应用是互联程度日益增长的国家关键性基础设施的安全性问题。当国家的整个基础设施面临由其它国家政府部门或者非政府组织发起的网络攻击时,人工智能如何保护基础设施?我们如何在海外投放武装力量?”

国防部有一个名为国防和安全加速器(DASA)的跨政府组织,该组织希望找到并资助可利用的技术创新,以便快速有效地支撑英国的国防和安全。

人工智能和自动化技术的进步为军事创新提供了真正的机会,但是,国防部的大员们看待并使用AI技术的方式需要从根本上进行改变。在这里,AI技术不能被视为仅仅局限于实验室的东西,国防部的官员需要更加灵活以及更为雄心勃勃地使用AI技术来改变国土防御计划,要将实验室里的成果拿来尝试,在失败和成功中学习,同时改进采购流程,以便更为灵活地使用AI技术。

军事创新的历史表明,相比于开发新技术,如何更好地使用它们更能获得效果。

“确保人工智能和机器学习技术能够成功采用的关键是,他们需要容易被理解,并提供一定程度的保证,”Rogoyski博士说。 “这两项都是基本要求,并不仅仅局限于军队。”

如果你提供的人工智能系统是个类似于黑匣子的系统,用户不知道这个系统是怎么做决策的,为什么做出这样而不是那样的决策,那他们怎么能够相信这个系统不会犯错呢?对武器系统的信任至关重要,但是你会相信机器人外科医生吗,你会任由银行系统对你的储蓄随意做出决定吗?

“人工智能需要保持思维的纪律性,在特定的情况下,AI系统需要以您期望的方式运作。如果它们犯了一个错误,你希望能够理解为什么出错,这样就会和后期分析结合起来,将系统如何做出特定决策和具体场景联系起来。”

事实上,现在收集和分析既有的多个已实施的AI项目,可以帮助国防部更好地把握方向,并获得和商业领域一样快速部署AI的能力,这将引领未来军事技术的发展方向。

AI的军事应用

“Roke Manor参与了许多使用到AI技术的项目,”Rogoyski博士说。“比如我们为需要在混乱的海空环境下作业的用户开发了STARTLE。该系统的情势感知软件使用了一系列AI技术,可以持续监控和评估当前海空环境的潜在威胁。”

Roke Manor的STARTLE可以持续监控和评估潜在威胁

“它通过快速检测和评估潜在威胁,在非常复杂的环境中,协助人类操作员感知当前的态势。”

还有一个项目是英国一家地理空间和数据公司Envitia和其合作伙伴BAE系统应用智能公司一起完成的,该项目使用了人工智能技术,让潜水器自动潜水,被皇家海军用于执行水下扫雷任务。

现在的扫雷任务是靠一个扫雷船队使用声呐技术实现的。这些支持AI的自动潜水器能够更快地扫描水下物体,识别威胁并自主决定如何处理它们。

皇家海军的路线调查和任务分析(RSTA)项目希望采用自动驾驶汽车、开放式架构和人工智能技术,在2022年之前实现在英国水域以无人方式执行反水雷任务。

即将离任的英国第一海洋防务大臣、海军上将菲利普琼斯爵士说:“人工智能将在未来的军事服务中发挥关键作用。现代战争瞬息万变,越来越依赖于数据驱动,我们最有价值的地方就是能够从大量的信息中抽丝剥茧,冷静思考并果断行动。”

Envitia使用AI技术实现了潜水器的自主潜水,被英国皇家海军用于搜索水下地雷

Envitia和BAE系统应用智能公司合作推出的RSTA是运行在皇家海军开发的NELSON数据平台上的首批应用之一,NELSON数据平台可以连续访问皇家海军在海上和海岸线上生成的大量数据。

此外,Envitia正在利用其海事地理空间工具包将地理空间服务纳入到RSTA中,确保RSTA可以为每个任务提供精确和最新的海事数据。

作为反水雷和水文能力计划(MHC)的一部分,RSTA将使用自动驾驶技术和机器学习技术,分析任务的条件,并提高任务完成成功率。

军事AI的道德维度

人工智能的道德问题越来越重要了。一段时间以来,欧盟、中美和其它国家一直在拷问人工智能的道德底线,并持续关注民间关注人工智能研究的重要性。人们普遍担心,不受管制的人工智能可能会最终导致国际性的军备竞赛。

“人们对于AI的担忧是多种多样的,”BAE系统公司首席技术专家Nick Colosimo表示。“有人关心将现有的商用技术武器化的难易程度,还有一个重要关切则是人手大小的无人小车数量的增长,这种小车很难被检测到,也很难对它展开有效反击。机器速度的快速增长是另一个问题,在各国争相追逐开发更快的机器时,如何有效地进行人为干预?”

澳大利亚政府高级研究科学家Adam Saulwick表示,“我们现在处于一个数据泛滥的世界,既有各种自然生成的数据,也有来自人机交互等方面的数据。我们在人工智能方面遇到了大量问题。比如我们如何道德地使用这些数据?我们可以相信AI吗?标榜民主的西方国家能正确使用数据吗?其它政体的国家会怎么做?这些都是问题!”

根据Rogoyski博士的说法,“人工智能一旦遇上道德,就会产生很多伦理困境。但是,我们必须先放开这些形而上的争论,继续广泛研究AI应用和实现。”

“人们也正在制定AI的行为规范。今年早些时候,美国发布了一份人工智能战略文件,他们在其中谈到了对人工智能的一些深入思考,提到以人为本理念的必要性,我认为,提倡人本主义是一种相当明智和务实的方法。”

Rogoyski博士指出,在道德问题上,“如果使用人工智能技术可以挽救生命,降低冲突,那么,不使用人工智能技术是否意味着不道德?如果你面对的是一个武装了高水平AI能力的政府或组织,而你自己的AI能力达不到对方的水平,那么,你的行为对本国人民而言是否道德?作为一名军事作战指挥或战略家,你有责任让自己的AI能力跟上敌人。”

最终,谁能站在道德地制高点上判定什么是“道德的”,什么是“不道德的”呢?

“中国和俄罗斯都认为人工智能技术将是自己工业和军事战略中的关键要素,而且正在扩大AI的投资规模。”Rogoyski博士指出。

未来几年,人工智能和机器学习上的投资将继续加速,我们正在进入一个全球军队决定如何使用人工智能技术的关键时期。无论将来发生什么,战争的性质正在发生变化,当人工智能技术变得越来越普遍时,这种变化将会加速发生。


『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
电源形成电路