很抱歉,当前没有启用javascript,网站无法正常访问。请开启以便继续访问。五角大楼大赞AI:正在加速我们的“杀伤链”!
五角大楼大赞AI:正在加速我们的“杀伤链”!
2025.01.20 11:13 财联社 黄君芝

财联社1月20日讯(编辑 黄君芝)自人工智能(AI)爆火以来,它已经渗透进了我们生活的方方面面。包括OpenAI和Anthropic在内的“AI领头羊”们还在向美国军方推销软件:让五角大楼更有效率,同时不会让人工智能“直接杀人”。

五角大楼首席数字和人工智能官Radha Plumb博士在接受最新采访时表示,如今,他们的工具并未被用作武器,但人工智能在识别、跟踪和评估威胁方面给国防部带来了“重大优势”。

“很明显,我们正在增加加快执行‘杀伤链’的方法,以便我们的指挥官能够在正确的时间作出反应,保护我们的部队。”她说。

“杀伤链”(Kill Chain)是一个军事术语,现在也广泛应用于网络安全领域。它描述了攻击从开始到结束的各个阶段,以便更好地理解和防御攻击。

据了解,“杀伤链”共由六个环节组成,涉及一个由传感器、平台和武器组成的复杂系统。它听起来更像个科技产品:“发现、定位、跟踪、瞄准、交战与评估”。有一位指挥官是这么描述的:这整个过程就像流水线,严丝合缝中展现出军队的冷酷与高效。

也正因为如此,其过程中的每一个环节都必须环环相扣,容不得一丝差错,它对信息系统也是极度依赖的。

根据Plumb的说法,在“杀伤链”的规划和战略制定阶段,生成式人工智能被证明是有用的。

五角大楼与人工智能开发者之间的关系相对较新。OpenAI、Anthropic和Meta在2024年收回了他们的使用政策,允许美国情报和国防机构使用他们的人工智能系统。不过,它们仍然不允许人工智能伤害人类。

当被问及五角大楼如何与人工智能模型提供商合作时,Plumb说:“我们已经非常清楚,我们会在什么情况下使用他们的技术,在什么情况下不会使用他们的技术。”

随着生成式人工智能在五角大楼证明其实用性,它可能会推动硅谷放宽其人工智能使用政策,允许更多的军事应用。

Plumb表示:“它可以让你利用我们的指挥官所拥有的各种工具,还可以创造性地思考不同的应对方案,以及在需要应对潜在威胁或一系列威胁的环境中可能出现的取舍。”

目前还不清楚五角大楼在这项工作中使用了谁的技术;在“杀伤链”中使用生成式人工智能(即使是在早期规划阶段)似乎违反了几家领先模型开发商的使用政策。 例如,Anthropic 的政策禁止使用其模型来生产或修改“旨在对人类生命造成伤害或损失的系统”。

Anthropic首席执行官Dario Amodei最近强调:“我们永远不应该在国防和情报领域使用人工智能的立场,对我来说毫无意义。而那种认为我们应该疯狂地使用人工智能制造任何我们想要的东西(甚至包括末日武器)的观点显然也同样疯狂。我们试图寻求中间立场,以负责任的方式行事。”

Plumb也称,自动化系统独立做出生死决定的想法“太过二元化”,现实也不那么“科幻”。相反,她认为五角大楼对人工智能系统的使用实际上是人与机器之间的合作,在整个过程中,高级领导人都在做出积极的决策。

6571特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。