✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
Palantir 英国负责人表示,军事部门应决定如何在战争中使用 AI 定向技术
Palantir英国负责人表示:如何在战争中使用AI瞄准权由军方决定
1天前
分享保存
在Google中添加为首选
Marc Cieslak,AI通讯员以及
Matt Murphy,BBC Verify
Palantir的路易斯·莫斯利表示,军方负责如何使用其AI系统
科技巨头Palantir此前已回击外界担忧:军队使用其AI平台可能带来不可预见的风险。在接受BBC的独家采访中,公司强调,技术的使用方式是其军事客户的责任。
这是因为专家已对在战时使用Palantir的由AI驱动的防务平台——Maven智能系统——表示担忧,并称其在美国对伊朗的袭击中被使用。
分析师警告称,军方使用该平台(该平台有助于人员规划打击行动)几乎没有时间对其输出进行“有意义的核验”,这可能导致击中的目标不正确。
但Palantir的英国和欧洲负责人路易斯·莫斯利(Louis Mosley)在一场涵盖面广的采访中对BBC表示:尽管像Maven这样的AI平台对美国管理伊朗战争“至关重要”,但这些平台输出的使用方式必须始终“由军方组织自行承担责任”。
“总会有人在环(human in the loop),因此总会有一个人作出最终决定。这就是当前的设置。”
Maven智能系统由五角大楼于2017年推出,旨在通过汇聚大量数据(包括情报、卫星和无人机图像等多种信息)来加快军事瞄准决策。
该系统会分析这些数据,然后可以提供针对性的打击建议。它还可根据人员和军事装备(例如飞机)的可用情况,建议应使用的武力水平。
但在战争中使用此类工具的审视不断增加。2月,五角大楼宣布将逐步淘汰Anthropic的Claude AI系统(它有助于支撑Maven),原因是该公司拒绝允许其AI在自主武器和监视中使用。Palantir表示,替代方案可以取代它。
自2月与伊朗的战争开始以来,据报道,美国已使用Maven在全国范围内规划打击行动。
Palantir的Maven智能系统演示画面
在BBC提出Maven可能会建议错误目标——这其中可能包括平民——的风险后,莫斯利坚持认为,该平台仅用于作为指导,以加快军事人员的决策流程,不应被视为自动化瞄准系统。
“你可以把它想成一个支援工具,”莫斯利说。“它让他们能够把大量以前不得不一条条手工处理的信息综合起来。”
不过,当BBC质疑在时间紧迫的情况下,指挥官是否会下令让下属把Maven的输出“盖章式”地当作最终结果时,莫斯利把责任推给了具体的军队。
“这真的是我们军事客户的问题。他们才是决定政策框架的人,而该框架决定谁能作出什么决定,”他说。“这不是我们的角色。”
自2月28日以来,美国已对伊朗发起超过11,000次打击行动,其中许多据称由Maven识别。
美国中东地区的美军负责人、布拉德·库珀(Brad Cooper)少将(Adm Brad Cooper)称赞AI系统能帮助军官“在几秒钟内从海量数据中筛选信息,因此我们的领导者能比敌人作出反应更快、更聪明地作出决策,并穿透噪音”。
AI公司Anthropic寻求武器专家以阻止用户“滥用”
OpenAI在遭遇反弹后改变与美国军方的交易
特朗普命令政府在因AI使用而发生的战场争议中停止使用Anthropic
但也有人担心,AI参与任务规划会带来显著风险。
“这种对速度与规模的优先,以及随后使用武力的做法,会让对目标进行有意义的核验的时间变得非常少,以确保不会意外包含平民目标,”伦敦玛丽女王大学教授埃尔克·施瓦茨(Prof Elke Schwarz)说。
“如果你有杀人的风险,而你又把大量关键的思考都交给会替你处理这些事情的软件,那么你就会变得依赖于软件,”她补充道。“这是一场向底线竞赛(race to the bottom)。 ”
在过去数周里,五角大楼官员面临质问:类似Maven这样的AI工具是否被用于识别伊朗米纳布(Minab)小镇上一所学校遭到致命袭击中的目标。伊朗官员表示,这次袭击在战争爆发的第一天造成168人死亡,其中约110名是儿童。
在国会中,多名高级民主党人呼吁加强对像Maven这样的AI平台的审查。众议员Sara Jacobs——众议院军事委员会成员——呼吁制定并明确执行关于AI系统何时、如何被使用的规则与法规。
“AI工具并非100%可靠——它们可能以微妙的方式失效,而操作人员仍继续过度信任它们,”她上个月对NBC News表示。
“我们有责任对军方使用AI实施严格的护栏(guardrails),并确保在每一次使用致命武力的决策中都有人在环(human in the loop),因为一旦搞错,其代价可能对平民以及执行这些任务的军人造成毁灭性影响。”
但莫斯利反驳了这样的说法:他公司平台的速度正在推动五角大楼加速决策,并可能制造危险局面。他反而认为:指挥官现在采取行动的速度,是Maven所带来的“效率提升”所带来的结果。
五角大楼援引“行动安全”(operational security),当BBC上门询问类似Maven这样的AI系统未来将如何使用、以及若出现问题将由谁承担责任时,五角大楼拒绝置评。
但美国方面的官员似乎正在推进把Maven进一步整合进其系统的计划。
上周,路透社报道称:五角大楼已将Maven指定为“正式记录中的项目”(an official program of record)——也就是将其作为一项技术,长期整合到美国军方之中。
路透社获得的一封信中,代理国防部长史蒂夫·费因伯格(deputy Defence Secretary Steve Feinberg)表示,该平台将为指挥官“提供最新工具,以便在所有领域识别、遏制并压制我们的对手”。
由Jemimah Herd补充报道
人工智能
伊朗战争