soarli

硅谷与五角大楼的决裂:2026年军事AI的技术重构、伦理博弈与大模型洗牌危机
人工智能融入国家军事基础设施的进程,长期以来一直停留在理论推演与初步测试阶段。然而,在2026年初的当下,这场技术...
扫描右侧二维码阅读全文
25
2026/02

硅谷与五角大楼的决裂:2026年军事AI的技术重构、伦理博弈与大模型洗牌危机

人工智能融入国家军事基础设施的进程,长期以来一直停留在理论推演与初步测试阶段。然而,在2026年初的当下,这场技术革命已经剧烈地演变为一场触及操作底线、重塑国际战争法则并引发科技巨头重新洗牌的全面危机。处于这场风暴核心的,是美国国防部(现已正式启用“战争部”为官方对外名称)与硅谷顶尖人工智能企业 Anthropic 之间爆发的严重冲突。作为极少数能够获准在美军高度机密的网络中运行的前沿大语言模型(LLM),Anthropic 旗下的 Claude 展现出了无可替代的战术价值;但该公司对其“宪法 AI”(Constitutional AI)伦理护栏的坚持,与军方追求绝对控制权和最大化杀伤力的战略诉求产生了不可调和的矛盾。

目前,这场冲突已经越过了常规商业谈判的范畴。随着美国军方高层在2026年2月24日向 Anthropic 首席执行官发出“要么全面开放限制,要么面临供应链风险黑名单”的最后通牒,全球军事 AI 的治理规则正处于一个历史性的分水岭 。本文将从国家军事战略转型、前沿 AI 的战术技术落地、国际战争法与伦理冲突,以及系统剥离的工程灾难等多个维度,对这一决定未来十年大国竞争技术架构的核心议题进行深度拆解与前瞻性剖析。

第一章:国家战争机器的觉醒——2026年“战争部”的 AI 加速战略

要深刻理解军方为何对 Anthropic 的伦理限制表现出如此强烈的排斥,必须首先审视美国军事体系在过去几个月中发生的底层战略与文化重构。2025年9月5日,美国总统唐纳德·特朗普签署了第14347号行政命令,正式授权美国国防部(Department of Defense)在公开文件、官方通讯及行政场合中恢复使用其历史名称——“战争部”(Department of War)。这一名称的回归绝非仅仅是公共关系的微调,而是代表着一种深层次的战略哲学转向。军方高层认为,“国防”一词过于强调被动防御,而“战争部”则能向全球竞争对手传递出更为强烈的战备状态、威慑力以及追求“最大杀伤力”的明确信号 。在这一全新文化语境下,任何试图通过软件协议限制美军作战效能的商业行为,都被视为对国家安全意志的直接挑战。

在这一激进姿态的推动下,战争部部长皮特·海格塞斯(Pete Hegseth)于2026年1月9日正式颁布了震撼业界的《人工智能加速战略》(Artificial Intelligence Acceleration Strategy)。该战略的终极目标是在短时间内彻底消除官僚体制的阻碍,将美国军队打造成全球首支“AI 优先”(AI-first)的作战力量 。该文件明确指出,在现代战场上“速度即是胜利”,军方必须以与私营科技部门同等的迭代速度来部署技术。为了实现这一跨越式发展,战争部规划了七项“领跑者项目”(Pace-Setting Projects, PSPs),试图从战术交火、情报分析到后勤管理,全面重构军事机器的运转逻辑。

领跑者项目 (PSP)所属领域战略目标与核心技术路径
Swarm Forge (蜂群熔炉)作战指挥引入高度竞争机制,将最顶尖的美国特种作战部队与前沿技术创新者组合,通过数百万次的迭代测试,大规模开发和部署由 AI 驱动的自主无人机蜂群战术 。
Agent Network (智能体网络)作战指挥旨在开发用于战场管理的“代理型 AI”(Agentic AI),使大模型能够直接参与从战役规划、兵力调度到最终杀伤链(Kill Chain)执行的自主决策支持 。
Ender's Foundry (安德的熔炉)作战指挥极大加速基于 AI 的战争模拟能力,建立紧密的“模拟开发-模拟作战”反馈循环,以确保美军在面对同样拥有 AI 能力的对手时保持战术降维打击优势 。
Open Arsenal (开放军械库)情报分析彻底改造技术情报(TechINT)到实战能力的转化管道,试图将识别敌方威胁并开发针对性武器代码的周期从数年压缩至数小时 。
Project Grant (格兰特计划)情报分析利用海量数据与预测模型,将传统的“静态威慑”转变为基于动态数据压力的“精确威慑”,使战略信号的释放具备可解释的计算基础 。
GenAI.mil企业后勤面向全体军方人员(逾300万名军事与文职人员)全面普及前沿生成式 AI(如 Gemini, Grok, ChatGPT)的大规模内部部署平台 。
Enterprise Agents (企业智能体)企业后勤开发标准化剧本,利用能够自动调用工具的 AI 智能体来接管和重塑军方的供应链、审计以及行政工作流,打破信息孤岛 。

《人工智能加速战略》中最为核心、也是直接引爆当前硅谷与五角大楼冲突的条款,是其确立的“所有合法目的”(All lawful purposes)标准 。该战略严厉批评了部分科技公司出于“乌托邦式理想主义”和“觉醒文化”(Woke ideology)而对模型施加的伦理微调,并强制规定:所有与军方签订合同的 AI 供应商,必须允许其模型在所有符合武装冲突法和美国国内法的场景下被无条件使用 。这种要求将技术的使用权完全交给了战区指挥官,彻底剥夺了科技公司通过终端协议进行“道德审查”的权力。对于坚守“宪法 AI”原则的 Anthropic 而言,这无异于要求其交出系统的灵魂。

第二章:实战检验与技术引擎——Claude 在机密网络中的核心地位

军方之所以对 Anthropic 施加如此巨大的压力,并非出于单纯的政治报复,而是因为 Claude 模型已经不可挽回地深度嵌入了美军最核心的作战指挥系统中。理解这一点的关键,在于解构2026年1月发生在委内瑞拉首都加拉加斯的“绝对行动”(Operation Absolute Resolve),以及支撑 Claude 运行的底层技术架构。

绝对行动中的 AI “降维打击”

2026年1月3日凌晨,美军发动了旨在抓捕委内瑞拉前总统尼古拉斯·马杜罗的高压突袭行动 。这场被外界称为“绝对行动”的军事干预,并非传统意义上的“狂轰滥炸”,而是一场极度精密的多域联合作战。美军动用了超过200名特种作战人员和150架次各式战机,在瘫痪委内瑞拉防空网络的同时,精准突入蒂乌纳堡(Fort Tiuna)军事建筑群,成功俘获目标,且美军全程零伤亡 。行动中甚至部署了被称为“Discombobulator”的新型非动能声波与定向能武器,瞬间瓦解了敌方雷达与通讯网络 。

事后多方情报与媒体披露,Anthropic 的 Claude 模型在行动期间被深度整合在指挥系统中,提供了前所未有的实时分析支持 。在瞬息万变的突袭现场,指挥官面临的数据流是极其庞大且混乱的:特种部队的头盔摄像头视频、无人机的红外侦察数据、截获的敌方加密无线电通讯,以及实时的气象与后勤指标。人类参谋团队在几分钟内根本无法消化这些信息。Claude 凭借其卓越的复杂逻辑推理能力和超长上下文窗口,被用来瞬间摄取这些海量数据,快速识别出隐藏的防空火力点,并为非动能武器的精准打击提供计算与时机建议 。这种将战争的“观察-判断-决策-行动”(OODA 循环)从几十分钟压缩到几秒钟的能力,证明了前沿大模型在极高压地缘冲突中的绝对可靠性。

IL6 机密环境与技术铁三角

Claude 能够介入如此级别的军事行动,依赖的是一个由 Anthropic(提供 AI 大脑)、Palantir Technologies(提供数据整合平台)以及 Amazon Web Services(提供底层基础设施)共同构筑的“技术铁三角” 。

美军的核心战场情报绝不可能通过公共互联网 API 进行传输。AWS 为战争部提供了符合国防信息系统局(DISA)影响级别 6(Impact Level 6, IL6)认证的机密云环境 。IL6 是目前极少数获准处理国家“秘密”(Secret)级别数据的商业云架构,要求绝对的物理隔离、严苛的渗透测试以及极其复杂的加密权限管理 。目前,Claude 是唯一一个成功通过这一地狱级安全审计、获准在 IL6 机密网络中运行的前沿大模型 。

在这个与世隔绝的环境中,Palantir 的人工智能平台(AIP)扮演了连接 AI 与战争机器的“神经中枢”角色 。现代战争的底层技术逻辑在于建立庞大的“知识图谱”(Knowledge Graphs)或“数字本体”(Ontology)。在 Palantir AIP 中,战场上的每一辆坦克、每一条补给线、每一段无线电频段都被抽象为图谱中的数据节点。Claude 不仅仅是作为对话机器人存在,而是被集成为具有行动能力的“代理智能体”(Agentic AI)。指挥官可以通过自然语言下达指令(例如:“评估如果摧毁目标变电站,敌方指挥所的备用电源能支撑多久”),Claude 则会自动调用视觉 Transformer(ViT)模型分析卫星图像,利用图神经网络(GNN)追踪实体关联,最终输出详细的战术选项体系 。

军事 AI 的四大核心落地抓手

脱离了科幻电影的滤镜,当代 AI 在战场上的实际落地主要依托以下四个极其冷酷的技术抓手:

首先是全域指挥与控制(JADC2)。未来的战争没有单一的陆军或海军,而是传感器与射手的网络。AI 负责打通太空卫星、高空无人机与地面雷达的数据孤岛,形成实时“全息战场”。当发现高价值目标时,AI 能在毫秒级时间内计算出由哪一艘导弹驱逐舰发射何种型号的武器拦截率最高,彻底重塑了火力打击的杀伤链 。

其次是自动化目标识别(如 Project Maven)。利用深度学习和卷积神经网络,AI 能够在每天产生的数以万计的高清无人机全动视频(FMV)中,自动框选出经过光学迷彩伪装的敌方导弹发射车或移动指挥所。这极大地解放了情报分析师的视觉负荷,使其能够专注于战略判断 。

第三是无人机蜂群与“忠诚僚机”。在 Swarm Forge 等项目的推动下,美军正在利用强化学习(Reinforcement Learning)技术训练高度自主的无人机。这些无人机在虚拟环境中经过数百万次的自我博弈,掌握了不受人类生理极限(如过载晕厥)限制的极限战术机动 。在实战中,一架由人类驾驶的 F-35 可以指挥数十架 AI 战机组成的狼群,自主决定诱敌、干扰和投弹策略。

最后是预测性后勤(Predictive Logistics)与战术边缘计算。战争打的是后勤。通过模型量化与剪枝技术,军方将精干的 AI 模型直接部署在装甲车的车载芯片上。即使在强烈的电子干扰导致网络断开时,边缘 AI 也能持续监控传感器,提前预测零部件的损坏周期,并自动规划最安全的无人机补给路线 。在这庞大的机器中,Claude 就是那颗最为强大、冷静的调度大脑。

第三章:伦理底线与国家意志的碰撞——“宪法”与“军令”的不可调和

尽管 Claude 在提升军方 OODA 循环效率方面展现出了巨大的统治力,但 Anthropic 公司根植于基因中的安全执念,最终与战争部的绝对控制需求迎来了正面相撞。2026年初,随着“绝对行动”细节的曝光,这场关于“谁来控制战争机器”的博弈正式浮出水面 。

Anthropic 的“两条红线”与宪法 AI

Anthropic 是由一批因对 AI 安全性感到担忧而脱离 OpenAI 的顶尖研究人员创立的 。他们首创了“宪法 AI”的训练方法,即在模型训练的底层植入不可违背的伦理原则,使其在面对有害指令时能够自我纠正并拒绝执行 。在与战争部签订价值近两亿美元的军事合同时,Anthropic 明确划定了两条不可逾越的“红线”:

  1. 绝对禁止将军用 Claude 用于对美国公民(或大规模平民)的无差别监控。 首席执行官 Dario Amodei 曾公开警告,一个能够瞬间阅读数百万份通讯记录的强大 AI,极易被滥用于镇压异见和构建极权监视网络,目前的法律框架根本无力约束这种降维的监控能力 。
  2. 绝对禁止将其技术用于开发或运行无需人类干预的“全自动致命武器”(Lethal Autonomous Weapons Systems, LAWS)。 Anthropic 认为,当前的大模型仍存在无法根除的“幻觉”(Hallucination)几率 。哪怕只有万分之一的误判,将民用客机、医院或友军错误识别为敌方目标并自动开火,都将引发惨绝人寰的屠杀 。

Anthropic 的担忧绝非杞人忧天,这深深契合了国际人道法(IHL)的核心精神。在国际法层面,将杀戮的决定权交给代码面临着严重的合法性危机 。联合国大会近年来以压倒性多数通过了多项决议,警告致命自主武器可能引发不受控制的军备竞赛并降低战争门槛 。国际法律专家指出,这种“无人在环”(Human-out-of-the-loop)的武器违反了《马顿斯条款》(Martens Clause)中关于“人类理性与公共良知”的基本原则 。更具战略破坏性的是,一旦核大国广泛部署 AI 响应系统,由于机器的决策速度是毫秒级的,一方的微小误判可能在瞬间触发另一方的全面核报复,这种“闪电战”将彻底剥夺人类国家元首通过热线电话进行外交斡旋的时间 。

此外,自主武器还带来了无法解决的责任归属真空。如果 AI 武器下达了导致平民伤亡的错误开火指令,在国际法庭上,谁该被指控犯有战争罪?是身处后方写代码的程序员?是提供大模型的 Anthropic?是按规程激活系统的现场指挥官?还是那个黑盒般的算法本身?

五角大楼的诉求:不设限的“军令”

然而,这些在硅谷实验室里看似无懈可击的伦理逻辑,在华盛顿的战争策划者眼中,却是傲慢且极度危险的掣肘。战争部的核心诉求非常简单:AI 作为一种武器系统,其使用规则应当且只应当由美国国会制定的法律以及前线战区指挥官的战术判断来决定,绝不能由一家私营科技公司通过软件许可协议来“发号施令” 。

负责研发与工程的国防部副部长 Emil Michael 曾直言不讳地指出,如果一家公司希望从战争部获取利润,其系统的安全护栏就必须为军事场景进行“重新调校” 。军方坚决要求,所有的前沿 AI 模型都必须在分类网络中毫无保留地向军方开放,支持“所有合法目的”(All lawful purposes)。

军方的逻辑在于战争的残酷性与不可预见性。面对拥有高超音速导弹和海量无人机蜂群的现代同等级对手,人类的反应时间已经严重不足 。在激烈的交火中,如果指挥官需要调用 AI 来优化反击路线或锁定目标,系统绝不能因为内部的“道德过滤器”被触发而拒绝响应或进入冗长的审核流程 。军方认为,这种由企业强加的“灰色地带”和个案审查机制在现代战争中是“不可操作的”(Unworkable),不仅会延误战机,更是对国家防卫权力的僭越 。随着“绝对行动”中 Anthropic 员工对 Palantir 的例行问询被军方解读为“试图审查合法军事行动”,这种理念冲突正式演变为了决裂的导火索 。

第四章:最后通牒与“拔插式替换”的技术噩梦

矛盾的激化导致了极具戏剧性的一幕。2026年2月24日,战争部长 Pete Hegseth 将 Anthropic CEO Dario Amodei 紧急召入五角大楼,这是一场被高级官员形容为“不是来交朋友,而是来下最后通牒”的强硬会面 。军方向 Anthropic 发出了致命威胁:如果不立即放弃针对军事用途的自主武器和监控限制,战争部将正式把 Anthropic 列入“供应链风险”(Supply Chain Risk)黑名单 。

黑名单的毁灭性商业打击

“供应链风险”标签通常是美国政府用来制裁与敌对国家(如俄罗斯、中国)情报部门有关联的实体实行的极端手段 。将该标签贴在一家美国本土的顶尖科技独角兽身上,是史无前例的惩罚性打击 。

尽管引发争议的军方先期合同价值仅为两亿美元,相对于 Anthropic 预计高达140亿美元的年收入而言并非伤筋动骨 ;但该黑名单的连带效应是毁灭性的。一旦标签生效,所有的美国国防承包商(包括微软、谷歌、亚马逊以及各类系统集成商)在处理涉军项目或向联邦政府提供服务时,都必须出具证明,确保其整个软件堆栈中完全剥离了 Anthropic 的技术 。考虑到目前有八成的美国头部企业都在其业务流程中整合了 Claude 模型,这将迫使大量的商业客户在失去军方订单与更换 AI 供应商之间做出选择,从而对 Anthropic 进军企业级市场的战略造成不可估量的破坏 。

“拔插式替换”的工程灾难

然而,战争部在这个问题上同样是在“走钢丝”。尽管军方高层姿态强硬,但要在技术上将 Claude 从现有的情报系统(如 Palantir AIP)中强行剥离,绝非像在智能手机上卸载一个 App 那样简单。在精密运转的军事情报架构中,这种强行替换被称为“拔插式替换”(Rip and Replace),其工程难度和风险堪比在万米高空飞行的客机上更换发动机 。

如果战争部执意在2026年初启动封杀,他们将立刻面临四大致命的底层技术挑战:

1. 代理工作流(Agentic Workflows)与中间件的全面崩溃 如前所述,军事 AI 的前沿应用早已不再是简单的对话框,而是代理工作流。在 Palantir 的架构中,Claude 被赋予了调用外部工具和数据库的权限 。为了实现这一点,Claude 使用特定的格式(如特定的 XML 标签结构或 JSON 输出)来触发系统的底层 API。如果强行替换为 Grok 或 GPT,这些新模型的内部推理逻辑、工具调用格式以及纠错行为与 Claude 截然不同 。这就要求军方和承包商的软件工程师在一夜之间重写数以万计的中间件代码和提示词链(Prompt Chains)。在漫长的重构期内,大量自动化的情报梳理和物流调度系统将直接瘫痪 。

2. 超长上下文窗口(Context Window)导致的数据管道断裂 情报分析的命脉在于“不遗漏”。军方现有的许多数据摄取管道(Data Pipelines)是完全按照 Claude 3.5/4.5 家族高达20万 tokens 以上且极度稳定的长文本处理能力来设计的 。分析师习惯于将过去72小时的多源截获信息一次性打包喂给系统进行摘要和模式提取。如果替换进来的模型在处理等量长文本时容易出现“中间遗忘”现象或产生“幻觉”(Hallucination),现有的数据管道逻辑就会彻底断裂 。工程师必须重新构建更加复杂的检索增强生成(RAG)架构,将长篇情报切割成碎片再送入新模型,这不仅大大增加了系统的延迟,还极易在信息切片与重组的过程中丢失至关重要的战术上下文关联 。

3. 极高机密环境(IL6)的重新认证壁垒(ATO 噩梦) 即使有完美的替代模型,网络安全合规也是一道无法逾越的高墙。任何希望接入 IL6 级机密网络的软件,都必须经历漫长且极其苛刻的授权运营(Authority to Operate, ATO)审计 。Anthropic 与 AWS、Palantir 组成的联合体,是经过了数月的渗透测试、代码审查和物理隔离验证才拿到入场券的 。即使竞争对手(如 xAI)签署了合同,将其模型部署到与互联网物理隔绝的军方内网,并确保不留下任何后门、不产生数据外溢,依然需要走完繁琐的安全审计流程 。在旧系统被拔除、新系统拿到 ATO 真正上线之前的这段“真空期”,美军的核心情报分析能力将遭到极其危险的削弱。

4. 战术本体(Ontology)语义映射的重新对齐 军事数据平台的核心价值在于其构建的“数字本体” 。Claude 在过往的部署中,已经被微调并深入对齐了美军错综复杂的战术缩写、北约标准术语以及底层数据节点之间的逻辑关系。换一个全新的 AI 大脑进来,意味着它必须重新学习这一切。在最初的磨合期内,新模型极有可能会误解指挥官的自然语言查询指令,导致在屏幕上调出错误的部队位置,或是得出荒谬甚至致命的战术推演结果 。

可以说,如果五角大楼强行切断与 Anthropic 的联系,不仅仅是烧掉数亿美元的重构经费,更是在全球地缘政治高度紧张的当下,主动制造了一次核心指挥系统的“脑死亡”。

第五章:群雄逐鹿——竞争对手的趁虚而入与军工 AI 新格局

战争部之所以敢于冒着技术瘫痪的风险下达最后通牒,核心底气来源于硅谷内部阵营的瓦解。面对巨额的国防预算和国家安全基础设施的诱惑,Anthropic 的三大核心竞争对手——xAI、OpenAI 和 Google——选择了完全务实的商业路径,正积极填补可能出现的真空 。

AI 巨头军方合作状态 (截至2026年2月)核心妥协与立场战略意图
Anthropic (Claude)面临黑名单审查 。目前独占 IL6 机密网络部署 。坚守“宪法 AI”红线,拒绝“所有合法目的”条款,禁止大规模监控与自主致命武器 。试图在国防领域维持 AI 安全与道德的国际标杆形象,不惜牺牲高额合同 。
xAI (Grok)已签署机密网络协议 。已接入 GenAI.mil 。全盘接受军方要求的“所有合法目的”标准,不对自主武器研发设限 。马斯克意图在政府换届背景下,将 xAI 打造成美国军方首选的、不受意识形态限制的 AI 基础设施 。
OpenAI (ChatGPT)深度谈判中 。已全面接入 GenAI.mil (拥有逾百万用户) 。悄然修改公司规章,删除“禁止用于军事与战争”的限制,只保留模糊的法律合规底线 。从谨慎防御转向拥抱“战争作战”,通过 2 亿美元合同逐步向核心作战系统渗透 。
Google (Gemini)接近达成机密网络协议 。早已接入 GenAI.mil 。务实低调,倾向于顺应五角大楼不设意识形态护栏的要求,以获取云服务与 AI 捆绑大单 。稳固其公共部门云服务的霸主地位(借助 AWS 以外的 GDC IL6 认证),在政府订单中分一杯羹 。

在所有竞争者中,埃隆·马斯克(Elon Musk)旗下的 xAI 动作最为迅猛。2026年2月下旬,就在 Anthropic 面临极限施压的同时,xAI 正式与五角大楼签署了一项具有里程碑意义的协议,获准将其大模型 Grok 接入军方最敏感的分类系统,用于情报分析、武器开发和战场行动 。这项交易的促成,关键在于 xAI 毫不犹豫地全盘接受了五角大楼的“所有合法用途”标准 。这意味着 xAI 放弃了 Anthropic 死守的底线,愿意为美军在任何符合法律的致命场景下提供算力支持。

与此同时,OpenAI 展现了一场精心策划的渐进式政策转向。在2024年之前,其使用条款严禁将技术用于“军事和战争”;但随后,这些字眼被悄然抹除 。如今,定制版的 ChatGPT 已全面登陆拥有三百多万潜在用户的军方内部网 GenAI.mil,并拿下价值两亿美元的合同 。尽管由于复杂的网络安全考量,OpenAI 尚未彻底突破 IL6 机密网络的门槛,但他们正带着极大的紧迫感推进谈判,试图在机密领域取代 Claude 的位置 。

作为老牌科技巨头的 Google,其 Gemini 模型早就是 GenAI.mil 的首批入驻者 。凭借其 Google Distributed Cloud (GDC) 近期获得的 IL6 授权,Google 距离达成允许 Gemini 直接处理军方最高机密情报的协议已“非常接近” 。这些科技巨头的集体妥协,不仅赋予了战争部叫板 Anthropic 的底气,也从根本上打破了硅谷此前在 AI 军事化问题上勉强维持的“道德同盟”。

结论:全球军事 AI 治理的历史性分水岭

2026年初这场爆发在五角大楼与 Anthropic 之间的激烈对抗,绝不能被简单地简化为一场价值数亿美元的商业采购纠纷。它是人类在迈向人工智能时代过程中,不可避免的一次底层逻辑大碰撞:一边是掌握着国家暴力机器、面对严峻地缘政治压力、急需通过技术保持绝对战术压制的国家意志;另一边是怀抱技术理想主义、试图在算法黑盒中植入人类终极道德底线、防止技术反噬自身的科技精英。

目前看来,战争机器正在赢得这场博弈。美国战争部通过强硬的“黑名单”威慑和庞大的预算诱惑,成功利用了商业市场残酷的竞争法则。xAI、OpenAI 和 Google 的妥协证明,在巨大的商业利益与国家安全需求的双重夹击下,单靠几家科技企业的“道德自律”根本无法阻挡人工智能武器化的洪流。

一旦“所有合法用途”成为未来全球国防部采购 AI 的默认标准,所谓的“宪法 AI”在国家安全领域将沦为一纸空文。如果在未来几年内,大模型彻底接管了从情报摄取、物资调度到无人机蜂群猎杀的全流程,而算法中不再存在不可逾越的“人类生存红线”,我们必将面对一个速度更快、杀伤力更精确,但也更具不可预测性与失控风险的冷酷战场。解决这一危机的出路,或许不应仅仅依赖于软件公司的用户协议,而必须呼唤全球主权国家在联合国等框架下,尽早达成对自主武器与军用 AI 具有实质约束力的国际法公约。在技术重构战争本质的今天,留给人类建立护栏的时间,已经极其有限了。

最后修改:2026 年 02 月 25 日 01 : 20 AM

发表评论