作者:Anita,Sentient亞太區高管
伊朗戰爭,把大模型從實驗室一次性扔進了戰場。
2026 年 2 月底的“Epic Fury”行動,不只是一次聯合空襲,更像是一場在真實戰區上進行的 AI 壓力測試,誰能在分鐘級甚至秒級壓縮“傳感器—決策—射手”的鏈路,誰就握住了下一輪地緣政治的定價權。

在這次行動中,美以官方消息人士聲稱,針對伊朗關鍵軍事與核設施的集中打擊“取得了戰略成功”,並多次暗示伊朗最高領袖哈梅内伊極有可能在德黑蘭北部的地下指揮設施中遇襲身亡——但伊朗方面長期拒絕給出清晰的生死確認,讓這樁“斬首”更像是一場圍繞權威敘事的博弈。
從操作層面看,Epic Fury 的特點不是時間拉得多長,而是密度:十餘天内的高強度空襲、無人機蜂群突防、特種行動與網絡戰穿插推進,背後是一套高度軟件化的作戰棧——Palantir 的戰場本體論與數字孿生平台、美國防務機構的情報融合係統、以色列的自動化目標生成工具,再疊加 OpenAI 等前沿大模型企業的新角色。

這場戰爭標記的,是一個象徵意義上的轉折點:從這裡開始,“AI 參與軍事決策”不再是五角大樓 PowerPoint 裡的 buzzword,而是市場、監管與道德辯論都繞不開的、實實在在的現金流與政治風險來源。
短短兩三年時間,OpenAI 的公開立場完成了一次華麗轉身。
從對“軍事用途”保持距離,到承認可以在滿足安全原則的前提下支持國家安全與防務項目,並拿到了可能是本時代最敏感的一張大客戶合同。
2026 年 2 月 27 日前後,Sam Altman 宣佈公司與美國國防部達成協議,在機密網絡上部署 GPT 係列模型,用於情報分析、翻譯、作戰推演等“防務相關場景”。 在部分公開材料與媒體報道中,這個傳統意義上的國防部被刻意稱作“Department of War”,象徵性地回到了更具進攻意味的戰爭語言,盡管在法律上機構名稱仍然是 Department of Defense。
公開報道梳理出的“紅綫”大致有三條:
不參與美國境内的大規模監控;
不直接驅動完全自主的致命武器係統,武力使用必須保持“人類在環”;
在高風險決策中保留人為監督與責任歸屬。
這些原則既是 OpenAI 對外的倫理姿態,也是合同談判中的議價籌碼——它向華盛頓傳遞的信號是:這家公司願意合作,但希望在“可控範圍内合作”。nytimes+1
這些模型在 Epic Fury 這樣的實戰中扮演了什麼角色?公開信息只會停留在安全的描述——輔助情報處理、分析復雜數據、幫助決策者更快地形成態勢圖景。
但從技術特性來看,把海量衛星圖像、信號情報與社交媒體流喂給大型模型,再讓它對潛在“高價值目標”進行排序、路徑預測和風險評估,本質已經非常接近“戰場大腦”。
對華爾街來說,這份協議的意義很直接。
在 Anthropic 因為堅持更硬的紅綫而被五角大樓打上“供應鏈風險”標簽之後,OpenAI 以一種“倫理上有限妥協、商業上極大獲利”的姿態,接住了這張數億美元量級、且極難被競爭對手撼動的國防大單。
與 OpenAI 的“務實”形成鮮明對比的,是 Anthropic 的處境:它原本也是五角大樓眼中最有價值的前沿模型供應商之一,卻因為在紅綫上拒絕退步,被整套體係以極其粗暴的方式排除在外。
多家媒體報道,在與國防部的談判中,Anthropic 對兩點態度強硬:
Claude 不參與完全自主武器係統;
Claude 不參與針對美國公民的大規模監控與畫像。
而五角大樓的訴求則更接近“任何合法用途都不應被模型供應商預先劃綫”。
談判破裂後,國防部長 Pete Hegseth 在最後期限後宣佈將 Anthropic 列為國家安全“供應鏈風險”,並要求所有與軍方有業務往來的承包商在六個月内完成從 Claude 的遷移——這種標簽此前主要用在來自對手國家的公司身上,比如華為,如今首次落在美國本土的 AI 創業公司頭上,在矽谷引發了一輪“寒蟬效應”的討論。
Pentagon 内部評估顯示,完全替換已嵌入機密係統的大模型堆棧可能需要數月時間,這意味著禁令生效與 Epic Fury 的時間窗口高度重疊。
從技術現實推演,Claude 很可能在被行政命令“掃地出門”之前,仍以某種形式參與了美國的國家安全工作,只是沒有任何人願意在聽證會上把這條鏈路講清楚,這也是現代軍工–科技復合體典型的“灰色帶”。
資本市場讀到的是一個簡單卻危險的教訓,當“安全紅綫”與“最大化國防訂單”發生沖突時,那家更願意談判的公司,往往也是更安全的投資標的;而堅持原則的企業,可能會在一夜之間被打上“供應鏈風險”的烙印,被投資人按下“重新估值”的按鈕。
如果說 OpenAI 和 Anthropic 是戰爭裡的“頭腦”,那麼 Microsoft 和 Google 才是這套體係真正的中樞神經:
沒有它們的雲,所有大模型與本土 AI 工具都只能停留在 PowerPoint 上。
AP 和多家機構調查顯示,自 2023 年 10 月以來,以色列軍隊在 Azure 上使用機器學習工具的規模在數月内激增至此前的幾十倍,最高可達 64 倍,整體 AI 功能調用接近 200 倍。
同時,大規模數據存儲也達到了相當於國會圖書館級別的數量級。
這些算力被用於轉錄和翻譯大量通信、處理來自監控基礎設施的信號情報,並與以色列本土的 AI 係統(例如 Lavender 與 Gospel)聯動,自動生成目標列表和風險評估,顯著提高了“目標生産綫”的吞吐量。
雖然微軟後來在輿論與員工壓力下削減了對部分以軍單位(尤其是監控相關部門)的服務,但主幹的雲與 AI 合同仍在運行,這讓公司在商業上收獲了大額訂單,同時在聲譽層面付出了不小的代價。
2021 年開始,Google 與 Amazon 通過 Project Nimbus 為以色列政府和軍隊提供價值約 12 億美元的統一雲基礎設施,涵蓋計算、存儲與機器學習工具。 員工、學者與人權組織則持續警告:
Nimbus 的通用雲與 AI 能力極易被用於監控和軍事目標選擇,盡管 Google 官方一再強調合同“不包括進攻性軍事用途”。
到了 Epic Fury 這一階段,外界普遍認為 Nimbus 類型的雲平台是支持以軍復雜目標規劃、戰場仿真與實時情報融合的關鍵算力底座,只是具體調用路徑和戰例細節仍處於保密狀態。
從風險視角看,這意味著 Google 正在以“略高的政治風險溢價”換取來自中東安全客戶的穩定收入,而公司内部圍繞該項目的抗議和辭職潮,則在提醒投資者:這不是一筆可以簡單視作普通企業雲合同的業務。
如果想理解 AI 如何改變戰場,人們不妨從一套最具爭議的以色列係統說起:Lavender、Gospel 和 Where’s Daddy。

+972 Magazine 與 Local Call 的調查顯示:
“Lavender” 通過對加沙幾乎所有成年男性進行行為與關係圖譜分析,為每個人打出 1–100 的“疑似武裝分子評分”,在短時間内標記出多達 3.7 萬名被懷疑為武裝組織成員的目標;
“Gospel” 則專注於建築與基礎設施,自動標記被認為用於軍事目的的樓宇,形成可供空軍批量消耗的轟炸清單;
“Where’s Daddy” 負責時間維度的優化:追蹤已列入清單目標何時回到家中,並在其與家人一同在住所時觸發打擊——這極大提高了“成功擊殺”的概率,同時也將家庭成員與鄰居置於高度致命的風險之中。
前綫以軍情報官員在受訪時承認,對 Lavender 推薦的目標,人類審核往往只是幾十秒的“形式主義打勾”;
而人權組織與聯合國專家則將這套體係形容為“高度自動化的大規模暗殺工廠”,指出它在放大算法偏見、壓縮人類判斷空間、推高平民傷亡風險方面的結構性問題。
需要強調的是,公開報道更明確地將這套係統與加沙戰爭關聯起來,而對於其在伊朗戰場的具體應用,官方長期保持沉默。
但從技術可移植性看,只要掌握伊朗境内足夠規模的通信數據、位置軌迹與社交圖譜,把 Lavender 邏輯“翻譯”到德黑蘭權力精英身上,並不是一件難以想象的事情——這也是為什麼許多分析人士認為,Epic Fury 更像是“加沙式算法殺傷工廠”向一個主權國家首都的外溢實驗。
把這些碎片拼在一起,你會得到一幅很不“矽谷”的圖景:
一端,是以 OpenAI 為代表、願意在紅綫上做出有限妥協的大模型公司,在國防預算中迅速站穩腳跟;reuters+2
另一端,是堅持更嚴格安全原則的 Anthropic,被國防部長以“供應鏈風險”之名一腳踢出局,給整個行業上了一課“不要和唯一買家硬碰”的現實課;axios+5
底層,則是 Microsoft 與 Google 這樣的雲巨頭,用 GPU 集群與機密雲網絡搭建起現代戰爭的“操作係統”,承接了絕大多數來自戰時 AI 的現金流,同時承擔著越來越高的聲譽與監管風險。
從資産定價的角度看,這不再只是“科技股 vs 國防股”的二元對立,而是一種新的 AI–Cloud–Defense 復合體:
戰術上,低成本無人機群、自動化目標生産與 AI 決策係統正在侵蝕傳統大國威懾,讓昂貴的第五代戰機和航母戰鬥群顯得像上一代資本密集資産;
産業上,大模型與雲廠商通過軍方獲得了極少數玩家才能享有的逆周期現金流,並以“安全與機密”為理由,進入了一個監管難以完全透明的利潤黑箱;
政治上,當“誰更配合國家安全議程”成為獲得關鍵合同的決定性變量時,企業對倫理紅綫的堅持會被係統性打折,而這類激勵結構會被未來所有創業者與投資人默默記在心裡。
伊朗戰場可能只是序章。無論下一次爆發在台海、東歐,還是在中東的另一塊地板磚上,真正決定戰爭節奏的,不再只是坦克數量和火炮口徑,而是訓練於多少 PB 機密數據之上的模型、連接在多少 GPU 機架上的雲。
問題是,在我們把越來越多的殺傷鏈路外包給少數幾家大模型與雲公司之前,全球監管與民主政治,是否還有時間認真回答一個問題——當算法的建議在實戰中變成一串爆炸坐標時,到底誰來為這些決策負責。
内容來源:PANews
財華網所刊載內容之知識產權為財華網及相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、複製及建立鏡像等任何使用。
如有意願轉載,請發郵件至 content@finet.com.hk,獲得書面確認及授權後,方可轉載。