2020年9月,美國五角大樓在亞利桑那州尤馬訓練場舉行了「融合」項目展示性演習,展示了美軍實施「全域聯合作戰」的最新能力,也揭開了美軍2023年至2027年「對抗無人化」戰略的面紗。

「全域聯合作戰」,主要執行三項基本任務:一是抵消敵人的遠程武器系統,打擊其處於戰略、戰役縱深的機動兵力。二是消滅「反介入/區域拒止」體系中的兵力和遠程作戰系統。三是為己方兵力消滅敵人軍事目標、力量的任何機動創造良好條件。

近幾年,美國國防部正在將所有隸屬於國防部的勤務部門融合在一個統一的全球聯合高防護性網絡內,即全域聯合指揮控制(Joint All-Domain Command and Control, JADC2)系統。用一個簡單的情景可以描繪其功能之強大:設想在前線,任何一名士兵所看到的情景,通過網絡,使系統上所有人都可以同時看到。

全域聯合指揮控制系統,通過強大的人工智能和信息傳輸功能,融合了包括地面、海上、空中和太空的所有感應器、情報信息、武器裝備和作戰系統,使作戰可以在完全沒有人類參與的情況下,更加高效、快速地進行。

也就是說,美國已經具備大規模發展致命性自主武器系統(Lethal Autonomous Weapon Systems, LAWS)的所有條件。

由於致命性自主武器系統違背人類倫理,就相當於把人類的生殺大權完全交給人工智能掌握,所以它不是美國追求的目標。但是威脅環境的變化,迫使美國軍方在這個問題上面臨痛苦的選擇。

我們從五角大樓開展的一些試驗和演習,來了解人工智能在現代武器系統中已經做到的和將會做到的事情,以及它對未來戰爭的影響。

2020年8月20日,美國國防高級研究計劃局(DARPA)組織了一次被稱為「阿爾法狗鬥」的虛擬空戰試驗。網上直播吸引了成千上萬的觀眾目睹了兩架戰鬥機的格鬥。

一架(紅方)由人工智能操控,另一架(藍方)由經驗豐富的戰鬥機飛行員駕駛。空戰中,儘管這位飛行員訓練有素,卻大比分失利。賽後這位飛行員坦言,紅方突然、不可預測的行動令其十分震驚。最後一輪空戰時,飛行員逐步開始理解電腦程序可能採取的行動,但他也沒能改變敗局,只是比上一輪多堅持了18秒。

空天偵察裝備,是全域聯合指揮控制網絡形成殺傷鏈的關鍵環節。尤馬訓練場演習期間,來自無人偵察機和偵查衛星的情報數據,發送給美國劉易斯-麥科德陸空聯合基地,在這裏人工智能電腦對目標迅速識別、定位。

作戰指令通過高速保密信道發送給作戰系統,演習中使用了兩門XM1299自行榴彈砲。榴彈砲發射XM1113 Excalibur ER增程精確制導砲彈,擊中了靶場的T-72坦克和鎧甲-S1防空火砲兩個目標。準備和實施攻擊的過程中,決策中心和其它指揮環節並未參與。

整個作戰過程,從發現目標到將其摧毀僅用20秒,而之前需要的時間不少於20分鐘。這場演習的一個重要看點是,在決策過程中迴避了人的介入,在人工智能自主行動下達成了在20秒內摧毀目標的結果。

尤馬演習中還出現了城市戰場背景下實施作戰的戰鬥機械人。戰鬥機械人藉助人工智能和視頻系統獨立識別目標並自主採取行動,操作員在戰鬥機械人絕大部份行動過程中只是一名觀眾。據說在機械人開火前需要把信息發送給操作員,也就是說生殺大權還掌握在操作員手上,而這也正是人工智能發展中爭議最大的部份。

尤馬融合項目演習總導演羅斯科夫曼(Ross Coffman)准將稱:「能否在沒有人類參與的情況下,自動做到這一點?我認為,技術上可以實現。但美國陸軍有自己的倫理準則。人應該處於迴路之中。」

在現代指揮和控制中,有一個叫做「OODA循環」的東西在起著主導作用。它是美國空軍上校約翰柏伊德(John Boyd)提出的決策方法。這個方法是由觀察(Observe)、調整(Orient)、決定(Decide)與行動(Act)組成的一個往復循環。OODA循環實際上成為阻止人類墜入自我殺戮陷阱的保護傘。

但是,美國軍事領導人擔心傳統的人類決策過程可能會變得過時,因為人類不能像人工智能那樣快速反應。而這一點正在被他們的對手利用,他們擔心中共正在開發致命性的自主武器系統,他們斷言中共不會像其潛在對手那樣有道德上的責任感。

跳過OODA循環不顧及道德責任,驅動致命性自主武器系統的軍隊,很可能會主宰戰鬥空間。(Peter Macdiarmid/Getty Images)
跳過OODA循環不顧及道德責任,驅動致命性自主武器系統的軍隊,很可能會主宰戰鬥空間。(Peter Macdiarmid/Getty Images)

很明顯,你不必是一個軍事天才也會知道,那個跳過OODA循環不顧及道德責任,驅動致命性自主武器系統的軍隊,很可能會主宰戰鬥空間。

這正是人工智能倫理學家一直在警告的事情。將人類排除在外,並將生殺大權完全交給一個自主的武器系統,不僅僅是一個道德滑坡的問題,它的毀滅性不亞於爆發核戰爭。

在這一問題上,中共一直處於黑箱狀態。2017年,在美國阿西洛馬召開的「有益的人工智能」(Beneficial AI)會議上,數百名專家簽署了具有重大歷史意義的「阿西洛馬人工智能準則」(Asilomar AI Principles),但參加會議的中國專家僅有吳恩達一人。而在著名的牛津大學生命未來研究所倡議的「禁止自動化武器公開信」上簽名的3,462位研究人員中,只有3位中國研究者且都來自香港中文大學。中共顯然與西方國家和研究機構對人工智能的倫理和安全性問題缺乏基本共識。

在中共的宣傳中,中共認知的未來作戰體系將由「無人+智能」構成,其本質是無人作戰力量純粹在數據和信息驅使下形成新的作戰體系,完全憑藉機器速度獲得高維度作戰能力。這裏跟倫理、道德沒有半點關係。

中共強調黨指揮槍。諷刺的是在中共內部有一種觀點,就是將人類排除在外的系統更可信賴,因為電腦不會試圖顛覆中共最高指揮機構的命令。因此,中共希望將更多的精力轉向人工智能或智能化武器。

中共對人工智能在軍事領域的應用,來自於對美國的軍事研究,但中共憑其沒有道德底線的軍事文化和物質資源,在方法論層面逐漸與美國和主流國際社會脫離。在軍事戰略上轉向以抵消為導向的競爭與創新,在人工智能領域靠放棄人類基本準則獲得所謂「跨越式發展」。

美國軍方已經清醒地看到這一點,並開始策劃新的行動。五角大樓將在今年秋天,針對一個代表中共的虛擬國家,展開一系列的戰爭推演。在五角大樓的戰爭想定中,這個虛擬國家在軍事能力上不受美國對人工智能參與戰爭的道德約束。就是測試美國目前需要有人類參與的軍事力量和人工智能系統,與沒有人類參與的擁有人工智能系統的軍隊對抗。

美國軍方有一部份人認為,這場針對虛擬中共軍隊有史以來最先進的戰爭,其結果可能會顛覆人類文明的歷史。如果美國在這場虛擬戰爭中失敗(很多人認為一定是這個結果),那麼向美國國會推銷將人類和OODA循環排除在人工智能系統之外,肯定會更容易。這次戰爭推演的結果應該為美國政府提供它所需要的一切理由,以證明大規模開發致命性自主武器系統的合理性。

負責參謀長聯席會議全域聯合指揮與控制工作的丹尼斯克拉爾(Dennis Crall)中將說:「我們的對手參與的速度,可能將比我們看到的任何東西都快。敵人很可能使用武裝機械人,在沒有人類監督的情況下開火。」

陸軍未來司令部負責人約翰穆雷(John M. Murray)將軍說:「我確實認為有一些國家沒有美國軍隊那樣的道德基礎。某些國家的軍隊……沒有這種道德底線。因此,這確實讓我擔心。我確實為此失眠……我們必須考慮這個問題。」

按理說,地球上任何國家之間的戰爭都算是人類之間的事,當面對人類共同災難時,應該都回到人類的共同立場上。但中共不是,中共在致命性自主武器系統上沒有道德底線的追求,已經使全人類面臨威脅。

舉個例子,冷戰期間,對峙雙方用核威懾阻止對方的核攻擊,考慮到無數生命甚至地球的毀滅,誰也沒有使用過核武器。今天的致命性自主武器系統就好比一枚「核彈」,所不同的是這枚「核彈」的發射,是以開始致命性自主武器系統的大規模開發為標誌。而該系統的使用,就相當於「核爆」。中共現在的行為,等於已經發射了「核彈」。◇

------------------

🏵️《九評》20周年
https://hk.epochtimes.com/category/專題/退黨大潮

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand