在美國(guó)有線電視新聞網(wǎng) (CNN) 最近的一次有趣采訪中,前總統(tǒng)巴拉克·奧巴馬被問及人工智能的未來,以及隨著人工智能技術(shù)的爆炸式增長(zhǎng)以及許多人考慮其影響而主導(dǎo)討論的各種哲學(xué)、技術(shù)和倫理變量。在明確強(qiáng)調(diào)人工智能繼續(xù)為世界帶來顛覆性創(chuàng)新的同時(shí),他用簡(jiǎn)潔的語(yǔ)言總結(jié)了人工智能應(yīng)用中可能最重要的復(fù)雜性或挑戰(zhàn)……“機(jī)器可以”我感到高興,”他告訴美國(guó)有線電視新聞網(wǎng)。
奧巴馬在描述人工智能新應(yīng)用的出現(xiàn)和迅速到來如何繼續(xù)迅速改變事物時(shí)說這番話,帶來了看似無限的新希望,同時(shí)也帶來了挑戰(zhàn)和復(fù)雜性。他在與 CNN 的討論中很快贊揚(yáng)了人工智能的優(yōu)點(diǎn),但也提到了人工智能的挑戰(zhàn)或局限性,因?yàn)槿祟惇?dú)特的屬性,如情感、奉獻(xiàn)和其他更主觀的現(xiàn)象無法用機(jī)器來近似。確實(shí)如此,雖然國(guó)防工業(yè)創(chuàng)新者和空軍研究實(shí)驗(yàn)室等五角大樓重要機(jī)構(gòu)正在探索人工智能以某種方式估計(jì)、計(jì)算或分析更主觀現(xiàn)象的方法,但顯然存在許多人類認(rèn)知、直覺、心理細(xì)微差別所獨(dú)有的變量、道德、意識(shí)和情感似乎是數(shù)學(xué)生成的算法根本無法復(fù)制,甚至無法開始真正準(zhǔn)確地近似。這就是為什么領(lǐng)先的武器開發(fā)商很快解釋說,任何最佳的前進(jìn)道路都涉及混合或組合,涉及五角大樓最喜歡的術(shù)語(yǔ)……“有人與無人協(xié)作”。
然而,這并不意味著人工智能的優(yōu)點(diǎn)和可能性應(yīng)該被低估,正如陸軍研究實(shí)驗(yàn)室的高級(jí)研究人員解釋的那樣,就人工智能真正能夠?qū)崿F(xiàn)的目標(biāo)而言,“我們正處于冰山一角”。這就是為什么五角大樓正在衡量人工智能在非致命防御力量背景下的快速成功和前景。人類決策能力與高速人工智能生成計(jì)算的速度和分析能力相結(jié)合,已經(jīng)創(chuàng)造了改變范式的創(chuàng)新。想象一下防御人工智能武器系統(tǒng)可以挽救多少生命?在陸軍融合項(xiàng)目等關(guān)鍵的現(xiàn)代戰(zhàn)爭(zhēng)實(shí)驗(yàn)中,人工智能也已經(jīng)大大縮短了從傳感器到射手的曲線。
這些復(fù)雜性是為什么我們繼續(xù)做出如此多的技術(shù)努力來提高人工智能生成的分析的“可靠性”,以便通過機(jī)器學(xué)習(xí)和實(shí)時(shí)分析,機(jī)器可以確定上下文并準(zhǔn)確地處理可能會(huì)出現(xiàn)的新材料。不成為其數(shù)據(jù)庫(kù)的一部分。正如前空軍研究實(shí)驗(yàn)室指揮官希瑟·普林格爾少將向 Warrior 描述的那樣,這是人工智能的前沿新領(lǐng)域。
“當(dāng)今的人工智能是數(shù)據(jù)庫(kù)密集型的。但未來可以而且應(yīng)該是什么?我們?nèi)绾尾拍軐⑺鼜膬H僅作為一個(gè)數(shù)據(jù)庫(kù)升級(jí)為可以利用概念和關(guān)系、或情感和預(yù)測(cè)分析的東西?那么,我們?nèi)祟惸茏龅氖虑檫€有很多是人工智能做不到的嗎?我們?nèi)绾螌?shí)現(xiàn)這一目標(biāo)?”空軍研究實(shí)驗(yàn)室前司令希瑟·普林格爾少將在今年早些時(shí)候的一次采訪中告訴《勇士》。
“循環(huán)之外的人工智能”可以拯救生命
如果像一群微型無人機(jī)爆炸物接近進(jìn)行攻擊或一波來襲高超音速導(dǎo)彈以五倍音速的速度接近,人類決策者可能無法足夠快地做出反應(yīng)。事實(shí)上,軍事指揮官可能沒有任何機(jī)會(huì)反擊或確定最佳的防御行動(dòng)方案。
人類決策者不僅沒有時(shí)間權(quán)衡威脅變量,而且武器操作員本身也可能不堪重負(fù),無法在收到命令時(shí)檢測(cè)、跟蹤、交戰(zhàn)或?qū)Ω咚偻瑫r(shí)攻擊進(jìn)行開火。只是根本沒有時(shí)間。
人在循環(huán)中
人工智能在軍事技術(shù)、武器和高速計(jì)算領(lǐng)域的出現(xiàn)和迅速成熟,讓許多人提出了一個(gè)緊迫且相關(guān)的問題……到底多久才能出現(xiàn)能夠自主發(fā)現(xiàn)、跟蹤、瞄準(zhǔn)和識(shí)別目標(biāo)的“終結(jié)者”型武裝機(jī)器人?無需任何人為干預(yù)即可摧毀目標(biāo)?
答案是,在某些方面,技術(shù)已經(jīng)存在……然而,還有許多復(fù)雜的概念、技術(shù)、哲學(xué)和政策變量需要考慮。遠(yuǎn)程操作的武裝機(jī)器人已經(jīng)存在,甚至被投入戰(zhàn)爭(zhēng)多年,這意味著武器系統(tǒng)由人類遠(yuǎn)程控制,而無需機(jī)器對(duì)致命武力做出任何決定或決定。這完全符合五角大樓現(xiàn)行和長(zhǎng)期的原則,即在做出有關(guān)使用致命武力的決定時(shí),必須始終有人參與其中。那么非致命武力呢?鑒于人工智能決策能力、分析和數(shù)據(jù)組織的快速成熟,這個(gè)前沿問題現(xiàn)在受到五角大樓的關(guān)注。
從本質(zhì)上講,一個(gè)人工智能系統(tǒng),可以聚合和分析不同的傳入傳感器數(shù)據(jù)池,是否應(yīng)該能夠準(zhǔn)確辨別致命和非致命力量之間的區(qū)別?人工智能攔截器能否用于無人機(jī)防御或立即消滅敵方火箭、無人機(jī)、火炮或迫擊炮的方法?
聯(lián)合反無人機(jī)系統(tǒng)辦公室負(fù)責(zé)能力和需求的部門主管馬克·E·佩里尼上校在 2021 年的一次電話會(huì)議上表示:“目前我們無權(quán)讓人員介入。”根據(jù)五角大樓去年發(fā)布的一份報(bào)告。“根據(jù)國(guó)防部現(xiàn)有的政策,在決策周期內(nèi)的某個(gè)時(shí)刻必須有一個(gè)人來授權(quán)參與。”
然而,高速、支持人工智能的計(jì)算機(jī)和傳感器到射擊者的連接,再加上新興威脅的速度和范圍,是否會(huì)開始影響這一方程式?也許確實(shí)存在一些戰(zhàn)術(shù)情況,其中部署能夠在幾秒(甚至幾毫秒)內(nèi)跟蹤和攔截逼近威脅的自主系統(tǒng)既符合道德又極其有利。
佩里尼在五角大樓的報(bào)告中解釋說,現(xiàn)在有一個(gè)新興的討論領(lǐng)域,涉及人工智能在多大程度上可以實(shí)現(xiàn)“環(huán)內(nèi)”或“環(huán)外”人類決策,特別是在考慮到無人機(jī)群等威脅。
人工智能現(xiàn)在所實(shí)現(xiàn)的精確度和分析保真度水平至少在某種程度上激勵(lì)五角大樓考慮這個(gè)問題。先進(jìn)的算法,如果加載了必要的數(shù)據(jù),并通過機(jī)器學(xué)習(xí)和進(jìn)行識(shí)別所需的分析來支持,現(xiàn)在就能夠處理、解釋和成功分析大量不同的數(shù)據(jù)。
復(fù)雜的算法可以同時(shí)分析許多原本互不相關(guān)的變量,例如敵方物體的形狀、速度、輪廓及其熱和聲特征。此外,算法現(xiàn)在還可以評(píng)估這些與周圍環(huán)境、地理?xiàng)l件、天氣、地形和有關(guān)特定威脅與特定射手、攔截器或?qū)勾胧┙粦?zhàn)的歷史實(shí)例的數(shù)據(jù)相關(guān)的交織變量。支持人工智能的機(jī)器越來越能夠以集體方式進(jìn)行分析,哪種響應(yīng)可能是最佳的或最適合特定的威脅場(chǎng)景?
支持人工智能的機(jī)器能否在幾毫秒內(nèi)做出這些決定,從而在戰(zhàn)爭(zhēng)中大量挽救生命?一群思想家、武器開發(fā)商和未來學(xué)家正在從概念和技術(shù)意義上評(píng)估這種可能性,探索所謂的武器和自主的“循環(huán)外”可能性。這非常有趣,因?yàn)樗岢隽艘粋€(gè)問題:人工智能或自主武器系統(tǒng)是否應(yīng)該能夠在“非致命”情況下開火、射擊或使用武力。
當(dāng)然,目前的努力并不是“改變”五角大樓的學(xué)說,而是一種探索,因?yàn)榉烙筷?duì)和部署反措施的時(shí)間窗口可能會(huì)呈指數(shù)級(jí)縮短,從而在美軍受到攻擊時(shí)可以在戰(zhàn)爭(zhēng)中挽救生命。從技術(shù)上來說,這種能力至少在某種程度上是存在的,但這并不能解決伴隨這種意外事件而來的某些倫理、戰(zhàn)術(shù)和理論問題。
美國(guó)人工智能和網(wǎng)絡(luò)安全領(lǐng)域的頂尖專家之一、前五角大樓高級(jí)專家表示,這些都是復(fù)雜、微妙且極其困難的問題。
“我認(rèn)為這既是一個(gè)哲學(xué)問題,也是一個(gè)技術(shù)問題。從技術(shù)角度來看,我們絕對(duì)可以實(shí)現(xiàn)這一目標(biāo)。從哲學(xué)的角度來看,我們對(duì)底層機(jī)器的信任程度,我認(rèn)為這仍然可以是一個(gè)公開的討論。因此,攔截?zé)o人機(jī)的防御系統(tǒng),如果它有地對(duì)空導(dǎo)彈組件,那么它的失火或錯(cuò)誤識(shí)別仍然是致命的。我認(rèn)為,如果防御系統(tǒng)有可能失火,我們必須非常謹(jǐn)慎地將其視為非致命系統(tǒng),因?yàn)榉烙到y(tǒng)仍然可能導(dǎo)致死亡。當(dāng)談到防御應(yīng)用時(shí),有一個(gè)強(qiáng)有力的理由……但我認(rèn)為我們確實(shí)需要看看在我們太過出格之前對(duì)這些防御系統(tǒng)采取了哪些行動(dòng),”Ross Rustici,
魯斯蒂奇進(jìn)一步闡述說,在“干擾”或某種非動(dòng)能對(duì)抗措施(如果失火或發(fā)生故障,不會(huì)傷害或傷害人)的情況下,使用人工智能和計(jì)算機(jī)自動(dòng)化確實(shí)要高效得多。然而,在致命武力的情況下,要完全“信任”人工智能機(jī)器做出決定,仍然存在許多可靠性問題。
“我希望看到的未來是有更多內(nèi)置的錯(cuò)誤處理功能,這樣當(dāng)傳感器性能下降時(shí),當(dāng)存在信息可靠性問題時(shí),您就可以作為人類做出決定?,F(xiàn)在存在將被損壞、破壞或不完整的數(shù)據(jù)提供給習(xí)慣于過度依賴這些系統(tǒng)的人的風(fēng)險(xiǎn)。錯(cuò)誤仍然可以通過這種方式引入到系統(tǒng)中。我認(rèn)為嘗試這樣做是非常正確的保持人機(jī)界面分離,讓人們對(duì)技術(shù)持懷疑態(tài)度,以確保我們盡最大努力不會(huì)發(fā)生錯(cuò)誤。”Rustic 解釋道。