2022年5月11日,蘭德公司網(wǎng)站發(fā)布報告,題為《Exploring the Civil-Military Divide over Artificial Intelligence》,作者是詹姆斯·瑞瑟夫(技術分析師)和埃里克·蘭德里等8人。報告要點如下:
研究的問題
(1)哪些因素會在美軍人工智能(AI)潛在應用方面對軟件工程師的感受產(chǎn)生影響?
(2)軟件工程師對社會機構(gòu)(特別是對國防部)的信任程度與其在為國防部構(gòu)建人工智能應用程序的可接受性方面的看法之間是否存在相關性?
(3)軟件工程師是否認為已被國防部確定為戰(zhàn)略競爭對手的那些國家對美國構(gòu)成重大威脅?
(4)軟件工程師依賴哪些類型的新聞媒體和其它信息源來獲知與國防部相關的事件?
人工智能預計將成為美軍維持其軍事主宰地位的關鍵能力。美國國防部與領先的高科技私營企業(yè)合作,而在其客戶群中軍方所占比例相對較小,這為實現(xiàn)尖端的人工智能賦能能力和獲得領先人工智能軟件開發(fā)人員和工程師提供了有價值的渠道。為了評估私營部門的軟件工程師和其他技術人員對國防部人工智能潛在應用的看法,一個研究團隊進行了一項調(diào)查,該調(diào)查提出了描述美軍人工智能使用方式的各種想定,并且要求受訪者針對這些人工智能的使用方式描述其感受。這些想定涉及幾個變量,包括與戰(zhàn)場距離的遠近、行動的破壞性以及對人工智能算法的人工監(jiān)督程度。這項調(diào)查的結(jié)果發(fā)現(xiàn),大多數(shù)美國人工智能專家并不反對國防部的基本任務或人工智能的許多軍事應用。
重要發(fā)現(xiàn)
(1)硅谷和國防部之間似乎不存在不可逾越的鴻溝
• 來自硅谷科技公司和擁有一流計算機學科的那些大學的受訪者對人工智能的各種軍事應用感到滿意。
(2)對涉及使用致命武力的人工智能應用程序的感受存在顯著差異
• 在3家接受調(diào)查的硅谷科技公司中,約有1/3的受訪者對人工智能的致命用例感到不安。
(3)科技工作者對領導者的信任程度很低——他們相互之間甚至也不信任
• 軟件工程師和其他技術工作者對擔任領導職務的個人缺乏信任。
• 科技工作者對科技公司CEO的信任幾乎與其對民選官員或聯(lián)邦機構(gòu)負責人的信任程度一樣低。
(4)科技工作者最擔心美國受到賽博威脅
• 在所有3個群體中,超過75%的受訪者還認為中國和俄羅斯對美國構(gòu)成嚴重威脅。
(5)科技工作者支持使用武力防御外國侵略
• 調(diào)查受訪者強烈支持使用武力保衛(wèi)美國及其北約盟國免受外國侵略,近90%的參與者認為在這種情況下使用武力是合理的。
(6)硅谷科技工作者與軍方幾乎沒有個人聯(lián)系
• 硅谷受訪者只有不到2%曾在美國武裝部隊服役。
• 在國防承包商工作的軟件工程師中,只有近20%曾在美軍服役。
建議
• 應探索擴大國防部與硅谷公司之間合作的機制,共同應對賽博攻擊所構(gòu)成的威脅,賽博攻擊是人工智能的潛在應用,硅谷工程師將其視為關鍵的全球威脅。
• 應探索擴大參與軍事行動的人員、國防部技術專家和在技術崗位上工作的硅谷個人貢獻者(非管理人員)之間的接觸,以評估在各組織之間建立更大信任的可能渠道。
• 應探索國防部與硅谷工程師就國防部如何使用人工智能的一些細節(jié)進行合作的潛在好處;此外,闡述軍方在微妙和復雜的情況下如何考慮使用人工智能。
• 應調(diào)查為國防部和硅谷員工提供參與共享價值觀和原則之機遇的價值以及這樣做的潛在益處。最近發(fā)布的國防部人工智能倫理原則表明,國防部本身對人工智能的一些潛在用途感到不安:這可以作為與硅谷工程師討論如何應用人工智能的基礎。
• 另一個可能富有成果的調(diào)查領域是評估收益并調(diào)整各類接觸,以幫助最具創(chuàng)新性和經(jīng)驗的美國人工智能專家了解國防部如何完成其使命,并發(fā)現(xiàn)他們的才能和專業(yè)知識如何有助于解決國防部和國家的問題。