美國(guó)陸軍未來(lái)司令部司令約翰·默里上將在戰(zhàn)略與國(guó)際問(wèn)題研究中心的一場(chǎng)網(wǎng)絡(luò)研討會(huì)上說(shuō),人類可能無(wú)法打擊敵方無(wú)人機(jī)群。他還說(shuō),管理人類對(duì)人工智能控制的規(guī)定可能需要放寬。
默里說(shuō):“當(dāng)你抵御無(wú)人機(jī)集群時(shí),我不確定人的反應(yīng)是否能跟得上。當(dāng)你從人類的角度(做出)非致命決策時(shí),你實(shí)際上需要多少人為參與?”
這表明了五角大樓在使用自主武器時(shí)對(duì)規(guī)則有新的解讀。這需要對(duì)任何致命系統(tǒng)進(jìn)行有目的的人類控制,盡管這可能是監(jiān)督作用,而不是直接控制——被稱為“人監(jiān)督回路”,而不是“人直接控制回路”。
默里說(shuō),五角大樓的領(lǐng)導(dǎo)人們應(yīng)當(dāng)就人工智能需要多少人類控制才能安全但仍然有效進(jìn)行討論,尤其是在應(yīng)對(duì)無(wú)人機(jī)集群等新威脅的情況下。這樣的無(wú)人機(jī)群有可能會(huì)同步它們的攻擊,這樣攻擊就會(huì)同時(shí)來(lái)自各個(gè)方向,目標(biāo)就是飽和打擊防空系統(tǒng)。
由幾百架無(wú)人機(jī)組成的軍用無(wú)人機(jī)群已經(jīng)得到展示,在未來(lái)我們有可能看到由數(shù)千架甚至更多無(wú)人機(jī)組成的無(wú)人機(jī)群。美國(guó)海軍的一個(gè)項(xiàng)目設(shè)想必須同時(shí)應(yīng)對(duì)最多可達(dá)一百萬(wàn)架無(wú)人機(jī)。
美國(guó)陸軍正在斥資十億美元購(gòu)買新的防空車輛,也就是“初期機(jī)動(dòng)型短距防空系統(tǒng)”(IM-SHORAD)。在正確的時(shí)間用正確的武器應(yīng)對(duì)正確的目標(biāo)將是至關(guān)重要的。面對(duì)大量來(lái)襲的威脅——可能還會(huì)有誘餌混跡其中——人類炮手有可能負(fù)擔(dān)過(guò)重。
這并非陸軍未來(lái)司令部首次提出人類自身可能會(huì)被超越。在一次有關(guān)國(guó)防部高級(jí)研究項(xiàng)目局和美國(guó)陸軍聯(lián)合進(jìn)行的“系統(tǒng)增強(qiáng)型小型作戰(zhàn)單元”(SESU)項(xiàng)目簡(jiǎn)報(bào)中,科學(xué)家們指出,人類操作人員一直想要干涉機(jī)器人的行動(dòng)。試圖微觀管理機(jī)器的舉措會(huì)降低機(jī)器人的性能。
一名要求匿名的科學(xué)家說(shuō):“如果你不得不傳輸目標(biāo)圖像,先讓人類看到,然后等待人類按下‘開火’鍵,這對(duì)機(jī)器的速度來(lái)說(shuō)是很漫長(zhǎng)的。如果我們將人工智能的速度放慢至人類的速度……那我們就將輸?shù)簟?rdquo;
人工智能方興未艾。在去年8月的一場(chǎng)虛擬空戰(zhàn)中,人工智能5比0戰(zhàn)勝一名人類飛行員。該結(jié)果仍在被討論,但毫無(wú)疑問(wèn),機(jī)器具有更快的反應(yīng)能力,有能力同時(shí)追蹤數(shù)件事,并且不會(huì)受到疲勞或恐懼的困擾,疲勞和恐懼可能會(huì)導(dǎo)致在戰(zhàn)斗中的糟糕決策。
對(duì)此有兩種回應(yīng)。一種是努力并控制人工智能,讓其遠(yuǎn)離戰(zhàn)場(chǎng),因?yàn)闄C(jī)器缺乏人類的道德感。長(zhǎng)期以來(lái),反對(duì)“殺手機(jī)器人”的組織一直提出理由反對(duì)自主武器,而歐盟似乎也贊同。上周,歐洲議會(huì)確定其立場(chǎng):“選擇一個(gè)目標(biāo)并使用自主武器系統(tǒng)采取致命行動(dòng)的決定,必須始終由人類做出,進(jìn)行有意義的控制和判斷。”換言之,自主武器作出自己的決定應(yīng)被法律禁止。
然而,美國(guó)似乎采取了不同的路線。由政府任命的一個(gè)小組本周向國(guó)會(huì)報(bào)告時(shí)提出,人工智能有可能比人類犯的錯(cuò)誤少,并且在識(shí)別目標(biāo)方面會(huì)做得更好。
該小組副主席、前國(guó)防部副部長(zhǎng)羅伯特·沃克說(shuō):“至少追求這一假設(shè)是道德義務(wù)。”他認(rèn)為,自主武器將減少由于目標(biāo)錯(cuò)誤識(shí)別而造成的傷亡。
在這背后,有軍事觀點(diǎn)。如果由人工智能控制的武器能夠擊敗人類操作的武器,那么擁有人工智能的任何人都將獲勝,并且無(wú)法部署它們意味著接受失敗。