五角大樓關於殺手機器人的最新政策是什麼?

五角大樓發布了一份 更新其指令 3000.09,涵蓋了他們的術語 武器系統的自主性 和其他人稱'殺手機器人.' 當前的無人機,如空軍和中央情報局 MQ-9 收割者 由遙控器操作:一個人 坐在視頻屏幕前 識別數千英里外地面上的目標,將它們放在十字準線中並釋放 地獄火導彈 或其他武器。 自主武器不同:它們在沒有任何人為乾預的情況下選擇自己的目標。 關於何時以及如何使用它們需要明確的規則,而新指令使它們更近了一步。

十年前,當第一個版本 3000.09 發佈時,自主武器看起來就像科幻小說。 現在它們非常真實。 聯合國聲稱 土耳其提供的無人機自主攻擊目標 2020 年在利比亞,俄羅斯現在正在烏克蘭部署遊蕩彈藥 自主能力。

許多活動家,如 阻止殺手機器人的運動,希望徹底禁止自主武器,堅持任何遠程武器都在 有意義的人為控制 每時每刻。 聯合國一直在討論如何 控制這些武器多年.

然而,正如新指令所表明的那樣,五角大樓堅持不同的路線。

“在涉及自主系統和人工智能係統時,國防部一直反對‘有意義的人類控制’的政策標準,” 格雷戈里·艾倫,人工智能治理項目主任 戰略和國際研究中心, 告訴我。 “國防部首選的藝術術語是‘適當的人類判斷水平’,這反映了這樣一個事實,即在某些情況下——例如,自主偵察機和某些類型的自主網絡武器——人類控制的適當水平可能很少甚至沒有”

在什麼情況下允許使用哪些自主武器? 艾倫認為該指令的先前版本非常不明確,以至於阻礙了該領域的任何發展。

“混亂是如此普遍——包括在一些國防部高級領導人中——以至於官員們避免開發一些系統,這些系統不僅是政策允許的,而且還明確免除了高級審查要求,”艾倫說。

在最初的 3000.09 發布後的十年裡,沒有一件武器被提交到自主武器的審查程序中。

艾倫寫了一篇 關於這個的文章 去年為 CSIS 描述了四個需要工作的領域——正式定義自主武器系統,說明“人工智能”對政策意味著什麼,審查過程將如何處理機器學習模型的再訓練,並闡明哪些類型的武器需要經歷艱苦的審查過程。

“國防部已經實施了所有這些,”艾倫說。

那麼原則上,這應該確保國防部所說的“堅定而持續地致力於成為透明的全球領導者,制定有關自主系統軍事用途的負責任政策。”

然而,有一些可能被視為漏洞的補充,例如不以人為目標(“反物質武器”)但允許以導彈、其他無人機為目標的自主武器防禦無人機免於高級審查以及可能的其他系統。

“'捍衛'這個詞正在做大量的工作,” 扎克·卡倫博恩,喬治梅森大學沙爾政策與政府學院的一名政策研究員告訴我。 “如果無人機在敵方領土上運行,幾乎任何武器都可以被解釋為‘保衛’平台。”

Kallenborn 還指出,雖然像地雷這樣的有效自主武器已經使用了一個多世紀,但由於人工智能和特定機器學習的進步,情況正在迅速發生變化。 這些已經產生了非常有能力的系統,但是 技術上脆弱 – 當他們失敗時,他們以人類不會的方式失敗,例如 把烏龜當成步槍.

Kallenborn 說:“考慮到目前主導方法的脆弱性和缺乏可解釋性,通過人工智能實現的自主權絕對值得更多關注。”

更新不是很大。 但這確實表明五角大樓繼續致力於開發有效的自主武器,並相信他們可以遵守 國際人道法 — 區分平民和軍事人員,力求避免傷害平民,並且只使用相稱和必要的武力。

活動人士認為,人工智能將不具備在戰時做出道德判斷所需的理解力,並有可能創造一個戰爭自動化、人類不再受控的世界。 其他人認為美軍將 被擁有自主武器的對手擊敗 除非人工智能被納入戰術層面,而且太多的人類參與 減慢軍事機器人.

即使自主武器開始出現,爭論也可能繼續下去,結果將受到密切關注。 無論哪種方式,殺手機器人似乎都來了。

來源:https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/