AI 倫理在基於 AI 的自主武器系統的火熱一擊二拳和對被惡魔武器化的 AI 驅動的自主系統的利用中苦苦掙扎

那些令人驚嘆的跳舞四足機器人。

我確信您已經看過那些四足機器人系統的病毒視頻,它們以看似令人愉快且像狗一樣受人喜愛的方式跳舞和騰躍。 我們似乎很高興看到這些人工智慧驅動的機器人爬過障礙物,當它們棲息在盒子頂部或被搖搖欲墜地放在櫥櫃頂部時,它們似乎獲得了微妙的立足點。 他們的人類處理者有時會戳或推這些嬉戲的四足機器人,這似乎非常不公平,很容易激起你對那些主謀人形機器人的粗暴對待的憤怒。

我想知道您是否看過完全不同級別的不那麼火爆的視頻。

做好準備。

廣泛發布的影片顯示了同一種四足機器人,這些機器人配備了某種明顯的武器。

例如,機關槍或類似的槍支安裝在熟悉的跳舞機器人的頂部。 四足機器人和武器發射機構之間有電子連動裝置。 現在武器化的電腦行走裝置大步走到了靶心目標所在的地方,機槍向目標猛烈射擊。 在釘住隨後被部分摧毀的目標後,四足機器人會繞著附近的障礙物跳舞和騰躍,並排隊在其他新目標上一遍又一遍地重複相同的動作。

與您可能期望看到的不完全一樣。 這無疑會消除坦率地觀看這些可愛的四足機器人做事時的輕鬆感和相對快樂。 歡迎來到看似嚴酷的現實 無害的 自主系統正在被轉換或轉變為高度武器化。 無需付出太多努力,您就可以在一夜之間擁有一個經過深思熟慮的「非武器化」自主系統,並對其進行改裝以容納全套武器。

在某些情況下這幾乎是很容易的。

我將討論這個備受爭議的話題,並討論由此產生的相當嚴重的人工智慧倫理疑慮。 我們將深入探討自主系統、人工智慧、自動駕駛汽車、武器化以及一系列相關的人工智慧道德問題。 有關我對人工智慧倫理和道德人工智慧的持續和廣泛的報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

讓我們從一些基本要點開始。

為了方便討論,請接受配備武器的自主系統分類的主要方法有兩種:

1)自主武器系統 (依設計)

2)武器化的自治系統 (事後)

這兩個類別之間有一個重要的區別。

首先,我們將定義一個 自主武器系統 從一開始就是一個完全電腦化的創造物,有目的地成為一種武器。 開發人員想要設計一種武器。 他們的明確目標是生產武器。 他們知道他們可以將武器與最新的自主系統技術整合起來。 這是一種利用高科技浪潮的武器,可以實現自主移動和自主行動(我很快就會更全面地闡述)。

相較之下,在第二種情況下,我們將考慮完全不傾向於武器的自主系統問題。 這些是為其他目的而開發的自主系統。 設想一種自動駕駛汽車,例如自動駕駛汽車,將用於為所有人提供移動性,並幫助減少每年因人類駕駛和操作汽車而造成的數千人死亡(請參閱我的深入報道)在 這裡的鏈接)。 對於那些樂觀的社會推動努力讓人類擺脫方向盤並讓人工智慧取代駕駛座的人來說,似乎沒有考慮使用任何武器。

但如果人類願意的話,這些無害的自主系統可以被武器化。

我將第二類稱為 武器化的自主系統。 這個自主系統最初是為了非武器目的而精心設計的。 儘管如此,這種夢幻般的利他主義希望還是被某個地方的某人顛覆了,他們認為這種發明可以被武器化。 突然之間,看似可愛的自主系統透過標記某種形式的武器功能而變成了致命武器(例如前面提到的四腳狗式機器人,其功能上添加了機槍或類似槍械) 。

遺憾的是,這兩個類別最終在某種程度上處於同一位置,即提供在潛在致命的基礎上利用自主系統武器的能力。

到達該終點的過程可能會有所不同。

對於被視為武器的徹底武器化自主系統來說,武器方面通常是最重要的。 你可能會說,自主系統的各個方面都圍繞著正在考慮的任何武器的基石。 開發人員的思考過程有點類似武器如何利用自主系統的出現。

另一種觀點通常根本不是這種心態。 開發人員希望開發出最先進的自治系統,也許是為了造福人類。 這些開發人員將他們最真誠的心和靈魂投入了自治系統的開發中。 這是他們發明的核心。 他們可能不會想像有人會篡奪或顛覆他們神奇的有益設備。 他們非常迷戀與正在形成和產生的自治系統相關的社會效益。

在某種程度上,假設第三方意識到自主系統可以被重新調整為武器化。 也許他們欺騙開發人員讓他們擁有自治系統,以達到所謂的崇高目的。 這些作惡者暗地裡選擇偷偷地為自治系統添加武器化能力。 瞧,純真變成了徹底的武器。

事情不必以這種方式進行。

也許開發人員被告知他們正在開發一個無辜的自治系統,但那些資助或指導這項工作的人卻有其他目的。 也許自治系統的努力確實是無辜開始的,但當必須支付帳單時,領導層與出於邪惡原因想要自治系統的資金來源達成協議。 另一種可能性是,開發人員知道後來的用途可能是武器化,但他們認為,當這座令人痛苦的橋樑出現或一旦出現,他們就會跨越這座橋樑。 ETC。

這一切如何展開有很多很多不同的路徑。

您可能會對我在之前的專欄中描述的興趣,即關於人工智慧道德意識的不斷提高 兩用 當代人工智慧的元素,請參閱 這裡的鏈接。 讓我簡要地向您介紹一下情況。

一個被設想為好的人工智慧系統有時可能會處於壞的邊緣,也許透過一些相當簡單的改變,相應地被視為具有雙重用途。 最近的新聞報導了一個人工智慧系統,它的建立是為了發現可能致命的化學物質,開發人員希望確保我們能夠避免或警惕這種考慮不周的化學物質。 事實證明,人工智慧可以輕鬆進行調整,專門發現那些致命的化學物質,從而有可能讓壞人知道為他們的邪惡計劃準備哪些化學物質。

自主系統顯然可以適應這種雙重用途的環境。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括(可能令人驚訝或具有諷刺意味地)評估 AI Ethics 如何被公司採用。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智慧的新法律,而且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實頒布了其中一些人工智慧法律,我們將透過壓制具有巨大社會優勢的人工智慧進步來削弱金鵝的地位。

自主與武器作為兩條戒律

有些人用一個流行語來預警各種武器化自主系統,這些系統被統稱為 屠宰機器人.

這帶來了我們應該考慮的另一個面向。

自主武器系統和/或已武器化的自主系統是否必須具有致命或殺手機器人優勢?

有些人會爭辯說,我們本來可以明確地 非致命性 自主系統也武器化。 因此,從這個角度來看,使用諸如屠宰機器人或殺手機器人之類的措辭似乎是非常不合適的。 非致命變異可能能夠抑製或造成不致命的傷害。 這些系統不會殺人,它們造成傷害的能力較小。 那些堅持認為我們不必全神貫注於徹頭徹尾的殺人機器比喻的人說,不要誇大這些能力。

因此,我們可能有這樣的:

  • 致命自主武器系統
  • 已武器化的致命自主系統
  • 非致命自主武器系統
  • 已武器化的非致命自主系統

當然,反駁的觀點是,任何已武器化的自主系統似乎都有可能滑入殺傷性領域,即使據說只是設想用於非殺傷性基礎上。 一旦你在自主系統中拿到了武器,從非致命到致命的增量兩步驟將會很快進行。 你很難提供一個鐵定的保證,非致命性不會進入致命性領域(儘管有些人試圖以數學上的方式這樣做)。

在我們進一步深入探討自主系統和武器化的整體主題之前,可能需要指出一些其他事情,儘管這些事情可能是顯而易見的,但不一定是最重要的。

在這裡,它是:

  • 人工智慧是自主系統的重要組成部分
  • 有一個武器方面是這個等式的武器方面
  • 人工智慧也可能與武器裝備互連

讓我們打開包裝。

我們假設今天的自治系統需要人工智慧作為實現自治方面的底層電腦化手段。 我提到這一點是因為你可能會試圖爭辯說我們可能會使用非人工智慧相關的技術和技巧來實現自主系統,雖然這是事實,但似乎可能性越來越小。 基本上,人工智慧傾向於允許更大程度的自主權,並且大多數人都相應地利用人工智慧高科技。

好的,我們已經有了一種基於人工智慧的功能,它以某種方式註入到自治系統中,並指導和控制自治系統。

作為經驗法則,將其放在您的指尖。

顯然,我們還需要某種形式的武器,否則我們為什麼要在這裡討論自主系統的主題 武器。 所以,是的,顯然,存在一種或另一種武器。

我不會深入研究可能使用的武器類型。 你可以簡單地替換你想到的任何武器。 可能有精確武器。 可能存在大規模殺傷性武器。 它可能是帶有子彈或射彈的東西。 它可能含有化學物質或原子揮發性成分。 這個清單是無窮無盡的。

額外的考慮因素是人工智慧是否與武器裝備互聯。 人工智慧可能只是利用武器來搭便車。 在四足機器人開槍的情況下,開槍的人可能有一個與武器觸發裝置相連的遙控器。 這個像狗一樣的機器人在場景中導航,然後由遠端人員扣動扳機。

另一方面,人工智慧可能是扣動扳機的人。 人工智慧可能不僅可以導航和機動,還可以啟動武器。 從這個意義上說,人工智慧正在做從頭到尾的所有事情。不依賴遠程人類來執行武器方面的事情。 人工智慧被編程為這樣做。

為了澄清在武器化自主系統的這個特定用例中,我們有以下幾種可能性:

  • 自治系統: 人工智慧完全獨立運作自主系統
  • 自治系統: 人工智慧運作自主系統,但人機互動也可以介入
  • 武器: 遠程人類操作武器(人工智慧則不然)
  • 武器: 人工智慧控制武器,但人機互動也可以幹預
  • 武器: 人工智慧完全獨立運作武器

我之前介紹過有關自主系統和自主車輛的人機互動的變化,請參閱 這裡的鏈接.

當你觀看那些跳舞和騰躍的四足機器人的有趣影片時,它們通常被認為是專門由人工智慧導航運行的機器人(嗯,這是那些深入了解的人中的習俗或被認為是正確的禮儀)到這些問題)。 這也是你可能正確假設的。 當然,你並不能確定這一點。 可能是遠端操作員正在引導機器人。 還有一種可能性是,人工智慧負責部分引導,遠端人類操作員也會這樣做,如果機器人陷入困境並且無法透過計算計算出可行的方法來自由擺動,也許會幫助人工智慧。

這裡的重點是,人工智慧、自主系統和武器化的混合方式有很多種。 有些擁有運作自主系統但不運作武器的人工智慧。 人類也許可以遠端操作武器。 另一個角度是,武器可能是預先啟動的,自主系統發射啟動的武器,因此人工智慧本身並沒有直接參與武器的觸發,而是充當運載工具。 人工智慧可能是眾所周知的多才多藝,並且也可以在武器裝備的使用方面發揮自主系統的全部作用。

隨你挑選。

同時,請注意,在有關該主題的辯論中,人機互動是一個重要因素。

有些人的分界線是,如果人工智慧正在執行瞄準和射擊(或武器所需的任何操作),那麼整個工具包和一堆東西就已經進入了禁區。 這似乎與傳統的「發射後不管」武器不同,後者俱有預先確定的目標,例如巡邏無人機,其飛彈已準備好向目標發射。 已經 由人類選擇。

有些人想知道為什麼武器化的自主系統並不總是在整個自主系統處於積極運作狀態的過程中包括人在環中。 如果一個嚴格的要求是所有此類武器化自主系統都必須有一個人在迴路,無論是為了自主系統的操作還是為了操作武器(或兩者),我們的情況似乎可能會更好。 在這種人工智慧組合中保留假設的可靠且穩定的人手可能看起來非常精明。

準備好列出一長串為什麼不一定可行的原因。

考慮這些困難:

  • 人機互動可能不夠快,無法及時回應
  • 人機互動可能沒有足夠的資訊來盡職地做出回應
  • 人機互動可能無法在需要時提供
  • 人機互動可能尚未決定,不會在需要時採取行動
  • 人機互動可能會做出「錯誤」的決定(相對而言)
  • 可能無法在需要的時間從系統存取人機交互
  • 人機互動可能會感到困惑並不知所措
  • 等等

毫無疑問,你很想看看人類的弱點和限制清單,然後得出一個莊嚴的結論:切除人在循環中並始終使用人工智慧顯然是有意義的。 這可能是為了排除人在環,或者可能讓人工智慧涵蓋根深蒂固的人在環設計。 請參閱我對人工智慧和人機循環之間的分歧如何導致不穩定情況的分析,內容包括: 這裡的鏈接.

通常,這些以人為中心的即時缺點的輕視清單會自動留下,並給人留下揮之不去的印象,即人工智慧必須以某種方式實現跨越式發展,這是比人在環中更明智的選擇。 不要落入那個姦詐的陷阱。 其中涉及發人深省的權衡。

考慮一下人工智慧的這些影響:

  • AI可能會遇到導致誤入歧途的錯誤
  • AI 可能不堪負荷並無響應地鎖定
  • 人工智慧可能包含導致不穩定行為的開發人員錯誤
  • AI可能會被植入的邪惡病毒所破壞
  • 人工智慧可能會被網路駭客即時接管
  • 由於複雜性,人工智慧可能被認為是不可預測的
  • 人工智慧可能會透過計算做出「錯誤」的決定(相對而言)
  • 等等

我相信您可以看到使用人機互動與完全依賴人工智慧之間存在權衡。 如果您想建議現成的解決方案是同時使用兩者,我想強調的是,您可以兩全其美,但也可以兩全其美。 不要認為它總是並且肯定是兩全其美的。

您可能對上面列出的有關人工智慧的缺點之一感到有些驚訝,特別是人工智慧可能是 變幻莫測。 我們習慣於相信人工智慧應該是嚴格的邏輯和數學精確。 因此,您可能也期望人工智慧將是完全可預測的。 我們應該確切地知道人工智慧會做什麼。 至此,故事結束。

很抱歉讓氣球破裂,但這種可預測性的神話是用詞不當。 現代人工智慧的規模和複雜性往往是一個無法完全預測的泥沼。 這一點可以從當今有關機器學習 (ML) 和深度學習 (DL) 用途的人工智慧道德爭議中看出。 我稍後會詳細解釋一下。

另外,您可能想看看我對即將到來的趨勢的最新分析,試圖透過最新的人工智慧安全來確保可驗證和數學上可證明的正確人工智慧系統,位於 這裡的鏈接.

反思道路規則

我提到了目標和瞄準的概念,這是一個相當沉重的術語,值得密切關注。

我們可以這樣思考:

  • 目標是人類
  • 目標不是人類而是生物
  • 被視為財產的目標

假設我們有一個已武器化的自主系統。 人工智慧用於引導自主系統並用於武器裝備。 人工智慧可以完成從頭到尾的所有事情。沒有人參與的規定。 在瞄準方面,AI會選擇目標。 人類並沒有預先設定目標。 相反,人工智慧被編程為一般確定是否有人類成為目標(可能掃描敵對行為、某些類型的製服等)。

到目前為止,和我在一起了嗎?

這種情況幾乎是引起人們對武器化自主系統最強烈抗議的情況。

所表達的擔憂是人工智慧正在做(至少)三件不應該被允許做的事情:

  • 以人類為目標
  • 無需人工參與即可定位目標
  • 潛在的行為不可預測ly

請注意,其中有針對性地提到了對人工智慧不可預測的擔憂。 可能的是,雖然人工智慧被編程為針對某些類型的人類,但人工智慧程式設計並不是我們想像的那樣,除了那些人工智慧應該解釋為「敵對分子」的人之外,人工智慧最終還瞄準了「友軍」 」(或者,也許可以代替)。 除此之外,即使我們選擇加入「人在環」條款,人工智慧的不可預測性也可能意味著,當人工智慧應該與「人在環」進行協商時,它卻無法做到這一點。所以並且在沒有任何人為幹預的情況下進行操作。

您可能會感興趣的是,紅十字國際委員會(紅十字國際委員會)提出了關於自主武器系統的三點總體立場,詳細闡述了這些類型的擔憂(根據紅十字國際委員會網站):

1. 「應明確規定不可預測的自主武器系統 ,特別是因為它們的不加區別的影響。 實現這一目標的最好辦法是禁止自主武器系統的設計或使用方式使其影響無法得到充分理解、預測和解釋。”

2. 「出於維護人類的道德考慮,並維護保護平民和失去戰鬥力的戰鬥人員的國際人道主義法規則, 應排除使用自主武器系統來瞄準人類。 最好通過禁止設計或用於對人施加武力的自主武器系統來實現這一目標。”

3. 「為了保護平民和民用物體,維護國際人道法規則並保障人類,不應禁止的自主武器系統的設計和使用應受到監管,包括透過以下措施相結合: 目標類型的限制,例如將它們限制在本質上是軍事目標的物體上; 使用期限、地理範圍和使用規模的限制,包括實現與特定攻擊相關的人為判斷和控制; 使用情況限制,例如將其限制在不存在平民或民用物體的情況下; r人機互動需求,特別是確保有效的人工監督以及及時幹預和停用。”

與此相關的是,根據網路上發布的官方報告,聯合國(UN) 透過日內瓦《特定常規武器公約》(CCW) 制定了XNUMX 項關於致命性自​​主武器的非約束性指導原則(包括對相關國際人道主義法的引用)。法律或國際人道法但書):

(a) 國際人道法繼續全面適用於所有武器系統,包括致命性自主武器系統的潛在開發和使用;

(b) 必須保留人對武器系統使用決策的責任,因為責任不能轉移給機器。 應在武器系統的整個生命週期中考慮這一點;

(c) 人機互動可以採取多種形式,並在武器生命週期的各個階段實施,應確保基於致命性自​​主武器系統領域新興技術的武器系統的潛在使用得到充分考慮遵守適用的國際法,特別是國際人道法。 在決定人機互動的品質和程度時,應考慮一系列因素,包括作戰環境以及整個武器系統的特徵和能力;

(d) 必須根據適用的國際法確保在《特定常規武器公約》框架內開發、部署和使用任何新興武器系統的責任,包括透過在負責任的人類指揮和控制鏈內運作此類系統;

(e) 根據各國依國際法承擔的義務,在研究、開發、取得或採用新武器、作戰手段或方法時,必須確定其使用在某些或所有情況下是否會受到影響。國際法禁止;

(f) 在開發或取得基於致命自主武器系統、實體安全、適當的非實體保障(包括針對駭客或資料欺騙的網路安全)領域的新興技術的新武器系統時,恐怖組織取得的風險應考慮擴散風險;

(g) 風險評估和緩解措施應成為任何武器系統新興技術的設計、開發、測試和部署週期的一部分;

(h) 應考慮在致命性自主武器系統領域使用新興技術,以遵守國際人道法和其他適用的國際法律義務;

(i) 在製定潛在的政策措施時,致命性自主武器系統領域的新興技術不應擬人化;

(j) 在《特定常規武器公約》範圍內進行的討論和採取的任何潛在政策措施不應妨礙智慧自主技術的進展或和平利用;

(k) 《特定常規武器公約》為在《公約》的目標和宗旨範圍內處理致命自主武器系統領域的新興技術問題提供了適當的框架,力求在軍事必要性和人道主義考慮之間取得平衡。

我們陷入的困境

這些不同的戰爭法、武裝衝突法或國際人道法(IHL)可以作為重要且永遠有前途的指南,幫助我們考慮如何應對武器化的自主系統的出現,無論是透過關鍵設計還是透過事後方法。

我們真誠地希望對致命武器化自主系統的禁令能夠得到嚴格和服從的遵守。 問題是,任何最真誠的禁令都必然存在著很大的迴旋餘地。 正如他們所說,規則就是用來打破的。 你可以打賭,當事情變得鬆散時,痞子就會找出漏洞,試圖繞過規則。

以下是一些值得考慮的潛在漏洞:

  • 非致命聲明。 使 非致命性 自主武器系統(看起來沒問題,因為它超出了禁令邊界),然後你可以立即將其轉變為致命武器(你只會在最後一刻超出禁令)。
  • 僅自治系統的聲明。 堅持禁令,不要製造以致命為重點的自主系統,同時,在設計尚未武器化但可以立即改裝為武器化的日常自主系統方面取得盡可能多的進展。
  • 未整合為一體的主張。 打造完全沒有武器化的自主系統,並在時機成熟時搭載武器化,這樣你就可以嘗試激烈地爭論它們是兩個獨立的元素,因此認為它們不屬於一體化的範疇自主武器系統或其表親。
  • 聲稱它不是自治的。 製造一個看起來不具備自主能力的武器系統。 在這個可能是非自治的系統中為基於人工智慧的自治系統留出空間。 當需要時,插入自治權,你就可以開始了(在那之前,看起來你並沒有違反禁令)。
  • 其他

試圖徹底禁止致命自主武器系統還存在許多其他明顯的困難。 我將介紹其中的更多內容。

一些專家認為禁令並不是特別有用,相反應該有監管規定。 我們的想法是,這些裝置將被允許,但受到嚴格監管。 列出了一系列合法用途,以及合法的目標方式、合法的能力類型、合法的比例等等。

在他們看來,直接的禁令就像把頭埋在沙子裡,假裝房間裡的大像不存在。 然而,這一論點讓那些反對這一論點的人熱血沸騰,因為透過實施禁令,你可以大大減少追求此類系統的誘惑。 當然,有些人會炫耀這項禁令,但至少希望大多數人不會。 然後,您可以將注意力集中在炫耀者上,而不必將注意力分散到每個人身上。

這些爭論周而復始。

另一個經常引起關注的問題是,即使好人遵守禁令,壞人也不會。 這讓好人處於一種糟糕的境地。 壞人將擁有此類武器化自主系統,而好人則不會。 一旦事情敗露,壞人得逞,好人再想追趕就太晚了。 簡而言之,唯一明智的做法就是做好以牙還牙的準備。

還有經典的威懾爭論。 如果好人選擇製造武器化的自主系統,這可以用來阻止壞人試圖捲入爭鬥。 要么好人會更好地武裝起來,從而阻止壞人,要么當壞人可能揭露他們一直在秘密設計這些系統時,好人就會做好準備。

與這些計數器相反的是,透過製造武器化的自主系統,你正在發動一場軍備競賽。 另一方也會尋求同樣的結果。 即使他們在技術上無法重新創建這樣的系統,他們現在也能夠竊取「好」系統的計劃,對高科技核心進行逆向工程,或者模仿任何他們認為經過考驗的系統完成工作的方法。

啊哈,有人反駁,所有這些可能會導致相互之間的衝突減少一些。 如果A方知道B方擁有那些致命的自主系統武器,而B方也知道A方擁有這些武器,他們可能會坐以待斃,不會打起來。 這具有相互確保毀滅(MAD)氛圍的獨特光環。

等。

自治中的人工智慧

讓我們確保我們對於當今人工智能的本質達成共識。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

有了這些基礎背景,我們再次轉向自主系統和武器化主題。 我們之前看到人工智慧進入了自主系統組件,也可以進入武器化組件。 今天的人工智慧沒有感知能力。 這是值得重複的,我將強調這一點,以便對這些問題有更多的見解。

讓我們探討一些場景,看看這為何是一個重要的考慮因素。 我將暫時擺脫對這個主題的戰時導向,並展示它如何滲透到許多其他社會環境中。 相應地穩定自己。

一種基於人工智慧的自主系統,例如與武器無關的自動駕駛汽車,正在正常的場所中出現。 人類前來使用自動駕駛汽車。 此人手持不祥的武器。 為了在這個特定場景中進行討論,假設這個人心裡有一些不愉快的事情。 該人進入自動駕駛車輛(攜帶武器,隱藏或不隱藏,無論哪種方式)。

自動駕駛車輛將前往乘客要求的任何目的地。 在這種情況下,人工智慧只是以編程方式將該乘客從一個上車地點運送到指定目的地,就像它每天可能進行數十或數百次旅行一樣。

如果這是一名人類駕駛員和一輛人類駕駛的車輛,那麼人類駕駛員大概有可能意識到乘客攜帶武器並且似乎有不良意圖。 人類駕駛員可能會拒絕駕駛車輛。 或者人類司機可能會開車去警察局。 或者,人類駕駛可能會試圖制服武裝乘客(有報道)或勸阻乘客使用武器。 它相當複雜,並且可以存在任意數量的變體。 你很難斷言解決這個兩難只有一個正確的答案。 可悲的是,情況令人煩惱,而且顯然很危險。

在這種情況下,人工智慧不太可能針對任何此類可能性進行程式設計。 簡而言之,武裝乘客可以在駕駛過程中從自動駕駛汽車內使用他們的武器。 人工智慧駕駛系統將繼續行駛,自動駕駛車輛將繼續前往乘客指定的目的地(假設目的地沒有被視為越界)。

大多數當代人工智慧駕駛系統在計算上僅關注道路,而不關注騎手的努力。

事情可能會變得更糟。

假設有人想要將一堆雜貨運送到一個為有需要的人提供額外食物的地方。 該人請求一輛自動駕駛汽車,並將一袋袋雜貨放在汽車後座。 他們不會搭便車,而只是使用自動駕駛汽車為他們運送食品袋。

看起來完全沒問題。

想像一下,一個卑鄙的人選擇在自動駕駛汽車中放置某種形式的武器,而不是更和平的雜貨袋。 我想你可以猜到會發生什麼。 這是我在專欄中反覆勸告的問題,並預先警告我們需要儘早應對。

針對此類場景的一種回應是,也許所有自動駕駛車輛都可以被編程為利用攝影機和其他感測器來嘗試檢測潛在乘客是否攜帶武器並有惡意。 也許人工智慧會被編程來做到這一點。 或者,人工智慧以電子方式無聲地向遠端操作員發出警報,然後操作員將透過攝影機進行視覺檢查,並可能與乘客互動。 它是複雜且潛在棘手的蠕蟲病毒的一部分,因此引發了嚴重的隱私問題和大量其他潛在的人工智慧道德問題。 請參閱我的報道 這裡的鏈接.

另一個有點類似的替代方案是,人工智慧包含某種嵌入式道德編程,試圖使人工智慧能夠做出通常為人類決策者保留的道德或道德判斷。 我已經研究了這些醞釀中的人工智慧嵌入式運算倫理預測器,請參閱 這裡的鏈接這裡的鏈接.

回到戰場場景,想像一個致命的自主武器系統正在戰區上空巡航。 人工智慧正在運作自主系統。 人工智慧正在操作機上的武器。 我們早些時候曾設想過,人工智慧可能會被編程為掃描看似敵對的動作或被視為有效戰鬥人員的人類目標的其他指標。

同樣的人工智慧是否應該具有某種以道德為導向的組件,努力透過計算來考慮「人在環」可能會做什麼,在某種意義上代替「人在環」?

有人說是的,讓我們繼續努力。 有些人驚恐地退縮,說這要么不可能,要么違反了人性的神聖性。

又一罐蠕蟲。

結論

對於那些對這個主題感興趣的人,還有很多東西可以討論。

我將讓您快速了解一個棘手的難題。

我們通常期望人類最終會對戰時發生的任何事情負責。 如果人工智慧正在控制一個自主武器系統或控制一個可能已武器化的自主系統,而該系統在戰場上做了一些被認為不合理的事情,那麼誰或什麼應該為此受到指責?

你可能會說人工智慧應該要承擔責任。 但是,如果是這樣,這到底意味著什麼? 我們還不認為今天的人工智慧是法人人格的體現,請參考我的解釋: 這裡的鏈接. 對於人工智慧來說,不要把尾巴釘在驢子上。 或許,如果人工智慧有一天變得有知覺,你可以嘗試這樣做。 在那之前,這還有些遙遠(另外,人工智慧會受到什麼樣的懲罰或影響,請參考我的分析: 這裡的鏈接這裡的鏈接, 例如)。

如果人工智慧不是負有責任的嫌疑人,那麼我們自然會說,無論人類或人類設計了人工智慧,都應該承擔責任。 如果人工智慧只是運作一個自主系統,而有些人類將其與武器化結合起來,你能做到這一點嗎? 你會追隨人工智慧開發者嗎? 還是那些部署了人工智慧的人? 還是只是武器化的演員?

我相信您會明白我在熱烈的討論中只觸及了冰山一角。

現在,讓我們繼續結束這場演講。 你可能還記得約翰‧萊利 (John Lyly) Euhues:機智的解剖 1578 年,令人難忘的是,愛情和戰爭中一切都是公平的。

他是否會想到自主武器系統的出現以及同樣武器化的自主系統的出現?

我們當然需要立即將其放在首位。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous -武器系統和對人工智慧驅動的自主系統的利用,這些系統被邪惡地武器化/